PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8800GTX SLI Erfahrungsthread- oder, ich habe das Licht gesehen ;)


Seiten : 1 [2]

tombman
2006-11-14, 08:56:51
Ok, Leute, JETZT wirds interessant!!!

Das ist so krass, ich hab ein Video mit der digicam (low end) gemacht, weil das glaubt mir keiner.

Active-X controls, die DIESES Forum verwendet, können SLI AUSSCHALTEN!!!

Ich hab das mehrfach probiert, es war immer das gleiche. Sieht man alles im Video.

Das Video kommt hier geich als Link.

Trixter
2006-11-14, 08:59:31
Ok, Leute, JETZT wirds interessant!!!

Das ist so krass, ich hab ein Video mit der digicam (low end) gemacht, weil das glaubt mir keiner.

Active-X controls, die DIESES Forum verwendet, können SLI AUSSCHALTEN!!!

Ich hab das mehrfach probiert, es war immer das geiche. Sieht man alles im Video.

Das Video kommt hier geich als Link.

hehe unglaublich

tombman
2006-11-14, 09:03:11
jo, und wenn man den SLI Modus im CP wieder einschalten will, meint das CP es müsse ANWENDUNGEN schließen um umschalten zu können. Das wird normalerweise nur verlangt wenn 3D (!) Anwendungen offen sind,wie games oder benchmarks. Aber seit wann gehört der IE dazu??? Und das verlangt er nur wenn man bereits IM FORUM ist und noch dazu einem UNTERFORUM.
3DCenter alleine reicht nicht. Und IE wird dann tatsächlich als 3D Anwendung erkannt und geschlossen!!!

Das Video ist leider unscharf, aber man kann noch erkennen was gemeint ist...kommt gleich

Trixter
2006-11-14, 09:06:21
ja wo ist es denn, firefox das gleiche?

tombman
2006-11-14, 09:25:34
Video
http://rapidshare.com/files/3289107/Picture_002.avi.html

Zocker_28
2006-11-14, 09:40:49
:eek: lol WTF, son mist:|

Gast
2006-11-14, 09:41:05
Wie kann man 2000 Euro ausgeben, und dann Betatester spielen! Wird Tombman
von Nvdia bezahlt?

Trixter
2006-11-14, 09:43:15
naja wenn man viel zeit dafür hat und geld, dann kann man auch so seine zeit verschwenden :)

Zocker_28
2006-11-14, 09:45:30
Wie kann man 2000 Euro ausgeben, und dann Betatester spielen! Wird Tombman
von Nvdia bezahlt?

Ne, das ist die Sucht immer was neues zu haben:biggrin:
Ich würds auch haben wenn ich die Kohle grad hätte:cool:

Superheld
2006-11-14, 09:48:06
irgendwas is da im Busch mit Nvidia treiber bei Java

bei mir hängt der sich immer auf wenn ich opera anhabe und ein Spiel beende

tombman
2006-11-14, 09:49:00
Naja, warum ich das mache? Weil die performance einfach abartig GEIL ist ;)

Die Frage ist jetzt nur: was darf ich installieren und was nicht? Wenn der Treiber SO heikel ist, kann jede Installation das Ende sein. Und da ist der Ausfall von SLI noch harmlos. Man kann genauso gut in den 1/8 Leistungsmodus kommen, und das ist dann NIMMER lustig, weil man dann (mindestens) den Treiber de- und dann wieder installieren muß...

Hmm, blede G'schicht...

Krustovsky
2006-11-14, 09:50:27
FEAR 1920x1200, alles max, SS on, 4xAA

Din FPSmin hängen wohl def. an der CPU:(

http://img293.imageshack.us/img293/7678/g80fear19204xaasson01jq7.th.jpg (http://img293.imageshack.us/my.php?image=g80fear19204xaasson01jq7.jpg)

tombman
2006-11-14, 09:51:19
irgendwas is da im Busch mit Nvidia treiber bei Java

bei mir hängt der sich immer auf wenn ich opera anhabe und ein Spiel beende

Hmm, da kann was dran sein. Und nur weil control panels über "schöner" sein müssen und Einsteigerfreundlich.
Wo sind die Zeiten von den alten control panels wo man nur ein paar Häkchen setzt und fertig :mad:

tombman
2006-11-14, 09:56:47
btw, das ist echt lustig: das offene Unterforum schaltet SLI tatsächlich AUS. Ganz klar zu sehen an der Lastanzeige, die dann nicht mehr da ist. Kaum beendet man den IE, renn der benchmark SOFORT wieder per SLI+Lastanzeige -> wie krass is das denn??? :eek:

Zocker_28
2006-11-14, 09:58:17
FEAR 1920x1200, alles max, SS on, 4xAA

Din FPSmin hängen wohl def. an der CPU:(

http://img293.imageshack.us/img293/7678/g80fear19204xaasson01jq7.th.jpg (http://img293.imageshack.us/my.php?image=g80fear19204xaasson01jq7.jpg)

Wie sieht es aus in 1600x1200?

PHuV
2006-11-14, 10:00:45
Hmm, da kann was dran sein. Und nur weil control panels über "schöner" sein müssen und Einsteigerfreundlich.
Wo sind die Zeiten von den alten control panels wo man nur ein paar Häkchen setzt und fertig :mad:

Welche Java-Version hast Du installiert? JRE 1.5.09, 1.412?

Da ich ja selbst Entwickler bin, weiß ich, daß es zu diversen Problemen kommen kann, wenn man von 1.4.12 auf 1.5 wechselt, ich kann ein Lied davon singen. Jetzt müßte man nur wissen, ob die Nvidia-Entwickler noch Java 1.4 kompatibel arbeiten oder schon Features von Java 5 (ab 1.5) nutzen. Bei uns in der Firma haben wir festgestellt, daß teilweise eine Mischung von Features große Probleme macht (nichts da mit 100% abwärtskompatibel). Da ich davon ausgehe, daß Nvidia darauf setzen muß, daß noch viele nur ein JRE 1.4er benutzen, nehme ich mal an, daß sie alles auf 1.4 Kompatibilität ausgelegt haben, aber wer ein 1.5 hat, könnte schon ein Problem bekommen.

Deshalb sag mir mal, welches JRE Du installiert hast.

Ich werde auf alle Fälle auch mal mein jungfräuliches System wieder mal recovern.

Krustovsky
2006-11-14, 10:04:25
Wie sieht es aus in 1600x1200?

So, noch mal komplett; 1600x1200, 4xTSSAA, 16xAF, alles max, SSon

http://img154.imageshack.us/img154/7411/g80fear16004xaasson02og8.th.jpg (http://img154.imageshack.us/my.php?image=g80fear16004xaasson02og8.jpg)

flatbrain
2006-11-14, 10:04:33
btw, das ist echt lustig: das offene Unterforum schaltet SLI tatsächlich AUS. Ganz klar zu sehen an der Lastanzeige, die dann nicht mehr da ist. Kaum beendet man den IE, renn der benchmark SOFORT wieder per SLI+Lastanzeige -> wie krass is das denn??? :eek:

Hm, könnte das evtl. an der AJAX-Funktionalität des Forums liegen? Nur mal so ein Gedanke... kannst du das mal mit einem anderen Forum (vB kleiner 3.5.x) testen?

Krustovsky
2006-11-14, 10:09:52
IE7 mit dieser Seite geöffnet im Hintergrund

ABER: Beim Start des Spiels KEINE Lastanzeige, nach der Aktivierungsprozedur der SS in Fear, war die Lastanzeige wieder da. SLI blieb ab diesem Punkt aktiv.

http://img227.imageshack.us/img227/8649/g80ie7geffnetka0.th.jpg (http://img227.imageshack.us/my.php?image=g80ie7geffnetka0.jpg)

flatbrain
2006-11-14, 10:11:55
Testet mal bitte mit einer anderen Seite bitte :) !

Zocker_28
2006-11-14, 10:13:45
So, noch mal komplett; 1600x1200, 4xTSSAA, 16xAF, alles max, SSon

http://img154.imageshack.us/img154/7411/g80fear16004xaasson02og8.th.jpg (http://img154.imageshack.us/my.php?image=g80fear16004xaasson02og8.jpg)

Hast du auch 2x 8800GTX ?
Und was für ne CPU hast du ?
Ich will hier nicht Anfangen mit "ATI ist besser" oder sowas, aber ich hab mehr mit einer x1950@XTX Takt.
Vieleicht hast du das gleiche Problem wie Tombman ?

1600x1200 4xAA/16xAF/ SS ON
http://img99.imageshack.us/img99/5984/1nj8.th.jpg (http://img99.imageshack.us/my.php?image=1nj8.jpg)

Krustovsky
2006-11-14, 10:23:09
Ja, zwei GTX:
Sicher, dass SS aktiviert waren, Du kennst die Prozedur?

Diese Seiten waren geöffnet:

http://img206.imageshack.us/img206/2235/ie7test01fy8.th.jpg (http://img206.imageshack.us/my.php?image=ie7test01fy8.jpg)

Hier 3DM06, von Beginn an keine Probleme, alles sehr merkwürdig

http://img329.imageshack.us/img329/3321/ie7test02gn4.th.jpg (http://img329.imageshack.us/my.php?image=ie7test02gn4.jpg)

Zocker_28
2006-11-14, 10:24:53
Ja SS sind on gewesen, ich kenn das mit dem erst SS on zurück dann AA an wieder zurück blabla, mhh wirklich alles komisch.

Krustovsky
2006-11-14, 10:36:20
So mit EINER Karte und ich bin mir ziemlich sicher, dass das ungefähr das Niveau meiner beiden 79er GTXen war:| Fear in 1920 mit SS on UND 4xAA war auf dem 79er Gespann schon sehr grenzwertig. Keine Ahnung wo ATI die Leistung herzaubert?

http://img88.imageshack.us/img88/4163/g80fear16004xaassonnoslxc8.th.jpg (http://img88.imageshack.us/my.php?image=g80fear16004xaassonnoslxc8.jpg)

Zocker_28
2006-11-14, 10:39:17
so wie ich das sehe, hast du diesen Leistungsbug (wie so viele) benenne mal die FEAR.exe in FERA1.exe um dann gehts wieder los:wink:
Das sieht man an den MIN FPS von 24, waren eigentlich immer nur ATI betroffen aber jetzt wohl auch NVs:(

Mr.Soapdown
2006-11-14, 10:47:09
Ich das alles garnicht glauben. Wahrscheinlich muss man wohl noch irgendwelche readmes lesen, dass man nur JRE1.4 installieren darf.

Tombman hatte auf sein frisches sys nur java noch installiert (zu lesen ein paar seiten vorher).

Für den Zeitaufwand müsste es aber wirklich mal eine Karte NETTO abfallen. Wie soll Otto-Normaluser da denn drauf kommen?

Wenn unser Kollege hiernicht so hartnäckig wär´ ........ oh oh oh.

Gast
2006-11-14, 11:12:35
Warum nutzt du nicht den Firefox? Der IE ist ja *********!!

Gast
2006-11-14, 11:19:26
Hallo,

kann mir einer sagen woher man einen 64bit Treiber für die 8800 Serie bekommt. Habe meine 8800GTX gerade verbaut nur fine ich keinen 96.94 für 64 bit. Ich denke da besonders an Tombman, da er 4GB im Rechner hat und somit sicher auch Win x64 nutzt. Bei meiner MSI war nur der 32bit Treiber (Frechheit) dabei. Danke im voraus.

Gast
2006-11-14, 11:44:01
Eventuell mal mit dem IE7 probieren anstelle des 6er.

PHuV
2006-11-14, 12:01:59
So, ich habe jetzt mal mit dem EVGA-Support telefoniert, die haben natürlich wieder mal keinen Plan, wissen von dem Fehler, können den aber nicht nachstellen, weil sie keine 8800GTX da haben und weil sie keine Spiele haben.

Toller Support.

Ronny145
2006-11-14, 12:34:05
irgendwas is da im Busch mit Nvidia treiber bei Java



Ist das nicht schon immer so gewesen? Wenn ich mit meiner Geforce 6+7 eine Java Anwendung offen hatte, gabs Probleme sobald ich dann ein Spiel gestartet habe. Ist somit nichts neues. Da findest du genügend mit der Suchfunktion.

tombman
2006-11-14, 12:35:06
Der nächste Wahnsinn: 1KW Verbrauch ;)

Achtung; bevor wieder einige ausflippen:

Der 24" CRT Moni und die Vapochill LS IST DA MIT EINGERECHNET!!! (die beiden verbrauchen locker 400Watt allein). Was allerdings hier noch fehlt ist ein scsi controller, 8 Hdds, X-FI und Phys-x Karte!

Die Belastung war so eingestellt, daß Dual Prime 95 UND 3Dmark06 @1920x1200, 8xAA+ HDR lief, GLEICHZEITIG! :cool:
(viel mehr kann man so ein Sys nicht belasten ;))

Nicht vergessen, da fehlt noch einige hardware...

Ich präsentiere: 1 KILOWATT Verbrauch ;)

http://img176.imageshack.us/img176/4257/1kwverbrauchud6.jpg (http://imageshack.us)

Trixter
2006-11-14, 12:36:11
Der nächste Wahnsinn: 1KW Verbrauch ;)

Achtung; bevor wieder einige ausflippen:

Der 24" CRT Moni und die Vapochill LS IST DA MIT EINGERECHNET!!! (die beiden verbrauchen locker 400Watt allein). Was allerdings hier noch fehlt ist ein scsi controller, 8 Hdds, X-FI und Phys-x Karte!

Die Belastung war so eingestellt, daß Dual Prime 95 UND 3Dmark06 @1920x1200, 8xAA+ HDR lief, GLEICHZEITIG! :cool:
(viel mehr kann man so ein Sys nicht belasten ;))

Nicht vergessen, da fehlt noch einige hardware...

Ich präsentiere: 1 KILOWATT Verbrauch ;)

http://img176.imageshack.us/img176/4257/1kwverbrauchud6.jpg (http://imageshack.us)

das mach kein spass mehr :) abartig bei den jetzigen strompreisen

whtjimbo
2006-11-14, 12:38:13
Im Umkerschluss würde ich dann behaupten, dass ein normaler unübertakteter X2 (4800+) oder C2D (E6600) und ein 8800 GTX SLI + 4 HDs deutlich unter 500W liegt :)
Schön zu wissen.

tombman
2006-11-14, 12:38:23
das mach kein spass mehr :) abartig bei den jetzigen strompreisen
So schlimm isses nicht, denn die meisten haben weder vapochill ls noch einen großen CRT, sondern einen TFT...
400Watt kannst schon mal MINDESTENS abziehen für den "normalen" 8800GTX SLI user ;)

tombman
2006-11-14, 12:40:33
Im Umkerschluss würde ich dann behaupten, dass ein normaler unübertakteter X2 (4800+) oder C2D (E6600) und ein 8800 GTX SLI + 4 HDs deutlich unter 500W liegt :)
Schön zu wissen.
Jo, sollte drunter liegen. Aber eine 8800GTX SLI wird NIE was für Stromsparer sein. Besonders unter hohen Auflösungen + AA ziehen die SAFT ohne Ende -- ist aber logisch ;)

whtjimbo
2006-11-14, 12:43:39
Ist das nicht schon immer so gewesen? Wenn ich mit meiner Geforce 6+7 eine Java Anwendung offen hatte, gabs Probleme sobald ich dann ein Spiel gestartet habe. Ist somit nichts neues. Da findest du genügend mit der Suchfunktion.

Seit Java 1.4 wird unter Windows auch HW-Direct3D für 2D Rendering verwendet, seit Java 1.5 unter Windows/Linux auch OpenGL für 2D verwendet. Vielleicht liegt es daran:
http://java.sun.com/j2se/1.5.0/docs/guide/2d/new_features.html

Trixter
2006-11-14, 12:48:44
So schlimm isses nicht, denn die meisten haben weder vapochill ls noch einen großen CRT, sondern einen TFT...
400Watt kannst schon mal MINDESTENS abziehen für den "normalen" 8800GTX SLI user ;)

naja aber trotdzem, die garkas werden nicht aufhören saft zu ziehen und in games kann man keine stromsparmassnahmen definieren :)

Johnny Rico
2006-11-14, 12:52:58
Ist das nicht schon immer so gewesen? Wenn ich mit meiner Geforce 6+7 eine Java Anwendung offen hatte, gabs Probleme sobald ich dann ein Spiel gestartet habe. Ist somit nichts neues. Da findest du genügend mit der Suchfunktion.

Jap. Hatte damals (6800GT Zeit) auch ständig Probleme damit und bin dann wieder zu ATI zurückgekehrt. Im nv-news Forum gibts auch einige Leute, die schon ewig deswegen rumjammern(kp wer oder wo, lese es immer mal wieder.

Das Problem tritt wohl zu wenig auf, damit nv sich bewegt und nv ist lahm wie ne Schnecke

Wenn man vom Teufel spricht ~~

http://www.computerbase.de/downloads/software/browser/java_runtime_environment/

tombman
2006-11-14, 13:11:05
btw, kennt noch wer rthribl? ;) (dort hat SLI noch nie gefunkt, aber was EINE 8800GTX raushaut ist kein Bemmerl ;)

1920x1200 4xAA (maxed): fast 80fps ;D;D

Blaze
2006-11-14, 13:15:52
Hä? bei mir hat SLI da schon immer funktioniert... :confused:

tombman
2006-11-14, 13:17:48
Hä? bei mir hat SLI da schon immer funktioniert... :confused:
bitte zwei screenshots, einmal ohne SLI, zweiter mit SLI und mit Lastanzeige ;)

joe kongo
2006-11-14, 13:36:49
Seit Java 1.4 wird unter Windows auch HW-Direct3D für 2D Rendering verwendet, seit Java 1.5 unter Windows/Linux auch OpenGL für 2D verwendet. Vielleicht liegt es daran:
http://java.sun.com/j2se/1.5.0/docs/guide/2d/new_features.html

Da wird sich NV schon was anderes einfallen lassen müssen als ne simple §D Erkennung, stell mir vor der Bildschirmschoner schaltet sich ein und die Karte
geht auf Vollgas :crazy2:.

Gast
2006-11-14, 14:15:35
nVidia + JRE...

War doch damals schon beim "Overlay-Bug" mit im Spiel. Scheinen sich ja prima zu mögen, die beiden...

Foxbat
2006-11-14, 14:35:35
super, jetzt können die Leute damit angeben, dass ihr PC 1,35 PS hat ;D , wie geil ist das

@tombman

Darf man Fragen wer der Händler deine Vertrauen in Wien ist?
Würde mich einfach interessieren welcher die Hardware, die du hast so früh beschaffe kann?

Ich hab sogar früher immer gedacht, dass dein Bezugsquelle irgendwo im Ausland ist.

Gast
2006-11-14, 14:57:44
So, ich habe jetzt mal mit dem EVGA-Support telefoniert, die haben natürlich wieder mal keinen Plan, wissen von dem Fehler, können den aber nicht nachstellen, weil sie keine 8800GTX da haben und weil sie keine Spiele haben.

Toller Support.

Häh? Wie stellen die sich das denn vor? Als wenn eVGA eine ganz besonders Office-orientierte Makre wäre... natürlich rufen da Spieler beim Support an. Gut zu wissen das ich mir diese Marke vom Wunschzettel streichen kann :)

Blaire
2006-11-14, 15:31:30
FEAR 1920x1200, alles max, SS on, 4xAA

Din FPSmin hängen wohl def. an der CPU:(

http://img293.imageshack.us/img293/7678/g80fear19204xaasson01jq7.th.jpg (http://img293.imageshack.us/my.php?image=g80fear19204xaasson01jq7.jpg)

Nein am schlechten SLI Profil hängen die. ;) Das Nvidia SLI Profil ist nur gut ohne Softshadows. Oder du hast das gleiche SlowDown Problem wie Tombman die Werte sind viel zu niedrig für 8800gtx@Sli

Moralelastix
2006-11-14, 18:02:01
Gibs schon Bilder von nem G80 Die also ohne diese Daukappe?

Wie stark dürfte sich das auf die Kühlung auswirken.

Feuerteufel
2006-11-14, 19:16:16
Was allerdings hier noch fehlt ist ein scsi controller, 8 Hdds, X-FI und Phys-x Karte!



Sag mal Tombman, wo willst die 3 Karten noch reinstecken? Die 2 GTXen belagern ja fast alle Steckplätze.

Grestorn
2006-11-14, 19:39:01
NEINNNNNNNNNNNN!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Ich bin schon wieder im langsamen Modus!!!!!!!!!!

Hmm, das einzige was ich neu installier habe war JAVA!!!

Beende mal den Java-Auto-Updater.

Es ist gut möglich, dass Java bremst, sobald eine Java-App läuft!

Hat sich ja erledigt.

Grestorn
2006-11-14, 19:43:19
btw, das ist echt lustig: das offene Unterforum schaltet SLI tatsächlich AUS. Ganz klar zu sehen an der Lastanzeige, die dann nicht mehr da ist. Kaum beendet man den IE, renn der benchmark SOFORT wieder per SLI+Lastanzeige -> wie krass is das denn??? :eek:

Hm. Ich denke, der IE schaltet nur die Prozesserkennung für die Aktivierung des Profils aus. Ich hatte schon öfter das Problem, dass aus irgendwelchen Gründen auf einmal die Profile und damit SLI nicht mehr aktiviert wurden.

Natürlich haben dann immer alle geschrien, dass nHancer schuld ist... :)

Mach mal den Test: Wenn Du im "langsamen" Modus bist, nimm nHancer und stell den korrekten SLI-Modus in den GLOBALEN Einstellungen ein. Danach BEENDEST Du nHancer, damit da keine zusätzlichen Effekte auftreten.

Mich würde interessieren, ob das SLI geht, wenn man es global und nicht über ein Profil aktiviert.

Udragor
2006-11-14, 19:48:54
Weil ichs grad erst auf seite 13 (?) gelesen hab..
Das Problem mit IE7 (aber auch schon mit IE6 und mit Firefox) hatte ich mit meiner 6600GT und jetzt mit meiner 7600GT auch. Sobald ich hier im Forum nach unten Scrolle (aber nicht nur hier sondern auf fast allen Seiten) schaltet die Karte in den 3D Modus (gut zu Hören, weil in dem Moment des Scrollens der Lüfter voll aufdreht). Da ich EVE Online im Fenster laufen lasse und am zweiten Monitor den Browser o.ä. offen hab, war/ist das natürlich immer ganz toll. Kaum Scrolle ich im Browser nach unten oder oben ruckelt in dem Moment das Spiel im Fenster ohne Ende. Also irgendwas stimmt da ganz sicher nicht.

Edit: grad noch eingefallen. Das ganze passiert nur, wenn ich schnell nach unten/oben Scrolle. Dreh ich das Mausrad langsam passiert nichts, aber wehe ich will schnell machen ^^

Razor
2006-11-14, 20:26:56
Ich will ja nicht immer der "Miesmacher" sein, aba...

- es gibt tatsächlich noch Leutz, die diesen Müll "Driver Cleaner" benutzen?
- da installiert jemand ein frisches System und das erste, was er drauf' macht, ist JAVA?
- richtig schockert hat mich die Tatsache, dass es hier doch wirklich Leute gibt, die ActiveX an lassen

Sorry, aber das war jetzt erst mal zuviel für mich.
Mann, mann, mann... da wird einem Angst und Bange.

Razor

P.S.: war das jetzt OT?

Grestorn
2006-11-14, 20:32:20
Ich will ja nicht immer der "Miesmacher" sein, aba...

- es gibt tatsächlich noch Leutz, die diesen Müll "Driver Cleaner" benutzen?
- da installiert jemand ein frisches System und das erste, was er drauf' macht, ist JAVA?
- richtig schockert hat mich die Tatsache, dass es hier doch wirklich Leute gibt, die ActiveX an lassen

Sorry, aber das war jetzt erst mal zuviel für mich.
Mann, mann, mann... da wird einem Angst und Bange.


Ah ja, ich weiß, Java, ActiveX und .NET sind ja grundsätzlich übel...

Alles drei vom Teufel besessen und muss schleunigst ausgetrieben werden. Und was das schlimmste ist: Ein jeder, der solches Teufelszeug benutzt ist entweder selbst des Teufels oder zumindest hochgradig schwachsinnig.

[/sarkasmus]

Absolute und kompromisslose Meinungen verabscheue ich grundsätzlich. Noch mehr verabscheue ich es, wenn Leute meinen, jeden mit anderen Ansichten, abschätzig behandeln zu müssen.

Gast
2006-11-14, 20:36:45
Ich will ja nicht immer der "Miesmacher" sein, aba...

- es gibt tatsächlich noch Leutz, die diesen Müll "Driver Cleaner" benutzen?
- da installiert jemand ein frisches System und das erste, was er drauf' macht, ist JAVA?
- richtig schockert hat mich die Tatsache, dass es hier doch wirklich Leute gibt, die ActiveX an lassen

Sorry, aber das war jetzt erst mal zuviel für mich.
Mann, mann, mann... da wird einem Angst und Bange.

Razor

P.S.: war das jetzt OT?

3x Ack!!!111

1. The best Driver cleaner is to reset your system.
2. Java? (Wtf? Java for Benchmarking?)
3. ActiveX - (Wtf again? ActiveX for Benchmarking?)

Keine Ahnung, warum ein "Testsystem so aufgesetzt wird....

Razor
2006-11-14, 20:39:50
@grestorn

1) geht es Dir noch 'gut'?
2) wo schrieb' ich was von .NET?
3) wo schrieb ich, dass JAVA schlecht ist?
4) wer weiß nicht, dass 90% aller Sicherheitslücken in ActiveX-Controls zu suchen sind?

Wenn Du Dich wieder abgeregt hast, kannst Du ja mal ergründen, wie Du in einem einzigen Post auf solch großen Mist gekommen bist... ist schon eine Leistung, echt.

Nur weiter so!

Razor

The Cell
2006-11-14, 20:49:38
Geht per PN streiten bitte.
Es geht hier um Tombis Licht...äh seine Benchamrks. ;)

Gruß,
QFT

Grestorn
2006-11-14, 20:49:43
1. Ja, mir geht es hervorragend
2. Ich weiß, wie Du zu .NET stehst, auch wenn es hier ausnahmsweise mal nicht Ziel Deiner Propaganda ist
3. Warum echauffierst Du Dich dann, dass er Java installiert hat? Das macht man nicht, wenn man das für eine gute Idee hält.
4. Das ist schlicht falsch. Es gibt eine Reihe von Sicherheitslücken durch ActiveX-Controls, das stimmt. Genau die selbe Art von Fehler können in Firefox-Plugins stecken. Der einzige Unterschied bei ActiveX ist, dass diese signiert sind, und somit eine (trügerische) Sicherheit vorgeben und halbautomatisch aktiviert werden. Wenn man aber weiß, was man macht, ist ein ActiveX Control genauso (un)sicher, wie jede andere Software, die sich so auf einem Rechner tummelt.

Eine dogmatische Ablehnung von ActiveX zeugt nur von einem: Von mangelhaftem Verständnis der Zusammenhänge.

Derjenige, der sich toll fühlt, weil er ActiveX deaktiviert, soll bitte auch niemals irgendeine andere SW aus dem Netz laden und auf seinem System starten. Sonst macht er sich zum Narren.

Freut mich übrigens, dass Du so gut zählen kannst. Weiter so!

Gast
2006-11-14, 20:52:09
1. Ja, mir geht es hervorragend
2. Ich weiß, wie Du zu .NET stehst, auch wenn es hier ausnahmsweise mal nicht Ziel Deiner Propaganda ist
3. Warum echauffierst Du Dich dann, dass er Java installiert hat? Das macht man nicht, wenn man das für eine gute Idee hält.
4. Das ist schlicht falsch. Es gibt eine Reihe von Sicherheitslücken durch ActiveX-Controls, das stimmt. Genau die selbe Art von Fehler können in Firefox-Plugins stecken. Der einzige Unterschied bei ActiveX ist, dass diese signiert sind, und somit eine (trügerische) Sicherheit vorgeben und halbautomatisch aktiviert werden. Wenn man aber weiß, was man macht, ist ein ActiveX Control genauso (un)sicher, wie jede andere Software, die aus dem Netz kommt.

Eine dogmatische Ablehnung von ActiveX zeugt nur von einem: Von mangelhaftem Verständnis der Zusammenhänge.

Derjenige, der sich toll fühlt, weil er ActiveX deaktiviert, soll bitte auch niemals irgendeine andere SW aus dem Netz laden und auf seinem System starten. Sonst macht er sich zum Narren.

Egal. Testen/benchen kann Tomb auch ohne ActiveX oder Java.

Gast
2006-11-14, 20:52:31
Grestorn,
wäre es möglich, Nhancer auf Dot-Net 2.0 zu portieren? Ich muss immer extra für dein Tool das 1.1-Framework installieren (ja, ich weiß, die sollen klaglos zusammenlaufen, aber ich finde es unnötig, alles doppelt und dreifach installieren zu müssen, wenn MS schon nicht in der Lage ist, eine ordentliche Abwärtskompatibilität herzustellen.

Grestorn
2006-11-14, 20:55:22
Grestorn,
wäre es möglich, Nhancer auf Dot-Net 2.0 zu portieren? Ich muss immer extra für dein Tool das 1.1-Framework installieren (ja, ich weiß, die sollen klaglos zusammenlaufen, aber ich finde es unnötig, alles doppelt und dreifach installieren zu müssen, wenn MS schon nicht in der Lage ist, eine ordentliche Abwärtskompatibilität herzustellen.

Die Beta von nHancer läuft schon seit fast einem Jahr unter .NET 2.0.

Razor
2006-11-14, 21:02:48
@grestorn: EOD.
Ist aber immer wieder schön, zu sehen, welchen Unsinn Du manchmal verzapfst....
...schade eigentlich.

Razor

phizz
2006-11-14, 21:20:10
cooles pic .ich bin nicht ganz auf dem laufenden =>
ist das ne stickstoffkühlung ?

da liegen ja mehrere hundert/tausend euros herum ^^

Grestorn
2006-11-14, 21:23:33
@grestorn: EOD.
Ist aber immer wieder schön, zu sehen, welchen Unsinn Du manchmal verzapfst....
...schade eigentlich.

Razor

Ohne konkret zu sagen, wo da Unsinn stehen soll, am besten mit Begründung, ist Deine Aussage nur eine sehr billige Beleidigung. Passt ins Bild.

tombman
2006-11-14, 21:25:25
Sag mal Tombman, wo willst die 3 Karten noch reinstecken? Die 2 GTXen belagern ja fast alle Steckplätze.
1x pci und 1x pci-e sind ja noch
frei. der scsi ctrl ist ein pci-e 8x,
kommt also in den pci-e 8x slot
rein. in den freien pci kommt
die soundcard rein.
ganz unten ist 1x pci verdeckt
, dort werde ich mit einem
flexiblen pci Band Adapter
reingehen, mich unten
durchschlängeln und dann seitlich
nach oben wieder rauskommen
und die Karte reinstecken.
natürlich muß man dann basteln
im Gehäuse um die Karte zu
fixieren, Löcher bohren usw, was
aber ned schwer ist, denn die
Phys-x hat ja keine Anschlüsse,
sie muß also nur am Platz
bleiben ;)
Vielleicht mache ich aber sowieso
Wakü für die 8800er, dann sind
sowieso alle Plätze frei :)

Gast
2006-11-14, 21:42:37
1x pci und 1x pci-e sind ja noch
frei. der scsi ctrl ist ein pci-e 8x,
kommt also in den pci-e 8x slot
rein. in den freien pci kommt
die soundcard rein.
ganz unten ist 1x pci verdeckt
, dort werde ich mit einem
flexiblen pci Band Adapter
reingehen, mich unten
durchschlängeln und dann seitlich
nach oben wieder rauskommen
und die Karte reinstecken.
natürlich muß man dann basteln
im Gehäuse um die Karte zu
fixieren, Löcher bohren usw, was
aber ned schwer ist, denn die
Phys-x hat ja keine Anschlüsse,
sie muß also nur am Platz
bleiben ;)
Vielleicht mache ich aber sowieso
Wakü für die 8800er, dann sind
sowieso alle Plätze frei :)


UND? Wie Razor (und ich) schon fragten: Warum installierst du JAVA und warum läuft AktiveX zum testen? Ist doch Blödsinn. Fahr doch einfach eine Minimalkonfiguration (XP+Treiber) zum benchen!

Grestorn
2006-11-14, 21:46:11
UND? Wie Razor (und ich) schon fragten: Warum installierst du JAVA und warum läuft AktiveX zum testen? Ist doch Blödsinn. Fahr doch einfach eine Minimalkonfiguration (XP+Treiber) zum benchen!

Wenn keine Java-App läuft und kein ActiveX-Control läuft spielt es doch keine Rolle, ob sie installiert sind oder nicht...

Es sei denn man glaubt an Voodoo-Zauber.

Gast
2006-11-14, 21:46:30
Und wenn er nunmal nur den einen PC hat? Irgendwie muss man ja auch mal ins INternet und das ist ohne Java doof.

Gast
2006-11-14, 22:01:42
Wenn keine Java-App läuft und kein ActiveX-Control läuft spielt es doch keine Rolle, ob sie installiert sind oder nicht...

Es sei denn man glaubt an Voodoo-Zauber.

Achja? Grestorn, schau dir mal die vorherigen Posts von Tombman an, da sucht er eine Erklärung für den Leistungsverlust und unter anderem war Java da eine Erklärung! Und nochmal: Wofür brauch ich Java oder AkiveX beim benchen?

Und wenn er nunmal nur den einen PC hat? Irgendwie muss man ja auch mal ins INternet und das ist ohne Java doof.
3dc geht auch ohne Java. Die meisten Sachen gehen ohne Java....Internet ist mit .net eh viel besser, gell? Bla! Wenn Tomb benchen will, kann er das auch ohne diese beiden!

Grestorn
2006-11-14, 22:30:36
Achja? Grestorn, schau dir mal die vorherigen Posts von Tombman an, da sucht er eine Erklärung für den Leistungsverlust und unter anderem war Java da eine Erklärung! Und nochmal: Wofür brauch ich Java oder AkiveX beim benchen?


3dc geht auch ohne Java. Die meisten Sachen gehen ohne Java....Internet ist mit .net eh viel besser, gell? Bla! Wenn Tomb benchen will, kann er das auch ohne diese beiden!

ActiveX Controls sind Programme, wie jedes andere auch. Sie sind meistens in C++ geschrieben. Ein ActiveX Control kann deswegen alles mit einem Rechner machen was es will. Es kann auch für deutliche Performance Einbrüche sorgen, ob absichtlich oder nicht.

Und der vorhergehende Absatz gilt für jede beliebige andere Software auch. Auch wenn sie nicht "ActiveX-Control" heißt.

Wenn ein Control Ärger macht, dann deinstalliert man es oder schaltet es zumindest aus. So einfach ist das. Mit ActiveX als Technologie hat das mal überhaupt nichts zu tun.

Java hat nichts mit dem Internet zu tun. Du verwechselst jede Menge Dinge miteinander. Man braucht Java für allerlei Dinge, z.B. für bestimmte Programme, die nun mal in Java geschrieben sind.

Macht Eure Augen auf, nehmt die Scheuklappen weg. Es wird Euch gut tun.

Übrigens: Dass das Control für Performance-Einbussen sorgt, dürfte mit extrem hoher Wahrscheinlichkeit ein Treiber-Bug sein. Das ActiveX-Control nutzt ein 2D-Feature, und dies sorgt durch ein Problem im Treiber für den Einbruch der Performance. Das Control selbst kann da erst mal gar nichts dafür.

Gast
2006-11-14, 22:35:35
ActiveX Controls sind Programme, wie jedes andere auch. Sie sind meistens in C++ geschrieben. Ein ActiveX Control kann deswegen alles mit einem Rechner machen was es will. Es kann auch für deutliche Performance Einbrüche sorgen, ob absichtlich oder nicht.

Und der vorhergehende Absatz gilt für jede beliebige andere Software auch. Auch wenn sie nicht "ActiveX-Control" heißt.

Wenn ein Control Ärger macht, dann deinstalliert man es oder schaltet es zumindest aus. So einfach ist das. Mit ActiveX als Technologie hat das mal überhaupt nichts zu tun.

Java hat nichts mit dem Internet zu tun. Du verwechselst jede Menge Dinge miteinander. Man braucht Java für allerlei Dinge, z.B. für bestimmte Programme, die nun mal in Java geschrieben sind.

Macht Eure Augen auf, nehmt die Scheuklappen weg. Es wird Euch gut tun.

Übrigens: Dass das Control für Performance-Einbussen sorgt, dürfte mit extrem hoher Wahrscheinlichkeit ein Treiber-Bug sein. Das ActiveX-Control nutzt ein 2D-Feature, und dies sorgt durch ein Problem im Treiber für den Einbruch der Performance. Das Control selbst kann da erst mal gar nichts dafür.

Herr Grestorn, ich sags ihnen jetzt direkt: Zum benchen brauchs kein ActiveX oder Java. Wer das behauptet, macht propaganda!

Grestorn
2006-11-14, 22:45:28
Herr Grestorn, ich sags ihnen jetzt direkt: Zum benchen brauchs kein ActiveX oder Java. Wer das behauptet, macht propaganda!

Das habe ich ja auch nie behauptet, Herr Gast.

Sie stören aber auch nicht, wenn sie nicht aktiv sind beim benchen. Das ist nun mal ein Fakt, auch wenn es Ihnen, lieber verehrter Herr Gast, nicht gefällt.

Propganda, noch dazu zeimlich plumpe, machst nur Du. Warum, versteht kein Mensch.

The_Invisible
2006-11-14, 22:47:51
Und wenn er nunmal nur den einen PC hat? Irgendwie muss man ja auch mal ins INternet und das ist ohne Java doof.

oje, da verwechselt wer java mit javascript...

mfg

Gast
2006-11-14, 23:00:07
Das habe ich ja auch nie behauptet, Herr Gast.

Sie stören aber auch nicht, wenn sie nicht aktiv sind beim benchen. Das ist nun mal ein Fakt, auch wenn es Ihnen, lieber verehrter Herr Gast, nicht gefällt.

Propganda, noch dazu zeimlich plumpe, machst nur Du. Warum, versteht kein Mensch.

Im Thread war ganz klar ablesbar, daß JRE probleme macht, auch unter früheren Nvidia Treibern. Da frag ich mich doch: Warum wird das zum testen überhaupt installiert? Was soll das? Wofür?

Grestorn
2006-11-14, 23:02:03
Im Thread war ganz klar ablesbar, daß JRE probleme macht, auch unter früheren Nvidia Treibern. Da frag ich mich doch: Warum wird das zum testen überhaupt installiert? Was soll das? Wofür?

Er wird es vermutlich installiert haben, weil er irgendeine Software hat, die Java benötigt. Das ist doch offensichtlich, oder meinst Du, man installiert so was aus Spaß an der Freud'?

Dimitrij
2006-11-14, 23:07:56
[SPAM MODE = ON]
Warum soll man die ganze Latte an Programmen wie JRE, .NET Framework nicht installiert haben? Es gibt halt ein paar Programme, die werden immer mehr, die in Java oder C# oder anderen .NET Sprachen geschrieben sind.
Ich habe doch den PC nicht nur zum Benchen, ohh neue 3DMurks Rekorde. Toll. Als ob das JRE den 3DMark soviel ausbremst, ich glaube es nicht.
[/SPAM MODE = OFF]

@tombman
Krasse Werte. Naja gut dein ganzes Sys ist ja auch etwas schneller wie mein PC. ;)

Edit:
Ich glaube ich sollte mal die Signatur erneuern, der PC ist aktuell wieder mal etwas verändert.
Aktuell habe ich:
A64 X2 4400+ @ 4800+
2 GB G.Skill RAM @ 240 MHz
und endlich ist meine 7900GTO gekommen.

Gast
2006-11-14, 23:09:47
Er wird es vermutlich installiert haben, weil er irgendeine Software hat, die Java benötigt. Das ist doch offensichtlich, oder meinst Du, man installiert so was aus Spaß an der Freud'?

Grestorn: W O F Ü R ?

Nochmal: Benches mach ich aufm neuaufgestststem Sys. Ich installiere nicht extra irgendwelche Betriebssystemzusätze.

Warum setzt Tomb zum testen mehr auf, als er braucht?

Gast
2006-11-14, 23:10:41
[SPAM MODE = ON]
Warum soll man die ganze Latte an Programmen wie JRE, .NET Framework nicht installiert haben?
Ich habe doch den PC nicht nur zum Benchen, ohh neue 3DMurks Rekorde. Toll. Als ob das JRE den 3DMark soviel ausbremst, ich glaube es nicht.
[/SPAM MODE = OFF]

@tombman
Krasse Werte. Naja gut dein ganzes Sys ist ja auch etwas schneller wie mein PC. ;)

Aufm neuen Sys setz ich sowas nicht erst auf!

Grestorn
2006-11-14, 23:15:52
Grestorn: W O F Ü R ?

Nochmal: Benches mach ich aufm neuaufgestststem Sys. Ich installiere nicht extra irgendwelche Betriebssystemzusätze.

Warum setzt Tomb zum testen mehr auf, als er braucht?

WEIL ER ES FÜR IRGENDEINE SOFTWARE BRAUCHT. Herrgott. Was ist denn daran so schwer zu verstehen? Man nutzt den Rechner vielleicht nicht nur zum Benchen?

Und was hast Du denn damit für ein Problem? Es ist doch seine Sache! Wie kommst Du eigentlich dazu, ihm vorschreiben zu wollen, was er installieren darf, und was nicht.

Und komm mir nicht schon wieder damit, dass die einfache Installation Leistung kosten würde, wenn man dafür sorgt, dass nach der Installation keine zusätzlichen Programme laufen. Das ist schlicht Unsinn.

Gast
2006-11-14, 23:18:55
WEIL ER ES FÜR IRGENDEINE SOFTWARE BRAUCHT. Herrgott. Was ist denn daran so schwer zu verstehen? Man nutzt den Rechner vielleicht nicht nur zum Benchen?

.................


In diesem Thread schon!

Matrix316
2006-11-14, 23:23:49
Selbst wenn er es nicht brauchen würde, war es doch gut, da sich gezeigt hat, dass da was im Argen liegt. Immerhin weiß jeder, der sich auch zwei 8800 GTX kaufen will, was auf ihn zukommen kann.

Dimitrij
2006-11-14, 23:36:42
Selbst wenn er es nicht brauchen würde, war es doch gut, da sich gezeigt hat, dass da was im Argen liegt. Immerhin weiß jeder, der sich auch zwei 8800 GTX kaufen will, was auf ihn zukommen kann.

Mal ehrlich, wer kauft sich denn schon 2 8800GTX? Ich nicht 1300€ alleine für 2 Karten, das ist mir das Hobby PC dann doch nicht Wert. Mir reichts wenn ich sehe was möglich wäre wenn man soviel Geld übrig hätte.
War schon eine GTO teuer genug. :lol:

Und SLI kann ich auch aufbieten. ;D

Udragor
2006-11-14, 23:51:26
1. find ichs gut, das Tombman die ganzen Posts über für und wider einer Software (Java, .NET usw) ignoriert und sich um sein System kümmert, damit wir, die interessierten Leser des nVidia unterforums, etwas über mögliche Probleme und deren Lösungen mit neuer Hardware erfahren und um interessante Erfahrungen mitzuerleben. Und um das sollte es hier eigentlich auch gehen.

2. ist es eigentlich VÖLLIG egal, welche Software installiert wird oder auch nicht. Die Grafikkarte soll auch in einem normalen Usersystem seinen Dienst tun. Da sie das aber offensichtlich noch nicht reibungslos macht, kann Tombman von mir aus soviel Software installieren und deinstallieren wie er sich denkt, um das Problem einzukreisen und die Fehlerursache zu finden. Wenn die Fehlerursache Java, .NET, ActiceX oder sonstwie heisst, dann sollte die auch auf dem Rechner sein, um eben festzustellen, ob sie nun die Ursache ist oder nicht. Denn auf "normalen" PCs, von "normalen" Leuten, die unbedarft in den Laden stiefeln um sich Hardware zu kaufen und nichts von den Problemen wissen, um dann hinterher vielleicht hier in diesem Forum nachzufragen was da nicht stimmt, wird zu 90% eben diese Software auch am Werkeln sein. Und wenn dann Leute wie Tombman nicht wären, die sich immer das neueste ziemlich am Anfang besorgen und das basteln anfangen, könnte man den Leuten nichtmal helfen (und wenn die Hilfe nur darin besteht, diesen Tema hier im Auge zu behalten, da hier grad drann gearbeitet wird).

3. war das jetzt ein bisschen viel Text, aber egal.

tombman
2006-11-14, 23:56:24
btw, mit dem Firefox 2.0 tritt das Problem nicht auf...

Gast
2006-11-14, 23:59:22
btw, mit dem Firefox 2.0 tritt das Problem nicht auf...

Danke Tombman! :)

tombman
2006-11-15, 01:25:53
Hmm, ich krieg die cpu auf dem mobo nicht auf 4ghz stabil...habs jetzt zum Test auf 3,733...rennt bisher alles...
(auf dem Intel 975 waren 4ghz kein Problem)

Slipknot79
2006-11-15, 02:27:30
>UND 3Dmark06 @1920x1200, 8xAA+ HDR lief, GLEICHZEITIG!


na ich hoffe mal, dass du das Foto genau beim Fillrate-Test geschossen hast :)

tombman
2006-11-15, 02:47:54
>UND 3Dmark06 @1920x1200, 8xAA+ HDR lief, GLEICHZEITIG!


na ich hoffe mal, dass du das Foto genau beim Fillrate-Test geschossen hast :)
Nö, ich hab aber auf eine Stelle gewartet die schön viel zieht ;)

btw, 8800GTX SLI ist die einzige Lösung die 3dmark06 derzeit IMMER über 30fps anzeigen kann ;) (default settings)

Die eine Szene bei Proxycon wo die Kamera seitlinch hinter dem Pfeiler vorbeschwenkt war bisher bei JEDEM System unter 30fps, bei 8800GTX SLI nicht mehr (wenn auch nur knapp :D)

tombman
2006-11-15, 02:56:00
update:

http://img138.imageshack.us/img138/2138/3dm06updatexj4.th.jpg (http://img138.imageshack.us/my.php?image=3dm06updatexj4.jpg)

=Floi=
2006-11-15, 03:13:47
pünktlich zur nachtzeit ist tombman auch wieder da :top:

könntest mal alles durchlaufen lassen und dann das fenster größer machen
wie skaliert eigentlich 8800GTX Sli mit der 7950GX2 in den ganzen 3d marks und spielen
wenn du noch messwerte zur hand hast

tombman
2006-11-15, 03:21:21
wie skaliert eigentlich 8800GTX Sli mit der 7950GX2 in den ganzen 3d marks und spielen
wenn du noch messwerte zur hand hast
Also das ist gar kein Vergleich. Die 8800GTX SLI verhält sich zu einer GX2 wie Transwarp der Borg zu normalem Warp ;D;D

Ich werde bald mein raid anschließen wo Gothic3 drauf ist -> dann gehts ab ;)

Bin ja immer noch auf dem Testsystem, und bevor ich nicht ein paar Tage getestet habe und weiß was stabil ist und was nicht, gehe ich nicht aufs Hauptsystem...

Zufällig habe ich Quake4 hier drauf und da kann man locker in 1920x1200, 4xAA (maxed), Ultra Quality spielen ;D Da gibts so eine Szene wo ein großer Mech von oben in einem zylindrischen "Aufzug" heruntergefahren wird und danach einige Kämpfe stattfinden mit vielen Lichtquellen und Schatten, und mit 8800GTX SLI bleibt das Teil immer über 30fps ;D

Mr.Soapdown
2006-11-15, 05:51:26
4) wer weiß nicht, dass 90% aller Sicherheitslücken in ActiveX-Controls zu suchen sind?

Razor

Das mag stimmen, aber seit ich mich im INEt bewege, kann ich nicht verstehen das viele Leute den Rechner verseucht haben und sich hierüber jeden Dreck einschleusen lassen.

Bei mir ist es an und so vieles andere auch.

tombman
2006-11-15, 05:54:43
1920x1200, 16xAA(HQ), 16xAF(HQ), TRSSAA(!!)

http://img299.imageshack.us/img299/7298/x2006111505462350ei8.th.jpg (http://img299.imageshack.us/my.php?image=x2006111505462350ei8.jpg)

phizz
2006-11-15, 07:18:11
bei mindfactory hab ich heute gesehn das ein quadcore auf lager ist
das wär doch noch was für dein sys ^^

PHuV
2006-11-15, 12:22:37
LICHT

Nachdem ich mich die ganze Nacht erfolglos mit 2 neuen Boards rumgeschlagen habe (A8N32-SLI Deluxe und P5N32 SLI SE Deluxe), und mein Spielerechner auch nicht mehr geht, weil Rechner zwar hochfahren, die GK aber nicht startet, habe ich jetzt endlich Erfolg.

Das P5N32 SLI arbeitet mit dem Bios nicht mit SKill-Speicher richtig zusammen, so mußte ich notgedrungen 2 Corsair Speicheriegel kaufen. Damit geht es, aber die GSkill machen immer noch Probleme, trotz Bios-Update.

Jetzt endlich läuft das SLI wenigstens auf dem Conroe, so wie ich es mir vorstelle, mit doppelter Framerate bei 3DMark2005 und Gothic 3. :smile: :smile: :smile: :smile:

Aber, mein ursprünglicher Rechner geht nicht mehr, und das andere Board hat nur mal kurz gezuckt, seitdem ist es auch tot. :mad:

r@w.
2006-11-15, 14:10:47
Grestorn: W O F Ü R ?

Nochmal: Benches mach ich aufm neuaufgestststem Sys. Ich installiere nicht extra irgendwelche Betriebssystemzusätze.

Warum setzt Tomb zum testen mehr auf, als er braucht?

Verstehe ich auch nicht...

Die einzige Erklärung wäre, dass er es halt mit der Sicherheit nicht so ernst nimmt (ActiveX-Controls in der Internet-Zone) und eben schon mal Azereus (das Haupt-Anwendungsgebiet von JAVA auf einem 'normalen' PC ;-) wieder ans laufen bringen wollte.

Wenn ich aber ein Problem lösen will, dann simplifiziere ich. Es wird ein neues (Test-)System eingerichtet, welches nichts ausser unbendingt benötigten Komponenten enthält... das sind Betriebssystem (+ Patches) und eben Treiber für die Grafikkarte/n (mehr benötige ich nicht bei meinem 939Dual-SATA2). Nicht einmal das Netzwerk wird installiert, weil es einfach (noch) nicht benötigt wird. Dann teste ich und schau', ob das Problem noch auftritt... wenn nicht, dann wird ein Image gemacht. Nun geht es an weitere Komponenten (Dinge, die noch nicht wieder eingebaut sind) und zugehörige Treiber... wieder testen, wieder Image, wenn die komplette Hardware, wie auch die zugehörigen Treiber laufen.

DANN und erst dann fange ich an, irgendwelche Software zu installieren... und das auch nur, um zu schauen, WANN das Problem auftritt. So läßt sich das Problem lokalisieren und auf dem Echt-System korrigieren. Eine komplette "Neuinstallation" hat es bei noch nie gebraucht... und wird es auch nie, weil dies einfach ein Versagen bei der Fehlerbehebung wäre... und dieses bis dato noch nie vorgekommen ist (bei einem "Super-Gau", welcher Art auch immer, wird das letzte Image, welches NIE älter als ein Monat ist, zurück gespielt).

Aber so etwas Leuten zu erzählen, die die Systemwiederherstellung für unsinnig halten und zudem solch einen Schrott, wie Azereus auf den Rechnern dulden und ganz nebenbei ALLEM Tor und Tür öffnen, was sich über selbstinstallierende ActiveX-Browser-Controls via Internet einschleusen mag.... ist schon echt hart.

Egal, irgendwie scheint dieses "Thema" ja nicht so 'gut' anzukommen.
Also sollten wir es dabei belassen und vermutlich jetzt noch nachkommende, schönredende "Argumente" einfach ignorieren.

Schon interessant, wie hier Leute auf eine ganz simple Fragestellung reagieren:
"Warum irgendwelche irrelevante Software auf einem Testsystem?"

Razor

Gast
2006-11-15, 15:00:13
Es kann wohl einfach nicht angehen, das ihr mal eure Schnauze haltet, oder?
Muss man denn IMMER das letzte Wort haben? Wenn ihr der Meinung seid, ein Testsystem muss zwinged eine sterile Umgebung sein, dann bitte: kauft euch zwei eigene 8800GTX und das passende Board und zeigt alles, wie man es richtig macht.
Und bis dahin lasst doch endlich mal dieses Forum und vor allem Tombman und seinen Thread in Ruhe. Dieses ewige Rumgeheule nur weil manche nicht akzeptieren können, das es verschiedene Meinungen gibt.

Ich hätte an Tombmans Stelle wohl genauso gehandelt, immerhin will man ja nicht nur 2 Spiele spielen sondern auch am PC leben.

So ein blöder Kindergarten hier...

The Cell
2006-11-15, 15:11:49
Auch wenn ich es diplomatischer ausgedrückt hätte, dem Inhalt stimme ich zu.

PHuV
2006-11-15, 15:22:36
Mal ne doofe Frage, bei mir wird die zweite GPU (die der CPU am nächsten ist), deutlich wärmer als die erste (60 zu 80), ist das normal?

tombman
2006-11-15, 16:57:39
lol, was Leute so alles
interessiert in nem G80
thread.. :rolleyes:
da wird schon spekuliert
was ich alles für software
installiert haben soll oder
nicht, nur um zum typischen
Ergebnis zu kommen, ich sei
saudumm- nur die klassische
Entwertung um nicht beneiden
zu müssen, irgendwie schon
fad...

mehr gametests kommen
innerhalb der nächsten Tage.
Vorschläge was ich testen
soll?

btw, ich finde firefox 2 mal
so richtig geil :)

Slipknot79
2006-11-15, 17:10:23
lol, was Leute so alles
interessiert in nem G80
thread.. :rolleyes:
da wird schon spekuliert
was ich alles für software
installiert haben soll oder
nicht, nur um zum typischen
Ergebnis zu kommen, ich sei
saudumm- nur die klassische
Entwertung um nicht beneiden
zu müssen, irgendwie schon
fad...

mehr gametests kommen
innerhalb der nächsten Tage.
Vorschläge was ich testen
soll?

btw, ich finde firefox 2 mal
so richtig geil :)



CoJ; NFS Carbon, Tomb Raider Legend. oO Gothic 3 Splinter Cell DA

krass
2006-11-15, 17:37:36
Vorschläge was ich testen
soll?

das neue ghost recon wäre klasse! ( fast alte :confused: )

mfg krass

The Cell
2006-11-15, 19:33:05
http://plastic.fork.pl/finalAudition_by_plastic.zip

Bitte mal mit Framecounter benchen. :)

Danke und viele Grüße,
QFT

Rygel
2006-11-15, 20:07:50
Hier haben sie Geforce 8800GTX Sli getestet mit vielen Spielen und anderen Grafikkarten.

http://www.behardware.com/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html

martma
2006-11-15, 20:08:40
Wäre nett, wenn ein Mod mal den Thread von den bescheuerten Gastpostings befreien könnte. Man kann hier ja nicht mehr lesen, ohne sich laufen über einige Gäste aufzuregen. Immer das Gleiche mit diesen Neidern!

Enki
2006-11-15, 20:14:28
Tombman, hast du schon Dark Messiah of Might&Magic? Das würde mich schon interessieren... Sonst vielleicht noch Oblivion, Gothic3 oder auch mal (um was völlig anderes zu testen) Anno 1701.

Slipknot79
2006-11-15, 20:41:50
Kann man Vcore und Vdimm per Software/BIOS-Mod anheben? ^^ Oder wäre der Lötkolben angesagt?

Gast wie Gäste
2006-11-15, 20:50:22
Eine Frage hab ich dann aber hier doch mal:

Warum machen hier jetzt alle auf einmal auf Superlativ bezüglich der Benchmarks ?

Die Vergangenheit zeigt doch, das jede neue Grakageneration ca. die doppelte Geschwindigkeit an den Tag legt wie die vorige. X800 doppelt so schnell wie 9800, 6800 doppelt so schnell wie FX5900, X1900 doppelt so schnell wie X800 usw, usf. Warum sollte die 8800 also nicht doppelt so schnell sein wie eine 7900? Das im SLI Verbund dann fast nochmal 70-90% drin sind, ist doch auch klar.
Klar, die Werte sind natürlich enorm, aber bei der nächsten Generation wird es doch wahrscheinlich auch wieder so einen Sprung geben. Warum also dieser Hype?

(sorry das ich nur ein Gast bin :) )

Virtuo
2006-11-15, 20:56:36
Eine Frage hab ich dann aber hier doch mal:

Warum machen hier jetzt alle auf einmal auf Superlativ bezüglich der Benchmarks ?

Die Vergangenheit zeigt doch, das jede neue Grakageneration ca. die doppelte Geschwindigkeit an den Tag legt wie die vorige. X800 doppelt so schnell wie 9800, 6800 doppelt so schnell wie FX5900, X1900 doppelt so schnell wie X800 usw, usf. Warum sollte die 8800 also nicht doppelt so schnell sein wie eine 7900? Das im SLI Verbund dann fast nochmal 70-90% drin sind, ist doch auch klar.
Klar, die Werte sind natürlich enorm, aber bei der nächsten Generation wird es doch wahrscheinlich auch wieder so einen Sprung geben. Warum also dieser Hype?

(sorry das ich nur ein Gast bin :) )

Klar ist das so und demnächst gibt es etwas schnelleres, aber im Moment ist es eben faszinierend und es macht Spaß es zu testen und darüber zu reden.

... und Gäste die nicht meckern oder sonstigen Blödsinn von sich geben sind immer willkommen. ;-)

Gast wie Gäste
2006-11-15, 21:04:29
ok, seh wohl ein, das dieser Thread wohl eher potentielle 8800-Käufer anspricht. (Oder solche die es werden wollen).

Werde mich aber immer bemühen, wie ein freundlicher Gast aufzutreten :)

Virtuo
2006-11-15, 21:11:45
Sag mal Tombman, ist so ein Vapochill laut? Wie muß ich mir das vorstellen, mehr wie ein Kühlschrank oder wie klingt das? Hat mich schon immer mal interessiert.

dildo4u
2006-11-15, 21:12:34
Eine Frage hab ich dann aber hier doch mal:

Warum machen hier jetzt alle auf einmal auf Superlativ bezüglich der Benchmarks ?

Die Vergangenheit zeigt doch, das jede neue Grakageneration ca. die doppelte Geschwindigkeit an den Tag legt wie die vorige. X800 doppelt so schnell wie 9800, 6800 doppelt so schnell wie FX5900, X1900 doppelt so schnell wie X800 usw, usf. Warum sollte die 8800 also nicht doppelt so schnell sein wie eine 7900? Das im SLI Verbund dann fast nochmal 70-90% drin sind, ist doch auch klar.
Klar, die Werte sind natürlich enorm, aber bei der nächsten Generation wird es doch wahrscheinlich auch wieder so einen Sprung geben. Warum also dieser Hype?

(sorry das ich nur ein Gast bin :) )Naja der Unterschied ist zumindest diesmal bei NV das die Bildqualität gesteigert wurde nicht wie sonst noch weiter reduziert Stichwort AF und trotzdem wurde ein ähnlicher Performanceanstieg erreicht wie bei den anderen Generationswechseln.

tombman
2006-11-15, 21:17:28
Kann man Vcore und Vdimm per Software/BIOS-Mod anheben? ^^ Oder wäre der Lötkolben angesagt?
die GTX braucht man nicht übertakten, SLI schon gar nicht, ist schnell genug ;)

r00t
2006-11-15, 21:19:30
die GTX braucht man nicht übertakten, SLI schon gar nicht, ist schnell genug ;)

wieso kaufst dus dann ? XD

tombman
2006-11-15, 21:26:14
Sag mal Tombman, ist so ein Vapochill laut? Wie muß ich mir das vorstellen, mehr wie ein Kühlschrank oder wie klingt das? Hat mich schon immer mal interessiert.
ALso leise ist die vapochill LS bei Gott nicht. Liegt aber hauptsächlich am hinteren Lüfter, den man aber austauschen kann (natürlich ist dann die Garantie weg, aber welchen freak kümmert das schon...). Der Kompressor selbst ist noch auszuhalten, aber es gibt auch leisere Kompressoren. Viele lassen sich die LS auch durch einen Kühltechniker tunen, dann ist sie um einiges stärker UND leiser...(kostet natürlich wieder extra €). Mit einem Core2Duo wird sie spielend fertig, aber ein hochgeprügelter presler oder ein Kentsfield machen ihr schon zu schaffen, da arbeitet sie an der Grenze was sie noch "wegdrücken" kann. Eine getunte LS kühlt alles locker nieder ;) (Wesker hat so eine).
Man kann die üfterdrehzahl einstellen und sie damit sehr viel leiser bekommen, bekommt aber ein paar Grad °C weniger Kühlleistung (eh nur ganz wenig, aber ich geb nix her ;D;D)
Außerdem ist sowas nicht für Anfänger, man sollte schon wissen man tut...

tombman
2006-11-15, 21:26:54
wieso kaufst dus dann ? XD
weils das schnellste ist was es gibt? ;)

tombman
2006-11-15, 21:30:29
http://plastic.fork.pl/finalAudition_by_plastic.zip

Bitte mal mit Framecounter benchen. :)

Danke und viele Grüße,
QFT
Bei diesen DIngen hat SLI leider noch nie gefunkt, genauso wie bei rthdribl. Aber eine GTX schafft auf 1920x1200 (Rest maximal) in der ersten und letzten Szene 14fps, alles dazwischen zwischen 30 und 80fps. Beeindruckt hat mich die Szene mit der Frau und diesen schwarzen Dingern die sie umkreisen-> locker über 30fps :eek:
Falls SLI dort funken würde, wären auch die erste und letzte Szene über 20fps :)

tombman
2006-11-15, 21:31:49
Btw, der Treiber hat echt ein Problem mit Scripten und/oder Java.
War gerade mit FF 2.0 auf map24.at und danach war die Leistung nicht im 1/8 Modus sondern im 1/16 Modus -> einfach zu lol.
Nach einem Neustart war wieder alles ok.

Wenn das mal kein schwerer Treiberbug ist, weiß ich auch ned...

Seit dem neu augesetzten System hatte ich aber nie wieder ein leeres CP...

Jedenfalls ist der Treiber ein gaaaanz schnell zusammengestricktes Ding, welches es offenbar noch rechtzeitig zum launch schaffen mußte :rolleyes:

Bin mal gespannt wann der erste ECHTE Treiber der 95er Serie kommt...

Slipknot79
2006-11-15, 21:33:49
die GTX braucht man nicht übertakten, SLI schon gar nicht, ist schnell genug ;)


Was die Freaks aus xs.org scheinbar gar ned kümmert oO

http://www.xtremesystems.org/forums/showthread.php?t=123301


Ui, da hat sich einer gleich 5 GTX geholt oO

http://www.xtremesystems.org/forums/showthread.php?t=122489

tombman
2006-11-15, 21:36:25
Was die Freaks aus xs.org scheinbar gar ned kümmert oO

http://www.xtremesystems.org/forums/showthread.php?t=123301

Hehe, das ist eh UNSER Wesker ;)

Mumins
2006-11-15, 21:57:26
Was die Freaks aus xs.org scheinbar gar ned kümmert oO

http://www.xtremesystems.org/forums/showthread.php?t=123301


Ui, da hat sich einer gleich 5 GTX geholt oO

http://www.xtremesystems.org/forums/showthread.php?t=122489

Alles schön und gut, aber muß man das alles immer so raushängen lassen.

Megamember
2006-11-15, 22:05:36
Ach du scheisse, der X6600 von Guess2098 läuft @3,9GHZ mit 1,15(!!!)V mit Luftkühlung. So einen will ich auch:uwoot:. Nur mal so am Rande.

tombman
2006-11-15, 22:29:49
Ach du scheisse, der X6600 von Guess2098 läuft @3,9GHZ mit 1,15(!!!)V mit Luftkühlung. So einen will ich auch:uwoot:. Nur mal so am Rande.
Da hätte ich gerne einen dual prime 95 screenshot über mindestens 1 Stunde (small fft) ;)

Vorher hatte er 3.8ghz und zum benchen auf 3.9ghz hochgeprügelt- typische Verarsche Marke XS... :rolleyes:
Und es waren bei ihm 1.52Volt, nicht was das fehlerhafte cpu-z anzeigt ...steht eh dort.

Fazit; XS Werte sind 99% reine show-Werte und haben mit 24/7 Stabilität nix zu tun... schau dir mal die SIgnatur vom alten Fugger an, früher einer der besten overclocker der Welt. Jetzt hat er einen 4.2ghz X6800 auf einer getunten Vapo LS- genau wie Wesker hier. Und DAS kann man glauben, aber nicht die üblichen show-Werte.. ;)

tombman
2006-11-15, 22:48:41
p.s. so hat das auszusehen (habs, glaube ich, doch wieder geschafft, 4Ghz stabil zu erreichen ;))

http://img101.imageshack.us/img101/1187/680i4ghzgq6.jpg (http://imageshack.us)

Und es war nötig 0.05v mehr vcore zu geben als auf dem Intel BadAxe mobo -> tjo, da sieht man mal was Qualität seitens Intel ausmacht. Nvidia mobos/chipsets sind eben doch noch weit von Intel entfernt...

Gast
2006-11-15, 22:54:00
wohl eher 0,05 oder? ;)

tombman
2006-11-15, 22:55:15
wohl eher 0,05 oder? ;)
JO, LOL :D:D thx

Wenn ich anfang 0.5v mehr zu geben, könnts mich endgültig wegsperren :D:D

Slipknot79
2006-11-15, 22:57:35
JO, LOL :D:D thx

Wenn ich anfang 0.5v mehr zu geben, könnts mich endgültig wegsperren :D:D


Haben sich die Temps stark verändert wegen 0.05V?

flatbrain
2006-11-15, 22:58:21
JO, LOL :D:D thx

Wenn ich anfang 0.5v mehr zu geben, könnts mich endgültig wegsperren :D:D

*g*, wäre schade drum - rein interessehalber, wieviel VCore benötigst du aktuell für die 4GHz?

tombman
2006-11-15, 23:00:43
*g*, wäre schade drum - rein interessehalber, wieviel VCore benötigst du aktuell für die 4GHz?
Eingestellt sind 1.65vcore, aber was wirklich real anliegt weiß ich ned. Dazu bräuchte ich einen Meßpunkt...
Beim Intel waren 1.6 eingestellt und real warens 1.55vcore. Wenn das 680i mehr undervoltet unter Last könnten durchaus auch wieder 1.55 real rauskommen...müßte man eben messen können...

Das Intel mobo hatte im Bios einen Punkt der sich "enhanced power slope" nannte, der das Undervolting unter Belastung auf die Hälfte reduzieren soll. Das hat das Nvidia mobo nicht...

Slipknot79
2006-11-15, 23:04:01
Eingestellt sind 1.65vcore, aber was wirklich real anliegt weiß ich ned. Dazu bräuchte ich einen Meßpunkt...
Beim Intel waren 1.6 eingestellt und real warens 1.55vcore. Wenn das 680i mehr undervoltet unter Last könnten durchaus auch wieder 1.55 real rauskommen...müßte man eben messen können...

Das Intel mobo hatte im Bios einen Punkt der sich "enhanced power slope" nannte, der das Undervolting unter Belastung auf die Hälfte reduzieren soll. Das hat das Nvidia mobo nicht...


Nimmst du den HS ab oder meinst du, dass aus der CPU nicht mehr viel rauszuholen wäre ohne HS?

tombman
2006-11-15, 23:07:03
Nimmst du den HS ab oder meinst du, dass aus der CPU nicht mehr viel rauszuholen wäre ohne HS?
Ich nehm den HS nicht mal dann ab, wenn ich dann 8ghz hätte :D:D

Ich liebe den HS ;) (ist einer der besten Erfindungen für cpus...) Zu Zeiten wo es sowas noch nicht gab, wurden massenweise Cpus zerstört, wegen abgebrochenen Kanten usw...

Bin auch ein Fan vom mechanischen Design des Sockel 775- kein Wunder, daß AMD das nachmacht bei ihren server cpus mit dem Sockel F.

flatbrain
2006-11-15, 23:08:43
Danke für die Info, ich glaube, ich werde nächstes Jahr dann doch mal ein neues Projekt in Angriff nehmen...

PHuV
2006-11-15, 23:35:34
das neue ghost recon wäre klasse! ( fast alte :confused: )

mfg krass

Mit allen Details auf hoch 16AF und auf 2560x1600 40-46 FPS, mit Fernglas/Zielfernrohr 38-42

Bei rthdribl_1_2 habe ich 51-55 FPS bei der hohen Auflösung.

die GTX braucht man nicht übertakten, SLI schon gar nicht, ist schnell genug ;)

Na ja, bei Gothic 3 könnte es noch ein bißchen flotter gehen, aber dafür fehlt noch die entsprechende CPU.

Ansonsten bin ich mit den Karten (jetzt endlich) hochzufrieden, so kann man mit 30" gut spielen. Aber es wird nur eine Frage der Zeit sein, bis es wieder Spiele gibt, wo wir alle ächzen. Warten wir mal auf Alan Wake :biggrin: und sparen wir schon mal für Dual-Quadcore!

Nur das Wärme und Leistungsproblem (Strom) kann man noch stark verbessern.

Übrigens habe ich jetzt zu einem Silverstone TemJin SST-TJ05S-T gewechsel, hier gibt es mit ca. 61 cm tiefe endlich genügend Platz für die 8800GTX, bei allen anderen Gehäusen ist die Kartengröße ein Krampf. Wer hat sich eigentlich diese dämliche Verschlußnippel bei den PCIe16 ausgedacht, man kommt mit großen Karten gar nicht hin. Ebenso kann man die schraubenlose Logik vieler Gehäuse mit den Karten vergessen, man muß diese Hilfsmittel immer ausbauen, wenn man 2-Slot-Karten einbauen will.

tombman
2006-11-16, 00:57:15
Na ja, bei Gothic 3 könnte es noch ein bißchen flotter gehen, aber dafür fehlt noch die entsprechende CPU.
Jo, du bräuchtest einen C2D...
Wer hat sich eigentlich diese dämliche Verschlußnippel bei den PCIe16 ausgedacht, man kommt mit großen Karten gar nicht hin. Ebenso kann man die schraubenlose Logik vieler Gehäuse mit den Karten vergessen, man muß diese Hilfsmittel immer ausbauen, wenn man 2-Slot-Karten einbauen will.
Ja, wenn geht baue ich diese Nippel aus oder blockiere sie, damit sie immer auf "offen" stehen. An 2-Slot Karten hat bei sowas wohl niemand gedacht...

PHuV
2006-11-16, 01:03:12
Jo, du bräuchtest einen C2D...


Äh, den habe ich doch jetzt drin (E6700), na gut, an Deine Varporchill knapp 4 GHz X6800 komme ich natürlich nicht ran :biggrin:

So, und nachdem endlich mein SLI läuft, werde ich wieder etwas Schlaf nachholen.

Übrigens hätte ich nicht gedacht (danke Blaire), daß die unterschiedlichen Bits des Profiles bei den Spielen sooo viel ausmachen. Ich habe jetzt bei FarCry 1.4 mit HDR, allem an und höchsten Details über 120-140 FPS :eek:

Das gleiche bei Gothic 3, und ich wäre sehr sehr glücklich. ;D

tombman
2006-11-16, 01:26:14
ok, das Ding rennt jetzt auch ohne Probleme mit 400fsb 1:1. Dürfte wirklich nur der vcore gestört haben früher.
Everest zeigt 1.58vcore an unter Last.

Der Unterschied ist übrigens doch meßbar, zb in Gothic2. Fast 10% mehr fps bei 400fsb 1:1 im Vergleich zu 266fsb/400ram.

Damit ist klar, daß der 680i chipset der bisher beste von nvidia ist :cool:

Fazit: wenn ihr SLI wollt auf einem Core2Duo/Quad -> holt euch ein 680i mobo ;)
(400fsb sind da wirklich die unterste Grenze (hab ned mehr probiert), manche haben auch schon 500fsb auf diesem Ding geschafft)

fleech
2006-11-16, 01:26:17
Hi!
Jungs, ihr seid so geil! ;-)
lol
Mensch, wenn mich juckt es auch gewaltig in den Fingern mir (erstmal wenigstens 1) 8800GTX zu holen, aber das finanzielle Untier hat mich momentan echt bei den Eiern..
Na mal sehen, was die nächsten Monate so bringen..

cu
fleech

edit: sorry for OT, aber das liest sich dermaßen geil hier...

tombman
2006-11-16, 01:30:24
Hi!
Jungs, ihr seid so geil! ;-)
lol
Mensch, wenn mich juckt es auch gewaltig in den Fingern mir (erstmal wenigstens 1) 8800GTX zu holen, aber das finanzielle Untier hat mich momentan echt bei den Eiern..
Na mal sehen, was die nächsten Monate so bringen..

Wenn du keinen Monitor hast der mindestens 1600x1200 packt, dann recht auch eine GTS.
Aber hast schon recht, eine GTX ist derzeit DIE Droge für Enthusiasten ;)

Unioner86
2006-11-16, 02:18:18
@ Tombman!

Ich wünsche Dir das auch mal zum wirklichen spielen kommst und nicht nächtelang als Betatester missbraucht wirst!:smile: :smile: :smile:

MFG Unioner86

tombman
2006-11-16, 02:41:59
@ Tombman!

Ich wünsche Dir das auch mal zum wirklichen spielen kommst und nicht nächtelang als Betatester missbraucht wirst!:smile: :smile: :smile:

MFG Unioner86

Hehe, na die Betatestphase ist ja bald vorbei ;) Rennt ja praktisch schon so wie ich will ;)

Btw, GTR2 kann man mit 8800GTX SLI in 1920x1200, maximale in-game settings (und ich meine alle) mit maximaler Anzahl an Autos IM REGEN (!!!) flüssig spielen ;)

Unioner86
2006-11-16, 02:47:14
Hehe, na die Betatestphase ist ja bald vorbei ;) Rennt ja praktisch schon so wie ich will ;)

Btw, GTR2 kann man mit 8800GTX SLI in 1920x1200, maximale in-game settings (und ich meine alle) mit maximaler Anzahl an Autos IM REGEN (!!!) flüssig spielen ;)

Na dann bin ich ja beruhigt!Und genieße schön die Grafikpracht!!!:smile:

Razor
2006-11-16, 05:29:30
http://plastic.fork.pl/finalAudition_by_plastic.zip

Bitte mal mit Framecounter benchen. :)Bei diesen DIngen hat SLI leider noch nie gefunkt, genauso wie bei rthdribl. Aber eine GTX schafft auf 1920x1200 (Rest maximal) in der ersten und letzten Szene 14fps, alles dazwischen zwischen 30 und 80fps. Beeindruckt hat mich die Szene mit der Frau und diesen schwarzen Dingern die sie umkreisen-> locker über 30fps
Falls SLI dort funken würde, wären auch die erste und letzte Szene über 20fps

Hehe... alt, aber gut!
...das Demo.
:D

Bei 1280@max bringt mir das auf meiner 79GT(single) ca. 24fps in erster und letzter Szene. OK, bei tombman sinds 75% mehr Bildpünktchen... aber eben auch nicht einmal 60% der Leistung.

Ein Beipsiel etwa, wo 'unoptimierte' Treiber ggü. der 'alten' Generation rein gar nichts bringen?
Interessant...

Razor

Razor
2006-11-16, 05:56:47
Jedenfalls ist der Treiber ein gaaaanz schnell zusammengestricktes Ding, welches es offenbar noch rechtzeitig zum launch schaffen mußte :rolleyes:

Bin mal gespannt wann der erste ECHTE Treiber der 95er Serie kommt...

Ist aber nicht wirklich eine neue Erkenntnis...
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4973018#post4973018

Und 'echte' Treiber der Series95 wird es vermutlich nicht mehr geben...
Es steht ja schon der "X10" vor der Tür - Series100 sozusagen.

Razor

Mr.Soapdown
2006-11-16, 06:43:57
Ist aber nicht wirklich eine neue Erkenntnis...
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4973018#post4973018

Und 'echte' Treiber der Series95 wird es vermutlich nicht mehr geben...
Es steht ja schon der "X10" vor der Tür - Series100 sozusagen.

Razor

Gehen wir davon aus das der jetzige Treiber nur "schnell gestrickt" worden ist, wieviel Potenzial steckt dann wohl in den neuen Treibern?

3-4% am Anfang?

Razor
2006-11-16, 06:52:05
Gehen wir davon aus das der jetzige Treiber nur "schnell gestrickt" worden ist, wieviel Potenzial steckt dann wohl in den neuen Treibern?

3-4% am Anfang?

Bei DER Architektur würde ich sogar sehr viel weiter gehen!
Aber es kann eben auch gut sein, dass wieder 'handoptimiert' werden muss, um volle Lesitungsfähigkeit zu erhalten.
Hoffentlich ist das letzlich nicht ein ähnliches 'Desaster', wie seinerzeit bei der FX...

Man müsste mal mit Tools testen, die nVidia bei der Entwicklung der Treiber NICHT zur Verfügung standen (oder eben unberücksichtigt blieben), um mal einen Eindruck davon zu bekommen, was eigentlich passiert, wenn nicht 'handoptimiert' wurde... i.e. wie leistungsfähig eingentlich der "Default-Pfad" für die 3D-Beschleunigung ist.

Der 2. Post über Dir könnte schon ein Hinweis darauf sein.

Razor

Gast
2006-11-16, 20:37:19
http://rapidshare.com/files/3628140/Slot02.sav.html

Ich hab hier mal ein Savegame für Fear- Extraction Point. Ich denk mal diese stelle wird ein ultimativer Härtetest für die 8800GTX. Mit meiner geocten X1800Xt hab ich da in 1280x960 gerade mal 4-8FPS mit vielen details auf Medium und nur 2AA. Wenn die da in 1900 x XXXX auch noch im flüssigen Bereich ist zieh ich meinen Hut.

tombman
2006-11-16, 22:45:15
In Zuge meines nun praktisch einwöchigen Betatests (;D), ist mir noch so einiges aufgefallen.

Das Mysterium genannt LINKBOOST. Ist ein Bios-Eintrag und en feature des 680i. Übertaktet den pci-e Bus und die Verbindung SPP<->MCP (also von northbridge und soundbridge)
Normalerweise schenkt man dem keine Beachtung weils eh nix bringt, aber diesmal ist es anders.
Ergebnisse:

Linkboost (125mhz statt 100mhz pci-e) @ Graka PCI-E sots -> bringt nix (war zu erwarten)

Linkboost (250mhz statt 200mhz) @ spp<->mcp --> bringts!!

3dm06, default, HDR Gamescore:
200mhz SPP/MCP: ~7300
250mhz SPP/MCP: ~7800 :eek:

Fast 7% mehr Leistung nur durch das Anheben der SPP/MCP Verbindung? EEK? :)

Jetzt könnte man jauchzen und jubeln, es gibt aber einen fetten Haken. Es macht das System instabil wenn man overclockt und hohe FSBs fährt :rolleyes:
Zb: Quake4 savegames lassen sich nicht mehr laden und der Rechner freezed einfach ein oder haut einen schönen Bluescreen mit ner "nv4_disp" Meldung raus :rolleyes:
(und nein, es liegt nicht an einem zu hoch übertakteten System, das ist rockstable, es liegt NUR am Linkboost der SPP/MCP Verbindung)

Die Grakas lassen sich auch ned schlecht übertakten, der core ist recht kooperativ, der Speicher nicht. Ich habe bis 650/1000 getestet, funkt.

Und dann gibts da noch ein großes Problem mit X-FI SoundKarten, aber da gibts eh einen eigenen thread in ein paar Sekunden.

itruk40
2006-11-16, 22:49:14
neus bios ist da

http://www.evga.com/support/drivers/default.asp?switch=2&category=mb&subcat=11&os=nf68

gruß itruk

Gast
2006-11-16, 22:53:51
Wenn du keinen Monitor hast der mindestens 1600x1200 packt, dann recht auch eine GTS.
Aber hast schon recht, eine GTX ist derzeit DIE Droge für Enthusiasten ;)

1600x1200 muss ja nicht sein.
In 8-12 Monaten wirds in der Auflösung vielleicht nicht mehr so gut rennen und man nimmt wieder 1024 oder 1280. Immerhin soll neuste hardware zumindest bei mir 2-3 Jahre dafür sorgen, dass ich alles gut zocken kann ohne ingame alles runter zu schrauben.

Ich warte erstmal was der r600 so drauf hat.
Und neue Cpus gibts dann auch bald/schon.
Wobei ich mich Frage wann der nächste Sockel von Intel kommt, oder wie lange der aktuelle noch die neusten cpus aufnimmt.

Chris Lux
2006-11-17, 00:01:55
Bei DER Architektur würde ich sogar sehr viel weiter gehen!
Aber es kann eben auch gut sein, dass wieder 'handoptimiert' werden muss, um volle Lesitungsfähigkeit zu erhalten.
Hoffentlich ist das letzlich nicht ein ähnliches 'Desaster', wie seinerzeit bei der FX...
vertrau mir, das wird nicht passieren. die architektur hat super potential, welches durch allgemeine treiberoptimierungen bspw. am thread scheduler usw. viel rausholen kann.
schau dir mal folgende ergebnisse an: http://graphics.stanford.edu/projects/gpubench/results/8800GTX-0003/
hier wurden ganz spezielle architeturdetails getestet und es sind schon sehr interessante details dabei, bspw. die ergebnisse scalar vs. vector ops. diese architektur ist einfach derzeit das beste und flexibelste von dem man vor monaten nur träumen konnte. zu den fx zeiten zeichnete sich schon ab, dass durch die kompromisse beim übergang fixed function pipe zu voll programmierbarer probleme entstehen. hier jedoch wurden an keiner stelle solche kompromisse eingegangen.

Man müsste mal mit Tools testen, die nVidia bei der Entwicklung der Treiber NICHT zur Verfügung standen (oder eben unberücksichtigt blieben), um mal einen Eindruck davon zu bekommen, was eigentlich passiert, wenn nicht 'handoptimiert' wurde... i.e. wie leistungsfähig eingentlich der "Default-Pfad" für die 3D-Beschleunigung ist.

Der 2. Post über Dir könnte schon ein Hinweis darauf sein.
vertrau mir auch hier, der 'default pfad' ist genauso schnell wie alles andere. auf unsere technologien hier in unserm bereich hat keiner einen treiber optimiert und das was wir hier die letzten tage sehen ist einfach nur extrem weit über unseren erwartungen...

Hauwech
2006-11-17, 01:52:38
Ist OT aber was schätzt du wird nur durch bessere Treiber noch gehen? 10-15%? Oder sogar mehr?

Razor
2006-11-17, 02:12:24
.

Razor
2006-11-17, 02:15:33
vertrau mir auch hier, der 'default pfad' ist genauso schnell wie alles andere. auf unsere technologien hier in unserm bereich hat keiner einen treiber optimiert und das was wir hier die letzten tage sehen ist einfach nur extrem weit über unseren erwartungen...

Offenbar hast Du hier die Diksussionen nicht so recht verfolgt...
...oder wolltest Du Dich nur an diesem einen einfach mal so "fest beißen"?
:confused:

Ist ja schön, dass DU (und 'Dein' Bereich ;-) überzeugt bist/seid, ich bin es noch nicht.

Es gibt Irregularitäten bei der Filterung, Irregularitäten bei der Performance, offensichtliche SLI-Probleme und einen Idle-Verbrauch, der zum Himmel schreit....von einem vollkommen ungenügenden Treiber mal ganz abgesehen.

DAS überzeugt MICH überhaupt nicht!

Entweder gibt es bald anständige Treiber, die zumindest einen Teil der Probleme beseitigt, und/oder wir dürfen warten, bis die 'richtigen'-Karten kommen, die viele dieser "Kinder-Krankheiten" nicht mehr haben.

Such Dir was aus.

Razor

P.S.: und warum soll ich Dir "vertrauen"? Keinerlei Fakten oder auch nur irgendwelche verwertbaren Informationen von Dir... nichts.

Chris Lux
2006-11-17, 09:03:14
Es gibt Irregularitäten bei der Filterung, Irregularitäten bei der Performance, offensichtliche SLI-Probleme und einen Idle-Verbrauch, der zum Himmel schreit....von einem vollkommen ungenügenden Treiber mal ganz abgesehen.

DAS überzeugt MICH überhaupt nicht!
was ich hier rauslesen kann sind sli probleme. und wie ich das überblicke hat zu 90% all diese probleme tombman, welcher schon grenzwertig testet. soll nichts schlechtes heissen, nur dass er wirklich jegliche grenzen auslotet. dies dazu auch noch mit einem genauso 'grünen' board (so wie das klingt kann das wirklich der gtx widerstandsdefekt sein). von filterproblemen sehe ich leider nix. der idle verbrauch ist zu hoch keine frage. wir haben hier 700mio transisitoren, dass diese nicht handwarm bleiben war mir von vorn herein klar. das der _erste_ treiber für diese karten probleme haben wird... wow wer hätte es gedacht. der 100er forceware soll ja angeblich heute kommen, also abwarten. aber von "deiner" überzeugung von der hardware... naja, mit fakten hast du die jetzt aber nicht abgesichert.

edit: halt. nochwas razer. overlay: :up: :up: :up: :up: wisst wie... fakten

Modulor
2006-11-17, 09:55:56
Gehen wir davon aus das der jetzige Treiber nur "schnell gestrickt" worden ist, wieviel Potenzial steckt dann wohl in den neuen Treibern?

3-4% am Anfang?


Bei DER Architektur würde ich sogar sehr viel weiter gehen!
Aber es kann eben auch gut sein, dass wieder 'handoptimiert' werden muss, um volle Lesitungsfähigkeit zu erhalten.


Ich kann zumindest von der strukturell ähnlich aufgebauten 3DLabs VP760 sagen daß die Treiber innerhalb eines halben Jahres ab launch im Sommer 2002 soweit optimiert wurden daß man unter Spielen im Schnitt 10% Performance gewann. Das erstaunliche damals war für mich über die Zeit quasi zusehen zu können wie Texel- und Pixelfüllrate trotz gleichbleibender Taktraten um eben diese 10% nach oben geschraubt wurden. Ich halte auch aus diesem Grund 15-20% "Bei DER Architektur" nicht für unrealistisch...
Wer weiß,vielleicht arbeiten ja einige ex-3DLabs Programmierer von damals heute an den neuen 8800er Treibern,ich wünsche es ihnen eigentlich,könnten sie doch endlich mal ihr ganzes Potenzial zeigen :)

dargo
2006-11-18, 10:50:09
der idle verbrauch ist zu hoch keine frage. wir haben hier 700mio transisitoren, dass diese nicht handwarm bleiben war mir von vorn herein klar.
Die 681 Mio. Transistoren werden sehr oft als Entschuldigung erwähnt, was ich überhaupt nicht nachvollziehen kann. Die G8800GTX verbraucht ca. 10-15W unter Last mehr wie eine X1950XTX. Wieso zum Teufel muss sie dann in Idle ganze ~35W mehr verbrauchen?

Man hat gerade bei so einem Transistormonter die Verbrauchseffizienz je Transistor deutlich verbessert im Vergleich zur ATI und dann baut man so einen Bock @Idle. Für mich völlig unverständlich und inakzeptabel!

Chris Lux
2006-11-18, 10:55:48
Die 681 Mio. Transistoren werden sehr oft als Entschuldigung erwähnt, was ich überhaupt nicht nachvollziehen kann. Die G8800GTX verbraucht ca. 10-15W unter Last mehr wie eine X1950XTX. Wieso zum Teufel muss sie dann in Idle ganze ~35W mehr verbrauchen?

Man hat gerade bei so einem Transistormonter die Verbrauchseffizienz je Transistor deutlich verbessert im Vergleich zur ATI und dann baut man so einen Bock @Idle. Für mich völlig unverständlich und inakzeptabel!
wenn ich es wüsste, würde nvidia es auch wissen und es nicht so gebaut haben. ehrlich freue ich mich, dass unter last der verbrauch kaum über der ati liegt. doch so muss man sich fragen was hat ati mit den 350mio transistoren dann für einen bock geschossen...

vielleicht lassen sich unnötige teile des chips nicht abschalten im 2d modus usw. ich glaube aber auch kaum, dass bei diesem problem ein treiber was ändern wird.

Riplex
2006-11-18, 11:00:44
Ich weiss garnicht was alle haben. Hallo ??? Die 8800 GTX ist schneller wie ein 7900 GTX SLI System ! Das da Strom verbraten wird ohne ende is ja auch klar. Oder habt ihr schon mal nen 3 Liter Porsche gesehen ?
Na gut, im Idle wär das eine oder andere Watt zu sparen schon besser. Aber die 35 Watt Mehrverbrach im Idle kosten im Monat vielleicht 3 €.

dargo
2006-11-18, 11:01:24
vielleicht lassen sich unnötige teile des chips nicht abschalten im 2d modus usw. ich glaube aber auch kaum, dass bei diesem problem ein treiber was ändern wird.
Vielleicht ist das der einzige Nachteil einer USA.
Wie ist der aktuelle Stand eigendlich? Sind die Taktraten und Spannungen in 2D=3D oder hat sich schon was geändert?

Ich weiss garnicht was alle haben. Hallo ??? Die 8800 GTX ist schneller wie ein 7900 GTX SLI System ! Das da Strom verbraten wird ohne ende is ja auch klar. Oder habt ihr schon mal nen 3 Liter Porsche gesehen ?
Na gut, im Idle wär das eine oder andere Watt zu sparen schon besser. Aber die 35 Watt Mehrverbrach im Idle kosten im Monat vielleicht 3 €.
Und ich kann diesen Unsinn nicht mehr lesen!
Das ist kein Grund, dass die Karte in Idle mehr als doppelt so viel Leistung verbrät als zb. eine G7900GTX. Oder ist die G8800GTX in Idle auch doppelt so schnell? :|

Jetzt überlege mal - ~70W fürs Idlen. Wofür? Nur fürs 2D Bild!

Muh-sagt-die-Kuh
2006-11-18, 11:42:31
...Oder habt ihr schon mal nen 3 Liter Porsche gesehen ?.Klar, jeder 911er.....die haben alle mindesten 3 L Hubraum ;)

Chris Lux
2006-11-18, 11:47:52
Jetzt überlege mal - ~70W fürs Idlen. Wofür? Nur fürs 2D Bild!
wenns mal 70 wären. letzte info waren glaub 180W!

dargo
2006-11-18, 11:52:47
wenns mal 70 wären. letzte info waren glaub 180W!
Wo hast du diesen Blödsinn her? :|

thiron
2006-11-18, 11:55:36
Bei 180 Idle könnte man unter Last das Rädchen im Stromzähler als Flex benutzen.

Chris Lux
2006-11-18, 12:16:28
Wo hast du diesen Blödsinn her? :|
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=8

klar gesamtsystem, aber glaube soviel nimmt die cpu da nicht. sollten immer noch weit über 100W sein, wenn man den vergleich zum sli system sieht.

Slipknot79
2006-11-18, 13:06:59
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=8

klar gesamtsystem, aber glaube soviel nimmt die cpu da nicht. sollten immer noch weit über 100W sein, wenn man den vergleich zum sli system sieht.

Laut dem Diagram verbraucht 1 GTX 100W im Idle (Unterschied zw. einer GTX und dem SLI System), das ist schon recht viel für son 2D-Bild ^^

Razor
2006-11-18, 13:38:09
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=8

klar gesamtsystem, aber glaube soviel nimmt die cpu da nicht. sollten immer noch weit über 100W sein, wenn man den vergleich zum sli system sieht.

Daran kann irgendetwas nicht stimmen...
(die 160W Mehrverbrauch unter Last hingegen schon)

Schade, dass man dort nicht einen Vergleich zum einem 79GT/GTX/SLI-System gezogen hat.

Und nein, auch ich glaube nicht daran, dass es mit einem Treiber möglich ist, den 2D-'Verbrauch' zu senken...
...aber ich würde mich gerne überraschen lassen!

Apropos:
- "SLI-Probleme": haben auch andere als tombman (siehe 97.02-Thread)
- "Filtering": http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332259
- "erster Treiber": es gibt bis heute glatte 7... in Worten "sieben"!
- "Fakten": reicht Dir das jetzt?

Und...

edit: halt. nochwas razer. overlay: :up: :up: :up: :up: wisst wie... fakten

Findest Du das witzig?
Ich nicht...

Ganz im Gegenteil ist das einfach nur 'arm'... von jemanden der es selber nicht wirklich mit 'Fakten' hat.
Ich begründe meine Ansichten/Meinungen jedenfalls!
Dafür hast Du mein Mitleid...

Razor

Chris Lux
2006-11-18, 14:52:59
Apropos:
- "SLI-Probleme": haben auch andere als tombman (siehe 97.02-Thread)
- "Filtering": http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332259
- "erster Treiber": es gibt bis heute glatte 7... in Worten "sieben"!

es gibt im grunde zwei treiber 96.xx und 97.xx. die einzelnen versionen unterscheiden sich nur durch marginale game fixes. selbst 96 zu 97 ist nix weltbewegendes. genau daher rühren auch die sli probleme. ich hatte ja echt auf den 100er gestern gehofft. aber naja weiter warten.

zum filtering. da ist kein problem. die nvidia filteralgorithmen filtern nunmal negativen texture lod bias nicht so wie ati. das flimmern kommt hauptsächlich vom negativen bias. wenn spieleentwickler so etwas verwenden ist klar, dass es flimmert. das ati diesen fall anders handelt ist dabei glück. dies ist IMO kein problem sondern einfach nur ein nvidia merkmal seit mehreren generationen. der anisotrope filter ist soweit ich sehen kann wirklich spitze. ich habe gtr2 auch getestet und ja das flimmern ist noch da, aber bei weitem nicht so schlimm wie noch bei der nv40 generation. somit ist auch hier ein deutlicher fortschritt zu erkennen. Hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4837972&postcount=240) kannst du meine probleme mit einem G70 in GTR2 sehen. ich habe große probleme mit der qualität gehabt und mit der 8800gtx sehe ich die für mein empfinden als extrem verbessert an.


witzig?
Ich nicht...
Ganz im Gegenteil ist das einfach nur 'arm'... von jemanden der es selber nicht wirklich mit 'Fakten' hat.
Ich begründe meine Ansichten/Meinungen jedenfalls!
Dafür hast Du mein Mitleid...
och nich weinen razor ;)
dein diskussionsstil ist halt einfach nur zu sehr von deinen ansichten geprägt. gerade finde ich hängst du dich an kleinigkeiten und startproblemen einer einfach nur taufrischen hardwaregeneration auf. ich sehe einfach nicht wo man sich sorgen machen muss, wenn die hardware jetzt schon so gut funktioniert. die sli probleme werden mit sicherheit sehr bald bereinigt sein (wenn es sich nicht um probleme im zusammenspiel mit anderer hardware oder doch noch um den falschen widerstand handelt). mit dem filter sehe ich auch keine allgemeinen probleme, wie gesagt wer mit neg. lod bias spielt muss mit sowas rechnen. die filter algorithmen sind halt auf lod bias = 0 ausgelegt. siehe auch am ende dieses (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332259) threads. dort ist eine strecke mit weniger neg. lod bias und schon flimmert es nicht. gerade die isi engine spiele sind ja nicht mal auf AF ausgelegt und greifen einfach nur auf den neg. lod zurück, um schärfe ins bild zu bekommen. wenn die entwickler sich hier auf AF verlassen würden wäre dies kein problem.

dargo
2006-11-18, 15:06:37
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=8

klar gesamtsystem, aber glaube soviel nimmt die cpu da nicht. sollten immer noch weit über 100W sein, wenn man den vergleich zum sli system sieht.
Dann glaubst du falsch.

Die X1950XTX liegt dort bei 141W, die G8800GTX bei 186W.

Eine X1950XTX hat laut xbitlabs 33W in Idle. 186W-141W ergeben 45W. Jetzt musst du noch den Wirkungsgrad des NTs berücksichtigen. Dann sieht es so aus:

45W*70% = 31,5W
45W*75% = 33,75W

Somit hat eine G8800GTX ~64-67W in Idle. ;)

PS: Die 70/75% ist der Wirkungsgrad des NT in Idle, den wir leider nicht kennen. Gehe mal aber von 70-75% in Idle bei einem "typischen" NT aus.

PS²: Wenn hardwareluxx 186W misst heißt es noch lange nicht, dass die Komponenten 186W fressen. Bei einer typischen Effizienz des NTs von 70-75% ergibt das 130,2-139,5W was die Komponenten an Leistung benötigen. ;)

Die 186W ist die Leistung die nötig ist um 130,2-139,5W an die Komponenten liefern zu können und welche du im Endeffekt zahlen musst.

Laut dem Diagram verbraucht 1 GTX 100W im Idle (Unterschied zw. einer GTX und dem SLI System), das ist schon recht viel für son 2D-Bild ^^
Auch das ist falsch. Leute, die gemessene Leistung hat nichts mit der Leistung zu tun die ein System oder eine Komponente verbrät! Ihr müsst immer den Wirkungsgrad des NTs berücksichtigen!

Daran kann irgendetwas nicht stimmen...
(die 160W Mehrverbrauch unter Last hingegen schon)

Auch das ist falsch.

Razor
2006-11-18, 15:17:03
7 Treiber ist schon ordentlich...
(und alle gehören sie der Series95 an ;-)

DAS ist einsamer Rekord bei Einführung einer neuen Technologie.

Und es hieß nicht "Fimmering", sondern "Filtering".
Vermutlich hast Du Dir den Thread nicht einmal angesehen...

Und ob die SLI-Probleme gefixt werden können, steht auch noch in den Sternen... zeigen wird dies erst die Zukunft.
(immer schön an den defekten Video-Prozessor des NV40 denken ;-)

-

Und nein, ich 'hänge' mich nicht an Kleinigkeiten, sondern an schon recht extremen Dingen, wie dem exorbitanten Idle-Verbrauch. Das alles macht einen ziemlich ungünstigen Eindruck und sieht sehr nach einem "überhasteten" Launch aus. Hoffen wir mal, dass nVidia wenigstens einen Teil davon hinbekommt und dann mit dem nächsten Refresh vollkommen eliminiert. Das, was sie aber damit erreichen wollten, haben sie dann erreicht... einen ganz erheblichen Vorsprung zu ATI/AMD.

Razor

Chris Lux
2006-11-18, 15:19:14
Auch das ist falsch. Leute, die gemessene Leistung hat nichts mit der Leistung zu tun die ein System oder eine Komponente verbrät! Ihr müsst immer den Wirkungsgrad des NTs berücksichtigen!
ok danke, hatte ich nicht dran gedacht.

Razor
2006-11-18, 15:23:56
Auch das ist falsch. Leute, die gemessene Leistung hat nichts mit der Leistung zu tun die ein System oder eine Komponente verbrät! Ihr müsst immer den Wirkungsgrad des NTs berücksichtigen!

Oder auch nicht...

Schließlich sprechen wir ja von dem Verbrauch, der aus unserer Dose gezogen wird und nicht über das, was dann schlußendlich bei den Komponenten ankommt. Ich lese daraus, dass zwar eine GTX 'nur' eine Aufnahme von 70W hat, dafür aber 100W vom Netzteil 'verbraten' wird.

DAS wäre in der Tat um einiges schlimmer, als ich es ursprünglich im Sinn hatte!

Eine Leistungsaufnahme von 100W wäre für mich (!) unter idle absolut indiskutabel.
Und jetzt kommt ein SLI mit 200W idle und zusätzlichen 170W unter Last?
*grunz*

Razor

P.S.: selbst wenn meine 79GT statt der 20W (OK, vielleicht 23W mit VoltMod ;-) nach dieser Rechnung 27W bzw. 31W brauchen würde, wäre der Abstand zu den 100W noch immer lockere 70W (Aufnahme durch das Netzteil). Boah... neee... geht ja echt gar nicht!

Slipknot79
2006-11-18, 15:25:36
>>Auch das ist falsch. Leute, die gemessene Leistung hat nichts mit der Leistung zu tun die ein System oder eine Komponente verbrät! Ihr müsst immer den Wirkungsgrad des NTs berücksichtigen!

Das ist Ansichtsache, denn tatsächlich zahle ich die 100W. Diese interessieren den zahlenden Kunden mehr als die 75W die die Karte effektiv braucht.

Wenn man von 75W spricht, dann ist es nicht das, was tatsächlich aus dem Netz gezogen wird.

Chris Lux
2006-11-18, 15:28:34
7 Treiber ist schon ordentlich...
(und alle gehören sie der Series95 an ;-)

DAS ist einsamer Rekord bei Einführung einer neuen Technologie.

und DAS ist totaler bullshit. nur weil im netz abarten von 96.xx aufgetaucht sind oder per inf die g80 freigeschaltet wurden heisst das nicht es gibt mehr. offiziell von nv gibt es einen 97.02, dann noch die die mit ausgeliefert wurden 96.89. das wars, mehr nicht! im grunde sollte man nur den 97 zählen, weil der am launch tag da war. alles davor war für die tester.

Und es hieß nicht "Fimmering", sondern "Filtering".
Vermutlich hast Du Dir den Thread nicht einmal angesehen...wahrscheinlich hast du nicht einmal ahnung davon wo das problem ist. klar habe ich den thread gelesen, hast du mein letztes posting gelesen? ich kenne die probleme und habe es auch selbst nachgesehen mit dem g80. junge, du hast keine ahnung von was du redest und verbreitest hier eine stimmung gegen sachen von denen du nichtmal was zu verstehen scheinst. lies mal nach was texture lod bias ist und was mit negativem gemeint ist. und dann lies mal nach wie textur filter funktionieren und dann komm nochmal...


Und ob die SLI-Probleme gefixt werden können, steht auch noch in den Sternen... zeigen wird dies erst die Zukunft.
(immer schön an den defekten Video-Prozessor des NV40 denken ;-)

sli ist ein aushängeschild von nvidia, das wird gefixed.

Das alles macht einen ziemlich ungünstigen Eindruck und sieht sehr nach einem "überhasteten" Launch aus.
der launch war kaum überhastet, warum auch. der r600 sitzt nv noch nicht im nacken. das problem mit dem widerstand kann mal passieren. ist nicht toll das es so ist, aber schau mal wie oft ganze autoserien zurückgerufen werden und das teilweise monate nachdem sie auf dem markt sind.

dargo
2006-11-18, 15:35:48
Oder auch nicht...

Schleißlich sprechen wir ja von dem Verbrauch, der aus unserer Dose gezogen wird und nicht über das, was dann schlußendlich an den Komponenten ankommt. Ich lese daraus, dass zwar eine GTX 'nur' eine Aufnahme von 70W hat, dafür aber 100W vom Netzteil 'verbraten' wird.

:|

Ähm, dir ist aber schon klar, dass die Effizienz der Netzteile stark unterschiedlich sein kann. Wenn ich schon den Stromverbrauch einer Komponente vergleiche dann bitte mit der Leistung die sie benötigt und nicht was an der Dose gezogen wird.

Nur mal so als extremes Beispiel. Nehmen wir mal ein System was 200W für die Komponenten benötigt.

System1 hat ein NT mit max. 65% Effizienz (*an die "älteren" LC Power denk*) System2 ein NT mit max. 80% Effizienz.
System1 zieht an der Dose 308W, System2 250W.

Jetzt siehst du wie sinnvoll es ist die Eingangsleistung zu vergleichen. ;)
Mit steigernder Leistung ist es noch schlimmer.

AnarchX
2006-11-18, 15:39:46
Nur mal so als extremes Beispiel. Nehmen wir mal ein System was 200W für die Komponenten benötigt.

System1 hat ein NT mit max. 65% Effizienz (*an die "älteren" LC Power denk*) System2 ein NT mit max. 80% Effizienz.
System1 zieht an der Dose 308W, System2 200W.

System 2 250W, wenn es ein NT mit 80% ist.

dargo
2006-11-18, 15:42:00
System 2 250W, wenn es ein NT mit 80% ist.
Ich meinte auch 250W. Sorry, kommt durch zu schnelles Tippen. X-D
Habs editiert.

Razor
2006-11-18, 15:42:15
und DAS ist totaler bullshit. nur weil im netz abarten von 96.xx aufgetaucht sind oder per inf die g80 freigeschaltet wurden heisst das nicht es gibt mehr. offiziell von nv gibt es einen 97.02, dann noch die die mit ausgeliefert wurden 96.89. das wars, mehr nicht! im grunde sollte man nur den 97 zählen, weil der am launch tag da war. alles davor war für die tester.

Das ist purer Unsinn... wirklich.
ALLE Treiber sind von nVidia und ALLE Treiber wurden den Testern zur Verfügung gestellt.
Der 97.02 ist bei öffentlicher Verfügbarkeit schlicht und ergreifend der letzte Treiber gewesen... that's it.
(und er ist noch immer nicht vom FTP zu bekommen, ist also 'geschützt'... aber das nur am Rande und tut wenig zur Sache)

Es gan NOCH NIE einen Launch, bei dem dermaßen viele Treiber verwendet wurden.
Noch nie!

Also erzähle hier bitte nicht solch einen mächtigen Dünnsch...

Und da Du schon wieder einen unerträglichen Ton an den Tag legst, ist hier wieder EOD.

Sorry, aber das Ganze hört sich nach einer mächtigen Rechfertigung Deinerseits an und damit mehr nach irgendwelchen Fanb... oh, das 'böse' Wort... nach irgendwelchem Zeug an, welches sonst nur von zwei bestimmten Personengruppen hier kommt.

Mach nur weiter so.

Razor

Razor
2006-11-18, 15:51:22
Jetzt siehst du wie sinnvoll es ist die Eingangsleistung zu vergleichen. ;)
Mit steigernder Leistung ist es noch schlimmer.

Nein und ja!
;)

80% Wirkungsgrad ist schon sehr hoch gegriffen und Du hast noch immer 'gute' 75% angenommen. Und das mit den Wirkungsgraden, bei extrem 'hochgezüchteten' Netzteilen ist schon richtig, nur fehlen uns hier einfach die Infos, ob hier tatsächlich anzunehmen ist, dass der Wirkungsgrad in diesem Fall bei nur 50% liegt... was dann aber noch immer zu viel wäre.

Wie dem auch sei, in meinem postum signum ist ein Vergleich aufgestellt.
Was sagst Du dazu?

20 bzw. 23W vs. 75W = 55 bzw. 52W 'netto'
oder
27 bzw. 31W vs. 100W = 73 bzw. 69W 'brutto'

So oder so ein brutaler Mehrverbrauch, findest Du nicht?
Und wenn hier SLI ins Spiel kommt, dann wird es regelrecht grotesk!

Razor

P.S.: und nur zu Erinnerung, das Geld für die Stromrechnung ist mir schnuppe... wie schon öfter geschrieben.

Moralelastix
2006-11-18, 16:01:54
@Razor
Du gehst also von nem Hardwarebug der Platine oder von nicht vorhandenen/funktionierenden Stromsparschaltern des Chip aus?

Also warten wir nur einfach auf eine neue Revision des Boards oder auf den G81?

Spätestens mit den Go Chips muss NV das Problem ja gelöst haben.

Razor
2006-11-18, 16:05:22
@Razor
Du gehst also von nem Hardwarebug der Platine oder von nicht vorhandenen/funktionierenden Stromsparschaltern des Chip aus?

Also warten wir nur einfach auf eine neue Revision des Boards oder auf den G81?

Nicht von einem Hardwarebug... sondern von einer Design-Schwäche.
Vermutlich fehlte einfach die Zeit, diese Thematik noch vor Release der Vista RTM zu implementieren...
(oder besser: es funktionierte nicht so, wie es sollte und wurde schlicht deaktiviert ;-)

Razor

dargo
2006-11-18, 16:13:23
Wie dem auch sei, in meinem postum signum ist ein Vergleich aufgestellt.
Was sagst Du dazu?

20 bzw. 23W vs. 75W = 55 bzw. 52W 'netto'
oder
27 bzw. 31W vs. 100W = 73 bzw. 69W 'brutto'

So oder so ein brutaler Mehrverbrauch, findest Du nicht?
Und wenn hier SLI ins Spiel kommt, dann wird es regelrecht grotesk!

Ich bin in dem Fall was den Stromverbrauch einer G8800GTX (vorallem in 2D) angeht völlig deiner Meinung. Er ist einfach deutlich zu hoch.

Grestorn
2006-11-18, 16:14:34
Woah, was wirklich an Dir nervt, lieber Razor, ist dass Du Deine Meinung immer als Tatsache hinstellst, und oft auch noch jedem mit Fettschrift oder übergroßer Schrift aufs Auge drückst.

Dabei ist fast alles, was Du schreibst, reine Spekulation.

Das ständige Wiederholen, dass es 7 Treiber gibt, ist noch dazu hochgradiger Nonsense. Prinzipiell gibt es jede Version, also zwischen der Nummer 91.00 und 91.41 gibt es 42 Treiber (inklusive). Nur weil nicht alle irgendwie den Weg auf irgendeinen Rechner außerhalb von nVidia gefunden hat, heißt das noch lange nicht, dass es diese Versionen nicht gab.

nVidia hat selbst nur 2 Treiber für die G80 veröffentlicht. Mehr nicht. Die Tatsache, dass aus irgendwelchen dubiosen Quellen noch andere Versionen durchgesickert sind, hat doch null komma gar keine Aussage über die Qualität der Treiber an sich.

Wen willst Du eigentlich davon überzeugen, dass die G80 nichts taugt? Wohl uns armen G80 Besitzer ein "neneneneneeeeeeneeeeee, ihr Deppen seid auf ein schlechtes Produkt reingefallen" reinwürgen?

Moralelastix
2006-11-18, 16:22:32
Um Gottes Willen nein!

Ihr habt das einzig richtige mit den ca. 650,- Euros gemacht, keine Frage!:biggrin:

dargo
2006-11-18, 16:23:33
Das ist Ansichtsache, denn tatsächlich zahle ich die 100W. Diese interessieren den zahlenden Kunden mehr als die 75W die die Karte effektiv braucht.

Wenn man von 75W spricht, dann ist es nicht das, was tatsächlich aus dem Netz gezogen wird.
In diesem Zusammenhang hast du ja recht. Nur, man könnte auch fragen - was kann eine Hardwarekomponente dafür, dass es keine NTs mit 100% Effizienz gibt.

Razor
2006-11-18, 16:26:45
Spätestens mit den Go Chips muss NV das Problem ja gelöst haben.

Ja, davon ist auszugehen.

Um Gottes Willen nein!
Ihr habt das einzig richtige mit den ca. 650,- Euros gemacht, keine Frage!:biggrin:

Ca. 1300, moralelastix, 1300...
:D

Razor

Moralelastix
2006-11-18, 16:29:02
*lol*


Jetzt versteh ich auch warum selbst Tombman davon sprach das es diesmal angeblich sein letztes Highend Sys werden soll.


Bugs for bugs!

Razor
2006-11-18, 16:31:33
@grestorn

Diese Treiber kamen nicht aus "irgendwelchen uminösen Quellen", sondern wurden den Testern von nVidia (oder den Herstellern) zum Launch des G80 zur Verfügung gestellt. Das ist ein kleiner, aber besonders bedeutsamer Unterschied!

Und es ist einzigartig in der Geschichte von Hardware-Launches.

Wenn dies nicht so sein sollte, zeige mir, wann es mal 'schlimmer' gewesen ist...

Und das mit dem hohen Idle-Verbrauch willst Du auch einfach so weg bügeln?
Sorry, aber bevor Du fort fährst, mich hier zu verunglimpfen, solltest Du vielleicht mal über das nachdenken, was hier diskutiert wird.

Razor

DrumDub
2006-11-18, 17:52:00
in zitier mal was interessantes aus der hardware luxx printed (01/2007, s. 42) zum idle-stromverbrauch der 8800er: Der gemessene, hohe Stromverbrauch ist auf die fehlende Implementierung von Stromsparmaßnahmen im verwendeten Beta-Treiber zurückzuführen. Nach NVIDIA-Angaben sollten sich die Werte unterhalb der GeForce 7950 GX2 auf dem X1900-Niveau einfinden.

Grestorn
2006-11-18, 17:52:20
Wenn dies nicht so sein sollte, zeige mir, wann es mal 'schlimmer' gewesen ist...

Was ich einfach nicht verstehe, was daran so schlimm sein sollß

Und das mit dem hohen Idle-Verbrauch willst Du auch einfach so weg bügeln?

Das mit dem Idle-Verbrauch habe ich überhaupt nicht erwähnt. Mir persönlich ist der ziemlich egal. Und das, obwohl ich schön brav alle Netzteile vom Netz nehme, wenn ich die Geräte nicht brauche.

Ich würde glatt wetten, dass die R600 in dieser Kategorie kaum besser sein wird. Bestimmte technische Probleme lassen sich halt nicht so ohne weiteres lösen.

Ein Heruntertakten wird da kaum eine Besserung bringen. Ich bin zwar überzeugt, dass es auch dafür eine Lösung gibt - wie man an den aktuellen Prozessoren sieht - aber nVidia hat darauf für den G80 einfach keinen Wert gelegt.

Mal ehrlich. 70 Watt, das sind, wenn der Rechner rund um die Uhr im Betrieb ist, etwa 1,7 kWh am Tag. Dafür zahle ich etwa 23 Cent.

Ihr diskutiert also über einen Betrag von maximal 23 Cent am Tag. Das ist auch Geld, zweifellos. Aber so lange wir hier von dem Luxus eines Game-PCs reden, der nicht nur viel viel Energie und damit Rohstoffe beim Betrieb sondern sehr viel mehr auch in der Herstellung frisst, ist diese ganze Diskussion nur eines: Heuchlerisch.

Sorry, aber bevor Du fort fährst, mich hier zu verunglimpfen, solltest Du vielleicht mal über das nachdenken, was hier diskutiert wird.

Mir geht vor allem Dein Stil auf den Wecker. Durch Deine Art zu argumentieren, stellst Du jeden, der nicht Deiner Argumentation folgt, als Idioten dar. Dennoch sollte es Dir klar sein, dass es sehr legitim ist, nicht Deiner Meinung zu sein.

Genauso wie ich Deine Meinung akzeptiere, wenn ich mich ihr in diesem Fall auch nicht anschließen kann.

dargo
2006-11-18, 18:49:55
in zitier mal was interessantes aus der hardware luxx printed (01/2007, s. 42) zum idle-stromverbrauch der 8800er:
Der gemessene, hohe Stromverbrauch ist auf die fehlende Implementierung von Stromsparmaßnahmen im verwendeten Beta-Treiber zurückzuführen. Nach NVIDIA-Angaben sollten sich die Werte unterhalb der GeForce 7950 GX2 auf dem X1900-Niveau einfinden.
Das hört sich super an. :up:
Also doch, die gleiche Geschichte wie beim Launch vom R520.

Gouvernator
2006-11-18, 18:59:54
Mal ehrlich. 70 Watt, das sind, wenn der Rechner rund um die Uhr im Betrieb ist, etwa 1,7 kWh am Tag. Dafür zahle ich etwa 23 Cent.

Ihr diskutiert also über einen Betrag von maximal 23 Cent am Tag. Das ist auch Geld, zweifellos. Aber so lange wir hier von dem Luxus eines Game-PCs reden, der nicht nur viel viel Energie und damit Rohstoffe beim Betrieb sondern sehr viel mehr auch in der Herstellung fressen, ist diese ganze Diskussion nur eines: Heuchlerisch.
Und wenn man den PC nicht nur rund um die Uhr am Tag laufen lasst sondern jeden Tag ein Monat lang ? Das sind 7€ - soviel kostet meine Flatrate...

Armaq
2006-11-18, 19:05:38
*lol*


Jetzt versteh ich auch warum selbst Tombman davon sprach das es diesmal angeblich sein letztes Highend Sys werden soll.


Bugs for bugs!

Wo hat er das denn gesagt? Wäre ja ein Einbruch sondergleichen. Da kann der Tierschutzverband ja behaupten, er beschütze keine Tiere mehr.

Grestorn
2006-11-18, 19:14:54
Und wenn man den PC nicht nur rund um die Uhr am Tag laufen lasst sondern jeden Tag ein Monat lang ? Das sind 7€ - soviel kostet meine Flatrate...

Lies meinen Text und stelle fest, dass ich nie gesagt habe, dass der Betrag unerheblich ist. Er ist es erst dann, wenn man ihn ins Verhältnis zu den Kosten des PCs insgesamt zieht.

Da werden mehrere 100€ pro Jahr dafür ausgegeben, den PC technishc aktuell zu halten. Aber wegen 10-20 Euro im Jahr (bei realistischer Nutzung) regt man sich auf einmal seitenlang auf.

23 Cent am Tag bei 24h Nutzung... als wohl deutlich weniger als 10 Cent für den normalen Nutzer. Meine Güte.

Moralelastix
2006-11-18, 19:15:56
Wo hat er das denn gesagt? Wäre ja ein Einbruch sondergleichen. Da kann der Tierschutzverband ja behaupten, er beschütze keine Tiere mehr.

*hihi*

Doch Tatsache!:biggrin: Ich müsste es jetzt erst suchen. Aber irgendwo ich glaube im Threat zum G80 wars.
Da hat er gemeint das es für Ihn dann das letzte mal sein würde und er sich dann "zur Ruhe" setzen wird(im übertragenen Sinn).
Wenn man sich seine ganzen ProblemThreats zum G80, SLI, Nforce 680 usw. anschaut.

Chris Lux
2006-11-18, 19:20:09
Und da Du schon wieder einen unerträglichen Ton an den Tag legst, ist hier wieder EOD.

Sorry, aber das Ganze hört sich nach einer mächtigen Rechfertigung Deinerseits an und damit mehr nach irgendwelchen Fanb... oh, das 'böse' Wort... nach irgendwelchem Zeug an, welches sonst nur von zwei bestimmten Personengruppen hier kommt.

och jetzt waren es dir genug fakten oder wie? du provozierst hier andauernd und ann machst du trotzig dicht. ich bin mit sicherheit kein nvidia fanboy. habe genug zeit mit graphikkarten beider herstellen verbracht um mir meine meinung bilden zu können und nein das bezieht sich nicht nur auf spiele. wenn du aber weiter in deinem elfenbeinturm aus deinem halbwissen sitzen willst... be my guest.

@Razor
Du gehst also von nem Hardwarebug der Platine oder von nicht vorhandenen/funktionierenden Stromsparschaltern des Chip aus?

Also warten wir nur einfach auf eine neue Revision des Boards oder auf den G81?

Spätestens mit den Go Chips muss NV das Problem ja gelöst haben.
siehst du razor. das kommt raus wenn du dein unwissen nach aussen trägst. du schreibst scheinbar so viel, dass andere meinen du würdest wissen um was es geht... top... echt top!

Mir geht vor allem Dein Stil auf den Wecker. Durch Deine Art zu argumentieren, stellst Du jeden, der nicht Deiner Argumentation folgt, als Idioten dar. Dennoch sollte es Dir klar sein, dass es sehr legitim ist, nicht Deiner Meinung zu sein.

Genauso wie ich Deine Meinung akzeptiere, wenn ich mich ihr in diesem Fall auch nicht anschließen kann.
ich muss das einfach mal quoten, weil es einfach wahr ist. razor führt sich hier immer wie der allwissende auf. vor ein oder zwei seiten habe ich ihm mit fakten belegt, dass es kein filter problem gibt aber sowas wird ignoriert und sofort dicht gemacht. ich hoffe nur, dass es den usern, welcher hier für antworten herkommen, zeigt was sie von razors _meinung_ halten können.

mike49
2006-11-18, 19:45:29
Argh... :mad:

Jetzt muß man sich hier schon durch 3-fach Posts mit kompletten OT-Spam und persönlichen Streitereien kämpfen. Könnt Ihr diese Kindereien nicht via PN regeln?

Ist ja echt nur noch nervig hier... :down:

Razor
2006-11-19, 05:12:19
in zitier mal was interessantes aus der hardware luxx printed (01/2007, s. 42) zum idle-stromverbrauch der 8800er:

Wer's glaubt?
:rolleyes:

Weder im Treiber - und was noch wesentlicher ist - im Bios der Hardware, ist von solchen "Stromsparmaßnahmen" etwas zu sehen... aber die Hoffnung stirbt ja bekanntlich zuletzt.

Jetzt muß man sich hier schon durch 3-fach Posts mit kompletten OT-Spam und persönlichen Streitereien kämpfen. Könnt Ihr diese Kindereien nicht via PN regeln?

Jup... oder neee... dann könnte man ja nicht mehr denunzieren, anschuldigen, anklagen etc.
Auch scheint er absolut nicht zu wissen, was EOD bedeutet... aber seis drum.

Razor

Razor
2006-11-19, 05:20:15
Und es ist Absicht, diesen Post stilistisch von dem anderen zu trennen...
;)

Was ich einfach nicht verstehe, was daran so schlimm sein soll

Es ist ein Hinweis... ein Hinweis darauf, in welchem Stadium sich die Entwicklung bei dieser Karte befindet.

Das mit dem Idle-Verbrauch habe ich überhaupt nicht erwähnt.

Schon klar...
Ich meinte allerdings: "Mit Schweigen unter den Tisch kehren."
Und so habe ich es auch formuliert.

Ihr diskutiert also über einen Betrag von maximal 23 Cent am Tag. Das ist auch Geld, zweifellos. Aber so lange wir hier von dem Luxus eines Game-PCs reden, der nicht nur viel viel Energie und damit Rohstoffe beim Betrieb sondern sehr viel mehr auch in der Herstellung frisst, ist diese ganze Diskussion nur eines: Heuchlerisch.

Nein ist sie nicht.
Und dass es mir nicht um das Geld geht, dürfte ich ja nun schon ein Dutzend mal erzählt haben...

Es geht um die Umwelt und um den Resourcen-schonenden Umgang mit dieser. Die Hersteller von Hardware (nicht nur die für Computer) müssen sich seit Mitte diesen Jahres global (!) an bestimmte Verfahrensweisen und Produktsprozesse halten, die schon bei der Auswahl von Rohstoffen beginnt. Produkte, die nicht nach diesen Standardten gefertigt würden dürfen seither nicht mehr in den Handel gelangen.

Was das mit uns zu tun hat?

Deine Kärtchen sind schon nach dieser Norm hergestellt und dass die Resourcen weltweit mittlerer weile knapp werden, Atomenergie keine Lösung ist und demnach endlich JEDER Mensch dazu übergehen sollte, sich dafür verantwortlich zu fühlen und nicht nach dem Motto - wie es hier (und in Amerika) üblich zu sein scheint:

"ich bezahle doch, sollen sich andere drum kümmern"

Ich hoffe, Du vestehst jetzt.
Auch, dass mir vollkommen egal ist, wieviel Du für 'ne kWh ausgibst...

Im übrigen:
SLI = 200W Aufnahme durch das Neutzteil = 4,8kW pro Tag = 1,752 megaWatt pro Jahr
(hierzulande kostet 1 kWh 19ct = knapper Euro pro Tag ;-)

Und klar... wer läßt schon seinen HighPerformance-Rechner 24/7/52 das ganze Jahr vor sich hin'idlen'.
:rolleyes:

-

Worauf ich eigentlich hinaus wollte:
Der Mehrverbrauch eines G80 ist unverhältnismäßig höher, als der vorhergehender Generationen.
-> Technologie-Schwäche, die entweder in Software, oder mit einer neuen Revision der Hardware korrigiert wird/werden muss.

Dazu selbst nach Aussage von nVidia unfertige Treiber.
Keine Treiber für das eigentliche Zielsystem Vista, obwohl dieses schon seit über einem halben Jahr 'fertig' ist.
Irregularitäten in der Bildqualität und Instabilitätten/Inkompatibilitäten bei SLI.

Alles ein bischen viel, oder nicht?

Und nein, das hat es bei neuer Technologie bis dato noch nicht gegeben!

Dennoch sollte es Dir klar sein, dass es sehr legitim ist, nicht Deiner Meinung zu sein.

Klar ist es das...
Und mein "Stil" ist eben mein Stil.
Da gibt es Schlimmeres und die stört es (also ihr eigener Stil) auch nicht.

Genauso wie ich Deine Meinung akzeptiere, wenn ich mich ihr in diesem Fall auch nicht anschließen kann.

Danke.
Aber vielleicht konnte ich ja den Ursprung meiner Meinung konkretisieren...

Razor

Grestorn
2006-11-19, 09:58:36
Es geht um die Umwelt und um den Resourcen-schonenden Umgang mit dieser. Die Hersteller von Hardware (nicht nur die für Computer) müssen sich seit Mitte diesen Jahres global (!) an bestimmte Verfahrensweisen und Produktsprozesse halten, die schon bei der Auswahl von Rohstoffen beginnt. Produkte, die nicht nach diesen Standardten gefertigt würden dürfen seither nicht mehr in den Handel gelangen.

Du hast gelesen, dass ich das Wort "Ressourcen" in meinen Ausführungen verwendet habe? Du hast auch gelesen, dass ich die Ressourcen, die bei der Herstellung und dem Betrieb eines Gamer-PCs mit den 70 Watt in Relation gestellt habe?

Wenn ja, dann verstehe ich nicht, was Du willst. Ich glaube, der Idle-Verbrauch aller existierenden 8800 GTXs der Welt zusammengenommen, rund um die Uhr betrieben, könnten kaum die Produktionskosten an Energie und Ressourcen des einen PCs aufwiegen, den Du Dein eigen nennst.

Bevor Du Dich also als Naturapostel aufspielst, fang einfach mal bei Dir selbst an. Das ist genau das, was ich als heuchlerisch bezeichne.

Es ist immer leicht, mit Fingern auf andere zu zeigen, aber es ist verdammt schwer, bei sich selbst anzufangen.

Ich weiß, dass meine Existenz der Natur nicht gut tut. Aber ich werde einen Teufel tun, irgendwelchen anderen Menschen genau dies vorzuhalten, wenn sie kaum mehr Schaden anrichten wie ich selbst.

PHuV
2006-11-19, 15:15:09
Du hast gelesen, dass ich das Wort "Ressourcen" in meinen Ausführungen verwendet habe? Du hast auch gelesen, dass ich die Ressourcen, die bei der Herstellung und dem Betrieb eines Gamer-PCs mit den 70 Watt in Relation gestellt habe?
:
Ich weiß, dass meine Existenz der Natur nicht gut tut. Aber ich werde einen Teufel tun, irgendwelchen anderen Menschen genau dies vorzuhalten, wenn sie kaum mehr Schaden anrichten wie ich selbst.

Wenn wir streng danach gehen würden, dürften wir uns nach der Logik überhaupt keine PCs zulegen. Allein für die Herstellung von Wavern, Belichtung, Äzung und diversen chemischen Prozessen entstehen so viele chemischer Sondermüll und Abfall, der schwer bzw. gar nicht zu entsorgen ist. Die Entsorgung von alten PC-Komponenten und die Verwertung stellt momentan auch ein fast unüberwindbares Problem dar, welches meistens nur durch Verbrennung und Erhitzung gelöst wird und die Schlacke aus diesen Verbrennungsprozessen wird als Sondermüll irgendwo endgelagert.
Aber überlegen wir doch mal, wo wie heute überall Computertechnik finden? In Uhren, Handys, medizinischen Geräten, Telefonen, Autos, Steuerungsanlagen für Maschinen, Elektrogeräte für den Haushalt, Unterhaltungsindustrie (Fernseher, Videorecorder, DVD-Player, Digicams usw.).

Da jucken ein paar 8800GTX auch nicht mehr. So sehr ich Deine Meinung schätze, Razor, aber wenn man Deiner Meinung folgt, müßte man konsequent heute auf alle technischen Geräte verzichten. Und Grestorn hat es vorgerechnet, so gravierend ist diese Idle-Last nicht. Sie ist nicht schön, es ginge vielleicht besser, aber mehr auch nicht. Da rege ich mich lieber auf, wieviel Ruß und Abgase durch das Anlassen von Motoren rausgeblasen werden, wieviel Kerosin für Kampfflugzeuge verbraten werden, Kerosin bei Linienflügen verschwendet wird, damit das Gewicht beim Landen leichter ist usw. .

Aus meiner Sicht ist der Bogen eh schon überspannt, und da jucken meine 8800 GTX auch nicht mehr.

tombman
2006-11-20, 04:43:13
Also nachdem das Sound+SLi-Problem vorerst mal "gelöst" ist, könnten bald neue Tests/Benchmarks von mir kommen...

mictasm
2006-11-20, 05:29:49
Ich freu mich. :)

War das Problem mit dem 1/8 (1/16) Leistung eigentlich komplett gelöst? Vielleicht habe ich es überlesen...

@Razor/Umwelt: Wenn schon global, dann richtig: Welche umweltbezogenen globalen Auswirkungen hat es, wenn ganz Deutschland alle Stromverbraucher für ein halbes Jahr ausschaltet? Das Wort "keine" kommt dem wohl sehr nahe... ;)

4711
2006-11-20, 09:11:56
Ach Leute ist das lächerlich....es wird zum nächsten Briefkasten gefahren anstatt zu laufen oder das Rad zu nutzen...der Fernseher läuft..Eierkocher Toaster usw.usw.dann wird hier......Heuchler!
Aber Pappa und Mamma zahlt ja bei den meisten noch...........

PHuV
2006-11-20, 09:42:46
Also nachdem das Sound+SLi-Problem vorerst mal "gelöst" ist, könnten bald neue Tests/Benchmarks von mir kommen...

Wie war den nun die Lösung?

Gast
2006-11-20, 10:35:07
Tombman? Hatte es vor ein paar Seiten schonmal vorgeschlagen, ist aber wohl im Getümmel untergegangen: hast du Dark Messiah of M&M schon? Da wäre ich sehr an ein paar Tests/Benchmarks interessiert :) Weil auf meiner Geforce 6600GT läuft das nicht wirklich spaßig...

dargo
2006-11-20, 10:44:16
hast du Dark Messiah of M&M schon? Da wäre ich sehr an ein paar Tests/Benchmarks interessiert :) Weil auf meiner Geforce 6600GT läuft das nicht wirklich spaßig...
Für DM of MM braucht man keine soo schnelle Grafikkarte. Für 1280x1024 4-6xAA/16xHQ-AF reicht schon eine X1900XT 512MB locker aus. Für einen G80 also keine Herausforderung.

Gast
2006-11-20, 11:03:25
Tombman? Hatte es vor ein paar Seiten schonmal vorgeschlagen, ist aber wohl im Getümmel untergegangen: hast du Dark Messiah of M&M schon? Da wäre ich sehr an ein paar Tests/Benchmarks interessiert :) Weil auf meiner Geforce 6600GT läuft das nicht wirklich spaßig...

Was erwartest Du?
Das es 100fps oder vielleicht 150fps sind.
Man das Game hat ja nun wirklich in Sachen Performance gar keine Probleme.
Läuft sogar auf einer 9700pro in 1024er Auflösung ordentlich.

Für die H2 Engine sind die 2 8800GTX wohl absoluter Quark. Gothic 3 in 2500er Auflösung ist eher von Interesse.

MfG

jojo4u
2006-11-20, 13:45:25
Wie war den nun die Lösung?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5006148#post5006148

robbitop@work
2006-11-20, 14:18:28
@razor

Ich arbeite im Engineering bei einem Windkraftanlagenhersteller und bin somit nicht ganz unbewandert, was den Energiemarkt und das Umweltbewußtsein angeht. Diese delta 70 W sind ein Witz gegenüber dem Gesamtverbrauch eines heutigen Haushaltes und noch schlimmer: dem Verbrauch von Autos und allen anderen Bewegungsmöglichkeiten.

Leute die meinen, mit einem Stromspar PC der Umwelt zu helfen, sollten, sofern sie wirklich dieser Meinung sind, auch so konsequent sein und andere Potenziale, die um ein Vielfaches größer sind, ausschöpfen. Angefangen beim Optimieren der Fortbewegung (Mitfahrgemeinschaften, keinen riesen Motor mehr, mehr Radfahren und zu Fuß gehen), beim Optimieren des Stromes im Haushalt (Licht aus, wenn nicht benötigt, kein Standby bei Geräten, Stromspargeräte kaufen, richtige Dimensionierung der Haushaltsgeräte, richtige Dimensionierung der Isolation) uswusf. Dagegen sind die 70 W lächerlich. Denn die Meisten, die sich hier über 70 W aufregen (behaupte ich mal) nutzen die restlichen Potenziale nur zu einem geringen Prozentsatz aus.

r@w.
2006-11-20, 14:27:02
@robbi

Eigentlich wollte ich das Thema ruhen lassen... aber exakt Dein Post hat dies verhindert!
;)

Es ist immer wieder die gleiche Leier:
"An der Gesamtsituation kann ich 'eh nix tun, als laß ich es!"

Ohne jetzt weiter auf den Inhalt Deines Posts und der damit verbundenen Unterstellung - ich würde nicht meinen Teil zu einem globalen Umweltbewußtsein beitrage - einzugehen, meine Frage ganz speziell (und ausschließlich) an Dich:

Du findest es also in Ordnung, eine 70W Birne 24/7/52 im Jahr laufen zu lassen, obwohl es eine 0W Birne auch tun würde?
Seltsam...

Razor

Grestorn
2006-11-20, 14:41:39
Du findest es also in Ordnung, eine 70W Birne 24/7/52 im Jahr laufen zu lassen, obwohl es eine 0W Birne auch tun würde?


Ich finde es schon mal nicht richtig, meinen Spiele(!)-PC 24/7/52 laufen zu lassen. Denn ich hab auch andere Dinge zu tun, als zu spielen.

Sogar den Server meiner Firma fahre ich jeden Abend runter und trenne alle Netzteile (auch die USV) vom Netz. Von diesen Verbrauchern habe ich nämlich gar nichts.

Von der G80 habe ich aber sehr wohl etwas, also akzeptiere ich auch die 70 Watt.

r@w.
2006-11-20, 14:59:14
Tjo... ich habe einen "Universal-PC".
Mit dem kann ich spielen, arbeiten oder sonstige 'nette' Dinge trieben.
(wozu mehr als ein PC für einen Nutzer?)

Im Idle-Betrieb verbraucht er wenig, im Standby-Betrieb noch viel weniger und im Hibernation-'Betrieb' nix (OK, fast nix ;-). Vom Strom trenne ich da nix... warum auch? Und wer tatsächlich 'glaubt', dass der Standby-Betrieb eines (modernen!) Fernsehers mehr braucht, als ein "Kaltstart", der tut mir eigentlich schon richtig leid (was nicht zwingend auf Dich zutreffen muss!). War nur ein Beispiel... trifft in ähnlicher Weise auch auf z.Bsp. Verstärker-Anlagen zu.

Aber wir driften hier schon wieder zu sehr ab.

Aber interessant finde ich, dass Du der Meinung bist, dass Du durch die 70W Mehrverbrauch unter 2D etwas hast... würde mich wirklich mal interessieren, was genau das sein soll. Oder sollte ich Dich hier falsch verstanden haben?

Und nur falls dies in Vergessenheit geraten sein sollte (was ja vorkommt ;-)... mir ist es egal, was das Teil unter 3D 'treibt'.

Razor

Grestorn
2006-11-20, 15:05:30
Und wer tatsächlich 'glaubt', dass der Standby-Betrieb eines (modernen!) Fernsehers mehr braucht, als ein "Kaltstart", der tut mir eigentlich schon richtig leid (was nicht zwingend auf Dich zutreffen muss!). War nur ein Beispiel... trifft in ähnlicher Weise auch auf z.Bsp. Verstärker-Anlagen zu.

Das hängt ganz davon ab, wie lange sich das Gerät im Standby befindet (bei meinem Fernseher kann das schon ein paar Wochen sein). Und dass ein Kartstart bei einem modernen Gerät extra viel Energie kostet, halte ich für ein Gerücht.

Ein Röhren-TV braucht beim Einschalten deutlich mehr Power, aber das gilt auch, wenn man ihn aus dem StandBy einschaltet.

Aber interessant finde ich, dass Du der Meinung bist, dass Du durch die 70W Mehrverbrauch unter 2D etwas hast... würde mich wirklich mal interessieren, was genau das sein soll. Oder sollte ich Dich hier falsch verstanden haben?

Unter 2D habe ich von den 70 Watt direkt natürlich nichts (außer etwas wärmere Füße vielleicht :) ). Aber ich habe von der G80 insgesamt etwas, und zwar viel mehr, als mir diese 70 Watt idle wert sind.

Natürlich würde ich mich freuen, wenn die im 2D etwas weniger Leistung zieht. Aber diese Fakt bedeutet für mich keinerlei Einfluss auf den Kauf der Karte. Auch nur 1% Leistungsvorteil würden mich - bei ansonsten vollkommen identischen Daten - zur schnelleren Karte greifen lassen, auch wenn sie 70 Watt im 2D mehr braucht.

Wenn ich ein Notebook ansehe, sieht die Sache ganz anders aus, weil dort dann andere Dinge eine viel größere Rolle spielen.

Immer die richtigen Wertmaßstäbe für den jeweiligen Anwendungsfall.

robbitop@work
2006-11-20, 15:10:32
Du findest es also in Ordnung, eine 70W Birne 24/7/52 im Jahr laufen zu lassen, obwohl es eine 0W Birne auch tun würde?
Seltsam...

Razor

Was du mir wieder in den Mund legen willst...Natürlich finde ich es suboptimal, dass der G80 im Idle 70 W zuviel schluckt. Das kann so nicht sein. (aus dem Grund werde ich mir auch keinen holen, solange das Problem nicht behoben ist)

Was ich hingegen behaupte ist, dass die 70 W gegenüber dem was ein normaler Mensch sonst verbricht (i.e. Ressourcenpotenziale nicht nutzt) geradezu lächerlich sind. Zumindest für die liebe Umwelt, um die es hier ging.
Wenn es wirklich nur um die Umwelt geht, dann sollen diese Leute bitte ihre Doppelmoral entsorgen und aufhören mit ihren >= 2.0l Hubraum Motoren die Umwelt zu verpesten, nicht den billigsten Strom kaufen, auf ihren Verbrauch im Haushalt achten (Potenziale habe ich genannt).
Da die meisten das (behaupte ich mal) nicht tun, nenne ich das Heuchelei.
Auf der einen Seite hunderte kW/h verballern für nichts und auf der anderen seite wegen wenigen kW/h herummosern.
Was mich viel mehr ärgert, ist die Wärme, die mein System belastet. Und Razor seien wir mal ehrlich, das ist die Hauptsorge der meisten Leute hier.

robbitop@work
2006-11-20, 15:14:10
Im Idle-Betrieb verbraucht er wenig, im Standby-Betrieb noch viel weniger und im Hibernation-'Betrieb' nix (OK, fast nix ;-). Vom Strom trenne ich da nix... warum auch? Und wer tatsächlich 'glaubt', dass der Standby-Betrieb eines (modernen!) Fernsehers mehr braucht, als ein "Kaltstart", der tut mir eigentlich schon richtig leid (was nicht zwingend auf Dich zutreffen muss!). War nur ein Beispiel... trifft in ähnlicher Weise auch auf z.Bsp. Verstärker-Anlagen zu.
Das kommt auf die Dauer und Häufigkeit an. Dazu gibt es schöne Artikel von Experten, die dort einen anderen Break-Even ausgerechnet haben als du.



Aber interessant finde ich, dass Du der Meinung bist, dass Du durch die 70W Mehrverbrauch unter 2D etwas hast..
Das behauptet doch keiner. Die Leute die Power jetzt wollen, nehmen es als notwendiges Übel hin. Gut findet das sicher keiner.
wie gesagt: die meisten stört die Wärme mehr als die Stromkosten oder gar die Umwelt

Slipknot79
2006-11-20, 15:44:30
>die meisten stört die Wärme mehr als die Stromkosten oder gar die Umwelt

Solange es nicht Sommer ist :), ich heiz im Vergleich zum letzten Jahr, nur noch auf Stufe 2 statt auf Stufe 3.
Aber schon klar, dass die Heizung mit Strom wesentlich teurer ist als jene der Fernwärme. :(

Foxbat
2006-11-20, 16:07:09
die meisten stört die Wärme mehr als die Stromkosten oder gar die Umwelt

Solange ich den AthlonXP besaß, musste ich die Heizung nur in wenigen Fällen aufdrehen.

Jetzt habe ich einen C2D (non-oc) --> die Luft aus dem PC ist fast genauso kalt, wie die die reinkommt ;D




Und nein, es liegt nicht an der Wäremübertragung, hab keine Standardkühler verbaut.

DrPeacemaker
2006-11-20, 16:14:09
Hallo,
wie ihr alle sehen links sehen könnt, bin ich recht neu, obwohl ich seit 3 Jahren fleißig mitlese und viel gelernt habe.

Aber, die letzten paar Seiten sind hier absolut lächerlich.

Da wird über Stromkosten, BEP usw. diskutiert, daß sich die Balken biegen.

1. Wir alle haben Hardware, die grundsätzlich die Umwelt schädigen
2. diese Hardware benötigt Strom --> frisst unsere Resourcen, schädigt die Umwelt
3. Wer hier über zu hohe Stromkosten mault, sollte lieber beim Discouter einkaufen und nicht im Feinkostladen
4. Wer hier die Umwelt Debatte weiterführen sollte, muss erst sich Gedanken machen wie er ohne Technik zurechtkommt und das VORLEBEN. Das schöne ist, wir müssen uns um den User dan keine Gedanken mehr machen;D
5. Die hier über die Grafikkarte so herziehen, egal in welcher Weise, würden sie das Geld aufbringen können, sofort sich eine zulegen. "Stromkosten, sch..ß drauf" etc.

6. BITTE B2T

Danke für die Aufmerksamkeit
DrPeacemaker

r@w.
2006-11-20, 16:14:14
Was du mir wieder in den Mund legen willst...Natürlich finde ich es suboptimal, dass der G80 im Idle 70 W zuviel schluckt. Das kann so nicht sein. (aus dem Grund werde ich mir auch keinen holen, solange das Problem nicht behoben ist)

Da geht es mir ähnlich.
Zusätzlich sollten die Treiber das alpha-Stadium verlassen...

Was ich hingegen behaupte ist...

Ich habe schon verstanden, was Du behauptet hast.
Auch habe ich recht konkret geantwortet... prinzipiell wir also gar nich sooo weit 'auseinander' liegen...

Da die meisten das (behaupte ich mal) nicht tun, nenne ich das Heuchelei.

Da Du mich direkt angesprochen hast, fühlte ich mich auch direkt adressiert.
Wie hätte ich da Deiner Meinung nach sonst reagieren sollen?

Was mich viel mehr ärgert, ist die Wärme, die mein System belastet. Und Razor seien wir mal ehrlich, das ist die Hauptsorge der meisten Leute hier.

Da "Wärme" direkt mit "Verlustleistung" oder gängiger Weise mit "Verbrauch" zusammen hängt, bin ich mir ziemlich sicher, dass zumindest das schon für eine Änderung sorgt (und natürlich die Notwendigkeit, sich solch einen Unsinn im Mobile-Bereich zu 'schenken' ;-).

Aber gut, dass vielleicht auch andere Dinge zu einem 'besseren' Ergebnis führen, wenn es denn schon nicht die Vernunft ist, gell?
:D

Razor

r@w.
2006-11-20, 16:14:51
Immer die richtigen Wertmaßstäbe für den jeweiligen Anwendungsfall.

Sooo kompliziert ist das eigentlich nicht...
Aber gerade relative Wertmaßstäbe wie diese, haben zu dem geführt, was derzeit weltweit ganz und gebe ist.

Razor

robbitop@work
2006-11-20, 16:43:49
Da Du mich direkt angesprochen hast, fühlte ich mich auch direkt adressiert.
Wie hätte ich da Deiner Meinung nach sonst reagieren sollen?

Damit sind alle gemeint, die in meine Kriterien fallen. Wenn das bei dir der Fall ist, bist du gemeint, wenn nicht dann nicht. ;)
Wenn man für die Umwelt ist, dann bitte nicht nur bei der Graka sondern überall. Ich hätte auch Doppelmoral sagen können.

Reagieren? Ich kenne dich zu schlecht, um das beurteilen zu können. Du hast die Umwelt erwähnt. Ist dir die Umwelt denn wirklich wichtig? Verhällst du dich dementsprechend? Oder stört dich eher die fucking Abwärmen? Mich stört letzteres am Meisten X-D




Aber gut, dass vielleicht auch andere Dinge zu einem 'besseren' Ergebnis führen, wenn es denn schon nicht die Vernunft ist, gell?
:D

Razor
Immerhin ein Placebo X-D

r@w.
2006-11-20, 16:53:10
Oder stört dich eher die fucking Abwärmen?

Das ist auch so etwas, was mich stört!
Alle faseln sie hier vom tollen Murks-"Score", aber wichtige Dinge wie:
- "Bleibt die Hitze im Gehäuse, oder arbeitet das 'Exhaust'-System effizient?"
- "Wenn effizient... wie stark heizt sich das Gehäuse-innere durch die Rückseite der GraKa auf?"
etc.pp.

Da gibt es jetzt schon tatsächlich so einige G80-User hier im Forum, aber wirkliche "Experience" (ausser denen mit Fehlern und Unzulänglichkeiten ;-) kommt hier nicht rüber...
Muss ja wohl doch so sein, dass viele "Murks06" spielen.
:rolleyes:

Und ich denke, Du weißt, wie das gemeint ist, oder?

Auch wichtige Fragen:
- funktioniert der VP (wenn es ihn denn noch gibt)?
- wie schaut's mit dem Overlay bei TV-Apps aus (PureVideo)?

Infos? Neeee...
Aber so etwas wie "Geil, geil, geil!!!!1111einseinseins"
Und "Ist doch alles gar net sooooo schlimm!"
Und "Des neue Panel ist ächt der Hammääähhhhhhh!"

OK, die letzten Phrasen waren nicht wirklich ernst gemeint... aber... got it?
;)

Razor

robbitop@work
2006-11-20, 17:00:52
Beyond3d und xbit haben ein durchaus lesenswertes review zum G80 geschrieben. Nur leider bekommen wir (3dcenter) bisher keine Karte. Man hält uns für zu unbequem (zu ehrlich) und zu unwichtig. Über letzteren Punkt muss ich immer herzlich lachen, wenn die Herren uns das erzählen (3dc wird von vielen Redakteuren besucht, die einen Großteil ihres Wissens und ihre Meinung tw. hier gebildet haben. Nicht umsonst brachte Arnes Aufklärungsarbeit bzgl der Filter und dem G70 Artikel die anderen Magazine und Printmedien ins Rollen. Ich behaupte mal ohne Arne würde es heute ein wenig anders aussehen).
So jetzt sind wir aber extrem OT X-D

-> B2T

Grestorn
2006-11-20, 17:19:21
Beyond3d und xbit haben ein durchaus lesenswertes review zum G80 geschrieben. Nur leider bekommen wir (3dcenter) bisher keine Karte. Man hält uns für zu unbequem (zu ehrlich) und zu unwichtig.

Ich denke, das größte Problem ist die Unprofessionalität, mit der insbesondere die Startseite des 3DC rüberkommt.

Die Inhalte alleine können das nicht rausreißen.

@razor: Mich interessieren Overlays und Videos auf dem Rechner schlicht nicht. Zum Videoschauen nutze ich eigenes Equipment, ich halte den PC dafür als nicht sonderlich geeignet. Und so geht es vielen.

Moralelastix
2006-11-20, 17:21:11
Ich denke, das größte Problem ist die Unprofessionalität, mit der insbesondere die Startseite des 3DC rüberkommt.

Die Inhalte alleine können das nicht rausreißen.


ÄÄÄhhh....?

Über Geschmack lässt sich streiten, mhm.

Im Übrigen sieht z.B. "http://www.beyond3d.com/" fast genau so aus.

PHuV
2006-11-20, 17:26:18
Hm, was soll ich dazu sagen, ich spiele momentan Gothic 3, Oblivion, und FarCry, und was soll ich da groß an Erfahrungen berichten? Außer daß die Spiele sehr gut laufen, HDR in FC mich mittlerweile sehr blendet, und der Rechner sehr sehr warm wird (ich brauche im Arbeitszimmer fast keine Heizung. :tongue:

Videooverlay und so ein Kram interessiert mich nicht, ich habe mir die Karten zum Spielen gekauft, nicht mehr, nicht weniger.

misterh
2006-11-20, 17:57:13
Seit heute hab ich auch endlich Energy Monitor 3000 Plus

mein ganzer Rechner + TFT

Idle 250W
Last 3Dmark2005 AA/AF ~350W

hatte mit weniger als 300 gerechnet.

oder liegt es an 2D von GTS? das da so hoch ist?

ohne TFT hab ich dann ~30w weniger.

Cubitus
2006-11-20, 18:01:06
Hm, was soll ich dazu sagen, ich spiele momentan Gothic 3, Oblivion, und FarCry, und was soll ich da groß an Erfahrungen berichten? Außer daß die Spiele sehr gut laufen, HDR in FC mich mittlerweile sehr blendet, und der Rechner sehr sehr warm wird (ich brauche im Arbeitszimmer fast keine Heizung. :tongue:
Videooverlay und so ein Kram interessiert mich nicht, ich habe mir die Karten zum Spielen gekauft, nicht mehr, nicht weniger.

Ich habe dieses Jahr in meiner Bude überhaupt noch nicht geheizt
Willkommen im Club:D
Temperatur beträgt gerade 25,2 Grad Celsius:eek:

Das du FC spielst trifft sich gut,
wenn du schon beim Level Sumpf bist und Lust&Laune hast
könntest du diese beiden Stellen auch mal Photographieren:)

Mich würde brennend Interessieren was da ein 8800GTX@SLI reißt.
Mein Cross Fire Sys wird dort in die Knie gezwungen..

Farcry mit 64bit "Patch" 16XAFHQ HDR 7+FSAA Adaptive AA Qualität
Das 64 bit lohnt imho auf jeden Fall, da schönere Texturen, Explosionen, bessere Physik und Parallax mapping

Müßte auch unter Win32 funktionieren,
lt diesem Thread.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=230764&page=2

http://img163.imageshack.us/img163/8509/fc1zw6.th.jpg (http://img163.imageshack.us/my.php?image=fc1zw6.jpg)http://img127.imageshack.us/img127/3919/fc2ck2.th.jpg (http://img127.imageshack.us/my.php?image=fc2ck2.jpg)

Gast
2006-11-20, 18:33:13
Seit heute hab ich auch endlich Energy Monitor 3000 Plus

mein ganzer Rechner + TFT

Idle 250W
Last 3Dmark2005 AA/AF ~350W

hatte mit weniger als 300 gerechnet.

oder liegt es an 2D von GTS? das da so hoch ist?

ohne TFT hab ich dann ~30w weniger.
Kannst ja mal den Prozessor mit Standardtakt betreiben und schauen wie sich das im Idle und unter Last niederschlägt.
Ich vermute mal, wenn du maximale Auflösung mit maximalen AA und gleichzeitig Dual Prime neben 3Dmark laufen lässt, könnten es 380 Watt anstatt 350 Watt werden.

OC_Burner
2006-11-20, 18:43:09
Seit heute hab ich auch endlich Energy Monitor 3000 Plus

mein ganzer Rechner + TFT

Idle 250W
Last 3Dmark2005 AA/AF ~350W

hatte mit weniger als 300 gerechnet.

oder liegt es an 2D von GTS? das da so hoch ist?

ohne TFT hab ich dann ~30w weniger.

Haste deinen Dual-Core auch schön mit ausgelastet?

Wenn nein, dann denke ich das du mit zwei zusätzlichen prime95 Instanzen die 400W Grenze knacken würdest.

Gast
2006-11-20, 18:53:47
Was erwartest Du?
Das es 100fps oder vielleicht 150fps sind.
Man das Game hat ja nun wirklich in Sachen Performance gar keine Probleme.
Läuft sogar auf einer 9700pro in 1024er Auflösung ordentlich.

Für die H2 Engine sind die 2 8800GTX wohl absoluter Quark. Gothic 3 in 2500er Auflösung ist eher von Interesse.

MfG

Oh, Entschuldigung, ich wollte dich um Himmels Willen nicht beleidigen. Es ist total toll für dich das DMoMM auf einer 9700 Pro "ordentlich" läuft. Ich würde halt trotzdem gerne wissen was da an Performance machbar ist, wenn man so eine Gottausrüstung wie Tombman hat.

Chris Lux
2006-11-20, 19:05:48
Es ist immer wieder die gleiche Leier:
"An der Gesamtsituation kann ich 'eh nix tun, als laß ich es!"

hier muss ich wirklich mal zustimmen. ich gebe ja zu mich an der last nicht weiter zu stören aber ich achte da auch sonst nie so auf den stromverbrauch von bestimmten geräten. da ist mir die leistung wichtiger. wenn es um die stromrechnung oder den kauf eines neuen netzteils geht dann stört mich der verbrauch von komponenten ;)

Slipknot79
2006-11-20, 20:44:01
Haste deinen Dual-Core auch schön mit ausgelastet?

Wenn nein, dann denke ich das du mit zwei zusätzlichen prime95 Instanzen die 400W Grenze knacken würdest.


2xPrime95+3DMark 06 bringen nix.
Er muss auf einer Core mit dem Fillrate-Test fahren, auf der andere Core Prime95. Dann hat er die maximalen Watt (eventuell nebenbei defragmentieren, das wirkt sich aber nicht stark aus).

misterh
2006-11-20, 21:09:14
Last 3DMark2005 (inkl 8800GTS und TFT)

C2D @ 2133 + DDR2-667
~ 275 Watt

C2D @ 3504 + DDR2-667 @ DDR2-876
~ 350 Watt

Slipknot79
2006-11-20, 21:17:06
Last 3DMark2005 (inkl 8800GTS und TFT)

C2D @ 2133 + DDR2-667
~ 275 Watt

C2D @ 3504 + DDR2-667 @ DDR2-876
~ 350 Watt

Und jetzt noch Prime95 auf der anderen Core und beim Fillratetest Watt ablesen.

misterh
2006-11-20, 21:18:25
Und jetzt noch Prime95 auf der anderen Core und beim Fillratetest Watt ablesen.

neee ich pfeife auf Prime95.

in meisten spiele geht nur max bis 350W. da lass ich so. :)

dargo
2006-11-20, 23:57:55
Seit heute hab ich auch endlich Energy Monitor 3000 Plus

mein ganzer Rechner + TFT

Idle 250W
Last 3Dmark2005 AA/AF ~350W

hatte mit weniger als 300 gerechnet.

oder liegt es an 2D von GTS? das da so hoch ist?

ohne TFT hab ich dann ~30w weniger.
Also 220W in Idle? :|
Was ist bei dir los? Ich komme mit meinem System1 auf ~120W.

perry_le
2006-11-21, 00:00:12
Was sich manche hier über den Stromverbrauch aufregen, wenn es jemanden zuviel ist dann soll er sich ebend keine Karte ( n) holen, manche tun so als ob das ein Geheimnis wär oder die Werte vertuscht worden sind. Teure Hobbies haben es halt so an sich das sie meist mit hohen Nebenkosten verbunden sind.

tombman
2006-11-21, 01:28:54
Hmm, Leute ich werde einen oder mehrere Mods bitten den gesamten thread aufzuräumen, weil hier wird ja echt über Gott und die Welt geredet, nur ned über ON TOPIC. Ok, ich hab jetzt länger nix gepostet (wegen den Problemen mit SLI+Sound auf dem 680i mobo), aber es wird Zeit, daß der thread total aufgeräumt wird. Da sind locker 80% einfach nur Getratsche über irgendwas ;)

Tigershark
2006-11-21, 01:38:59
Mal wieder onT...:

Wie ist denn bei Dir der Stand der Dinge, hast alle Probs im Griff nu?
Würdest Du Dir das eVGA nochmal holen mit dem Gedanken an 2 8800er im Hinterkopf?

Guido
2006-11-21, 06:49:34
Hmm, Leute ich werde einen oder mehrere Mods bitten den gesamten thread aufzuräumen, weil hier wird ja echt über Gott und die Welt geredet, nur ned über ON TOPIC. Ok, ich hab jetzt länger nix gepostet (wegen den Problemen mit SLI+Sound auf dem 680i mobo), aber es wird Zeit, daß der thread total aufgeräumt wird. Da sind locker 80% einfach nur Getratsche über irgendwas ;)

Bist du jetzt das Problem mit dem Sound los? Wenn ja wie?

tombman
2006-11-21, 07:27:45
Bist du jetzt das Problem mit dem Sound los? Wenn ja wie?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4996083#post4996083

Gast
2006-11-22, 10:16:48
Hallo Tombman,

wie siehts mit dem Chipsetkühler für den 680i aus? Kannst da deinen alten WaKü-Kühler vom 975x verwenden oder sind die Bohrungen gänzlich anders?

tombman
2006-11-22, 10:24:45
Keine Ahnung woher immer diese Gerüchte auftauchen ich hätte eine Wakü... ich habe eine Kompressorkühlung (nur für die cpu) und ansonsten LUKÜ!!!

Gast
2006-11-22, 10:32:20
Beyond3d und xbit haben ein durchaus lesenswertes review zum G80 geschrieben. Nur leider bekommen wir (3dcenter) bisher keine Karte. Man hält uns für zu unbequem (zu ehrlich) und zu unwichtig. Über letzteren Punkt muss ich immer herzlich lachen, wenn die Herren uns das erzählen (3dc wird von vielen Redakteuren besucht, die einen Großteil ihres Wissens und ihre Meinung tw. hier gebildet haben. Nicht umsonst brachte Arnes Aufklärungsarbeit bzgl der Filter und dem G70 Artikel die anderen Magazine und Printmedien ins Rollen. Ich behaupte mal ohne Arne würde es heute ein wenig anders aussehen).
So jetzt sind wir aber extrem OT X-D

-> B2T

aber is es den wirklich so schwer mal einen juser zu fragen ob er ne gtx mal ausleihen würde um zu testen tombman und blaire zb die haben 2 da wärs ja nich so schlimm ich würds auch machen hab nur leider keine 8800.... das muss doch irgendwie gehen....

misterh
2006-11-22, 10:46:34
Also 220W in Idle? :|
Was ist bei dir los? Ich komme mit meinem System1 auf ~120W.

graka evtl? das bei 2D nicht runtergetaktet wird?

Gast
2006-11-22, 13:17:34
Keine Ahnung woher immer diese Gerüchte auftauchen ich hätte eine Wakü... ich habe eine Kompressorkühlung (nur für die cpu) und ansonsten LUKÜ!!!

Ups, sorry.
Dachte du hattest mal WaKü bzw. jetzt eine KoKü/WaKü-Kombi.
Naja egal. Muss ich wohl selbst rausfinden, da ich ebenfalls das EVGA-Board habe und mir die Northbridge zu warm wird besonders beim Overclocking.
Und ein Luftquil kommt mir nicht in die Tüte.

tombman
2006-11-22, 13:19:34
Naja, vorhaben tu ich ne kokü/wakü Kombi schon, aber jetzt habs ichs noch ned ...