PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Besitzer einer 9800 GX² - Ja ich bin vl. verrückt


Dadi
2008-03-20, 13:10:24
Hallo,


Mist, falsches Forum... sollte in Nvidia Karten rein
das soll hier kein Protzthread werden oder sonstiges.

Ich möchte lediglich nur Fragen gerne beantworten, bezüglich Benchs und verschiedene Settings mit euch ausprobieren.

Ich habe heute für knapp 520€ eine EVGA 9800 Gx2 ergattert. Mein Lieblingsshop hat die gelagert gehabt und musste kurze Zeit überlegen, nachdem ich sowieso keine Karte gerade parat hatte, hab ich sie mir geholt.

So, nun zum Lieferumfang von EVGA:

2x Adapter
Treiber CD
Handbuch zur Installation
Grafikkarte selbst
Verpackung
2 Sticker fürs Case (EVGA Logo)

Was fehlt?
Richtig! Adapter für die 8pol Dinger und 6Pol...

Gott sei Dank hat mien BeQuiet! Straight Power 550W Quad Rail Netzteil eigene Anschlüsse für soetwas...
Hab gerade nachgesehen, dachte das wäre nicht dabei... aber ist wohl doch das hier oder?


http://img120.imageshack.us/img120/1090/img2066od6.jpg


Paar weitere Bilder von EVGAs karte selbst (sowie Verpackung)...

http://img80.imageshack.us/img80/1108/img2061fx4.jpg

http://img355.imageshack.us/img355/5649/img2062gq9.jpg

http://img120.imageshack.us/img120/5300/img2063zf1.jpg

http://img355.imageshack.us/img355/5435/img2064qi7.jpg

Restliche Komponenten seht ihr in meiner Signatur...

majortom
2008-03-20, 13:32:19
Mann, ist das ein Mörderteil! Glückwunsch und viel Spass damit.

Was haste denn damit "vor"? Rein spasseshalber und Kaufsuchtbefriedigung oder willste endlich crysis in extremen Settings spielen?
Fang doch mal mit den Standardbenches an, inkl. evtl den Temps.

andre29
2008-03-20, 13:36:40
Herzlichen Glückwunsch :tongue:
Mich würd interessieren was eine von den Karten gegen 2+ 8800 Gtxler ausrichtet?

Was meint Ihr is eine 9800GX2 schneller wie zwei 8800Gtxler im SLI?

Haben wollen ne 9800Gx2 oder zwei :D

Gast
2008-03-20, 13:36:46
Schöner Kauf :up:

Hoffe das Ding rennt stabil bei dir! Auf zu den Benchmarks!

MartinRiggs
2008-03-20, 13:37:58
Holy Shit,

was ein Monster von Grafikkarte.
Mach mal ein User-Review, wie laufen die Games?
Lautstärke?
Ach ja und lass 3dQuark weg, der ist wirklich fürn Arsch

Philipus II
2008-03-20, 13:38:05
Rein optisch schauts schon fett aus-aber ich wäre schon mit ner 8800 GTs zufrieden;)

Naja550+€ auszugeben ist verrückt,aberdu hast bestimmt deinen Spass damit

F5.Nuh
2008-03-20, 13:44:11
Hallo,


Mist, falsches Forum... sollte in Nvidia Karten rein
das soll hier kein Protzthread werden oder sonstiges.

Ich möchte lediglich nur Fragen gerne beantworten, bezüglich Benchs und verschiedene Settings mit euch ausprobieren.

Ich habe heute für knapp 520€ eine EVGA 9800 Gx2 ergattert. Mein Lieblingsshop hat die gelagert gehabt und musste kurze Zeit überlegen, nachdem ich sowieso keine Karte gerade parat hatte, hab ich sie mir geholt.

So, nun zum Lieferumfang von EVGA:

2x Adapter
Treiber CD
Handbuch zur Installation
Grafikkarte selbst
Verpackung
2 Sticker fürs Case (EVGA Logo)

Was fehlt?
Richtig! Adapter für die 8pol Dinger und 6Pol...

Gott sei Dank hat mien BeQuiet! Straight Power 550W Quad Rail Netzteil eigene Anschlüsse für soetwas...
Hab gerade nachgesehen, dachte das wäre nicht dabei... aber ist wohl doch das hier oder?


http://img120.imageshack.us/img120/1090/img2066od6.jpg


Paar weitere Bilder von EVGAs karte selbst (sowie Verpackung)...

http://img80.imageshack.us/img80/1108/img2061fx4.jpg

http://img355.imageshack.us/img355/5649/img2062gq9.jpg

http://img120.imageshack.us/img120/5300/img2063zf1.jpg

http://img355.imageshack.us/img355/5435/img2064qi7.jpg

Restliche Komponenten seht ihr in meiner Signatur...

Das müste der sein, ist bei meinem Enermax Liberty auch so. Es kann ja nichts schiefgehen. Probier es einfach aus. :)

Antares
2008-03-20, 13:53:28
Wo ist denn die Grafikkarte hin, ich seh nur ein Kasten:cool:

Die Benches würden mich aberauch interessieren

Lipwigzer
2008-03-20, 13:55:44
Glückwunsch zu dem Biest! :)

Mich würden mal ein paar Erfahrungen und Aussagen zu dem Kühlungsproblem (http://www.engadget.com/2008/03/19/heat-from-geforce-9800-gx2-causing-system-crashes/) der 9800GX² interessieren...

Grüße,
Lipwigzer

Das Auge
2008-03-20, 14:21:06
Bei dem ganzen Blech was da um die Karte rum ist, frag ich mich, wie man die reinigen will, wenn die nach einiger Zeit ein wenig zugestaubt ist? Totale Fehlkonstruktion und für die Kohle hätte ich auch 2x 1024MB Speicher erwartet, schließlich kann man sich für das Geld fast 4(!!!) normale GT's holen.

Nichtsdestotrotz wünsch ich dir natürlich viel Spaß mit der Karte, aber imho ist sie einfach kein würdiger Nachfolger der 7900/7950 GX2 - bei der waren (2x)512MB ja noch OK...

Mr. Lolman
2008-03-20, 14:22:27
Wie lang ist das Teil eigentlich?

Gast
2008-03-20, 14:24:15
Imho ist die Karte noch nicht mal ein würdiger Nachfolger der 8800Ultra, den wenn ihr der VRAM ausgeht und sie von der 8800GTX in den Boden gerammt wird ist das mies.

Gast
2008-03-20, 14:24:45
Wie lang ist das Teil eigentlich?
28cm.

Gosh
2008-03-20, 14:31:26
Gibt echt Leute die so eine "Bauernfangkarte" kaufen

Megamember
2008-03-20, 14:40:54
Hallo,

das soll hier kein Protzthread werden oder sonstiges....




Ja, natürlich ;)

(+44)
2008-03-20, 14:52:05
Schick sie zurück und kauf dir 2 (günstigere) 8800GTS/1024 und falls nötig ein SLI-Brett :D

Popeljoe
2008-03-20, 14:57:31
Gibt echt Leute die so eine "Bauernfangkarte" kaufen
Gibt auch Leute die sowas immer kommentieren müssen! Scheint zwanghafter Neid zu sein! :udown:
Einfach sein lassen! Danke!

@Dadi: habs erwartet nach deinem Kaufberatungsfred...
Ja, du bist beknackt, aber imo trotzdem ne geile Aktion, das ist Fetischismus pur! :D

Dadi
2008-03-20, 14:58:00
Erste Erfahrungen:

Ka obs an Evga liegt, beim netzteilstöpseln musste ich den Raster verbiegen damit das ganze in die Karte rein"klackt"...
ist geschafft.

Beim Einschalten, erster Schock:

- KeiN Bild. (Habs in den oberen Slot probiert) dann in den unteren; Bild doch da.

Gut, Problem gelöst.

- Treiber installiert. 174.53 Forceware

3d Mark gestartet und siehe da...:

Es flimmter wie wild bei 3d Darstellungen, keine Ahnung ob es am 3d Mark liegt. Oder an den Treibern? Werd gleich mal Crysis testen. Hoffentlich ists nicht die Karte, wenn ja... werd ich mich wohl drum kümmern müssen. :(

Evga 9800GX² 174.53 Forceware
[3D Mark 06] - Möchte auch noch erwähnen dass ich vor dieser Karte eine ATI drinnen hatte, die Treiber habe ich aber per ATI Deinstallation über Systemsteuerung-Software deinstalliert.

Hab ein Video gemacht, sieht so aus:
-----

Ok geht auch nicht. Die Karte kann nicht mal Videos wiedergeben... das ganze System spinnt, ruckelt dahin... während der Video Player läuft. Werd mal mein Bios updaten...

Zur Info: Das Memory Remapping im BIos ist aktiviert. Die Karte hat ja 1024MB. Ich besitze 2x 2048 DDR2 Ram... kann es damit was auf sich haben?
Bevor die 9800er rein kam, hatte ich noch 3072MB Arbeitsspeicher unter XP, jetzt nur noch 2048.

Popeljoe
2008-03-20, 15:02:25
XP kann doch nur 3 GB verwalten.1 GB GraKa, 2 GB Rest! ;)
Müll geschrieben...
http://www.heise.de/ct/faq/result.xhtml?url=/ct/faq/hotline/07/05/01.shtml&words=RAM%20Windows%20XP

Mr. Lolman
2008-03-20, 15:05:15
Dadi: Kannst du mal, sobald dein System ordentlich läuft, mittels Fraps bei ein paar Spielen die Frametimes messen?

Vll. ists ja bei der GX2 mit aktuellen Treibern eh nicht mehr so schlimm...

andre29
2008-03-20, 15:08:46
Also das sind die Anfangsschwierigkeiten...das is normal.
Wird schon werden....;)

LeChuck
2008-03-20, 15:08:47
Herzlichen Glückwunsch :tongue:
Mich würd interessieren was eine von den Karten gegen 2+ 8800 Gtxler ausrichtet?

Was meint Ihr is eine 9800GX2 schneller wie zwei 8800Gtxler im SLI?

Haben wollen ne 9800Gx2 oder zwei :D

Eine "ähnliche" Frage hatte ich auch mal gestellt :)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=400409

Megamember
2008-03-20, 15:11:35
Zieh dir mal den driver-sweeper von Guru3d und lass den mal alle Ati-reste auf deiner Platte löschen.

http://downloads.guru3d.com/Guru3D---Driver-Sweeper-(Setup)-download-1655.html

4711
2008-03-20, 15:20:39
tja der Neid der Besitzlosen
@Dadi
war heute morgen bei meinem Spezi im Laden und hab das Ding gequält bis zum Abwinken.
Da stimmt was nicht bei dir,wie sind die Karten angebunden 2x16x? Sli akt.?
Mußt den neuen Treiber inst.!
Kurz zur Karte nach zig Stunden 78 Grad und ja man kann sie auch noch anfassen und sooo schwer isse auch nicht,wird mal wieder alles kälter gegessen wies gekocht wird :D
Und rennen tut das Ding wie Sau über Ram etc.muß man nix sagen das weiß man eh.
Wer die schnellste Karten haben will und dem die Kohle egal ist soll sie Kaufen,wer weiß was der G200 für ne Gurke wird :wink:

cR@b
2008-03-20, 15:34:12
Also Dual Lösung oder SLi werde ich mir persönlich nie mehr kaufen, da ich nur schlechte Erfahrungen gemacht habe aber gratz zu deiner Karte und ich hoffe du bekommst sie baldmöglichst zum rennen!!
Musst halt mal alle möglichen Einstellungen (Bios etc.) testen, dann klappts auch mitm Nachbarn :D

Ist deine CPU eigentlich übertaktet?

Im Test auf CB geht die Karte aufjeden Fall gut ab :eek:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/´

Rofl... knapp zwei Jahre nach dem ich diese Kacke mit Multi Gpu erleben durfte wird das Thema endlich mal breit getreten! Da sieht man doch mal wieder wieviel Menschen ein gutes Auge haben... anscheinend zu wenig.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/7/#abschnitt_das_multi%20gpu%20problem_%20mikroruckler

Das Auge
2008-03-20, 15:56:55
3d Mark gestartet und siehe da...:

Es flimmter wie wild bei 3d Darstellungen, keine Ahnung ob es am 3d Mark liegt. Oder an den Treibern? Werd gleich mal Crysis testen. Hoffentlich ists nicht die Karte, wenn ja... werd ich mich wohl drum kümmern müssen. :(

Hast du auch brav alle HQ-Settings im Treiber eingestellt? ;)

Evga 9800GX² 174.53 Forceware
[3D Mark 06] - Möchte auch noch erwähnen dass ich vor dieser Karte eine ATI drinnen hatte, die Treiber habe ich aber per ATI Deinstallation über Systemsteuerung-Software deinstalliert.

Das reicht auch, laß dir blos nicht zum drivercleaner oder ähnlichem Mist raten.

Ok geht auch nicht. Die Karte kann nicht mal Videos wiedergeben... das ganze System spinnt, ruckelt dahin... während der Video Player läuft. Werd mal mein Bios updaten...

Mit einem C2Q und GX2 ;D
Sry, aber das ist lustig. Ein BIOS-Update wird da nicht viel bringen, aktualisier lieber mal deine Videocodecs, das dürfte eher helfen ;)

Zur Info: Das Memory Remapping im BIos ist aktiviert. Die Karte hat ja 1024MB. Ich besitze 2x 2048 DDR2 Ram... kann es damit was auf sich haben?
Bevor die 9800er rein kam, hatte ich noch 3072MB Arbeitsspeicher unter XP, jetzt nur noch 2048.

Das ist normal, s. Popeljoe. Allerdings hat die Karte trotzdem nicht 1024MB RAM, auch wenn Windows sich den aus verwaltungstechnischen Gründen, da physisch vorhanden, abzwackt.


Wer die schnellste Karten haben will und dem die Kohle egal ist soll sie Kaufen,wer weiß was der G200 für ne Gurke wird :wink:

Quatsch. Die GX2 ist eben nicht die schnellste Karte, in hohen Auflösungen und/oder viel AA, also genau in den Szenarien für die man sich so ein Monster holt, bricht sich mangels VRAM nämlich derbst ein. Klasse, nech.
Dazu kommt, daß zwei 1024MB GT's sogar billiger sind. Und ich glaube kaum, daß der G200 ne Gurke wird, NV hat ja lange genug Zeit für das Ding gehabt. Die haben bloß noch keinen Grund, den Chip zu bringen. Die G80-Architektur wird halt solange verwurstet, wie sich damit Kohle machen lässt. Ist ganz normal.

Undertaker
2008-03-20, 16:13:36
XP kann doch nur 3 GB verwalten.1 GB GraKa, 2 GB Rest! ;)

Nur kann XP(32) 4GB verwalten (2GB pro Anwendung @def., kann auf 3GB erhöht werden) und der Grafikspeicher wird natürlich nicht vom Betriebssystem adressiert - ich hab z.B. noch 3,5GB unter XP 32Bit...

Spasstiger
2008-03-20, 16:17:04
Ich hätte für das Geld zwei GTXen gekauft. Aber vielleicht erfreust du uns ja mit ein paar Benchmarks und Erfahrungsberichten. ;)

/EDIT: Die 8800 GTX gibts sogar schon für 250€: http://geizhals.at/deutschland/a224914.html.

Herzlichen Glückwunsch :tongue:
Mich würd interessieren was eine von den Karten gegen 2+ 8800 Gtxler ausrichtet?

Was meint Ihr is eine 9800GX2 schneller wie zwei 8800Gtxler im SLI?

Haben wollen ne 9800Gx2 oder zwei :D
Zwei 8800 GTX sind bei fordernden Settings immer schneller als eine 9800 GX2. In meinem Fall (zocke in 1920x1200 mit 4xAA und 16:1 AF) wären zwei 8800 GTX wohl durchweg schneller als die 9800 GX2. Kann man auch bei Computerbase abschätzen:
- http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/21/#abschnitt_performancerating_qualitaet
- http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_3-way-sli_triple-sli/17/#abschnitt_performancerating_qualitaet

9800 GX2 vs. 1*8800 GTX: In 1600x1200 (4xAA, 16:1 AF) um 37% schneller, in 2560x1600 (4xAA, 16:1 AF) um 35% schneller.
2*8800 Ultra @ SLI vs. 1*8800 Ultra: In 1600x1200 (4xAA, 16:1 AF) um 67% schneller, in 2560x1600 (4xAA, 16:1 AF) um 65% schneller.

Mittelt man auf 1920x1200 mit 4xAA und 16:1 AF (Monitore mit dieser Auflösung und P-MVA-Panel gibts übrigens schon für unter 300€, also weniger als die Grafikkarten kosten), kommt man auf geschätzte 22% Vorteil für 2*8800 GTX gegenüber der 9800 GX2.
Und in manchen Fällen ist sogar schon eine einzelne 8800 GTX schneller als die 9800 GX2, z.B. in Crysis mit 4xAA oder in den meisten Games mit 8xAA.

Die 9800 GX2 ist imo keine gute Lösung für Leute, die Wert auf AntiAliasing und hohe Auflösungen legen. Da hat man nämlich gleich zwei Probleme: Niedrige Frameraten und störendes Mikroruckeln. Mit einer 8800 GTX könnte man das gleiche ohne Mikroruckeln haben.

Gast
2008-03-20, 16:25:45
Ist das nicht auch mit einer der Gründe warum man der Karte nicht 2x1024 MB RAM spendiert hat ? Damit sie unter XP32 halt noch richtig adressierbar ist ?

Gast
2008-03-20, 16:29:35
Quatsch. Die GX2 ist eben nicht die schnellste Karte, in hohen Auflösungen und/oder viel AA, also genau in den Szenarien für die man sich so ein Monster holt, bricht sich mangels VRAM nämlich derbst ein. Klasse, nech.
Dazu kommt, daß zwei 1024MB GT's sogar billiger sind. Und ich glaube kaum, daß der G200 ne Gurke wird, NV hat ja lange genug Zeit für das Ding gehabt. Die haben bloß noch keinen Grund, den Chip zu bringen. Die G80-Architektur wird halt solange verwurstet, wie sich damit Kohle machen lässt. Ist ganz normal.


Du solltest lernen zu lesen!

Undertaker
2008-03-20, 16:34:03
Ist das nicht auch mit einer der Gründe warum man der Karte nicht 2x1024 MB RAM spendiert hat ? Damit sie unter XP32 halt noch richtig adressierbar ist ?

Nochmal, XP hat mit der Adressierung des Grafikspeicher nix, aber auch rein gar nix am Hut ;(

Gast
2008-03-20, 16:49:30
XP kann doch nur 3 GB verwalten
Dann hast du ein anderes XP als ich. ;)

Mein XP kann afaijk um die 128GiB RAM adressieren. :)

Blaire
2008-03-20, 16:53:44
@Dadi: Glückwunsch feiner Doppeldecker ;)
Mir juckts auch in den Fingern , aber ich warte brav ab. :D
Teste mal ein paar schwierige Settings z.b. 1920x1200 4xAA/16xAF Crysis VeryHigh z.b. :biggrin:

Megamember
2008-03-20, 17:05:25
Teste mal ein paar schwierige Settings z.b. 1920x1200 4xAA/16xAF Crysis VeryHigh z.b. :biggrin:

Bei genau dem setting wird sie sogar von einer GTX vernascht, siehe computerbase.;)

Gast
2008-03-20, 17:18:34
ist ja auch schwachsinn was soll der Blödsinn?
mit der Karte zockt man max.1650x1080 und fertig und das weiß man vorher,hier wird wohl wieder ne Rechtfertigung zur eigenen G80 gesucht,manman was ein Kindergarten.

Undertaker
2008-03-20, 17:23:27
Bei genau dem setting wird sie sogar von einer GTX vernascht, siehe computerbase.;)

Jo, 8fps statt 7fps :up:

1920x1200 ohne AA ist dafür im Gegensatz zu allen anderen Karten auf (knapp) maximierten Details spielbar :)

Gast am Mast
2008-03-20, 17:36:43
IIRC hat das ASUS P5W um es salopp auszudrücken kein besonders ausgereiftes Memory Remapping. Versuch mal, 2GB zu entfernen, könnte durchaus sein, dass es daran liegt. Gerade das Memory Remapping ist (zumindest bei älteren Chipsätzen -> 775X, P965) von Gigabyte besser implementiert und einer der wenigen Punkte, wo sie die Nase vor ASUS haben.

Hinzu kommt, dass der 975X zwar ein ausgezeichneter Chipsatz ist, aber vielleicht in Sachen Kompatibilität mit so einem PCIe2 Multi-GPU-Hier-Noch-Ne-Bridge-Monster ein wenig überfordert ist, vielleicht gibts von ASUS ja ein BIOS-Update, frag einfach mal.

Alle Angaben ohne Gewähr...

Riplex
2008-03-20, 17:40:19
Ich find die 9800 Serie mehr als überflüssig. Naja, Quad Sli würd mich noch reizen, allerdings sind da 2 x 8800 Ultra auch noch schneller.

Hakim
2008-03-20, 17:41:30
IIRC hat das ASUS P5W um es salopp auszudrücken kein besonders ausgereiftes Memory Remapping. Versuch mal, 2GB zu entfernen, könnte durchaus sein, dass es daran liegt. Gerade das Memory Remapping ist (zumindest bei älteren Chipsätzen -> 775X, P965) von Gigabyte besser implementiert und einer der wenigen Punkte, wo sie die Nase vor ASUS haben.

Hinzu kommt, dass der 975X zwar ein ausgezeichneter Chipsatz ist, aber vielleicht in Sachen Kompatibilität mit so einem PCIe2 Multi-GPU-Hier-Noch-Ne-Bridge-Monster ein wenig überfordert ist, vielleicht gibts von ASUS ja ein BIOS-Update, frag einfach mal.

Alle Angaben ohne Gewähr...

Dazu kann ich nur sagen das bei meinem P5W die Moster karte 7900gx2 (32cm) mit Memory Mapping und 4 GB Ram (4x 1 GB) einwandfrei gefunzt hat.

@Dadi komisch das sich beim ersten PCIe nix tut?

Gast am Mast
2008-03-20, 17:54:57
Dazu kann ich nur sagen das bei meinem P5W die Moster karte 7900gx2 (32cm) mit Memory Mapping und 4 GB Ram (4x 1 GB) einwandfrei gefunzt hat.
Die aber über eine andere PCIe-Anbindung verfügt, die neuen NVIdia-Karten machen ja beispielsweise auch auf VIA-Borads Probleme, wo deine 7900gx2 problemlos funktionieren würde.

Muss natürlich nicht der Grund sein, aber ich würde ASUS und NVidia anmailen und nach der Kompatibilität fragen und außerdem mal mit nur 2GB RAM booten, schadet beides nicht und schließt mögliche Fehlerquellen aus.

Spasstiger
2008-03-20, 18:51:57
Ich find die 9800 Serie mehr als überflüssig. Naja, Quad Sli würd mich noch reizen, allerdings sind da 2 x 8800 Ultra auch noch schneller.
Mit einer dritten 8800 GTX für 250€ wärst besser bedient.

Für 500€ ist die 9800 GX2 einfach kein guter Deal. Bei hohen Auflösungen mit 4xAA und mit 8xAA muss sie sich regelmäßig der 200€ günstigeren Radeon HD3870 X2 geschlagen geben und mit zwei 8800 GTXen fürs gleiche Geld hat man auch deutlich mehr Reserven für hohe Auflösungen + AA. Für mehr als 400€ werde ich keinem zu dieser Karte raten.

4711
2008-03-20, 19:20:30
Das sind doch doch zweierlei paar Schuhe was hat der G92 mit dem G80 zutun,wieviel rennen hierrum und haben einen G92 ist der auf einmal Spieluntauglich?
Nur weil zwei GTS92 zu einer zusammengepappt wurden?
Leute Leute march marsch alle die G92 verkaufen die taugt nix der ram geht aus und überhaupt ;D Lächerlich hoch³ was hier abgeht.

Dadi
2008-03-20, 19:37:27
Hallo Guys,

sorry, werd euch meine Geschichte gerne später erzählen, den ganzen Tag kämpfe ich drum dass es funktioniert. Bin im Endstadium der Problemlösung. :D

Gast
2008-03-20, 19:38:04
Sagt doch niemand, der G92 wäre untauglich. hab doch selber einen.

Nur ein G92 im SLI mit nur 512MiB ist einfach nicht wirklich empfehlenswert.

rob]SK[
2008-03-20, 19:45:39
wollt mir auch eventuell die karte holen, aber lohnt ja absolut nicht, bis jetzt.
solch eine karte müsste man schon für games 1920+ nutzen, wer mit der karte 1650 zockt verschenkt geld ohne ende, weil das jede einzelne g92 genauso kann. ob mit 4aa oder ohne, und mit 8 bricht ja auch bekannter massen die gx2 ein, also wozu ist die karte wirklich gut ?! unter 1920 würd ich die sicher nicht nutzen, und halt max 4 aa , die mikro ruckler mal ausgelassen. also eigentlich ist die karte leider nicht sinnvoll.

mfg rob

4711
2008-03-20, 19:46:50
Quatsch schau dirs an was sie sie mit ner ner Single 92 anstellt und wenn die Treiber richtig stimmen wirds noch brutaler das ist ne klasse Karte bis zu einer bestimmten Auflösung genau wie die Single 92 und fertig und man kann sie in jedes Board stecken ohne sich noch mit den NV Brettern rumschlagen und nichts anderes wollte NV oder glaubt hier einer die hätten vergessen was ihr G80 fürn Überflieger ist?
Die würden schone gerne ihren G200 bringen,das wird wohl nicht so einfach sein ne Ultra zu toppen.

4711
2008-03-20, 19:51:22
SK[;6369549']wollt mir auch eventuell die karte holen, aber lohnt ja absolut nicht, bis jetzt.
solch eine karte müsste man schon für games 1920+ nutzen, wer mit der karte 1650 zockt verschenkt geld ohne ende, weil das jede einzelne g92 genauso kann. ob mit 4aa oder ohne, und mit 8 bricht ja auch bekannter massen die gx2 ein, also wozu ist die karte wirklich gut ?! unter 1920 würd ich die sicher nicht nutzen, und halt max 4 aa , die mikro ruckler mal ausgelassen. also eigentlich ist die karte leider nicht sinnvoll.

mfg rob

Ach ja mir wären in Crisis zb.10 FPS mehr,mehr als recht oder?
Und was hat ein G92 eine oder zwei mit der Auflösung 1920x1200 am Hut kannste mir das mal verraten,das ist G80 SLI Gebiet!!!!!!!!!!!!!!!
Man wird hier ein Mißt verzapft.

san.salvador
2008-03-20, 19:53:51
Ach ja mir wären in Crisis zb.10 FPS mehr,mehr als recht oder?
Und was hat ein G92 eine oder zwei mit der Auflösung 1920x1200 am Hut kannste mir das mal verraten,das ist G80 SLI Gebiet!!!!!!!!!!!!!!!
Man wird hier ein Mißt verzapft.
Das ist ja kaum zu entziffern, und wenn man den "schrägen" Schreibstil mal durchschaut hat, scheint jedes Argument zu fehlen. :D

4711
2008-03-20, 19:55:26
Du hast mir grade noch gefeeehlt ;D mit deinem grottigem G92 :tongue:

Aber um es mal für alle verständlich zu machen :D
Diese Karte kann genau das selbe wie eine Single G92 nur mit dem feinen Unterschied man hat eben ein paar FPSchen in jeder Lage mehr,die Crisis Zocker werden es zu schätzen wissen.

Dadi
2008-03-20, 19:59:21
So Leute,

ich hab nach meinem vorletzten Beitrag Crysis gestartet.
-Chack- war der Saft aus meinem System weg... Rechner total abgestürzt.
Hab ihn dnan angemacht und an den Desktop angekommen

ALLES TOTAL VERPIXELT.
Die Maus war ein viereckiger Pixelbrei.
Alles war schwarz und bunt von dne ganzen Pixeln.

Dann hab ich bei meinem seriösen Händler angerufen (Wien DiTech) und die riefen mich herzukommen mit der Karte.
Dort angetestet meinten die Techniker dass die Karte läuft, sie holten mich selbst zum Testrechner und zeigten mir den benchmark... alles lief prima.

Sie meinten dass es am Netzteil liegt, weil die Sicherungen gesprungen sind. Dass das BeQuiet 550W nicht genügend sei.

Dann haben wir uns wie Kollegen im Internet beraten und ich hab mich fürs Corsair 620 Watt entschieden.
(Siehe Signatur)...
Gekauft.
(Wieder Geld ausgegeben. :( )

Zuhause angelaufen, alles installiert. Karte wieder rein...
Angemacht, alles lief prima bis zum Desktop dann wieder der ganze Pixelbrei kam. Was war los verdammt?
Ich rief den Techniker nochmal an, er meinte ich solle formatieren, dann die Treiber drauf und testen.

Gesagt getan, nach der Formatierung installierte ich die Chipsatztreiber, SErivce Pack 2 und die bisherigen Treiber für die Karte.
3D Mark06 installiert, gestartet. Schon wieder das flackern...
Pixelbrei ist aber weg... Abstürzte vom Systtem gibts auch nicht.

Verdammter Mist.

TDer Tehcniker meinte falls es heute nicht funktionieren sollte, soll ich mrogen mit meinem ganzen Tower herkommen. Werd ich wohl morgen so machen müssen.

Was ich jetzt nur noch tun kann ist den Arbeitsspeicher von 4GB auszubauen und bei 1x2048 Riegel zu testen...

:(

Weiß jemand was Sache ist?...

Was ich noch nicht gecheckt habe ist dass die Videowiedergabe ohne Probleme ging bevor ich den Treiber installierte. (Wo alles niedrig aufgelöst war)
Als ich dann mit den Treibern fertig war... 3D Mark auf dem frischen OS startet, alles flackerte... habe ich danach direkt versucht ein Vdeo zu wiedergeben.
Schon wieder ruckelte, lahmte das ganze System (Maus blieb hängen)... bis der Videoplayer mühsam beendet war (Prozess beenden) Er konnte wieder keiN Video wiedergeben...

4711
2008-03-20, 20:02:03
Ich dich schonmal gefragt ,wie wird die Karte erkannt in NV CP?
Da steht unter "System Informationen">Bus>was steht da?
Wieviel Karten stehen im Gerätemanager?
Ist Sli aktiviert?
Ich habe mit dem Ding auf einem DQ6 bei meinem Händler heute morgen stundenlang gezockt.

Hakim
2008-03-20, 20:05:23
Vielleicht braucht der P5W ein bios update

Gast
2008-03-20, 20:10:22
Verkauf die Karte und hol dir eine 88 GTS

4711
2008-03-20, 20:11:11
Genau so ein Schrott kannste 1900x1200 mit AA und Konsorten vergessen ;D

Dadi
2008-03-20, 20:11:17
Ich dich schonmal gefragt ,wie wird die Karte erkannt in NV CP?
Da steht unter "System Informationen">Bus>was steht da?
Wieviel Karten stehen im Gerätemanager?
Ist Sli aktiviert?
Ich habe mit dem Ding auf einem DQ6 bei meinem Händler heute morgen stundenlang gezockt.

DQ6?

---

So siehts im Nvidia Systemsteuerung aus:

http://img291.imageshack.us/img291/7220/27612383nr8.jpg

http://img216.imageshack.us/img216/5167/86430684bg1.jpg

"SLI aktiviert?" Wo genau find ich das?... Hatte noch nie SLI


http://img291.imageshack.us/img291/7101/15327378bs3.jpg

BIOS Update mach ich mal... Hab daran nicht gedacht.

4711
2008-03-20, 20:14:10
2 Karte PCI Expreß 4.... na Mahlzeit
SLI>3D Einstellungen>Konfig mit meh.GPU festlegen
und stell die Auflösung auf 60 Hertz
Das Board kannste wohl knicken aber mach mal ein Biosupdate event.bekommste damit die zweite Karte auf 8
oder mal umstecken was passiert da?
Oder noch besser schau mal in die MOBO Beschreibung was da steht zu den Verdrahtungen der Slots.

DQ6>Gigabyte X38

Ich hab mal bei Asus geguckt wenn die Karte richtig erkannt wird müßten beide mit X8 laufen ob das so der Bringer ist.

Gast
2008-03-20, 20:14:16
Unter GPU mit mehreren festlegen da musste SLI aktivieren

Dadi
2008-03-20, 20:34:54
So, hab einmal neu gestartet...

und schon wieder der pixelbrei...
hab jetzt meine ATI reingehaut (ohne Catalyst) nur damit ich etwas sehen kann. Bzw das Problem (ist jetzt etwas schwer wo die 9800GX2 draußen ist...) finde... kann so nicht arbeiten...

Muss mal Bios updaten...

Also meint ihr dass das Motherboard schuld ist?

Was noch komisch ist, dass ich beim Pixelbrei ein Screen gemacht habe, der sieht jetzt wo ich mit der ATI Karte drin bin, aber total normal unproblematisch aus!

Hier ein Bild mit der DigiCam:


http://img136.imageshack.us/img136/7589/img2075ub1.jpg

Antares
2008-03-20, 21:02:33
Sehr ärgerlich, neue Hardware und dann das:(

Eventuell wirklich eine Unverträglichkeit zwischen Mobo und Graka

Dadi
2008-03-20, 21:11:34
Sehr ärgerlich, neue Hardware und dann das:(

Eventuell wirklich eine Unverträglichkeit zwischen Mobo und Graka


Hab Asus eine Mail geschrieben...


Und übermorgen in der Früh brauch ich mein Rechner umbedingt zum Zocken. :(
Egal.

Mal abwarten nun...

Schlammsau
2008-03-20, 21:25:20
das wird mit Sicherheit das MB sein, dass muckt! wenn die Karte in einem anderem Rechner einwandfrei funkt.....

9800ProZwerg
2008-03-20, 21:33:59
das wird mit Sicherheit das MB sein, dass muckt! wenn die Karte in einem anderem Rechner einwandfrei funkt.....

Jo, sehe ich genauso!
Das Corsair NT kannst du deinem Laden freundlicherweise wieder zurück geben!
Und noch was: Die Karte hat nicht 1024MB VRam sondern nur 2 x 512MB!
Check mal deine Sig;)

4711
2008-03-20, 21:49:41
Davon abgesehen,versteht er es wohl irgendwie nicht,in der Mobo Beschreibung steht 1 16x,bei SLI werden die Karten 2 8x angesprochen,bei ihm 1x 16 und 1x 4 :confused: wer weiß wo er das Ding reingesteckt hat.


2x AdapterXXXXXXXXXXXXXXXXX
Treiber CD
Handbuch zur Installation
Grafikkarte selbst
Verpackung
2 Sticker fürs Case (EVGA Logo)

Was fehlt?
Richtig! Adapter für die 8pol Dinger und 6PolXXXXXXXXXXXXXXXXXXXX

XXXXXXXXXXXXXXversteh ich auch irgendwie nicht,wer weiß wie er das verkabelt hat.

Gast
2008-03-20, 22:02:54
Das ist ja kaum zu entziffern, und wenn man den "schrägen" Schreibstil mal durchschaut hat, scheint jedes Argument zu fehlen. :D
Lieber 4711, ich habe nun mit großer Mühe auch deine weiteren Beiträge entziffert und kann san.salvador nur zustimmen, das ist wirklich anstrengend. Ich möchte dich nicht attackieren, aber könntest du ein klein wenig auf Vollständigkeit und Sinngehalt deiner Sätze achten?

Zum Topic, ich würde auch auf das betagte ASUS P5W tippen, sollte es allerdings technisch möglich sein wird ASUS sicherlich dem PCIE 1.0 Anschluß mit einem BIOS-Update auf die Sprünge helfen. Ich hoffe für Dadi, dass der Shop das Corsair Netzteil zurücknimmt, das war sicher gut gemeint, wurde ihm aber offensichtlich unnötigerweise angedreht.

DevilX
2008-03-20, 22:13:11
ähm die 9800 GX² hat doch nach allem was ich gelesen habe ne Sli Bridge
Also müsste die von außen 16x angeschlossen sein, und die Bridge teilt das dann für beide Karten auf.

4711
2008-03-20, 22:18:07
Aber um es mal für alle verständlich zu machen
Diese Karte kann genau das selbe wie eine Single G92 nur mit dem feinen Unterschied man hat eben ein paar FPSchen in jeder Lage mehr,die Crisis Zocker werden es zu schätzen wissen.

Was ist daran nicht zu verstehen?

Im übrigen versteht es der Herr Sansalvadore sehr genau was Sache ist.Und denkenden Menschen die nicht stänkern wollen weil sie die Karte aus irgendwelchen Gründen nicht mögen,oder nicht können haben wollen mögen :D muß man auch den Unterschied zwischen "den Karten" nicht erklären,gelle :wink:
Aber dieser Satz wird dich wohl auch überfordern :tongue:

san.salvador
2008-03-20, 22:54:22
Aber um es mal für alle verständlich zu machen
Diese Karte kann genau das selbe wie eine Single G92 nur mit dem feinen Unterschied man hat eben ein paar FPSchen in jeder Lage mehr,die Crisis Zocker werden es zu schätzen wissen.

Was ist daran nicht zu verstehen?

Im übrigen versteht es der Herr Sansalvadore sehr genau was Sache ist.Und denkenden Menschen die nicht stänkern wollen weil sie die Karte aus irgendwelchen Gründen nicht mögen,oder nicht können haben wollen mögen :D muß man auch den Unterschied zwischen "den Karten" nicht erklären,gelle :wink:
Aber dieser Satz wird dich wohl auch überfordern :tongue:
Vielleicht war es nicht deutlich genug: Dein Schreibstil ist übel und dein Einsatz von Satzzeichen katastrophal.
Dazu kommen noch grinsende Gesichter mitten im Satz.

Beim von mir zitierten Posting scheinst du dir etwas Mühe gegeben zu haben, ansonsten aber kaum.

Ich hoffe es war klar genug.


Vom Inhalt will ich nicht reden...

jürgen123456
2008-03-20, 22:54:39
sag mal dein Netzteil hat kein DXX ready durch 6+2P (8P) Stecker für PCI Express 2.0 Grafikkarten ?

Also 8 poligen Stromstecker.....dieser ist unbedingt erforderlich bei der 9800 G2.

Gast
2008-03-20, 23:06:35
sag mal dein Netzteil hat kein DXX ready durch 6+2P (8P) Stecker für PCI Express 2.0 Grafikkarten ?

Also 8 poligen Stromstecker.....dieser ist unbedingt erforderlich bei der 9800 G2.

Na spätestens sein neues wirds ja haben...

jürgen123456
2008-03-20, 23:10:45
ja gast..... das Corsair 620 Watt hat einen 8 poligen Stecker

cR@b
2008-03-21, 00:57:28
@ Dadi

Kannste mal aufzählen was du schon alles versucht hast!? Vielleicht können wir dann noch ein paar Vorschläge bringen oder so. Ich kann mir net vorstellen, dass du das Ding ohne Mobotausch net zum Laufen bekommst.

Dürfte dann ja mit ner 7950 GX2 auch net laufen... haste keine zum testen? :D

Coda
2008-03-21, 01:30:27
Nochmal, XP hat mit der Adressierung des Grafikspeicher nix, aber auch rein gar nix am Hut ;(
Doch hat es.

Gast
2008-03-21, 01:41:18
Hallo zusammen,
ich habe eure Einträge gelesen und möchte die 9800GX2 etwas in Schutz
nehmen. Sie läuft bei mir seit gestern einwandfrei und liefert z.B. bei ArmA
gut 60% mehr Leistung gegenüber meiner alten 7950GX2 (8800GTX war ca.20% schneller als 7950GX2 bei dem Spiel).
Trotz der guten Leistung der 9800GX2, könnte man bei ArmA in der Auflösung 1280x1024 noch etwas mehr Power gut gebrauchen. Für solche Spiele, die auch in geringen Auflösungen sehr starken Leistungshunger haben (und davon ist bei zukünftigen Spielen auszugehen), ist die 9800GX2 sehr gut geeignet.

Der Speicherbedarf der 9800GX2 ist in der Tat etwas größer als bei der 7950GX2 (bei ArmA wird "in gebrauch" genommen - in der oben genannten Auflösung und gleichen Einstellungen: 7950GX2-max.420MB, 9800GX2-max.490MB). SS-AA wird dabei nicht verwendet.

Als Betriebssystem verwende ich XP(32), Grafiktreiber 173.67 (der neue
Treiber ist gut für Vista-Freunde).
Die Graka kommt von Sparkle, Netzteil Tagan 600W, Q6600 (3GHz),
3 GB Speicher im SLI (800).

Noch etwas zu den Microrucklern: bei 7950GX2 lieferte der Treiber 91.47
sehr regelmäßige Bildabstände (beim Quad-SLI und in Einstellungen AFRofSFR gab`s Microruckler). Die 9800GX2 zeigt mit eingeschaltetem "Multi-GPU" im Treiber sehr schöne und regelmäßige Bildabstände.
Bei der Aktivierung von "Multi-Display" bleibt die 3D-Leistung zwar erhalten, jedoch die Abstände zwischen den ausgegebenen Bildern werden unregelmäßiger.
Aufgefallen ist mir das beim Betrachten von NVidia-Demo-Luna.
Mit "Multi-GPU-Ein" läuft das Demo ruckelig. Bei "Multi-GPU-Aus" wird die
Wiedergabe flüssig.
In Spielen ist das umgekehrt; bei "Multi-GPU-Ein" wird`s flüssiger, bei
"Multi-GPU-Aus" wiederum gibt es Microruckler. Die Mittlere-FPS-Zahlen
sind in beiden Einstellungen identisch.
Die Microruckler haben dann folgenden Muster; z.B. 32-35-33-18.
Drei fast gleiche Abstände und dann Einbruch, und so weiter....
Schon komisch.

Hat jemand Ahnung womit wir da zu tun haben?

Gruß
sppu

Spasstiger
2008-03-21, 01:42:10
Solange es keine Virtualisierung des Grafikspeichers gibt, muss unter einem 32-Bit-Betriebssystem für die Grafikkarte immer soviel vom adressierbaren Speicher abgezwackt werden wie Grafikspeicher vorhanden ist. 4 GiB sind addressierbar, also bleiben den Anwendungen bei 2*1 GiB Grafikspeicher jeweils 2 GiB (was eh der Standard unter Windows 32 Bit ist).

cl55amg
2008-03-21, 02:00:03
Solange es keine Virtualisierung des Grafikspeichers gibt, muss unter einem 32-Bit-Betriebssystem für die Grafikkarte immer soviel vom adressierbaren Speicher abgezwackt werden wie Grafikspeicher vorhanden ist. 4 GiB sind addressierbar, also bleiben den Anwendungen bei 2*1 GiB Grafikspeicher jeweils 2 GiB (was eh der Standard unter Windows 32 Bit ist).


Sorry ich verstehe nicht genau was du meinst, kannst du das bitte präziser formulieren? Wir haben im Informatik Studium das Thema angeschnitten daher würde mich interessieren was du jetzt genau meinst.

Spasstiger
2008-03-21, 02:11:29
Sorry ich verstehe nicht genau was du meinst, kannst du das bitte präziser formulieren? Wir haben im Informatik Studium das Thema angeschnitten daher würde mich interessieren was du jetzt genau meinst.
Der Arbeitsspeicher wird ja virtualisiert. Anwendungen sehen nicht den tatsächlichen Arbeitsspeicher, sondern jeweils einen eigenen virtuellen, maximal 4 GiB großen Adressraum (im Falle eines 32-Bit-OS). Das Betriebssystem setzt diesen Adressraum auf den tatsächlichen Arbeitsspeicher um, lagert dabei evtl. auch auf Festplatte aus, wenn nötig.
Der Grafikspeicher dagegen wird direkt addressiert. Nun kann ein 32 Bit Prozessor nur 2^32 Adressen verwalten, das sind 4 GiB Speicher bei byteweise Adressierung. Der Grafikspeicher muss von diesen 4 GiB also in jedem Fall abgezogen werden, weil der Grafikspeicher halt direkt addressiert wird und alle Adressen in jedem Fall frei sein müssen. Somit kann das Betriebssystem nur noch 2 GiB Arbeitsspeicher für Anwendungen zur Verfügung stellen.

Ob dabei auch der Adressraum von Anwendungen tatsächlich auf jeweils 2 GiB beschränkt ist, weiß ich ehrlichgesagt nicht. Es scheint mir aber logisch zu sein.

Wäre der Grafikspeicher wie der Arbeitsspeicher virtualisiert, müsste das Betriebssystem von den addressierbaren 4 GiB nichts reservieren. Virtualisierung des Grafikspeichers kommt afaik unter Windows Vista mit Direct3D 10.1, evtl. auch einer späteren Version von Direct3D. Andere hier wissen das genauer.
Das ganze Thema Speichervirtualisierung an dieser Stelle zu erklären, würde übrigens den Rahmen sprengen. ;)

cl55amg
2008-03-21, 02:42:21
Der Arbeitsspeicher wird ja virtualisiert. Anwendungen sehen nicht den tatsächlichen Arbeitsspeicher, sondern jeweils einen eigenen virtuellen, maximal 4 GiB großen Adressraum (im Falle eines 32-Bit-OS). Das Betriebssystem setzt diesen Adressraum auf den tatsächlichen Arbeitsspeicher um, lagert dabei evtl. auch auf Festplatte aus, wenn nötig.

Da kann man nur zustimmen.


Der Grafikspeicher dagegen wird direkt addressiert. Nun kann ein 32 Bit Prozessor nur 2^32 Adressen verwalten, das sind 4 GiB Speicher bei byteweise Adressierung. Der Grafikspeicher muss von diesen 4 GiB also in jedem Fall abgezogen werden, weil der Grafikspeicher halt direkt addressiert wird und alle Adressen in jedem Fall frei sein müssen. Somit kann das Betriebssystem nur noch 2 GiB Arbeitsspeicher für Anwendungen zur Verfügung stellen.
Ob dabei auch der Adressraum von Anwendungen tatsächlich auf jeweils 2 GiB beschränkt ist, weiß ich ehrlichgesagt nicht. Es scheint mir aber logisch zu sein.

32 Bit Windows Betriebssysteme reservieren 2 GB, von den 4 GB allokierbarem virtuellen Speicher, für das System (Systemprozesse usw.)
Die restlichen 2GB darf der User für die Summe, all seiner Prozesse verwenden. (Dies lässt sich z.B mit dem 3GB switch erweitern)
Virtuell kann jeder Prozess maximal 2GB adressieren.

Aber lass uns doch mal praktischer werden, ich finde das interessant.

Wenn ich nun 1GB physischen Ram in meinem Rechner habe und eine Grafikkarte die über 768MB vRam verfügt. Was wäre jetzt der Effekt?
Ich kann immer noch 4 GB allokieren, aber 768MB von meinem physischen Ram wären abgezweigt?

Verstehe ich dich hier richtig?

Gast
2008-03-21, 04:13:21
Da kann man nur zustimmen.



32 Bit Windows Betriebssysteme reservieren 2 GB, von den 4 GB allokierbarem virtuellen Speicher, für das System (Systemprozesse usw.)
Die restlichen 2GB darf der User für die Summe, all seiner Prozesse verwenden. (Dies lässt sich z.B mit dem 3GB switch erweitern)
Virtuell kann jeder Prozess maximal 2GB adressieren.

Aber lass uns doch mal praktischer werden, ich finde das interessant.

Wenn ich nun 1GB physischen Ram in meinem Rechner habe und eine Grafikkarte die über 768MB vRam verfügt. Was wäre jetzt der Effekt?
Ich kann immer noch 4 GB allokieren, aber 768MB von meinem physischen Ram wären abgezweigt?

Verstehe ich dich hier richtig?

NEIN..............
Nicht schon wieder.......

Macht das woanders...

Es geht hier um die Karte!

Dein Ram Problem kannst woanders erörtern......

Nenene...........

Moralelastix
2008-03-21, 08:03:48
@Dadi

Des Rätsels Lösung wird wohl dein Versuch sein die Karte im unteren PCIe Slot mit nur 8x zu betreiben.
Deshalb ist sie nur mit zwei mal 4x angebunden. Das ist zu wenig/langsam.

Die Karte braucht mindestens einen PCIe 1.0 16x Anschluss. Wenn sie also nicht im obern Slot läuft brauchste ein anders Mobo.

DevilX
2008-03-21, 10:29:34
So laut Computerbase sind beides X16 Anschlüsse, wobei beide im SLI auf X8 geschaltet werden, Da die Karte aber ne PCI-Express Bridge hat und auch auf non Sli Bords läuft, sollte das kein Problem geben.

Ich würde mal checken das das Board nicht auf Sli steht, und die Karte im ersten Slot versuchen zum Laufen zu bekommen.

Link (http://www.computerbase.de/artikel/hardware/mainboards/2006/bericht_asus_p5w_dh_deluxe_msi_p4n_sli_xe/2/)

P.S.
Außerdem würde ich mal das Onboard Lan Nr. 2 abschalten

PP.S.
Achja und endlich das Bios updaten ^^

Gast
2008-03-21, 10:33:41
Das hat 4711 schon 2x geschrieben!

Riplex
2008-03-21, 10:41:21
Für Leute die einen Intel Chipsatz auf dem Board haben ist die 9800 GX2 sicher eine alternative.
Für Leute die einen SLI fähigen Chipsatz haben ist geraten sich besser 2 x 8800 GTX zu kaufen oder 2 x 9800 GX2 ;)

Spasstiger
2008-03-21, 10:45:07
Wenn ich nun 1GB physischen Ram in meinem Rechner habe und eine Grafikkarte die über 768MB vRam verfügt. Was wäre jetzt der Effekt?
Ich kann immer noch 4 GB allokieren, aber 768MB von meinem physischen Ram wären abgezweigt?
Nein, der physische RAM wäre dann nicht beeinträchtigt. Es sind dann nur 768 MiB vom addressierbaren Speicher für die Grafikkarte reserviert. Mit den restlichen addressierbaren 3,25 GiB kann der Arbeitsspeicher verwaltet werden.

Dadi
2008-03-21, 10:57:32
Hallo,

ich wollte sowieso schon mal das Asus P5E kaufen. Das hat einen X38 Chipsatz, was meint ihr? Wenn ich mit meinen Eltern einen Deal aushandlen kann, geben sie mir das Geld dafür.

Ich kriegs irgendwie nicht zum Laufen...

Oder welches Motherboard könnt ihr fürs 9800GX2 empfehlen? Bis heute Abend muss ich alles gekauft/gelöst haben, ich fahre weg und den Rechner brauch ich für eine LAN. :(


---
Bezogen auf die anderen Beiträge:

Ja, Lan2 ist aus, BIOS updaten muss ich noch machen... (hab keine Diskette bzw. mein Floppy spinnt auch, leuchtet die ganze Zeit als würde er arbeiten...

Ich hab meine Karte im oberen Standard Slot drin, was sollte ich sonst machen? Ihn in den unteren stecken?

Spasstiger
2008-03-21, 11:02:24
Oder welches Motherboard könnt ihr fürs 9800GX2 empfehlen? Bis heute Abend muss ich alles gekauft/gelöst haben, ich fahre weg und den Rechner brauch ich für eine LAN. :(
Du könntest ja auch ein SLI-Board holen, die 9800 GX2 zurückgeben und fürs gleiche Geld zwei 8800 GTX holen. Das hat zwei Vorteile:
- zwei 8800 GTX sind schneller
- die 9800 GX2 wird einen stärkeren Wertverlust in nächster Zeit erleiden als die 8800 GTX

Undertaker
2008-03-21, 11:02:53
Der Grafikspeicher dagegen wird direkt addressiert. Nun kann ein 32 Bit Prozessor nur 2^32 Adressen verwalten, das sind 4 GiB Speicher bei byteweise Adressierung. Der Grafikspeicher muss von diesen 4 GiB also in jedem Fall abgezogen werden, weil der Grafikspeicher halt direkt addressiert wird und alle Adressen in jedem Fall frei sein müssen. Somit kann das Betriebssystem nur noch 2 GiB Arbeitsspeicher für Anwendungen zur Verfügung stellen.

Der Grafikspeicher wird zumindest keinesfalls komplett direkt adressiert. Bei Triple-SLI hätte man damit nur noch ~1,5GB nutzbaren Ram und das ist definitiv nicht der Fall - kann man auch an genügend anderen Beispielen sehen:

http://img3.imagebanana.com/img/lo7orhxt/Unbenannt2.PNG (http://img3.imagebanana.com/)

Afair hat XP immer 256MB, unabhängig von der VRAM-Größe, pro Grafikkarte abgezweigt.

BTW: Sollte da nicht eigentlich auch PAE greifen?

4711
2008-03-21, 11:04:09
Ja steck mal um und die Stromanschlüsse haste beide drauf?
Aber vorher ein Bios update!
Wenn das Ding (Floppy)andauernd leuchtet ist es normalerweis falsch angeschlossen.
Ich glaub irgendwas haste da fürchterlich verwurschelt beim Einbau.
Leg dich mal in Ruhe davor und überprüfe alle Anschlüsse.

Gast
2008-03-21, 11:06:07
Du könntest ja auch ein SLI-Board holen, die 9800 GX2 zurückgeben und fürs gleiche Geld zwei 8800 GTX holen. Das hat zwei Vorteile:
- zwei 8800 GTX sind schneller
- die 9800 GX2 wird einen stärkeren Wertverlust in nächster Zeit erleiden als die 8800 GTX
Noch besser wäre ein Hybrid-SLI fähiges Board und zwei 8800GTS -> bessere Leistung als die 9800GX2, weitaus besserer Idle-Verbrauch und geringerer Wertverlust.

Die 9800GX2 ist einfach nur Proletenhardware, von mir aus macht sie Sinn, wenn man ein Nicht-NVidia-Board einsetzt und unbedingt SLI haben will. Da nun ohnehin ein Boardwechsel ansteht, ist die Karte irgendwie keine gute Lösung. Wenn dagegen der Stromverbrauch sowieso egal ist, dann würde ich lieber noch mein Board behalten und zusehen, ob ich noch eine 8800Ultra bekomme, damitr spart man sich den ganzen Multi-GPU-Ärger (Mikroruckler, Kompatibilitätsprobleme).

4711
2008-03-21, 11:07:56
Hallo das ist hier keinen Kaufberatung sondern er fragt um Rat und er hat die Karte + Board!

andre29
2008-03-21, 11:08:44
Ja ein nForce 780i Board und zwei 8800 Gtxler.....die rocken.....
Haben mehr power. Grakas bekommste für je ca 220€ und Board für ca 200€.

Ich war auch am überlegen zum umrüsten auf deine Graka...aber ich denke ich bleib bei SLI...bin jetzt am liebäugeln mit Triple SLI :biggrin:

puntarenas
2008-03-21, 11:13:43
Hallo das ist hier keinen Kaufberatung sondern er fragt um Rat und er hat die Karte + Board!
Er hat aber offensichtlich ein Problem, das sich nicht so einfach lösen läßt. Wenn er jetzt loszieht und ein neues Board kauft, dann wäre er wirklich besser beraten stattdessen die Karte zurückzugeben.

Vielleicht hilft ja schon das BIOS-Update, Floppy einfach richtig anstöpseln wurde ja als naheliegende Lösung schon genannt, ich drück die Daumen.

Gast
2008-03-21, 11:15:34
mein Floppy spinnt auch, leuchtet die ganze Zeit als würde er arbeiten...
Ich würde mal den Stromanschluss anders herrum stecken.

Undertaker
2008-03-21, 11:16:41
Ja ein nForce 780i Board und zwei 8800 Gtxler.....die rocken.....
Haben mehr power. Grakas bekommste für je ca 220€ und Board für ca 200€.

Ich war auch am überlegen zum umrüsten auf deine Graka...aber ich denke ich bleib bei SLI...bin jetzt am liebäugeln mit Triple SLI :biggrin:

Wieviel nutzbaren Ram zeigen der Taskmanager bzw. die Systemeigenschaften (Windows+Pause) bei dir an?

andre29
2008-03-21, 11:19:58
Physikalischer Speicher (MB)
Insgesamt 4094
Im Cache 752
Frei 2575

Vista 64

Is es das was du wissen willst? :rolleyes:

Moralelastix
2008-03-21, 11:20:04
....
Ich hab meine Karte im oberen Standard Slot drin, was sollte ich sonst machen? Ihn in den unteren stecken?

Haste nicht hier wo geschrieben das die Karte im oberen garnicht funktionieren wollte?

Also wenn sie doch schon im oberen Slot steckt und der im Bios oder sonst wo auf 16x eingestellt is, hab ich auch keine Ahnung mehr.

Biosupdate machen(ist ja selbstverständlich). Kannste ja auch über Windows oder im Bios mit einem USB Stick machen(also ohne Diskette).

Dadi
2008-03-21, 11:22:00
http://www.youtube.com/watch?v=IwPKDa5wp_M Verpixelungsproblem, so siehts aus.

Ähm, war nie Fan von pur SLI Grakas (Energie)... wieviel bräucht ich da 1000W?
Hab jetzt 620 von Corsair.

Nein, ich hol mir glaub ich jetzt das Asus p5e (Eltern grad gesprochen)...

andre29
2008-03-21, 11:23:34
Für SLI mit 2 8800 Gtxlern 650 -750 Watt Netzteil reichen dicke!!

Undertaker
2008-03-21, 11:24:46
Physikalischer Speicher (MB)
Insgesamt 4094
Im Cache 752
Frei 2575

Vista 64

Is es das was du wissen willst? :rolleyes:

Jo ,aber da du ein 64Bit BS hast nicht wirklich hilfreich für mich ;) Trotzdem Danke!

Dadi
2008-03-21, 11:24:51
Gutes Motherboard dafür?

Bin am Überlegen ob ich mir nicht doch ein
Asus P5E3 Deluxe hole.

Gast
2008-03-21, 11:26:37
Da du die tips hier ja eh nicht annimmst mach das und noch viel spaß beim basteln.
Ich würde aber wenn das hier so überblicke zu einer xbox oder so raten.

andre29
2008-03-21, 11:28:08
Hol doch ein nForce Board!

Falls du doch mal irgendwann in ferner Zukunft auf Sli umrüsten willst...dann haste es.
Meine Meinung :redface:

Gast
2008-03-21, 11:28:13
Haste DDR3 Ram oder wie? Ich würde dir das Abit IX38 Quad-GT oder das GigaByte GA-EX38-DS4 empfehlen, das hat sogar ne 12 Phasen Stromversorgung.

andre29
2008-03-21, 11:29:46
Welches Board haben denn die im Laden wo du die Graka geholt hast? Also ich meine auf dem die Graka lief!

dargo
2008-03-21, 11:31:08
Noch besser wäre ein Hybrid-SLI fähiges Board und zwei 8800GTS -> bessere Leistung als die 9800GX2, weitaus besserer Idle-Verbrauch und geringerer Wertverlust.

Nö, denn dann hängt der immer noch an den lächerlichen 512MB Vram. Wenn schon dann 2x G8800GTX für 500€ oder wenn man etwas Geld sparen möchte 2x G8800GT 1GB für knapp unter 400€.

DevilX
2008-03-21, 11:38:41
Wenn ich das Richtig sehe nutzt du ja Xp32, da kannst du eigentlich ruhig nen Bios update unter Windows machen.
Nur unter 64bit/Vista möglich die Hände davon lassen.
Zu dem Mainboard, ich bin von Asus auf Abit gewechselt und sehr zufrieden, aber auch das Asus ist nen ziemlich gutes Board.

puntarenas
2008-03-21, 11:39:39
Da du die tips hier ja eh nicht annimmst mach das und noch viel spaß beim basteln.
Ich würde aber wenn das hier so überblicke zu einer xbox oder so raten.
Etwas drastisch formuliert, aber ich kann irgendwie auch nicht ruhig dabei zusehen und versuche nochmal einen gut gemeinten Ratschlag:

Du hast im Moment eine der schlechtesten Einzelkarten, da du dir mit der 9800GX2 alle SLI-Probleme und einen immensen Stromverbrauch eingekauft hast, außerdem sind die 512MB VRAM für die prädestinierten Auflösungen dieser Karte wirklich etwas knapp. Auf den Kauf folgte ein unnötiger Netzteilkauf und jetzt willst du mit dem Board weitermachen, das ergibt doch keinen Sinn.

Ich würde ernsthaft die Karte zurückgeben und wie schon geschrieben auf eine reibungslos arbeitende 8800 Ultra setzen, die wird wohl bis zum Erscheinen des GT200 die schnellste wirkliche Einzelkarte bleiben und läuft auf deinem P5W sicher problemlos. Vielleicht kannst du ja sogar auch noch das Netzteil mit zurückgeben, das wäre nur fair von deinem Händler.

Alternativ würde bis zum Erscheinen der 9800 GTX warten und mir ein Hybrid-SLI Mainboard sowie zwei dieser Karten holen, sofern NVidia bis dahin die Mikroruckler-Problematik gelöst hat. Dann hättest du einen schönen Idle- und guten Lastverbrauch und mehr Leistung als mit der 9800GX2, das ganze wohl zum nehezu gleichen Preis. Nachteil: Keine Bewunderung auf der morgigen LAN.

Deine Entscheidung, basteln kann ja auch Spaß machen und wenn Geld keine Rolle spielt, den Händler wird es freuen.

Dadi
2008-03-21, 11:49:30
Leute, tut mir Leid.
Gast hat Recht, für heute kann ich eure Tipps nicht annehmen. Vl mal mit ner guten Durchplanung in Zukunft @ nforce Motherboard. Ich hol mir jetzt das Asus P5E. Bastel das alles zusammen. Steck die Evga rein und hoffe es rennt.
Ich wollte es sowieso holen!...

Wenn ich dran denke dass ich wieder CPU, Kühler etc umbauen muss wird mir übel. :D

Gut, ich melde mich dann bis heute Abend. Bis dann!

andre29
2008-03-21, 11:50:44
Viel Glück..ich gönn es dir! :)

LolekDeluxe
2008-03-21, 11:50:46
Ist euch aufgefallen das bei Computerbase in Crysis zwei 9600GT's schneller sind als eine 9800GX2.;D
2X9600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis)
1x9800GX2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/18/#abschnitt_crysis)

edit: also irgedwas stimmt da nicht wieso haben alle single Grafikkarten beim 9800GX2
Test auf einmal 50% wenieger Frames.:|

Gast
2008-03-21, 11:52:07
Leute, tut mir Leid.
Gast hat Recht, für heute kann ich eure Tipps nicht annehmen. Vl mal mit ner guten Durchplanung in Zukunft @ nforce Motherboard. Ich hol mir jetzt das Asus P5E.

Hoffentlich nicht das P5E3 aus deinem oberen Post, das hat nämlich DDR3.

Gast
2008-03-21, 11:55:46
Ist euch aufgefallen das bei Computerbase in Crysis zwei 9600GT's schneller sind als eine 9800GX2.;D
2X9600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis)
1x9800GX2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/18/#abschnitt_crysis)


Treiber...

tombman
2008-03-21, 11:56:45
Dadi: Kannst du mal, sobald dein System ordentlich läuft, mittels Fraps bei ein paar Spielen die Frametimes messen?

Vll. ists ja bei der GX2 mit aktuellen Treibern eh nicht mehr so schlimm...
DAS würde mich auch interessieren ;)

cl55amg
2008-03-21, 11:56:59
Ist euch aufgefallen das bei Computerbase in Crysis zwei 9600GT's schneller sind als eine 9800GX2.;D
2X9600GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis)
1x9800GX2 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/18/#abschnitt_crysis)

edit: also irgedwas stimmt da nicht wieso haben alle single Grafikkarten beim 9800GX2
Test auf einmal 50% wenieger Frames.:|

Du hast dir nur die Tabellen abgechaut und dir das lesen gespart...

Der Grafikspeicher wird zumindest keinesfalls komplett direkt adressiert. Bei Triple-SLI hätte man damit nur noch ~1,5GB nutzbaren Ram und das ist definitiv nicht der Fall - kann man auch an genügend anderen Beispielen sehen:



Ich würde gerne diese theorie in einem praktischen Beispiel beweisen.

Aber wichtig ist die Frage, muss die Sache überhaupt jemanden kümmern, wenn es ohnehin keine praktische Auswirkung gibt?

cl55amg
2008-03-21, 11:59:31
...

Dadi
2008-03-21, 12:02:27
Du hast dir nur die Tabellen abgechaut und dir das lesen gespart...




Ich würde gerne diese theorie in einem praktischen Beispiel beweisen.

Aber wichtig ist die Frage, muss die Sache überhaupt jemanden kümmern, wenn es ohnehin keine praktische Auswirkung gibt?

:D

-
Sobald alles läuft, mach ich das mit den Benchs... ;)

Gast Ja nur das P5E! Das mit DDR2.

Bin jetzt weg!

LolekDeluxe
2008-03-21, 12:05:16
Du hast dir nur die Tabellen abgechaut und dir das lesen gespart...





OK jetzt hab ich es auch gesehen, aber was soll der Mist.
Da wird mal mit 32bit und mal mit 64bit Pfad gebencht.:uconf3:

cl55amg
2008-03-21, 12:10:10
OK jetzt hab ich es auch gesehen, aber was soll der Mist.
Crysis steht in der Spalte Direct3D-10-Benchmarks.
Und da wird mal mit XP und ein anderes mal mit Vista gebencht.

Gut das du das korrigiert hast...


OK jetzt hab ich es auch gesehen, aber was soll der Mist.
Crysis steht in der Spalte Direct3D-10-Benchmarks.
Und da wird mal mit 32bit und mal mit 64bit Pfad gebencht.:uconf3:

Weil das neue Testsystem, dass ab jetzt gilt, 64 Bit Vista verwendet.
Das steht übrigens auch da.

tombman
2008-03-21, 12:33:03
Für Leute die einen Intel Chipsatz auf dem Board haben ist die 9800 GX2 sicher eine alternative.
Für Leute die einen SLI fähigen Chipsatz haben ist geraten sich besser 2 x 8800 GTX zu kaufen oder 2 x 9800 GX2 ;)
Kann man so stehen lassen ;)

Wobei ich bei quad-sli SEHR vorsichtig bzgl Mikror. wäre. Meine Erfahrungen mit triple-sli halten mich derzeit davon ab mehr als 2 Gpus rechnen zu lassen. Je mehr gpus, desto schlimmer wirds mit MR.

Bevor Nvidia außer einem mächtigen BLA bzgl eines neuen Treibers mit nichts Neuem rauskommt, bleibe ich bei 2 Gpus, zumal die derzeitigen games auch nicht mehr als 2x GTX brauchen ;)

Rein zum pimpen würde mich quad-sli natürlich schon reizen- allerdings gibts derzeit für mich noch weit geilere HW, die Priorität hätte, nämlich LCD-TV + PS3.

@Dadi: schon mal Vista probiert? Und klar braucht die Karte einen vollen 16er slot, da intern ja nochmal aufgeteilt wird. (gtx/ultra haben auch in 8x slots kein Problem)

p.s. von mir kannst auch ein 680i mobo günstig kaufen, da hast dann bzgl SLI ausgesorgt- auch in Zukunft.

Blackland
2008-03-21, 12:59:13
... BIOS updaten muss ich noch machen... (hab keine Diskette bzw. mein Floppy spinnt auch, leuchtet die ganze Zeit als würde er arbeiten...

1.) BIOS kann man unter Windows updaten mit den Hauseigenen Asus-Tool ;)
Internetverbindung muss natürlich gegeben sein.

2.) Wenn das Laufwerk ständig leuchtet, lässt gerade das auf einen Fehler im System (Bios, RAM, MoBo) schließen!

Gast
2008-03-21, 13:52:47
Bin jetzt weg!
Wo kriegt man denn am Karfreitag ein MoBo?

dargo
2008-03-21, 13:58:15
Rein zum pimpen würde mich quad-sli natürlich schon reizen- allerdings gibts derzeit für mich noch weit geilere HW, die Priorität hätte, nämlich LCD-TV + PS3.

Also jetzt enttäuschst du mich aber. Was für ein Downgrade. :D

andre29
2008-03-21, 14:03:25
@Gast

Ich glaub er wohnt in Österreich !! Kein Feiertag :biggrin:

perforierer
2008-03-21, 14:10:34
Wo kriegt man denn am Karfreitag ein MoBo?

Das wollte ich auch gerade fragen. :)

Das Auge
2008-03-21, 14:48:12
@Gast

Ich glaub er wohnt in Österreich !! Kein Feiertag :biggrin:

Echt nicht? Die Ösi sind doch Erzkatholisch, schlimmer als hier in Bayern. Wundert mich wirklich...

@Topic

Ich find den Thread wieder mal nur genial. Typischer Fall von nicht informiert - einfach mal kaufen. Und immer weiter kaufen, kaufen, kaufen. Naja, den Staatssäckel freuts ;D

Johnny Rico
2008-03-21, 14:48:39
Lass es lieber, gib alles zurück und sei mit Deinem Sys noch ein paar Monate zufrieden.
Neue ATI und NVs kommen. Neue MBs kommen. SSDs kommen. DDR3 wird "vielleicht" auch "Pflicht"..(wenn Du schon auf nem High End Trip bist).

cR@b
2008-03-21, 15:32:06
Ist schon verrückt auf 500 Euro kommen plötzlich nochmal ca. 250 Euro drauf? Puhh da hätte ich meinem Kumple nen richtig guten Rechner zusammen stellen können... ohne Miniruckler versteht sich :D

Trotzdem viel Glück... hoffe mit dem G200 hab ich nicht solche Probs!

Dadi
2008-03-21, 15:36:58
Wieder da.

Ja Feiertag ist keiner, gott sei dank! :D Hab Urlaub.

- Bin gerade mit (wieder) einem frischen OS da und installiere gerade alles wichtige.
Neues Motherboard läuft...

(Chipsatztreiber etc. auch installiert)
Warte nur auf die Update Packs bis die installiert sind, dann kommen die Display Driver und dann 3D Mark 06. Hoffentlich klappts, wenn nicht, bekomm ich noch Bauchkrämpfe hier.

Gast
2008-03-21, 16:14:57
Jetzt hast du nur wegen der Karte nen neues Netzteil UND ein neues Board gekauft ? Du hasch doch leicht nen Piepmatz zwischen deinen Ohren sitzen :D

Dadi
2008-03-21, 16:23:44
Jo. xD

So, funktioniert!

Nur bin ich über das 3D Mark 06 Ergebnis ein wenig schockiert...?

13399 3DMarks
Hm

mit meiner 8800 GTX hab ich 11619 Punkte gehabt.

Fehlt da irgendwie ein SLI Profil oder soetwas? Bei Computerbase.de hat das Testsystem etwa 20.000 Punkte.

Gast
2008-03-21, 16:25:11
Jo. xD

So, funktioniert!

Nur bin ich über das 3D Mark 06 Ergebnis ein wenig schockiert...?

13399 3DMarks
Hm

mit meiner 8800 GTX hab ich 11619 Punkte gehabt.

Fehlt da irgendwie ein SLI Profil oder soetwas? Bei Computerbase.de hat das Testsystem etwa 20.000 Punkte.

Naja, die ham auch nen auf 4GHz übertakteten QX9770 drin...

aehmkei
2008-03-21, 16:29:32
Richtig, wenn da kein gut übertakteter Quad die Daten liefert langweilt sich die Karte.
Meine 8800GT mach ja mit dem Quad auf 3,2GHz schon 13500 Punkte.

Gast
2008-03-21, 16:29:56
Jetzt hast du nur wegen der Karte nen neues Netzteil UND ein neues Board gekauft ? Du hasch doch leicht nen Piepmatz zwischen deinen Ohren sitzen :D
Naja, was sinnvolleres kann man heute mit dem PC auch momentan nicht anfangen. Es ist ist zur Zeit einfach ne Flaute bei Action-Games und neuen "3DC-würdigen-Games". Guck dich mal im Spieleforum um - tote Hose. Da kommt Abwechslung in Form von neuer Hardware gerade recht. Da sind wir PCler auch nicht gerade in letzter Zeit mit verwöhnt worden, außer mit altem Schrott neu aufgewärmt und mit anderem Namen vermarktet.
Und SLi lädt zum Experimentieren ein - ein schöner Zeitvertreib, gerade für die SLi-Neulinge.

MSABK
2008-03-21, 16:32:38
Also trotz DualCore müßten aber mehr als 13xxx Punkte rauskommen.:|

Wie ist die Lautstärke?

dargo
2008-03-21, 16:35:52
Jo. xD

So, funktioniert!

Nur bin ich über das 3D Mark 06 Ergebnis ein wenig schockiert...?

13399 3DMarks
Hm

mit meiner 8800 GTX hab ich 11619 Punkte gehabt.

Fehlt da irgendwie ein SLI Profil oder soetwas? Bei Computerbase.de hat das Testsystem etwa 20.000 Punkte.
Deine Karte verhungert am CPU-Limit im 3DFurz. ;)

Dadi
2008-03-21, 16:46:17
Bedeutet also, OCen... ?

Hab ja ein Quad mit 2,4Ghz... Auf 3GHZ könnt ich ihn bringen...
- Naja mal sehen wie Crysis läuft ,obwohl ich gerade irgendwelche Setup (Windows Installer.msi Probleme habe -.- toll) lös ich schon.

Crysis ist ja eher GPU limitiert.

Hab genau das problem:

http://crysis.4thdimension.info/forum/archive/index.php/t-3153.html

Adam D.
2008-03-21, 16:54:24
Bring den Q6600 mal auf Bereiche zwischen 3-3,5GHz, dann wird auch die Punktzahl stark nach oben gehen. Du solltest ihn eh 'n bissl höher züchten, sonst stirbt die Karte sofort am CPU-Limit.

tombman
2008-03-21, 17:02:18
Also jetzt enttäuschst du mich aber. Was für ein Downgrade. :D
Nix downgrade- bestenfalls "sidegrade". Und Gran Turismo gibts eben nur dort. Und den besten BR player gleich mit dazu ;)

Gast
2008-03-21, 17:02:42
Bedeutet also, OCen... ?

Hab ja ein Quad mit 2,4Ghz... Auf 3GHZ könnt ich ihn bringen...[/url]

Solltest du sofort machen, der Quad bei 2,4 GHz is viel zu lahm für die Karte...

tombman
2008-03-21, 17:04:17
3dm06 braucht fetteste cpus bei SLi/GX2, ansonsten wird das nix mit dem 3dscore ;)

Dadi
2008-03-21, 17:26:59
Zu lahm für die Karte? Kann also sein dass sie abstirbt? Kaputt geht? Oder einfach nur lahm ist?...

Bin grad auf 3GHZ... teste jetzt 90 Min Prime ... dann mach ich weiter... Temps ok...

Edit:

Könnt gut hinkommen:
Hab jetzt 15884 3DMarks

horn 12
2008-03-21, 17:44:41
Wie ist denn so die Lautstärke der Karte unter IDLE?
und vor allem unter Last/ Beim Zocken?
Dank!

Spasstiger
2008-03-21, 17:55:43
Für 20k Punkte brauchst nen Quad @ 4 GHz. Selbst mit Quad-SLI hättest sonst keine 20k. Für 30k Punkte brauchst einen Quad @ ~5,5 GHz (und drei bis vier GPUs im Crossfire/SLI).

andre29
2008-03-21, 18:06:30
Hast du Windoof auch wieder neu aufgesetzt?

Gast
2008-03-21, 18:10:20
Nix downgrade- bestenfalls "sidegrade". Und Gran Turismo gibts eben nur dort. Und den besten BR player gleich mit dazu ;)

Doch downgrade. Oder hast du auf den PC in 720p ohne AA und AF gespielt?

Dadi
2008-03-21, 18:13:48
Jo Windows wegen MB komplett neu aufgesetzt,
So, Crysis kann man nun doch installieren. Glaube der blöde Windows Installer hat irgendwie ne Art Cache, hab dann ein anderes Programm gesucht welches tatsächlich Crysis aus dem Windows Installer Cache gelöscht hat, nach neuerlichen Start von Crysis_Setup gehts nun...

Dadi
2008-03-21, 18:18:49
Weiß jetzt jemand wie ich nun doch 3072 Arbeitsspeicher unter Windows XP bekomme trotz VRAM der Grafikkarte?

Ein User in diesen Thread meinte er hat trotz 2x 8600GT (2x512), 3072 unter Windows erkannt.

andre29
2008-03-21, 18:21:02
Auf manche Boards gibt es im Bios die Option "Memory Ramaping" oder so ähnlich :redface:
Schau mal danach und schalte das ein wenn es da is.

Ansonsten Xp und 4 Gb geht nicht so gut.

Dadi
2008-03-21, 18:22:15
Remapping Feature war schon immer an und ists nun auch...

Gut, tut mir Leid. Crysis ist installiert, aber Benchs werd ich erst heute am späten Abend machen können (mit Fraps)... muss nun zurück ins RL. Bis dann...

cl55amg
2008-03-21, 18:48:20
Weiß jetzt jemand wie ich nun doch 3072 Arbeitsspeicher unter Windows XP bekomme trotz VRAM der Grafikkarte?



Das hat nichst mit dem VRAM der Grafikkarte zu tun, lass dich davon nicht so verwirren, die Sache mit dem VRAM brauchst du nicht beachten.

Versuch mal memory remapping auszuschalten!

Dicker Igel
2008-03-21, 19:28:07
Doch downgrade. Oder hast du auf den PC in 720p ohne AA und AF gespielt?


GT5 läuft hier in 1080p ruckelfrei und sieht geil aus, nix Downgrade ;)

dargo
2008-03-21, 19:47:06
Bedeutet also, OCen... ?

Vergiss einfach den nichts sagenden 3DMark. Die Gametests belasten nur einen Core. Da bringt dir außer in den CPU-Tests dein Quadcore rein gar nichts.

Ansonsten Xp und 4 Gb geht nicht so gut.
Doch, einfach auf XP64 umsatteln. :)


GT5 läuft hier in 1080p ruckelfrei und sieht geil aus, nix Downgrade ;)

1. Es ist 1280x1080 2xAA
2. Es geht auch 1280x720 4xAA
3. GT5 kommt erst nächstes Jahr. Wa du meinst ist GT5P.
4. Ist auch egal. :D

Dicker Igel
2008-03-21, 19:59:43
4. Ist auch egal.

Ja ist Prologue und sieht trotzdem geil aus ;D

cl55amg
2008-03-21, 20:02:02
GT5 läuft hier in 1080p ruckelfrei und sieht geil aus, nix Downgrade ;)


Die PS3 rendert so gut wie kein Game in 1080p. Fast alles, aber ganz besonders
grafisch aufwendige Games, werden in 720p gerendert.
Wobei AA nie an ist, wenn dann 2x aber auch da zweifele ich, nach dem was ich testen konnte.

Nur ein PC kann momentan in 1080p ausgeben.

Megamember
2008-03-21, 20:17:45
13000 find ich echt ein bischen wenig. Selbst ich komm mit einer übertakteten GTX über 13000 und hab sogar nur nen Dual-Core und der Penismark lieb ja bekanntlich Quads.:|
Klingt imho eher nach kein SLI aktiv.

Edit: Seh grad du hast schon mehr, dann hat sichs ja erledigt.

cl55amg
2008-03-21, 20:23:37
13000 find ich echt ein bischen wenig. Selbst ich komm mit einer übertakteten GTX über 13000 und hab sogar nur nen Dual-Core und der Penismark lieb ja bekanntlich Quads.:|
Klingt imho eher nach kein SLI aktiv.


Die Ergebnisse wären aussagekräftiger wenn man nur den GPU Bench vergleicht.
Da beim Gesamtergebnis die CPU Punkte dazugerechnet werden, welche aber reingar nichts mit der Beurteilung der "3D Peformance" zu tun haben.

So könnte man auch besser erkennen ob SLI aktiv ist oder nicht.

Stellt euch vor einer testet mit nicht aktiven SLI und einem hochgetatkteten Quad, der andere testet mit SLI und einem stock Dual Core...

Schmeisst man den CPU Score weg, dann kann man die Informationen die sich aus dem Test ergeben, besser verarbeiten.

Razor
2008-03-21, 20:45:21
Auf manche Boards gibt es im Bios die Option "Memory Ramaping" oder so ähnlich :redface:
Schau mal danach und schalte das ein wenn es da is.

Ansonsten Xp und 4 Gb geht nicht so gut.
Oh mann... immer diese "Weisheiten"!
Ohne irgendwelchen Hintergrund wird hier irgendwelcher Unfug behauptet... *grunz*

Also: 256MB für's System und je 256MB pro Karte
= 512MB bei mir (8800GT mit 512MB)
= 768MB bei Dadi (2x G92 mit je 512MB)

Ergo: bei mir bleiben 3,5GB, bei Dadi 3,25GB... wenn das Mainboard mit macht.
Mit Windows hat das überhaupt nichts zu tun... da gibt es lediglich die Beschränkung auf 4GB (2GB System, 2GB je Anwendung).

@Dadi

Schalte das Memory-Remapping im Bios aus!
Funktioniert bei den meisten Boards nicht und wird bei den 'Guten' gar nicht erst angeboten (z.Bsp. bei den Gigabyte Boards)...

Wenn das Board (ohne Remapping) noch immer nur 2GB anbietet, dann sollte ein Bios-Update helfen.

Und... wenn Du beim Murks tatsächlich auf den Schnuller-Score schaust, in welchem zu 1/3 die CPU einfließt, dann tust Du mir leid.
Schau Dir die reinen GFX-Scores an und dann können wir weiter reden...
(selbstredend nur, wenn Du auch 'ne vernünftige Auflösung für das G92-SLI wählst)

Razor

cl55amg
2008-03-21, 20:51:58
Und... wenn Du beim Murks tatsächlich auf den Schnuller-Score schaust, in welchem zu 1/3 die CPU einfließt, dann tust Du mir leid.
Schau Dir die reinen GFX-Scores an und dann können wir weiter reden...
(selbstredend nur, wenn Du auch 'ne vernünftige Auflösung für das G92-SLI wählst)

Razor

Ja meine Rede...




Schalte das Memory-Remapping im Bios aus!
Funktioniert bei den meisten Boards nicht und wird bei den 'Guten' gar nicht erst angeboten (z.Bsp. bei den Gigabyte Boards)...


Hab ich ihm ja auch geraten.



Ergo: bei mir bleiben 3,5GB, bei Dadi 3,25GB... wenn das Mainboard mit macht.
Mit Windows hat das überhaupt nichts zu tun... da gibt es lediglich die Beschränkung auf 4GB (2GB System, 2GB je Anwendung).


Was genau meinst damit, dass bei dir 3.5 GB übrig bleiben? Meinst du den virtuellen Adressraum?

Gast
2008-03-21, 21:02:30
Funktioniert bei den meisten Boards nicht und wird bei den 'Guten' gar nicht erst angeboten (z.Bsp. bei den Gigabyte Boards)...

Soweit, so gut. Nicht widersprüchlich aber ergänzend: Bei Gigabyte-Boards ist es automatisch aktiv und wird nicht als Option im BIOS angeboten. Dafür funktioniert es dort problemlos, einer der wenigen Punkte, wo Gigabyte ASUS die Rücklichter zeigt :)

Razor
2008-03-21, 21:23:14
Soweit, so gut. Nicht widersprüchlich aber ergänzend: Bei Gigabyte-Boards ist es automatisch aktiv und wird nicht als Option im BIOS angeboten. Dafür funktioniert es dort problemlos, einer der wenigen Punkte, wo Gigabyte ASUS die Rücklichter zeigt :)
Ist das eine Vermutung von Dir oder fußt dies auf Fakten?
AFAIK ist das Memory Remapping bei den Gigabytes per Default off...

Gibts irgendwo Links o.ä. die das belegen oder vielleicht Programme, die das zeigen?

Was genau meinst damit, dass bei dir 3.5 GB übrig bleiben? Meinst du den virtuellen Adressraum?
Physischer Speicher...
4GB - 256MB fürs System -256MB für eine Grafikkarte = 3,5GB für den 'Rest'
Der virtuelle Adressraum ist um einiges größer, wie Du ja sicherlich weißt...
(Betriebssystem und jeder einzelnen Anwendung bleiben natürlich noch immer je 2GB)

Razor

cl55amg
2008-03-21, 21:28:41
Physischer Speicher...
4GB - 256MB fürs System -256MB für eine Grafikkarte = 3,5GB für den 'Rest'

Razor

Ich habe unter XP 32bit mit einer Grafikkarte, 3.25GB Physichen Speicher frei? (4GB RAM sind verbaut)
Bei einem anderen Board hatt 2.93 GB zur Verfügung.

Wie passt das in deine Rechnung?

Razor
2008-03-21, 21:37:18
Wie passt das in deine Rechnung?
Gar nicht...
Bios aktualisieren oder anderes Board kaufen.
Mehr gibts dazu eigentlich nicht zu sagen...

Ach ja - zufällig X-Fi mit diesem ömmeligen "XRam" drauf?
Selbstverständlich müssen solche "Speicherfresser" dazu gezählt bzw. abgezogen werden.

Razor

Undertaker
2008-03-21, 21:43:04
GT5 läuft hier in 1080p ruckelfrei und sieht geil aus, nix Downgrade ;)


1280x1080 um genau zu sein ;)

Gast
2008-03-21, 22:06:32
Ist das eine Vermutung von Dir oder fußt dies auf Fakten?
AFAIK ist das Memory Remapping bei den Gigabytes per Default off...

Gibts irgendwo Links o.ä. die das belegen oder vielleicht Programme, die das zeigen?

Klick! (http://62.109.81.232/cgi-bin/sbb/sbb.cgi?&a=show&forum=1&show=5316&start=0#anfang)

Ist jetzt nicht gerade eine atemberaubende Quelle, wurde so aber auch schon offiziell im Gigabyte-Forum von Gigabyte-Mitarbeitern bestätigt. Dank der gammeligen Suchfunktion finde ich allerdings nichts besseres, zur Not frag einfach selbst im Gigabyte-Forum nach.

Dadi
2008-03-21, 22:08:56
AA AUS 1280x1024

21.03.2008 22:04:40 - XP
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 54.33s, Average FPS: 36.81
Min FPS: 0.00 at frame 1380, Max FPS: 68.13 at frame 877
Average Tri/Sec: -35536296, Tri/Frame: -965311
Recorded/Played Tris ratio: -0.95
!TimeDemo Run 1 Finished.
Play Time: 38.58s, Average FPS: 51.84
Min FPS: 0.00 at frame 1380, Max FPS: 70.88 at frame 889
Average Tri/Sec: -47380492, Tri/Frame: -913900
Recorded/Played Tris ratio: -1.00
!TimeDemo Run 2 Finished.
Play Time: 37.31s, Average FPS: 53.60
Min FPS: 0.00 at frame 1380, Max FPS: 75.96 at frame 111
Average Tri/Sec: -48970288, Tri/Frame: -913543
Recorded/Played Tris ratio: -1.00
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

21.03.2008 22:04:40 - XP

Run #1- DX9 1280x1024 AA=No AA, 32 bit test, Quality: High ~~ Overall Average FPS: 5272

Lautstärke: Schon etwas störend, für mich aber nicht störend genug. :)


8xAA 1280x1024

21.03.2008 22:10:38 - XP
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1280x1024, AA=8x, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 52.75s, Average FPS: 37.91
Min FPS: 19.25 at frame 144, Max FPS: 58.53 at frame 982
Average Tri/Sec: -33626024, Tri/Frame: -886944
Recorded/Played Tris ratio: -1.03
!TimeDemo Run 1 Finished.
Play Time: 43.79s, Average FPS: 45.68
Min FPS: 19.25 at frame 144, Max FPS: 61.58 at frame 993
Average Tri/Sec: -40407532, Tri/Frame: -884627
Recorded/Played Tris ratio: -1.04
!TimeDemo Run 2 Finished.
Play Time: 43.18s, Average FPS: 46.32
Min FPS: 19.25 at frame 144, Max FPS: 61.58 at frame 993
Average Tri/Sec: -40961984, Tri/Frame: -884288
Recorded/Played Tris ratio: -1.04
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

21.03.2008 22:10:38 - XP

Run #1- DX9 1280x1024 AA=8x, 32 bit test, Quality: High ~~ Overall Average FPS: 4600

cl55amg
2008-03-21, 22:18:01
Gar nicht...
Bios aktualisieren oder anderes Board kaufen.
Mehr gibts dazu eigentlich nicht zu sagen...

Ach ja - zufällig X-Fi mit diesem ömmeligen "XRam" drauf?
Selbstverständlich müssen solche "Speicherfresser" dazu gezählt bzw. abgezogen werden.

Razor

Ich hätte dir natürlich mitgeteilt, wesn ich eine entsprechende Soundkarte hätte.

Gar nicht...
Razor


Genau, da es falsch ist was du gesagt hast. Es war jedenfalls zum Teil richtig.
Nicht die Anzahl der Grafikkarten, sondern das Board (genauergesagt das Bios)
entscheidet wieviel RAM für Bios, I/O PCI Bus usw. reserviert werden.

Daher ergeben sich die Unterschiede nicht mit der Anzahl an Steckkarten, sondern eher mit Board/ Bios. Deine Rechnung ist hinfällig, was du dadurch erkennen wirst, das sie nicht praktisch reproduzierbar ist, da die Boards ihre eigene Suppe kochen.

Mit PAE, einem Board das die 36 Bit supportet, die aktuelle Prozessoren seit dem Pentium pro unterstützen, und Windows XP ohne SP2, wären die vollen 4GB verwendbar. Da der reservierte Bereich oberhalb der 4GB Grenze gemappt wird.

Für alle: Hier sind mehr Infos zu der Thematik, aber die meisten werden das nicht lesen, dass ist mir schon jetzt klar, leider.

http://blogs.msdn.com/dcook/archive/2007/03/25/who-ate-my-memory.aspx

@ Razor


Oh mann... immer diese "Weisheiten"!
Ohne irgendwelchen Hintergrund wird hier irgendwelcher Unfug behauptet... *grunz*

Nicht gerade die feine Art, besonders wenn seine eigenen Behauptungen nicht nachweisen kann.

Gast
2008-03-21, 22:20:16
Nette Benchwerte, dürfte aber wohl nicht für ungetrübten Spielgenuß reichen. Du kämst einfach zu oft in Fremebereiche, wo die Mikroruckler das Ganze vollends ruinieren.

Ist aber egal, Crysis ist kein Maßstab und in den meisten Spielen dürftest du genug FPS haben, dass die Problematik wenigstens nicht störend wirkt. Machst du noch die vorgeschlagene Frametimemessung (-> vgl. Tombmans Mikroruckler-Thread), mit viel Glück ist das Problem ja vielleicht schon im Treiber beseitigt, das würde die Karte deutlich aufwerten?

Dadi
2008-03-21, 22:24:07
Gast, bitte Link zum Beitrag damit ich mich danach richten kann.

Gerade hab ich noch 1680x1050 ohne AA getestet... Waren auch ansehliche FPS Werte, bei 8AA stürzte die Karte bzw Treiber ab (davor waren Grafikfehler plötzlich auf Island zu sehen... --> BlueScreen - Nv....dll irgendwas war der Grund.

Gast
2008-03-21, 22:26:25
Bitte schön :)
Die SLI-FPS-Lüge – oder warum FPS nicht genug sind ... (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844&highlight=mikroruckler)

Megamember
2008-03-21, 22:28:32
Hmm, das sind grade mal 2 fps mehr als bei mir im Crysis Bench, sicher das Sli aktiviert ist?

http://www.abload.de/thumb/crysisr0j.jpg (http://www.abload.de/image.php?img=crysisr0j.jpg)

Das Auge
2008-03-21, 22:28:58
Oh mann... immer diese "Weisheiten"!
Ohne irgendwelchen Hintergrund wird hier irgendwelcher Unfug behauptet... *grunz*

Also: 256MB für's System und je 256MB pro Karte
= 512MB bei mir (8800GT mit 512MB)
= 768MB bei Dadi (2x G92 mit je 512MB)

Ergo: bei mir bleiben 3,5GB, bei Dadi 3,25GB... wenn das Mainboard mit macht.
Mit Windows hat das überhaupt nichts zu tun... da gibt es lediglich die Beschränkung auf 4GB (2GB System, 2GB je Anwendung).

Kann ich so nicht bestätigen, unter XP32 hab ich mit meiner GT512 trotzdem nur 3,25GB. Außer einer X-Fi _ohne_ extra Ram ist auch sonst keine weitere Karte drin.

Btw. kann man Windows auch in der boot.ini mit dem /3GB switch dazu bringen mehr als 2GB für Anwendungen bereitzustellen.

Gast
2008-03-21, 22:30:57
(...) bei 8AA stürzte die Karte bzw Treiber ab (davor waren Grafikfehler plötzlich auf Island zu sehen... --> BlueScreen - Nv....dll irgendwas war der Grund.
Dürfte am relativ geringen VRAM liegen, solche Abstürze liest man auch öfter mal in Reviews von 512MB-Nvidia-Karten in extrem speicherintensiven Settings.

BTW: Deine Signatur stimmt so nicht ganz, verbaut sind zwar 1024MB, aber effektiv nutzbar nur 512MB. Die Karte wird von den Shops daher auch richtig mit 2x512MB ausgezeichnet, nicht mit 1024 (obwohl 2x1024MB sicher schön wären).

dargo
2008-03-21, 22:57:23
AA AUS 1280x1024

21.03.2008 22:04:40 - XP
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
Play Time: 37.31s, Average FPS: 53.60
Min FPS: 0.00 at frame 1380, Max FPS: 75.96 at frame 111
Average Tri/Sec: -48970288, Tri/Frame: -913543
Recorded/Played Tris ratio: -1.00
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

8xAA 1280x1024

21.03.2008 22:10:38 - XP
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1280x1024, AA=8x, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
Play Time: 43.18s, Average FPS: 46.32
Min FPS: 19.25 at frame 144, Max FPS: 61.58 at frame 993
Average Tri/Sec: -40961984, Tri/Frame: -884288
Recorded/Played Tris ratio: -1.04
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Hier sieht man sehr schön, dass mit 8xAA der Vram fehlt (min.fps).

Edit:
Hast du eigendlich 8xMSAA genommen oder 8xQMSAA?

cl55amg
2008-03-21, 23:01:08
Kann ich so nicht bestätigen, unter XP32 hab ich mit meiner GT512 trotzdem nur 3,25GB. Außer einer X-Fi _ohne_ extra Ram ist auch sonst keine weitere Karte drin.


Wie schon gesagt, so funktioniert es nunmal nicht, wie Razor es beschrieben hat.
Fast alles das ich zu dem Thema hier las, ist zweifelhaft bis falsch.
Man kann das Thema jetzt eigentlich abhaken, mehr kann man dazu nicht mehr schreiben.

Im Endeffekt ist es auch nicht wirklich relevant...

pest
2008-03-21, 23:04:27
Kann ich so nicht bestätigen, unter XP32 hab ich mit meiner GT512 trotzdem nur 3,25GB. Außer einer X-Fi _ohne_ extra Ram ist auch sonst keine weitere Karte drin.


liegt am Board, ich hab 3.5GB mit GT512

cl55amg
2008-03-21, 23:08:14
liegt am Board, ich hab 3.5GB mit GT512

Mit einem Asus P5B hast du, 2.9GB.
Das Gigabyte von einem bekannten, stellt 3.1 GB zur Verfügung.

Das dies Boardabhängig ist habe ich ja schon geschrieben.

Das Auge
2008-03-21, 23:12:49
Mit einem Asus P5B hast du, 2.9GB.
Das Gigabyte von einem bekannten, stellt 3.1 GB zur Verfügung.

Das dies Boardabhängig ist habe ich ja schon geschrieben.

Auch wenns jetzt langsam OT wird (sry :redafce:), es interessiert mich halt: Inwieweit beeinflusst das Board die Speicherverwaltung von XP?

cl55amg
2008-03-21, 23:22:16
Auch wenns jetzt langsam OT wird (sry :redafce:), es interessiert mich halt: Inwieweit beeinflusst das Board die Speicherverwaltung von XP?


Jetzt bin mal wieder fassungslos, das habe ich ein paar posts weiter
oben geschrieben:


Für alle: Hier sind mehr Infos zu der Thematik, aber die meisten werden das nicht lesen, dass ist mir schon jetzt klar, leider.

http://blogs.msdn.com/dcook/archive/2007/03/25/who-ate-my-memory.aspx

Das Auge
2008-03-21, 23:25:12
Haha, voll ins Fettnäpfchen ;D

Warum und wieso ist ja egal, ich hab das Posting jedenfalls beim zitieren übersehen. Aber danke dennoch :)

cl55amg
2008-03-21, 23:38:19
Haha, voll ins Fettnäpfchen ;D

Warum und wieso ist ja egal, ich hab das Posting jedenfalls beim zitieren übersehen. Aber danke dennoch :)

Naja lies es dir mal durch, falls es mit Englisch Probleme gibt, dann schreibe ich dir gerne nochmal was dazu.

Glaub mir meinen Link wird fast niemand lesen, alles was länger ist als eine Überschrift, und dann vielleicht noch Englisch, da steigen die meisten aus.
Und manche die es doch lesen, machen das nicht richtig und verstehen die Hälfte falsch. (Pisa lässt grüßen)

Gast
2008-03-21, 23:49:18
wenn man unter vista DEP ausstellt ist PAE auch aus,nur zur Info.

Das Auge
2008-03-22, 00:08:03
@cl55amg

My English isn't that bad, but thanks for asking. So the problem is a compatibility feature introduced with XP SP2, right? Well, as long as there's no way to disable this "on your own risk" we've got to live with it. To be honest, this "problem" doesn't even bother me at all, I was just curious what's behind the different usable memspace on various systems running XP ;)

Doomi
2008-03-22, 00:11:54
ich hab auch 3,5 mit ner 8800 GT aber vorher hatte ich ne 7800 GTX MB Ram, da hatte ich auch 3,5 GB .. schon komisch...

tombman
2008-03-22, 00:35:31
Doch downgrade. Oder hast du auf den PC in 720p ohne AA und AF gespielt?
:rolleyes: GT5 habe ich auf dem PC GAR NICHT gespielt, insofern ist ein UPGRADE um unendlich % ;)

LovesuckZ
2008-03-22, 00:39:00
Hier sieht man sehr schön, dass mit 8xAA der Vram fehlt (min.fps).


Ich seh bei 8xMSAA höhrere min FPS. ;D

Das Auge
2008-03-22, 00:39:13
:rolleyes: GT5 habe ich auf dem PC GAR NICHT gespielt, insofern ist ein UPGRADE um unendlich % ;)

Kannst ja auch noch 7 Jahre oder so warten, dann gibts den PS3-Emulator für den PC ;)

tombman
2008-03-22, 00:41:04
Kannst ja auch noch 7 Jahre oder so warten, dann gibts den PS3-Emulator für den PC ;)
tombman+ warten = BSOD ;D

@dadi, wennst 100% wissen willst ob SLi rennt, dann schau dir die pixel und vertex shader Tests in 3dm06 an. Die sind eindeutig. (SLI an/aus -> vergleichen)

dargo
2008-03-22, 00:44:20
Ich seh bei 8xMSAA höhrere min FPS. ;D
Hoppala, ich habe gedacht die 37 wären die min.fps. X-D
Bin wohl schon müde. :usad:

cl55amg
2008-03-22, 01:43:54
@cl55amg

My English isn't that bad, but thanks for asking. So the problem is a compatibility feature introduced with XP SP2, right? Well, as long as there's no way to disable this "on your own risk" we've got to live with it. To be honest, this "problem" doesn't even bother me at all, I was just curious what's behind the different usable memspace on various systems running XP ;)

With PAE XP could provide the full 4GB but Microsoft disabled it because of compatibility issues with third party software.
There is no need to bother, because it doesn't really matter at all.

cl55amg
2008-03-22, 11:25:41
1280x1080 um genau zu sein ;)

Das glaube ich nicht. Das wäre kein korrektes Seitenverhältnis.

Bisher haben die TVs an denen ich die PS3 angeschlossen hatte, immer 720p als input Signal angezeigt.
1280x1080 wäre noch schlimmer als die Tatsache, dass die PS3 nur in 720p ausgibt.

Undertaker
2008-03-22, 11:29:44
Du wirst irgendwo in einem Menü die Ausgabeauflösung der PS3 einstelle können, steht wohl im Moment auf 720p. Das die Auflösung kein 16:9 Seitenverhältnis ist hat nix zu sagen, Pixel müssen nicht quadratisch sein ;)

Razor
2008-03-22, 11:49:45
Klick! (http://62.109.81.232/cgi-bin/sbb/sbb.cgi?&a=show&forum=1&show=5316&start=0#anfang)

Ist jetzt nicht gerade eine atemberaubende Quelle, wurde so aber auch schon offiziell im Gigabyte-Forum von Gigabyte-Mitarbeitern bestätigt. Dank der gammeligen Suchfunktion finde ich allerdings nichts besseres, zur Not frag einfach selbst im Gigabyte-Forum nach.
'Athemberaubend' ist wahrlich nicht das richtige Wort... ;)
Ich weiß, dass dieses Gerücht schon lange kursiert, aber offiziell bestätigt wurde es nicht.

Ich selber habe auf jeden Fall keine Probleme mit der Vollbestückung (4x 1GB).

Aber danke für den Link... ich werde bei Gigabyte mal selber anfragen.

DX9 1280x1024, AA=No AA
DX9, 1280 ohne AA und vermutlich auch kein AF... etwa 'qaulity' im Treiber angelassen?
Suuuuuuper...
:uclap:

Probiers doch mal lieber mit "very high" (D3D10) und höheren Auflösungen.
(den relativ kleinen Speicher mit 8xAA zuzuballern bringts ja nun wirklich nicht ;-)

Genau, da es falsch ist was du gesagt hast. Es war jedenfalls zum Teil richtig.
Nicht die Anzahl der Grafikkarten, sondern das Board (genauergesagt das Bios)
entscheidet wieviel RAM für Bios, I/O PCI Bus usw. reserviert werden.
Genau DAS gabe ich geschrieben... und auch den Vorschlag mit dem Bios-Update gemacht.
Hängt von Board und Bios ab... wird zuviel Speicher 'genommen', ist das Board scheiße.
:rolleyes:

Kann ich so nicht bestätigen, unter XP32 hab ich mit meiner GT512 trotzdem nur 3,25GB. Außer einer X-Fi _ohne_ extra Ram ist auch sonst keine weitere Karte drin.
Board, Chipsatz, aktuelles Bios :confused:

Btw. kann man Windows auch in der boot.ini mit dem /3GB switch dazu bringen mehr als 2GB für Anwendungen bereitzustellen.
Ganz schlechte Idee... kann Inkompatibilitäten bedeuten und manchmal reicht dem System die 1GB maximal nicht!
Mit 3GB-Switch gibts fürs System nur noch 1GB maximal, für die Anwendungen dann 3GB... wenn sie es unterstützen.

Kann nur generell davon abraten.
Lieber 64Bit OS installieren und das Problem an der Wurzel packen, wenn es denn schon sein muss...

liegt am Board, ich hab 3.5GB mit GT512
Klar tut es das... ob das hier einige wohl begreifen werden?

Auch wenns jetzt langsam OT wird (sry :redafce:), es interessiert mich halt: Inwieweit beeinflusst das Board die Speicherverwaltung von XP?
Die Speicherbelegung durch das Bios des Boards hat REIN GAR NICHTS mit der Speicherverwaltung von Windoof zu tun!
Wenn das Board Speicherbereiche reserviert, dann kann Windoof rein gar nichts daran ändern...
...des OS nutzt lediglich den größten zusammenhängenden Speicherblock des Hauptspeichers (welcher durchs Bios gemeldet wird).

ich hab auch 3,5 mit ner 8800 GT aber vorher hatte ich ne 7800 GTX MB Ram, da hatte ich auch 3,5 GB .. schon komisch...
Daran ist gar nichts 'komisch'.
Mehr als 256MB pro Karte wird nicht reserviert... basta.
Und wenn andere hier meinen, ihr schrottiges Board schön zu reden zu müssen... sollen sie.

Razor

Das Auge
2008-03-22, 12:46:29
Ganz schlechte Idee... kann Inkompatibilitäten bedeuten und manchmal reicht dem System die 1GB maximal nicht!
Mit 3GB-Switch gibts fürs System nur noch 1GB maximal, für die Anwendungen dann 3GB... wenn sie es unterstützen.

Nur dazu kurz was, da sich die Sache mit den verschiedenen Speichergrößen ja nun geklärt hat: Deswegen setzt man im Normalfall hinter den /3GB switch ja auch noch eine uservalue mit bspw. 2,8GB, so daß eben nicht die vollen 3GB genutzt werden.
Ich hab jedenfalls mal ein wenig damit experimentiert und konnte bei dieser Größe keine Instabilitäten o.ä. beobachten. Wirklich bringen tut es für die allermeisten Anwendungen und Spiele aber auch nix ;)

cl55amg
2008-03-22, 13:34:15
Daran ist gar nichts 'komisch'.
Mehr als 256MB pro Karte wird nicht reserviert... basta.
Und wenn andere hier meinen, ihr schrottiges Board schön zu reden zu müssen... sollen sie.

Razor


Deine Ausdrucksweise ist einfach prepubertär. Damit erreicht du schlicht und einfach, dass dich niemand ernst nimmt. Ich weiss nicht wie alt du bist, aber umso schlimmer solltest du schon ein älterer Jahrgang sein...

Ich bitte dich um einen Nachweis, das 256MB pro Karte reserviert werden.
Hier sind einige User die das testen könnten.

Auch wenn du recht hättest, theoretisch, dann ist da noch die individeulle Implemetierung der Boardhersteller.

Nur dazu kurz was, da sich die Sache mit den verschiedenen Speichergrößen ja nun geklärt hat: Deswegen setzt man im Normalfall hinter den /3GB switch ja auch noch eine uservalue mit bspw. 2,8GB, so daß eben nicht die vollen 3GB genutzt werden.
Ich hab jedenfalls mal ein wenig damit experimentiert und konnte bei dieser Größe keine Instabilitäten o.ä. beobachten. Wirklich bringen tut es für die allermeisten Anwendungen und Spiele aber auch nix ;)

Ja absolut richtig, über usevalue kann das justieren und gute Ergebnisse erreichen. Angesichts von 64 Bit Systemen ist das auch schon wieder "Vergangenheit".

Du wirst irgendwo in einem Menü die Ausgabeauflösung der PS3 einstelle können, steht wohl im Moment auf 720p.


Was willst du mir denn jetzt damit sagen? Was hat das mit dem Menü zu tun?
Die PS3 rendert intern in 720p gibt das an den LCD weiter und der LCD weisst es korrekt als 720p Signal aus. Unabhängig davon, ob das PS3 Menü auf auf 1080p laufen lässt. Das ist allseits bekannt und bedürftigt keiner Diskussion.

Undertaker
2008-03-22, 14:06:49
Was willst du mir denn jetzt damit sagen? Was hat das mit dem Menü zu tun?
Die PS3 rendert intern in 720p gibt das an den LCD weiter und der LCD weisst es korrekt als 720p Signal aus. Unabhängig davon, ob das PS3 Menü auf auf 1080p laufen lässt. Das ist allseits bekannt und bedürftigt keiner Diskussion.

Öhm, man kann die PS3 nicht zwingen, ein 720p Spiel hochskaliert auf 1080p ausgeben zu lassen?? Würde mich doch sehr wundern...

An der Tatsache, das GT5P 1280x1080 ist ändert das zumindest nix...

4711
2008-03-22, 14:19:13
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6372926#post6372926
und schöö es nervt!

cl55amg
2008-03-22, 14:21:06
Öhm, man kann die PS3 nicht zwingen, ein 720p Spiel hochskaliert auf 1080p ausgeben zu lassen?? Würde mich doch sehr wundern...

Öhm, nein man kann nicht, jedenfalls nicht bei den meisten Spielen. Die Xbox360 skalliert hoch, was aber ziemlich wurscht ist. Es ist und bleibt keine richtige 1080p Ausgabe.

Bei der Xbox360 habe ich zwischen 720p und hochskalliertem 1080p keinen Unterschied gesehen bei Dirt.



An der Tatsache, das GT5P 1280x1080 ist ändert das zumindest nix...

Ja mag sein...schade ist, denn man kann auf keinem LCD, keine der Auflöungen nativ zuspielen. Eines der größten Mankos der aktuellen Konsolen.

BadONE
2008-03-22, 15:26:57
Habe jetzt auch eine BFG 9800 GX2, soweit alles Paletti ..

Karte lief sofort ohne Probleme. Dankenswerterweise war der 6-8-Pin Adapter bei der Karte dabei, also kein Problem für mein Corsair 620 HX Netzteil.

Karte steckt in einem mATX Gigabyte board (in einem Silverstone SG01 mit Fenstern, wodurch die LED's nett zur Geltung kommen. Sozusagen SLI in einer Lanbox ..

Angespielt bisher COD4 MW, was butterweich läuft (kann beim besten Willen keine Mikroruckler feststellen) und Crysis (1900x1200 ohne AA, Framerate +70% circa (vorher 8800 GTX), sehr gut spielbar jetzt.

Kann die Noiselevel-Tests von Computerbase nicht ganz nachvollziehen, Karte kommt mir nicht lauter vor als die GTX, eher leiser, hm ..

Bezahlt für die Karte 435 Euronen + Versand (Primustronix), Karte ist nach den ersten Tagen schon erheblich billiger geworden ..

Gast
2008-03-22, 15:47:15
Angespielt bisher COD4 MW, was butterweich läuft (kann beim besten Willen keine Mikroruckler feststellen)

COD4 läuft bei dir bestimmt auch nicht mit ~30 FPS...

Luke007
2008-03-22, 16:12:35
BadONE kannst du bitte die Frametimes nachmessen?
Hier steht wie das geht: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844&highlight=mikroruckler

Und bitte eine oder mehrere Szenen nehmen wo man um die ~33fps hat und sich auch bewegt.

tombman
2008-03-22, 16:19:23
(kann beim besten Willen keine Mikroruckler feststellen)
Oh Mann, sorry, aber das hat nichts mit Willen sondern mit MESSEN zu tun :rolleyes:

35007
2008-03-22, 16:37:50
@DADI:

Wenn ich deinen Leidensweg so mitverfolge, tust du mir wirklich Leid (ohne Sarkasmus oder Ironie).

Es ist sehr ärgerlich, wenn man mit einem neuen, sehr teuren Stück Hardware ankommt und nicht läuft. Inzwischen hast du sicher schon fast das doppelte des Kartenpreises ausgegeben.

Wünsche noch viel Erfolg.

35007

BadONE
2008-03-22, 17:21:28
Oh Mann, sorry, aber das hat nichts mit Willen sondern mit MESSEN zu tun :rolleyes:

Sorry auch, denke aber, das hat eher was mit der menschlichen Wahrnehmung zu tun, auf die kommt es doch letztendlich an oder?

Was man vielleicht messen oder aufzeichnen kann, interessiert mich eigentlich weniger, solange ich es nicht wahrnehme.

Werde aber heute oder morgen mal die Frametimes messen, wenn ich Zeit habe.

Aber wie gesagt, subjektiv merke ich nichts dergleichen, vieleicht drücke ich die Frameraten mal in den unteren Bereich (mit AA sehr hoch usw.), um die Mikroruckelgeschichte zu checken, aber auch bei Crysis (um die 30-40 FPS mit Ultraquality.cfg) ist mir nix aufgefallen, alles butterweich.

MartinRiggs
2008-03-22, 17:58:52
manche sollten vielleicht eher mal zocken anstatt jeden furz zu messen:biggrin:

cR@b
2008-03-22, 18:03:48
Sorry auch, denke aber, das hat eher was mit der menschlichen Wahrnehmung zu tun, auf die kommt es doch letztendlich an oder?

Was man vielleicht messen oder aufzeichnen kann, interessiert mich eigentlich weniger, solange ich es nicht wahrnehme.

Werde aber heute oder morgen mal die Frametimes messen, wenn ich Zeit habe.

Aber wie gesagt, subjektiv merke ich nichts dergleichen, vieleicht drücke ich die Frameraten mal in den unteren Bereich (mit AA sehr hoch usw.), um die Mikroruckelgeschichte zu checken, aber auch bei Crysis (um die 30-40 FPS mit Ultraquality.cfg) ist mir nix aufgefallen, alles butterweich.

Geb mir deine Wahrnehmung, dann hol ich mir die Karte auch. War gerade bei nem Kumpel und seiner 9800 GX2 und ich sehe das Gehackel sofort! Ist echt ätzend :eek: Die sollten wirklich mal was dagegen tun wenn sie mehr Leute erreichen wollen ;)

Gast
2008-03-22, 18:18:50
manche sollten vielleicht eher mal zocken anstatt jeden furz zu messen:biggrin:


Ich denke es, einer schreibts. DANKE!

Luke007
2008-03-22, 18:23:58
manche sollten vielleicht eher mal zocken anstatt jeden furz zu messen:biggrin:
Solche sinnlosen Beiträge bitte unterlassen, führt doch zu nichts. Tatsache ist das es diese Mikroruckler gibt. Hatte selbst zuerst eine 8800GT und nun 2x8800GT@SLi und die Mikroruckler kann ich nicht nur nachmessen sondern auch sehen.
Am meisten stören mich die Mikroruckler bei Need for Speed ProStreet Demo (vorallem wenn man Nitro nutzt ;D). Mit dem FPS Limiter (auf 45fps gesetzt) läuft das schön sanft.

BadONE
2008-03-22, 18:25:21
Geb mir deine Wahrnehmung, dann hol ich mir die Karte auch. War gerade bei nem Kumpel und seiner 9800 GX2 und ich sehe das Gehackel sofort! Ist echt ätzend :eek: Die sollten wirklich mal was dagegen tun wenn sie mehr Leute erreichen wollen ;)

Nun, der Mensch sieht meist das, was er sehen möchte, das gilt vielleicht für Dich, vielleicht auch für mich. Jedenfalls bin ich froh, nicht mit deiner Sensorik ausgestattet zu sein ..

Interessant ist, dass die Mikroruckelgeschichte vor allem in D diskutiert wird, in englischen Foren ziemlich Fehlanzeige! Was die Wahrnehmung angeht, denke ich, verwechseln manche das Mikroruckeln mit Framedips (gibts bei Multigpu eventuell mehr als bei Singlekarte), messtechnisch gesehen ist es natürlich etwas anderes.

Razor
2008-03-23, 10:29:25
Auch wenn du recht hättest, theoretisch, dann ist da noch die individeulle Implemetierung der Boardhersteller.
Ja... Board-/Chipsatz- und Bios-Abhängig.
Bei den einen gut, bei den anderen schlecht...

Nichts anderes habe ich geschriben.
Und wenn Dir meine Ausdrucksweise nicht gefällt, dann "lies" einfach nicht hin, gell?
;)

Razor

cl55amg
2008-03-23, 13:08:48
Bei den einen gut, bei den anderen schlecht...


Leider konnte ich nichts finden, wonach es eine eindeutige Regel in Form eines Industriestandarts oder ähnlich gibt, das 256MB pro Grafikkarte reserviert werden.

Nachdem was ich las, ist es den Boardherstellern überlassen. Das hat nichts mit gut oder schlecht zu tun.

Demnach is deine Rechnung nicht korrekt, da es keine feste Regel gibt.
Ich lasse mich gerne umstimmen wenn du mir nachweisen kannst, dass einen Standart gibt der eine Reservierung von 256MB RAM pro Grafikkarte definiert.

Gast
2008-03-23, 13:23:32
Nachdem was ich las, ist es den Boardherstellern überlassen. Das hat nichts mit gut oder schlecht zu tun.

Mal unabhängig von einem existierenden Standard, das Bessere ist der Feind des Guten. Solange keiner ein Board nennt, das weniger als 256MB pro Grafikkarte reserviert, ist dies aus Endnutzersicht die beste Lösung. Boards, die mehr Speicher reservieren kann man aufgrund der offensichtlichen Nachteile für den Nutzer in Bezug auf diesen Punkt also ruhig als schlecht bezeichnen.

Einverstanden?

cl55amg
2008-03-23, 13:26:21
Mal unabhängig von einem existierenden Standard, das Bessere ist der Feind des Guten. Solange keiner ein Board nennt, das weniger als 256MB pro Grafikkarte reserviert, ist dies aus Endnutzersicht die beste Lösung. Boards, die mehr Speicher reservieren kann man aufgrund der offensichtlichen Nachteile für den Nutzer in Bezug auf diesen Punkt also ruhig als schlecht bezeichnen.

Einverstanden?


Nein. Denn auch dies könnte wiederrum ein Vorteil sein...
Daher möchte ich mich nicht auf gut oder schlecht festlegen, da
man sich mit den Auswirkungen im Detail befassen müsste.

Dadi
2008-03-23, 19:36:13
Sorry Leute, ich war über die zwei Tage sehr bschäftigt mit dem Zocken, Benchs gibts dann morgen, sind weiter beschäftigt (Besuch...)

Die Karte ist nicht nur da um Benchs zu machen, sodnern auch kräftig zu spielen...

Bis später

Zauberer
2008-04-10, 23:07:21
Nochmal, XP hat mit der Adressierung des Grafikspeicher nix, aber auch rein gar nix am Hut ;(
Ach ja? Zur Info, ich habe 4 GB Speicher in meinem Rechner.
Warum hatte ich mit meiner ATI 512 MB, 3,5 GB nutzbaren Speicher, wird im Taskmanager und im Windows System angezeigt.

Als ich dann die 8800 GTX mit 768 MB hatte, waren es nur noch 3,25 GB.
Jetzt wo die 9800 GX2 drin ist, habe ich nur noch 3 GB.
Also XP (32 Bit) kann nur 4 GB Adressieren, inkl. CPU-RAM, und GPU-RAM.
Belehre mich gerne eines besseren!

PHuV
2008-04-10, 23:35:14
Ach ja? Zur Info, ich habe 4 GB Speicher in meinem Rechner.
Warum hatte ich mit meiner ATI 512 MB, 3,5 GB nutzbaren Speicher, wird im Taskmanager und im Windows System angezeigt.

Als ich dann die 8800 GTX mit 768 MB hatte, waren es nur noch 3,25 GB.
Jetzt wo die 9800 GX2 drin ist, habe ich nur noch 3 GB.
Also XP (32 Bit) kann nur 4 GB Adressieren, inkl. CPU-RAM, und GPU-RAM.
Belehre mich gerne eines besseren!

Er hat schon recht, Windows hat nichts mit dem Grafikspeicher an sich zu tun, es ist die Hardware, welche in die unteren Adressbereiche reinmappt.

Gast
2008-04-11, 00:02:22
manche sollten vielleicht eher mal zocken anstatt jeden furz zu messen:biggrin:


Wenn interessiert schon ein Spiel wenns den SchwanzMark gibt ;-))

Zauberer
2008-04-11, 11:57:51
Er hat schon recht, Windows hat nichts mit dem Grafikspeicher an sich zu tun, es ist die Hardware, welche in die unteren Adressbereiche reinmappt.
Danke für die Erklärung, es bleibt aber ja dabei, mit Windows 32 Bit, ist das echt blöd, obwohl 3 GB reichen da noch, ich überlege echt auf VISA 64 Bit umzusteigen, die Home Premium ist auch gar nicht so teuer.
Da gibt es günstige System Builder Versionen, kann man die auch verwenden?
Sorry für Off-Topic, aber mit ca. 80€ wäre man dabei. Klinkt cool im Vergleich zu über 150€.
------------------------------------------------------------------------------------------------------

So mal On-Topic:
Geb mir deine Wahrnehmung, dann hol ich mir die Karte auch. War gerade bei nem Kumpel und seiner 9800 GX2 und ich sehe das Gehackel sofort! Ist echt ätzend :eek: Die sollten wirklich mal was dagegen tun wenn sie mehr Leute erreichen wollen ;)
Na ja, ich habe jetzt auch nur gezockt und nur Fraps mitlaufen lassen um die Frames zu dem Wahrgenommenen zu sehen.
Eins vor Weg, ich habe mir wegen Crysis die Karte gekauft, und würde Sie zurückschicken, wenn es den Framelimiter nicht geben würde.

Fakt ist, ich habe bei PES 2008 (läuft nur mit einer GPU) und bei CoD 4 (läuft mit voller SLI Unterstützung) so was wie Ruckeln nicht feststellen können.
Ich spiele auf einem 28" TFT auf 1920x1200 und vSync an.

Auch in 1920x1200 mit 4xAA, 16xAF, Qualität im Treiber aufs höchste gestellt, lief CoD 4 immer butterweich mit 60 FPS (vSync).

Gut dafür habe ich Karte nicht gekauft.
Crysis läuft ohne vSync um die 30-45 FPS, in 1920x1200 16AF, alles unter WinXP so hoch wie möglich, nur "ohne" AA.

Dann habe ich mal gespielt mit vSync, und wenn man in Bewegung war, was ist das?
30 FPS, aber da ruckelt doch was.
Ich konnte mit Fraps nicht die Frame-Times messen, aus irgend einen Grund geht das nicht obwohl ich es angeklieckt habe.
Liegt es am GeForce 174.74 Treiber?
Muss man die Fraps-Full haben (kaufen)?

Na ja man wird wahnsinnig, mal flüssig, dann scheinbar flüssig, aber hier und da, zak zak zak.
Es ist ca. so als wenn man Festplatten-Nachlader hat, da geht auch von Spiel zu Spiel, hin und wieder, ganz kurz die FPS nach unten, hier ist dies nur "viel feiner", aber viel öfter hintereinander.

So wie ein Hornissenstich gegen 10 Bienenstiche, entscheidet selber was besser ist. (Mir wäre da ein einzelner Stich lieber.)

Fakt ist, nach dem ich 15 Min gezockt habe und eine Stunde nach dem Framelimiter gesucht habe, war ich Glücklich.
Ich hätte nie gedacht, das 30 FPS, so schön sein können!
Besser wären wohl 60FPS, aber da braucht man wohl Quad SLI.
Auch ja als CPU kommt ein E8500 zum Einsatz, spielt aber bei der Auflösung bestimmt keine große Rolle.

So aber die Karte hat mir den letzten Nerv geraubt, gut das jetzt alles ok ist.
------------------------------------------------------------------------------------------------------

Aus Technischer Sicht ist die Karte Crap, ich habe einen ganzen Tag gebraucht um spielen und Videos schauen zu können.
Ich hatte vorher eine 8800 GTX (ok, die habe ich immer noch im Karton), mit einen Viewsonic 2835WM, da lief alles wunderbar, nur die FPS waren in Crysis unter 1920x1080 zu niedrig.

Dann die 9800 GX2 eingebaut, und nichts lief so wie es soll.

Der blöde NVIDA Treiber erkennt, den Monitor als HDMI-Fernseher, der TFT hat auch keinen DVI-Eingang, sonder nur einen HDMI.
Man schießt ihn mit einem HDMI zu DVI Kabel an, ging auch mit der 8800 GTX wunderbar.

So mit der 9800 GX2 denkt die Karte es wäre ein 1920x1080 HDMI TV, toll er hat aber 1920x1200, entweder man kann die Startleiste und oben nichts sehen, oder man hat einen schwarzen Rand sogar ringsrum, aber dann sieht man die Startleiste auch nicht und ringsrum sieht man auch nicht alles.
Man kann aber ins dunkel Schwarze klicken, um z.B. das Startmenu aufzurufen, es ist da, aber nur Schwarz halt.
Oder man stellt den am TFT auf Vollbild-Skalierung um, dann ist das Bild schrecklich skaliert, aber man sieht die Startleiste.

Das Problem sollten eigentlich viele HDMI-LCD-PC-Monitore haben die mit einer naiven 16:10 Auflösung arbeiten.
HDMI und DVI, sind technisch scheinbar gleich, denn egal ob ich über HDMI-HDMI anschließe oder DVI-HDMI, das Bild ist crap.
Dank Viewsonic VISTA-Monitor-Treiber (ich habe XP, hat aber geholfen) verschwanden die Balken und man hatte ein normales volles Bild.
Das Problem lag wohl daran das der NVIDIA Treiber nicht mit dem HDMI-LCD-Monitor (16:10) klar kommt.
Nachdem man die Monitortreiber installiert war es ok.

Dann sah das Bild immer noch crap aus, da die Farben grell waren, und die Helligkeit auch sehr hoch, obwohl ich den TFT auf die gleiche Helligkeit wie vorher gestellt habe.
Das werden wohl vordefinierte nicht änderbare Gamma- und Farbverlaufeinstellungen gewesen sein.
Die Schärfe war auch für'n Popo, das scheint ein HDMI-TV Modus zu sein, k.a. ob es jetzt an der Karte oder am TFT liegt.

So Problem ließ sich lösen, indem man den 2 Anschluss der Karte nimmt, der kann scheinbar kein HDMI HDCP oder was auch immer, der 2. Anschluß ist ein reiner DVI-Anschluss.
Siehe da umgestellt, auf 2. Anschluss alles wunderbar.
Aber mann kann dann keine Videos schauen, da scheinbar es immer auf dem 1. Monitor wiedergegeben wird.
Auch wo ich PES zocken wollte, blieb der Bildschirm Schwarz.
Nur Word und Excel sehen auf einer 9800 GX2, genau so gut aus wie auf der alten 8800 GTX.

Lösung SLI aus, auf Multimonitor eingestellt, dann konnte man auch wieder Videos auf beiden TFTs schauen, gut das ich noch einen 2. TFT habe, sonst hätte ich wohl immer umstecken müssen.

Nachteil, dann wird der Monitor wieder als HDMI-Fernseher erkannt, da im Multimonitorbetrieb scheinbar so gedacht ist, falls man wirklich einen Fernseher über HDMI anschießt, so das man da Filme schauen kann.

Leider ist das Bild dann wieder Crap, weil der TFT dann denkt er sei ein Fernseher, und die Grafikkarte auch denkt der TFT sei ein HDMI-Fernseher.
Farben, Helligkeit, alles grell und hell, wieder versteckte und nicht änderbare Farbverlauf und Gamma Einstellungen, wie gesagt k.a. ob es jetzt an der Karte oder am TFT liegt.

So habe in einem Forum nach Stundenlangen rumprobieren und suchen gefunden.
Warum integriert NVidia nicht so was im Treiber, das HDMI-TV optional nur als LCD-PC-TFT erkannt werden?
Bzw, das man selber entscheiden darf welches Gerät ein TV ist und welches ein Monitor?

So Monitor Treiber wieder deinstalliert, NVidia Treiber deinstalliert.

Und per Hack im Treiber eine Zeile eingefügt, die bewirkt, das der NVIDA-Teiber den TFT als Monitor erkennt, egal ob man jetzt den DVI oder HDMI-Anschluss nimmt.
Nur eine Zeile hat alle Probleme gelöst, und ich habe mich riesig gefreut.

Kann sein, das jetzt HDCP nicht mehr geht, das ist ein super Nebeneffekt, da man dadurch Slysoft etwas unterstützen kann, und gegen diesen HDCP CRAP was unternimmt!

Ich wette ohne diese HDCP-HDMI Sch... hätte ich keine Probleme gehabt.
Denn die 8800 GTX, wurde nicht als HDCP fähig eingestuft, ich konnte über Power DVD z.B. ohne Anydvd HD keine original gekauften HD-DVD schauen.
Da hieß es immer die Karte sei nicht HDCP fähig.
Der HDMI-Monitor ist aber voll HDMI und HDCP fähig.

Darum muss es am HDCP liegen, dadurch ging es mit der 8800 GTX (ohne HDCP) wunderbar, und mit der 9800 GX2 (mit HDCP) hat man nur crap, weil ich dadurch einen HDCP-PC hatte und der TFT als HDCP-TV erkannt wird.
Skalierung, Overscan, Gamma, alles Probleme die ich hatte.

Wie gesagt par Treiberhack, wird der TFT als Monitor erkannt, und dadurch greifen evtl. die HDMI-HDCP Geschichten nicht.

Hat den kein anderer Probleme mit seiner 9800 GX2 und seinem HDMI-HDCP-TFT (16:10 Seitenverhältnis?)
Wäre interessant, ob der TFT oder die Karte diese komische Schärfe, Gamma- und Farbverläufe erzwingt.

Wie gesagt ein 10 Sekunden NVIDIA Hack schaft Abhilfe.

Schon lustig man kauft sich einen Full HD TFT, und die schnellste Grafikkarte, und man muss Stunden kämpfen, ich hoffe Ihr bleibt verschont! :)

Gast
2008-04-11, 20:34:59
Warum integriert NVidia nicht so was im Treiber, das HDMI-TV optional nur als LCD-PC-TFT erkannt werden?
Bzw, das man selber entscheiden darf welches Gerät ein TV ist und welches ein Monitor?

kann man doch.

Gast
2008-04-11, 22:56:01
1.) BIOS kann man unter Windows updaten mit den Hauseigenen Asus-Tool ;)
Internetverbindung muss natürlich gegeben sein.

2.) Wenn das Laufwerk ständig leuchtet, lässt gerade das auf einen Fehler im System (Bios, RAM, MoBo) schließen!


wenn das floppy ständig leutet ist einfach nur das kabel falschrumreingesteckt

crux2005
2008-04-11, 23:17:46
30 FPS, aber da ruckelt doch was.
Ich konnte mit Fraps nicht die Frame-Times messen, aus irgend einen Grund geht das nicht obwohl ich es angeklieckt habe.
Liegt es am GeForce 174.74 Treiber?
Muss man die Fraps-Full haben (kaufen)?

Crysis D3D 10 ? dann reagiert FRAPS irgendwie langsamer, musst 3x oder mehr mal "record" druecken ;)

Christi
2008-04-19, 16:43:42
Die Karte ist nicht nur da um Benchs zu machen, sodnern auch kräftig zu spielen...

Bis später


das ist doch mal eine weise aussage. recht hat er, dieses benchmark gesültze kann man ja net mehr hören. was du hast nur 15900pt. im 3dmurks06- aber schnell einen 1000 € quad gekauft:wink:

die karte ist nur für eines da und das ist zocken- und langsam ist das teil logischerweise auch net.
ich wünsche "dadi" viel spaß bei zocken und weniger zeit in benchmarks:) einmal testen und gut ist. zum zocken hat er das teil ja schließlich gekauft.

mfg