PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 9800 GX2 auf p5w DH Deluxe


Gast
2008-01-11, 08:50:49
Hallo leute

ich habe eine frage, und zwar möchte ich eine sollche graka auf dem mainboard betreiben. Das Sollte eigentlich voll funktionieren oder ? Es ist ja eine karte, und nicht 2 einzelne die man zusammen koppelt. Oder muss ich da noch das mainboard wechseln ? ist ja crossfire

Mfg Mike

:o)Uhummel
2008-01-11, 09:06:53
Nein, es geht nicht. Dein Board hat nen Intel-Chipsatz. Diese bieten keinerlei SLI-Unterstüzung!
Die 9800 GX2 ist ja ein SLI-Verbund von 2 (Sehr wahrscheinl.) G92-Chips auf einer Platine. Da Intel keinen SLI Support bietet schaust Du in die Röhre. Hast glaub Crossfire und SLI verwechselt. Gruß ;o)Uhum

=Floi=
2008-01-11, 09:13:38
das wird doch funktionieren,weil es bei GF7 GX2 auch funktionierte (treibersache)
trotzdem kann ich von der karte nur abraten!

Gast
2008-01-11, 09:16:49
Eben floi bei der gfroce 7950 x2 funktionierte es auch. warum ratest du von der karte ab ?

mfg Mike

:o)Uhummel
2008-01-11, 09:19:45
OK, dann funkioniert es aber nur mit speziellen Treiber - oder Bios-Versionen,oder? Glaube kaum, daß SLI (Auch wenn auf einem Graka-Board) einfach so auf Intel-Platinen funktioniert.

Gast
2008-01-11, 09:22:09
vielleicht eben weil man nur einen pice besetzt und das problem so umgehen kann ?

Mfg Mike

Gast
2008-01-11, 09:26:30
Was ich denke das einfach quad sli nicht funktioniert auf dem board.......:-)

Mfg Mike

J0ph33
2008-01-11, 09:46:08
wird laufen, alles andere wäre wahnsinn....die 7900GX2 lief auch auf Intel Boards mit jedem Treiber/Bios

man braucht nicht mal 2*PCI-E auf dem Board, ein PCI-E-Switch ist auf der Karte, der Treiber regelt den Rest...

Q-SLI wird natürlich nicht gehen

AnarchX
2008-01-11, 11:40:20
NV GX2- und ATi X2-Karten laufen natürlich auf non-SLI/CF Boards, da sie eine PCIe-Bridge verbaut haben, die den genutzten Port für beide GPUs aufteilt und diese wird dann auch vom Treiber angesprochen bzw. ist nur für diese SLI freigeschalten auf non-CF/SLI-Boards.

Also doch vorher mal die 5s Google investieren, bevor man Unsinn verzapft.:wink:

Fatality
2008-01-11, 11:48:39
die 9800 gx2 besteht nur aus 2 88er gts chips der neuen generation (g92).
daher dürfte sich sich nicht zur 9er serie dazuzählen eigentlich.

ich warte auf eine 98er gtx märz/april :D

Gast
2008-01-11, 18:12:43
meinst ist die 9800 gtx sinnvoller ?

Mfg Mike

master_blaster
2008-01-11, 19:02:15
meinst ist die 9800 gtx sinnvoller ?

Mfg Mike
Das muss sich noch rausstellen. Wenn sie nur eine 256Bit Speicherinterface hat, (wie die 9800 GX2), dann muss die nicht unbedingt empfehlenswert sein, wenn man 'ne 8800GTX/Ultra hat.

Blackpitty
2008-01-11, 21:23:03
in hohen Auflösungen wird die Karte einbrechen, lohnt sich eher für 1280xXXXX

Grestorn
2008-01-11, 21:43:55
OK, dann funkioniert es aber nur mit speziellen Treiber - oder Bios-Versionen,oder? Glaube kaum, daß SLI (Auch wenn auf einem Graka-Board) einfach so auf Intel-Platinen funktioniert.

Doch natürlich funktioniert das mit allen Treibern. War bei der 7950 GX2 auch so.

Der Treiber erkennt die GX2 und schaltet SLI frei, unabhängig vom verwendeten Chipsatz des Boards.

:o)Uhummel
2008-01-12, 14:08:02
Ok, wieder was gelernt. Thx
Gruß ;o)Uhum

master_blaster
2008-01-12, 16:39:58
Doch natürlich funktioniert das mit allen Treibern. War bei der 7950 GX2 auch so.

Der Treiber erkennt die GX2 und schaltet SLI frei, unabhängig vom verwendeten Chipsatz des Boards.
Auf der Ülatine der GeForce 79X0 GX2 befindet sich ein Chip, welcher SLI ohne das zugehörige Mainboard ermöglicht.

Gast
2008-01-12, 19:53:59
Also ich möchte mehr saft in der Auflösung von 1680/1050. Habe im moment eine 8800 GTX Drin.


Mfg Mike

Hakim
2008-01-12, 20:09:49
Ich hatte vor meiner 88GT eine 7900GX2 Verbaut. Es gab einige intel Mobos wo ein Bios update nötig war damit eine GX2 karte lief. Das betraf aber nicht den P5W.

dargo
2008-01-12, 22:15:06
Das muss sich noch rausstellen. Wenn sie nur eine 256Bit Speicherinterface hat, (wie die 9800 GX2), dann muss die nicht unbedingt empfehlenswert sein, wenn man 'ne 8800GTX/Ultra hat.
Mit 1,6Ghz GDDR4 schon. ;)
Wie oft muss man noch erwähnen, dass nicht das SI sondern die Bandbreite ausschlaggebend ist? :)

master_blaster
2008-01-12, 22:41:25
Mit 1,6Ghz GDDR4 schon. ;)
Wie oft muss man noch erwähnen, dass nicht das SI sondern die Bandbreite ausschlaggebend ist? :)
Dat weiß ick selber, ;)!
Du weisst schon, dass 1.6GHz + 256Bit nicht schenller sind als 384Bit + 1.2GHz!?
Letzters sind in etwa die Daten der Ultra; ergo: der Vortei läuft gegen 0. Wenn es sich um einen reinen Dieshrink handelt, wird ein höherer Coretakt auch nicht viel bringen, weil zumeist die G92 8800er schon teilweise (Speicher)bandbreitenlimitiert sind und diese 1.6GHz ja nicht gesichert sind.
Erstmal abwarten, was am Ende bei rumkommt. Momentan siehts nicht lohnenswert aus.

dargo
2008-01-12, 23:14:31
Dat weiß ick selber!
Du weisst schon, dass 1.6GHz + 256Bit nicht schenller sind als 384Bit + 1.2GHz!?

256Bit mit 1,6Ghz = 102,4GB/s
384Bit mit 1,2Ghz = 115,2GB/s

Das sind gerade mal lächerliche 12,5% mehr. :cool:

Schon mal daran gedacht, dass der G92 effizienter mit Bandbreite umgeht? 102GB/s Bandbreite sind mehr als genug wenn man sich überlegt welche Bandbreite eine G8800GTS@G92 bietet. Das wären dann satte 63% mehr!

Eine G9800GX2 soll laut Gerüchten 30-50% schneller sein als eine G8800Ultra. Dh. eine G9800GTX kann höchstens ~20-30% schneller sein als die Ultra. Du siehst also, dass 102GB/s für diese Leistung locker ausreichen.


Wenn es sich um einen reinen Dieshrink handelt, wird ein höherer Coretakt auch nicht viel bringen, weil zumeist die G92 8800er schon teilweise (Speicher)bandbreitenlimitiert sind und diese 1.6GHz ja nicht gesichert sind.

1. Einem G92 mangelt es nicht an Bandbreite! Ich weiß nicht warum das sich bei einigen in den Köpfen festgefressen hat. In erster Linie fehlt dem G92 die ROP-Leistung. Erst dann käme die Bandbreite.

2. Ail hatte schon öfter >1,5Ghz bei Speicher angedeutet.

Gast
2008-01-13, 10:20:27
lol uhummel informier dich lieber bevor du anderen so nen schrott erzählst -.-

Grestorn
2008-01-13, 10:51:12
Auf der Ülatine der GeForce 79X0 GX2 befindet sich ein Chip, welcher SLI ohne das zugehörige Mainboard ermöglicht.

SLI funktioniert theoretisch mit jedem Board, dass mindestens 2 PCIe 8x Slots hat.

Dass es auf nicht-nVidia Chipsetzen nicht geht, liegt einzig und alleine an einer Abfrage im Treiber und ist demnach eine reine Marketingmaßnahme.

master_blaster
2008-01-13, 11:21:30
256Bit mit 1,6Ghz = 102,4GB/s
384Bit mit 1,2Ghz = 115,2GB/s

Das sind gerade mal lächerliche 12,5% mehr. :cool:
Hmm, die Rechnung verstehe ich nicht: 256Bit & 1.6GHz = 512Bit & 0.8GHz, oder etwa nicht? Wenn doch, dann sind 384Bit und 1.2GHz genauso schnell wie 256Bit und 1.6GHz, aber nicht schneller, :confused:?!

Schon mal daran gedacht, dass der G92 effizienter mit Bandbreite umgeht? 102GB/s Bandbreite sind mehr als genug wenn man sich überlegt welche Bandbreite eine G8800GTS@G92 bietet. Das wären dann satte 63% mehr!
Wo geht der effizienter mit Speicherbandbreite um?

Eine G9800GX2 soll laut Gerüchten 30-50% schneller sein als eine G8800Ultra. Dh. eine G9800GTX kann höchstens ~20-30% schneller sein als die Ultra. Du siehst also, dass 102GB/s für diese Leistung locker ausreichen.
Da ich nochnicht sehe, wo der G92 besser mit seiner Speicherbandbreite umgeht, kapiere ich auch nicht, warum der schneller sein sollte, denn er ist Bandbreitenlimitiert; und dann bringt ein höherer Coretakt nichts. Esseidenn, er ist mit 1.6GHz nicht mehr limitiert.
PS(Hoffentlich verrenne ich mich nicht wieder, ;D).

1. Einem G92 mangelt es nicht an Bandbreite! Ich weiß nicht warum das sich bei einigen in den Köpfen festgefressen hat. In erster Linie fehlt dem G92 die ROP-Leistung. Erst dann käme die Bandbreite.
Dann erkläre mal, warum Die G92s bei der Rohleistung die G80s stehen lassen, bei Qualitätssettings (> 4xAA und 8xAF) die GTX und Utra aber lokker an GT und GTS (G92) vorbeiziehen!? Außerdem: Würde die Bandbreite nicht limitieren, wäre die Differenz zwischen (G92) GTS und GT größer.

@Moderatoren: Ich weiss, das das nicht viel mit Kaufberatung zu tun hat, aber bitte lasst uns das ausdiskutieren; ich habe Wissensdurst, :).

Gast
2008-01-13, 17:43:13
Sagen wir mal ich spiele ein game, in der auflösung von 1680/1050 mit der gtx 8800. Und vergleiche die 9800 gx2 in der selben auflösung, dan könnte ja mehr als 60 % schneller sein als die gtx ?

Jau

Mfg Mike

dargo
2008-01-13, 18:41:54
Hmm, die Rechnung verstehe ich nicht: 256Bit & 1.6GHz = 512Bit & 0.8GHz, oder etwa nicht? Wenn doch, dann sind 384Bit und 1.2GHz genauso schnell wie 256Bit und 1.6GHz, aber nicht schneller, :confused:?!

Ähm, ich habe doch die Zahlen der Bandbreiten genannt. Was ist jetzt daran unklar? :confused:
384Bit@1,2Ghz sind dann eben 12,5% schneller als 256Bit@1,6Ghz.


Wo geht der effizienter mit Speicherbandbreite um?

Da ich nochnicht sehe, wo der G92 besser mit seiner Speicherbandbreite umgeht, kapiere ich auch nicht, warum der schneller sein sollte, denn er ist Bandbreitenlimitiert; und dann bringt ein höherer Coretakt nichts.

Ich hatte mit einem G8800GTS (G92) Besitzer per PN einige Tests mit Crysis angestellt. Dabei kam herraus, dass bei einer Erhöhung der Bandbreite um 10% die Frames nur um ~5% angestiegen sind. Dabei war aber der GPU-Takt schon um 20% übertaktet. Wäre also der GPU-Takt bei standard 650Mhz würden 10% mehr Bandbreite nur noch ca. 3% mehr Frames liefern. Findest du das also bandbreitenlimitiert wenn die Skalierung bei 1:~0,3 nur noch liegt? Ich nicht...

Hätte die G8800GTS aber 20 oder gar 24 ROPs, dann würde sicherlich die Bandbreite schon deutlich limitieren.


Dann erkläre mal, warum Die G92s bei der Rohleistung die G80s stehen lassen, bei Qualitätssettings (> 4xAA und 8xAF) die GTX und Utra aber lokker an GT und GTS (G92) vorbeiziehen!?

Ich hatte schon mal die relativ kleine ROP-Leistung vom G92 im Vergleich zum G80 genannt. Die G8800GTS (G92) hat 33,33% weniger ROP-Leistung als die G8800GTX, dafür 13% mehr GPU-Takt. Das reicht aber bei weitem nicht aus wie man bei den Benchmarks sehen kann.


Außerdem: Würde die Bandbreite nicht limitieren, wäre die Differenz zwischen (G92) GTS und GT größer.

Welchen Unterschied erwartest du eigendlich zwischen diesen beiden Karten?
Die G8800GTS hat ~23% mehr arithmetische Leistung als die G8800GT, zusätzlich noch ~8% mehr GPU-Takt und ~8% mehr Bandbreite. Je nachdem wieviel arithmetische Leistung ein Game braucht können nur ca. 8-15% mehr ankommen.

Um es mal kurz zu halten - in erster Linie fehlt es dem G92 an ROP-Leistung, erst dann kommt die Bandbreite.