PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia GeForce 7900 Quad SLI/7950X2


Seiten : 1 [2] 3

Coda
2006-06-05, 23:43:25
thade[/POST]']aber ohne Unified Shader, nein denke nicht :D
Dir fehlt auch dazu noch das technische Verständnis. Wie nach der API die Leistung erreicht wird ist völlig egal.

Wenn nVIDIA nach den Simulationen der Meinung war das dedizierte und für ihre Aufgaben besser optimierte Einheiten einen schnelleren Chip ergeben, dann hatte das wohl einen Grund.

AnarchX
2006-06-05, 23:45:13
dildo4u[/POST]']Da die meisten GK Wakü Kühler sher flach sind kann man die Karte sher whol mit einer Wakü ausstatten.Der NexXxoS NVXP3 NVidia sollte z.B locker passen.


Der NexXxoS GP2X-NV40 sollte doch eigentlich auch reichen, der RAM brauch ja keine Kühlung:
http://www.aquatuning.de/images/product_images/info_images/415_0.jpg

Coda
2006-06-05, 23:46:22
Ich glaube der ist etwas zu hoch.

Die gelbe Eule
2006-06-06, 00:00:52
http://www.tweakpc.de/hardware/tests/kuehler/vga/thermaltake_tidewater_plus/b/tideplus01.jpg

Dat passt :)

thade
2006-06-06, 00:01:50
Coda[/POST]']Dir fehlt auch dazu noch das technische Verständnis. Wie nach der API die Leistung erreicht wird ist völlig egal.

Ja Du hast recht, mir fehlt das technische Wissen dazu, sowas ist mir ehrlich gesagt auch zu dumm, dies alles zu erlernen. Du hast sicher mehr Verständnis auf dem Gebiet als Ich, aber deswegen verstehst Du noch lange nicht alles und musst nicht meinen Du könntest immer alles erklären.

Viele können dir eh nicht folgen, Du wirfst stänndig mit Fachausdrücken nur so umsich, das mag für die Cracks interessant sein, aber normale User verstehen kein Wort. :redface:

@Eule

Ja das ist ein echter HighEnd Wakühler, wow!

Gast
2006-06-06, 00:12:02
thade[/POST]']Viele können dir eh nicht folgen, Du wirfst stänndig mit Fachausdrücken nur so umsich, das mag für die Cracks interessant sein, aber normale User verstehen kein Wort. :redface:Viele Dinge lassen sich auch nur mit Fachausdrücken präzise beschreiben. Außerdem hast du doch einen Internetanschluss, da kannst du jeden dir unbekannten Fachausdruck ganz fix nachschlagen. Um die Grundlagen zu lernen, gibt es auch die Suchfunktion und die Artikel und wenn du da nichts finden solltest, kannst du immer noch fragen, falls es dich interessiert. Dir wird keiner den Kopf abreißen, weil du etwas nicht weißt. Man kann aber nicht verlangen, dass jemand der sich etwas besser auskennt bei jedem seiner Postings nochmal sämtliche Grundlagen erklären muss.

Gast
2006-06-06, 00:13:49
Achso, dir ist es zu dumm die entsprechenden Grundlagen zu erlernen? Na dann brauchst du dich aber wirklich nicht zu beschweren, wenn du bestimmte Dinge nicht verstehst. Du kannst aber nicht verlangen, dass jeder alles für dich verständlich macht, nur weil du zu faul bist selbst nachzuschlagen.

Die gelbe Eule
2006-06-06, 00:14:50
thade[/POST]']

@Eule

Ja das ist ein echter HighEnd Wakühler, wow!

Der wurde bereits getestet auf 7800GTs im SLi
http://www.tweakpc.de/hardware/tests/kuehler/vga/thermaltake_tidewater_plus/s03.php

Und die Sapphire Toxic hat den gleichen Kühler in einer besseren Revision verbaut. Für HiGHend also perfekt geeignet.

thade
2006-06-06, 00:43:51
Die gelbe Eule[/POST]']Der wurde bereits getestet auf 7800GTs im SLi
http://www.tweakpc.de/hardware/tests/kuehler/vga/thermaltake_tidewater_plus/s03.php

Und die Sapphire Toxic hat den gleichen Kühler in einer besseren Revision verbaut. Für HiGHend also perfekt geeignet.

Wer sich so eine Schrott Wakü kauf, der ist selbst Schuld. Würde Ich dringend von abraten. 500€ in etwa muss man schon blechen für eine gute Wakü!

Gast[/POST]']Du kannst aber nicht verlangen, dass jeder alles für dich verständlich macht, nur weil du zu faul bist selbst nachzuschlagen.

Ich bin ja nun kein voll Noob der gar nix versteht ;), Ich versteh schon ein wenig was. Nur was da manche immer bringen, wer soll das verstehen, außer ne Handvoll hier im Forum?

Ist ja auch nicht böse gemeint, 95% der User hier verstehens nicht, das braucht mir keiner erzählen!

Die gelbe Eule
2006-06-06, 00:45:20
Dann verkauft Sapphire also Schrott, aha ...

thade
2006-06-06, 00:46:39
Im Vergleich mit einer richtigen Wakü ist das Schrott, nicht mehr und nicht weniger!

Die gelbe Eule
2006-06-06, 00:50:08
Nur haben wir bereits erkannt, das eine richtige Wakü für 500€ nicht da reinpasst. Und gekühlt wird bei dem System auch mit Wasser nicht mit Fantasie.
Weil man eine WaKü im klassischen Sinne verteidigen möchte, heißt es nicht, das man neuem unaufgeschlossen sein sollte.

Gast
2006-06-06, 00:58:24
thade[/POST]']Ich bin ja nun kein voll Noob der gar nix versteht ;), Ich versteh schon ein wenig was. Nur was da manche immer bringen, wer soll das verstehen, außer ne Handvoll hier im Forum?

Ist ja auch nicht böse gemeint, 95% der User hier verstehens nicht, das braucht mir keiner erzählen!Ich verstehe ja auch nicht alles zu 100% was unsere Gurus manchmal so schreiben. Aber wenn ich etwas nicht verstehe, es mich aber trotzdem interessiert, schlage ich einfach nach, anstatt den Gurus vorzuwerfen, dass sie ihre Texte nicht massenkompatibel genug machen.

Immerhin kann man von unseren Gurus eine Menge lernen. Ich bevorzuge jederzeit eine technische Diskussion, wo ich auch was lernen kann als mir Postings ala "7900GTX rulez da house" oder "NV ist shice weil kein HDR-AA" durchzulesen. Dabei lernt man doch nichts, wenn man alles dau-kompatibel hält. Ein Forum dient nun mal zum Austausch von Wissen.

The_Invisible
2006-06-06, 11:13:27
man kann keine highend wakü montieren, was für ein argument :biggrin:

im gegensatz zu den atis braucht man auch keine highend kühlung. mach den gx2 kühler doch mal auf die x1(8|9)00 serie drauf, der schmilzt nach ein paar minuten weg.

mfg

Gast
2006-06-06, 11:29:51
The_Invisible[/POST]']man kann keine highend wakü montieren, was für ein argument :biggrin:

im gegensatz zu den atis braucht man auch keine highend kühlung. mach den gx2 kühler doch mal auf die x1(8|9)00 serie drauf, der schmilzt nach ein paar minuten weg.

mfg

Hättest mal das Posting über deinem lesen sollen. Fanboy

The_Invisible
2006-06-06, 11:31:21
Gast[/POST]']Hättest mal das Posting über deinem lesen sollen. Fanboy

ja und? passt doch alles was ich geschrieben habe...

mfg

reunion
2006-06-06, 12:01:21
Coda[/POST]']Wenn nVIDIA nach den Simulationen der Meinung war das dedizierte und für ihre Aufgaben besser optimierte Einheiten einen schnelleren Chip ergeben, dann hatte das wohl einen Grund.

Ja, vermutlich den selben Grund, warum ATi SM2 lange für ausreichend hielt -> mangelnde Ressourcen einen vernünftige US-Core zu entwickeln.

Coda
2006-06-06, 12:16:14
Ich denke nicht das nVIDIA "mangelnde Resourcen" hat. Ein US hat nunmal nicht nur Vorteile.

reunion
2006-06-06, 12:25:12
Und doch meldete nV in letzter Zeit einige Patente an, die einen US-Core beschreiben.
Es ist doch immer das Gleiche. Solange man etwas nicht hat, ist es unnötig bzw. zu langsam. Wenn man es dann selber hat, ist es unumgänglich.

dildo4u
2006-06-06, 14:06:26
Größenvergleich 7900GTX,7900 GX2 und 7950 GX2.


http://666kb.com/i/aepbe5vekdyqirph4.jpg

1900XTX und 7950 GX2.

http://666kb.com/i/aepbhftxdqbb5hu48.jpg

http://www.firingsquad.com/hardware/geforce_7950_gx2_preview/

The_Invisible
2006-06-06, 14:17:12
der lüfter wird ja immer kleiner... verstehe nicht warum die immer so nen kleinen quirl draufbauen müssen, die gtx zeigt wies geht (hat anscheinend ja nichtmal den halben durchmesser eines gtx lüfters). ansonsten aber saubere arbeit wie die die karte "gekürzt" haben

mfg

Blaire
2006-06-06, 17:20:38
http://www.hardwarezone.com/articles/view.php?cid=3&id=1927&pg=2

QuadSLI Preview

TobiWahnKenobi
2006-06-06, 18:22:54
also ich bau mir die ein. frage mich nur, wo ich aufm nforce4 (gigabyte) dann die SATA-HDDs anstöpseln soll.. aber das sehe ich ja dann..


(..)

mfg
tobi

Blaire
2006-06-06, 19:28:15
Hast dir schon bestellt? Die derzeitigen Preise sind reinste Abzocke. Ich werde wohl noch etwas abwarten bis die Preise fallen.

Coda
2006-06-06, 19:30:27
reunion[/POST]']Es ist doch immer das Gleiche. Solange man etwas nicht hat, ist es unnötig bzw. zu langsam. Wenn man es dann selber hat, ist es unumgänglich.
Ich sehe mir halt gängigen Vertex- und Pixelshadercode an und sehe da durchaus Unterschiede. Aber glaub was du willst.

Ich glaube nVIDIA hat durchaus in Erwägung gezogen für G80 ein US-Design zu machen, hat sich damals aber halt wie ATI beim R400 dagegen entschieden. Sie werden gute Gründe gehabt haben. Niemand baut Unified-Shader nur "damit man sie hat".

thade
2006-06-06, 19:33:53
Blaire[/POST]']Hast dir schon bestellt? Die derzeitigen Preise sind reinste Abzocke. Ich werde wohl noch etwas abwarten bis die Preise fallen.

Du willst Dir tatsächlich 2 solche Dinger kaufen? Hast aber zugleich 7900GTX...und einen "lahmen" A64 Singelcore.

Was erhoffst Du dir von den Karten? In deinem Fall würde Ich eh warten bis G80 kommt. Zumal nichtmal dein jetziges SLI ausgenutzt wird!

KraetziChriZ
2006-06-06, 19:35:30
thade[/POST]']Zumal nichtmal dein jetziges SLI ausgenutzt wird!

auf nem 30" dell auf 2500er Auflösung? Wenn er da in aktuellen Games ordentlich AA/AF will... :rolleyes:

gruß
chris

thade
2006-06-06, 19:37:15
KraetziChriZ[/POST]']auf nem 30" dell auf 2500er Auflösung? Wenn er da in aktuellen Games ordentlich AA/AF will... :rolleyes:

gruß
chris

Bedingt durch seine CPU meine Ich.....!

dildo4u
2006-06-06, 19:38:47
thade[/POST]']
Zumal nichtmal dein jetziges SLI ausgenutzt wird!
Ähm haste schonmal in seine sig geguckt er hat ein 30 Zoll TFT mit einer nativen Auflösung von 2560*1600 bei dieser extremen Auflösung bringt QuadSLI sher whol was.


http://www.hardwarezone.com/img/data/articles/2006/1927/FearB.gif

KraetziChriZ
2006-06-06, 19:41:15
thade[/POST]']Bedingt durch seine CPU meine Ich.....!

Wer ein 30" Dell für 2000€ hat, sich ne Quad-SLI Karte für 550€ oder sowas kaufen kann, der wird wohl auch mikrige 600€ für nen Conroe Extremeirgendwas ausgeben können in 1-2 Monaten, oder?

gruß
chris

thade
2006-06-06, 19:44:16
Hätte er soviel Geld warum gurkt er noch mit so einer lahmen CPU rum? Ich meine selbst für 7900GTX ist diese CPU alles andere als geeignet.

Afaik hat Blaire noch nie sonderlich Wert auf auf eine potente CPU gelegt.

dildo4u
2006-06-06, 19:45:25
thade[/POST]']Hätte er soviel Geld warum gurkt er noch mit so einer lahmen CPU rum? Ich meine selbst für 7900GTX ist diese CPU alles andere als geeignet.

Afaik hat Blaire noch nie sonderlich Wert auf auf eine potente CPU gelegt.Vieleicht weil ihm der X2 zu Heiß ist und er SLI braucht?Von einem Singel Core mit 2.7GHz auf ein Daul core mit z.B 2.4Ghz umzurüsten macht nicht so viel sinn weil die meistens kaum über 2.6Ghz gehen ohne extra Kühlung.

thade
2006-06-06, 19:46:18
dildo4u[/POST]']Vieleicht weil ihm der X2 zu Heiß ist und er SLI braucht?

Tolles Argument :uup:

dildo4u
2006-06-06, 19:47:58
thade[/POST]']Tolles Argument :uup:Klar für viele ist der X2 nicht die Optimale Dual core cpu für dich ja offensichtlich auch nicht.Ansonsten hättest du dir ja die extra Ausgaben für ein Spezial Mobile Board sparen können.

SKYNET
2006-06-06, 19:49:43
dildo4u[/POST]']Vieleicht weil ihm der X2 zu Heiß ist und er SLI braucht?Von einem Singel Core mit 2.7GHz auf ein Daul core mit z.B 2.4Ghz umzurüsten macht nicht so viel sinn weil die meistens kaum über 2.6Ghz gehen ohne extra Kühlung.


heiß?

also nen X2, wird nicht wärmer als nen alter 0.13µ A64....

dildo4u
2006-06-06, 19:52:15
SKYNET[/POST]']heiß?

also nen X2, wird nicht wärmer als nen alter 0.13µ A64....
Jo und damit hat man bewusst ein Rückschritt in kauf genommen im gegensatz zum Venice oder San Diego.Aber is eh OT hier.

thade
2006-06-06, 19:53:17
dildo4u[/POST]']Klar für viele ist der X2 nicht die Optimale Dual core cpu für dich ja offensichtlich auch nicht.Ansonsten hättest du dir ja die extra Ausgaben für ein Spezial Mobile Board sparen können.

Der X2 ist eine hervorragende CPU. Ich wollte eh erst auf X2 umsteigen, aber dann hätte Ich nicht mehr aufrüsten können. Conroe bzw der neue AM2 waren da noch zu weit weg, also blieb nur das Aopen, da kann Ich wenigstens auf Merom upgraden.

Außerdem kostet ein gutes LGA775 auch locker über 200€, von daher ist es egal. Spezial Mobile Board, lol, es ist ein Desktop Board für Mobiles. Im Hwluxx gibt es dutzende die das Board haben.

A.Wesker
2006-06-06, 20:30:31
Wobei das AOpen auch die reinste Presspappe im Vergleich zu guten Desktopboards ist.

thade
2006-06-06, 20:36:20
A.Wesker[/POST]']Wobei das AOpen auch die reinste Presspappe im Vergleich zu guten Desktopboards ist.

Vom Overclocking mit Sicherheit nicht, vom Chipsatz nicht, Crossfire kanns auch, mit Modtreibern auch SLI. S-ATA Raid fehlt, aber sonst ist das Board nicht schlechter als ein gutes Asus Desktop Board. Ich hatte zuvor nur gute Desktop Boards. Was ist deiner Meinung nach schlecht am Board?

Ja die ersten Aopen waren wirklich alle Schrott, das i975X ist das erste rumdum gute Board von Aopen für Mobiles!

reunion
2006-06-06, 20:42:17
Coda[/POST]']Ich sehe mir halt gängigen Vertex- und Pixelshadercode an und sehe da durchaus Unterschiede. Aber glaub was du willst.


Ach', sei doch nicht gleich eingeschnappt. Wie schon gesagt, auch nVs nächster Chip wird ein USC, und damit ist das Argument eigentlich ein recht schwaches.


Ich glaube nVIDIA hat durchaus in Erwägung gezogen für G80 ein US-Design zu machen, hat sich damals aber halt wie ATI beim R400 dagegen entschieden. Sie werden gute Gründe gehabt haben. Niemand baut Unified-Shader nur "damit man sie hat".

Natürlich nicht. Und natürlich werden sie gute Gründe gehabt haben, aber diese müssen nicht unbendigt etwas mit dem US-Konzept selbst zu tun haben. Aber warten wir mal ab wie G80 wird.

Gast
2006-06-06, 20:45:54
thade[/POST]']Was ist deiner Meinung nach schlecht am Board?

Kein Intel Chipsatz, nicht genug Einstellungsmöglichkeiten was VCore, Vdimm, FSB betrifft, nur zwei PCI Slots, zu wenig SATA Ports, kein SATA Raid, aktive Chipsatzkühlung.

Allein die Sache mit der Vdimm ist ein Witz, da lassen nur 2,15V zu, es gibt aber schon viele Module, welche mit bis zu 2,3V betrieben werden dürfen - innerhalb der Garantie versteht sich (z.B. GEIL, GSkill).

Für solch viele Mängel über 250,- zu verlangen, ist fast schon ne Frechheit.

A.Wesker
2006-06-06, 20:46:26
thade[/POST]']Vom Overclocking mit Sicherheit nicht, vom Chipsatz nicht, Crossfire kanns auch, mit Modtreibern auch SLI. S-ATA Raid fehlt, aber sonst ist das Board nicht schlechter als ein gutes Asus Desktop Board. Ich hatte zuvor nur gute Desktop Boards. Was ist deiner Meinung nach schlecht am Board?

Ja die ersten Aopen waren wirklich alle Schrott, das i975X ist das erste rumdum gute Board von Aopen für Mobiles!

- mikrige Spannungsversorgung
- kein Sata Raid ( bei mir net so wichtig, da ich eh nen SCSI Raidcontoller habe)
- Cold-Bug beim Windowsstart
- starke IRQ Überschneidungen
- starke Spannungsschwankungen
- nur max 1,5V Vcore (für den 24/7 Betrieb noch ok, aber nicht wenn sie auf 1,45-1,46V einbricht)
- lächerliche 2,15V Vdimm (für heutigen Highend DDR2 Speicher völlig indiskutabel)
- kann 4 GB Ram nicht bei der Windows Installation verwalten (Blue Screen)

dildo4u
2006-06-06, 20:49:45
NVIDIA GeForce 7950 GX2 - Motherboard Compatibility

http://www.nvidia.com/content/geforce_gx2_sbios/us.asp

Gast
2006-06-06, 20:49:52
Weis jemand ob die Karte auf einem normalen DFI Ultra-D nf4 funktioniert?
In der Kompatibilitätsliste von nvidia ist nur das Infinity zu finden :(

Blaire
2006-06-06, 20:51:23
thade[/POST]']Du willst Dir tatsächlich 2 solche Dinger kaufen? Hast aber zugleich 7900GTX...und einen "lahmen" A64 Singelcore.

Was erhoffst Du dir von den Karten? In deinem Fall würde Ich eh warten bis G80 kommt. Zumal nichtmal dein jetziges SLI ausgenutzt wird!

Ich hatte 2x7900GTX ;) Eigentlich wollte ich kein QuadSLI holn , ich ging da aber auch noch von deutlich höheren Mehrkosten aus die nun wegfallen z.b. neues Netzteil bzw. Motherboard. Und sooo lahm ist 2750er AMD nun auch wieder nicht , ist zwar kein Dualcore oder ein FX60 aber langt völlig aus bei den Auflösungen die ich verwende.

thade
2006-06-06, 21:00:39
Gast[/POST]']Kein Intel Chipsatz, nicht genug Einstellungsmöglichkeiten was VCore, Vdimm, FSB betrifft, nur zwei PCI Slots, zu wenig SATA Ports, kein SATA Raid, aktive Chipsatzkühlung.

Sorry aber sehr witzig. Aktuellster Intel Chipsatz aufm Board, Vcore bis 1,5V(selbst für Wakü Benützer locker ausreichend, wer mehr gibt killt die CPU sowieso=kein Argument, FSB? Was ist mit dem FSB? Das Board könnte bis 320Mhz, die CPUs limitieren halt, das sind Mobiles. Als wenn 4 S-ATA Ports nicht ausreichen?, S-ATA Raid ist allerdings ein großer Mangel das stimmt.

Ich habe den Chipsatzkühler abgeklemmt, läuft auch ohne Prima!

Also erstmal informieren und am besten das Board selbst testen bevor man Stuss verbreitet.

Und Wesker, siehe obere Punkte und Spannungsschwankungen wie Du sie uns erzählen willst, das stimmt nicht. Meine Vcore bricht wenig bis gar nicht ein. Hatte zuvor ein P4C800-E-DLX, das brach schon mehr ein.

Insgesamt, ein klasse Board, das sich von keinen Desktop Board verstecken muss. Ein wenig überteuert, aber sonst 1A. Ich muss euch nicht überzeugen, Ich würde mein Board nicht mehr hergeben wollen!

Gast
2006-06-06, 21:08:59
thade[/POST]']Vcore bis 1,5V(selbst für Wakü Benützer locker ausreichend, wer mehr gibt killt die CPU sowieso=kein Argument

Was ausreichend ist, entscheide immer noch ich und mir reichen die 1,5V nicht.

Was ist mit dem FSB? Das Board könnte bis 320Mhz, die CPUs limitieren halt, das sind Mobiles.

Für ein Board dieser Preisklasse ist es trotzdem zu wenig.
Es würde womöglich sogar laufen, nur habe ich nicht mal die Möglichkeit, das zu testen, weil sie es nicht zulassen.

Als wenn 4 S-ATA Ports nicht ausreichen?

Die reichen schon lange nicht mehr. Ich habe 2x160, 2x400, 3xLaufwerke verbaut.
Die neuen Bluray Brenner werden mit SATA daher kommen, wo sollen sie angeschlossen werden?

Also erstmal informieren und am besten das Board selbst testen bevor man Stuss verbreitet.

Schonmal was von unterschiedlichen Anforderungen gehört, bevor du hier wieder einmal rumflamst?

Den Mangel bei der VDimm hast du typischerweise nicht mal erwähnt. Ich möchte gerne die Module mit 2,3V betreiben, geht bei diesem Board ebenfalls nicht.
Also ist es für mich als Overclocker schrott, da es nicht die Möglichkeiten bietet, die ich gerne hätte.
Schau dir vergleichbare DFI Boards an, da sind solche Dinge überhaupt keine Frage, die Einstellungen werden auch wenn sie noch so selten genutzt werden, trotzdem zu Verfügung gestellt.

A.Wesker
2006-06-06, 21:09:15
miss die spannung mal mit nem Multimeter nach, dann weißt du was ich meine.
außerdem kann es jawohl nicht angehen, daß es dermaßen viele IRQ überschneidungen bei einem Mainboard in der Preisklasse von 260 € gibt...

thade
2006-06-06, 21:17:15
Gast[/POST]']Was ausreichend ist, entscheide immer noch ich und mir reichen die 1,5V nicht.

oO kleiner Diktator, spring doch mal ein wenig im Dreieck.



Für ein Board dieser Preisklasse ist es trotzdem zu wenig.
Es würde womöglich sogar laufen, nur habe ich nicht mal die Möglichkeit, das zu testen, weil sie es nicht zulassen.

Hallo, hörst Du überhaupt zu? Es liegt an den CPUs, nicht am BOARD. Das Board limitiert nicht, schau in den Sammelthread von Hwluxx.



Die reichen schon lange nicht mehr. Ich habe 2x160, 2x400, 3xLaufwerke verbaut.
Die neuen Bluray Brenner werden mit SATA daher kommen, wo sollen sie angeschlossen werden?

Tja für mich schon.


Den Mangel bei der VDimm hast du typischerweise nicht mal erwähnt. Ich möchte gerne die Module mit 2,3V betreiben, geht bei diesem Board ebenfalls nicht.

Auch kein Problem für Mich. Zur Not mach nen Vdimm Mod.


Also ist es für mich als Overclocker schrott, da es nicht die Möglichkeiten bietet, die ich gerne hätte.


Ja ist toaler Overclocking Schrott, konnte meinen Core Duo 2Ghz nur fast über 45% übertakten. Aber egal. Du hast deine Ansichten, Ich die meinen.

Für mich ist das Board top, da auch Merom Support. Es hat ein paar kleine Mängel, mein Gott, das hat jedes Board.

Les dir mal en paar Tests, zb von Anandtech durch, die waren auch ganz angetan vom Board.

Tjell
2006-06-06, 22:08:23
Herrje, das artet hier ja zur Spielwiese aus.
Könnt Ihr das nicht (wo)anders regeln?



Zur 7950 GX2:
Für den Preis "SLI" mit einem Steckplatz zu bekommen hat schon was. Das ist für Faule wie mich ideal, außerdem verschwendet es nicht soviel Platz.

Das Argument "aber Gigabyte/Asus kann das auch auf einem Board" mag an sich stimmen, nur ist das PCB ein wahrer Design-Albtraum (bei der Konzipierung (<- ist das richtig?)) und sehr teuer in der Herstellung. Einfacher geht es eben mit zwei simplen PCB.

del_4901
2006-06-06, 22:10:34
KraetziChriZ[/POST]']Wer ein 30" Dell für 2000€ hat, sich ne Quad-SLI Karte für 550€ oder sowas kaufen kann, der wird wohl auch mikrige 600€ für nen Conroe Extremeirgendwas ausgeben können in 1-2 Monaten, oder?

gruß
chris
ja, aber auf dem geht doch kein SLI ^^

dildo4u
2006-06-06, 22:15:27
AlphaTier[/POST]']ja, aber auf dem geht doch kein SLI ^^Warum sollte mit dem Conroe kein SLI oder Quad SLI funzen?Kleiner tipp Nvidia baut auch Intel Boards.;)


http://img88.imageshack.us/img88/2914/quadsliconroe1vp.jpg

del_4901
2006-06-06, 22:33:35
dildo4u[/POST]']Warum sollte mit dem Conroe kein SLI oder Quad SLI funzen?Kleiner tipp Nvidia baut auch Intel Boards.;)


Achja ... da war was, aber wer tut sich freiwillig sowas an?
Also ich für meinen Teil mit Sicherheit nicht! Ich scheiss auf SLI, hautsache man hat nen vernünftiges schnelles Board mit stabilem Chipsatz. Sone Cross-Platformen sind immer scheisse.

AnarchX
2006-06-06, 22:38:49
AlphaTier[/POST]']Achja ... da war was, aber wer tut sich freiwillig sowas an?


Jemand der ein vernünftiges Multi-GPU-System einsetzen möchte.... ;)

del_4901
2006-06-06, 22:39:47
AnarchX[/POST]']Jemand der ein vernünftiges Multi-GPU-System einsetzen möchte.... ;)
Das vernünftig kannste streichen, das ist es nämlich gerade nicht ... es ist vllt schnell, aber ned vernünftig.

Coda
2006-06-06, 22:41:16
Es ist um einiges vernünftiger als Crossfire in der derzeitigen Form.

AnarchX
2006-06-06, 22:42:42
AlphaTier[/POST]']Das vernünftig kannste streichen, das ist es nämlich gerade nicht ... es ist vllt schnell, aber ned vernünftig.

Wieso?
80% mehr Leistung für 100% Aufpreis, das gibt es bei CPUs z.B. nicht... ;)

del_4901
2006-06-06, 22:44:06
also ich hab schon so einige CPU / Chipsatz Combis durch. Sogar schon Intel / AMD und diese Kombi war nach Intel / Intel das stabilste. Alles andere war einfach nur großer teuerer Schrott. Aber da weder SLI noch Crossfire für mich in Frage kommen ist mir das reichlich egal.

Conroe komme ^^

del_4901
2006-06-06, 22:45:05
AnarchX[/POST]']Wieso?
80% mehr Leistung für 100% Aufpreis, das gibt es bei CPUs z.B. nicht... ;)

Ich brauch den Rechner zum arbeiten, nicht für Schwanzmarkvergleiche.

tombman
2006-06-06, 23:10:34
AlphaTier[/POST]']Ich brauch den Rechner zum arbeiten, nicht für Schwanzmarkvergleiche.
Und wieso brauchst dann Conroe?

del_4901
2006-06-06, 23:13:31
tombman[/POST]']Und wieso brauchst dann Conroe?
Dual Core ... ich brauch das zum programmiern. Ich hab hier zuhause nur nen ollen NW suxx.

thade
2006-06-06, 23:27:27
Dual Core gibts doch schon ne Weile, sogar schon sehr günstig, siehe Pentium D.

del_4901
2006-06-06, 23:31:50
thade[/POST]']Dual Core gibts doch schon ne Weile, sogar schon sehr günstig, siehe Pentium D.
JA und, gerade deswegen schreits ja danach. Ich hab nur noch keinen, und wenn ich mir gegen ende des Jahres nen neuen Rechner kaufe kommt ein Conroe rein, was ist dran falsch? Nur weil es etwas neu gibt heißt es lange nicht das ich sofort zuschlagen muss. (da kann ich mein Geld anders besser anlegen) Das heißt aber nicht im Umkehrschluss, das ich mir altes Zeug kaufe, wenn ich was neues brauch! Und ich brauch den DC bis spätestens ende des Jahres, weil ich sonnst nicht damit weiter machen kann, womit ich angefangen habe. Dafür das ich meinen Rechner schon länger nichtmehr aufgerüstet habe steht mir das wohl zu!

tombman
2006-06-06, 23:32:00
dildo4u[/POST]']NVIDIA GeForce 7950 GX2 - Motherboard Compatibility

http://www.nvidia.com/content/geforce_gx2_sbios/us.asp
Geiler Link. Damit ist bewiesen, daß die Karte auf nicht-nvidia chipsets laufen muß-> SLI Treiber hack anyone? ;)

SKYNET
2006-06-06, 23:33:56
AlphaTier[/POST]']Dual Core ... ich brauch das zum programmiern. Ich hab hier zuhause nur nen ollen NW suxx.

aha, fürs texte schreiben, brauch man also nen dualcore... kauf dir nen K6-2 der langt fürs scripten! :D

del_4901
2006-06-06, 23:34:44
SKYNET[/POST]']aha, fürs texte schreiben, brauch man also nen dualcore... kauf dir nen K6-2 der langt fürs scripten! :D
du hast ne Ahnung

tombman
2006-06-06, 23:34:50
AlphaTier[/POST]']JA und, gerade deswegen schreits ja danach. Ich hab nur noch keinen, und wenn ich mir gegen ende des Jahres nen neuen Rechner kaufe kommt ein Conroe rein, was ist dran falsch? Nur weil es etwas neu gibt heißt es lange nicht das ich sofort zuschlagen muss. (da kann ich mein Geld anders besser anlegen) Das heißt aber nicht im Umkehrschluss, das ich mir altes Zeug kaufe, wenn ich was neues brauch! Und ich brauch den DC bis spätestens ende des Jahres, weil ich sonnst nicht damit weiter machen womit ich angefangen habe. Dafür das ich meinen Rechner schon länger nichtmehr aufgerüstet habe steht mir das wohl zu!
Es würde dir auch "zustehen" (was für ein Wort in diesem Zusammenhang...) wenn du deinen Rechner jeden Tag aufrüsten würdest...

ed1k
2006-06-06, 23:38:47
tombman[/POST]']Es würde dir auch "zustehen" (was für ein Wort in diesem Zusammenhang...) wenn du deinen Rechner jeden Tag aufrüsten würdest...

Das wäre unmoralisch X-D.... ich und AlphaTier hätten ein schlechtes Gewissen ^^

thade
2006-06-06, 23:38:57
AlphaTier[/POST]']JA und, gerade deswegen schreits ja danach. Ich hab nur noch keinen, und wenn ich mir gegen ende des Jahres nen neuen Rechner kaufe kommt ein Conroe rein, was ist dran falsch? Nur weil es etwas neu gibt heißt es lange nicht das ich sofort zuschlagen muss. (da kann ich mein Geld anders besser anlegen) Das heißt aber nicht im Umkehrschluss, das ich mir altes Zeug kaufe, wenn ich was neues brauch! Und ich brauch den DC bis spätestens ende des Jahres, weil ich sonnst nicht damit weiter machen kann, womit ich angefangen habe. Dafür das ich meinen Rechner schon länger nichtmehr aufgerüstet habe steht mir das wohl zu!

Conroe ist Ende des Jahres auch alter Hut, klasse Argumentation. Dual Core gibts schon Ewigkeiten. Und wofür brauchst Du solche CPU Power? Ein D oder X2 wird sicher nicht annähernd so gefordert wie du es meinst.

del_4901
2006-06-06, 23:39:59
tombman[/POST]']Es würde dir auch "zustehen" (was für ein Wort in diesem Zusammenhang...) wenn du deinen Rechner jeden Tag aufrüsten würdest...

Wer bezahlt mir das?

Was eine interessante Frage aufwirft:

Wer bezahlt dir das? oder einfach nur, Wie bezahlst du das?

Selbst die richtig reichen Leute (die das sich leißten könnten) haben meißtens besseres mit ihrem Geld vor.

tombman
2006-06-06, 23:41:03
ed1k[/POST]']Das wäre unmoralisch X-D.... ich und AlphaTier hätten ein schlechtes Gewissen ^^
lol, wahrscheinlich brauchen einige eine Bewilligung des "Magistrats der deutschen Neidgesellschaft" damit sie ungehindert aufrüsten können wann sie wollen ;D;D

del_4901
2006-06-06, 23:41:50
thade[/POST]']Conroe ist Ende des Jahres auch alter Hut, klasse Argumentation. Dual Core gibts schon Ewigkeiten. Und wofür brauchst Du solche CPU Power? Ein D oder X2 wird sicher nicht annähernd so gefordert wie du es meinst.
Da werd ich dich mal nicht dumm sterben lassen, aber x-CPUs programmieren sich gaaaanz anders als eine CPU. Die Power ist mir dabei erstmal nebensächlich. Ich für meinen Teil werd mit der Power sicher sinvolleres anstellen, als ihr Beide zusammen.

SKYNET
2006-06-06, 23:44:45
AlphaTier[/POST]']Da werd ich dich mal nicht dumm sterben lassen, aber x-CPUs programmieren sich gaaaanz anders als eine CPU. Die Power ist mir dabei erstmal nebensächlich. Ich für meinen Teil werd mit der Power sicher sinvolleres anstellen, als ihr Beide zusammen.

einbildung, ist auch ne bildung! :smile:

del_4901
2006-06-06, 23:46:12
SKYNET[/POST]']einbildung, ist auch ne bildung! :smile:

Der Spruch ist so alt, der hat schon nen Bart, da lacht höchstens noch mein Vadder drüber.

Coda
2006-06-06, 23:51:00
AlphaTier hat recht.

thade
2006-06-06, 23:52:16
AlphaTier[/POST]']Da werd ich dich mal nicht dumm sterben lassen, aber x-CPUs programmieren sich gaaaanz anders als eine CPU. Die Power ist mir dabei erstmal nebensächlich. Ich für meinen Teil werd mit der Power sicher sinvolleres anstellen, als ihr Beide zusammen.

:|

del_4901
2006-06-06, 23:52:19
Coda[/POST]']AlphaTier hat recht.

Das ich sowas von Dir höre ... ist das Ironie/Sarkasmus?
Naja ich nehms mal positiv auf!
Danke danke ^^

StefanV
2006-06-06, 23:57:07
SKYNET[/POST]']aha, fürs texte schreiben, brauch man also nen dualcore... kauf dir nen K6-2 der langt fürs scripten! :D
[ ]Du weißt, das man die Texte in was für die HW ausführbares 'übersetzen' muss??

Schonmal was vom 'kompilieren' gehört, wird ja besonders gern bei Linux gemacht, nur was macht das nun genau :uponder:

Ädit: und wenn sich mal 'nen Proggie aufhängt, ists von Vorteil: a) nicht Windows 98 nutzen zu dürfen :ugly: b) mehr als eine CPU im Rechner zu haben.

del_4901
2006-06-07, 00:09:50
StefanV[/POST]'][ ]Du weißt, das man die Texte in was für die HW ausführbares 'übersetzen' muss??

Schonmal was vom 'kompilieren' gehört, wird ja besonders gern bei Linux gemacht, nur was macht das nun genau :uponder:

Ädit: und wenn sich mal 'nen Proggie aufhängt, ists von Vorteil: a) nicht Windows 98 nutzen zu dürfen :ugly: b) mehr als eine CPU im Rechner zu haben.

Naja das sind nun nicht gerade die Hauptgründe, aber ersteres kann nach einem Clean schon sehr lange in Anspruch nehmen ^^

Godmode
2006-06-07, 00:13:04
Blaire[/POST]']http://www.hardwarezone.com/articles/view.php?cid=3&id=1927&pg=2

QuadSLI Preview

Ich würde diese Benchmarks lieber mit einem 4 Ghz Conroe sehen! Ich denke dass bei 4 Karten einfach viel zu oft die CPU Limitierung zuschlägt!

deekey777
2006-06-07, 00:40:13
thade[/POST]']:|

Sehr inhaltsreich so ein Nur-Smiley-Posting. Das ist ein Forum und kein Chat, etwas mehr Inhalt.

dildo4u
2006-06-07, 01:25:42
Videos zur 7950 GX2 direkt von Nvidia.

http://www.nvidia.com/page/7950_testimonials.html

thade
2006-06-07, 01:31:59
Reiner NVidia Marketing Schrott!

deekey777
2006-06-07, 01:33:27
thade[/POST]']Reiner NVidia Marketing Schrott!

Wäre es möglich, konstruktive Beiträge zu verfassen?

thade
2006-06-07, 01:35:42
Ja was ist da dran bitte nicht kontruktiv? Es ist die Wahrheit, das reicht wohl ?

Angiesan
2006-06-07, 01:42:27
Also, auch mein Fett zu dem Teil,

nachdem ich meine 2 7900 gt´s rausgeworfen habe, kommt mir zuerst mal so ein Teil in den Rechner, die Tests und meine Erfahrung mit SLI reichen mir vollkommen aus. Und das dürfte dann wirklich bis G80 oder G81 reichen.
Hoffe nur das die Karten nicht auch das große Sterben bekommen wie dies bei den 7900GTX der Fall zu sein scheint.
Werde am Wochenende mal testen, da ich die Karte am Freitag bekomme, aber da ist zuerst mal WM Party angesagt ;D .


Grüße

Die gelbe Eule
2006-06-07, 01:51:08
thade[/POST]']Ja was ist da dran bitte nicht kontruktiv? Es ist die Wahrheit, das reicht wohl ?

Dort werden nur Fakten erzählt, es entsteht kein gebashe in eine Richtung.

Angiesan[/POST]']
Hoffe nur das die Karten nicht auch das große Sterben bekommen wie dies bei den 7900GTX der Fall zu sein scheint.
Grüße

Nicht alles glauben was CB verzapft. Es soll ein geringer Teil von ab Werk übertakteten Karten sein und davon nochmals ein geringer Teil an normalen Karten. Also alles im Rahmen.

Palpatin
2006-06-07, 11:30:03
Mich würd intressieren ob man mit so ner 7950x2 ohne abstriche 2 monitore einsetzen kann oder ob so wie bei sli üblich beim zocken dann wieder einer auto abschaltet.

reunion
2006-06-07, 11:30:12
Etwas ATi-Marketing zum 7950GX2-Launch:
http://www.dailytech.com/Article.aspx?newsid=2735

Die gelbe Eule
2006-06-07, 12:34:06
Interestingly, none of the reviews currently testing with the above games saw any abnormal game behavior like those noted in ATI's own tests.

Soviel dazu ...

KraetziChriZ
2006-06-07, 12:39:18
AlphaTier[/POST]']Achja ... da war was, aber wer tut sich freiwillig sowas an?
Also ich für meinen Teil mit Sicherheit nicht! Ich scheiss auf SLI, hautsache man hat nen vernünftiges schnelles Board mit stabilem Chipsatz. Sone Cross-Platformen sind immer scheisse.

Ich würde mir auch kein Intel-System mit Nvidia-Chipsatz kaufen.. aber es gibt sie... und wer das will, der wird sich das auch kaufen ;)

tombman[/POST]']Geiler Link. Damit ist bewiesen, daß die Karte auf nicht-nvidia chipsets laufen muß-> SLI Treiber hack anyone? ;)

Kaufst du dann 2 von den dingern? :D

Meiner Meinung nach, wäre es ja der beste Zug von Nvidia, wenn sie sagen, auf ALLEN Intel Chipsätzen läuft unser Quad-SLI... :smile: Dann wären die Intelianer (Fanboys) und die Nvidianer (fanboys) glücklich, und die ATI-Fanboys, die kaufen dann eh ATI Chipsatz mit ATI Graka, und Crossfire geht auf Intel ja sowieso.. *g*

gruß
chris

SKYNET
2006-06-07, 13:16:01
reunion[/POST]']Etwas ATi-Marketing zum 7950GX2-Launch:
http://www.dailytech.com/Article.aspx?newsid=2735


ahahahahahahaaa... das hochglanz 8xSA von NV vs. das im vergleich dazu schrottige 6xAA bei ati.... so kann ich auch benchmarks gewinnen b.z.w. den gegner schlecht aussehn lassen... X-D

ATI ist sooo armseelig!

The_Invisible
2006-06-07, 14:19:21
reunion[/POST]']Etwas ATi-Marketing zum 7950GX2-Launch:
http://www.dailytech.com/Article.aspx?newsid=2735

in thade's worten: ATI Marketing Schrott ;D

mfg

thade
2006-06-07, 14:26:01
SKYNET[/POST]']
ATI ist sooo armseelig!

Sorry aber in diesem Fall sind beide armseelig. Nvidia ist da kein deut besser.

Blaire
2006-06-07, 14:29:03
http://it-review.net/index.php?option=com_content&task=view&id=545&Itemid=91

Neues QuadSLI Review

dildo4u
2006-06-07, 16:31:41
Mher Reviews.


http://img.hexus.net/v2/graphics_cards/nvidia/g71gx2/images/bench-scct-solo.png

http://img.hexus.net/v2/graphics_cards/nvidia/g71gx2/images/bench-farcry-solo.png

http://www.hexus.net/content/item.php?item=5804&page=7


http://images.anandtech.com/graphs/7950gx2_06040690609/12171.png

http://images.anandtech.com/graphs/7950gx2_06040690609/12181.png

http://images.anandtech.com/graphs/7950gx2_06040690609/12187.png

http://images.anandtech.com/graphs/7950gx2_06040690609/12175.png

http://images.anandtech.com/graphs/7950gx2_06040690609/12193.png

http://www.anandtech.com/video/showdoc.aspx?i=2769&p=10

Gast
2006-06-07, 16:35:45
Der blaue Balken sieht gut aus, das sollte ungefähr das Niveau der übertaktungen entsprechen.

Ist schon bekannt, welchen Speicher XFX bei der Karte verbaut? Bei 775 MHz müssten es doch 1,2n sein?

Gast
2006-06-07, 16:36:17
Ruhe mit denn jungen Pferden.

AnarchX
2006-06-07, 16:37:47
Gast[/POST]']Der blaue Balken sieht gut aus, das sollte ungefähr das Niveau der übertaktungen entsprechen.

Ist schon bekannt, welchen Speicher XFX bei der Karte verbaut? Bei 775 MHz müssten es doch 1,2n sein?
:|
Die GX2 ist doch stets schneller als die 2x7900GTs mit dem blauen Balken.

Gast
2006-06-07, 16:41:46
AnarchX[/POST]']:|
Die GX2 ist doch stets schneller als die 2x7900GTs mit dem blauen Balken.

Hä? Was willst du uns damit sagen?

Ich meinte den blauen Balken in der ersten Grafik...

dildo4u
2006-06-07, 16:49:41
http://666kb.com/i/aeqfvvhgrjkypztrr.gif

http://666kb.com/i/aeqfw9x7gjancodiv.gif

http://www.tomshardware.com/2006/06/05/geforce_7950_gx2/page11.html

thade
2006-06-07, 16:59:44
Da sieht man wieder wie schlecht eine 7900GTX eigentlich ist oO

AnarchX
2006-06-07, 17:02:06
thade[/POST]']Da sieht man wieder wie schlecht eine 7900GTX eigentlich ist oO

Oder wie schlecht Oblivion programmiert wurde... ;)

dildo4u
2006-06-07, 17:07:18
thade[/POST]']Da sieht man wieder wie schlecht eine 7900GTX eigentlich ist oOAha und das macht man dann an einem Games fest was eigentlich auf jedem High-End System unrund läuft und die 7900GTX ist nicht das Thread Thema. ;)

Gast
2006-06-07, 17:22:46
reunion[/POST]']Etwas ATi-Marketing zum 7950GX2-Launch:
http://www.dailytech.com/Article.aspx?newsid=2735Naja, was soll man dazu sagen. Vollgepackt mit Lügen und Halbwahrheiten. Marketing eben.

dildo4u[/POST]']Mher Reviews.


[.img]http://img.hexus.net/v2/graphics_cards/nvidia/g71gx2/images/bench-scct-solo.png[/img]

[.img]http://img.hexus.net/v2/graphics_cards/nvidia/g71gx2/images/bench-farcry-solo.png[/img]Die XFX-pr0n-Edition geht ja mal ab. Schade, dass ich nicht genug Geld dafür habe.

The_Invisible
2006-06-07, 18:19:16
thade[/POST]']Da sieht man wieder wie schlecht eine 7900GTX eigentlich ist oO

darum ist eine gtx auch in TRL schneller als ne olle XTX in nextgen... ist sie jetzt deswegen schlecht? und ob man jetzt 19 oder 23 fps hat ist auch herzlich egal...

deine aussagen nerven übrigens langsam :rolleyes:

mfg

Mr. Lolman
2006-06-07, 18:30:54
dildo4u[/POST]']http://666kb.com/i/aeqfvvhgrjkypztrr.gif

http://666kb.com/i/aeqfw9x7gjancodiv.gif

http://www.tomshardware.com/2006/06/05/geforce_7950_gx2/page11.html

Heftiger is das:

http://666kb.com/i/aeqik91judmvi4lyu.gif

http://666kb.com/i/aeqikl8doq5cq7cqe.gif

dildo4u
2006-06-07, 18:32:48
Mr. Lolman[/POST]']Heftiger is das:

http://images.tomshardware.com/2006/06/05/geforce_7950_gx2/image008.gif

http://images.tomshardware.com/2006/06/05/geforce_7950_gx2/image009.gif

Siehe hier kommt halt whol auch immer drauf an welche Timedemos man Bencht und B&W 2 scheint keine vernünftigen Ergebnisse zu produzieren.

http://images.anandtech.com/graphs/7950gx2_06040690609/12181.png

Mr. Lolman
2006-06-07, 18:35:26
dildo4u[/POST]']THG hat ein Linkschutz du musst die Bilder auf ein eigenen Webspace legen.

Habs geändert.

Gast
2006-06-07, 18:44:16
Ich weiß gar nicht was ihr an den Ergebnissen so erstaunlich findet...

Die XTX ist in den neuen Games schneller, weil diese vorallem auf Shader setzen, während die GTX dort punkten kann, wo Füllrate gefragt ist, ergo die älteren Games und wenige neue.

AnarchX
2006-06-07, 18:47:47
Bei THG scheinen sie ja wieder ziemlichen Schrott zusammengebencht zu haben... :|
7950GX2 mehr als doppelt so schnell wie eine 7900GTX... ;) ;D

thade
2006-06-07, 18:53:07
The_Invisible[/POST]']darum ist eine gtx auch in TRL schneller als ne olle XTX in nextgen... ist sie jetzt deswegen schlecht? und ob man jetzt 19 oder 23 fps hat ist auch herzlich egal...

Es sind beides Topkarten, zufrieden?

Palpatin
2006-06-07, 19:15:32
jup die gtx und xtx sind beides top karten und die gx 2 ist halt noch topper :P

erwingage
2006-06-07, 19:15:58
ich bin ja mal gespannt ob die 7950 gx2 auch wieder reihenweise ausfällt da sie mit den taktraten nicht klar kommt (siehe 7900gtx) :biggrin:

Gast
2006-06-07, 19:16:09
The_Invisible[/POST]']darum ist eine gtx auch in TRL schneller als ne olle XTX in nextgen... ist sie jetzt deswegen schlecht? und ob man jetzt 19 oder 23 fps hat ist auch herzlich egal...

deine aussagen nerven übrigens langsam :rolleyes:

mfg
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=300896

Gast
2006-06-07, 19:18:41
Lassen wir es einfach so stehen:Die X1900 XTX ownt eine 7900 GTX weg:Die 7950 ownt eine X1900 XTX weg Punkt.

dildo4u
2006-06-07, 19:19:31
erwingage[/POST]']ich bin ja mal gespannt ob die 7950 gx2 auch wieder reihenweise ausfällt da sie mit den taktraten nicht klar kommt (siehe 7900gtx) :biggrin:
Dir ist aber schon klar das die Chips auf der GX2 nur mit 500mhz laufen also sollte dieses Problem nicht so schnell auftreten.

Gast
2006-06-07, 19:22:13
Wie wird die denn überhaupt gekühlt... so wie ich das sehe, sind da zwei Platinen gekoppelt... ist nur auf der obersten Platine ein aktiver Kühler oder auch auf der dahinter???

dildo4u
2006-06-07, 19:23:58
Gast[/POST]']Wie wird die denn überhaupt gekühlt... so wie ich das sehe, sind da zwei Platinen gekoppelt... ist nur auf der obersten Platine ein aktiver Kühler oder auch auf der dahinter???
Auf beiden.

erwingage
2006-06-07, 19:24:32
dildo4u[/POST]']Dir ist aber schon klar das die Chips auf der GX2 nur mit 500mhz laufen also sollte dieses Problem nicht so schnell auftreten.

es kann auch bei geringen taktraten probleme geben :wink:
bei der 7900gtx waren es teilweise die default taktraten :wink:

Gast
2006-06-07, 19:24:58
Die warme Luft wird also durch die Slotblende direkt abgetragen...

Und was tut man, wenn ein Kühler einen defekt erleidet? Kommt man dann überhaupt daran?

dildo4u
2006-06-07, 19:26:07
erwingage[/POST]']es kann auch bei geringen taktraten probleme geben :wink:
bei der 7900gtx wren es teilweise die default taktraten :wink:
Die GTX liegen ja auch bei 650mhz bei 500mhz gibt es gar keine Probs siehe 7900GTs die haben alle so um 450-550Mhz.

Gast
2006-06-07, 19:26:39
erwingage[/POST]']es kann auch bei geringen taktraten probleme geben :wink:
bei der 7900gtx wren es teilweise die default taktraten :wink:

Latte bald kommt ne X1950 XTX in 80 N Stromsparend Kühl mit 850/2500 MHZ GDR 4 Speicher...

Gast
2006-06-07, 19:27:48
AnarchX[/POST]']Bei THG scheinen sie ja wieder ziemlichen Schrott zusammengebencht zu haben... :|
7950GX2 mehr als doppelt so schnell wie eine 7900GTX... ;) ;D

Vielleicht stimmt das .;)Kannst woll nicht die X1900 XTX-7900 GTX werte verkraften.;D

dildo4u
2006-06-07, 19:28:22
Gast[/POST]']
Und was tut man, wenn ein Kühler einen defekt erleidet? Kommt man dann überhaupt daran?
Ja mann kann beide Platinen auseinanderschrauben.

http://pics.computerbase.de/1/4/6/4/7/41.jpg

Gast
2006-06-07, 19:35:26
Klingt gut, damit sind auch alle meine bedenken aus dem Weg geräumt.
Das einzige was jetzt noch schmerzt, ist das fehlende AA unter HDR.

Sonst ist es die Perfekte Conroe für den kommenden (meinen) Conroe...

Und wenn sich D3D10 nochmal verspätet, pflanze ich noch ne zweite Karte rein. Quad-SLI für unter 1000,-... eigentlich keine schlechte Idee. :)

Gast
2006-06-07, 19:35:55
Äh, das sollte natürlich heißen, die perfekte Karte für den Conroe. :)

SKYNET
2006-06-07, 19:41:50
Gast[/POST]']Klingt gut, damit sind auch alle meine bedenken aus dem Weg geräumt.
Das einzige was jetzt noch schmerzt, ist das fehlende AA unter HDR.

Sonst ist es die Perfekte Conroe für den kommenden (meinen) Conroe...

Und wenn sich D3D10 nochmal verspätet, pflanze ich noch ne zweite Karte rein. Quad-SLI für unter 1000,-... eigentlich keine schlechte Idee. :)

brauch man jenseits der 1600*1200 noch AA?! O_o

Gast
2006-06-07, 19:42:41
SKYNET[/POST]']brauch man jenseits der 1600*1200 noch AA?! O_o

Hmm, ja. Es gibt auch Spiele, bei denen man die Auflösung nicht mal einstellen kann (Sacred).

SKYNET
2006-06-07, 19:47:55
Gast[/POST]']Hmm, ja. Es gibt auch Spiele, bei denen man die Auflösung nicht mal einstellen kann (Sacred).

tja, das ist dann natürlich pech... die frage ist, ob diese dann überhaupt HDR haben?! O_o

tombman
2006-06-07, 19:53:13
SKYNET[/POST]']brauch man jenseits der 1600*1200 noch AA?! O_o
Man braucht sogar bei 2560x1600 noch AA....

AA wirst erst nimmer brauchen wenn die AUflösung pro Fläche höher als jene ist, die vom Auge noch erfaßt werden kann- und das wird noch lange ned passieren..

thade
2006-06-07, 19:59:40
Was denkt Ihr, wird Nvidia jetzt diesen Weg der Doppelkarten weitergehen? Ich meine leistungsmäßig schon toll, aber praktisch für Leute mit Wakü...., total unpraktisch.

Da wäre in Zukunft Voodoo5 5500 Design schon deutlich besser, vorausgesetzt die Karten sind nicht noch länger als die jetzigen HighEnd Karten. Ich bin ja gespannt was ATi macht.

Tjell
2006-06-07, 20:05:15
thade[/POST]']Was denkt Ihr, wird Nvidia jetzt diesen Weg der Doppelkarten weitergehen? Ich meine leistungsmäßig schon toll, aber praktisch für Leute mit Wakü...., total unpraktisch.

Da wäre in Zukunft Voodoo5 5500 Design schon deutlich besser, vorausgesetzt die Karten sind nicht noch länger als die jetzigen HighEnd Karten. Ich bin ja gespannt was ATi macht.

Nur dass bereits der erste Komplett-Wasserkühler angekündigt ist... :rolleyes:

http://www.aqua-computer.de/prodimg/7950_GX2_1.jpg

Und jetzt komm' nicht mit dem Spruch "der ist aber aus Alu und von AC, der ist shice".

thade
2006-06-07, 20:07:23
Ich hab nix gegen AquaComputer, habe selbst Teile von denen. Was soll denn sowas kosten? Ich finde es nachwievor schlecht, das Design!

Tjell
2006-06-07, 20:09:04
thade[/POST]']Ich hab nix gegen AquaComputer, habe selbst Teile von denen. Was soll denn sowas kosten? Ich finde es nachwievor schlecht, das Design!
Kostenpunkt ist noch nicht bekannt.

Das Design der Karten ist nicht überragend, dafür sind wie gesagt die PCB leichter zu designen und billiger in der Herstellung, daher auch der gute Preis für die gebotene Leistung.

TobiWahnKenobi
2006-06-07, 20:09:33
gerade wg. dem gerede über die ganzen ausfallerscheinungen, werde ich von kühler-bastel-einlagen erstmal absehen. lass' das baby erstmal anständig eingelaufen sein.

nach der bewährung kann man immernoch basteln und gucken, was es dann so am markt gibt (kühlertechnisch).


(..)

mfg
tobi

AnarchX
2006-06-07, 20:18:31
Gast[/POST]']Vielleicht stimmt das .;)Kannst woll nicht die X1900 XTX-7900 GTX werte verkraften.;D

Nö, es ist einfach nicht logisch das 2x 500/600MHz im SLI mehr als 100% so schnell sind wie eine 7900GTX mit 650/800MHz. Weshalb ich diesen Benchmark anzweifel.
Bei Anandtech sieht mir das um einige logischer aus.

Latte bald kommt ne X1950 XTX in 80 N Stromsparend Kühl mit 850/2500 MHZ GDR 4 Speicher...

Die mit diesen Spezifikationen in keinster Weise bestätigt ist und auch nicht Thema diese Threads ist. :rolleyes:

Was denkt Ihr, wird Nvidia jetzt diesen Weg der Doppelkarten weitergehen? Ich meine leistungsmäßig schon toll, aber praktisch für Leute mit Wakü...., total unpraktisch.

Auch ATI wird diesen Weg mit dem RV570 einschlagen.
Mal sehen wie das PCB ausschaut... ;)

Gast
2006-06-07, 20:19:41
Es mus nicht immer an den Testern liegen, es kann doch auch der Benchmark schuld sein... wenn der mist ist, dann ist das eben so.

AnarchX
2006-06-07, 20:21:42
Gast[/POST]']Es mus nicht immer an den Testern liegen, es kann doch auch der Benchmark schuld sein... wenn der mist ist, dann ist das eben so.

Dann veröffentlicht man aber auch nicht so offensichtlichen Mist... X-D ;)

The_Invisible
2006-06-07, 20:25:36
thade[/POST]']Was denkt Ihr, wird Nvidia jetzt diesen Weg der Doppelkarten weitergehen? Ich meine leistungsmäßig schon toll, aber praktisch für Leute mit Wakü...., total unpraktisch.

Da wäre in Zukunft Voodoo5 5500 Design schon deutlich besser, vorausgesetzt die Karten sind nicht noch länger als die jetzigen HighEnd Karten. Ich bin ja gespannt was ATi macht.

SLI wird auf alle Fälle bleiben, das doppelkartengeschäft wird sich nvidia wohl erst mal ansehen müssen, aber das unter einem PCB unterzubringen wird wohl sehr schwer sein. die V5 darf man eigetnlich nicht mit heutigen karten vergleichen, das ist heute alles ungleich komplexer

mfg

AnarchX
2006-06-07, 20:28:58
The_Invisible[/POST]']SLI wird auf alle Fälle bleiben, das doppelkartengeschäft wird sich nvidia wohl erst mal ansehen müssen, aber das unter einem PCB unterzubringen wird wohl sehr schwer sein.

Schwer nicht, aber eben teuer.
Es gab ja schon 6600GT Dual, 6800GT Dual, 7800GT Dual; diese waren alle auf einem PCB untergebracht, aber eben auch deutlich teuerer als die 7950GX2.

thade
2006-06-07, 20:47:07
Selbst XGI hat es 2003 geschafft eine Doppelkarte zu bringen!

Gast
2006-06-07, 20:53:39
lol 120€ für den AC Kühler ...

Tjell
2006-06-07, 20:54:36
Gast[/POST]']lol 120€ für den AC Kühler ...
Ist doch nicht teuer. Einzelne Komplettkühler kosten auch 60 bis 75 Euro.

Tjell
2006-06-07, 20:55:30
thade[/POST]']Selbst XGI hat es 2003 geschafft eine Doppelkarte zu bringen!
Es hat nichts mit "können" oder "schaffen" zu tun, sondern damit, was sich preislich besser gestaltet.

Gast
2006-06-07, 20:57:15
Tjell[/POST]']Ist doch nicht teuer. Einzelne Komplettkühler kosten auch 60 bis 75 Euro.

Trotzdem, für den Kupferkern muss man dann sogar noch extra blechen :D

Tjell
2006-06-07, 20:58:48
Gast[/POST]']Trotzdem, für den Kupferkern muss man dann sogar noch extra blechen :D
Komplett aus Alu, Alu mit Kupferkern, komplett aus Alu... eigentlich Latte.

Alu reicht bei Wasserkühlern vollkommen aus.

The_Invisible
2006-06-07, 21:04:03
AnarchX[/POST]']Schwer nicht, aber eben teuer.
Es gab ja schon 6600GT Dual, 6800GT Dual, 7800GT Dual; diese waren alle auf einem PCB untergebracht, aber eben auch deutlich teuerer als die 7950GX2.

die karte wird dann aber sicher wieder ziemlich lang, nvidia hat die neue karte nicht umsonst um 10cm gekürzt. also entweder lang oder "dick"

mfg

Gast
2006-06-07, 21:07:28
Tjell[/POST]']Komplett aus Alu, Alu mit Kupferkern, komplett aus Alu... eigentlich Latte.

Alu reicht bei Wasserkühlern vollkommen aus.

Klar reicht es, aber für das Alustück 120€ ne das geht zu weit

Tjell
2006-06-07, 21:09:54
Gast[/POST]']Klar reicht es, aber für das Alustück 120€ ne das geht zu weit

Bei Standard-SLI oder Crossfire kommt man mit Komplettkühlern auf 120 Euro aufwärts.

AnarchX
2006-06-07, 21:24:28
thade[/POST]']Selbst XGI hat es 2003 geschafft eine Doppelkarte zu bringen!

Schon arm, dass du mit solchem Schrott argumentierst... :rolleyes:
Die 7950GX2 ist aktuell die beste Dualkarten-Lösung und wie wir schon geklärt haben ist es auch möglich sie mit Wasser zu kühlen.

thade
2006-06-07, 22:03:39
Jaja passt schon. Redet nur immer alles gut. was eure Muster Firma Nvidia macht. Außerdem verstehst Du gar nicht was Ich damit sagen wollte.

Ich wollte damit sagen, dass es selbst XGI geschafft hat, die Karte fürs gleiche Geld zu veröffentlichen, wie jetzt NV diesen Doppeldecker. Außerdem wieso sollte das so teuer sein. Das Asus 7800gt SLI Argument zieht nicht, es war nur ein einziger Hersteller. NV ist aber der, der was zu sagen hat in Sachen Design etc, sprich es wäre sicher kein Prob ne Karte wie die Asus zu bringen.

Aber ihr redet ja immer alles gut, genauso wenig wie Ihr Intels Mainboard Wechsel kritisiert. Ich bin hier der enzige der NVidia kritisiert hat wegen dieser Lösung, alles anderen schreiben sowieso immer, ach wie toll, super.....!

dildo4u
2006-06-07, 22:15:25
thade[/POST]']Jaja passt schon. Redet nur immer alles gut. was eure Muster Firma Nvidia macht. Außerdem verstehst Du gar nicht was Ich damit sagen wollte.

Ich wollte damit sagen, dass es selbst XGI geschafft hat, die Karte fürs gleiche Geld zu veröffentlichen,
Was hat XGI jemals mit High-End zu tun gehabt Mittelklasse Chips die kaum Strom brauchen auf ein Board zu bringen das kann NV auch siehe Dual 6600GT oder Dual 7600GTS.

http://www.tweakers4u.de/p4cms/media/t4u/image_news/gigabyte3d1.jpg

http://img.hexus.net/v2/internationalevents/computex2006/dual_7600.jpg

thade
2006-06-07, 22:17:29
lol, du verwechselst S3 mit XGI. Die GPUs auf den Volaris, waren brutale Stromfresser!

Die Volari V8 Duo war im HighEnd angesiedelt, die letzendliche Leistung ist nicht wichtig.

dildo4u
2006-06-07, 22:20:08
thade[/POST]']
Die Volari V8 Duo war im HighEnd angesiedelt, die letzendliche Leistung ist nicht wichtig.
Oh man ich hoffe du glaubst wirklich was du schreibts die Karten egal ob XGI oder SIS wurden niemals als High End für 500€ verkauft macht auch keinen sinn weils keiner kaufen würde.

thade
2006-06-07, 22:24:00
449€ kostete die Karte Ende 2003. Die Volaris waren im HighEnd Segmet angesiedelt von XGI.

dildo4u
2006-06-07, 22:26:26
thade[/POST]']449€ kostete die Karte Ende 2003. Die Volaris waren im HighEnd Segmet angesiedelt von XGI.Aha und wer kauft sich für 450€ eine Karte die ultra schlechte Treiber hat und dazu langsammer als die 9800XT war?Ist sowie so viel zu viel OT wir sind Mitte 2006 und es geht im die GX2 die dürfte 8mal so schnell sein wie die Volari.

thade
2006-06-07, 22:29:10
Sag mal ist das für Dich so schwer verständlich? Ein Pentium D EE war vor nem Jahr auch HighEnd, ging auch unter gegenüber einem FX.

XGI war eben der Hersteller, der sich unter die 2 Großen gemischt hat. Der Angriff von XGI war sozusagen nur der Gamebereich bzw HighEnd bereich. Ist zwar schiefgegangen, aber trotzdem egal!

Tjell
2006-06-07, 22:31:41
@thade

Dir ist das wohl zu hoch, oder wie? Wenn eine 7900 GTX schon ein kompliziertes (und teures) 12-Layer-PCB braucht, wie soll dann wirtschaftlich/kostengünstig eine Dual-GPU-Karte entstehen? Die bräuchte fast schon notwendigerweise noch mehr Schichten.

Jetzt hat es NVidia mit zwei 8-Layer-PCB geschafft, SLI-Leistung auf einen Steckplatz und 2 Slots zu bringen und Du willst nur das Negative sehen.

dildo4u
2006-06-07, 22:32:41
thade[/POST]']Sag mal ist das für Dich so schwer verständlich?
Ja ich frag mich immer noch was ein haufen Transistoren Schrott von 2003mit der GX2 zu tun haben soll?Fakt ist die GX2 ist so billig zu produzieren und NV gibt den Preis an den Kunden weiter und muss keine 800€ auf den Tisch legen ist doch alles ok.

Gast
2006-06-07, 22:44:08
Gast[/POST]']Latte bald kommt ne X1950 XTX in 80 N Stromsparend Kühl mit 850/2500 MHZ GDR 4 Speicher...Träum weiter...;)

thade
2006-06-07, 22:45:35
Nvidia ist ein kapitalistisches Unternehmen, sparen wos nur geht. Hmm am AF wurde ja auch kräftig gespart :tongue:

Das macht jeder. Das Volari Design wäre machbar gewesen, auch für 550€, die Entwicklung allerdings ist ein bischen kostspieliger, darum diese Doppeldecker Lösung.

Aber glaubt war ihr wollt, Ihr redet eh immer nur alles gut. Typische Schleimer, die nie was kritisieren, weil es ja unbeliebt machen könnte. Sowas von arm, aber egal, das Thema ist für mich gegessen.

Coda
2006-06-07, 22:46:55
SKYNET[/POST]']brauch man jenseits der 1600*1200 noch AA?! O_o
Ja!

thade[/POST]']die Entwicklung allerdings ist ein bischen kostspieliger, darum diese Doppeldecker Lösung.
Eher das Gegenteil ist der Fall. Diese Doppelkarte ist kürzer und billiger als jede Single-PCB-Lösung. Einen Nachteil kann ich auch beim besten Willen nicht erkennen.

Warum sollte es komplexer sein zwei Chips hintereinander auf ein Monster-PCB zu setzen? Das ist doch Unsinn.

Gast
2006-06-07, 22:49:31
thade[/POST]']Nvidia ist ein kapitalistisches Unternehmen, sparen wos nur geht. Hmm am AF wurde ja auch kräftig gespart :tongue:

Das macht jeder. Das Volari Design wäre machbar gewesen, auch für 550€, die Entwicklung allerdings ist ein bischen kostspieliger, darum diese Doppeldecker Lösung.

Aber glaubt war ihr wollt, Ihr redet eh immer nur alles gut. Typische Schleimer, die nie was kritisieren, weil es ja unbeliebt machen könnte. Sowas von arm, aber egal, das Thema ist für mich gegessen.

Du hast ein Problem wenn man nicht die gleiche Meinung hat wie du, egal um was es geht. Das ist dein Problem, nicht das der anderen

thade
2006-06-07, 22:51:53
Coda[/POST]']
Warum sollte es komplexer sein zwei Chips hintereinander auf ein Monster-PCB zu setzen? Das ist doch Unsinn.

Siehe Tjell und Dildos Meinungen. Ich sage die ganze Zeit, es wird nicht schwieriger sein 2 GPUs auf ein PCB zu pflanzen, andere schaffen das auch.

Auch wenn mir das Wissen dazu fehlt, aber hier gibts sicher keinen der so tief drin ist in der Materie!

Tjell
2006-06-07, 22:51:58
Das mit "Schleimer" habe ich jetzt mal überlesen.

Dir hingegen scheint echt zu stinken, dass die Lösung unschön, aber dennoch praxistauglich und anwenderfreundlich ist. Anders ist es kaum zu erklären, dass Du den Befürwortern vorwirfst, sie seien unkritisch und leichtgläubig.

Dass die Rechenarchitektur in Sachen AF und Shaderleistung sowie MSAA@HDR der von ATI hinterhinkt, werden die meisten aufmerksamen Forenteilnehmer zur Genüge kennen. Die Vorzüge in Sachen Füllrate, FP-Filtern bei HDR und (derzeit) Stromverbrauch sowie SSAA scheinst Du hingegen auszublenden.

thade
2006-06-07, 22:54:36
Tjell[/POST]']
Dass die Rechenarchitektur in Sachen AF und Shaderleistung sowie MSAA@HDR der von ATI hinterhinkt, werden die meisten aufmerksamen Forenteilnehmer zur Genüge kennen. Die Vorzüge in Sachen Füllrate, FP-Filtern bei HDR und (derzeit) Stromverbrauch sowie SSAA scheinst Du hingegen auszublenden.

Das war nur ein kleiner Stich gegen NV. Ich weiß beide haben ihre Stärken und Schwächen. SSAA bringt mir aber nur bei älteren Games was, bei neuen fehlt einfach die Power!

Tjell
2006-06-07, 23:03:38
The more layers a PCB has, the more expensive it is to make. So reducing the layer count of a video card from eight to six considerably drops cost, which allows more competitive prices.
Quelle (http://www.techpowerup.com/printreview.php?id=/Sapphire/Factory)

Das ist der Grund, warum Mainstream-Karten (wie die 7600 GT) üblicherweise nur ein 6-Layer-PCB besitzen und die Einsteiger-Grafikkarten, wenn ich das recht erinnere, 4-Layer-PCB.

Nicht von ungefähr kam der Preis der 7800 GT DUAL von Asus und nicht von ungefähr sind alle anderen Prototypen sang und klanglos von der Bildfläche verschwunden, ohne auf den Markt zu kommen - sie waren schlicht preislich nicht konkurrenzfähig, sprich zu teuer.

Benny12345
2006-06-08, 10:32:25
Wie ist denn jetzt eigentlich die Taktfrequenz der 7950X2 ??

Habe erst was von 500/600 gelesen aber gestern in den 3DC-News dann was von 600/600.

Alternate hat aber die 7950X2 nur mit 500/600 gelistet.

Welche Angaben stimmen denn nun ??


MfG Benny

TobiWahnKenobi
2006-06-08, 10:36:14
600/600MHz meint meine kristallkugel.
aber die ist eh ein bissl beschlagen, alt und sehr positiv eingestellt ;)


(..)

mfg
tobi

AnarchX
2006-06-08, 10:40:56
500/600MHz...
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/2/#abschnitt_technische_daten
Keine Ahnung wo sie die Angabe auf der Hauptseite her haben, die ist aber definitiv falsch.
Die schnellste 7950GX2 hat 570MHz Chiptakt.

Benny12345
2006-06-08, 10:41:38
Hmm

Dann werd ich wohl am besten auf die XFX 7950X2 warten....

Aber wie die dann auf 600/600 kommen wüsst ich auch gerne mal...

TobiWahnKenobi
2006-06-08, 11:23:04
sag' nochmal einer, quad-sli funzt nicht ;)

http://img80.imageshack.us/img80/2500/fearquadsli1xj.jpg
http://img83.imageshack.us/img83/6504/fearquad17qb.jpg
FW91.31


(..)

mfg
tobi

KraetziChriZ
2006-06-08, 11:25:27
:D :D

Ist der Screen von dir?

gruß
chris

TobiWahnKenobi
2006-06-08, 11:34:12
nein.


(..)

mfg
tobi

Squall2010
2006-06-08, 12:29:02
Ja was ist mit den angaben?

1600x1200 und was wurde noch eingestellt?

Den auf dem zweiten bild steht das es Automatisch eingestellt wurde. Also weis man halt nicht ob AA und AF auch auf volle pulle standen oder überhaubt an waren.

TobiWahnKenobi
2006-06-08, 12:40:21
ähm.. es geht primär darum, dass quad-sli mit der GX2 und FW 91.31 funktioniert und nicht um irgendwelche einstellungen bezgl. des AA/AF grades.

es war aber 1600x1200 / 4xAA und 16xAF @HQ


(..)

mfg
tobi

aths
2006-06-08, 12:49:36
SKYNET[/POST]']brauch man jenseits der 1600*1200 noch AA?! O_oAber natürlich. Sogar wenn man ein Display hat, welches die Augen-Netzhautauflösung überschreitet, ist AA nützlich.

MSABK
2006-06-09, 15:16:01
Hat sich jemand die Karte gekauft?

Timewarp82
2006-06-09, 15:27:28
Wäre doch reine Geldverschwendung... Bei niedrigeren Auflösungen Lansgamer als ein 256Mb GTX SLI-Gespann. Lohnenswert wenn man nen Monitor hat der Auflösungen jenseits von 2500x19xx packt. Ansonsten nur Kopfsache das man halt wieder was neues für den PC kauft

Gast
2006-06-09, 15:37:13
Timewarp82[/POST]']Bei niedrigeren Auflösungen Lansgamer als ein 256Mb GTX SLI-Gespann. Warum sollte die GX2 langsamer als ein 7800GTX/256-SLI sein? Das kann ich nicht so recht glauben...

Rente
2006-06-09, 15:39:41
Gast[/POST]']Warum sollte die GX2 langsamer als ein 7800GTX/256-SLI sein? Das kann ich nicht so recht glauben... Es stimmt auch nicht, denn zwei 7900GTs mit 512MB@500MHz Coretakt im SLi sollten immer schneller als zwei normale 7800GTX im SLi.

Timewarp82
2006-06-09, 16:22:18
Irgendwo war ein riesiger Bericht über QuadSLI da stands ganz deutlich drin. Bloß wo weiß ich nicht mehr... Vielleicht kann jemand meine Aussage unterstützen falls er diesen Test gelesen hat.

dildo4u
2006-06-09, 20:38:26
Kein Wunder das die neuen Geforce Karten immer so knapp sind wenn sich einer 14 bestellt. :lol:


http://i7.photobucket.com/albums/y259/GoriLLakoS/14Cards.jpg

http://i7.photobucket.com/albums/y259/GoriLLakoS/7950__1iKarta.jpg

http://i7.photobucket.com/albums/y259/GoriLLakoS/Quad_SLI_2.jpg

http://www.xtremesystems.org/forums/showthread.php?t=102591

The_Invisible
2006-06-09, 20:46:31
dildo4u[/POST]']Kein Wunder das die neuen Geforce Karten immer so knapp sind wenn sich einer 14 bestellt. :lol:


DAS ist ja verrückt :eek:

und hier im forum wird man schon als freak abgestempelt wenn man ne >500€ grafikkarte hat

mfg

KraetziChriZ
2006-06-09, 20:52:55
The_Invisible[/POST]']und hier im forum wird man schon als freak abgestempelt wenn man ne >500€ grafikkarte hat

FREAK!

MSABK
2006-06-09, 21:19:09
Prutal!!

Was will der mit so vielen Karten?

Edit: Des sind ja fast über 7000€!! :eek:

Gast
2006-06-09, 21:20:23
MSABK[/POST]']Prutal!!

Was will der mit so vielen Karten?Wahrscheinlich die am besten übertaktbaren raussuchen und den Rest weiterverkaufen.

MSABK
2006-06-09, 21:23:19
Gast[/POST]']Wahrscheinlich die am besten übertaktbaren raussuchen und den Rest weiterverkaufen.

Ach du sch.....

Deswegen so viele Karten.

Damals wo ich mir 2 6800er gekauft hatte, war ich mit nem 120er Puls an der Kasse.

KraetziChriZ
2006-06-09, 21:47:20
Der Wahnsinn geht weiter...:

http://www.thelab.gr/attachment.php?s=&postid=401279

gruß
chris

AnarchX
2006-06-09, 21:52:51
Mal sehen ob er sein Octo-SLI auch in Games zum laufen bekommt...:|

KraetziChriZ
2006-06-09, 21:57:31
AnarchX[/POST]']Mal sehen ob er sein Octo-SLI auch in Games zum laufen bekommt...:|

Das glaube ich kaum :)

Es ist allerdings erfreulich, das die Karte in jedem beliebigen PCI-E x16 Board läuft.. also auch auf Conroe usw...

Impressionen (hoffe die Bilder wurden noch nicht gepostet) für alle die, die sich nicht durch andere ausländische FOren klicken wollen:

http://alt.modlabs.net/7950gx2versus7900gtx.jpg

http://www.iamxtreme.net/video/7950xxx/conroe_7950_06.JPG

gruß
chris

AnarchX
2006-06-09, 22:00:20
KraetziChriZ[/POST]']Das glaube ich kaum :)

Ist eben alles nur ein Frage des Treibers, genau wie SLI auf Non-nForce.

KraetziChriZ
2006-06-09, 22:25:47
AnarchX[/POST]']Ist eben alles nur ein Frage des Treibers, genau wie SLI auf Non-nForce.

Jup, nur es existiert kein Treiber, der soetwas auch nur ansatzweise unterstützt. Müsste man mal unseren Nvidia-Treiber Spezi fragen (Razor), ob da irgendwas eingebaut ist, was nach 4GPUs+ riecht, aber ich denke mal ganz stark: NEIN!

gruß
chris

Coda
2006-06-09, 22:58:43
Das Octa-SLi hätte fast 100 GTexel/s X-D

Gast
2006-06-09, 23:55:44
Bei Octa-SLI mit AFR wäre die Eingabeverzögerung auch viel zu groß, da ja immer schon 8 Bilder im Voraus berechnet werden müssen. Und mit SFR bekommt man wahrscheinlich keinen Geschwindigkeitsvorteil mehr gegenüber Quad-SLI, da die Vertexshader limitieren.
Also wird das wahrscheinlich nie kommen.

Gast
2006-06-10, 00:00:50
Ich hoffe, dass sich nicht einmal Quad-SLI richtig etablieren wird. Wo soll das denn noch hinführen?

Coda
2006-06-10, 00:24:40
Braucht dich doch nicht zu interessieren wie Leute ihre 30" Apple-Displays mit Füllrate füttern ;)

Gast
2006-06-10, 00:36:55
Coda[/POST]']Braucht dich doch nicht zu interessieren wie Leute ihre 30" Apple-Displays mit Füllrate füttern ;)

Es interessiert ihn, genauso wie mich, ich hoffe auch, das sich das niemals durchsetzen wird, da sonst der Spagat zwischen Normaluser und High End User immer größer wird und das ist immer schlecht.

Coda
2006-06-10, 01:14:45
Das ist kein High-End - das ist Luxus. Das haben so wenige dass es keine Auswirkungen auf die Entwicklung hat.

Darum: Scheißt drauf. Ihr brauchts ja nicht kaufen.

thade
2006-06-10, 01:22:35
Coda[/POST]']Braucht dich doch nicht zu interessieren wie Leute ihre 30" Apple-Displays mit Füllrate füttern ;)

Ist doch Schachsinn diese Art von MultiGPU System zu unterstützen. Die sollen wieder zum Ursprung kommen, ein Chip soll reichen, oder sie sollen es lassen, wenn sie dazu nicht in der Lage sind.

Coda
2006-06-10, 01:25:16
Nö. Was wirklich zählt ist Leistung/Watt und da ist ATi derzeit auch nicht besser. So siehts aus. Selbst wenn sie 100 kleine Chips auf 5 PCBs pappen die die gleiche Leistungsaufnahme haben und diese Größe (eine X1900XTX ist auch nicht kleiner) - bei dem Preis wär es mir immer noch scheiß egal.

nVIDIA hat derzeit nunmal einen viel billiger herzustellenden Chip und die bessere Multi-GPU-Technik als ATI. Den Vorteil spielen sie mit der Konstruktion aus.

Dein Feldzug gegen alles was grün ist ist mir herzlich egal, logische Gründe hast du eh noch keine angeführt.

thade
2006-06-10, 01:37:30
Das war auf beide bezogen, NV und ATi!

Coda[/POST]']
Dein Feldzug gegen alles was grün ist ist mir herzlich egal, logische Gründe hast du eh noch keine angeführt.

Was führst Du für Gründe an? Du bist doch grüner als grün!
Ich habe meine Gründe, die reichen mir....

Coda
2006-06-10, 01:41:52
Das macht das Argument trotzdem nicht besser. Anscheinend ist diese Konstruktion ausgereift, relativ sparsam, räumlich gleich groß wie übliche High-End-Karten, schnell und günstig in der Herstellung. Mehr braucht einen nun wirklich nicht zu interessieren.

Und wenn das Ding aussieht wie nen Kuhfladen. Wen zur Hölle interessiert das? Was zählt ist das was man für sein Geld bekommt nicht die technische Realisierung.

thade[/POST]']Was führst Du für Gründe an?
Soll das ein Scherz sein?

thade[/POST]']Du bist doch grüner als grün!
Ich bin gar nichts.

thade
2006-06-10, 01:46:42
Coda[/POST]']Das macht das Argument trotzdem nicht besser. Anscheinend ist diese Konstruktion ausgereift, relativ sparsam, räumlich gleich groß wie übliche High-End-Karten, schnell und günstig in der Herstellung. Mehr braucht einen nun wirklich nicht zu interessieren.

Die sollen alle wieder zurückkommen auf den normalen Weg. Sag mal merkt ihr überhaupt noch was? Dieses ewige Verteidigen der Industrie ist sowas von lächerlich. Niemand kritisiert diese Vorgehensweise. Ein Chip soll reichen, eine normale Graka. Wenn sie anders nicht an Mehrleistung rankommen, sollen alle beide aufhören mit dem Entwickeln.


Soll das ein Scherz sein?

Wie Du mir, so Ich dir...

Ich bin gar nichts.

Doch Du bist grün, Du gibst es nur nicht zu.

Gast
2006-06-10, 01:46:55
Die Diskussion drehte sich um Quad SLI, nicht um eine einzelnde GX2.

Quad SLI ist alles andere als ausgereift, wie diverse Tests gezeigt haben (Abstürze) und nimmt auch nicht weniger Platz ein, als eine vernünftige Karte, eher im Gegenteil.

Coda
2006-06-10, 01:49:29
thade[/POST]']Die sollen alle wieder zurückkommen auf den normalen Weg.
Und du diktierst den "normalen Weg" oder wie? Schon die Voodoo 1 hatte mehrere Chips. Das ist doch völlig irrelevant.

thade[/POST]']Niemand kritisiert diese Vorgehensweise.
Warum sollte man? Solange sich die Leistungsaufnahme in den gleichen Grenzen bewegt ist doch völlig Pumpe wie das PCB bestückt ist oder aussieht.

thade[/POST]']Ein Chip soll reichen, eine normale Graka. Wenn sie anders nicht an Mehrleistung rankommen, sollen alle beide aufhören mit dem Entwickeln.
Siehe oben.

thade[/POST]']Doch Du bist grün, Du gibst es nur nicht zu.
Alter Kindskopf. Mehr fällt mir dazu echt nicht mehr ein.

Ich habe es nicht nötig in solchen Verhältnissen zu denken (weder finanziell noch geistig). Ich kaufe was mir gefällt und derzeit ist es eventuell eine GX2 (weil ich kein Oblivion spiele und nen 1600x1200er TFT hab der einfach viel Füllrate braucht). Früher war es einmal eine 9700 Pro (mit der ich vollkommen zufrieden war). Wayne?

del_4901
2006-06-10, 01:52:37
lso der Coda und ich wir haben beide viel mit GPU zu tun und MÜSSEN damit leben ... egal ob Ati oder Nv der größte gemeinsame Nenner ist Pflicht. Ich kann mir es einfach nicht leißten Grün zu sein ... ich bin zu "Braun" verpflichtet.

Und von meiner Seite aus muss ich leider festellen, das insbesondere bei OGL Ati mich jedesmal wieder entäuscht, und ich eine Gute Idee auf das "Ati Level" runterschrauben muss. Das tut schon irgendwie manchmal im Herzen weh.

thade
2006-06-10, 01:59:02
Coda du magst mich vllt mit deinem Wissen locker in die Tasche stecken, aber intelektuell bist mir sicher nicht überlegen.....

Außerdem bin Ich jetzt viel zu müde für solche Diskussionen. Du verteidigst ständig Nvidias neue "Errungenschaften", negative Wort sucht man vergebens.

del_4901
2006-06-10, 02:01:43
Ich habe schon Nv verflucht. doch dann schreib man einen vom Dev-Support an ... und in binnen weniger Tage ists gefixt. Mach das mal bei Ati, da mussu glück haben das de ne Antwort bekommst. Sowas brennt sich ein.

Coda
2006-06-10, 02:06:13
thade[/POST]']Coda du magst mich vllt mit deinem Wissen locker in die Tasche stecken, aber intelektuell bist mir sicher nicht überlegen.....
*gröhl* - You made my day :D

dildo4u
2006-06-10, 03:47:52
thade[/POST]']Die sollen alle wieder zurückkommen auf den normalen Weg. Sag mal merkt ihr überhaupt noch was? Dieses ewige Verteidigen der Industrie ist sowas von lächerlich. Niemand kritisiert diese Vorgehensweise. Ein Chip soll reichen, eine normale Graka. Wenn sie anders nicht an Mehrleistung rankommen, sollen alle beide aufhören mit dem Entwickeln.

Hmm also ich stimme dir zu dann musst du aber auch deine CPU rausschmeißen oder nein viel besser AMD und Intel sollen aufhören CPUs zu bauen wenn sie nicht mher Leistung mit einem Kern hinkriegen. :lol:

thade
2006-06-10, 05:52:46
Das ist in meinen Augen was völlig anderes. Versteh mich doch, bei einer CPU ist das kein Design Nachteil, Grakas mit mehr Chips sind groß etc.

Die sollen alles beide, NV und ATi, Karten wie ne X800XT bringen, das war noch ne Karte, Leistung satt, klein.....! Ist denn das nicht erstrebenswert?

AlexanderBehm
2006-06-10, 08:50:07
Ist das erstrebenswert ... NEIN!

Die Hersteller solltens ich imho lieber überlegen wie sie Mainboards bauen können wo man Quad SLI mit Dual Karten realisieren kann, also 8 Chips.

Wer nciht will kann eh bei seiner einzelnen Karte bleiben, aber in nem Gehäuse ist soviel Platz, nen größeres Mainboard und da passen noch viel mehr Karten rein. Ich hoffe NV macht weiter in der Richtung.

Gast
2006-06-10, 09:07:10
Coda[/POST]']Das ist kein High-End - das ist Luxus. Das haben so wenige dass es keine Auswirkungen auf die Entwicklung hat.

Darum: Scheißt drauf. Ihr brauchts ja nicht kaufen.Jein. Es nutzt zwar praktisch keine Sau, aber trotzdem ist jedes zweite moderne Mobo SLI-/CF-/whatever-fähig. Und die andere Hälfte ist Low-End-Schrott.

-zecki

boxleitnerb
2006-06-10, 09:11:00
Also ich finde das ist blanker Unsinn. Wer sieht, wie wenig Vorteil Quad-Sli in den allermeisten Fällen bringt, der wird eingestehen müssen, dass Octo-Sli völliger Blödsinn ist.
SLI/CF ist ja noch vertretbar, das bringt gute Gewinne jenseits der 50% sofern man nicht CPU-limitiert ist. Wer dafuer bereit ist, das doppelte zu zahlen, zusätzlichen Lärm und Hitze in Kauf zu nehmen - bitte.
Aber 8(!!!) Chips auf 4 Grakas, ich bitte dich!!!

Coda
2006-06-10, 12:44:23
Gast[/POST]']Jein. Es nutzt zwar praktisch keine Sau, aber trotzdem ist jedes zweite moderne Mobo SLI-/CF-/whatever-fähig. Und die andere Hälfte ist Low-End-Schrott.

-zecki
Ich meinte damit die Anwendungsentwicklung. Über die Mainboards reg ich mich ja auch auf.

dildo4u
2006-06-10, 15:32:22
EVGA 7950GX2 Dual GPU meet Intel Bad Axe and Conroe E6600

http://pedrorocha.planetaclix.pt/BadAxe_meetsEVGA7950GX3.jpg

http://pedrorocha.planetaclix.pt/41715_3DMarks03_7950GX2_625_800.jpg

http://pedrorocha.planetaclix.pt/19142_3DMark2005_7950GX2_625_800.jpg

10K im 06 für 550€ ein 1900CF ist nicht viel schneller kostet aber locker 900€.

http://pedrorocha.planetaclix.pt/10769_3DMark06_7950GX2_625_800.jpg

http://www.xtremesystems.org/forums/showthread.php?t=102654

Blaire
2006-06-10, 16:14:40
Die Treiber sind auch noch nicht reif.

Coda
2006-06-10, 16:20:25
Für eine GX2? Wieso nicht?

Gast
2006-06-10, 16:21:43
Coda[/POST]']Für eine GX2? Wieso nicht?

Es gibt momentan nicht mal nen offiziellen Treiber...

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/juni/nvidia_beta-treiber_9131_7950_gx2/

Blaire
2006-06-10, 16:35:37
Coda[/POST]']Für eine GX2? Wieso nicht?

Zumindest QuadSLI kränkelt noch bei D3D da ist noch jede Menge Optimierungsarbeit notwendig, OpenGL rennt einwandfrei da merkt man die Kraft der "4 Herzen" ;)

Coda
2006-06-10, 16:39:01
Gast[/POST]']Es gibt momentan nicht mal nen offiziellen Treiber...
ftp://download.nvidia.com/Windows/91.31

Blaire[/POST]']Zumindest QuadSLI kränkelt noch bei D3D da ist noch jede Menge Optimierungsarbeit notwendig, OpenGL rennt einwandfrei da merkt man die Kraft der "4 Herzen" ;)
Ja, es ging mir um ein Karte. Das ist ja schließlich für den Treiber nichts anderes als normales SLI.

Gast
2006-06-10, 16:42:28
[QUOTE='Coda']ftp://download.nvidia.com/Windows/91.31

Das ist ein Beta Treiber.

Außerdem hat der Treiber noch diverse Bugs...

Das ist mal wieder typisch, das Produkt ist am Markt und die Kunden dürfen Beta Tester spielen.

Coda
2006-06-10, 16:43:43
Gast[/POST]']Das ist ein Beta Treiber.
Du sprachst davon das es keinen "offiziellen Treiber" gibt. Das Ding ist offiziell, sonst läge er nicht auf dem nVIDIA-FTP. Q.e.d.

Gast[/POST]']Außerdem hat der Treiber noch diverse Bugs...
Die wären? (Abgesehen vom neuen Panel das man nicht benützen muss)

Gast
2006-06-10, 16:45:09
Offiziell ist der Treiber erst, wenn er bei www.nvidia.com mit einer WHQL Zertifizierung zum Download angeboten wird.

Vorher ist und bleibt es eine Beta. Oder hast du irgendwo bei nVidia eine ankündigung gefunden, das der 91.31 offiziell released ist:confused:

Coda
2006-06-10, 16:45:31
Gast[/POST]']Offiziell ist der Treiber erst, wenn er bei www.nvidia.com mit einer WHQL Zertifizierung zum Download angeboten wird.
Ja klar, und das hast du definiert oder was? :crazy2:

Gast
2006-06-10, 16:53:03
Coda[/POST]']Ja klar, und das hast du definiert oder was? :crazy2:

Das ist die offizielle Definition von ATI, nVidia ... denn mit einem neuen Treiberrelease gibts auch eine offizielle Release News...

Siehst du eine solche beim 91.31?

Davon mal abgesehen, sind Beta Treiber für produktsysteme unbrauchbar.

Darüber braucht man gar nicht zu diskutieren. Welcher User, der ernsthaft mit dem PC arbeitet oder spielt, installiert Beta Software?

Coda
2006-06-10, 16:56:08
Gast[/POST]']Das ist die offizielle Definition von ATI, nVidia
Aha. Wo?

Gast[/POST]']Das ist die offizielle Definition von ATI, nVidia ... denn mit einem neuen Treiberrelease gibts auch eine offizielle Release News...
ftp://download1.nvidia.com/Windows/91.31/91.31_ForceWare_Release_Notes.pdf

Gast[/POST]']Davon mal abgesehen, sind Beta Treiber für produktsysteme unbrauchbar.
Das einzige was wirklich Beta ist an dem Treiber ist das Panel.

Außerdem kann man bei einem Game-PC wohl kaum von einem Produktivsystem reden ;)

Gast[/POST]']Darüber braucht man gar nicht zu diskutieren. Welcher User, der ernsthaft mit dem PC arbeitet oder spielt, installiert Beta Software?
Ich hatte schon etliche nicht-beta-Treiber von nVIDIA die deutlich schlimmer waren. Das Ding macht absolut keine Probleme.

Aber flame ruhig sinnlos weiter, ich bin mal wech.

dildo4u
2006-06-10, 16:59:08
Blaire[/POST]']Zumindest QuadSLI kränkelt noch bei D3D da ist noch jede Menge Optimierungsarbeit notwendig, OpenGL rennt einwandfrei da merkt man die Kraft der "4 Herzen" ;)Das liegt whol eher an der hohen Treiber CPUlast die bei opengl geringer ausfällt mit einem SingelCore System wird auch ein neuer Treiber keine deutliche Verbesserungen bringen der Verwaltungsaufwand unter D3D scheint bei 4GPUs schon sher hoch zu sein.

Gast
2006-06-10, 17:02:05
Coda[/POST]']ftp://download1.nvidia.com/Windows/91.31/91.31_ForceWare_Release_Notes.pdf

Das ist eine Release Notes (=Anmerkungen), keine Release News. Kennst du den Unterschied?

Die Notes beschreibt die Änderungen, die News gibt den Treiber offiziell für den produktiveinsatz frei.

Beispielweise findest du auf www.nvidia.com mit jedem Treiberrelease eine Mitteilung seitens nVidia wie momentan zum aktuellsten Treiber der 80er Serie.

Vom 90er sehe ich da nichts und ist sage es noch einmal: Kein Mensch, der ernsthaft mit seinem System arbeitet, installiert Beta Treiber, zumal dieser sogar noch diverse reproduzierbare Bugs hat.

Das Taskleistensymbol lässt sich beispielsweise nicht abstellen, es nervt jedes mal mit einer Meldung nach dem Start.

Gast
2006-06-10, 17:11:47
Coda[/POST]']Aha. Wo?

Guck doch mal genauer hin.
Mit jedem offiziell releasenden Treiber gibts auf der Hauptseite der jeweiligen Hersteller eine Mitteilung, eventuell sogar eine Pressemitteilung.
Für Beta Treiber wirst du solch eine nicht finden - aus gutem Grund - weil es eben keine offiziellen Treiber sind.
Schließlich wollen sich die Hersteller ihren Ruf nicht versauen, weil Leute einen Beta Treiber installieren, welcher Probleme verursacht.

Das einzige was wirklich Beta ist an dem Treiber ist das Panel.

Du bist also in der Lage das einzuschätzen?
Hast du einblick in den Quellcode:confused:

Außerdem kann man bei einem Game-PC wohl kaum von einem Produktivsystem reden ;)

Warum sollte ein User, der solch eine Karte verwendet, umbedingt ein Gamer sein?
Grafikleistung braucht es auch bei anderen Anwendungen...

KraetziChriZ
2006-06-10, 17:33:24
Niemand der so eine Karte Ernsthaft Produktiv einsetzt, wird sich die Karte 1-2 Wochen nach Release kaufen.

gruß
chris

Gast
2006-06-10, 17:39:16
Das würde ich so nicht sagen. Die Karte ansich wird sicher keine großartigen "Fehler" aufweisen, viel anfälliger ist da die Software und so lange diese Beta ist, würde ich sogar als Gamer davon abraten.

Davon abgesehen wird der Preis in den ersten 2 Wochen eh künstlich hoch gehalten, also wozu unnötig Kohle rauswerfen. :)

Coda
2006-06-10, 19:52:19
Gast[/POST]']Du bist also in der Lage das einzuschätzen?
Ja, weil ich den Treiber schon seit Release mit normalem SLI betreibe und er absolut stabil ist. Da eine GX2 sich nicht anders verhält ist das einfach Blödsinn was du laberst.

Deinen "Produktiveinsatz" kannst du eh vergessen. Es handelt sich hier nicht um eine Quadro.

Gast[/POST]'] zumal dieser sogar noch diverse reproduzierbare Bugs hat.
Ich frage nochmal: Welche?

Gast
2006-06-10, 20:17:41
Coda[/POST]']Ja, weil ich den Treiber schon seit Release mit normalem SLI betreibe und er absolut stabil ist.

Na das ist mal ein Argument. Du meinst also, nur weil er bei dir gut läuft, das er das bei Millionen, ich wiederhole, Millionen von Usern auch tut?
Glücklicherweise gehört zu einer Qualitätsprüfung etwas mehr, als nur ein starkes Ego.

Da eine GX2 sich nicht anders verhält ist das einfach Blödsinn was du laberst.

Ich bin das beste Gegenbeispiel, das ich keinen "blödsinn" rede, so wie du andere gleich mal wieder als dumm abstempeln willst.

Deinen "Produktiveinsatz" kannst du eh vergessen. Es handelt sich hier nicht um eine Quadro.

Du definierst was ein User braucht?
Was ist mit denen, die hobbymäßig mit 3D Grafiken arbeiten und nicht 5000 Euro in eine Grafikkarte investieren wollen?

Ich frage nochmal: Welche?

Einen habe ich in diesem Thread schon genannt und es ist nicht der einzige, wie du ebenfalls anderen Forenberichten entnehmen kannst.

nVidia nennt einen Treiber nicht zum Spaß "Beta", an deiner Argumentation solltest du noch etwas feilen.

Coda
2006-06-10, 20:19:24
Gast[/POST]']Na das ist mal ein Argument. Du meinst also, nur weil er bei dir gut läuft, das er das bei Millionen, ich wiederhole, Millionen von Usern auch tut?
Glücklicherweise gehört zu einer Qualitätsprüfung etwas mehr, als nur ein starkes Ego.
Ich glaube du überschätzt den Absatz von den GX2-Karten etwas. Und ja ich glaube schon dass das Ding ziemlich stabil ist, zumindest war hier im Forum im entsprechenden Thread nichts negatives zu hören (das Far-Cry-Problem von mir war ein Bug im Spiel mit bestimmten Config-Einstellungen).

Gast[/POST]']Was ist mit denen, die hobbymäßig mit 3D Grafiken arbeiten und nicht 5000 Euro in eine Grafikkarte investieren wollen?
Die brauchen sich das Ding ja nicht gleich kaufen wenn sie so paranoid sind, oder? :|

Gast[/POST]']nVidia nennt einen Treiber nicht zum Spaß "Beta", an deiner Argumentation solltest du noch etwas feilen.
Beta heißt schlicht "noch nicht ausreichend getestet", nicht "hat auf jeden Fall noch Bugs". Das wäre eine Alpha.

Gast[/POST]']Das Taskleistensymbol lässt sich beispielsweise nicht abstellen, es nervt jedes mal mit einer Meldung nach dem Start.
Das ist natürlich ein Showstopper erster Klasse ;)

thade
2006-06-10, 20:21:07
Blaire[/POST]']Die Treiber sind auch noch nicht reif.

Du hast ja jetzt doch Quad SLI. Du bist echt ein Verrückter, afaik hattest bisher alle SLI Karten, von der 6800U angefangen.

Nur Ich frage mich wieso? Hat dir das 7900GTX SLI nicht mehr gereicht? Das müsste doch selbst für einen große TFT reichen. Zumal es keine Übergames gibt, die kommen ja erst noch. Soviel Geld rausschmeißen, das verstehe Ich nicht.

Ich lasse es mir eingehen, wenn Du komplett verrückt wärst, aber dann reicht das Geld offenbar doch nichtmal für eine gute CPU....

Coda
2006-06-10, 20:23:20
Auf einem "30" Dell 3007" ist ein 2,75Ghz K8 sicher nicht das Problem. Wenn die CPU reicht für 40-60FPS ist doch alles in Butter.

Ich verstehe Blair. Das Ding hat nochmal doppelt so viele Pixel wie ein 20" (1600x1200) und dafür brauchst eigentlich schon SLI im Moment.

thade
2006-06-10, 20:26:33
Ja schon, aber Blaire rüstet immer dann auf wenn es neue NVs gibt. Afaik hat er von 7800GTX 512 SLI auf 7900GTX SLI gewechselt, vorher hatte er X1900XT CF. Ich versteh schon, es kann Hobby sein, aber Sinn macht es nicht.

Deswegen auch die Feststellung mit der CPU. Er ist nicht komplett verrückt, nur SLI verrückt, das ist nicht böse gemeint!

A.Wesker
2006-06-10, 20:53:54
thade[/POST]']Ja schon, aber Blaire rüstet immer dann auf wenn es neue NVs gibt. Afaik hat er von 7800GTX 512 SLI auf 7900GTX SLI gewechselt, vorher hatte er X1900XT CF. Ich versteh schon, es kann Hobby sein, aber Sinn macht es nicht.

Deswegen auch die Feststellung mit der CPU. Er ist nicht komplett verrückt, nur SLI verrückt, das ist nicht böse gemeint!

ich versuche dir hiermit mal anhang der letzten grafikkarten näher zu bringen, warum er evtl so oft wechselt (so mache ich es jedenfalls).

6800 Ultra AGP EK: 600 €
verkauft für 570 €

2x6800 Ultra PCIe EK: 700 €
verkauft für 750 €

7800 GTX EK: 530 €
verkauft für 500 €

7800 GTX 512 MB EK: 649 €
verkauft für 1100 €

7900 GTX.....


und jetzt mal eine ganz bescheidene frage. warum hätte ich die 7800 GTX 512 MB behalten sollen? damit sie danach nurnoch 1/4 wert ist? nur weil die leistung reicht? da kaufe ich mir lieber gegen einen evtl gering ausfallenden aufpreis die nächste generation...

The_Invisible
2006-06-10, 21:03:12
thade[/POST]']Du hast ja jetzt doch Quad SLI. Du bist echt ein Verrückter, afaik hattest bisher alle SLI Karten, von der 6800U angefangen.

Nur Ich frage mich wieso? Hat dir das 7900GTX SLI nicht mehr gereicht? Das müsste doch selbst für einen große TFT reichen. Zumal es keine Übergames gibt, die kommen ja erst noch. Soviel Geld rausschmeißen, das verstehe Ich nicht.

Ich lasse es mir eingehen, wenn Du komplett verrückt wärst, aber dann reicht das Geld offenbar doch nichtmal für eine gute CPU....

quad SLI ist jetzt um nichts teurer als beim release 7900gtx SLI

außerdem, wenn man schon immer SLI hatte bringt es quasi nix bei der nächsten generation auf eine Singlecard zu setzen da man hier höchstens die gleiche performance haben wird wie vorher mit SLI.

mfg

pXe
2006-06-10, 21:58:39
Was passiert eigentlich wenn man Quadsli mit einem 32Bit Windows benutzt? Der VRAM wird ja unterhalb von 4GB eingeblendet, aber Quad-SLI hat doch insgesamt schon 2GB an Video Ram...?


pXe

Coda
2006-06-10, 22:19:29
Der gemeinsam genutzte Texturspeicher belegt wohl nur einem virtuellen Addressraum - ansonsten kann man wohl davon ausgehen dass bei SLI viel gepaged werden muss.

Palpatin
2006-06-17, 04:57:13
Grad mal was ausgerchnet die 7950x2 braucht ca 20-25% mehr Strom als ne 7900 gtx ist aber z.t bis zu 50% schneller.... MultiGPU die Zukunft?

Kladderadatsch
2006-06-17, 09:08:22
Palpatin[/POST]']Grad mal was ausgerchnet die 7950x2 braucht ca 20-25% mehr Strom als ne 7900 gtx ist aber z.t bis zu 50% schneller.... MultiGPU die Zukunft?
wie kann das sein? die karte besteht doch lediglich aus zwei 7900gtxen?!

Gast
2006-06-17, 09:12:03
insane in the membrane[/POST]']wie kann das sein? die karte besteht doch lediglich aus zwei 7900gtxen?!

Nein, sie besteht aus zwei 7900 GT Chips...

-> niedriger Takt + 2xniedrigere VCore, wen wundert das also?

Kladderadatsch
2006-06-17, 09:29:40
Gast[/POST]']Nein, sie besteht aus zwei 7900 GT Chips...

-> niedriger Takt + 2xniedrigere VCore, wen wundert das also?
achso, ich dachte, dass seien einfach zwei aneinandergeheftete 7900gtx-boards. gut, wenn es zwei aneinandergeheftete 7900gt-boards sind, ist es verständlich;)

dargo
2006-06-17, 10:40:34
Palpatin[/POST]']Grad mal was ausgerchnet die 7950x2 braucht ca 20-25% mehr Strom als ne 7900 gtx ist aber z.t bis zu 50% schneller.... MultiGPU die Zukunft?Deine Rechnung (Stromverbrauch) kann nicht stimmen.
Wie hoch ist die Verlustleistung der 7950GX2 und der 7900GTX?

mike49
2006-06-17, 10:47:35
dargo[/POST]']Deine Rechnung (Stromverbrauch) kann nicht stimmen.
Ohne jetzt nachgerechnet zu haben: Das sollte schon in etwa so hinkommen.

Nicht vergessen, daß der Stromverbrauch quadratisch zur Spannung steigt ;)