PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : quad sli board ... omg!


Gast
2005-05-27, 16:02:48
http://www.hartware.de/news_38023.html

wer braucht sowas? das netzteil was man benötigt würde ich gern sehen ...

BK-Morpheus
2005-05-27, 16:06:36
:biggrin: LOL
Also das ist irgendwie nur wieder was, was im Prinzip eh keiner kauft, keiner Lieferbar haben wird und nur existiert um zu zeigen, was möglich wäre und damit uns die Kinnlade runterfällt oder wir was zu Lachen haben.

A.Wesker
2005-05-27, 16:20:12
jetzt muß solch ein board nurnoch von abit kommen, dann ist es gekauft :>

BvB123
2005-05-27, 16:35:31
Naja, die jetzigen A64 boards von Abit haben alle keine chance gegen die DFi Boards ;)

tombman
2005-05-27, 16:36:09
Naja, hat leider einen schweren Schönheitsfehler: Intel ;)

Interessant wäre höchstens 2x 3D1 Karten, zb zweimal die dual 6800gt, die vorhin schon gezeigt wurde.

Gast
2005-05-27, 17:06:19
"Interessanterweise werden zwei unterschiedliche Versionen des Chipsets verwendet: der nForce4 SLI Intel Edition und zusätzlich der nForce4 SLI für AMD CPUs, der dann wohl für die PEG Slots 3 und 4 zuständig ist."

also könnte evtl. auch ne s939 variante rauskommen, oder?
btw gehen da dann auch 4 x asus 6800gt dual? sprich 8 grafikchips ^^

Quasar
2005-05-27, 17:16:51
Bissel wenig Power-Connectoren für vier PEG-Slots IMO.

A.Wesker
2005-05-27, 17:28:39
Naja, die jetzigen A64 boards von Abit haben alle keine chance gegen die DFi Boards ;)
beim P4 ist abit seit dem IT7 MAX 3 ungeschlagen :>

Gast
2005-05-27, 17:39:46
Bissel wenig Power-Connectoren für vier PEG-Slots IMO.

und mit adapter kabelz? ists dann möglich?

Quasar
2005-05-27, 17:51:38
Kommt drauf an, wie die Karten designed sind, die da eingesteckt werden. Wenn es solche sind, die erstmal die 75W des PEG saugen und dann sich erst am externen Sechspin-Connector bedienen, könnte das Board recht hitzig werden, bei den bis zu 300W die da theoretisch allein für die Grafik durchgingen.

SKYNET
2005-05-27, 17:56:47
Bissel wenig Power-Connectoren für vier PEG-Slots IMO.


warum? ATX2.0 kann doch genug liefern. =)

Gast
2005-05-27, 18:10:05
man stelle sich das mal mit 4 neuen nvidia g70 cards vor ... OMG!!

SKYNET
2005-05-27, 18:46:32
besser mit 4x 7800GTX dual. ;D

ich sehe es schon vor mir:
unreal 3: 1600*1200 16xSSAA/32xAF/HDR alles on was geht und immernoch über 100fps. ;D

Aqualon
2005-05-27, 19:04:49
Wie soll denn bitte die Verbindung zwischen dem nForce4 Intel Edition und dem nForce4 für den A64 funktionieren? Über HT-Links in einem Chipsatz für Intel-Prozessoren?

Sonderlich glaubwürdig ist die Meldung nicht gerade.

Aqua

RyoHazuki
2005-05-27, 19:17:07
besser mit 4x 7800GTX dual. ;D

ich sehe es schon vor mir:
unreal 3: 1600*1200 16xSSAA/32xAF/HDR alles on was geht und immernoch über 100fps. ;D

es gäbe an der ganzen sache nur ein Problem !!!

Keine CPU könnte die Karten alle schnell genug mit daten versorgen.

Nichtmal ein Athlon 64 @ "real" 4 GHZ.

WEGA
2005-05-27, 19:20:31
es gäbe an der ganzen sache nur ein Problem !!!

Keine CPU könnte die Karten alle schnell genug mit daten versorgen.

Nichtmal ein Athlon 64 @ "real" 4 GHZ.

mit "4" ghz würde der das sicher schaffen ... abgesehen davon, dass dualcore kommt und die spiele darauf optimiert werden

stav0815
2005-05-27, 19:20:33
Wie soll denn bitte die Verbindung zwischen dem nForce4 Intel Edition und dem nForce4 für den A64 funktionieren? Über HT-Links in einem Chipsatz für Intel-Prozessoren?

Sonderlich glaubwürdig ist die Meldung nicht gerade.

Aqua

nVidia verwendet HT Links für die interChip Kommunikation.

man kann auch mehrere A64 Chipsätze zusammenschalten glaub :|

Demirug
2005-05-27, 19:23:37
Wenn das so weiter geht müssen wir bald wieder Stabelbare Gehäuse mit interconnects einsetzten. IIRC hatte einer der Acorn Archimedes sowas schon mal.

RyoHazuki
2005-05-27, 19:26:09
mit "4" ghz würde der das sicher schaffen ... abgesehen davon, dass dualcore kommt und die spiele darauf optimiert werden

sorry aber,

mit 4 GHZ sind zwei GeForce 6800 Ultra @ SLI VOLL ausgereitzt.

Und wenn schon DualCore, dann würde dieser vier GF6800Ultra besänftigen.

ABER WOVON WIR HIER REDEN SIND 8 (Acht) GPU´s, und noch dazu die nächste generation die "höchstwahrscheinlich noch mehr CPU Power benötigt um besänftigt zu werden.

Da gabs doch mal ein Artikel auf Hardwareluxx glaube ich, wo sie da SLI System mit nem FX @ über 3GHZ getestet haben. Da sieht man es glaub ich mal sehr deutlich.

Quasar
2005-05-27, 19:28:53
Solange es Supersampling gibt, kannst du auch vier Dual-Karten mit 7800 GTX in ihrer Leistung mindestens vierteln, oder gar sechzehnteln.

RyoHazuki
2005-05-27, 19:35:43
Solange es Supersampling gibt, kannst du auch vier Dual-Karten mit 7800 GTX in ihrer Leistung mindestens vierteln, oder gar sechzehnteln.

Ja klar, aber mir geht es jetzt gerade ums Prinzip mein Lieber !

Welcher Idiot würde den auf so einem System "OHNE!" Anti-Alaising Spielen ? Ich glaube das würde nichmal einer machen, der gar keine Ahnung von der Technik hat.

reunion
2005-05-27, 20:21:36
Und was macht man wenn man Zusatzkarten installieren will? :|
Der eine PCI- bzw. PCIe-Slot wird ja von den Grafikkarten überdeckt.

Gast
2005-05-27, 20:35:03
Und was macht man wenn man Zusatzkarten installieren will? :|
Der eine PCI- bzw. PCIe-Slot wird ja von den Grafikkarten überdeckt.

wer hat nach dem kauf von 4 grafikkarten noch geld für zusatzkarten ;)

Relic
2005-05-27, 20:43:28
Was haben zusatzkarten in einem benchmark prollo rechner zu suchen?
(naja mal ne PPU karte jetzt ausgeschlossen ;))

Aqualon
2005-05-27, 23:01:13
nVidia verwendet HT Links für die interChip Kommunikation.

man kann auch mehrere A64 Chipsätze zusammenschalten glaub :|Gibt es irgendwelche White Papers dazu? Mich überrascht es ein wenig, dass HyperTransport zur Kommunikation verwendet wird.

Natürlich könnten die Chipsätze auf diese Weise miteinander kommunizieren, aber den Sinn, die beiden verschiedenen nForce4-Chips zu verwenden, sehe ich nicht.

Aqua

Edit: Ok, da der nForce4 IntelEdition in Northbridge und Southbridge unterteilt ist, könnte man anstatt des Southbridge-Chips den nForce4 für AMD nehmen über den dann die 2 extra PCIe-Slots und die ganzen anderen Sachen, die normal der SSP für die nForce4 IntelEdition erledigt, laufen.

Quasar
2005-05-27, 23:38:22
Ja klar, aber mir geht es jetzt gerade ums Prinzip mein Lieber !

Welcher Idiot würde den auf so einem System "OHNE!" Anti-Alaising Spielen ? Ich glaube das würde nichmal einer machen, der gar keine Ahnung von der Technik hat.
Welches Prinzip denn, mein Lieber? Dass du in Quake3 keine 30.000 fps sehen wirst, weil die CPU "zu schwach" ist?

Ansonsten verstehe ich nicht, wie du eine GPU durch die CPU besänftigen willst? :)

RyoHazuki
2005-05-28, 04:34:17
Welches Prinzip denn, mein Lieber? Dass du in Quake3 keine 30.000 fps sehen wirst, weil die CPU "zu schwach" ist?

Ansonsten verstehe ich nicht, wie du eine GPU durch die CPU besänftigen willst? :)

Naja, ich meine eigentlich mit besänftigen, den CPU Flaschenhals !

Wie soll die Grafikkarte VOLLE Power leisten ohne die passende CPU ? :D

Aqualon
2005-05-28, 05:39:03
Wenn das so weiter geht müssen wir bald wieder Stabelbare Gehäuse mit interconnects einsetzten. IIRC hatte einer der Acorn Archimedes sowas schon mal.Von IBM gab es ja auch mal eine Studie einer Speicherlösung, die aus einzelnen Würfeln zusammengesetzt war. Aufrüsten indem man einen neuen Würfel dazusteckt, ohne groß rumschrauben zu müssen, wäre auf jedenfall eine nette Idee, aber wohl nicht gerade einfach zu realisieren.

Aqua

Gast
2005-05-28, 15:14:17
hallo zusammen!
die cpu wird in den nächsten monaten wirrklich viel zu tun bekommen! kann mir gut vorstellen, dass der g70 oder r520 im sli die cpu voll ausreizt und eventuell sogar bremst. ganz zu schweigen von 4 oder 8 GPUs! der dualcore-cpu wird da schon etwas elfen, aber ihr "vergesst" noch eine weitere neuerung, die ende des jahres kommt:
PPU (Physics Processing Unit).
hier mal ein links:
http://www.computerbase.de/news/software/spiele/2005/maerz/pcs_steckkarten_physikberechnung/
http://www.k-hardware.de/news.php?news_id=3866
http://www.pc-magazin.de/common/nws/einemeldung.php?id=36782

rocket demo download (im text anklicken): http://www.softgames.de/developia/viewnews.php?cid=20290

ich kann mir gut vorstellen, das mit der PPU eine neue "generation" beginnt, die die spiele maßgeblich verändern kann.
außerdem glaube ich, daß ein PPU optimiertes spiel auch schon mit nur einer CPU 8 GPUs "bedienen" kann, denn diese werden im spiel viel mehr objekte zu bearbeiten haben!
bei den bisherigen spielen wurden bis etwa 200 objekte berechnet, die sich an die "physikalischen gestetze" des spiels gehalten haben. mit der PPU können bis zu 32000 in Echtzeit (mehr als 100 mal so viele!) berchnet werden, welche von der GPU natürlich alle bearbeitet werden müssen!

auf jeden fall bin ich mir sicher, das die ganze CPU + GPU sache nach der PPU einführung wieder total anders aussehen wird!

Iwan
2005-05-28, 15:42:31
eine ppu hat halt ein großes problem: ohne weite verbreitung so einer karte wird kein hertsteller dafür spiele optimieren. ohne dafür optimierte spiele kauft sich keiner die karte. aber das wurde schon im entsprechenden thread durchgekaut und muss hier nicht nochmal diskutiert werden.

Mark
2005-05-28, 15:55:48
mal ne frage:

gigabyte will ja ne dual 6800ultra rausbringen (ab hier weiß jeder worauf ich hinaus will),
wird es dann möglich sein 8 6800ultra's quasi auf einem board zu haben?

ildottore
2005-05-28, 16:05:16
Nein, siehe News.

SKYNET
2005-05-28, 16:18:50
theoretisch schon, der NF4 müsste dann halt nur pro GPU PCIe 4x klar machen.

Coda
2005-05-28, 16:38:23
Ich nehme mal an das der zweite Chip der nForce Professional 2050 ist.

Gibt es irgendwelche White Papers dazu? Mich überrascht es ein wenig, dass HyperTransport zur Kommunikation verwendet wird.nVidia verwendet schon seit nForce (1) Zeiten HT zur Interchipkommunikation.

The_Invisible
2005-05-28, 17:09:12
Ja klar, aber mir geht es jetzt gerade ums Prinzip mein Lieber !

Welcher Idiot würde den auf so einem System "OHNE!" Anti-Alaising Spielen ? Ich glaube das würde nichmal einer machen, der gar keine Ahnung von der Technik hat.


genau, den der würde garnichtmal im traum daran denken sowas zu kaufen

mfg

Mark
2005-05-28, 17:56:21
theoretisch schon, der NF4 müsste dann halt nur pro GPU PCIe 4x klar machen.


wäre dann wie agp4? das ist performancemäßig ja weiter schlimm

StefanV
2005-05-28, 18:14:13
mal ne frage:

gigabyte will ja ne dual 6800ultra rausbringen (ab hier weiß jeder worauf ich hinaus will),
wird es dann möglich sein 8 6800ultra's quasi auf einem board zu haben?
Nein, da der ATX Standard maximal 7 Slot vorsieht.

Für 8 Kärtchen müssten wir 'ne doppelte Rolle rückwärts hinlegen sprich 8 Slots sind auf einem Full AT Brett möglich...

Huhn
2005-05-28, 18:18:03
Nein, da der ATX Standard maximal 7 Slot vorsieht.

Für 8 Kärtchen müssten wir 'ne doppelte Rolle rückwärts hinlegen sprich 8 Slots sind auf einem Full AT Brett möglich...
ich glaube er sprach eher von 4x gigabyte 6800ultra slis. also 2 gpus auf einer karte. denken lesen posten? ;) das mainboard hat ja auch nur 4 pcie slots und nicht 8

Freakazoid
2005-05-28, 18:38:59
Mit normalen SLi kann man auch keine Dual karten im Array betreiben. Wieso sollte man das dann mit einem Quad SLi können?

Demirug
2005-05-28, 18:41:14
Mit normalen SLi kann man auch keine Dual karten im Array betreiben. Wieso sollte man das dann mit einem Quad SLi können?

Das ist nur eine Treiberlimitierung keine technische.

Hakim
2005-05-30, 14:38:55
der Markt für so einen Rechner ist denk ich zu klein. Nvidia wird sicher net allzu viel mühe in die treiber für so eine lösung setzten (wenn es denn viel mehr aufwand bedeuten würde).

Iwan
2005-05-30, 14:54:40
der Markt für so einen Rechner ist denk ich zu klein. Nvidia wird sicher net allzu viel mühe in die treiber für so eine lösung setzten (wenn es denn viel mehr aufwand bedeuten würde).

Ob das viel eingesetzt wird, wird nv recht egal sein. hauptsache so ein system macht alles, was die konkurrenz zu bieten hat, gnadenlos fertig.

Hakim
2005-05-30, 15:01:39
Ob das viel eingesetzt wird, wird nv recht egal sein. hauptsache so ein system macht alles, was die konkurrenz zu bieten hat, gnadenlos fertig.

ja ok das wäre sicher ein grund. Sicher beeinflusst das auch jeden etwas bei einer neuanschaffung einer graka (egal ob GF6200 oder 6800).

Bandit666
2005-05-30, 15:54:16
hallo zusammen!
die cpu wird in den nächsten monaten wirrklich viel zu tun bekommen! kann mir gut vorstellen, dass der g70 oder r520 im sli die cpu voll ausreizt und eventuell sogar bremst. ganz zu schweigen von 4 oder 8 GPUs! der dualcore-cpu wird da schon etwas elfen, aber ihr "vergesst" noch eine weitere neuerung, die ende des jahres kommt:


Eine CPU wird durch 4x 6800U's net ausgebremst..........die Grakas können nur net alles zeigen was sie drauf haben.

mfg

Gast
2005-05-31, 02:56:05
besser mit 4x 7800GTX dual. ;D

ich sehe es schon vor mir:
unreal 3: 1600*1200 16xSSAA/32xAF/HDR alles on was geht und immernoch über 100fps. ;D
Eine einfache G70 zieht, wie bekannt, 150 W. Die DualChip zieht vielleicht 250 W. Bei vier Karten schon alleine 1.000 W nur für die Grafik.
Die ganz dicken CPUs sind auch nicht gerade sparsam. Gönnen wir denen mal 150 W.
Dann braucht man natürlich noch angemessene Festplatten, am besten SCSI im RAID, natürlich DVD-ROM und -Brenner, Sound-Karte, und ein Streamer darf dann auch nicht mehr fehlen.
Und bei der gigantischen Hitzeentwicklung darf die Kühlanlage nicht zu knapp ausfallen.
Also Netzteile der Zukunft fangen bei 2.000 Watt an.

DavChrFen
2005-05-31, 22:27:09
hm, wieso denn denn die PCI-e-Steckplatz nur für GraKas verwenden?
2 für 2 Grakas SLI, einen für eine SCSI-Karte und dann hat man noch einen frei. Hätte doch auch mal was. [Ideen_hab].
Müßte nur mal eine SCSI-Karte für PCI-e 16x rauskommen.

Gast
2005-05-31, 22:33:01
Das Monster wird Ati so richtig wegrotzen.

Gast
2005-05-31, 22:35:29
http://www.hardocp.com/image.html?image=MTExNzUxNDYzNGZUVmRnd1Y3M01fMV85X2wuanBn

Das Teil ist sogar SLI fähig

The_Invisible
2005-05-31, 22:36:26
Eine einfache G70 zieht, wie bekannt, 150 W. Die DualChip zieht vielleicht 250 W. Bei vier Karten schon alleine 1.000 W nur für die Grafik.
Die ganz dicken CPUs sind auch nicht gerade sparsam. Gönnen wir denen mal 150 W.
Dann braucht man natürlich noch angemessene Festplatten, am besten SCSI im RAID, natürlich DVD-ROM und -Brenner, Sound-Karte, und ein Streamer darf dann auch nicht mehr fehlen.
Und bei der gigantischen Hitzeentwicklung darf die Kühlanlage nicht zu knapp ausfallen.
Also Netzteile der Zukunft fangen bei 2.000 Watt an.


blödsinn, ne G70 kommt vielleicht auf 100W wenns hochkommt

mfg

Demirug
2005-05-31, 22:37:00
http://www.hardocp.com/image.html?image=MTExNzUxNDYzNGZUVmRnd1Y3M01fMV85X2wuanBn

Das Teil ist sogar SLI fähig

Fehlt nur noch ein Treiber der das kann. ;)

Gast
2005-05-31, 22:38:22
Fehlt nur noch ein Treiber der das kann. ;)

Sind dafür neue SLI Modi erforderlich oder reicht schon ne simple Treiberkennung?

Demirug
2005-05-31, 22:42:21
Sind dafür neue SLI Modi erforderlich oder reicht schon ne simple Treiberkennung?

Die Modi müssen erweitert werden und man könnte noch AFR/SFR Kombinationsmodi hinzufügen. In wie weit das alles schon vorhanden ist wollte nVidia nicht sagen. Das einzige was man aus ihnen rausbekommen konnte ist das 4 Chip unterstüzung keine Priorität hat.

SKYNET
2005-05-31, 22:52:44
blödsinn, ne G70 kommt vielleicht auf 100W wenns hochkommt

mfg



wird nicht mehr fressen als ne aktuelle ultra. =)

Gast
2005-05-31, 23:31:56
blödsinn, ne G70 kommt vielleicht auf 100W wenns hochkommt

mfg
Lesen - denken - posten:
http://www.firingsquad.com/news/newsarticle.asp?searchid=8162

Xmas
2005-06-01, 16:54:21
Lesen - denken - posten:
http://www.firingsquad.com/news/newsarticle.asp?searchid=8162
Genau. Dass "NVIDIA G70 to consume 150W?" mit einem Fragezeichen endet hat einen Grund. Diese Spekulationen bauen bisher alle darauf auf dass PCIe-Slot plus extra Stromanschluss beide 75W liefern können, was zusammen 150W ergibt. Dass dies natürlich nur die oberen Grenzen sind und kein Hersteller seine Karten wirklich nah am Limit betreiben will, scheint einigen nicht klar zu sein. Es gibt doch auch nicht umsonst AGP-Karten mit 2 Steckern.

Zudem gibt es die wahrscheinlich von NVidia stammende Empfehlung, dass das Netzteil für einen Rechner mit einer 7800GTX 400W und 26A auf der 12V-Schiene liefern sollte, für SLI werden 500W und 34A auf der 12V-Schiene empfohlen. Differenz: 100W bzw 96W.

SKYNET
2005-06-02, 18:00:45
Genau. Dass "NVIDIA G70 to consume 150W?" mit einem Fragezeichen endet hat einen Grund. Diese Spekulationen bauen bisher alle darauf auf dass PCIe-Slot plus extra Stromanschluss beide 75W liefern können, was zusammen 150W ergibt. Dass dies natürlich nur die oberen Grenzen sind und kein Hersteller seine Karten wirklich nah am Limit betreiben will, scheint einigen nicht klar zu sein. Es gibt doch auch nicht umsonst AGP-Karten mit 2 Steckern.

Zudem gibt es die wahrscheinlich von NVidia stammende Empfehlung, dass das Netzteil für einen Rechner mit einer 7800GTX 400W und 26A auf der 12V-Schiene liefern sollte, für SLI werden 500W und 34A auf der 12V-Schiene empfohlen. Differenz: 100W bzw 96W.


wird genau wie bei der vorstellung des NV40 viel zuhoch gegriffen sein...
aber lieber so, als das leute nachher meckern das der rechner abgefackelt ist weil das NT zu schwach war. ;D