PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gigabyte mit 2 Grafik-Chips auf einer Karte


Adam D.
2004-12-16, 18:51:34
Hab ich was verpasst? Guckt euch mal diesen Artikel (http://www.tomshardware.com/hardnews/20041216_115811.html) an.

"Chicago (IL) - Gigabyte will announce Friday the industry's first graphics card running two graphics processors on one board. According to sources, the SLI card will lift current 3DMark2003 record revels by a significant margin while being priced lower than ATI's and Nvidia's single-GPU high-end cards."

2x6600GT auf einer Karte :)

14.000 Punkte im 3DMark 03 und die Karte soll weniger kosten als X800XT PE und 6800Ultra.

Edit: Bild musste entfernt werden. Dummes Tom's Hardware ;(

Mr. Lolman
2004-12-16, 19:04:04
Goil. Das Teil könnte DER Kassenschlager werden. (wenn PCIe mal weitgenug verbreitet is)

Silent3sniper
2004-12-16, 19:05:43
2 von denen im SLI (sofern das geht) und dann mit 4 Chips währen auch mal geil ;D

MarcWessels
2004-12-16, 19:06:37
2 x GF6800U auf einer Karte - das wär's. :D

Hellfire-Torrod
2004-12-16, 19:07:56
Aber warum Sind 2 6600gt`s auf einem board fast doppelt so schnell wie 2x 6600gt SLI ? :|
€: Ok, 3dm 03. und 256er Speicherinterface. Is klar dass die so schnell is

Trotzdem, klasse Idee, sieht auch megagoil aus dat dingen. Sowas im SLI und :cool:
Schein aber "noch" kein connector vorhanden zu sein

Adam D.
2004-12-16, 19:10:25
Aber warum Sind 2 6600gt`s auf einem board fast doppelt so schnell wie 2x 6600gt SLI ? :|
Wo steht das? Da steht, dass die doppelt so schnell sind wie eine 6600GT.

BUG
2004-12-16, 19:12:08
..das mit dem Bild geht auch wenn man es so macht. :tongue:

Edit.: ..die sieht einer Volari V8 Duo irgendwie ziemlich ähnlich. :|

cu
BUG

Hellfire-Torrod
2004-12-16, 19:12:18
Wo steht das? Da steht, dass die doppelt so schnell sind wie eine 6600GT.

Ja, hab nen kleinen denkfehler gemacht.
Trotzdem scheint diese Lösung weitaus effektiver zu sein, als SLI.

Adam D.
2004-12-16, 19:13:54
"While Gigabyte claims that the 3D1 will trump the performance of Radeon X850 XT Platinum Edition and the GeForce 6800 Ultra cards, it says that the card will be offered in combination with the mainboard GA-K8NXP-SLI for less money than ATI's and Nvidia's single-GPU graphics cards alone."

Würd mich mal interessieren, ob man das Mainboard zwingend braucht. Wäre schade, wenn...

reunion
2004-12-16, 19:14:34
Toll, und wo liegt der Vorteil gegenüber einer 6800U wo ich die gleiche Leistung mit einem Chip bekommen kann?

Hellfire-Torrod
2004-12-16, 19:16:07
Toll, und wo liegt der Vorteil gegenüber einer 6800U wo ich die gleiche Leistung mit einem Chip bekommen kann?

Günstiger und ein bischen schneller ?
Steht zumindest da :smile:

Super Grobi
2004-12-16, 19:20:39
Oh so ein brummer als AGP und mit 2xGT würde ich mir glatt zulegen. Zu dem normalen SLi hab ich mich ja schon ausgekotzt (finde ich Quatsch und zu teuer (Board und so)), aber eine Karte mit 2 Chips die das kann wäre toll.

SG

Coda
2004-12-16, 19:24:01
Wenn sie wirklich doppelt so schnell wie ne 6800 Ultra ist, dann sind das auch 2 6800 Ultra, sonst macht es keinen Sinn.

€: Ok, 3dm 03. und 256er Speicherinterface. Is klar dass die so schnell is
Das bezieht sich wohl darauf, dass jeder Chip 128 bit hat, genauso werden wohl die 256MB geteilt sein.

Wie das Treiberseitig geht ist mir auch nicht ganz klar, vielleicht haben sie eine PCIe Brücke verbaut.

Hellfire-Torrod
2004-12-16, 19:25:55
Wenn sie wirklich doppelt so schnell wie ne 6800 Ultra ist, dann sind das auch 2 6800 Ultra, sonst macht es keinen Sinn.


Das bezieht sich wohl darauf, dass jeder Chip 128 bit hat, genauso werden wohl die 256MB geteilt sein.

Was ja bei SLI nicht dierekt möglich ist. Also Spiecher aufteilen.

€: Treiberseitig wird man dan wohl wie bei SLI diesen hacken setzen müssen. Immerhin ist dies SLI, nur eben schon auf dem PCB verbunden, nicht auf dem Mainboard
Mainboardtreiber sind hier wichtiger, weil diese imo SLI nur erkennen, wenn beide PCIe slots besetzt sind :confused: !

FGB
2004-12-16, 19:37:16
schöne sache! wollen wir hoffen, dass diese innovation nicht wie bei XGI durch mangelnde kommunikation zwischen den chips scheitert.

warum ist die karte schneller als 2x 6600GT im SLI ?

1. speicherinterface ist 256bit durch verteilte adressierung
2. es ist eben alles auf einer karte.. das bedeutet, dass die signalwege kürzer sind und außerdem braucht nicht extra etwas über den BUS zusätzlich berechnet werden. ist alles effektiver..

Ich freu mich drauf und hoffe auf eine AGP variante..

mal schauen wie der stromverbrauch so sein wird.. ich denk der wird so zwischen 80-100 watt liegen, mit tendenz zu 100 watt..

schönes ding.. nicht wegen ultimativer leistung, eher wegen der innovation.. für mich zumindest!

Viele Grüße,

Fabi

Coda
2004-12-16, 19:39:14
Mainboardtreiber sind hier wichtiger, weil diese imo SLI nur erkennen, wenn beide PCIe slots besetzt sind !
Das Mainboard hat überhaupt nix zu erkennen, sämtliche PCIe Slots funktionieren gleichwertig. D.h. der Chipsatz muss überhaupt kein SLi können, du must nur 2 16xPCIe Steckplätze auf dem Board verbauen.

1. speicherinterface ist 256bit groß
Wie gesagt sind das 100% 2x128 bit. Der 6600 Chip hat überhaupt kein 256 bit Speicherinterface.
Daher 2x6600GT Karten würden auch auf "256bit" kommen.

2. es ist eben alles auf einer karte.. das bedeutet, dass die signalwege kürzer sind und außerdem braucht nicht extra etwas über den BUS zusätzlich berechnet werden. ist alles effektiver..
Das macht mit ziemlicher Sicherheit keinen Unterschied.

dildo4u
2004-12-16, 19:41:21
Toll, und wo liegt der Vorteil gegenüber einer 6800U wo ich die gleiche Leistung mit einem Chip bekommen kann?
schneller als X850XT und billiger *g*

"The 3D1's two processors communicate through Nvidia's SLI interface and achieved 14,293 points in 3DMark2003, sources at Gigabyte said. This would not only be almost twice the performance of a regular 6600 GT card, but also more than ATI's Radeon X850 XT Platinum Edition, which achieved in Gigabyte's test environment 13,271 points and Nvidia's GeForce 6800 Ultra, which posted 12,680 points."

dildo4u
2004-12-16, 19:43:05
Wie gesagt sind das 100% 2x128 bit. Der 6600 Chip hat überhaupt kein 256 bit Speicherinterface.
Daher 2x6600GT Karten würden auch auf "256bit" kommen.




Steht aber da

"The card integrates two Nvidia GeForce 6600 GT graphics processors and is the first 6600 GT card on the market to offer a total of 256 MByte DDR 3 memory and 256 Mbit of memory bandwidth, according to the manufacturer. The card is cooled by two on-board fans."


Ohne würde die karte auch niemals 14000 punkte machen

FGB
2004-12-16, 19:43:11
für die karte reicht doch einer ?! :|

dildo4u
2004-12-16, 19:45:46
Die karte dann noch im sli das wär lustig kein plan ob das technisch geht

Adam D.
2004-12-16, 19:49:59
Auf dem Bild sieht man auf jeden Fall keinen SLI-Verbinder, damit ist die Frage wohl gelöst...

BUG
2004-12-16, 19:51:20
Steht aber da

"The card integrates two Nvidia GeForce 6600 GT graphics processors and is the first 6600 GT card on the market to offer a total of 256 MByte DDR 3 memory and 256 Mbit of memory bandwidth, according to the manufacturer. The card is cooled by two on-board fans."


Ohne würde die karte auch niemals 14000 punkte machen..im SLI schafft die 6600GT das doch auch, das sind 100%tig 2x 128Bit Speicherinterface!

cu
BUG

Kladderadatsch
2004-12-16, 19:52:47
gegenüber den sli-systemen dürfte diese variante auch gut strom sparen.
ich frage mich sowieso, was sli überhaupt nötig macht, wenn es so ebenfalls ausgezeichnet funktioniert, und man nicht geld für einmal 256 mb gddr3 in den sand sezt...

dildo4u
2004-12-16, 19:53:16
..im SLI schafft die 6600GT das doch auch, das sind 100%tig 2x 128Bit Speicherinterface!

cu
BUG
Ne 2 6600GT im sli kommen knapp auf 13000

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=95&seite=6


interesant wäre auch ob die karte überhaupt sli modus /treiber braucht oder ob die wie eine Volari Duo funzt wär whol ein Großer vorteil weil alle games sofort kompatibel sind.

Demirug
2004-12-16, 20:01:20
Die karte dann noch im sli das wär lustig kein plan ob das technisch geht

Eher nicht weil der SLI Port der beiden Chips ja gebraucht wird um die beiden zu verbinden. Wenn es dann noch dumm läuft ist das ganze so das der ersten Chip auch die ersten 8 Lanes nutzt und der zweite die anderen 8. Dann braucht man auf jeden fall einen vollständig bestückten PCIe 16x Slot.

dildo4u
2004-12-16, 20:03:47
Eher nicht weil der SLI Port der beiden Chips ja gebraucht wird um die beiden zu verbinden. Wenn es dann noch dumm läuft ist das ganze so das der ersten Chip auch die ersten 8 Lanes nutzt und der zweite die anderen 8. Dann braucht man auf jeden fall einen vollständig bestückten PCIe 16x Slot.
könnte die karte nicht auch wie eine Volari Duo ohne sli angebunden sein oder wäre das für Gigabyte als hersteller zu komplex?

Demirug
2004-12-16, 20:09:46
könnte die karte nicht auch wie eine Volari Duo ohne sli angebunden sein oder wäre das für Gigabyte als hersteller zu komplex?

Nein, das geht nicht. Für die Volari Duo wurde in den Chip ja auch extra ein eine Verbindungsschnitstelle eingebaut. Die funktioniert aber anders als SLI und mit der Kompatibilität sieht es da ja auch nicht so gut aus weil ja nur AFR unterstützt wird.

BUG
2004-12-16, 20:13:57
..wären auch Karten auf AGP Basis (2x AGP4x oder sowas) mit dem Bridge Chip denkbar?

:uconf2:

cu
BUG

Coda
2004-12-16, 20:17:11
Ohne würde die karte auch niemals 14000 punkte machen
1. Da steht das die Karte ein 256Mbit Speicherinterface hat. Das ist sowieso falsch.
2. gibt auch XGI bei der Volari DUO 256 bit und 3DLabs bei der großen Realizm 512 bit an obwohl es jeweils 2x128 und 2x256 bit sind. Ich bin mir zu 90% sicher dass es sich auch hier so verhällt.

gegenüber den Sli-systemen dürfte diese variante auch gut strom sparen.
Weshalb? Bisher bin ich zum Schluss gekommen dass es einfach 2 Karten auf dem selben Board sind.

-error-
2004-12-16, 20:21:08
Lol, und die wieder im SLI-Modus ;D

Coda
2004-12-16, 20:22:47
Lol, und die wieder im SLI-Modus
Geht nicht. SLi ist eine Punkt-zu-Punkt Verbindung, also maximal 2 Chips.

Hä was solln das:
Gigabyte will announce Friday the industry's first graphics card running two graphics processors on one board.
Und was ist mit der Volari V8 Duo?

BUG
2004-12-16, 20:25:34
Und was ist mit der Volari V8 Duo?..und der Voodoo5/6 oder Rage Fury Maxx? ;)

cu
BUG

deekey777
2004-12-16, 20:35:18
Irgendwie begreife ich gar nichts - mal wieder. Werden beide Chips miteinander per "SLI" angebunden?

Demirug
2004-12-16, 20:37:38
..wären auch Karten auf AGP Basis (2x AGP4x oder sowas) mit dem Bridge Chip denkbar?

:uconf2:

cu
BUG

Ich bin nicht sicher aber ich glaube das die Bridge nur ein Gerät durchleiten kann.

Demirug
2004-12-16, 20:38:14
Irgendwie begreife ich gar nichts - mal wieder. Werden beide Chips miteinander per "SLI" angebunden?

Davon ist auszugehen.

mictasm
2004-12-16, 20:38:20
Steht aber da

"The card integrates two Nvidia GeForce 6600 GT graphics processors and is the first 6600 GT card on the market to offer a total of 256 MByte DDR 3 memory and 256 Mbit of memory bandwidth, according to the manufacturer. The card is cooled by two on-board fans."


Ohne würde die karte auch niemals 14000 punkte machen


Wo steht da was von 256bit Speicheranbindung?

dildo4u
2004-12-16, 20:41:21
Wo steht da was von 256bit Speicheranbindung?
"the first 6600 GT card on the market to offer a total of 256 MByte DDR 3 memory and 256 Mbit of memory bandwidth,"

Super Grobi
2004-12-16, 20:42:00
Das wird so sein wie bei der Volari V8 Duo. Dieses Mistding schreibt sich ja auch 256bit Ram auf die Flage. Die gegründen das so: 2x128bit=256bit (wegen 2xGPU). Finde ich trodem Quark, warum dann nicht 2x256bit ???

SG

Silent3sniper
2004-12-16, 20:42:23
Ich stell mir grad nen verlängerten WaKü Kühler für das Teil vor :ugly: ;D

seahawk
2004-12-16, 20:42:39
Da fragt man sich, ob ein solches Board mit 2 NV45ern evtl. NVs Antwort auf den R520 werden könnte ...

dildo4u
2004-12-16, 20:44:00
Da fragt man sich, ob ein solches Board mit 2 NV45ern evtl. NVs Antwort auf den R520 werden könnte ...
Da wären wir aber whol bei locker bei über 150watt

reunion
2004-12-16, 20:47:14
Die Karte hat garantiert nur 2x 128bit Speicherinfance, ein NV43 ist überhaupt nicht in der Lage mehr anzusprechen, ebenso dürfte es nur 2x 128MB Speicher sein und nicht 2x 256MB. Somit müsste die Karte in hohen Auflösungen extrem in die Knie gehn => 6800U klar vorzuziehen. Bei 3dmark wo es hauptsächlich auf die Füllrate/Shaderspeed ankommt (zumindest in default einstellungen mit 1024 x 768 ohne AA/AF) kann die Karte ihre Fähigkeiten natürlich voll Ausspielen.

James Ryan
2004-12-16, 20:54:22
Da wären wir aber whol bei locker bei über 150watt

Na und? Wäre nur eine logische Fortführung der momentanen Entwicklung bei Grakas! :ugly:

MfG :cool:

Quasar
2004-12-16, 21:16:39
Auf dem Bild sieht man auf jeden Fall keinen SLI-Verbinder, damit ist die Frage wohl gelöst...
Auf dem "Nacktbild" ist zwischen den GPUs ein um 45° gedrehter Chip....

IVN
2004-12-16, 21:27:21
Auf dem "Nacktbild" ist zwischen den GPUs ein um 45° gedrehter Chip....


That is the memory. ;)

Jesus
2004-12-16, 21:34:59
Oh je. Irgendwie fühl ich mich jetzt um 4 Jahre zurückversetzt, meine V5 5500 war zwar eine schnelle Karte, aber ich würde mir niewieder sowas kaufen. Laut, zu gross für die meisten Boards und vom Stromverbrauch gar nicht zu sprechen.

Hoffentlich entwickelt sich das ganze nicht zur Verzweiflungstat oder letzter Atemzug wie damals bei 3dfx. Aber das merken wir spätestens dann wenn es die ersten 4 GPU Karten "gibt", die´s dann eigentlich gar nicht gibt ;)

Also Vorsicht ! :biggrin:

PLONK
2004-12-16, 21:35:49
"the first 6600 GT card on the market to offer a total of 256 MByte DDR 3 memory and 256 Mbit of memory bandwidth,"
da steht nirgendwo was von 256bit speicherinterface...

da steht nur "...und 256 megabit speicher-bandbreite (=transferrate)!"

(und 256mbit transferrate sind != 256bit speicherinterface)

http://home.arcor.de/konkretor/umleitung.gif
also: "erst denken, dann posten!"
(pic ist nicht von meinem webspace!)

mfg!

Quasar
2004-12-16, 21:36:32
That is the memory. ;)
You're right. Shame on me (and shame on Tom for publishing such measly images)

tombman
2004-12-16, 21:39:03
langweilig....

Eine octe 6800ultra kann das selbe...

2 NV45 auf einer Karte --> DAS wär interessant ;)
(von mir aus mit eigenem Netzteil wie voodoo 6000)

Jesus
2004-12-16, 21:43:00
langweilig....

Eine octe 6800ultra kann das selbe...

2 NV45 auf einer Karte --> DAS wär interessant ;)
(von mir aus mit eigenem Netzteil wie voodoo 6000)

Genau das kommt als Nächstes, oder ein externer Dieselgenerator neben dem PC :biggrin:

LOCHFRASS
2004-12-16, 21:43:09
langweilig....

Eine octe 6800ultra kann das selbe...

2 NV45 auf einer Karte --> DAS wär interessant ;)
(von mir aus mit eigenem Netzteil wie voodoo 6000)

Dann bleibt wenigstens der zweite 16x PCIe fuer nen ordentlichen SCSI-Controller frei. :ugly:

tombman
2004-12-16, 21:44:42
Dann bleibt wenigstens der zweite 16x PCIe fuer nen ordentlichen SCSI-Controller frei. :ugly:

bleibt er doch bei EINER 6800ultra pci-e auch...

tombman
2004-12-16, 21:47:14
Genau das kommt als Nächstes, oder ein externer Dieselgenerator neben dem PC :biggrin:

Mich würds ned wundern wenn nvidia 2 90nm NV45 cores auf eine Karte packt und damit den R520 ownt :D:D

Hellfire-Torrod
2004-12-16, 22:03:45
Genau das kommt als Nächstes, oder ein externer Dieselgenerator neben dem PC :biggrin:

AKW in Bareboneform :biggrin:

2 Ultras auf einer karte. die kühllösung könnte interessant werden!

Freakazoid
2004-12-16, 22:09:29
AKW in Bareboneform :biggrin:

2 Ultras auf einer karte. die kühllösung könnte interessant werden!

Dualfön :O

LOCHFRASS
2004-12-16, 22:12:04
bleibt er doch bei EINER 6800ultra pci-e auch...

Das war auf "2 NV45 auf einer Karte" bezogen. ;) Beim normalen SLi-System ist halt kein Platz mehr fuer nen SCSI-Controller. :D

aim
2004-12-16, 22:15:18
Dualfön :O


da kann der nächste winter kommen ;D

€ die vga silencer version von dem würd mich interessieren

Gast
2004-12-16, 22:22:31
http://img80.exs.cx/img80/7435/gbyte31ba.jpg

Gast
2004-12-16, 23:55:10
So schauts aus! ^^

Gast
2004-12-17, 00:04:26
Jetzt bleibt nur die Frage ob diese Boards eher Sammlerstück Charakter besitzen werden oder ob NV da selbst noch irgendwas nachlegt und zumindest indirekt Hilfestellung bieten wird.

Das SLI auf 4 Chips erweitert wird, bezweifle ich ganz stark. So ein System würde vom Preis her nicht viele Käufer finden und auch tierisch heftige Ansprüche an Netzteil und Kühlung stellen. Von CPU-Limitierungen ganz zu schweigen...

Imho ein genialer Schachzug SLI auch auf einem Board möglich zu machen, leider wird das ganze wohl auf 66GT beschränkt bleiben.

Tjell
2004-12-17, 01:45:02
Den Leuten, die hier nVidia in Verzweiflung und in den letzten Zügen wähnen, lege ich mal dieses Bild ans Herz:

http://www.tomshardware.com/hardnews/images/20041216-gbyte4.jpg

Da sieht man ganz leicht, daß die Karte auf Gigabytes Misthaufen gediehen ist und dementsprechend auch zum Patent angemeldet hat, was ja wohl nicht möglich wäre, wenn die Idee von nVidia stammen würde.

Immer erst nachdenken - und weniger Flameversuche, gell. ;)

skynetwork
2004-12-17, 02:04:16
und wir alle warten nun gespannt auf den (in-)offiziellen voodoo 5 6000 nachfolger - mit 4 x 6600GT gpu's, die weichen sind gelegt....

:eek: :eek: :eek: :eek:

RyoHazuki
2004-12-17, 02:35:31
hmmm...

ich werd irgendwie das gefühl nicht los, das sowas von Nvidia auch kommt.

Undzwar noch heftiger...

Alles was man braucht ist ein NV40 der nicht mehr auf 400 taktet sondern auf 300 MHZ. Die voltage nochdazu etwas senken und dann

WEG FREI FÜR 2 Dual GPU GRAFIKKARTEN.

Was würde ein Doppel NV40 board @ 300/500 verbrauchen (strom ist gemeint) ???

Vier Chips hätten Theoretisch 19,2 Gpixel.... :eek:

MadManniMan
2004-12-17, 04:16:51
Hehe ... schönes Bild! Hab mal den NV47 konstruiert ;)

Aber meine Meinung zu (onboard-)SLI: gerade bei derart kleinen Karten schwachsinnig.
Bei 6800GT/U versteh ichs ja noch, aber bei den abgespeckten? Der VSA-100(101) "durfte" das - denn es gab ja keine Alternative zum Multichip.
Hier ist aber eine größere Karte unter Garantie die bessere Lösung. Mehr Strom wird das Ungetüm nämlich verbrauchen - und durch die relative Ineffiziens von SLI werden die "richtigen" NV40/45 auch nicht überboten werden - wenn die Spiele überhaupt von SLI einigermaßen Gebrauch machen können!

2 NV40/45 onboard würde ich dagegen verstehen - wobei es doch arg knapp auf einem PCB würde ;)

Radeonator
2004-12-17, 07:26:58
Da sieht man, das 3dFX Ingeneure an Bord sind :)
Kewles Teil!!! Haben will!!!1111 l337!

Gast
2004-12-17, 08:00:18
Hä? Die Karte kommt von Gigabyte und _nicht_ von Nvidia, also können auch keine 3dfx Leute mitgewirkt haben.

Gohan
2004-12-17, 08:03:02
OT:
Ich finde den montierten Kühler arg HÄSSLICH. Und die Befestigungslöcher sind so doof gelegt, dass da kein normaler Kühler passt :(

Hauwech
2004-12-17, 08:15:01
Hmm also laut PCIe 1.1 Spezifikation gibt es da eine Richtlinie für ATX Boards wo eine Verlustleistung von Grafikkarten bis 150W aufgeführt ist.

Zumindest wäre also ein Dual Board auch mit 2x68GT möglich, mit 2x68U wird es dann aber verdammt eng. Würde mich nicht wundern wenn Gaywartze das lizensiert und das ultimative Wakü Monster bringt :D.

Gast
2004-12-17, 08:35:12
also die Lösung hier kommt von Gigabyte. Allerdings weiss man nicht, was Nvidia im Hintergrund mit denen bastelt.
Was ich mir durchaus vorstellen kann ist,
dass Nvidia seine SLI Lösung noch ausbaut.
Zum Beispiel könnte das für die kommende Generation heissen, dass man den NV40/45 in den nächsten kleineren Fertigungsprozess 0.09/ 0.10? bringt und dann 2 von den GPUs auf ein Board verbaut wie bei 3dfx damals.
Die Konkurenz würde man damit mit ziemlicher Sicherheit ownen.
Vorstellbar wäre zum Beispiel auf 2 GPUs auf einer Karte + zusätzlich einem SLI ähnlichen Connector um 2 Boards noch zu verbinden.
Das würde dann 4 GPUs machen.

Man muss hierbei beachten, dass Nvidia dick im Geschäft bei Workstations ist. Mit den dortigen Preisen und Anforderungen seitens der Kunden, kann man natürlich solche Entwicklungsprojekte finanzieren.

Holundermann
2004-12-17, 08:58:21
Theoretisch ist laut Gigabyte auch der Betrieb von zwei Doppelprozessor-Grafikkarten auf einem SLI-Mainboard möglich. Allerdings sei die "dazu notwendige Hardware noch nicht verfügbar". Man arbeite allerdings bereits an einer Lösung, hieß es am Freitag aus Taiwan.

und schaut saugeil aus :P die solln das mal mit 2 ultras machen ^^ oder 2 gts ^^, echt krank :) nv kann mit der neuen technik alles so baun wies grad benötigt wird, die sparn sich entwicklungskosten und klatschen nächstes jahr einfach 2 nv40 zum preis einer jetzigen ultra auf die platine und ham doppelte performance :)

Quelle (http://www.tomshardware.de/news/20041217_072016.html)

Gasti
2004-12-17, 09:13:18
also die Lösung hier kommt von Gigabyte. Allerdings weiss man nicht, was Nvidia im Hintergrund mit denen bastelt.
Was ich mir durchaus vorstellen kann ist,
dass Nvidia seine SLI Lösung noch ausbaut.
Zum Beispiel könnte das für die kommende Generation heissen, dass man den NV40/45 in den nächsten kleineren Fertigungsprozess 0.09/ 0.10? bringt und dann 2 von den GPUs auf ein Board verbaut wie bei 3dfx damals.
Die Konkurenz würde man damit mit ziemlicher Sicherheit ownen.
Vorstellbar wäre zum Beispiel auf 2 GPUs auf einer Karte + zusätzlich einem SLI ähnlichen Connector um 2 Boards noch zu verbinden.
Das würde dann 4 GPUs machen.

Man muss hierbei beachten, dass Nvidia dick im Geschäft bei Workstations ist. Mit den dortigen Preisen und Anforderungen seitens der Kunden, kann man natürlich solche Entwicklungsprojekte finanzieren.

Klingt gut, allerdings sollte dann auch eine massive Erhöhung der vom Chipsatz unterstützten PCIe Lanes erfolgen um das ganze rund zu machen und das dürfte ein Problem werden. 4x PCIe x16 plus ein paar x1 Lanes sind nicht gerade ein Pappenstiel.
Vertraut man mal THG mit dem PCIe Modi Test dann besteht doch schon ein Unterschied zwischen 8x und 16x PCIe. Naja, lassen wir uns überraschen :)

Gast
2004-12-17, 09:24:31
http://img80.exs.cx/img80/7435/gbyte31ba.jpg

au geil und das noch mit mit Ultra chips da wären wir pi mal daumen bei 28000 schwanzmark und bei 250 Watt :)

Ich glaub ich fang bei ENBW als mitarbeiter an die bekommen bessere Strompreise :)

Gast
2004-12-17, 09:31:48
ähm du hast falsch gerechnet

wenn 2x 6600GT ne Ultra schlagen mit 14.000K dan hat 4x6600GT schon 28000 sprich 2x Ultra hätte schon 24000 bzw. 4x Ultra hätte 48000

und bei 3Dmark05 müssten es um die 20000 sein.

Adam D.
2004-12-17, 10:15:40
Vielleicht ist das ja wirklich die nahe Zukunft für nVIDIA. Was, wenn das jetzt alle Hersteller machen? Vielleicht hauen die echt noch 2xNV40's/NV45's drauf...Wer weiß?

littlejam
2004-12-17, 10:38:02
Ich glaube nicht, dass das mit 2 6800ern möglich ist. Theoretisch schon, aber praktisch nicht.
Ein 256 Bit Speicherinterface für einen Chip ist ja schon schwierig, aber 2x256Bit und 2 Chips mit je eigenem Speicher auf ein PCB zu quetschen das dann noch ins Gehäuse passt?
Ich glaube Gigabyte hat nicht ohne grund "nur" 2 6600er genommen. Wenns mit der 6800 möglich gewesen wäre hätte man auch die genommen und 2 Karten vorgestellt.

Gruß

Holundermann
2004-12-17, 10:54:38
naja, glaub die karte hat kein 256 bittiges speicherinterface, nur 2 mal 128mb ram das mit 128bit angebunden ist, wird halt markentingtechnisch als 256bit verkauft. wenn man 2 ultra karten im sli verbund betreibt hat man dann marketingtechnisch wohl auch 512 bit anbindung :)

Adam D.
2004-12-17, 10:55:35
Vielleicht braucht's einfach nur ein bisschen Zeit und die bringen so ein 2xNV45 halt erst zum Release des R520 raus? Vielleicht aus Marketing-Gründen?

r@w
2004-12-17, 11:22:42
Der VSA-100(101) "durfte" das - denn es gab ja keine Alternative zum Multichip.Versteh' ich nicht... schließlich ging das beim Vorgänger doch auch!?!
:confused:

Razor

Dr Hake
2004-12-17, 11:52:12
2 GF 6.600Gts Chips duerften mehr kosten als ein 6.800Gt
Das PCB duerfte etwas komplizierter sein als ein Standard PCB
Gigabyte nennt das Ganze Ltd Edition und scheint die Karten nur mit den Boards zu bundeln.
-> es duerfte sich nur um einge kurzfristige PR Aktion handeln um den Kauf der eigenen PCI-E Mainboards anzukurbeln solange Knappheit unter TopChips herrscht, und die Karte nie in Grosserie gehen.

r@w
2004-12-17, 12:06:00
Was abzuwarten bliebe...
Wo Nachfrage, da auch Angebot!
:D

Wäre nicht die erste 'Lösung', die den Weg in den Retail-Channel findet, obwohl nicht dafür vorgesehen.

Razor

MadManniMan
2004-12-17, 12:15:46
Versteh' ich nicht... schließlich ging das beim Vorgänger doch auch!?!
:confused:

Razor

Ich meine damit, daß eben keine Single-Chip-Lösung von 3Dfx selbst in Leistungsregionen kam, wie derern Top-Chip VSA-100/101 im Verbrung.

r@w
2004-12-17, 12:25:51
Ich meine damit, daß eben keine Single-Chip-Lösung von 3Dfx selbst in Leistungsregionen kam, wie derern Top-Chip VSA-100/101 im Verbrung.Zumindest nicht marktreif... das wird wohl richtig sein.
Aber nur weil 3dfx 'unfähig' war, sollen sie es dürfen, nVidia aber - weil sie es nicht sind - nicht?
Sorry, aber wie war das noch gleich mit zweierlei Maß?

Razor

Holundermann
2004-12-17, 12:34:37
2 GF 6.600Gts Chips duerften mehr kosten als ein 6.800Gt

naja, leistet ja auch mehr wie eine gt, den 3dmark zahlen zu urteilen :) wenn der preis auf ultra niveau ist sind die karten absolut konkurenz reif!

Das PCB duerfte etwas komplizierter sein als ein Standard PCB

jo, aber wohl noch billiger herzustellen als 2 6600gts die man im sli betreibt...

deekey777
2004-12-17, 13:55:34
2 GF 6.600Gts Chips duerften mehr kosten als ein 6.800Gt
Das PCB duerfte etwas komplizierter sein als ein Standard PCB
Gigabyte nennt das Ganze Ltd Edition und scheint die Karten nur mit den Boards zu bundeln.
-> es duerfte sich nur um einge kurzfristige PR Aktion handeln um den Kauf der eigenen PCI-E Mainboards anzukurbeln solange Knappheit unter TopChips herrscht, und die Karte nie in Grosserie gehen.


Vielleicht ist es für den Verbraucher günstiger ein stinknormales Mainboard+Dual-Chipgrafikkarte als ein SLI*-Mainboard+2 Grafikkarten.


*Obwohl es genügt, 2 physische PCIe 16x Steckplätze zu haben.

Dr Hake
2004-12-17, 14:02:57
Vielleicht ist es für den Verbraucher günstiger ein stinknormales Mainboard+Dual-Chipgrafikkarte als ein SLI*-Mainboard+2 Grafikkarten.


*Obwohl es genügt, 2 physische PCIe 16x Steckplätze zu haben.
fuer den Verbraucher ja, fuer den Hersteller, der die Karte billiger als eine 6.800 U anbieten moechte, macht es oekonomisch keinen Sinn. Ob die 2 Chip Loesung in der Praxis wirklich schneller (bei AA/AF) als eine 6.800gt sein wird sei mal noch abzuwarten (Speicherbus laesst gruessen)

r@w
2004-12-17, 14:18:07
naja, leistet ja auch mehr wie eine gt, den 3dmark zahlen zu urteilen :) wenn der preis auf ultra niveau ist sind die karten absolut konkurenz reif!Wegen 1000 Mehrpunkten im Murks03?
Wohl kaum.

jo, aber wohl noch billiger herzustellen als 2 6600gts die man im sli betreibt...Wohl eher für Boards, die kein SLI unterstützen.
Und das wäre evtl. ein Argument... wenn auch kein wirklich einleuchtendes...

Razor

MadManniMan
2004-12-17, 14:28:46
Zumindest nicht marktreif... das wird wohl richtig sein.
Aber nur weil 3dfx 'unfähig' war, sollen sie es dürfen, nVidia aber - weil sie es nicht sind - nicht?
Sorry, aber wie war das noch gleich mit zweierlei Maß?

Razor

Neinnein! Einer 2*NV40/45 Lösung stehe ich ja aufgeschlossen gegenüber, nur die Verwendung zweier "halber" Chips find ich doof - da empfinde ich "ganze", einzelne Chips als sinniger.

BUG
2004-12-17, 14:50:11
..also wenn sich der Preiß von knapp ~350,- Euro (http://www.hartware.net/news_37492.html) bewahrheitet imho ne "nette" Karte (was für Freaks). :usweet:

cu
BUG

r@w
2004-12-17, 14:54:07
Neinnein! Einer 2*NV40/45 Lösung stehe ich ja aufgeschlossen gegenüber, nur die Verwendung zweier "halber" Chips find ich doof - da empfinde ich "ganze", einzelne Chips als sinniger.OK, dann habe Dich offenbar mißverstanden!
Sorry.

Sehe ich im übrigen ganz genauso... ;)

Razor

Dr Hake
2004-12-17, 14:55:09
Neinnein! Einer 2*NV40/45 Lösung stehe ich ja aufgeschlossen gegenüber, nur die Verwendung zweier "halber" Chips find ich doof - da empfinde ich "ganze", einzelne Chips als sinniger.
2 Chips mit 256 Bit Ramanbindung, wobei schon das Standard PCB der grossen Fxen nicht gerade schmaechtig ist..technisch eher problematisch

r@w
2004-12-17, 15:01:40
Klar... aber interessanter, als das, was mit dieser "Dual 6600GT" geboten wird.

Razor

Dr Hake
2004-12-17, 15:06:22
Klar... aber interessanter, als das, was mit dieser "Dual 6600GT" geboten wird.

Razor
joo, klar, allerdings finde ich es etwas komisch dass ausser THG niemand (ok ein paar Seiten zitieren THG) etwas ueber diese Karte verlauten laesst, sogar INq schweigt. Evtl eine Ente?

r@w
2004-12-17, 15:16:00
Haben wir etwa schon wieder April?
:D

Razor

a!
2004-12-17, 15:31:59
cool.das teil könnte meine nächste graka sein.btw,das erinnert mich irgendwie an: http://img146.exs.cx/my.php?loc=img146&image=000000968az.jpg lol

Tesseract
2004-12-17, 15:43:11
2 GF 6.600Gts Chips duerften mehr kosten als ein 6.800Gt

für gigabyte sicher. wenn nvidia aber so eine lösung anstreben sollte könnte es aus yield-technischen gründen anders aussehen.
zumindest können 2 NV40 chips mit 300MHz billiger sein als ein auf 500MHz gepushter - als antwort auf den R520 z.B.
das problem würde eher die platine sein.

VooDoo7mx
2004-12-17, 15:51:49
Cooles Teil!
Mich würde mal Stromverbrauch uns Laustärke interessieren.

Dual NV40/NV45 auf einer Platine halte ich allerdings für unwarscheinlich.

Warscheinlicher ist da schon eine Dual NV41 Karte. :ugly:

Ein NV41 Board zieht weniger Strom als ein NV43GT (ca 9Watt) und brauicht billigeren Speicher dank 256Bit Interface. Mit moderaten Taktraten von 350/700 dürfte so eine 24 Pipeline Karte alles umhauen. :ulol:

TheCounter
2004-12-17, 16:02:24
also die Lösung hier kommt von Gigabyte. Allerdings weiss man nicht, was Nvidia im Hintergrund mit denen bastelt.
Was ich mir durchaus vorstellen kann ist,
dass Nvidia seine SLI Lösung noch ausbaut.
Zum Beispiel könnte das für die kommende Generation heissen, dass man den NV40/45 in den nächsten kleineren Fertigungsprozess 0.09/ 0.10? bringt und dann 2 von den GPUs auf ein Board verbaut wie bei 3dfx damals.
Die Konkurenz würde man damit mit ziemlicher Sicherheit ownen.
Vorstellbar wäre zum Beispiel auf 2 GPUs auf einer Karte + zusätzlich einem SLI ähnlichen Connector um 2 Boards noch zu verbinden.
Das würde dann 4 GPUs machen.

2xNV45/NV40 auf einem PCB bzw. einer Grafikkarte würde den Preis auf locker mal >800EUR treiben ( und der Stromverbrauch wäre auch ziemlich oben, mal abgesehen von der Kühlung (Selbst bei 90nm)) ;)

Also imho wäre das nicht sehr wirtschaftlich und wer weis, vlt. wird der R520 ja schneller als 2xNV40/NV45?

We will see ;)

Leonidas
2004-12-17, 16:05:30
Goil. Das Teil könnte DER Kassenschlager werden. (wenn PCIe mal weitgenug verbreitet is)


Kassenschlager für Dummies? Schau mal:

6800GT: 12000 Punkte in jedem Benchmark, egal ob SLI unterstützt wird oder nicht

Gigabyte 2x6600GT: 12000 Punkte nur dort, wo SLI unterstützt wird, ansonsten 8000 Punkte

Henzmoe
2004-12-17, 16:08:44
für die nicht bilingualen: http://www.tomshardware.de/news/20041217_072016.html

Auszug:

Theoretisch ist laut Gigabyte auch der Betrieb von zwei Doppelprozessor-Grafikkarten auf einem SLI-Mainboard möglich. Allerdings sei die "dazu notwendige Hardware noch nicht verfügbar". Man arbeite allerdings bereits an einer Lösung, hieß es am Freitag aus Taiwan.

Leonidas
2004-12-17, 16:08:54
schöne sache! wollen wir hoffen, dass diese innovation nicht wie bei XGI durch mangelnde kommunikation zwischen den chips scheitert.

warum ist die karte schneller als 2x 6600GT im SLI ?

1. speicherinterface ist 256bit durch verteilte adressierung
2. es ist eben alles auf einer karte.. das bedeutet, dass die signalwege kürzer sind und außerdem braucht nicht extra etwas über den BUS zusätzlich berechnet werden. ist alles effektiver..

Ich freu mich drauf und hoffe auf eine AGP variante..





Halte ich allesamt für ein Gerücht. Das Speicherinterface ist 2x 128 Bit - genauso wie bei 2 echten 6600er Karten. Gigabyte kann nun einmal nix internes am NV43 rumbasteln. Kürzere Signalwege? Möglicherweise, aber der Vorteil ist minimal bis nicht vorhanden.

Und eine AGP-Version kann es nicht geben, da SLI PCIe voraussetzt. Und die Gigabyte-Karte ist meines Erachtens nach nichts anderes als SLI onboard.

reunion
2004-12-17, 16:10:06
Kassenschlager für Dummies? Schau mal:

6800GT: 12000 Punkte in jedem Benchmark, egal ob SLI unterstützt wird oder nicht

Gigabyte 2x6600GT: 12000 Punkte nur dort, wo SLI unterstützt wird, ansonsten 8000 Punkte

ACK, hinzu kommt noch das jeder Chip nur auf 128MB Speicher und ein 128-bit Speicherinfance zurückgreifen kann sodass da relativ schnell ein Engpass entstehen müsste. Beim 3dmark in default einstellungen macht das natürlich nichts, da kann die Karte ihre höhere Füllrate/Shaderspeed voll ausspielen.

Leonidas
2004-12-17, 16:10:15
Steht aber da

"The card integrates two Nvidia GeForce 6600 GT graphics processors and is the first 6600 GT card on the market to offer a total of 256 MByte DDR 3 memory and 256 Mbit of memory bandwidth, according to the manufacturer. The card is cooled by two on-board fans."




Marketing-Sprache. Man beachte das "total" - und übersetze es mit "in Addition aller vorhandenen Einzelteile".

Leonidas
2004-12-17, 16:17:05
..also wenn sich der Preiß von knapp ~350,- Euro (http://www.hartware.net/news_37492.html) bewahrheitet imho ne "nette" Karte (was für Freaks). :usweet:

cu
BUG



Das halte ich für ein Gerücht, so lange ich es nicht sehe. Die Entwicklungskosten für Boardlayouts liegen im zehntausender Bereich, und das muß hier bei sehr kleinen Stückzahlen wieder reingespielt werden. Der Preis würde nur funktionieren, wenn Gigabyte das ganze unter "Marketing-Kosten" wegbucht.

deekey777
2004-12-17, 16:20:26
joo, klar, allerdings finde ich es etwas komisch dass ausser THG niemand (ok ein paar Seiten zitieren THG) etwas ueber diese Karte verlauten laesst, sogar INq schweigt. Evtl eine Ente?


"Exklusivnews" - schließlich ist es auch THG. Oder so...

Gast
2004-12-17, 16:37:20
Was würde gegen einen Dual Core Grafikchip sprechen? Vielleichts NVs Geheimwaffe gegen den R520 oder lohnt Dual Core bei GPUs nicht?

Gast
2004-12-17, 16:49:18
2xNV45/NV40 auf einem PCB bzw. einer Grafikkarte würde den Preis auf locker mal >800EUR treiben ( und der Stromverbrauch wäre auch ziemlich oben, mal abgesehen von der Kühlung (Selbst bei 90nm)) ;)

Also imho wäre das nicht sehr wirtschaftlich und wer weis, vlt. wird der R520 ja schneller als 2xNV40/NV45?

We will see ;)

also ein NV40/45 in 0.09 kostet garantiert keine 400 Euro mehr.
Ich habe nicht gesagt, dass man den jetzigen NV40/45 in 0.13 dafür nehmen sollte.
Den Chip aber auf 0.09 geshrinkt, würde das Ganze ermöglichen. Der wäre um die Hälfte kleiner und würde wahrscheinlich eine ziemlich fette Performance bieten. Man könnte auch einen leicht getunten Nachfolger nehmen. Solange die Transistorzahl bei ungefähr 220 bis 240 pro Chip bliebe wäre das machbar.

TheCounter
2004-12-17, 16:56:34
also ein NV40/45 in 0.09 kostet garantiert keine 400 Euro mehr.
Ich habe nicht gesagt, dass man den jetzigen NV40/45 in 0.13 dafür nehmen sollte.
Den Chip aber auf 0.09 geshrinkt, würde das Ganze ermöglichen. Der wäre um die Hälfte kleiner und würde wahrscheinlich eine ziemlich fette Performance bieten. Man könnte auch einen leicht getunten Nachfolger nehmen. Solange die Transistorzahl bei ungefähr 220 bis 240 pro Chip bliebe wäre das machbar.

Die Frage ist eher ob das ganze ausreichen würde um den R520 zu schlagen, und ob es sich lohnen würde. Selbst wenn ein 90nm NV45 nur 300EUR kostet wären das dann immernoch 500-600EUR (Je nachdem). Und ich glaube kaum das dies das einzig neue bei NVIDIA sein wird, wenn dann doch noch ein NV48/NV50 kommt hätte man doch Konkurrenz im eigenen Hause...

Vlt. ein Papiertiger mit einigen wenigen Samples den Benchmarks/Marketing wegen, aber ein Massenprodukt kann ich mir nicht wirklich vorstellen, würde sich nicht lohnen.

Was würde gegen einen Dual Core Grafikchip sprechen? Vielleichts NVs Geheimwaffe gegen den R520 oder lohnt Dual Core bei GPUs nicht?

Wäre das nicht ein wenig teuer und vor allem wie soll so ein Teil mit hohen Taktraten gekühlt werden? Mal abgesehen davon, ist sowas überhaupt realisierbar?

tombman
2004-12-17, 18:23:54
Das war auf "2 NV45 auf einer Karte" bezogen. ;) Beim normalen SLi-System ist halt kein Platz mehr fuer nen SCSI-Controller. :D

Das asus mobo hat noch PLatz zwischen 2 ultras im SLI, denn da ist noch ein 1x pci-e Platz frei.
Außerdem ist weiter unten noch einer frei.

Das viel größere Problem ist aber, daß es keine 1x raid scsi controller gibt, sondern die alle 4x od. 8x brauchen.... was glaubst wie mich das ärgert ;)

Und einen 4x device kannst ned in einen 1x slot stecken...

Fusion_Power
2004-12-17, 21:33:51
für die nicht bilingualen: http://www.tomshardware.de/news/20041217_072016.html

Auszug:

Theoretisch ist laut Gigabyte auch der Betrieb von zwei Doppelprozessor-Grafikkarten auf einem SLI-Mainboard möglich. Allerdings sei die "dazu notwendige Hardware noch nicht verfügbar". Man arbeite allerdings bereits an einer Lösung, hieß es am Freitag aus Taiwan.

:| Wow. Was für ein krankes Teil.
Mal angenommen, die bauen wirklich an ner Lösung, eine Doppelchip-Graka, vielleicht noch mit 2 6800 Ultra Chips druff auf nem über-Mainboard im SLI Betrieb mit einer weiteren 6800 Ultra Graka im SLI zu betreiben...
Also, wer zur Hölle soll sich sowat krankes kaufen wollen? Sind da draußen wirklich so verrückte FPS Freaks mit zuviel Kleingeld in der Tasche? :ucrazy3:

Weil ansonsten würd sowas wirtschaftlich ja keinen Sinn ergeben. Die würden nich solche Grafikmonster bauen, wenn sie keiner kaufen würde. Oder is das wieder nur so ein Prestige-Projekt?

Henzmoe
2004-12-17, 22:00:20
:| Wow. Was für ein krankes Teil.
Mal angenommen, die bauen wirklich an ner Lösung, eine Doppelchip-Graka, vielleicht noch mit 2 6800 Ultra Chips druff auf nem über-Mainboard im SLI Betrieb mit einer weiteren 6800 Ultra Graka im SLI zu betreiben...
Also, wer zur Hölle soll sich sowat krankes kaufen wollen? Sind da draußen wirklich so verrückte FPS Freaks mit zuviel Kleingeld in der Tasche? :ucrazy3:

Weil ansonsten würd sowas wirtschaftlich ja keinen Sinn ergeben. Die würden nich solche Grafikmonster bauen, wenn sie keiner kaufen würde. Oder is das wieder nur so ein Prestige-Projekt?


Also so Crazy find ich das jetzt nicht so. Warum nicht 2 GPU. Mal muss der Anfang gemacht werden. Ich freu mich über diese Entwicklung.....

Preise müssen halt runter....

(del676)
2004-12-17, 22:35:41
2x überarbeiteten nv40 (kühler, eventuell leicht angehobene mhz ~450) zu einem preis von 600 euro wär schu ein hit sondergleichen :)

TheCounter
2004-12-18, 00:13:12
2x überarbeiteten nv40 (kühler, eventuell leicht angehobene mhz ~450) zu einem preis von 600 euro wär schu ein hit sondergleichen :)

Was ist mit non Highend Chips? Wie sollen die dann aussehen? NVIDIA wird kaum nur ein Highend Produkt gegen den R520 (Von dem es sicher kleinere Versionen geben wird) stellen. Und wenn sie einen NV50 haben, und dazu noch 2xNV45/NV40 hätten sie ne starke Konkurrenz (Wohl Preislich und Leistungsmäßig) in der eigenen Produktpalette. Das NVIDIA nun auf einen 2GPU Zug aufspringt ist also mehr als unwarscheinlich.

Wenn dann bringen die ganzen Partner von NVIDIA solche varianten, tortzdem wird das ganze warscheinlich nicht sonderlich lukrativ sein ;)

Aber wenn ich das Geld hätte würd ich son teil schon kaufen, wenn die Leistung/Stromverbrauch/Lautstärke stimmt :D

Gast
2004-12-18, 00:51:11
Was mich auch ineteressiert, was is das für ein board??? Sieht für mich nach einem von Nvidia aus wegen den Chip zwischen den PEGsteckplätzen. Is des aber eins für Intel oder AMD, wenn eins für Intel is dann müsste das doch eig der nForce5 sein oder`?

deekey777
2004-12-18, 02:27:13
Was mich auch ineteressiert, was is das für ein board??? Sieht für mich nach einem von Nvidia aus wegen den Chip zwischen den PEGsteckplätzen. Is des aber eins für Intel oder AMD, wenn eins für Intel is dann müsste das doch eig der nForce5 sein oder`?

Ein nForce 5 muss es nicht unbedingt sein, denn Gigabyte hat auch ein "SLI"-Mainboard basierend auf dem i915p. ;)
Das Mainboard soll aber ein GA-K8NXP-SLI sein.

Ich habe jetzt auch die deutsche Übersetzung genau durchgelesen:

"Nvidias SLI-Technologie ermöglicht Gigabyte unter Verwendung des hauseigenen Mainboards GA-K8NXP-SLI, die beiden GPUs parallel laufen zu lassen und nach eigenen Angaben Rekordwerte im Benchmark 3DMark2003 zu erreichen...
Interessant wird Gigabytes 3D1 vor allem dadurch, dass die Karte samt Mainboard ab Mitte Januar für weniger Geld angeboten werden soll als alleinstehende GeForce 6800 Ultra-Grafikkarten, die zurzeit für etwa 500 Dollar über den Ladentisch gehen. "

http://www.tomshardware.de/news/20041217_072016.html

Braucht man für diese Dual-Chip-Grafikkarte etwas ein SLI-Mainboard? Wo ist der Sinn dann?

Gast
2004-12-18, 02:38:42
Multi-cores gehört die Zukunft, dass haben die CPU Hersteller auch schon erkannt und irgendwann wird es auch Multi-core GPUs geben. Ich finde SLI (das normale mit 2 PCBs) sollte optional immer mit unterstützt werden wenn es eine gute Kosten/Nutzen Relation für den Hersteller und Konsumenten gibt und selbst wenn es dieses nicht für den Konsumenten gibt, ist es ein ordentlicher Marketingbonus.

Ausserdem wer weiss wie "gut" der R520 wirklich sein wird. ATI kocht auch nur mit Wasser und die haben mit den gleichen Problemen zu kämpfen wie auch NV, wenn nicht noch schlimmere da sie ja technisch NV hinterher laufen.

Schau mer mal.

dacook
2004-12-18, 02:55:21
auf der platinen ist kein SLI-Port vorhanden !
Was bringt mir dann ein bundle mit einem SLI-board ????

Ich glaub SLI geht nur mit 2 Chips...
erst das ATI-System geht mit mehreren (und das von Alienware kann das schon..)

dacook
2004-12-18, 03:10:37
ich würd die Teile mehr 3dimensional bauen.
zb. das PBC dicker machen und auf der Rückseite noch 2 Chips. so hat man keine Probleme mit der Länge im Gehäuse.
Das wären dann 4 Chips pro Karte....

Tigerchen
2004-12-18, 09:47:29
Multi-cores gehört die Zukunft, dass haben die CPU Hersteller auch schon erkannt und irgendwann wird es auch Multi-core GPUs geben. Ich finde SLI (das normale mit 2 PCBs) sollte optional immer mit unterstützt werden wenn es eine gute Kosten/Nutzen Relation für den Hersteller und Konsumenten gibt und selbst wenn es dieses nicht für den Konsumenten gibt, ist es ein ordentlicher Marketingbonus.

Ausserdem wer weiss wie "gut" der R520 wirklich sein wird. ATI kocht auch nur mit Wasser und die haben mit den gleichen Problemen zu kämpfen wie auch NV, wenn nicht noch schlimmere da sie ja technisch NV hinterher laufen.

Schau mer mal.

GPU's sind per se Multicore. 6 Vertexshader und 8 Pixelpipelines sind schon zusammen 14 Ausführungseinheiten.
Aber du meinst wahrscheinlich Multichip.
Die Sprüche daß Multichip die Zukunft gehört höre ich jetzt schon seit den seeligen Voodoo V5 Karten. Ich kann dir versichern das wird niemals so sein. Das sind immer Verzweiflungstaten. SLI ist völlig unpraktikabel. Ohne den passenden Treiber läuft da nix. Und die wirds wohl nur immer für die jeweils aktuellen Hype-Spiele geben.

Gast
2004-12-18, 11:28:47
GPU's sind per se Multicore. 6 Vertexshader und 8 Pixelpipelines sind schon zusammen 14 Ausführungseinheiten.
Aber du meinst wahrscheinlich Multichip.
Die Sprüche daß Multichip die Zukunft gehört höre ich jetzt schon seit den seeligen Voodoo V5 Karten. Ich kann dir versichern das wird niemals so sein. Das sind immer Verzweiflungstaten. SLI ist völlig unpraktikabel. Ohne den passenden Treiber läuft da nix. Und die wirds wohl nur immer für die jeweils aktuellen Hype-Spiele geben.


So pauschal kann man das nicht sagen. Je nach Spielegenre und/oder Alter der Spiele macht SLI eh keinen Sinn. Die Leistung heutiger Grakas reicht da in den meisten Fällen vollkommen aus. Oder siehst du eine Notwendigkeit für SLI zB bei Quake3? Oder Baldurs Gate II?

Die Liste wird schon erweitert werden, da bin ich sicher und würde mir in dem Bereich keine Sorgen machen wenn ich vorhätte, ein SLI System zu kaufen.

IVN
2004-12-18, 12:58:28
GPU's sind per se Multicore. 6 Vertexshader und 8 Pixelpipelines sind schon zusammen 14 Ausführungseinheiten.
Aber du meinst wahrscheinlich Multichip.
Die Sprüche daß Multichip die Zukunft gehört höre ich jetzt schon seit den seeligen Voodoo V5 Karten. Ich kann dir versichern das wird niemals so sein. Das sind immer Verzweiflungstaten. SLI ist völlig unpraktikabel. Ohne den passenden Treiber läuft da nix. Und die wirds wohl nur immer für die jeweils aktuellen Hype-Spiele geben.



GPUs are not multi core.If you look at it that way,than an AMD a64 is also multicore (3 FPU unites). :devil:

deekey777
2004-12-18, 12:58:29
auf der platinen ist kein SLI-Port vorhanden !
Was bringt mir dann ein bundle mit einem SLI-board ????

Ich glaub SLI geht nur mit 2 Chips...
erst das ATI-System geht mit mehreren (und das von Alienware kann das schon..)

Wenn du den fehlenden SLI-Anschluß an der Grafikkarte meinst, dann:
"Theoretisch ist laut Gigabyte auch der Betrieb von zwei Doppelprozessor-Grafikkarten auf einem SLI-Mainboard möglich. Allerdings sei die "dazu notwendige Hardware noch nicht verfügbar". Man arbeite allerdings bereits an einer Lösung, hieß es am Freitag aus Taiwan."

Coda
2004-12-18, 13:00:52
"Theoretisch ist laut Gigabyte auch der Betrieb von zwei Doppelprozessor-Grafikkarten auf einem SLI-Mainboard möglich. Allerdings sei die "dazu notwendige Hardware noch nicht verfügbar". Man arbeite allerdings bereits an einer Lösung, hieß es am Freitag aus Taiwan."
Das ist 100% Marketinggeblubber, dazu müsste nVidia erstmal die Chips und Treiber ändern.

Die Sprüche daß Multichip die Zukunft gehört höre ich jetzt schon seit den seeligen Voodoo V5 Karten. Ich kann dir versichern das wird niemals so sein. Das sind immer Verzweiflungstaten. SLI ist völlig unpraktikabel. Ohne den passenden Treiber läuft da nix. Und die wirds wohl nur immer für die jeweils aktuellen Hype-Spiele geben.
Ach so? Was war mit der Voodoo 2? Da hatten auch ziemlich viele SLI. Und das mit dem Treiber kann man völlig transparent lösen, was nVidia wohl auch bald tun wird.

Demirug
2004-12-18, 13:22:08
Das ist 100% Marketinggeblubber, dazu müsste nVidia erstmal die Chips und Treiber ändern.

Gerüchteweise können die Treiber schon mehr als 2 Chips. Allerdings nimmt auf jeden Fall mit zunehmender Chipzahl der Mehrgewinn ab (SFR) oder die Latenz steigt (AFR)

Ach so? Was war mit der Voodoo 2? Da hatten auch ziemlich viele SLI. Und das mit dem Treiber kann man völlig transparent lösen, was nVidia wohl auch bald tun wird.

Im Treiber selbst ist es schon transparent aber man kann den Registrykey dafür noch nicht vom Panel aus kontrolieren und dokumentiert ist er natürlich auch nicht.

Coda
2004-12-18, 13:26:02
Gerüchteweise können die Treiber schon mehr als 2 Chips. Allerdings nimmt auf jeden Fall mit zunehmender Chipzahl der Mehrgewinn ab (SFR) oder die Latenz steigt (AFR)
Dann müsste aber die Chips immer noch mehr als einen Link haben, oder nicht?

Demirug
2004-12-18, 13:36:34
Dann müsste aber die Chips immer noch mehr als einen Link haben, oder nicht?

Es sind ja sowieso 4 Links. Was ich gehört habe soll es technisch möglich sein mehr als 2 Chips zu verbinden indem man die Ports nicht direkt verbindet sondern alle über einen Switch. Diesen gibt es wohl aber noch nicht.

Coda
2004-12-18, 14:08:23
Ok, dann ist es geklärt, ich ging von einer Punkt-zu-Punkt Verbindung aus.

Godmode
2004-12-18, 14:37:58
ich würd die Teile mehr 3dimensional bauen.
zb. das PBC dicker machen und auf der Rückseite noch 2 Chips. so hat man keine Probleme mit der Länge im Gehäuse.
Das wären dann 4 Chips pro Karte....

Das hab ich mir auch schon überlegt? Oder entspricht das dann den Richtlinien nicht mehr, wie so eine Karte aussehen soll?

Tigerchen
2004-12-18, 14:59:36
GPUs are not multi core.If you look at it that way,than an AMD a64 is also multicore (3 FPU unites). :devil:

Ja genau. Sogar der Z-80 hatte schon 2 Registersätze. Eigentlich nichts Neues. 2 wirklich räumlich getrennt Cores sind also nur die konsequente Fortführung eines alten Gedankens.

Ich bleibe dabei. Multichip auf Grafikkarten wird zwar Jahr für Jahr immer wieder zur Zukunft erklärt, voriges Jahr mit der V8 Duo, aber letztlich ist das wirtschaftlicher Unsinn.

Anders wäre es vielleicht wenn man Multichip so gestalten könnte daß sie nach außen hin wie ein Chip erscheinen. Mit einem, gemeinsamen Grafikspeicher. Wenn man z.B. den nV40 aus 4 Chips mit jeweils 4 Pipelines zusammensetzen könnte. Aber erstens weiß ich nicht ob sowas möglich ist. Und zweitens scheint sowas nicht in Sicht zu sein.

Godmode
2004-12-18, 15:08:51
Es sind ja sowieso 4 Links. Was ich gehört habe soll es technisch möglich sein mehr als 2 Chips zu verbinden indem man die Ports nicht direkt verbindet sondern alle über einen Switch. Diesen gibt es wohl aber noch nicht.

Könnte dieser Switch so ein Chip wie zb die PCIe/AGP Bridge sein von der Komplexität her, oder ist ist das eher was einfacheres?

Demirug
2004-12-18, 15:25:36
Könnte dieser Switch so ein Chip wie zb die PCIe/AGP Bridge sein von der Komplexität her, oder ist ist das eher was einfacheres?

Er sollte sich in ähnlichen Regionen bewegen. Aber das ganze ist wie gesagt ein unbestätigtes Gerücht.

tombman
2004-12-18, 15:28:53
Im Treiber selbst ist es schon transparent aber man kann den Registrykey dafür noch nicht vom Panel aus kontrolieren und dokumentiert ist er natürlich auch nicht.

Wie geht der key und was macht er? :D

Demirug
2004-12-18, 17:43:10
Wie geht der key und was macht er? :D

Das ist nVidia üblich wieder mal eine Nummer (habe ich gerade nicht im Kopf) der Wert bestimmt dann in welchem Modus ein SLI Paar betrieben wird. Aber genau das ist eben nicht dokumentiert. Dabei machen mir die Grundwerte für AFR, SFR und AUS weniger sorgen den die bekommt man schnell heraus wenn man ein System zum Spielen hat. Vorallem weil ich die Auswahl schon auf 1,2 und 4 eingrenzen konnte und 4 mit hoher Wahrscheinlichekut für Aus steht. Allerdings gibt es da noch eine ganze Menge Optionen welche durch setzten von zusätzlichen Bits bei der Zahl aktivierbar sind. Was für Optionen das nun aber sind und mit welchem Bit sie verknüpft sind ist völlig unklar.

MadManniMan
2004-12-18, 19:09:58
Kein Problem, Razorle :)

Und Tigerchen: dieses "Zusammenchippen" ist doch das Quad-Prinzip, das seit Ewigkeiten Anwendung findet ;)

Neon3D
2004-12-18, 20:29:44
da hat gigbyte ein ehrgeiziges ziel.

eine graffikarte, die schneller ist als alle anderen + einem mainboard und das alles zu einem preis der günstiger ist als eine ultra oder eine xt.

scheint meiner meinung nach eine gute idee zu sein, aber wird wohl nicht klappen.

hoffen wir das es doch geht.

bisher hab ich gigabyte nicht viel zugetraut, let's see.

Gast
2004-12-18, 20:51:57
Die "DIE" Größe und nm-Fertigung sind die limitierenden Faktoren. Ihr habt doch alle mit Sicherheit von der Problematik gehört, dass die Anzahl der Transistoren nicht ewig ansteigen kann, genauso deren Größe nicht ewig verkleinernt werden kann. In ein paar Jahren können nur Multi-cores (oder Multi-chips) dieses Problem umgehen. Natürlich muss man schon vorher experimentieren, aber ich denke wenn wir uns den G5 PPC CPU anschauen, bzw. Sonys Cell CPU, dann sehen wir schon gute Designalternativen auch für GPUs.

Ich denke auch in Zukunft, dass die Grenze zwischen CPU, GPU eher verschwinden wird und sich ihren Aufgaben annähern und effektiver, flexibeler zusammenarbeiten werden.

ZilD
2004-12-18, 21:40:12
gainward oder so zieht sicher mit ner 4 fach lösung um 1000€ nach. ;D

Tigerchen
2004-12-19, 17:08:40
Kein Problem, Razorle :)

Und Tigerchen: dieses "Zusammenchippen" ist doch das Quad-Prinzip, das seit Ewigkeiten Anwendung findet ;)

Ist es denn nicht so daß es im Moment so läuft daß alle Quads auf einen Chip gebacken werden um dann einen oder sogar 2 bei Bedarf zu deaktivieren?

MadManniMan
2004-12-19, 17:19:08
Ist es denn nicht so daß es im Moment so läuft daß alle Quads auf einen Chip gebacken werden um dann einen oder sogar 2 bei Bedarf zu deaktivieren?


Nun, wenn ich das richtig sehe, ist es ja mit der Modularität vor allem des NV40 weit her. Wir haben den NV40/45 mit 4 Quads, der NV41 kommt mit deren 3en daher, der NV43 mit 2 und ein Quad pur is dann der NV44 - nV hat keine Probleme, die Quadzahl noch weiter zu skalieren, deshalb gibts ja auch das Gerücht um den NV47 ... problematisch ist einzig die Größe der Chips.

Coda
2004-12-19, 17:29:00
Nicht nur die Quads sind modular sondern auch die ROPs. NV43 und NV44 haben ja jeweils nur die Hälfte der ROP Anzahl.
Was heutzutage ja fast nix ausmacht, weil fast alle Polygone meistens mindestens 2 Texturen haben.

mike49
2004-12-27, 18:01:56
Erster Test (mit Mainboard):

http://www.ocworkbench.com/2004/gigabyte/ga-k8nxp-sli/g1.htm

Schaut so aus, als läge die Performance exakt auf dem Niveau von 2 getrennten SLI-Karten...

Demirug
2004-12-27, 18:10:12
Erster Test (mit Mainboard):

http://www.ocworkbench.com/2004/gigabyte/ga-k8nxp-sli/g1.htm

Schaut so aus, als läge die Performance exakt auf dem Niveau von 2 getrennten SLI-Karten...

etwas anderes war auch nicht zu erwarten.

dildo4u
2004-12-27, 18:46:30
Leider ist kein vernünftiger bench mit 4XAA der Singel und der Dual karte dabei sonst hätte man klären können ob die karte nun ein 256Bit oder 128Bit speicher interface hat.

WEGA
2004-12-27, 19:13:42
wozu soll diese karte eigendlich gut sein? da kauf ich mir doch gleich ne gescheite ...

dildo4u
2004-12-27, 19:18:15
wozu soll diese karte eigendlich gut sein? da kauf ich mir doch gleich ne gescheite ...
Sie soll laut Gigabyte sogar im Bundel mit dem MainBoard billiger als eine X800XT oder 6800U sein.

WEGA
2004-12-27, 19:20:09
Sie soll laut Gigabyte sogar im Bundel mit dem MainBoard billiger als eine X800XT oder 6800U sein.

na dann

BvB123
2004-12-27, 20:24:12
Sie soll laut Gigabyte sogar im Bundel mit dem MainBoard billiger als eine X800XT oder 6800U sein.


Leider soll sie ja nur auf dem gigabyte board laufen :mad:

WEGA
2004-12-27, 20:40:29
Leider soll sie ja nur auf dem gigabyte board laufen :mad:

haha, müll, erinnert mich irgendwie an MSI. naja, ich würde sowas eh nicht kaufen. is mir zu gross der prügel

deekey777
2004-12-30, 17:04:36
Ein weiterer Test bei Firng Squad (http://www.firingsquad.com/hardware/gigabyte_3d1/)

dildo4u
2005-01-05, 17:09:09
neues review erstaunlich hier bei die karte ist selbst bei NFSU2 schneller als die 6600GT obwhol es für das game keine SLI unterstützung im treiber gibt also is die karte doch nicht von sli beschränkungen abhänig und funzt mit jedem game mit fullspeed.

http://www.onlynewz.com/content/view/17/2/

SKYNET
2005-01-06, 08:33:48
langweilig....

Eine octe 6800ultra kann das selbe...

2 NV45 auf einer Karte --> DAS wär interessant ;)
(von mir aus mit eigenem Netzteil wie voodoo 6000)


richtig, 2x 6800GT b.z.w. 2x 6800U oder 2x 6800UE auf einer karte. ;D


das würde ownage sein, dazu noch 512MB GDDR3 für jeden core und ab gehts. :cool:



Leider soll sie ja nur auf dem gigabyte board laufen :mad:


richtig so, die beste grafik solte auchnur mit den besten mainboards kombiniert werden !


ganzen mülligen mobos von MSI, ASUS, ABIT etc. taugen ja nix. :down:

Melc
2005-01-06, 09:28:44
Sehr schön! Ich bin gespannt auf die kommenden 12 Monate.

Tjell
2005-01-06, 10:11:37
richtig, 2x 6800GT b.z.w. 2x 6800U oder 2x 6800UE auf einer karte. ;D ...
Keine Chance! Wo willst Du die ganzen Stromanschlüsse unterbringen? :D
Abgesehen davon, daß so eine Karte schweinelange wäre. =)

SKYNET
2005-01-06, 10:16:44
warum ? 2 stromanschlüsse, also wie gewohnt...


und lang ist relativ, mache denken auch das sie mit 16cm nen langen sch*anz haben. ;)

Tjell
2005-01-06, 10:32:34
...das würde ownage sein, dazu noch 512MB GDDR3 für jeden core und ab gehts. :cool:
Ich mutmaße, daß entweder NV47 oder NV48 mit dieser Speichermenge daherkommen wird.

...und lang ist relativ, mache denken auch das sie mit 16cm nen langen sch*anz haben.
Manche können in ihre Winztower ja kaum ne normale 6800U einbauen, weil die Festplatten im Weg sind. *G*

SKYNET
2005-01-06, 16:46:02
tja, dann haben sie mit dem tower am falschen ende gespart. *liebevoll zu meinem lian-li PC60 gucke*

laut der gainward seite haben die ultras im sli bundle auch jeweils 512MB. :eek:

dildo4u
2005-01-15, 10:57:38
Review bei THG bis 1280*1024 4XAA 8XAnios hält die karte sher gut mit

http://graphics.tomshardware.com/graphic/20050111/index.html


http://img56.exs.cx/img56/2531/image010.gif

http://img56.exs.cx/img56/862/image41.gif

http://img56.exs.cx/img56/6973/image025.gif

Immer daran denken die karte soll zusammen mit dem Gigabyte NF4 Board billiger sein als eine 6800Ultra.

Adam D.
2005-01-15, 11:02:46
Auf Computerbase wurde ein Preis von 490€ mit Mainboard angegeben. Das ist gar nicht mal so schlecht, wenn man 120€ für's Mainboard nimmt.
In Doom³ ist das Teil ja ganz schön schnell :)

"Bundled with the motherboard, the card will be slightly cheaper than a comparable GeForce 6600 GT SLI setup, while offering better performance. Also, it will be much less expensive than a single 6800 GT or Ultra card."

Mantikor
2005-01-15, 12:32:36
Sorry, wenn es schon gefragt/gesagt wurde: "Wenn diese Karte nur im Bumndle mit einem Board ausgeliefert wird, welches benötigt wird, welchen Sockel hat das Gigabyte Board denn?

Mfg der Mantikor

Demirug
2005-01-15, 13:33:31
Sorry, wenn es schon gefragt/gesagt wurde: "Wenn diese Karte nur im Bumndle mit einem Board ausgeliefert wird, welches benötigt wird, welchen Sockel hat das Gigabyte Board denn?

Mfg der Mantikor

Das Board ist ein K8NXP-SLI 8 SIGMA. Also Sockel 939.

dildo4u
2005-01-23, 12:22:21
Test bei hardwareluxx

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=120

Quasar
2005-01-23, 12:28:50
Ein Punkt, den ich bei SLI immer als netten Nebeneffekt empfunden habe (damals bei der Voodoo2) - man konnte auf LANs (bei mir waren das immer kleinere LANs im Freundeskreis) auch mal schnell 'nem Kumpel, der kein 3DMonster hatte, mit einer seiner Karten aus der Patsche helfen - das fällt bei Single-Board-SLI natürlich weg.

Adam D.
2005-01-23, 13:59:04
Jo, Flohmarkt auf 'ner LAN :rolleyes:

Quasar
2005-01-23, 14:04:25
Nein, nur ausborgen.
Wir hatten tatsächlich den Fall, daß einer der Teilnehmer NFS II oder III (weiß nicht mehr genau, glaube aber letzteres) mit einer Matrox Mystique 220 spielte - natürlich eine Ruckelorgie sondergleichen. Und wenn man aufgrunddessen dauernd letzter wird, macht's natürlich wenig Spaß.

Also hat jemand, der 2 Voodoo2 besaß, kurzerhand eine ausgeborgt für die Dauer der LAN.

NvITA
2005-01-23, 16:58:09
asus mit 2x2 6600gt sli ?

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/januar/sli_grafikkarte_asus/

NvITA
2005-01-23, 16:59:33
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/januar/nvidia_sli_4x_6600_gt/

Demirug
2005-01-23, 17:00:16
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/januar/nvidia_sli_4x_6600_gt/

-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=200704

Ennox
2005-03-16, 11:18:29
Gibts das Teil eigentlich schon zu kaufen?!