PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI SLI Lösung (aus X800XT PE vs 6800ultra - von mir)


tombman
2004-07-01, 02:12:09
Original geschrieben von betareverse



Die SLI Lösung ist halt ohne Konkurrenz. Dann testet man halt gegen die besten Single-Karten-Lösung von ATI und NV, um zu sehen wie effizient SLI ist.

naja, ohne Konkurrenz, jetzt ja,... aber da warten wir mal ab was bis zum Retail-launch alles passieren wird ;)

Also technisch wäre sowas für ATI ein Kinderspiel, es gibt ja jetzt schon im Profibereich ATI Karten, die 4 (in Worten VIER!) r350 gpus auf EINER Karte unterbringen (zb von evans & sutherland um 12000 Pfund - eh billig, oder? ;)), also werden doch 2 gpus im SLI ein LEICHTES sein für ATI.
Wenn die wollen packen die ganz locker in normaler Bauhöhe 2 gpus auf eine Karte und wären damit Nvidia sogar überlegen, weil die dafür 2 Karten brauchen... :naughty:

Aber das ist jetzt nur Spekulation ..... ;)

p.s.: http://www.darkcrow.co.kr/image/preview/2004/0402/simFUSION_6000q/art01.jpg

betasilie
2004-07-01, 02:22:37
Original geschrieben von tombman
naja, ohne Konkurrenz, jetzt ja,... aber da warten wir mal ab was bis zum Retail-launch alles passieren wird ;)

Also technisch wäre sowas für ATI ein Kinderspiel, es gibt ja jetzt schon im Profibereich ATI Karten, die 4 (in Worten VIER!) r350 gpus auf EINER Karte unterbringen (zb von evans & sutherland um 12000 Pfund - eh billig, oder? ;)), also werden doch 2 gpus im SLI ein LEICHTES sein für ATI.
Wenn die wollen packen die ganz locker in normaler Bauhöhe 2 gpus auf eine Karte und wären damit Nvidia sogar überlegen, weil die dafür 2 Karten brauchen... :naughty:

Aber das ist jetzt nur Spekulation ..... ;)

p.s.: http://www.darkcrow.co.kr/image/preview/2004/0402/simFUSION_6000q/art01.jpg
Eine Dualchiplösung halte ich als äußerst unwahrscheinlich. Die würden sie nur bringen, wenn sich der R5xx erheblich verzögern würde.

Eine Dualchipkarte ist eine äußerst teure Karte. Die NV-Lösung mit SLI ist wesentlich günstiger für NV! ... Die echten Cracks kaufen sich zwei Karten und verbinden die via SLI. Das bedeutet für NV keine Mehrkosten, sondern nur den doppelten Umsatz und Gewinn.

Der Kunde kann sich sogar noch selber das Duo zusammenstellen und schauen wieviel Geld er ausgeben will. ... 2*680o oder 2*6800GT oder 2*6800Ultra. Für jeden Geldbeutel etwas.


Eine Dualchiplösung kostet Geld, nämlich für die Entwicklung. Und die Produktion des PCB ist auch teuer und risikoreich, da nur kleine Kontingente produziert werden, weil die Nachfrage bei so teuren Karten einfach gering bleibt.

tombman
2004-07-01, 02:30:04
Original geschrieben von betareverse
Eine Dualchiplösung halte ich als äußerst unwahrscheinlich. Die würden sie nur bringen, wenn sich der R5xx erheblich verzögern würde.

Eine Dualchipkarte ist eine äußerst teure Karte. Die NV-Lösung mit SLI ist wesentlich günstiger für NV! ... Die echten Cracks kaufen sich zwei Karten und verbinden die via SLI. Das bedeutet für NV keine Mehrkosten, sondern nur den doppelten Umsatz und Gewinn.

Der Kunde kann sich sogar noch selber das Duo zusammenstellen und schauen wieviel Geld er ausgeben will. ... 2*680o oder 2*6800GT oder 2*6800Ultra. Für jeden Geldbeutel etwas.


Eine Dualchiplösung kostet Geld, nämlich für die Entwicklung. Und die Produktion des PCB ist auch teuer und risikoreich, da nur kleine Kontingente produziert werden, weil die Nachfrage bei so teuren Karten einfach gering bleibt.

ich meinte ja auch nur, daß technisch und auch sonst nichts ATI davon abhält ebenfalls eine SLI Lösung zu bringen wenn der Markt es verlangt ;)

Und eigentlich hat NV ATI ja schon dazu gezwungen imo, denn ich denke nicht, daß ATI es zulassen wird, daß im Herbst/Winter jeder Doom3 und Half Life 2 mit NV SLI reviewen und logischerweise NV SLI als alleinigen Herrscher im freak-end (kommt nach high-end ;)) Bereich krönen wird, ohne was dagegen zu tun. Die werden 100% kontern ...

iam.cool
2004-07-01, 02:32:05
Wiso 2 9800pro als Dual lösung wären billiger als ne
6800ultra und auch noch 30% schneller!!!!!!!!
Warum macht ATI das eigendlich nicht, 400 euro cooler Preis und Hammer Performance;D

VooDoo7mx
2004-07-01, 02:38:25
Original geschrieben von iam.cool
Wiso 2 9800pro als Dual lösung wären billiger als ne
6800ultra und auch noch 30% schneller!!!!!!!!


Jetzt möchte ich mal wissen wie du das ausgrechnet hast? Oder hats dir die Zahnfee geflüstert?

betasilie
2004-07-01, 02:56:39
Original geschrieben von tombman
ich meinte ja auch nur, daß technisch und auch sonst nichts ATI davon abhält ebenfalls eine SLI Lösung zu bringen wenn der Markt es verlangt ;)


Quasi jeder Hersteller kann ein SLI-Lösung bringen. ;) Das ist nun wirklich nix besonderes. Sogar XGI macht das.

Original geschrieben von tombman
Und eigentlich hat NV ATI ja schon dazu gezwungen imo, denn ich denke nicht, daß ATI es zulassen wird, daß im Herbst/Winter jeder Doom3 und Half Life 2 mit NV SLI reviewen und logischerweise NV SLI als alleinigen Herrscher im freak-end (kommt nach high-end ;)) Bereich krönen wird, ohne was dagegen zu tun. Die werden 100% kontern ...
Achso. Und womit wird ATI kontern?

NVs SLI ist ein otpionale Sache und bedeutet kein Produktionrisko, wie bei einer Dualchiplösung. Eine Dualchiplösung wäre für ATI ein teures Vergnügen.

tombman
2004-07-01, 03:09:23
Original geschrieben von betareverse



Achso. Und womit wird ATI kontern?


Natürlich auch mit SLI :grenade:

betasilie
2004-07-01, 03:41:57
Original geschrieben von tombman
Natürlich auch mit SLI :grenade:
Denke ich nicht. ;) ...

Aber dafür könnte ATI mit dem R5xx mal wieder was wirklich positives gelingen und so wie es ausschaut wird der erheblich früher als der NV50 kommen und somit dann ein zeitlang die Konkurrenz zum NV4X sein.

tombman
2004-07-01, 04:29:17
Original geschrieben von betareverse
Denke ich nicht. ;) ...

Aber dafür könnte ATI mit dem R5xx mal wieder was wirklich positives gelingen und so wie es ausschaut wird der erheblich früher als der NV50 kommen und somit dann ein zeitlang die Konkurrenz zum NV4X sein.

Hmm, jo, der r5xx wäre mir noch 10 mal lieber als eine SLI Lösung von ATI ;)

Wenn der soviel oder mehr power als die xbox2 gpu hat ---> NVidia :rail: ATi

Showtime
2004-07-01, 08:53:32
Wolltest du uns mit diesem Thread sagen, dass ATi etwa dazu imstande wäre eine SLI Lösung zu bauen? Also nein... Darauf wäre ich gar nicht gekommen, ich dachte bei ATi sitzen nur unfähige Ingenieure. Preiset den Herrn, tombman brachte uns die Erleuchtung.

AlfredENeumann
2004-07-01, 08:59:45
Jetz erkläre mir mal einer bitte warum eine Dual-Core-Karte teurer sein soll als 2 Karten mit kompletten Layout?

reunion
2004-07-01, 09:12:33
Original geschrieben von AlfredENeumann
Jetz erkläre mir mal einer bitte warum eine Dual-Core-Karte teurer sein soll als 2 Karten mit kompletten Layout?

Weil man bei einer SLI-Lösung keine zusätzlichen Kosten hat, wer zwei Karten will steckt diese einfach zusammen, wer nicht nimmt nur eine. Außerdem ist man wesentlich flexibler, man kann sich zu beginn nur eine Karte kaufen und wenn diese dann zu langsam ist steckt man einfach noch eine zweite dazu...

Bei einer Dual-Core-Karte braucht man ein aufwendiges PCB um eine ausreichende Stromversorgung zu gewähleisten und genügend platz zu bieten, was sich angesichts des äußerst geringen absatzes einer Karte von >1000€ kaum rechtfertigen würde...

mirp
2004-07-01, 09:13:14
Original geschrieben von Showtime

Wolltest du uns mit diesem Thread sagen, …Den Thread habe ich von einem anderen getrennt, da es dort nicht zum eigentlichen Thema passte (siehe Titel).

Gast
2004-07-01, 09:18:39
Original geschrieben von AlfredENeumann
Jetz erkläre mir mal einer bitte warum eine Dual-Core-Karte teurer sein soll als 2 Karten mit kompletten Layout?

Schonmal an die Entwicklungskosten gedacht? Gerade bei den geringen Stueckzahlen, die von einer Dual-Core Karte dann produziert wuerden?

q@e
2004-07-01, 09:28:56
Weil du alles auf eine Karte quetschen musst, weil du das PCB neu entwickeln musst, weil du die Wärme von eine kleineren Fläche abführen musst, weil du nach Möglichkeit dabei noch innerhalb des ATX-Standard bleiben möchtest?

Bei SLI brauchste nur den Port und die Brücke - den Rest kann der Kunde entscheiden und du hast den Kostenvorteil des großen Volumens und etliches an gespartem R&D.


Ich sehe auch keinen Grund, warum ATi zu einer Dual-Chip Karte, anstatt auch zu SLI-Version greifen sollte - IMO überwiegen die Vorteile letzterer (deutlich).

TheGood
2004-07-01, 10:27:08
Der vorteil der Ati Dualcore karte wäre der dass nur ein PCI Express Steckplatz vonnöten wäre!!!!
Wie man bisher sieht ist ja genau das das Problem das NVIDIA hat. ES gibt zu wenige Leitungen in den bisher vorgestellten Chipsätzen, um zwei komplette PCI Express x16 Steckplatäze anzusteuen. Und das wird sich im Laufe eines JAhres sicher nicht verbessern.

Von daher ist es eben nicht so leicht, sich einfach eine zweite GF6800 zu kaufen und diese hinzuzustecken!!!

Irgendwie scheint das bisher vergessen worden zu sein.

Hauwech
2004-07-01, 10:29:09
Muessen tut ATI gar nichts. Der Chip muss fuer SLI ausgelegt sein, sofern man nicht die Alienwareloesung benutzt und die ist ja wohl ein wenig zu teuer.
Frage ist, hat ATI eventuell schon vorher davon gewusst oder nicht? Wenn ja dann kommt "ATI-SLI" vielleicht schon mit dem R480 da es egal ist von wem der Chipsatz und das Board dafuer kommt. Wenn nicht dann allerhoechstens mit dem R500.

Duo Karten Unsinn haben schon genuegend vor mir gepostet. Nicht umsonst nimmt E&S fuer ne 4er R350 12.000 Pfunde. Nur mit 2 auch teuer genug und von daher uninteressant fuer die Massen. Die Duo-Studie die mal von MSI? gezeigt wurde war PR. Wir koennten zwar aber...

NV hat doch auf SLI bestimmt ein Patent, oder?

Hauwech
2004-07-01, 10:31:39
Original geschrieben von TheGood
Der vorteil der Ati Dualcore karte wäre der dass nur ein PCI Express Steckplatz vonnöten wäre!!!!
Wie man bisher sieht ist ja genau das das Problem das NVIDIA hat. ES gibt zu wenige Leitungen in den bisher vorgestellten Chipsätzen, um zwei komplette PCI Express x16 Steckplatäze anzusteuen. Und das wird sich im Laufe eines JAhres sicher nicht verbessern.

Von daher ist es eben nicht so leicht, sich einfach eine zweite GF6800 zu kaufen und diese hinzuzustecken!!!

Irgendwie scheint das bisher vergessen worden zu sein.

Und wieso laeuft dann anscheinend SLI jetzt schon mit dem Intel 7525/Tumwater der nur 24 Lanes hat?

/edit: Ob 2 vollwertige 16x Slots jedoch eine Auswirkung auf die Performance haben koennten weiss ich allerdings nicht. Vielleicht gibt es ja sowas wie "Slot-Skalierung"(TM) ;)
BTW: Wir reden hier von DUO-GPU-Karten, nicht von DualCore Chips. Ein gewaltiger Unterschied.

Gast
2004-07-01, 10:49:56
Original geschrieben von iam.cool
Wiso 2 9800pro als Dual lösung wären billiger als ne
6800ultra und auch noch 30% schneller!!!!!!!!
Warum macht ATI das eigendlich nicht, 400 euro cooler Preis und Hammer Performance;D

weil sie damit vor allem ihren veralteten R420 zerstören würden.
Die 6800Ultra kann wenigstens noch ein Featureset gegenüber der 9800pro vorweisen.
Der R420 hat nichts gegenüber der 9800pro vorzuweisen und wäre ebenso langsamer.
Irgendwie wäre das eine schlechte Idee für ATI :)

q@e
2004-07-01, 10:52:34
Das stimmt so nicht.
Die X800 kann gegenüber der R9800XT

- Smartshader HD
- Smoothvision HD
- HyperZ HD
- 3dc
- GDDR3

:up:

HOT
2004-07-01, 10:55:28
Das PCB einer SLI GraKa muss auch auf SLI angepasst sein. Desweiteren ist nicht die Verdrahtung das schwierige sondern die Unterstützung für sowas im Chip+Treiber.
Eine Dualchipvariante könnte sogar kosteneffizienter sein, weil die Kosten für die Produktion einer Dualchipkarte geringer sind als die zweier Einchipkarten. Man könnte das Teil zusätzlich noch günstiger anbieten zu dem Umstand.
Wenn es eine Duallösung von ATI gibt, dann denke ich wird es auch eine Dual Karte sein.
Der Vorteil von NVs SLi liegt aber auf der Hand: Man kauft eine und wenn die Leistung nicht mehr reicht nimmt man einfach ne 2. dazu ;)

Winter[Raven]
2004-07-01, 10:57:54
Original geschrieben von tombman
Wenn der soviel oder mehr power als die xbox2 gpu hat ---> NVidia :rail: ATi

Danke, damit zeigst du uns sehr gut deine Einstellung im Bezug auf ATI vs nVidia.

Ich frag mich echt wieso du dir eine GF 6800Ultra zugelegt hast, wenn ATI deinen Postings nach, ehe dein Favorite ist und war!

Gast
2004-07-01, 10:58:21
Original geschrieben von tombman
Natürlich auch mit SLI :grenade:

SLI ist patentiert und liegt bei Nvidia.
Das wird nicht so einfach. Vor allem hätten sie an so einer Lösung schon länger feilen müssen.
Kurzfristig mal eben SLI bringen wird nicht funkionieren.
AFR wäre eine Möglichkeit, ist aber eben eine Dual Core Karte.
Sowas ist aufwendiger, weniger flexibel beim Inventory Management und hat ein deutlich höheres Produktions - und Geschäftsrisiko.
Die Dual Karten Variante hat dem gegenüber klare Vorteile.
Einziger Nachteil sind 2 benötigte Slots aber den Nachteil wältz der Chip und Kartenhersteller ja auf den Kunden ab.
Also kein Nachteil für die Firma.
Natürlich müssen entsprechende Boards vorhanden sein aber die wirds geben. Und wenn der IHV selber auch noch Chipsatzdesigner ist, dann erst recht. Vor allem holt er sich so Kunden im Chipsatzgeschäft, die eine SLI Möglichkeit haben wollen.
Nicht umsonst würde ich davon ausgehen, dass die alt eingesessenen Chiphersteller zunehmend in Schwierigkeiten kommmen werden, weil die GPU IHVs in dieses Geschäft drängen und genau durch solche Bundles den anderen das Wasser abgraben können.

q@e
2004-07-01, 10:59:01
Weil er fair und 100% objektiv aus erster Hand beurteilen wollte, welche Karte ihm besser gefällt natürlich.

Ein Fanboy würde sowas nie machen. :up: Tombman!

Gast
2004-07-01, 10:59:57
Original geschrieben von q@e
Das stimmt so nicht.
Die X800 kann gegenüber der R9800XT

- Smartshader HD
- Smoothvision HD
- HyperZ HD
- 3dc
- GDDR3

:up:

hehe ja aber das sieht leider nur ATI so. Der Kunde und Reviewer siehts halt anders. Alles nette Marketingsprüche aber letztlich bis auf Kleinigkeiten ist für alle klar, dass R420 = R350 ist von der Grundarchitektur.

Pirx
2004-07-01, 11:06:40
Original geschrieben von HOT
...
Der Vorteil von NVs SLi liegt aber auf der Hand: Man kauft eine und wenn die Leistung nicht mehr reicht nimmt man einfach ne 2. dazu ;)
Netzteil und Board müssen das aber mitmachen, sonst gibt man am Ende zuviel aus. Was wird eigentlich eher breit verfügbar sein, Boards die nVs SLI unterstützen, oder der R5xx oder der nV5x?

Gast
2004-07-01, 11:08:38
Original geschrieben von HOT
Das PCB einer SLI GraKa muss auch auf SLI angepasst sein. Desweiteren ist nicht die Verdrahtung das schwierige sondern die Unterstützung für sowas im Chip+Treiber.
Eine Dualchipvariante könnte sogar kosteneffizienter sein, weil die Kosten für die Produktion einer Dualchipkarte geringer sind als die zweier Einchipkarten. Man könnte das Teil zusätzlich noch günstiger anbieten zu dem Umstand.
Wenn es eine Duallösung von ATI gibt, dann denke ich wird es auch eine Dual Karte sein.
Der Vorteil von NVs SLi liegt aber auf der Hand: Man kauft eine und wenn die Leistung nicht mehr reicht nimmt man einfach ne 2. dazu ;)

Die Anpassung einer SLI Graka ist aber einfacher.
Dual Chip Varianten auf einem PCB sind deutlich aufwendiger.
Kühlung, Speicheranbindung, Stromversorgung und die SLI Verdrahtung zwischen den Chips müssen alle auf ein PCB.
Bei SLI Graka müssen nur die SLI Pins für die GPU Verbindung nach aussen geführt werden Stromversorgung, Speicheranbindung Kühlung etc.. laufen wie gehabt.
Das ist einfach billiger und vor allem flexibler.

Der Größte Vorteil ist die Flexibilität im Hinblick auf das Inventory Management.
Bei Dual GPU Varianten muss die Qualitätskontrolle sehr viel höher sein. Was passiert wenn ein Chip mit einmal nicht die gewünschten Taktraten schafft, der andere aber schon? Was passiert wenn die Nachfrage nach Dual Chip Karten eine andere ist als das Angebot.
Bei Dual Karten, nimmst dann einfach die, die zusammen passen. Alle anderen werden als Einzelkarte verkauft.
Das geht bei Dual Chip nicht. Hast du einmal deine Dual Chip Karte, kannt nicht einfach einen Chip runterlöten und neu verbauen.
Zu Kostenintensiv zu aufwendig und einfach zu unflexibel.

Dual Graka sieht teuer aus ist es aber gerade aus diesem Gesichtspunkt her nicht, weil die gesamte Produktion sehr standardisiert werden kann.
Das spart kosten. Viele leiten von der Größe oder dem aussehen viel zu schnell auf die Kosten. Das größte Problem im gesamten Halbleitergeschäft ist immer das Inventory Management und die product allocation auf dem weltweiten Markt angepasst auf die Nachfrage.

Es ist billiger immer wieder die selben Karten zu fertigen und diese ggf. runterzutakten oder Pipes zu deaktivieren und damit billiger zu verkaufen als wenn man zich Einzelprodukte zb. im High End hat, die nur ein recht kleines GEsamtvolumen haben.
Natürlich muss die Verhältnismäßigkeit da sein. Produktdiversifizierung lohnt sich schon wie man an der gesamten FX Flotte sieht also FX59xx, FX57xx, FX56xx und FX52xx.
Was sich aber nicht lohnt ist innerhalb eines Marktsegments zu viele Varianten anzubieten, die in sich nicht gleich sind. Und das ist bei Dual Chip Versionen der Fall.

q@e
2004-07-01, 11:09:20
Original geschrieben von Gast
hehe ja aber das sieht leider nur ATI so. Der Kunde und Reviewer siehts halt anders. Alles nette Marketingsprüche aber letztlich bis auf Kleinigkeiten ist für alle klar, dass R420 = R350 ist von der Grundarchitektur.

Nein nein, du verstehst nicht!
Jetzt sind ja auch 6 Vertexshader und 16 Pixelshader in der GPU integriert worden -> neue Architektur - neue Leistungsdimensionen!

Außerdem gibt's jetzt F-Buffer und lange Shader!

Gast
2004-07-01, 11:11:53
Original geschrieben von Gast
SLI ist patentiert und liegt bei Nvidia.



Ich glaube nicht, dass sowas triviales wie SLI patentierbar ist. Ich lasse mich aber durch einen Verweis (Link) auf das Patent gerne eines besseren belehren.

Hauwech
2004-07-01, 11:44:12
Original geschrieben von Gast
Ich glaube nicht, dass sowas triviales wie SLI patentierbar ist. Ich lasse mich aber durch einen Verweis (Link) auf das Patent gerne eines besseren belehren.

Du glaubst ja gar nicht was alles schon patentiert worden ist... Ich glaube mit das "tollste" Patent war der Rechtsclick, wurde der nicht MS zugesprochen?

Hauwech
2004-07-01, 11:54:29
Original geschrieben von Pirx
Netzteil und Board müssen das aber mitmachen, sonst gibt man am Ende zuviel aus. Was wird eigentlich eher breit verfügbar sein, Boards die nVs SLI unterstützen, oder der R5xx oder der nV5x?

Da das ganze ja schon wie gesagt mit dem Intel 7525 Chipsatz funktioniert der ganz bestimmt nicht fuer den Consumermarkt ausgelegt ist, wird es fuer die anderen Chipsatzbauer ein leichtes sein sowas anbieten zu koennen.
Fuer PCIE braucht man eh ein neues Board, warum dann nicht gleich eins kaufen was 2 16x Slots hat?

Und fuer ATI-SLI bzw DualGPU-Karte braucht man kein neues Netzteil, oder wie?

deekey777
2004-07-01, 12:01:05
Original geschrieben von Gast
hehe ja aber das sieht leider nur ATI so. Der Kunde und Reviewer siehts halt anders. Alles nette Marketingsprüche aber letztlich bis auf Kleinigkeiten ist für alle klar, dass R420 = R350 ist von der Grundarchitektur.

Ich dachte, es wäre so: X800XT=4xRV360

Wenn nVidia von einer Brücke springt, müssen die Kanadier ihnen dann auch folgen?
Wozu braucht ATi eine SLI-Lösung überhaupt?

Simon Moon
2004-07-01, 13:34:48
Original geschrieben von deekey777
Ich dachte, es wäre so: X800XT=4xRV360

Wenn nVidia von einer Brücke springt, müssen die Kanadier ihnen dann auch folgen?
Wozu braucht ATi eine SLI-Lösung überhaupt?

Aus Marketing Gründen. SLI hat nämlich einen grossen Vorteil: Statt mir jetzt eine 6800U zu kaufen, kann ich mir eine 6800GT kaufen - die ist auch sau schnell und ich kann alles mit zocken. Und in einem Jahr, wen dann die nächste Generation kommt, kauf ich mir noch ne 2. GT und ich hab wieder moderate leistung - wenmöglich sogar eine bessere als die Nachfolgegeneration in der Solochip variante. Soll heissen, ich kann Leistung "hinzukaufen" und muss sie nicht "austauschen".

Nebenbei sind die Karten im SLI Modus auch wesentlich schneller als die von ATi - und was das für die FPS-Reviewer bedeutet, sollte wohl klar sein und die wirkung derer auf den Markt ebenso...

Ich mein, ATi hatte mit der R9800Pro niemals einen solchen Vorsprung auf die FX5900, wie sie der NV40 SLI nun auf die X800XT:PE hat.

Es kann natürlich auch sein, dass der Markt die Möglichkeit belächelt, wegen dem hohen Preis - aber das stuf ich als äussert unrealistisch ein.



Doch was anderes:
Die Chips werden immer Stromhungriger und heisser. Das imo die Architektur der Chips entwickelt sich schneller als die Fertigungstechnik. Wenn das nun so weiter geht, wird man in einzelnen Chips kaum mehr solche Leistungsprünge haben. Folglich muss die Entwicklung wohl anderst verlaufen - Multichip Karten wären da imo durchaus eine Lösung. Doch der momentane SLI Modus (der ja auch auf einer Multichip Karte zum einsatz käme) scheint nicht so optimal - die untere bzw. obere Bildhälfte können ungleich komplexer sein - wäre es von daher nicht besser in Tiles zu rendern? Wird es in Zukunft wohl in diese Richtung gehen?

Simon Moon
2004-07-01, 13:39:19
Original geschrieben von Gast
Ich glaube nicht, dass sowas triviales wie SLI patentierbar ist. Ich lasse mich aber durch einen Verweis (Link) auf das Patent gerne eines besseren belehren.

Trivial? Mach das mal effizient - XGI hats nicht wirklich geschaft.

tokugawa
2004-07-01, 14:39:50
Original geschrieben von Gast
Ich glaube nicht, dass sowas triviales wie SLI patentierbar ist. Ich lasse mich aber durch einen Verweis (Link) auf das Patent gerne eines besseren belehren.

Die Idee selbst mag trivial klingen, aber hast du schon mal überlegt wie du das Load Balancing implementieren willst? Noch mal zur Erinnerung, dass es hier nicht um 3dfx-SLI (Scanline-interleave) geht, sondern um Scalable Link Interface, das eigentlich nicht mehr was mit Scanline-Interleave was zu tun hat (und außerdem wie gesagt, ganz eigene Probleme bezüglich Render-to-Texture usw. hat).

Vielleicht doch nicht gaaanz so trivial?

Eine Idee mag manchmal trivialer als ihre Umsetzung sein. Oder ein Grundprinzip trivialer klingen als es bei näherer Betrachtung dann ist.

betasilie
2004-07-01, 14:58:57
Original geschrieben von tombman
Wenn der soviel oder mehr power als die xbox2 gpu hat
Der R5xx wird mit Sicherheit nicht die Performance wie der XBII-Chip haben. :nono: Aber das muss er auch garnicht.

Demirug
2004-07-01, 15:04:00
Original geschrieben von betareverse
Der R5xx wird mit Sicherheit nicht die Performance wie der XBII-Chip haben. :nono: Aber das muss er auch garnicht.

Stimmt, der R5xx braucht mehr als der spekulative XBox II Chip.

HOT
2004-07-01, 15:23:44
Original geschrieben von Gast
Die Anpassung einer SLI Graka ist aber einfacher.
Dual Chip Varianten auf einem PCB sind deutlich aufwendiger.
Kühlung, Speicheranbindung, Stromversorgung und die SLI Verdrahtung zwischen den Chips müssen alle auf ein PCB.
Bei SLI Graka müssen nur die SLI Pins für die GPU Verbindung nach aussen geführt werden Stromversorgung, Speicheranbindung Kühlung etc.. laufen wie gehabt.
Das ist einfach billiger und vor allem flexibler.

Der Größte Vorteil ist die Flexibilität im Hinblick auf das Inventory Management.
Bei Dual GPU Varianten muss die Qualitätskontrolle sehr viel höher sein. Was passiert wenn ein Chip mit einmal nicht die gewünschten Taktraten schafft, der andere aber schon? Was passiert wenn die Nachfrage nach Dual Chip Karten eine andere ist als das Angebot.
Bei Dual Karten, nimmst dann einfach die, die zusammen passen. Alle anderen werden als Einzelkarte verkauft.
Das geht bei Dual Chip nicht. Hast du einmal deine Dual Chip Karte, kannt nicht einfach einen Chip runterlöten und neu verbauen.
Zu Kostenintensiv zu aufwendig und einfach zu unflexibel.

Dual Graka sieht teuer aus ist es aber gerade aus diesem Gesichtspunkt her nicht, weil die gesamte Produktion sehr standardisiert werden kann.
Das spart kosten. Viele leiten von der Größe oder dem aussehen viel zu schnell auf die Kosten. Das größte Problem im gesamten Halbleitergeschäft ist immer das Inventory Management und die product allocation auf dem weltweiten Markt angepasst auf die Nachfrage.

Es ist billiger immer wieder die selben Karten zu fertigen und diese ggf. runterzutakten oder Pipes zu deaktivieren und damit billiger zu verkaufen als wenn man zich Einzelprodukte zb. im High End hat, die nur ein recht kleines GEsamtvolumen haben.
Natürlich muss die Verhältnismäßigkeit da sein. Produktdiversifizierung lohnt sich schon wie man an der gesamten FX Flotte sieht also FX59xx, FX57xx, FX56xx und FX52xx.
Was sich aber nicht lohnt ist innerhalb eines Marktsegments zu viele Varianten anzubieten, die in sich nicht gleich sind. Und das ist bei Dual Chip Versionen der Fall.


Da liegst du denke ich net ganz korrekt. Denke ein wenig Flexibler. Es wird immer gerechnet was Billiger ist. Ich denke, dass es bei so einenm HighEnd Geschoss egal ist, ob das jetzt so oder so realisiert wird, da beides seine Vorteile hat. Die Produktionskosten einer 2Chiplösung sind mit tödlicher Wahrscheinlichkeit geringer, als wenn man stattdessen 2 Karten produziert, ganz einfach weil die Maschine nicht 2 komplette Zyklen laufen muss sondern nur 1,5 oder so (im Verhältnis).
Wie aufwendig letztendlich das PCB ist spielt nicht so die Rolle, wenn die Produktion einmal läuft, dann läuft sie, und das geht bei PCBs recht schnell.
Auch das PCB Design ist nicht so teuer. Sonst würden nicht dauernd günstigere Designs entwickelt, wo es sich lohnt.

TheGood
2004-07-01, 15:43:38
Original geschrieben von Hauwech
Und wieso laeuft dann anscheinend SLI jetzt schon mit dem Intel 7525/Tumwater der nur 24 Lanes hat?

/edit: Ob 2 vollwertige 16x Slots jedoch eine Auswirkung auf die Performance haben koennten weiss ich allerdings nicht. Vielleicht gibt es ja sowas wie "Slot-Skalierung"(TM) ;)
BTW: Wir reden hier von DUO-GPU-Karten, nicht von DualCore Chips. Ein gewaltiger Unterschied.

Jopp sorryy verschrieben, aber auch dass es nur mit 24 Leitungen geht bringt doch keinen weiter. Weil dieser chipsatz für den server markt gedacht ist. Und die wengisten Leute die sich ein System kaufen holen sich ein Mainboard mit diesem Chipsatz.

stav0815
2004-07-01, 15:44:31
Original geschrieben von HOT
Da liegst du denke ich net ganz korrekt. Denke ein wenig Flexibler. Es wird immer gerechnet was Billiger ist. Ich denke, dass es bei so einenm HighEnd Geschoss egal ist, ob das jetzt so oder so realisiert wird, da beides seine Vorteile hat. Die Produktionskosten einer 2Chiplösung sind mit tödlicher Wahrscheinlichkeit geringer, als wenn man stattdessen 2 Karten produziert, ganz einfach weil die Maschine nicht 2 komplette Zyklen laufen muss sondern nur 1,5 oder so (im Verhältnis).
Wie aufwendig letztendlich das PCB ist spielt nicht so die Rolle, wenn die Produktion einmal läuft, dann läuft sie, und das geht bei PCBs recht schnell.
Auch das PCB Design ist nicht so teuer. Sonst würden nicht dauernd günstigere Designs entwickelt, wo es sich lohnt.

du vergisst aber dass das SingleChip Design schon steht! Wenn man jetzt ein extra DualChip Design entwickelt kann man bei fast 0 beginnen.
ausserdem werden die höheren Kosten ja durch den Preis wieder hereingeholt - du machst den gewinn von 2 SingleChip Karten. Das kann deutlich mehr sein wie der Gewinn bei einer DualKarte.

betasilie
2004-07-01, 15:48:53
Original geschrieben von Demirug
Stimmt, der R5xx braucht mehr als der spekulative XBox II Chip.
Echt? Also ich würde doch annehmen, dass der XBII-Chip sowas wie damals der NV2A wird. Also eine leicht aufgebohrte Variante des PC-Modells.

Eigentlich sollte Konsolenhardware bei Erscheinung der PC-Hardware überlegen sein, denn sie muss einige Jahre "halten".

LovesuckZ
2004-07-01, 15:59:09
Original geschrieben von stav0815
ausserdem werden die höheren Kosten ja durch den Preis wieder hereingeholt - du machst den gewinn von 2 SingleChip Karten. Das kann deutlich mehr sein wie der Gewinn bei einer DualKarte.

Und die Verfuegbarkeit nicht vergessen: Immerhin brauch man 2 220Millionen Transistorenmonster auf einer Karte. Und die Wahrscheinlichkeit, dass es Menschen gibt, die 1000€ fuer eine Dual - Core - Karte hinlegen ist geringerer, als wenn 2 Leute 2 500€ Karten kaufen.

Demirug
2004-07-01, 16:34:17
Original geschrieben von betareverse
Echt? Also ich würde doch annehmen, dass der XBII-Chip sowas wie damals der NV2A wird. Also eine leicht aufgebohrte Variante des PC-Modells.

Eigentlich sollte Konsolenhardware bei Erscheinung der PC-Hardware überlegen sein, denn sie muss einige Jahre "halten".

Das PC-Model war der NV20. Der NV25 ist fast baugleich mit dem NV2A.

Der besagte XBox II Chip hätte mit seinen 16 TMUs@500MHz nicht mal die Texelfillrate einer X800 XT PE. Und die 48 ALUs höhren sich erst mal gut an wenn man aber kreativ zählt hat man die schnell zusammen. Beim R420 kann ich locker 76 zählen wenn ich will.

Ist aber OT hier und wenn wir das näher erörtern wollen dann besser im passenden Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=150540

Ailuros
2004-07-01, 17:11:53
Demirug,

Zustimm.

----------------------

Zum SLI/SLi (SLi fuer scalable link interface um die Verwirrung zu sparen) Wirrwarr:

ATI verwendete frueher (wie bekannt) bei den MAXX Loesungen AFR. In den multi-chip R3xx fuer E&S z.B. wird aber das sogenannte SuperTiling angewendet, welches hoechstwahrscheinlich auch auf single chip Loesungen taetig sein koennte.

Wenn ich das Ganze jetzt nicht falsch interpretiert habe, wird eine Szene zuerst in Macro Tiles und dann spaeter in Micro tiles aufgebrochen (na ist ja eigentlich die fundamentale Denkensart von hierarchical Z); hier ist aber der Unterschied dass Macro Tiles parallel bearbeitet werden koennen. In dem Fall ist es eigentlich egal ob single oder multi-chip, denn Macro Tiles koennen entweder von verschiedenen Einheiten auf dem einen oder mehreren chips bearbeitet werden.

(falls brainfart bitte korrigieren)

Mein Allzeit B3D Prophet:

Scaling the geometry processing using multliple GPU cards shouldn't be too difficult if the cards use screen partitioning (as opposed to scan line interleaving).

If the application's 3d engine uses efficient culling of geometry to the viewport (say using hierarchical bounding volumes) the scaling happens automatically since geometry outside a card's partition is efficiently culled before being processed.

If it was felt important to scale the geometry processing of applications that didn't bother to efficiently cull geometry it could be handled by having each card deterministically process half the vertices. A card would send any processed vertices it processed in the other card's viewport to the other card for rendering. As an possible optimization, you could minimize communications traffic by having each card track the vertices that were in its viewport on the last frame and render those first.

BTW, in my opinion screen partitioning might prove to be a more efficient way of distributing processing across multiple pipelines on a single card as the number of pipelines continue to grow and the triangle sizes continue to shrink.

It allows large numbers of vertices and pixels to be processed independently in parallel without potential frame buffer or resource conflicts.

***edit: oooops Link vergessen, und die Kommentare sind natuerlich von SA:
http://www.beyond3d.com/forum/viewtopic.php?t=13600&start=160
[/***edit]

Und das jetzt nicht nur auf ATI bezogen; bitte verwechselt SLI (Scan Line Interleaving) mit SLi (Scalable Link Interface) nicht. Ich weiss zwar nicht wie NVIDIA das load balancing der GPUs geloest hat, aber ich bin mir sicher dass es sich NICHT um scan line interleaving handelt.

Demirug
2004-07-01, 17:21:35
ATI teilt die Arbeit bei iheren Multichiplösungen in Tiles aus welche über den Hyper-Z Mechanismuss makiert werden.

Jeder Chip weis also welche Pixel er rendern muss. Pixel die in anderen Tiles fallen werden via Hir-Z verworfen.

SLI von nVidia arbeitet nun aufgrund meiner neusten Information mit einem Verfahren das irgendwie alles was es an Multichip Lösungen gibt kombiniert.

tombman
2004-07-01, 17:26:55
Original geschrieben von mirp
Den Thread habe ich von einem anderen getrennt, da es dort nicht zum eigentlichen Thema passte (siehe Titel).

könntest du den bitte wieder ändern? weil es nicht meine intention war über sli zu reden im thread...

du könntest zb so ändern "x800xt pe vs 6800u -von mir (+ati sli diskussion)"

oder du trennst den thread in einen eigenen sli tnread und transferierst alle postings dorthin...

immerhin war das meine persöhnliche erfahrung mit den karten und keine sli diskussion...

Ailuros
2004-07-01, 17:27:28
Original geschrieben von Demirug
ATI teilt die Arbeit bei iheren Multichiplösungen in Tiles aus welche über den Hyper-Z Mechanismuss makiert werden.

Jeder Chip weis also welche Pixel er rendern muss. Pixel die in anderen Tiles fallen werden via Hir-Z verworfen.

SLI von nVidia arbeitet nun aufgrund meiner neusten Information mit einem Verfahren das irgendwie alles was es an Multichip Lösungen gibt kombiniert.

Auch scan line interleaving und AFR? :D

Passt irgendwie nicht mit all dem anderen zusammen.

Demirug
2004-07-01, 17:38:12
Original geschrieben von Ailuros
Auch scan line interleaving und AFR? :D

Passt irgendwie nicht mit all dem anderen zusammen.

scan line interleaving im 3dfx Still natürlich nicht aber wenn man es so auslegt das man die scanlines der oberen Bildschirm hälfte und die Scanlines der unteren Bildschirmhälfte interleved ja. AFR ist aber auch irgendwie dabei.

tombman
2004-07-01, 17:40:00
Original geschrieben von Winter[Raven]
Danke, damit zeigst du uns sehr gut deine Einstellung im Bezug auf ATI vs nVidia.

Ich frag mich echt wieso du dir eine GF 6800Ultra zugelegt hast, wenn ATI deinen Postings nach, ehe dein Favorite ist und war!

1.) so ein witziges smiley läßt dich rückschlüsse auf irgendwas ziehen? oje....
2.) was ist stärker: das wort oder die tat?
3.) die x800xt pe ist JETZT schneller als die 6800u, ein einziger wundertreiber kann das jederzeit ändern, ebenso games mit 3.0 support --> deshalb hab ich beide karten- bin für jede situation vorbereitet :D

daraus folgt: ich hatte noch bei keiner hardware irgendwelche favoriten. hatte schon amd, intel, nvidia und ati. mein einziger favorit ist diese formel : fps x pq :D
(frames per second mal picture quality)

deekey777
2004-07-01, 19:17:05
Original geschrieben von El-Diablo
Aus Marketing Gründen. SLI hat nämlich einen grossen Vorteil: Statt mir jetzt eine 6800U zu kaufen, kann ich mir eine 6800GT kaufen - die ist auch sau schnell und ich kann alles mit zocken. Und in einem Jahr, wen dann die nächste Generation kommt, kauf ich mir noch ne 2. GT und ich hab wieder moderate leistung - wennmöglich sogar eine bessere als die Nachfolgegeneration in der Solochip variante. Soll heissen, ich kann Leistung "hinzukaufen" und muss sie nicht "austauschen".

Diese Einstellung kommt mir irgendwie bekannt vor... ;(
Das ist der Pluspunkt der SLI-Lösung überhaupt.


Original geschrieben von El-Diablo
Nebenbei sind die Karten im SLI Modus auch wesentlich schneller als die von ATi - und was das für die FPS-Reviewer bedeutet, sollte wohl klar sein und die wirkung derer auf den Markt ebenso. Ich mein, ATi hatte mit der R9800Pro niemals einen solchen Vorsprung auf die FX5900, wie sie der NV40 SLI nun auf die X800XT:PE hat

Ich glaube, jeder Otto-Normal-User wird unterscheiden können, wo mit einer SLI-Lösung getestet wurde und wo nicht. Der finanzielle Aufwand, eine SLI-Lösung sein Eigen zu nennen, ist sehr gross, und die technische Probleme sind auch noch nicht überwunden.

ow
2004-07-01, 19:25:24
Original geschrieben von El-Diablo
Trivial? Mach das mal effizient - XGI hats nicht wirklich geschaft.

XGI verwendet AFR und kein SLI.

ow
2004-07-01, 19:27:47
Original geschrieben von tokugawa
Die Idee selbst mag trivial klingen, aber hast du schon mal überlegt wie du das Load Balancing implementieren willst? Noch mal zur Erinnerung, dass es hier nicht um 3dfx-SLI (Scanline-interleave) geht, sondern um Scalable Link Interface, das eigentlich nicht mehr was mit Scanline-Interleave was zu tun hat (und außerdem wie gesagt, ganz eigene Probleme bezüglich Render-to-Texture usw. hat).

Vielleicht doch nicht gaaanz so trivial?

Eine Idee mag manchmal trivialer als ihre Umsetzung sein. Oder ein Grundprinzip trivialer klingen als es bei näherer Betrachtung dann ist.

Ich bezog mich auf einfaches Scanline-Interleave, von welchem ich annahm, das Hauwech dies meinte (mit dem Patent darauf). Kann mich natürlich geirrt haben.

Brillus
2004-07-01, 19:48:26
Dumme Frage zwischendruch aber wie funktioniert AFR?

reunion
2004-07-01, 19:50:10
Original geschrieben von Brillus
Dumme Frage zwischendruch aber wie funktioniert AFR?

AFAIK redert dort immer abwechseld ein Chip ein gesamtes Frame. (Wenn ich das jetzt nicht verwechsle)...

Winter[Raven]
2004-07-01, 19:50:41
Ist SLi nun auf 3DFX patentiert oder nicht?

Simon Moon
2004-07-01, 22:28:59
Original geschrieben von deekey777
Ich glaube, jeder Otto-Normal-User wird unterscheiden können, wo mit einer SLI-Lösung getestet wurde und wo nicht. Der finanzielle Aufwand, eine SLI-Lösung sein Eigen zu nennen, ist sehr gross, und die technische Probleme sind auch noch nicht überwunden.

Eben nicht. Für die ist dann im Moment eben wieder Nvidia "schneller" -> wenn die 6800U:EE@SLI schneller als ne X800XT:PE ist, ist auch die FX5200 schneller als ATi. Obwohl er ausser den Bezeichnungen Nvidia und ATi hier wohl kaum was kennt - allenfalls noch die "Firma" GeForce oder so ...

Simon Moon
2004-07-01, 22:31:09
Original geschrieben von ow
XGI verwendet AFR und kein SLI.

Es ging mir um den Gedanken 2 Chips zur Zusammenarbeit zu bewegen. Da gibt es eben bessere und schlechtere Möglichkeiten.

del_4901
2004-07-02, 00:23:38
Original geschrieben von q@e
Das stimmt so nicht.
Die X800 kann gegenüber der R9800XT

- Smartshader HD
- Smoothvision HD
- HyperZ HD
- 3dc
- GDDR3

:up:

Matketinggeblubber

del_4901
2004-07-02, 00:28:24
Original geschrieben von q@e
Nein nein, du verstehst nicht!
Jetzt sind ja auch 6 Vertexshader und 16 Pixelshader in der GPU integriert worden -> neue Architektur - neue Leistungsdimensionen!

Außerdem gibt's jetzt F-Buffer und lange Shader!
den F-Buffer sollte schon der R350 haben -> Marketinggeblubber, den misst gibt es immernoch nicht, und das eine Karte mit Mehr pipes mehr PS und VS hat sollte klar sein, trotzdem ist die Architektur gleich.

del_4901
2004-07-02, 00:30:48
Original geschrieben von Gast
Die Anpassung einer SLI Graka ist aber einfacher.
Dual Chip Varianten auf einem PCB sind deutlich aufwendiger.
Kühlung, Speicheranbindung, Stromversorgung und die SLI Verdrahtung zwischen den Chips müssen alle auf ein PCB.
Bei SLI Graka müssen nur die SLI Pins für die GPU Verbindung nach aussen geführt werden Stromversorgung, Speicheranbindung Kühlung etc.. laufen wie gehabt.
Das ist einfach billiger und vor allem flexibler.

Der Größte Vorteil ist die Flexibilität im Hinblick auf das Inventory Management.
Bei Dual GPU Varianten muss die Qualitätskontrolle sehr viel höher sein. Was passiert wenn ein Chip mit einmal nicht die gewünschten Taktraten schafft, der andere aber schon? Was passiert wenn die Nachfrage nach Dual Chip Karten eine andere ist als das Angebot.
Bei Dual Karten, nimmst dann einfach die, die zusammen passen. Alle anderen werden als Einzelkarte verkauft.
Das geht bei Dual Chip nicht. Hast du einmal deine Dual Chip Karte, kannt nicht einfach einen Chip runterlöten und neu verbauen.
Zu Kostenintensiv zu aufwendig und einfach zu unflexibel.

Dual Graka sieht teuer aus ist es aber gerade aus diesem Gesichtspunkt her nicht, weil die gesamte Produktion sehr standardisiert werden kann.
Das spart kosten. Viele leiten von der Größe oder dem aussehen viel zu schnell auf die Kosten. Das größte Problem im gesamten Halbleitergeschäft ist immer das Inventory Management und die product allocation auf dem weltweiten Markt angepasst auf die Nachfrage.

Es ist billiger immer wieder die selben Karten zu fertigen und diese ggf. runterzutakten oder Pipes zu deaktivieren und damit billiger zu verkaufen als wenn man zich Einzelprodukte zb. im High End hat, die nur ein recht kleines GEsamtvolumen haben.
Natürlich muss die Verhältnismäßigkeit da sein. Produktdiversifizierung lohnt sich schon wie man an der gesamten FX Flotte sieht also FX59xx, FX57xx, FX56xx und FX52xx.
Was sich aber nicht lohnt ist innerhalb eines Marktsegments zu viele Varianten anzubieten, die in sich nicht gleich sind. Und das ist bei Dual Chip Versionen der Fall.

DualChipvarianten haben das problem das das PCB mehr Layer braucht, heutige Grakas brauchen schon 8-10 Layer, eine Dualkarte braucht wesentl. mehr, weil ich die Leitungen nicht nach Lust und Laune verlegen kann, bestimmte Leitungen müssen die gleiche Länge haben! Mal ganz abgesehen davon das 2 Chips extem viel Saft saugen und die Leitungen entsprechend Fett sein müssen.

del_4901
2004-07-02, 00:40:01
Original geschrieben von Winter[Raven]
Ist SLi nun auf 3DFX patentiert oder nicht?
alle Patente von 3DFx sind damals zu Nvidia "übergegangen"
SLi oder SLI sind also Nvidia Patente.

Winter[Raven]
2004-07-02, 08:39:51
Original geschrieben von AlphaTier
alle Patente von 3DFx sind damals zu Nvidia "übergegangen"
SLi oder SLI sind also Nvidia Patente.

Jup, das ist mir bekannt ;). Wollte ehe die patentierung im Bezug auf 3DFX wissen... X-D

Gast
2004-07-02, 13:18:23
Original geschrieben von AlphaTier
alle Patente von 3DFx sind damals zu Nvidia "übergegangen"
SLi oder SLI sind also Nvidia Patente.

Link zu den Patentschriften?

saaya
2004-07-03, 23:42:49
Original geschrieben von betareverse
Eine Dualchiplösung halte ich als äußerst unwahrscheinlich. Die würden sie nur bringen, wenn sich der R5xx erheblich verzögern würde.

Eine Dualchipkarte ist eine äußerst teure Karte. Die NV-Lösung mit SLI ist wesentlich günstiger für NV! ... Die echten Cracks kaufen sich zwei Karten und verbinden die via SLI. Das bedeutet für NV keine Mehrkosten, sondern nur den doppelten Umsatz und Gewinn.

Der Kunde kann sich sogar noch selber das Duo zusammenstellen und schauen wieviel Geld er ausgeben will. ... 2*680o oder 2*6800GT oder 2*6800Ultra. Für jeden Geldbeutel etwas.


Eine Dualchiplösung kostet Geld, nämlich für die Entwicklung. Und die Produktion des PCB ist auch teuer und risikoreich, da nur kleine Kontingente produziert werden, weil die Nachfrage bei so teuren Karten einfach gering bleibt.

aha, und nvidia hat die sli dualchiplösung nix gekostet? ;)
und nvidia hat nicht wenig transistoren extra für das sli interface und den buffer abtreten müssen. ALLE geforce 6 gpus sind also um ca. 20millionen transistoren grösser nur damit einige im sli modus laufen können? nennst du das sparsam? 20 millionen transistoren sind kein häppchen und sorgen für höhere ausfälle in der chip produktion!

ausserdem heisst das das ALLE nvidia karten das sli interface auf dem pcb UND im chip haben, das mögen zwar minimale kosten sein, aber die kosten multiplizieren sich ins enorme wenn man bedenkt das sie für jede karte anfallen ;)

sagen wir mal nur 2$ mehrkosten für für die implementierung des sli interfaces auf dem pcb, dann sind wir schon bei 2millionen $ für 2 millionen geforce6 karten, so viel sollte nvidia demnächst hergestellt haben.

gerade weil also nur wenige leute sli nutzen werden ist das für nvidia sehr unvorteilhaft!

ati muss nur das pcb entwerfen und kann dan je nach bedarf dual chip lösungen produzieren, was im endeffekt deutlich billiger sein sollte als alle karten mit sli fähigem pcb auszuliefern

;)

aths
2004-07-04, 01:20:04
Original geschrieben von saaya
gerade weil also nur wenige leute sli nutzen werden ist das für nvidia sehr unvorteilhaft!Biete dich denen doch als Unternehmensberater an.

betasilie
2004-07-04, 01:45:36
Original geschrieben von aths
Biete dich denen doch als Unternehmensberater an.
Genau sowas hätte ich ihm jetzt auch vorgeschlagen.

deekey777
2004-07-04, 01:51:08
Original geschrieben von saaya

...
gerade weil also nur wenige leute sli nutzen werden ist das für nvidia sehr unvorteilhaft!
...
;)

Unvorteilhaft wäre es, wenn Leute nächstes Jahr ihre vorhandene 6800 PCIe per SLI mit einer weiteren 6800 PCIe ergänzen - ohne dabei auf die nächste Generation umzusatteln.

betasilie
2004-07-04, 01:58:27
Original geschrieben von deekey777
Unvorteilhaft wäre es, wenn Leute nächstes Jahr ihre vorhandene 6800 PCIe per SLI mit einer weiteren 6800 PCIe ergänzen - ohne dabei auf die nächste Generation umzusatteln.
Das ist ein wirklich interessanter Gedanke. Das könnte für NV wirklich nach hinten losgehen.

deekey777
2004-07-04, 02:04:40
Man sollte bei den kommenden R423 Grafikkarten sehr vorsichtig die Platinen untersuchen - vielleicht entpuppt sich irgendein (Diagnose-)Port als ein SL Interface. ;(

Ailuros
2004-07-04, 07:42:20
Original geschrieben von betareverse
Das ist ein wirklich interessanter Gedanke. Das könnte für NV wirklich nach hinten losgehen.

Nicht unbedingt. Ich moechte erstmal daran erinnern dass 2*NV40 in SLi als bis zu 87% schneller als NV40 angegeben wurde *hust* und zweitens haengt es auch davon ab wann sie mit der naechsten Generation auch fertig sein koennen.

Vor ATI's naechster Generation oder danach? Wird ATI auch eine dual PCI-E Loesung bedenken oder nicht? Fragen ueber Fragen; der Gedanke ist zwar tatsaechlich interessant, aber bevor ich zu irgendwelchen Schlussvolgerungen komme, moechte ich erstmal die reale Leistung eines dual NV40 Systems sehen.

saaya
2004-07-04, 08:31:57
Original geschrieben von aths
Biete dich denen doch als Unternehmensberater an.

:chainsaw2

Original geschrieben von betareverse
Das ist ein wirklich interessanter Gedanke. Das könnte für NV wirklich nach hinten losgehen.

nvidia arbeitet schon an SLI-2 , die nächste generation wird also auch sli unterstützen. also wird es später heissen dual nv45 oder single nv48 oder sogar dual nv48? hmmm noch n kredit aufnehmen? :lol:

nvidia überspringt mit dem dual sli system einfach ne komplette generation, wenn auch nur für die die es sich leisten können, aber immerhin...

reunion
2004-07-04, 09:37:56
Original geschrieben von betareverse
Das ist ein wirklich interessanter Gedanke. Das könnte für NV wirklich nach hinten losgehen.

ACK, das war damals auch das Problem von 3dfx, viele kauften sich zwei Voodoo 2 Karten um sie per SLI zusammenzuschließen und hatten dadurch natürlich eine überragende Performace, die Voodoo 3 fand dafür kaum absatz, da kaum schneller als zwei Voodoo 2 karten...

zeckensack
2004-07-04, 09:41:24
Original geschrieben von saaya
ca. 20millionen transistorenQuelle?

Gast
2004-07-04, 09:42:36
Original geschrieben von reunion
ACK, das war damals auch das Problem von 3dfx, viele kauften sich zwei Voodoo 2 Karten um sie per SLI zusammenzuschließen und hatten dadurch natürlich eine überragende Performace, die Voodoo 3 fand dafür kaum absatz, da kaum schneller als zwei Voodoo 2 karten...

Die V3 konnte ja auch überhaput nichts mehr als eine V2. Absolut identische Technik. Bei NVidias nächster Generation wird es wieder viel neue Features geben.

Ausserdem wird die 6800 auslaufen mit Erscheinen des Nachfolgers. Dann kauf mal eine Karte die du nicht mehr bekommen wirst.

SLI bedeutet für NVidia einen zusätzlichen Absatz an 6800er, das kann sich richtig lohnen für die.

reunion
2004-07-04, 09:49:00
Original geschrieben von Gast
Die V3 konnte ja auch überhaput nichts mehr als eine V2. Absolut identische Technik. Bei NVidias nächster Generation wird es wieder viel neue Features geben.


Achja, was denn?
(An SM4.0 glaube ich noch nicht beim NV50, da DX-next erst mit Win_Longhorn kommt)

Ausserdem wird die 6800 auslaufen mit Erscheinen des Nachfolgers. Dann kauf mal eine Karte die du nicht mehr bekommen wirst.

Auch die V2 würde nichtmehr produziert als es die V3 gab.

SLI bedeutet für NVidia einen zusätzlichen Absatz an 6800er, das kann sich richtig lohnen für die.

Klar, es kann aber wie schon gesagt auch nach hinten losgehn. Es muss natürlich nicht so kommen, trozdem ist das IMO ein intressanter Gedanke...

saaya
2004-07-04, 11:21:58
nvidia hat klar gesagt sie werden nur die high-end karten mit sli support ausstatten, damit genau das nicht passiert, nämlich das leute lieber zwei alte karten zusammenschalten anstatt sich ne neue zu holen. also haben die schon drüber nachgedacht, und werden entweder den preis der jetzigen karten so hoch halten das es sich eher lohnt ne neue karte zu holen, oder eben erst die produktion einstellen und warten bis alle geforce6 karten weg sind before sie die 7er releasen.

aber bei so viel strohdummen mist wie nvidia in letzter zeit gebracht hat kann ich mir vorstellen das die auch hier mal wieder nicht bis zuende gedacht haben :lol:


Original geschrieben von zeckensack
Quelle?
NVIDIA ;) sidn wohl doch "nur" 15 millionen :D

1/16 von 220.000.000 = 13.750.000 = ~15.000.000

robbitop
2004-07-04, 11:46:55
wir wollen einen Link sehen.
Tut mir leid 15-20Mio Transistoren, hasst du eine Ahnung was das für Relationen sind? Klingt IMO viel zu viel für ein SLI Interface. Und wenn es so viel wäre, dann würde NV es im NV41/43 nicht unterbringen.

tokugawa
2004-07-04, 13:27:35
Original geschrieben von betareverse
Das ist ein wirklich interessanter Gedanke. Das könnte für NV wirklich nach hinten losgehen.

Folglich muß NVIDIA die Nachfolgegeneration mindestens schneller machen als die schnellste SLI-6800-Ultra Lösung...

Mal sehen ob die sich damit ein Eigentor geschossen haben...


EDIT: Andererseits, wenn auch die Nachfolgegenerationen SLi unterstützen, dann wär's ja kein Problem. Dann muß "nur" die Nachfolger-Einzelkarte schneller sein.

tokugawa
2004-07-04, 13:35:49
Original geschrieben von reunion
Achja, was denn?


Man sollte nicht so Shader-fokusiert sein. Es gibt viele andere Features, die man hinzufügen könnte.

Und an Wünschen mangelt es wahrlich nicht, weder bei NVIDIA noch bei ATI.

Für mich drängen sich geradezu folgende Punkte auf:
- Schnellere AA-Modi > 4x, eventuell endlich programmierbare Sample-Positionen (soweit ich weiß sind die beim NV40 "fix" angesetzt, aufgrund von Zeitmangel in der Entwicklung)
- AF zurück auf "Lehrbuchqualität", aber mit Option auf die jetzige "optimierte" Variante.
- Verbesserungen am Overlay-Zeugs

Aber gut, das ist jetzt eigentlich Off-Topic, und vermutlich gibt es irgendwo schon einen "Wunschliste-Thread" über die nächste Generation.

Original geschrieben von reunion
(An SM4.0 glaube ich noch nicht beim NV50, da DX-next erst mit Win_Longhorn kommt)

Auch die V2 würde nichtmehr produziert als es die V3 gab.

Klar, es kann aber wie schon gesagt auch nach hinten losgehn. Es muss natürlich nicht so kommen, trozdem ist das IMO ein intressanter Gedanke...

Der Markt war allerdings so überschüttet von V2s, dass man relativ leicht eine zweite bekommen konnte (sogar retail, notfalls gebraucht/ebay und noch billiger). Selbst heute kann man noch die eine oder andere Voodoo2 finden :). Obwohl natürlich die Einschränkung "man braucht zwei Karten vom selben Hersteller" das ganze eingrenzt. Und es ist auch fraglich ob die 6800 GT und Ultra jemals in so hohen Stückzahlen am Markt sein werden wie die Voodoo2.

aths
2004-07-04, 13:58:16
Original geschrieben von Gast
Die V3 konnte ja auch überhaput nichts mehr als eine V2. Absolut identische Technik.Afaik gabs neue Combiner. Seit Banshee gibts auch eine Verbesserung im 22-Bit-Postfilter.

aths
2004-07-04, 13:58:49
Original geschrieben von tokugawa
Für mich drängen sich geradezu folgende Punkte auf:
- Schnellere AA-Modi > 4x, eventuell endlich programmierbare Sample-Positionen (soweit ich weiß sind die beim NV40 "fix" angesetzt, aufgrund von Zeitmangel in der Entwicklung)2 oder 4 Subpixel können treiberseitig auf einem 8x8-Grid positioniert werden.

betasilie
2004-07-04, 14:09:43
Original geschrieben von tokugawa
Andererseits, wenn auch die Nachfolgegenerationen SLi unterstützen, dann wär's ja kein Problem. Dann muß "nur" die Nachfolger-Einzelkarte schneller sein.
Dir Top-Highend-Karte muss schon um einiges schneller sein.

Wenn man mal davon ausgeht, dass NV nicht auf den Kopf gefallen ist, dann scheinen sie von der Performance ihrer Nachfolgechips überzeugt zu sein. ... Ob das jetzt am Können liegt oder daran, dass man lange warten muss, muss man wohl abwarten.

betasilie
2004-07-04, 14:09:43
Original geschrieben von saaya
NVIDIA ;) sidn wohl doch "nur" 15 millionen :D

1/16 von 220.000.000 = 13.750.000 = ~15.000.000
Wir wollen eine Quellenangabe haben. Also sowas mit Link und so.

zeckensack
2004-07-04, 14:09:54
Original geschrieben von tokugawa
Der Markt war allerdings so überschüttet von V2s, dass man relativ leicht eine zweite bekommen konnte (sogar retail, notfalls gebraucht/ebay und noch billiger). Selbst heute kann man noch die eine oder andere Voodoo2 finden :). Obwohl natürlich die Einschränkung "man braucht zwei Karten vom selben Hersteller" das ganze eingrenzt.Stimmt nicht :)
Man kann aus einem beliebigen Paar Voodoo2-Karten ein SLI-Gespann machen. Die Speichermenge muss gleich sein, aber der Hersteller ist egal.

Beim NV40 wird's wohl auch so sein.

Original geschrieben von aths
Afaik gabs neue Combiner. Seit Banshee gibts auch eine Verbesserung im 22-Bit-Postfilter. Und "chroma range", "texchroma", "texmirror" und ARGB6666-Paletten.

betasilie
2004-07-04, 14:24:54
Original geschrieben von zeckensack
Beim NV40 wird's wohl auch so sein.

Zumindest wenn nicht zu sehr am Standard-PCB-Layout rumgefrickelt wird.

zeckensack
2004-07-04, 14:31:52
Original geschrieben von betareverse
Zumindest wenn nicht zu sehr am Standard-PCB-Layout rumgefrickelt wird. Das würde ich höchstens ASUS noch zutrauen :)

tokugawa
2004-07-04, 15:55:28
Original geschrieben von zeckensack
Stimmt nicht :)
Man kann aus einem beliebigen Paar Voodoo2-Karten ein SLI-Gespann machen. Die Speichermenge muss gleich sein, aber der Hersteller ist egal.


Bei der Voodoo2 weiß ich das auch, ich bezog mich auf die GF 6800, bei der es offiziell hieß, es sollten zwei vom gleichen Hersteller sein, soweit ich mich erinnern kann. Oder ist das wieder offiziell revidiert worden?

(dass es "inoffiziell" möglich sein wird, hätt ich mir eigentlich auch gedacht)

saaya
2004-07-04, 16:31:56
Original geschrieben von zeckensack
Quelle?
Original geschrieben von betareverse
Wir wollen eine Quellenangabe haben. Also sowas mit Link und so.

http://www.xtremesystems.org/forums/attachment.php?s=&postid=486489
das ist n original nv45 die shot den nvidia als "marketing" material mit den nv45 karten ausgeliefert hat.

n bisschen mehr als 1/16 , also 15millionen oder mehr, wie ich gesagt hab :bäh:

ja man kann hier grad mal 20kb files uploaden? das ist ja n witz! :lol: geht mit der zeit :D was kostet denn heute schon 1mb festplatten platz... :)

vorhin is der rechner abgeschmiert und jetzt musst ich noch n platz finden wo ich das bild posten kann :)


Original geschrieben von tokugawa
Bei der Voodoo2 weiß ich das auch, ich bezog mich auf die GF 6800, bei der es offiziell hieß, es sollten zwei vom gleichen Hersteller sein, soweit ich mich erinnern kann. Oder ist das wieder offiziell revidiert worden?

(dass es "inoffiziell" möglich sein wird, hätt ich mir eigentlich auch gedacht) nvidia hat schon zugegeben das es auch mit karten von verschiedenen herstellern geht, die empfehlung war nur 2 gleiche zu nehmen weil einige hersteller wie gesagt das pcb verändern und einige hersteller die karten höher takten als andere, was anscheinend die karten aus dem gleichgewicht bringen könnte.

das bild wird anscheinend immer "gerecht" zwischen den beiden karten aufgeteilt, und wenn die eine karte ständig schneller is als die andere geht halt performence flöten. im endeffekt sollte das doch aber nur heissen das auch wenn eine karte schneller ist, das system nur so viel performence liefert als wenn beide karten so langsam getakten wären wie die langsamere von beiden.

naja da kann man nur spekulieren, vieleicht nur ne vorsichtsmassnahme von nvidia wie die extrem hohe psu empfehlung, oder sli ist doch anfällig för störungen...

betasilie
2004-07-04, 16:38:02
Original geschrieben von zeckensack
Das würde ich höchstens ASUS noch zutrauen :)
Stimmt, Hercules ist ja jetzt bei Zeus. ;-)

betasilie
2004-07-04, 16:45:31
Original geschrieben von saaya
http://www.xtremesystems.org/forums/attachment.php?s=&postid=486489
das ist n original nv45 die shot den nvidia als "marketing" material mit den nv45 karten ausgeliefert hat.


Also für mich sieht das nach ~800.000 bis max. 2,6Mill. Transistoren aus.

saaya
2004-07-04, 17:08:53
das gelbe gebiet sind die funktionellen sli schaltkreise, das orangene gebiet ist der SLI buffer den nvidia benutzt um zu verhindern das die zwei karten "out of sync" laufen.

alles zusammen sind das mehr als 1/16 des cores.

LovesuckZ
2004-07-04, 17:10:11
Gib's dies nur beim NV45 oder befinden sich die Einheiten auch beim NV40?

betasilie
2004-07-04, 17:11:15
Original geschrieben von saaya
das gelbe gebiet sind die funktionellen sli schaltkreise, das orangene gebiet ist der SLI buffer den nvidia benutzt um zu verhindern das die zwei karten "out of sync" laufen.

alles zusammen sind das mehr als 1/16 des cores.
Nein. Das hellgelbe ist die SLI-Unit, das dunkelgelbe der MIO-Port, der sowieso notwenig ist, zB. für die Profikarten mit Dualchiplösung.

saaya
2004-07-04, 17:14:56
Original geschrieben von betareverse
Nein. Das hellgelbe ist die SLI-Unit, das dunkelgelbe der MIO-Port, der sowieso notwenig ist, zB. für die Profikarten mit Dualchiplösung.

welche "profi karten" mit dualchip lösung?

seit wann hat nvidia dual chip karten?

Original geschrieben von LovesuckZ
Gib's dies nur beim NV45 oder befinden sich die Einheiten auch beim NV40? mit 99%tiger sicherheit. nv45 ist ja nur n nv40 mit PCIe brdge chip auf dem gpu package, also nur ein gebridgter nv40 :)

ich halte es für extrem unwahrscheinlich das nvidia in der kurzen zeit den NV40 nochmal umgebaut hat und die brücke jetzt erst integriert hat.

seahawk
2004-07-04, 17:19:38
Mein Gott, eine unsinnige Diskussion.

Für die Profianwender dürfte diese Lösung ein Traum sein. Für Normalos wird es schon an der Verfügbarkeit und den Kosten der Maiboards scheitern.

saaya
2004-07-04, 17:22:38
ati hat n offiziellen kommentar zu SLI abgelassen


www.xtremesystems.org

müsst nur n bisschen runter scrollen zu den news von heute :D

zeckensack
2004-07-04, 17:24:30
Original geschrieben von saaya
das gelbe gebiet sind die funktionellen sli schaltkreise, das orangene gebiet ist der SLI buffer den nvidia benutzt um zu verhindern das die zwei karten "out of sync" laufen.Und das willst du auf dem Bild gesehen haben, ja? :spock:

tokugawa
2004-07-04, 17:32:30
Original geschrieben von saaya
das bild wird anscheinend immer "gerecht" zwischen den beiden karten aufgeteilt, und wenn die eine karte ständig schneller is als die andere geht halt performence flöten. im endeffekt sollte das doch aber nur heissen das auch wenn eine karte schneller ist, das system nur so viel performence liefert als wenn beide karten so langsam getakten wären wie die langsamere von beiden.


Wofür gibt's dann das Load Balancing?

saaya
2004-07-04, 18:16:51
Original geschrieben von zeckensack
Und das willst du auf dem Bild gesehen haben, ja? :spock:

NEIN das steht so in den nvidia unterlagen die mit den review smaples geschickt wurden.

für nen 3D guru bist du aber nicht gerade auf dem laufenden :bäh:

kuck dir einfach den review von thg oder ner anderen seite an die auch die infos und bilder gepostet haben.

Original geschrieben von tokugawa
Wofür gibt's dann das Load Balancing?

hab ich doch geschrieben, ich glaube , und so sehen die nvidia unterlagen auch aus, das nvidia jeden einzelnen fram in zwei "gerechte" teil aufteilt. jeder teil ist gleich schwer zu berechnen. DAS ist das load balancing. je nachdem wie der frame aussieht.

es wird bestimmt bevore der frame berechnet wird eingeschätzt wo in dem frame komplexere sachen zu berechnen sind als an anderen stellen (oben nur himmel, unten shader und viele polygone ,wie zb in far cry)

dann wird schnell entschieden wo der frame aufgeteilt werden sollte damit jede hälfte gleichschwer zu berechnen ist. und dann rechnen beide karten...


das load balanicng ist "glaube" ich nur die auswertung der komplexität des zu berechnenden frames und das aufteilen der frames.

es wird also immer gerecht aufgeteilt, frame für frame, ohne analyse welche karte gerade beschäftigter war, denn im idealfall sollen ja eh beide karten glweich beschäftigt sein.

wenn man n kuchen (frame) gerecht aufteil, hälfte hälfte, aber einer der zwei leute (karten) die den kuchen essen schneller ist (übertaktete karte) , dann können nur so viel kuchen in ner gewissen zeit gegessen werden wie der langsamste von den beiden es schaft seine hälfte zu verdrücken. denn der nächste kucken wird immer erst aufgeteilt wenn der erste kuchen komplett aufgefressen wurde.

ich "glaube" (!) das sli so funktioniert, ich weiss es nicht, aber wenn man sich nvidias erklärung von sli anhört passt das sehr zu dem was ich eben versucht hab zu erklären.

betasilie
2004-07-04, 18:20:09
Original geschrieben von saaya
welche "profi karten" mit dualchip lösung?

seit wann hat nvidia dual chip karten?
Nun, jetzt in Form von SLI-Kombis. :D

Demirug
2004-07-04, 18:28:02
Original geschrieben von saaya
NEIN das steht so in den nvidia unterlagen die mit den review smaples geschickt wurden.

für nen 3D guru bist du aber nicht gerade auf dem laufenden :bäh:

kuck dir einfach den review von thg oder ner anderen seite an die auch die infos und bilder gepostet haben.

Also wenn ich die 3 Informationsquellen (Presseunterlagen, öffentlichen Entwicklerunterlagen und nicht ganz so öffentliche Entwicklerunterlagen) vergleichen dann muss ich sagen das man der Presse eine stark vereinfachte Version des Ganzen verkauft hat.

saaya
2004-07-04, 18:31:54
Original geschrieben von betareverse
Nun, jetzt in Form von SLI-Kombis. :D

:bäh:

heheheh

saaya
2004-07-04, 18:34:31
Original geschrieben von Demirug
Also wenn ich die 3 Informationsquellen (Presseunterlagen, öffentlichen Entwicklerunterlagen und nicht ganz so öffentliche Entwicklerunterlagen) vergleichen dann muss ich sagen das man der Presse eine stark vereinfachte Version des Ganzen verkauft hat.

hey demirug! :bier:

hier, hab eben meinen post editiert weil ich nicht nochmal posten wollte.

hier nochmal nvidias NEUES sli wie ich es verstanden hab:

ich glaube , und so sehen die nvidia unterlagen auch aus, das nvidia jeden einzelnen fram in zwei "gerechte" teil aufteilt. jeder teil ist gleich schwer zu berechnen. DAS ist das load balancing. je nachdem wie der frame aussieht.

es wird bestimmt bevore der frame berechnet wird eingeschätzt wo in dem frame komplexere sachen zu berechnen sind als an anderen stellen (oben nur himmel, unten shader und viele polygone ,wie zb in far cry)

dann wird schnell entschieden wo der frame aufgeteilt werden sollte damit jede hälfte gleichschwer zu berechnen ist. und dann rechnen beide karten...


das load balanicng ist "glaube" ich nur die auswertung der komplexität des zu berechnenden frames und das aufteilen der frames.

es wird also immer gerecht aufgeteilt, frame für frame, ohne analyse welche karte gerade beschäftigter war, denn im idealfall sollen ja eh beide karten glweich beschäftigt sein.

wenn man n kuchen (frame) gerecht aufteil, hälfte hälfte, aber einer der zwei leute (karten) die den kuchen essen schneller ist (übertaktete karte) , dann können nur so viel kuchen in ner gewissen zeit gegessen werden wie der langsamste von den beiden es schaft seine hälfte zu verdrücken. denn der nächste kucken wird immer erst aufgeteilt wenn der erste kuchen komplett aufgefressen wurde.

ich "glaube" (!) das sli so funktioniert, ich weiss es nicht, aber wenn man sich nvidias erklärung von sli anhört passt das sehr zu dem was ich eben versucht hab zu erklären.

saaya
2004-07-04, 18:36:24
demirug (oder wer auch immer :bäh: )kannst du mir erklären wie nvidias SLI funktioniert (auf jeden fall so weit wie es euch erklärt wurde) falls ich es falsch verstanden hab?

danke! :bier:

Demirug
2004-07-04, 18:50:08
saaya, da der wichtigste Teil meiner Informationen leider aus den nicht ganz öffentlichen Informationen kommt kann ich hier nicht in die Details gehen.

Das von dir beschriebene Verfahren ist im grossesn und ganzen einer der Operationsmodies von SLI. Der Treiber hat jedoch noch andere zur Verfügung. Das Umschalten zwischen den Modies erfolgt automatisch wenn der Treiber erkennt das ein anderer Arbeitsmodus eine bessere Ausnutzung der beiden Chips erreicht.

saaya
2004-07-04, 19:07:23
ahhh zb wenn shader auf die andere bildhälfte zugreifen müssen, richtig?

aber wieso empfiehlt dann nvidia dass man zwei gleiche karten nimmt?

hmmm schade, ich würde zu gern mehr darüber wissen :D
ich aknns kaum erwarten nvidias SLI im vergleich mit alienwares ALX zu sehen, das wird ECHT interessant!

und ich hab noch ne frage zum sli :bäh: hehe

wieviel PCIe lanes hat jetzt ein tumwater chipset? (offiziell :D)

nur 20? also 16x plus 4 mal 1x, und der zweite graphic slot läufft dann mit 4x was hesisst das alle anderen 1x slots nicht mehr genutzt werden können?

ich hab nähmlich wiedersprüchliche infos darüber gehört. auf manchen seiten hab ich gehört das die zweite karte "nur" mit 8 pxi lanes auskommen muss, was aber kein problem ist. dass hiesse dann aber doch 16x plus 8x =24 pcie lanes insgesamt.

und auf wieder ner anderen seite stand dass beide karten bei sli nur mit 8 pcie lanes laufen, un alle extra 1x slots auf dem mobo noch verwendet werden können.


wär nett wenn du mir da klarheit verschaffen kannst, sofern es nicht gegen irgendwelche ndas oder so verstösst :)