PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wir brauchen AMR!


Gast
2004-11-12, 08:11:02
ATI wird bei Ihrer NEUER Highendserie laut www.hartware.de AMR einführen.
Zitat:
Ein neues Feature des R480 soll die Eignung für den Dual-Betrieb analog zu nVidia SLI sein. Bei den Kanadiern wird dies wohl ''ATI Multi Rendering'' heißen, kurz: AMR. Die Vorteile von AMR gegenüber SLI sind, dass für den Dual-Betrieb nicht zwingend zwei PCI-E Grafikkarten gleicher Bauart verwendet werden müssen und möglicherweise sogar die bei nVidia notwendige Extra-Verbindung per Connector oder Kabel wegfällt, da die Kommunikation der beiden Karten über den PCI Express Bus läuft.
Angeblich ist AMR auch bereits in den neuen ATI Radeon Xpress 200 Chipsätzen für PCI-Express vorbereitet, aber noch nicht freigeschaltet


Vorteile von AMR:

Gleichzeitiger Betrieb von 2* verschiedenen ATI PCI Express Karten!
-> Memo: Geht nicht bei SLI

Connector fällt weg
-> Memo bzw. Frage: Kann das nvidia nicht weil sie sich nicht an PCI Express Standart halten?
Ist schon verwunderlich!

Quasar
2004-11-12, 08:13:50
Frage: Kann das nvidia nicht weil sie sich nicht an PCI Express Standart halten?

Sieh's mal so: UMA funktioniert auch, nur müssen sich dann CPU und Grafikkern die Zugriffe auf das RAM teilen. Getrennte Busse bringen mehr Performance.

Gast
2004-11-12, 08:23:30
Sieh's mal so: UMA funktioniert auch, nur müssen sich dann CPU und Grafikkern die Zugriffe auf das RAM teilen. Getrennte Busse bringen mehr Performance.

Kann mann das an Zahlen ausdrücken ?

Bin mal auf den Unterschied zwischen beider Lösungen gespannt! Performance und co.

aths
2004-11-12, 10:04:56
Gleichzeitiger Betrieb von 2* verschiedenen ATI PCI Express Karten!
-> Memo: Geht nicht bei SLIStimmt.

Connector fällt weg
-> Memo bzw. Frage: Kann das nvidia nicht weil sie sich nicht an PCI Express Standart halten?
Ist schon verwunderlich!Standard bitte mit d hinten schreiben.

Die SLI-Bridge entlastet den PCIe-Bus.

Gast
2004-11-12, 10:12:03
Die SLI-Bridge entlastet den PCIe-Bus.

Die Frage ist, ist es notwendig.

Wenn man schaut, was alles über den pci-bus läuft, dann sollten die beiden Grafikkarten prima damit zurecht kommen.

JFZ
2004-11-12, 10:16:17
Die Frage ist, ist es notwendig.



Notwendig nicht, sonst würde es ja bei ATI nicht funktionieren. Allerdings hat es sicherlich Performancevorteile, wenn die zwei GraKas sich direkt austauschen können, ohne den Umweg über PCIe zu machen.

Gast
2004-11-12, 10:23:34
ATI wird bei Ihrer NEUER Highendserie laut www.hartware.de AMR einführen.
Zitat:
Ein neues Feature des R480 soll die Eignung für den Dual-Betrieb analog zu nVidia SLI sein. Bei den Kanadiern wird dies wohl ''ATI Multi Rendering'' heißen, kurz: AMR. Die Vorteile von AMR gegenüber SLI sind, dass für den Dual-Betrieb nicht zwingend zwei PCI-E Grafikkarten gleicher Bauart verwendet werden müssen und möglicherweise sogar die bei nVidia notwendige Extra-Verbindung per Connector oder Kabel wegfällt, da die Kommunikation der beiden Karten über den PCI Express Bus läuft.
Angeblich ist AMR auch bereits in den neuen ATI Radeon Xpress 200 Chipsätzen für PCI-Express vorbereitet, aber noch nicht freigeschaltet


Vorteile von AMR:

Gleichzeitiger Betrieb von 2* verschiedenen ATI PCI Express Karten!
-> Memo: Geht nicht bei SLI

Connector fällt weg
-> Memo bzw. Frage: Kann das nvidia nicht weil sie sich nicht an PCI Express Standart halten?
Ist schon verwunderlich!


Also um mal mit ATIs Worten auf das Thema zu antworten:

"Wir brauchen kein AMR und keine Dual Lösungen".
So war doch vor kurzem die Aussage oder nicht?
Anyway bis dort mal lauffähiges gezeigt wird dauerts noch ne Weile. Bis dahin ist es also uninteressant. Erstmal will ich sehen was sie haben bevor groß rumgelabert wird. Dicke PR Mitteilungen schreiben kann jeder.

Die Tendenz finde ich allerdings schon interessant:
"SM3 brauchen man erstmal nicht"
"Dual Slot Kühlung - Pfui"
"Dual card Lösung - zb. SLI unnötig"

Und hoppla will man all dies nun auch einführen.
Naja... immer so reden wir der Wind gerade dreht nicht war.

Gast
2004-11-12, 10:25:57
[QUOTE=Gast]Die Frage ist, ist es notwendig.

QUOTE]

Notwendig nicht, sonst würde es ja bei ATI nicht funktionieren. Allerdings hat es sicherlich Performancevorteile, wenn die zwei GraKas sich direkt austauschen können, ohne den Umweg über PCIe zu machen.

Ich bezweifle, daß da mehr als ein paar Schwanzmarks rauskommen werden.

Gast
2004-11-12, 10:31:26
Die Tendenz finde ich allerdings schon interessant:
"SM3 brauchen man erstmal nicht"
"Dual Slot Kühlung - Pfui"
"Dual card Lösung - zb. SLI unnötig"

Und hoppla will man all dies nun auch einführen.
Naja... immer so reden wir der Wind gerade dreht nicht war.

?! Dualkarten gibt es schon länger von Ati, im Consumerbereich ist das allerdings sehr lange her.

Dual Slot Kühlung - was soll das sein?

Natürlich ist SLI nicht wirklich nötig - die Präsenz wird im Promillebereich bleiben, Preise für die meisten nicht zu bezahlen, der Prestigewert gleicht ungefähr dem Phaeton bei VW :lol:

JFZ
2004-11-12, 10:53:53
Ich bezweifle, daß da mehr als ein paar Schwanzmarks rauskommen werden.


Klar wird der Gewinn nicht gigantisch sein, sonst würde ATI es ja auch genauso machen, aber einen gewissen Vorteil wird es bestimmt haben. nVidia ist ja nicht blöd und baut ein Bauteil dran, was eigentlich überflüssig ist.

JFZ
2004-11-12, 10:56:59
Also um mal mit ATIs Worten auf das Thema zu antworten:

"Wir brauchen kein AMR und keine Dual Lösungen".
So war doch vor kurzem die Aussage oder nicht?
Anyway bis dort mal lauffähiges gezeigt wird dauerts noch ne Weile. Bis dahin ist es also uninteressant. Erstmal will ich sehen was sie haben bevor groß rumgelabert wird. Dicke PR Mitteilungen schreiben kann jeder.

Die Tendenz finde ich allerdings schon interessant:
"SM3 brauchen man erstmal nicht"
"Dual Slot Kühlung - Pfui"
"Dual card Lösung - zb. SLI unnötig"

Und hoppla will man all dies nun auch einführen.
Naja... immer so reden wir der Wind gerade dreht nicht war.


Ist doch gängige Marketingstrategie. Solange die Konkurrenz etwas Hat, was man selber nicht bietet, wird es schlechtgeredet, bis man es sebst nachgemacht hat. Und dann kann man zusätzlich noch behaupten, man hätte mit der Einführung der Technologie gewartet, bis der Markt dafür reif war ;)

Marketing ist doch die Technik, seine eigenen Vorteile Hervorzuheben und dabei gleichzeitig die gegnerischen Vorteile als unwichtiger darzustellen ;D

Gast
2004-11-12, 11:00:55
ich möchte nochmal anmerken, dass man den Betrieb 2er unterschiedlicher PCI-E Karten bei ATIs angeblicher Lösung nicht überbewerten sollte.

Ich denke nämlich, dass unterschiedliche Generationen davon ausgeschlossen sein werden.
Soll heisen R4xx kombiniert mit SM3 fähiger R5xx Hardware dürfte wahrscheinlich nicht funktionieren, sondern nur innerhalb eines technischen Levels.

Holundermann
2004-11-12, 11:09:43
aber toll ist das an und für sich schon, endlich kann man was mit der alten hardware anfangen wenn man sich 1 jahr später den refresh chip kauft. tolle idee und nv wird da sicher nachziehn :)

schon interessant das 3dc vor 4 tagen den artikel online gebracht hat und kurze zeit später ati ihr amr vorgestellt hat :)

ShadowXX
2004-11-12, 12:03:34
aber toll ist das an und für sich schon, endlich kann man was mit der alten hardware anfangen wenn man sich 1 jahr später den refresh chip kauft. tolle idee und nv wird da sicher nachziehn :)

schon interessant das 3dc vor 4 tagen den artikel online gebracht hat und kurze zeit später ati ihr amr vorgestellt hat :)

Wobei man dort erst mal abwarten sollte, wieviel es bringt 2 nichtidentische Karten miteinander zu Koppeln...mal sehen wie intelligent die Lösung von ATI dort ist....

Elrood
2004-11-12, 12:31:57
Die Frage ist, ist es notwendig.

Wenn man schaut, was alles über den pci-bus läuft, dann sollten die beiden Grafikkarten prima damit zurecht kommen.

Jain, Denn PCI-Express ist nur mit 20 Lanes ausgelegt.

Eine normale PCI-Express karte bekommt 16 davon (der x16 Slot)
Auf einem Sli Board sind zwar 2 PCI-Express x16 Slots vorhanden, aber sobald beide belegt sind, laufen sie nur noch im x8 Mode...
Da haste schon mal eben so deine Bandbreite halbiert.

r@w
2004-11-12, 12:33:19
?! Dualkarten gibt es schon länger von Ati, im Consumerbereich ist das allerdings sehr lange her.Wus?
"Dual-Karten" gab's noch nie... von beiden Herstellern.

Du meinst vermutlich die "Dual-Core"-Geschichte von ATI.
Die MAXX-Serie... katastrophal!

Razor

r@w
2004-11-12, 12:41:45
Wobei man dort erst mal abwarten sollte, wieviel es bringt 2 nichtidentische Karten miteinander zu Koppeln...mal sehen wie intelligent die Lösung von ATI dort ist....Ich stelle es mir schon rein technisch recht schwierig vor, so etwas überhaupt abzubilden.

Ein einziger Ausgabe-'Port' und die einzige Verbindung zwischen den beiden berechnenden Einheiten ist Software?
Hmmm...

Razor

Demirug
2004-11-12, 12:44:33
Ich habe damit gerade ein anderes Problem.

Zum einen bin ich mir nicht sicher ob die Peer2Peer Funktion von PCIe Plicht oder Option in den Chipsätzen ist. Aber selbst wenn es Plicht ist konnte ich bisher keinen Hinweis finden das MS das jetzt oder in Zukunft aktiv unterstützen will. Native wird PCIe ja sowieso erst ab Longhorn unterstützt. Ohne Peer2Peer müsste man alles was von Karte 1 zu Karte 2 soll über den Hauptspeicher kopieren und das wäre ja nun wirklich nicht sonderlich schön.

Black-Scorpion
2004-11-12, 12:45:44
Wus?
"Dual-Karten" gab's noch nie... von beiden Herstellern.

Du meinst vermutlich die "Dual-Core"-Geschichte von ATI.
Die MAXX-Serie... katastrophal!

Razor
Die Maxx hatte keinen Dual Core.
Dual Core wären 2 Core in einem Chip.
Die Maxx hatte 2 GPUs.

r@w
2004-11-12, 12:51:57
Zum einen bin ich mir nicht sicher ob die Peer2Peer Funktion von PCIe Plicht oder Option in den Chipsätzen ist. Aber selbst wenn es Plicht ist konnte ich bisher keinen Hinweis finden das MS das jetzt oder in Zukunft aktiv unterstützen will. Native wird PCIe ja sowieso erst ab Longhorn unterstützt. Ohne Peer2Peer müsste man alles was von Karte 1 zu Karte 2 soll über den Hauptspeicher kopieren und das wäre ja nun wirklich nicht sonderlich schön.Hmmm...
Also AMR nur bei "AMR-fähigen" Karten/Chips?
Würde die Nutzbarkeit dessen ja doch ganz erheblich einschränken.
(und sich damit analog einer "Bridge" verhalten)

Und ja, das 2. Problem geht mir bei dieser Geschichte auch im Kopf herum.
Der Weg "ohne" wäre IMO schlicht Irrsinn... und weniger "nicht sonderlich schön".

Aber ich vermute, dass Du dies wohl ähnlich siehst...

Razor

r@w
2004-11-12, 12:56:43
Die Maxx hatte keinen Dual Core.
Dual Core wären 2 Core in einem Chip.
Die Maxx hatte 2 GPUs.Ja.... und?
Fakt ist, dass es bis dato noch keine "Dual-Card"-Systeme von ATI und nVidia im consumer-Bereich gab.
(jetzt mal davon abgesehen, dass die einzige Firma, die das brachte/konnte nun in nVidia aufgegangen ist ;-)

Können wir uns also darauf einigen?
:confused:

Razor

Demirug
2004-11-12, 12:59:48
Hmmm...
Also AMR nur bei "AMR-fähigen" Karten/Chips?
Würde die Nutzbarkeit dessen ja doch ganz erheblich einschränken.
(und sich damit analog einer "Bridge" verhalten)

Wenn man PCIe Peer2Peer nutzen will müssen die Chips die daran beteiligt sind natürlich dafür ausgelegt sein.

Und ja, das 2. Problem geht mir bei dieser Geschichte auch im Kopf herum.
Der Weg "ohne" wäre IMO schlicht Irrsinn... und weniger "nicht sonderlich schön".

Aber ich vermute, dass Du dies wohl ähnlich siehst...

Razor

Man würde sich halt wertvolle Hauptspeicherbandbreite unter den Füsen wegziehen.

Black-Scorpion
2004-11-12, 13:12:09
Ja.... und?
Fakt ist, dass es bis dato noch keine "Dual-Card"-Systeme von ATI und nVidia im consumer-Bereich gab.
(jetzt mal davon abgesehen, dass die einzige Firma, die das brachte/konnte nun in nVidia aufgegangen ist ;-)

Können wir uns also darauf einigen?
:confused:

Razor
Darauf können wir uns einigen.
Aber nicht auf deine Aussage das es noch keine Dual Karten von beiden Herstellern gab. ;)
Denn die gab es von ATI mit der Maxx.
Auch ander Hersteller hatten und haben ja solche Karten.
3dfx mit der Voodoo 5 5x00 und XGI mit der Volari Duo?.

Quasar
2004-11-12, 13:17:14
Zum einen bin ich mir nicht sicher ob die Peer2Peer Funktion von PCIe Plicht oder Option in den Chipsätzen ist.

Das dürfte hierdurch erklärt werden:
"Angeblich ist AMR auch bereits in den neuen ATI Radeon Xpress 200 Chipsätzen für PCI-Express vorbereitet, aber noch nicht freigeschaltet"

Wie's scheint, braucht man dafür wohl einen Chipsatz, der das unterstützt.

Quasar
2004-11-12, 13:24:47
Danke, daß hier wieder der halbe Thread durch eine sinnlose Nebendiskussion, ob PCIe nun ein Bus oder nicht ist, zerredet wird, Stefan Payne.

Exxtreme
2004-11-12, 13:28:47
Connector fällt weg
-> Memo bzw. Frage: Kann das nvidia nicht weil sie sich nicht an PCI Express Standart halten?
Ist schon verwunderlich!
Naja, kann sein, daß man mittels des Connectors einige Komplikationen umgeht. Und IIRC ist SLI patentiert. Vielleicht muss ATi deswegen über PCI-E gehen.

stav0815
2004-11-12, 13:33:42
Naja, kann sein, daß man mittels des Connectors einige Komplikationen umgeht. Und IIRC ist SLI patentiert. Vielleicht muss ATi deswegen über PCI-E gehen.

vielleicht wären die Latenzen auch einfach für nVidia zu hoch (bei Bridge Chips?) und ATi hat irgendwas erfunden um dies zu umschiffen?

Quasar
2004-11-12, 13:37:49
Ich vermute diesbezgl. folgendes:

ATi gab ja schon länger an, Multi-GPU Rendering via Super-Tiling zu machen. Damit liesse sich, mit entsprechendem Aufwand, auch vom Treiber schon eine Zutileung (Achtung, Wortspiel) erreichen, so daß man bei einer X800 und einer X600 bsw. für jedes Tile, was man der kleineren Karte schickt drei, bzw. vier Tiles an die größere gehen. Über den PCIe (ohne Bus, Hafen, Taxi oder Fahrrad) könnte man dann entweder das Texture-Memory der jeweils anderen Karte mitnutzen (kommt mir aber bissel lahm vor) oder eben die fertig gerenderten Tiles der kleineren (oder sekundären) Karte in den Framebuffer der Master schieben.

IVN
2004-11-12, 13:45:29
Naja, kann sein, daß man mittels des Connectors einige Komplikationen umgeht. Und IIRC ist SLI patentiert. Vielleicht muss ATi deswegen über PCI-E gehen.

I think that ATI's ARM is something like Intels em64.In practice realy slow,but useful for the PR department.
I'm really not expecting to much from ARM.

Crushinator
2004-11-12, 13:47:16
Die Diskussion über die "Bussigkeit" von PCI-E bitte ab sofort dort (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=182958) weiterführen, danke.

Exxtreme
2004-11-12, 13:50:14
I think that ATI's ARM is something like Intels em64.In practice realy slow,but useful for the PR department.
I'm really not expecting to much from ARM.
Kann schon sein. Mal sehen was es in der Praxis bringt. Vielleicht ist es gar nicht so schlecht.

IVN
2004-11-12, 13:51:08
Ich vermute diesbezgl. folgendes:

ATi gab ja schon länger an, Multi-GPU Rendering via Super-Tiling zu machen. Damit liesse sich, mit entsprechendem Aufwand, auch vom Treiber schon eine Zutileung (Achtung, Wortspiel) erreichen, so daß man bei einer X800 und einer X600 bsw. für jedes Tile, was man der kleineren Karte schickt drei, bzw. vier Tiles an die größere gehen. Über den PCIe (ohne Bus, Hafen, Taxi oder Fahrrad) könnte man dann entweder das Texture-Memory der jeweils anderen Karte mitnutzen (kommt mir aber bissel lahm vor) oder eben die fertig gerenderten Tiles der kleineren (oder sekundären) Karte in den Framebuffer der Master schieben.

Isn't Des Masters grammatical correct.Genitive. :D

Demirug
2004-11-12, 13:57:01
Ich vermute diesbezgl. folgendes:

ATi gab ja schon länger an, Multi-GPU Rendering via Super-Tiling zu machen. Damit liesse sich, mit entsprechendem Aufwand, auch vom Treiber schon eine Zutileung (Achtung, Wortspiel) erreichen, so daß man bei einer X800 und einer X600 bsw. für jedes Tile, was man der kleineren Karte schickt drei, bzw. vier Tiles an die größere gehen. Über den PCIe (ohne Bus, Hafen, Taxi oder Fahrrad) könnte man dann entweder das Texture-Memory der jeweils anderen Karte mitnutzen (kommt mir aber bissel lahm vor) oder eben die fertig gerenderten Tiles der kleineren (oder sekundären) Karte in den Framebuffer der Master schieben.

Ich denke auch bei ATi werden die Texturen in beide Karten gespiegelt. So müssen lediglich die Tiles geschoben werden.

MechWOLLIer
2004-11-12, 14:41:38
Die SLI-Bridge entlastet den PCIe-Bus.
Mhm, das finde ich interessant. Weiß du, wieviel das ungefähr ist?

War doch mit zu Rechnen, dass ATI SLI auf dem markt bringt, sonst hätten sie so einige Probleme.

Gast
2004-11-12, 14:53:32
aber toll ist das an und für sich schon, endlich kann man was mit der alten hardware anfangen wenn man sich 1 jahr später den refresh chip kauft. tolle idee und nv wird da sicher nachziehn :)

schon interessant das 3dc vor 4 tagen den artikel online gebracht hat und kurze zeit später ati ihr amr vorgestellt hat :)

Ich halte die Steuerung unterschiedlicher Karten ohnehin eher für ein Timing und Softwareproblem. Sollte auch für Nvidia machbar sein.
Von Nachziehen würde ich allerdings momentan nicht reden, da Nvidia seine Lösung vorgestellt hat und diese getestet wurde.
Also wenn einer nachzieht dann ist das momentan allenfalls ATI, da sie derzeit NOCH keine Lösung zeigen können.
Wie gesagt reden kann man immer viel. Nvidias Lösung wird jedenfalls sehr bald käuflich erhältlich sein.

Gast
2004-11-12, 18:04:01
I think that ATI's ARM is something like Intels em64.In practice realy slow,but useful for the PR department.
I'm really not expecting to much from ARM.


It´s AMR, not ARM.

Gast
2004-11-12, 18:06:07
Isn't Des Masters grammatical correct.Genitive. :D

Richtig. Es war aber hier "der Master(karte)" gemeint.
So kann man auch abkürzen.

aths
2004-11-12, 22:09:38
Die Frage ist, ist es notwendig.

Wenn man schaut, was alles über den pci-bus läuft, dann sollten die beiden Grafikkarten prima damit zurecht kommen.PCIe nutzt ja ein Protokoll mit Fehlererkennung. So weit, so gut, doch das bringt natürlich Latenzen mit sich. Außerdem weiß ich nicht, ob eine PCIe-Karte einfach so eine andere ansprechen kann, oder ob das nicht auch die CPU mitbelastet. Der Bridge-Chip erscheint mir da die klügere Wahl.

Gast
2004-11-13, 09:59:30
PCIe nutzt ja ein Protokoll mit Fehlererkennung. So weit, so gut, doch das bringt natürlich Latenzen mit sich. Außerdem weiß ich nicht, ob eine PCIe-Karte einfach so eine andere ansprechen kann, oder ob das nicht auch die CPU mitbelastet. Der Bridge-Chip erscheint mir da die klügere Wahl.

Quasar erwähnte es schon, maßgeblich für den Support wird der Chipsatz mit entsprechend gebauten Mainboard sein. Vielleicht wie die SLI-Brücke aber onboard.

Endorphine
2004-11-13, 11:10:20
Standard bitte mit d hinten schreiben.

Die SLI-Bridge entlastet den PCIe-Bus. Wo du schon bei Spitzfindigkeiten à la "Standard mit d" bist - PCI-Express ist kein Bus, sondern ein geschaltetetes Netzwerk aus full-duplex Punkt zu Punkt Verbindungen. Wenn der Switch einigermaßen intelligent konstruiert ist interessiert es außer den Links der beiden Grafikkarten niemanden, wie viel Bandbreite dort verbraten wird. Insbesondere der Upstream der Grafikkarten ist derzeit praktisch so gut wie frei und der Downstream bekommt derzeit im Idealfall bei CAD mit sehr komplexen Modellen etwas Last.

Aus meiner Sicht hat nVidia einfach noch eine zusätzliche Lane in den I/O-Controller integriert, über den sich im SLI beide Karten verständigen. Da haben sich scheinbar ein paar 3dfx-Ingenieure durchgesetzt, viel mehr würde ich dort nicht hineininterpretieren. Der potenzielle Leistungs- und Skalierungsgewinn durch die dedizierte Verbindung ist imho insbesondere bei Spielen und erst recht mit derzeitigen Anwendungen vernachlässigbar.

Edit: Mir sind gerade noch zwei weitere Dinge eingefallen:
(1) Niemand beschwert sich darüber, dass die Karten im SLI-Betrieb derzeit nur über x8-Links betrieben werden. In der Leistungsbetrachtung scheint bei der über PCI-Express erreichten I/O-Leistung selbst eine Halbierung (!) der sonst zur Verfügung stehenden Bandbreite nicht von Belang zu sein (einzelne Karten werden in x16-Slots betrieben).
(2) Wenn nVidia im SLI-Link die einzelne Lane nicht irgendwie aufgebohrt hat stehen dort auch nur ~250 MiB/s full-duplex zur Verfügung.

Wenn man die beiden Gesichtspunkte in die Diskussion mit einbezieht verlagert sich die Argumentation für den dedizierten SLI-Link in's akademische. Wenn eine Halbierung der Interfacebandbreite von ~4 GiB/s full-duplex auf 2 GiB/s full-duplex scheinbar nicht mal messbar ist und niemand daran herummäkelt, wieso sollte dann ein Datenaufkommen zwischen den beiden SLI-Karten von Belang sein, welches scheinbar mit einer einzelnen Lane mit ~250 MiB/s abgedeckt werden kann?

Quasar
2004-11-13, 14:57:38
Die Diskussion über die "Bussigkeit" von PCI-E bitte ab sofort dort (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=182958) weiterführen, danke.
Argh! *rülps*
Weitergehen - hier gibt's nichts mehr zu sehen...

aths
2004-11-13, 15:45:09
Wenn man die beiden Gesichtspunkte in die Diskussion mit einbezieht verlagert sich die Argumentation für den dedizierten SLI-Link in's akademische.
Wenn eine Halbierung der Interfacebandbreite von ~4 GiB/s full-duplex auf 2 GiB/s full-duplex scheinbar nicht mal messbar ist und niemand daran herummäkelt, wieso sollte dann ein Datenaufkommen zwischen den beiden SLI-Karten von Belang sein, welches scheinbar mit einer einzelnen Lane mit ~250 MiB/s abgedeckt werden kann?Um bei den Spitzfindigkeiten zu bleiben: Das Wort "ins" steht zwar für "in das", wird aber (schon lange) einfach "ins" geschrieben, ohne Apostroph.

Wenn eine Graka weniger Bandbreite zur CPU bekommt und nicht langsamer wird, ist das eine Sache. Wenn beide Grakas untereinander viele Daten austauschen müsse, eine andere.

Xmas
2004-11-13, 18:31:30
(2) Wenn nVidia im SLI-Link die einzelne Lane nicht irgendwie aufgebohrt hat stehen dort auch nur ~250 MiB/s full-duplex zur Verfügung.
250MiB/s würden nicht ausreichen für den Scanout bei 1600x1200. NVidia muss hier also mehr als eine einzelne Lane bieten.

Endorphine
2004-11-15, 09:16:35
250MiB/s würden nicht ausreichen für den Scanout bei 1600x1200. NVidia muss hier also mehr als eine einzelne Lane bieten. ... oder den Takt der Lane anheben (was ich für wahrscheinlicher halte, da günstiger - weniger Pins/Balls, weniger Leitungen etc.). Mechanisch sind es ja ohnehin x1-Stecker.

Quasar
2004-11-15, 09:36:09
Wenn ich mich nicht verzählt habe, hat der SLI-Stecker mehr Kontakte, als ein PCIex1-Anschluss. Darüberhinaus könnte es sein, daß hier auch nicht so viele der Kontakte für die Stromversorgung benötigt werden, da kaum Bauteile mit Saft versorgt werden müssen.

edit:
Es sind 13 Kontaktpaare (also Leitungen) pro Stecker.