PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum Limitierung bei Crossfire?


Oblivion
2005-09-29, 10:30:29
Also, dass der SiI 1162 technisch nicht in der Lage ist eine höhere Auflösung als 1600x1200 bei 60Hz darzustellen weiß ich - aber wieso schafft er dass nicht? Ist es wirklich nicht so einfach diese "Sperre" zu überwinden, oder hat ATI einfach mist gebaut (weil irgendwie schaffen es praktisch alle anderen neueren Karten ja dass sie höhere Auflösungen zusammenbringen)

Coda
2005-09-29, 10:35:18
Der DVI-Transmitter der Slave-X800 kann nicht mehr als 1600x1200@60Hz, das ist das Problem.

Mit Single-DVI ist aber auch nicht mehr drin als 1600x1200@75Hz, für mehr ist Dual-Link erforderlich.

Oblivion
2005-09-29, 10:38:04
Der DVI-Transmitter der Slave-X800 kann nicht mehr als 1600x1200@60Hz, das ist das Problem.

Mit Single-DVI ist aber auch nicht mehr drin als 1600x1200@75Hz, für mehr ist Dual-Link erforderlich.

Und mit einem VGA Anschluss auch nicht? bzw. noch weniger?

Coda
2005-09-29, 10:41:54
Doch schon, nur will ich das Bild nach DAC-ADC-DAC nicht sehen.

Oblivion
2005-09-29, 10:44:10
Doch schon, nur will ich das Bild nach DAC-ADC-DAC nicht sehen.

Aha ok also mit nem VGA Anschluss funktionierts

also müssten sie "im Prinzip" nur nen neuen DVI-Transmitter bauen ...

Coda
2005-09-29, 10:45:06
Ehm, ja. Nur wird das bei den Millionen verkauften X800er nicht mehr zu verändern sein :rolleyes:

InsaneDruid
2005-09-29, 11:46:39
So ist es. Als die X800er projektiert wurden, war ein SingleLink Ausgang ausreichend. (Haben ja auch die 6800er). Das reichte für 19x0er Auflösungen.

Dann kam der Erfolg von SLI, und die Verzögerungen des R520, man brauchte einen Gegenschlag, und projektierte CFire. Da auf den (schon vorhandenen) Slave Karten nur ein Single Link Ausgang ist, braucht man also bei den entsprechenden Masterkarten auch nur diesen SingleLink Eingang.


Die XI Serie wird, da nach/während der Crossfire Entwicklung projektiert, schon einen DualLink Transmitter besitzen, also diese EInschränkung garnicht erst haben.

Oblivion
2005-09-29, 13:43:15
So ist es. Als die X800er projektiert wurden, war ein SingleLink Ausgang ausreichend. (Haben ja auch die 6800er). Das reichte für 19x0er Auflösungen.

Dann kam der Erfolg von SLI, und die Verzögerungen des R520, man brauchte einen Gegenschlag, und projektierte CFire. Da auf den (schon vorhandenen) Slave Karten nur ein Single Link Ausgang ist, braucht man also bei den entsprechenden Masterkarten auch nur diesen SingleLink Eingang.


Die XI Serie wird, da nach/während der Crossfire Entwicklung projektiert, schon einen DualLink Transmitter besitzen, also diese EInschränkung garnicht erst haben.

Hats nicht geheissen dass das noch nicht vollkommen sicher ist dass der R520 DualLink hat?

Coda
2005-09-29, 17:06:45
Doch, das hat ATi schon angekündigt.

Gandharva
2005-09-29, 17:27:47
Also, dass der SiI 1162 technisch nicht in der Lage ist eine höhere Auflösung als 1600x1200 bei 60Hz darzustellen weiß ich - aber wieso schafft er dass nicht? Ist es wirklich nicht so einfach diese "Sperre" zu überwinden, oder hat ATI einfach mist gebaut (weil irgendwie schaffen es praktisch alle anderen neueren Karten ja dass sie höhere Auflösungen zusammenbringen)

The problem is that ATI is currently fixing maximum CrossFire resolution to 1600x1200@60Hz. While they have stated that it is technically possible for them to run resolutions at a similar pixel clock, they will not allow asymmetric timings between the TMDS receiver and the final output.

We asked ATI why the capabilities of the TMDS receiver on the master card must limit the resolution of CrossFire output to 1600x1200@60Hz. The answer is that scaling would diminish at higher resolutions due to the limited ability of the slave card to contribute in a balanced way. Granted, AFR (alternate frame rendering) modes could not be run and SuperTiling would have to be tweaked or dropped, but ATI does support 60/40 and 70/30 split frame load balancing as well. Enabling high resolutions only under their scissor mode should give some additional performance along with the ability to run at higher resolutions. To us, including the option for a customer to choose how the hardware he or she owns will work is absolutely a good thing. In our minds, a lower performing 2048x1536 is definitely better than not having the option at all. We would strongly urge ATI to consider adding such options in future driver releases if it is at all possible.

besteht doch noch hoffnung oder versteh ichs einfach falsch?

http://www.anandtech.com/video/showdoc.aspx?i=2541&p=2

Lilebror
2005-09-30, 11:34:18
Mal so ne Frage, so wie ich das verstehe liegt das Prob doch nur bei der DVI schnitstelle oder ?
Wenn man den Monitor normal per RGB oder auch VGA Kabel anschließt hat man keine Probs oder ?
und bei DVI, habe ich noch nie einen Unterschied zwischen 60 und 75 Hz sehen können, oder geht es garnicht um dieses Prob ?

Wenn die Frage jemand für dumm hält dann macht beim nächsten Post einfach ne Bemerkung "Dumm" und ich nehme die Frage raus.

mfg: Lilebror

deekey777
2005-09-30, 11:47:06
Mal so ne Frage, so wie ich das verstehe liegt das Prob doch nur bei der DVI schnitstelle oder ?
Wenn man den Monitor normal per RGB oder auch VGA Kabel anschließt hat man keine Probs oder ?
und bei DVI, habe ich noch nie einen Unterschied zwischen 60 und 75 Hz sehen können, oder geht es garnicht um dieses Prob ?

Wenn die Frage jemand für dumm hält dann macht beim nächsten Post einfach ne Bemerkung "Dumm" und ich nehme die Frage raus.

mfg: Lilebror

Das Problem der Limitierung bei 1600x1200 auf 60Hz ist immer da, egal ob TFT oder ein CRT angeschlossen sind. Ich konnte auch nicht daran glauben, insbesondere weil ein RAMDAC auf der Masterkarte drauf ist, der locker mehr schafft. Doch die Limitierung liegt in der Slavekarte, da diese über ihren digitalen Ausgang höchstens 60 Bilder pro Sekunde (1600x1200) an die CE schicken kann; die Master könnte uU mehr als 60 Bilder/s an die CE zum "Kombinieren" schicken, doch diese können nicht zwischengespeichert werden: Irgendwo stand auch, daß so ein Zwischenspeicher zum Lagging führen könnte, was der Grund für den Verzicht sein könnte, denn so ein Zwischenspeicher kostet nicht die Welt.
Bei der neuen Generation wird es so eine Limitierung nicht geben.

InsaneDruid
2005-09-30, 11:58:39
Eigentlich kann man die X800er Version von CFire getrost in den Skat drücken, bei Markteinführung ist (mehr oder minder) auch die 520er verfügbar, welche vom Preis in ähnlichen Gefilden schweben sollte, wie eine 800er Masterkarte+Mobo, vor allem wenn man die bestehende 800er noch verkauft. Für die "Enthusiasts" kommt eh nur ne 520er Cfire in Frage, eben auch weil die Single 520er so den Speed einer Crosfire 800er haben SOLLTE.

Ähnlich wie man JETZT sicher kein 6800er SLI System aufbaut, sondern gleich zur 7800er greift.

Hübie
2005-10-01, 00:49:49
Naja des weiteren setzt das auch vorraus, das ein Monitor vorhanden ist, der bei 1600x1200 75 oder 85Hz schafft.
Mein 17" bringt da auch nur 60 auf die Waage und ausserdem sieht man meistens garnix mehr von Schriftmitteilungen im Spiel. Trotzdem ist es ein ärgernis für Leute die net so dran sind wie ich und ein technischer Fehltritt.
Aber aus Fehlern lernt man, richtig ;)

@Lilebror: DUMM! :tongue: - nein Spass


bye Hübie

Oblivion
2005-10-01, 05:41:36
Naja des weiteren setzt das auch vorraus, das ein Monitor vorhanden ist, der bei 1600x1200 75 oder 85Hz schafft.


Bringt da auch nix!

Coda
2005-10-01, 11:05:35
Naja des weiteren setzt das auch vorraus, das ein Monitor vorhanden ist, der bei 1600x1200 75 oder 85Hz schafft.
Mein 17" bringt da auch nur 60 auf die Waage und ausserdem sieht man meistens garnix mehr von Schriftmitteilungen im Spiel. Trotzdem ist es ein ärgernis für Leute die net so dran sind wie ich und ein technischer Fehltritt.
Aber aus Fehlern lernt man, richtig ;)

@Lilebror: DUMM! :tongue: - nein Spass


bye HübieWer Crossfire kauft hat sicher keinen Steinzeit 17" CRT...