PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Extreme hohe Auflösung + SLi = NoNo :(


tombman
2005-01-08, 01:23:42
Tja, ohne aktiviertem SLI Modus geht praktisch jede Auflösung, die ich mir ausdenken kann, zb 2304x1440 (16:10 Monitor), aber sobald
der SLI Modus aktiviert ist kann ich auf 2048x1536 NUR mehr 60Hz fahren, und alles darüber ist ganz verschwunden.

Refreshlock und diese Programme funktionieren aber alle anstandslos, der Nvidia Treiber will im SLI Modus einfach nicht so hohe Auflösungen.

Besonders seltsam ist die Beschränkung auf 60Hz in 2048x1536...immerhin eine offzielle Auflösung von Nvidia.

Nochmals: ich hab bereits nachgewiesen, daß es NUR am SLI Modus liegt, denn ohne SLI gehen diese Auflösungen alle in jeder gewünschten Hz ...

@ Demirug und andere Gurus: Spinnt Nvidia? SLI is doch gerade dazu da, sehr hohe Auflösungen zu fahren, oder ist das eine Limitation von SLI selbst, die einfach prinzipbedingt nicht zu umgehen ist?

HELP!

DiGiTaL
2005-01-08, 01:47:56
Sorry... Aber "solche Probleme" will ich auch haben. :tongue:

BUGFIX
2005-01-08, 02:00:40
Nur mal so als Frage:
Und wenn in der Registry eine höhere Bildwiederholungsrate fixiert wird?

Geht dann der Grafikmodus überhaupt noch - oder bleibt der Bildschirm/TFT dunkel?

MfG

BUGFIX

tombman
2005-01-08, 02:10:10
Nur mal so als Frage:
Und wenn in der Registry eine höhere Bildwiederholungsrate fixiert wird?

Geht dann der Grafikmodus überhaupt noch - oder bleibt der Bildschirm/TFT dunkel?

MfG

BUGFIX

Wie gesagt, refreshlock funkt auch im SLI Modus, Ausnahmen sind eben 2048 und alles darüber. Wobei es mit 2048 MIT SLI auch schon aufhört.. ohne SLI sind 2304 auch kein Problem...

Auch die CP custom resolutions lassen 2304 bei aktiviertem SLI NICHT MEHR ZU. Ohne SLI hatte er bereitwillig diesen Modus als custom mode angenommen.

Liegt also 100% am Treiber im SLI mode.

BUGFIX
2005-01-08, 05:39:04
In dem Zusammenhang wäre mal interessant, ob sich die Liste mit den unterstützten Grafikmodi auch ändert wenn SLI aktiviert is.
Wenn dem so ist, dann müsste sich Nvidia die Frage gefallen lassen, warum sie den SLI-Modus in den Auflösungen beschränken.

Mal ne Frage dazu:
Auch bei SLI wird doch (analoger Monitor vorausgesetzt) noch über einen DAC ausgegeben, oder?
Ich meine, selbst bei einer Ausbeute von 100% durch SLI hätte man bei den sehr hohen Auflösungen immer noch das Problem, dass man schneller als der RAMDAC garnicht kann.

MfG

BUGFIX

SKYNET
2005-01-08, 07:52:01
als wenn man über 1600*1200 noch mit 16xAA / 16xAF b.z.w. 8xSA / 16xAF zocken könnte. :rolleyes:

von daher: wayne !

Gast
2005-01-08, 11:03:00
von daher: wayne !Alle... Da dies die Hersteller von Grafikkarten dazu bewegt, schnellere Grafikkarten zu bauen. Es gibt ein Bedarf.


Vielleicht sinkt die Signalqualität zu stark oder die Timings machen Probleme auf der Syncbrücke über den Karten?

Juerg
2005-01-08, 11:04:34
Argll, war kekslos :rolleyes:

Gast
2005-01-08, 11:26:22
als wenn man über 1600*1200 noch mit 16xAA / 16xAF b.z.w. 8xSA / 16xAF zocken könnte. :rolleyes:

von daher: wayne !

QuakeGL schon :D

Viele große Monitore basieren auf den IBM T221, 22.2" Panel, der macht 3840x2400, du willst doch nicht mit 1280 kommen? ;D

Xmas
2005-01-08, 11:55:23
Ich dachte mir sowas schon. Da es das Gerücht gab, bei der SLI-Verbindung handele es sich um eine einzelne PCI-Express Lane, habe ich das ganze mal nachgerechnet. Und eine solche Verbindung würde schlicht nicht reichen. Bei 2048x1536@60Hz müssen 720 MiB/s an Bilddaten an den Monitor geschickt werden, die Hälfte über den SLI-Link. Das schafft aber keine einzelne Lane, zumal auch noch andere Daten über den Link müssen. Selbst mit zwei Lanes ist nicht mehr viel Spielraum.

Ich gehe deswegen davon aus, dass es schlicht ein Bandbreitenproblem ist, dass keine höheren Refreshraten erlaubt sind. Da kann man nichts tun. Nur hoffen dass NVidia in Zukunft bei SLI eine breitere Verbindung einsetzt.

Demirug
2005-01-08, 12:07:35
Ich dachte mir sowas schon. Da es das Gerücht gab, bei der SLI-Verbindung handele es sich um eine einzelne PCI-Express Lane, habe ich das ganze mal nachgerechnet. Und eine solche Verbindung würde schlicht nicht reichen. Bei 2048x1536@60Hz müssen 720 MiB/s an Bilddaten an den Monitor geschickt werden, die Hälfte über den SLI-Link. Das schafft aber keine einzelne Lane, zumal auch noch andere Daten über den Link müssen. Selbst mit zwei Lanes ist nicht mehr viel Spielraum.

Ich gehe deswegen davon aus, dass es schlicht ein Bandbreitenproblem ist, dass keine höheren Refreshraten erlaubt sind. Da kann man nichts tun. Nur hoffen dass NVidia in Zukunft bei SLI eine breitere Verbindung einsetzt.

Schau dir die Brücke mal genau an. Aufgrund des Layouts müssen das 4 doppel Verbindungen sein. Ob es sich dabei allerdings um PCIe Lanes handelt steht auf einen anderen Blatt.

avalanche
2005-01-08, 13:47:04
Eventuell ist es einfach nur ein Treiber-Bug?
Dass die SLI-Bruecke zu klein dimensioniert ist, kann ich mir irgendwie nur schlecht vorstellen. Bei nVidia wird man sich doch auch Gedanken über sehr hohe Auflösungen gemacht haben.
Ich bin mir auch immernoch nicht sicher, ob ich tombman richtig verstanden habe. Mit Refreshlock kann man auch im SLI Modus die gewünschten, hohen Aufloesungen, die sonst nur ohne SLI funktionieren auch mit SLI benutzen? Wen dem so sein sollte, dann koennte man einfach mal benchen. Wenn denn die Bruecke wirklich zu klein dimensioniert sein sollte, dann müsste in "brückenlimitierten" Einstellungen die Leistungszunahme durch SLI ja deutlich kleiner ausfallen.

sth
2005-01-08, 13:58:19
NVidia anmailen und auf eine Antwort und/oder einen gefixten Treiber warten...

Sind von unseren Grafik-Gurus auch Leute im nVidia Developer-Programm? Vielleicht mal dort anfragen...

Fadl
2005-01-08, 21:00:37
Sind von unseren Grafik-Gurus auch Leute im nVidia Developer-Programm? Vielleicht mal dort anfragen...

Wenn dem so ist kann mir einer von diesen Leuten vielleicht auch dabei helfen SLI mit 2 6800GT Karten und einem DVI Display zum laufen zu bringen.
Bei mir wird jedes Mal wenn ich SLI im Bios aktiviere ein 2. Bildschirm oder TV an der der sekundären Karte erkannt obwohl dort nichts angeschlossen ist. Dadurch kann ich SLI dann nicht im NVidia Treiber aktivieren.
Mit einem CRT funktioniert es dagegen ohne Probleme...

godess
2005-01-08, 23:41:02
Wenn dem so ist kann mir einer von diesen Leuten vielleicht auch dabei helfen SLI mit 2 6800GT Karten und einem DVI Display zum laufen zu bringen.
Bei mir wird jedes Mal wenn ich SLI im Bios aktiviere ein 2. Bildschirm oder TV an der der sekundären Karte erkannt obwohl dort nichts angeschlossen ist. Dadurch kann ich SLI dann nicht im NVidia Treiber aktivieren.
Mit einem CRT funktioniert es dagegen ohne Probleme...
man kann im treiber einstellen(bei nview) wie die bzw. wieviele monitore angesprochen werden. außerdem kann man bei den performance-einstellungen die hardware beschleunigung für einen bzw. zwei monitore einstellen. hoffentlich hilf das

tombman
2005-01-08, 23:46:56
Wenn dem so ist kann mir einer von diesen Leuten vielleicht auch dabei helfen SLI mit 2 6800GT Karten und einem DVI Display zum laufen zu bringen.
Bei mir wird jedes Mal wenn ich SLI im Bios aktiviere ein 2. Bildschirm oder TV an der der sekundären Karte erkannt obwohl dort nichts angeschlossen ist. Dadurch kann ich SLI dann nicht im NVidia Treiber aktivieren.
Mit einem CRT funktioniert es dagegen ohne Probleme...

Laß bitte meinen thread in Ruhe... du hast eh einen eigenen für DEIN Problem ;)

@ demirug, aths : habt ihr Kontakt zu Nvidia und könnt mal bitte fragen was da los ist?

aths
2005-01-09, 21:44:52
@ demirug, aths : habt ihr Kontakt zu Nvidia und könnt mal bitte fragen was da los ist?Fragen kann ich. Ob ich überhaupt eine Antwort erhalte, steht auf einem anderen Blatt. Aber ich frag mal :)

tombman
2005-01-10, 04:26:04
Fragen kann ich. Ob ich überhaupt eine Antwort erhalte, steht auf einem anderen Blatt. Aber ich frag mal :)

thx man :)

seahawk
2005-01-10, 09:36:58
Also ist SLI momentan auch praktisch sinnlos.

Gast
2005-01-10, 09:48:52
Also ist SLI momentan auch praktisch sinnlos.

sinnlos ist nur dein kommentar, denn wer braucht schon aufloesungen ueber 2048x1536.

Asmodeus
2005-01-10, 11:22:38
Zumindest für die Workstationkarten auf PCIexpress Basis (FX 3400 und FX 4400) wird von Nividia von einer Unterstützung bis zu 3840 x 2400 im SLI Betrieb gesprochen. Also wird es wohl tatsächlich am Treiber liegen. Ob nun ein Bug, oder Absicht, das wird noch zu klären sein. Wie schon bei der Dual-Link Sache wäre es durchaus denkbar, dass Nvidia sich seinen Workstationmarkt nicht durch seinen eigenen Consumermarkt kaputtmachen lassen will. Es wäre also durchaus denkbar, dass mit diesem Schritt die Möglichkeit unterbunden werden soll, dass man sich preiswert ein SLI-System zulegt und damit dann in sehr hohen Auflösungen schneller ist als mit einer einzelnen Workstationkarte in sehr hohen Auflösungen. Die einzige Möglichkeit dann schneller zu sein, bei sehr hohen Auflösungen, wäre dann der Kauf von zwei Workstationkarten im SLI-Betrieb (also zusätzlicher Umsatz für Nvidia ;) ). Da es bei Dual-Link genauso läuft, könnte ich es mir durchaus vorstellen, dass es auch Absicht sein könnte.

Gruss, Carsten.

SKYNET
2005-01-10, 12:35:08
mir alles egal, hauptsache ich kann D3 in 1600*1200 8xSA / 16xAF mit allem @ ON zocken. ;D

alter, ich will meine ultras JETZT sofort schon haben *grrr*

tombman
2005-01-10, 15:23:33
Zumindest für die Workstationkarten auf PCIexpress Basis (FX 3400 und FX 4400) wird von Nividia von einer Unterstützung bis zu 3840 x 2400 im SLI Betrieb gesprochen. Also wird es wohl tatsächlich am Treiber liegen. Ob nun ein Bug, oder Absicht, das wird noch zu klären sein. Wie schon bei der Dual-Link Sache wäre es durchaus denkbar, dass Nvidia sich seinen Workstationmarkt nicht durch seinen eigenen Consumermarkt kaputtmachen lassen will. Es wäre also durchaus denkbar, dass mit diesem Schritt die Möglichkeit unterbunden werden soll, dass man sich preiswert ein SLI-System zulegt und damit dann in sehr hohen Auflösungen schneller ist als mit einer einzelnen Workstationkarte in sehr hohen Auflösungen. Die einzige Möglichkeit dann schneller zu sein, bei sehr hohen Auflösungen, wäre dann der Kauf von zwei Workstationkarten im SLI-Betrieb (also zusätzlicher Umsatz für Nvidia ;) ). Da es bei Dual-Link genauso läuft, könnte ich es mir durchaus vorstellen, dass es auch Absicht sein könnte.

Gruss, Carsten.

Naja, ziemlich kühne Theorie ;)

Immerhin geht 1920x1200 mit allen Optionen und so klein is die Auflösung auch wieder nicht ;)

An eine hardware Limitation mag ich auch ned so recht glauben, denn mit einer Karte gehen 2304x1440 ja auch problemlos.

Ich kann nur hoffen, daß es kein SLI-Bandbreitenlimitation ist...

Aber simma ehrlich, so wichtig ist 2304x1440 auch ned, schließlich gibts noch genügend Antialiasing-Modi um die Karten in die Knie zu zwingen ;)

Asmodeus
2005-01-10, 17:49:44
Naja, ziemlich kühne Theorie ;)

Immerhin geht 1920x1200 mit allen Optionen und so klein is die Auflösung auch wieder nicht ;)

An eine hardware Limitation mag ich auch ned so recht glauben, denn mit einer Karte gehen 2304x1440 ja auch problemlos.

Ich kann nur hoffen, daß es kein SLI-Bandbreitenlimitation ist...

Aber simma ehrlich, so wichtig ist 2304x1440 auch ned, schließlich gibts noch genügend Antialiasing-Modi um die Karten in die Knie zu zwingen ;)

Bis Ende Januar haben wir hier hoffentlich unseren SLI-Rechner mit 2 x FX 4400, spätestens dann können wir die Sache ja nochmal genau nachprüfen. Ich bin mir nicht ganz sicher, aber es sollte dann doch z.B. ohne Probleme möglich sein, die Quadrokarten nicht nur mit nem Quadrotreiber laufen zu lassen, sondern auch mal mit nem normalen Forceware, oder ? Und wenn bei dem einen Treiber hohe Auflösungen im SLI-Betrieb funktionieren und bei dem anderen Treiber nicht, dann sind wir der Lösung wieder ein Stück näher. ;) Aber vielleicht gibts bis dahin eh nen neuen Treiber ohne dieses Problem. ;)

Gruss, Carsten.

tombman
2005-01-10, 18:40:19
Bis Ende Januar haben wir hier hoffentlich unseren SLI-Rechner mit 2 x FX 4400, spätestens dann können wir die Sache ja nochmal genau nachprüfen. Ich bin mir nicht ganz sicher, aber es sollte dann doch z.B. ohne Probleme möglich sein, die Quadrokarten nicht nur mit nem Quadrotreiber laufen zu lassen, sondern auch mal mit nem normalen Forceware, oder ? Und wenn bei dem einen Treiber hohe Auflösungen im SLI-Betrieb funktionieren und bei dem anderen Treiber nicht, dann sind wir der Lösung wieder ein Stück näher. ;) Aber vielleicht gibts bis dahin eh nen neuen Treiber ohne dieses Problem. ;)

Gruss, Carsten.

hehe, jo, 2x 512mb 4400 quadro ist Wahnsinn.... kostet >4000€ :D:D

Aber dann könntest du ja mal mit deinen Jungs normale fw Treiber draufgeben und schauen ob gewisse angebliche scan-out Bandbreitenlimitationen wegfallen bei 512mb pro Karte.

Spätestens Ende Jänner, Anfang Februar sollten wir dann wissen was da wirklich los ist mit SLI+extreme res.

p.s.: ich werde diese Woche erste 2x 6800Ultra Ergebnisse posten können :)

(oh Mann, wenn ich blos wüßte wie ich das anstelle ohne die ubliche Neid- und Spamwelle... any tips anyone?)

Gast
2005-01-10, 19:42:13
Einfach ignorieren, das schmerzt am meisten und ist auch klüger so! Ansonsten ziehst Dich doch nur selber mit in den Dreck. ;)

Mantikor
2005-01-10, 20:43:28
p.s.: ich werde diese Woche erste 2x 6800Ultra Ergebnisse posten können :)

(oh Mann, wenn ich blos wüßte wie ich das anstelle ohne die ubliche Neid- und Spamwelle... any tips anyone?)

Mach ein sauberes Review mit schönen langen Balken... da werden die ganzen Kiddes zu sehr am Sabbern sein, als zu nerven. :biggrin:

Mfg der Mantikor

Gast
2005-01-10, 20:55:13
p.s.: ich werde diese Woche erste 2x 6800Ultra Ergebnisse posten können :)

(oh Mann, wenn ich blos wüßte wie ich das anstelle ohne die ubliche Neid- und Spamwelle... any tips anyone?)

Warum sollte jemand neidisch sein? Bei nvnews.net oder anderen Sites gibt es doch genug Berichte und Benchmarks. Die berichten im Gegensatz zu dir wesentlich reifer und ausführlicher.

SKYNET
2005-01-11, 00:26:10
hehe, jo, 2x 512mb 4400 quadro ist Wahnsinn.... kostet >4000€ :D:D

Aber dann könntest du ja mal mit deinen Jungs normale fw Treiber draufgeben und schauen ob gewisse angebliche scan-out Bandbreitenlimitationen wegfallen bei 512mb pro Karte.

Spätestens Ende Jänner, Anfang Februar sollten wir dann wissen was da wirklich los ist mit SLI+extreme res.

p.s.: ich werde diese Woche erste 2x 6800Ultra Ergebnisse posten können :)

(oh Mann, wenn ich blos wüßte wie ich das anstelle ohne die ubliche Neid- und Spamwelle... any tips anyone?)


nehem ich lieber für 1400€ das gainward gepann mit ebenfalls 512MB pro karte. :cool:


das mit dem neid müssen wir uns dann beide anhören kleiner... :/

können ja zusammen gegen die flut von PM'S etc. jkämpfen mit unmoralischen angeboten wie "gebe dir 1500€ sofort wenn ich die karten bekomme" ;D

RaumKraehe
2005-01-11, 00:43:04
Mal davon abgesehen das ich auch gerne "nur" solche Probleme hätte, warum ist SLI für hohe Auflösungen konzipiert?

In SLI sehe ich eher die Möglichkeit konstante Frameraten oder endlich mal echtes 3d zu realisieren. Eben eine Graka fürs Linke und rechte Auge. Wer braucht wirklich eine Auflösung von über 2000x XXX. Da muss ja auch erstmal der Monitor für solche Auflösungen her. Und selbst Beamer sind über 1280x1024 extrem teuer.

Ich würde mich freuen wenn SLI eben mehr für wirkliche Inovationen auf dem Spielemarkt (3d) sorgen würde. Mit SLI und z.b. 2 Beamer + Pol-Filter wäre auch die "50" hz barriere gebrochen.

Grestorn
2005-01-11, 07:03:56
Mal davon abgesehen das ich auch gerne "nur" solche Probleme hätte, warum ist SLI für hohe Auflösungen konzipiert?

In SLI sehe ich eher die Möglichkeit konstante Frameraten oder endlich mal echtes 3d zu realisieren. Eben eine Graka fürs Linke und rechte Auge. Wer braucht wirklich eine Auflösung von über 2000x XXX. Da muss ja auch erstmal der Monitor für solche Auflösungen her. Und selbst Beamer sind über 1280x1024 extrem teuer.

Ich würde mich freuen wenn SLI eben mehr für wirkliche Inovationen auf dem Spielemarkt (3d) sorgen würde. Mit SLI und z.b. 2 Beamer + Pol-Filter wäre auch die "50" hz barriere gebrochen.Leider ist fast kein aktuelles Spiel zu 100% GPU limitiert, so dass selbst mit SLI immer noch Einbrüche unter 60 fps die Regel sind, egal welche Auflösung und AF/AA Einstellung man wählt.

Sonst wäre das sicher eine gute Idee :) Du musst nur noch nVidia oder ATI davon überzeugen, den Treiber so zu implementieren, dass AFR optional auch wie gewünscht funktioniert: Nämlich dass nicht nur jeweils abwechselnd ein Frame auf der einen und der anderen GraKa berechnet sondern auch auf der jeweiligen Karte ausgegeben wird, sonst lässt sich Deine Idee nicht umsetzen.

gbm31
2005-01-11, 08:07:19
nein, bitte nicht wieder das geflimmere mit der 3d-brille... ;)

dann lieber einen vr-helm mit einem höchauflösenden kleinen tft für jedes auge... :D

sorry für ot. muß ein bisschen zeit totschlagen...

RaumKraehe
2005-01-11, 11:17:28
Leider ist fast kein aktuelles Spiel zu 100% GPU limitiert, so dass selbst mit SLI immer noch Einbrüche unter 60 fps die Regel sind, egal welche Auflösung und AF/AA Einstellung man wählt.

Sonst wäre das sicher eine gute Idee :) Du musst nur noch nVidia oder ATI davon überzeugen, den Treiber so zu implementieren, dass AFR optional auch wie gewünscht funktioniert: Nämlich dass nicht nur jeweils abwechselnd ein Frame auf der einen und der anderen GraKa berechnet sondern auch auf der jeweiligen Karte ausgegeben wird, sonst lässt sich Deine Idee nicht umsetzen.

Das ist mir schon klar. Ich habe solche Systeme ja auch schon gebaut. Aber da brauchte ich 3 Rechner für. ;)

RaumKraehe
2005-01-11, 11:17:55
nein, bitte nicht wieder das geflimmere mit der 3d-brille... ;)

dann lieber einen vr-helm mit einem höchauflösenden kleinen tft für jedes auge... :D

sorry für ot. muß ein bisschen zeit totschlagen...

Pol-Brille hat nix mit Flimmern zu tun.

gbm31
2005-01-11, 11:20:54
[wieder da...]

ach...

ich hatte eine asus gts pro mit brille, musste meinen armen iilyama auf 120hz treiben, um 60hz für jedes auge zu haben und es hat furchtbar geflimmert.

wie hast du das bei den vpn dir aufgebauten systemen umgangen?

RaumKraehe
2005-01-11, 11:31:15
[wieder da...]

ach...

ich hatte eine asus gts pro mit brille, musste meinen armen iilyama auf 120hz treiben, um 60hz für jedes auge zu haben und es hat furchtbar geflimmert.

wie hast du das bei den vpn dir aufgebauten systemen umgangen?

Ganz einfach.

3 Rechner + 2 Beamer + 2 Pol-Filter + Pol-Brille. Da Beamer auch bei 60 hz nicht flackern und beide Bilder immer parallel gezeigt werden und nicht abwechselnd gibt es auch kein Flackern. ;)

gbm31
2005-01-11, 13:01:14
lol...

naja, dann klar... sollte aber zuhause nicht als standard gelten... (einen beamer hätt ich ja...)

klappt das mit den beamern so gut? also, ich meine die polarisation.

[edit] dumfug! man soll halt nicht in der mittagspause mit dem brot in der hand surfen und meinen, daß das denken funzt...

hab die polarisationsfilter vor der linse glatt überlesen... wie soll das auch sonst gehen *schäm*

RaumKraehe
2005-01-11, 13:12:06
lol...

naja, dann klar...

klappt das mit den beamern so gut? also, ich meine die polarisation.

Jo am allerbesten mit DLP-Geräten. Und mann braucht noch eine relativ spezielle Bildwand (Leinwand) die bei der Reflektion auch die Polarisation beibehält. Das ist aber nur ein Verfahren bei dem mann leider immer direkt vor der Bildwand stehen sollte.

Ein neueres Verfahren nutzt Spektralverschiebungen für das Linke und rechte Auge. Es wird auch "parallel" projetziert, sprich 2 Bilder übereinander gelegt. Die entsprechende Spezial-Brille (leider sehr teuer) verschiebt das Spektrum entsprechend wieder zurück um die beiden getrennten Bilder (links, rechts) zu erhalten.

Das ganze auf die Spitze getrieben sind dann 2 rechtwinklig zueinander stehende Bildwande die von 4 Beamern über kreuz angestrahlt werden. Das System war auf der "langen Nacht der Wissenschaften" in Berlin bei der "GMD First" zu bestaunen. ;) Aber leider für den privaten gebraucht viel zu teure. Das erste Verfahren ist heute aber auch schon für einen Privat-Anwender realisierbar. Die größte Hürde sind wohl die 2, möglichst baugleichen, Beamer mit Lensshift-Funktion. Ohne Lensschift ist es nicht möglich die beiden Bilder perfekt zu überlagern.

DrumDub
2005-01-11, 13:50:49
Das ganze auf die Spitze getrieben sind dann 2 rechtwinklig zueinander stehende Bildwande die von 4 Beamern über kreuz angestrahlt werden. Das System war auf der "langen Nacht der Wissenschaften" in Berlin bei der "GMD First" zu bestaunen. ;) Aber leider für den privaten gebraucht viel zu teure. Das erste Verfahren ist heute aber auch schon für einen Privat-Anwender realisierbar. Die größte Hürde sind wohl die 2, möglichst baugleichen, Beamer mit Lensshift-Funktion. Ohne Lensschift ist es nicht möglich die beiden Bilder perfekt zu überlagern.

gibts davon bilder? kann mir das nicht so recht vorstellen. danke.

RaumKraehe
2005-01-11, 14:05:33
http://www.first.fraunhofer.de/pressearchiv?prID=30&sortierung=Ausgabe

http://cebit2002.fhg.de/servlet/is/733/

Gute Bilder sind schwierig zu finden :(

Aber hier eine Seite mit einer stark optimierten Version. Alles mit Rückprojektionen realisiert. Allerdings wieder relativ teuer für den privat Menschen.

http://www.x-rooms.de

tombman
2005-01-12, 22:44:37
Bitte könnts ihr aufhören meinen thread zu versauen?

Es geht hier ned um VR, sondern um ein ganz einfaches SLI Alltagsproblem.

Danke.

Hellfire-Torrod
2005-01-12, 23:08:59
Könnte das Problem, das der SLI modus nur einen Monitor (also kein nView) erlaubt, in irgendeiner weise damit zusammenhängen?

Mills
2005-01-15, 23:31:41
Warum sollte jemand neidisch sein? Bei nvnews.net oder anderen Sites gibt es doch genug Berichte und Benchmarks. Die berichten im Gegensatz zu dir wesentlich reifer und ausführlicher.
Full Ack! :up:

aths
2005-01-18, 04:31:10
Nvidia bestätigte, dass die Begrenzung der Wiederholrate mit dem begrenzten Datentransfervolumen der Bridge zusammenhängt. Die Brücke würde eine 1:1-Verbindung anbieten und nicht nach dem PCIe-Protokoll arbeiten, stattdessen bestünde sie aus Leitungen für Daten und weiteren Leitungen zur Synchronisation.

tombman
2005-01-18, 05:32:56
Nvidia bestätigte, dass die Begrenzung der Wiederholrate mit dem begrenzten Datentransfervolumen der Bridge zusammenhängt. Die Brücke würde eine 1:1-Verbindung anbieten und nicht nach dem PCIe-Protokoll arbeiten, stattdessen bestünde sie aus Leitungen für Daten und weiteren Leitungen zur Synchronisation.

:(

Ist da in Zukunft eine Lösung irgendeiner Art möglich? Wird die bridge breiter bei der nächsten Generation? Oder kann man da noch was per software machen?

aths
2005-01-18, 06:41:01
:(

Ist da in Zukunft eine Lösung irgendeiner Art möglich? Wird die bridge breiter bei der nächsten Generation? Oder kann man da noch was per software machen?Wie soll Software die Bandbreite erhöhen? Die 6800 hat soweit ich weiß keine TC-Technologie um zusätzlich Hauptspeicherbandbreite effizient zu nutzen. Außerdem hat NV extra die Bridge entwickelt, um eben nicht die Hauptspeicherbandbreite zu belasten.

Sicher ist nicht auszuschließen, dass NV SLI weiterentwickelt und später auf eine breitere Anbindung setzen könnte. Das hängt wohl in erster Linie davon ab, wie die Ansprüche von Industriekunden sind – kaum einen Privatmann dürfte es stören, wenn er in Auflösungen von 2048x1536 nur 60 Hz hat. Das wird dann aber nur auf neueren Grafikkarten nutzbar sein.

tombman
2005-01-18, 09:17:17
Wie soll Software die Bandbreite erhöhen? Die 6800 hat soweit ich weiß keine TC-Technologie um zusätzlich Hauptspeicherbandbreite effizient zu nutzen. Außerdem hat NV extra die Bridge entwickelt, um eben nicht die Hauptspeicherbandbreite zu belasten.

Sicher ist nicht auszuschließen, dass NV SLI weiterentwickelt und später auf eine breitere Anbindung setzen könnte. Das hängt wohl in erster Linie davon ab, wie die Ansprüche von Industriekunden sind – kaum einen Privatmann dürfte es stören, wenn er in Auflösungen von 2048x1536 nur 60 Hz hat. Das wird dann aber nur auf neueren Grafikkarten nutzbar sein.

Die SOLL gar nix erhöhen, deshalb war es auch eine Frage und kein Vorschlag ;) Aber vielleicht könnte man ja in der Übertragung so ne Art Kompression einsetzen?

Hat Nvidia dir eigentlich genau genannt warum es ned geht, oder nur kurz "Bandbreite der SLI bridge" als Antwort gegeben?
Zb, ne Formel wo man sich was ausrechnen kann?

Ich finde die Grenzen irgendwie künstlich limitiert, denn warum gerade GENAU 60hz bei 2048?

aths
2005-01-18, 16:44:35
Die SOLL gar nix erhöhen, deshalb war es auch eine Frage und kein Vorschlag ;) Aber vielleicht könnte man ja in der Übertragung so ne Art Kompression einsetzen?Klar – die Daten gehen über den Hauptspeicher an die CPU, diese komprimiert, schickt sie zurück, die Graka sendet es über die Bridge, der Empfänger schickts an die CPU, diese dekomprimiert und schickts wieder an die Graka ... oder wie??

Hat Nvidia dir eigentlich genau genannt warum es ned geht, oder nur kurz "Bandbreite der SLI bridge" als Antwort gegeben?
Zb, ne Formel wo man sich was ausrechnen kann?

Ich finde die Grenzen irgendwie künstlich limitiert, denn warum gerade GENAU 60hz bei 2048?Wieso künstlich? Xmas hat doch einen gut möglichen Ansatzpunkt genannt. Mehr ist bei der gebotenen Bandbreite offensichtlich nicht drin.

tombman
2005-01-18, 19:09:51
Klar – die Daten gehen über den Hauptspeicher an die CPU, diese komprimiert, schickt sie zurück, die Graka sendet es über die Bridge, der Empfänger schickts an die CPU, diese dekomprimiert und schickts wieder an die Graka ... oder wie??

wozu die cpu komprimieren lassen, der nv45 ist doch praktisch schon eine cpu :)

Aber das führt jetzt eh zu nix...

Wieso künstlich? Xmas hat doch einen gut möglichen Ansatzpunkt genannt. Mehr ist bei der gebotenen Bandbreite offensichtlich nicht drin.

Naja, so Wörter wie offensichtlich befriedigen mich ned wirklich, ich würds gern bestätigt und mit Formel genau wissen.

Hmm, kann Nvidia da ned ein bischen genauer werden?

dirk.loesche
2005-01-18, 20:10:06
Gibt es überhaupt Displays oder Projektoren die die 2048x1536 Bildpunkte ordentlich darstellen können?

Oder braucht man dazu Mehrere Displays?

aths
2005-01-18, 22:42:42
wozu die cpu komprimieren lassen, der nv45 ist doch praktisch schon eine cpu :)

Aber das führt jetzt eh zu nix...Genau, denn erstens hat der NV4x offenbar keine dedizierten Brigde-Komprimierungs-Schaltkreise und zweitens kann es immer vorkommen, dass Daten aufgrund ihrer Entropiecharakteristik nicht komprimierbar sind. Sollte dann dynamisch die Bildwiederholfrequenz gesenkt werden?


Naja, so Wörter wie offensichtlich befriedigen mich ned wirklich, ich würds gern bestätigt und mit Formel genau wissen.

Hmm, kann Nvidia da ned ein bischen genauer werden?Nvidia kann auch den ganzen Schaltplan ins Netz stellen. Machen sie aber aus einsichtigen Gründen nicht. Ich bin froh, von NV überhaupt eine Antwort erhalten zu haben.

tombman
2005-01-19, 05:04:44
Ich bin froh, von NV überhaupt eine Antwort erhalten zu haben.

jo, immerhin etwas.

Aber könnte man auf 3DC nicht ein bischen Druck auf Nvidia ausüben indem man diese Tatsache öffentlich schön sichtbar auf die Hauptseite bringt?
Und am besten noch so viele andere Seiten wie möglich anschreiben mit der Meldung ;)

Ich will, daß das im nv48 oder nv50 "gefixt" wird ;)

Cherubim
2005-01-19, 06:36:29
die werden wegen dir sicher ned ihre ganzen pläne umwerfen
und wegen einem oder zwei kleinen (ist zwar schon recht gross hier) foren werden die sicher ned sich da den kopg zerbrechen.

ich meine, wayne?
wenn du höhere auflösungen willst, dann schreib denen nen brief, aber druck können "wir" (das setzt vorraus, das die cummunity das will und nicht nur du) sowieso nicht ausüben.
einfache rechnung:
wieviele grakas haben sie im letzten jahr verkauf?
wieviele haben wir hier letztes jahr davon gekauft?
die %-Zahl hat so viele nullen hinterm komma, das kratzt keinen.

kauf 5millionen und die basteln dir was :biggrin:

tombman
2005-01-19, 07:20:49
Es geht ned darum wieviel gekauft wurden, sondern um einen öffentlichen Minuspunkt für SLI. Und wenn THG oder Anandtech das schreiben, dann WIRD das Nvidia interessieren.

Oder wieviele user mit SLI gibts überhaupt? Wieviele Stellen hinter dem Komma wären das dann?

Und kein user kann ersthaft GEGEN die Option sein, höhere Auflösungen als 1920x1440 mit SLI nutzen zu können (2048 in 60hz is genauso wie GAR KEIN 2048, weil die Zielgruppe 60hz nicht akzeptiert.)

Vorallem wirds interessant wenn ATIs multi rendering die sehr hohen Auflösungen jenseits von 1920x1440 in SLI kann und Nvidia nicht ;D

p.s.: weil einer gefragt hat: ja, es gibt Monitore die solche Auflösungen können. ZB. mein Sony GDM-FW900 kann bis 2304x1440 hinauf.

Asmodeus
2005-01-19, 10:50:40
Ich hab jetzt auch nochmal an Nvidia ein Fax geschickt um da im Bezug auf die Quadro Karten nochmal ein Statement zu bekommen. Denn auf der einen Seite fände ich es schon sehr merkwürdig, wenn man mit einer Quadro Karte bis zu 3840 x 2400 realisieren kann, im SLI Betrieb dann aber nur maximal 2048 x 1536 möglich sind. Wenn es allerdings wirklich an der SLI-Bridge liegt, dann gäbe es bei den Quadro Karten natürlich auch diese Einschränkung. Außer, es würde bei den Quadro Karten eine andere SLI-Bridge geben, was ich mir aber auch wieder nicht vorstellen kann. Andererseits ist 2048 x 1536 aber auch immer die Auflösung, die für die normalen Geforce Karten als Maximalauflösung von Seiten Nvidias angegeben wird. Naja, mal abwarten ob ich ne Antwort auf das Fax bekomme.

EDIT:
Selbst überprüfen wird wohl leider erst Mitte Februar, die FX 4400 wurde von PNY auf KW7 verschoben :(

Gruss, Carsten

Fadl
2005-01-19, 10:52:44
p.s.: weil einer gefragt hat: ja, es gibt Monitore die solche Auflösungen können. ZB. mein Sony GDM-FW900 kann bis 2304x1440 hinauf.

Allerdings dann alles andere als wirklich scharf.
Aber mit einem 30" Apple Cinema könnte man sogar noch höhere Auflösungen gebrauchen ;)

Asmodeus
2005-01-19, 10:58:35
Allerdings dann alles andere als wirklich scharf.
...


Ok, stop, stop, stop, wir werden in dem Thread jetzt nicht wieder eine der Auflösung/Schärfe/CRT/TFT Diskussionen beginnen :wink:

Ganz einfach, ich hab die Möglichkeit bis zu 3840 x 2400 in bester Schärfe (und lahmer Bidlwiederholfrequenz ;) ) zu betrachten, also will ich das auch unter SLI nutzen.

Gruss, Carsten.

Fatality
2005-01-19, 11:01:46
mein 22" iiyama vision master pro 514 schafft bei 2048x1536 noch 85hz genauso wie meine graka, und alles ist schön scharf.

tombman
2005-01-19, 11:47:24
mein 22" iiyama vision master pro 514 schafft bei 2048x1536 noch 85hz genauso wie meine graka, und alles ist schön scharf.

Eben, auch mein Sony bringt mit ner guten GRaka 2304x1440 noch annehmbar.

Aber mit SLI ist eben bei 2048x1536 in 60hz Schluß. dh, die 2048er Auflösung kannst praktisch vergessen...

@ asmodeus: wäre für nvidia echt peinlich wenn sogar die quadro Reihe im SLI Betrieb so beschränkt wäre... aber genau danach siehts derzeit aus.

Hauwech
2005-01-19, 12:17:16
Die Beschränkungen von SLI sind eher rein wirtschaftlicher Natur, sonst nix.


Nvidia baut euch bestimmt ne dickere Bridge womit mehr geht, wenn ihr die daraus entstehenden gesamten Kosten tragt.

Grestorn
2005-01-19, 13:04:29
Vorallem wirds interessant wenn ATIs multi rendering die sehr hohen Auflösungen jenseits von 1920x1440 in SLI kann und Nvidia nicht ;DDa ATI ja ganz auf eine Brücke verzichten will - wenn dieses Gerücht denn stimmen sollte - dann werden sie hier auf jeden Fall eher schlechter sein.

D.h. die Daten müssen über den PCIe Bus, und bei derart hohen Auflösungen und Wiederholraten bricht der derart gnadenlos ein, dass eine 2-Karten Lösung deutlich langsamer als eine Single-Kartenlösung wird.

RaumKraehe
2005-01-19, 15:29:24
Ich denke nicht das die Brücke der Grund des Problems ist. Erwartet hier wirklich jemand das über diese Brücke unmengen an Daten transferiert werden müssen? Die Brücke wird schlicht dazu genutzt werden die Karten zu synchronisieren. Und das ist nicht wirklich viel. Deshalb muss und kann die Lösung von Ati nicht unbedingt schlecht sein. Das es wirklich nicht viele Daten sind die die beiden Grakas austauschen müssen.

Die Daten müssen logischerweise auch bei der Nvidia-Lösung über den PCI-E Bus. Das nimmt sich beides nix. Oder glaubt hier jemand das die Texturen über die Brücke geschoben werden? ;D

aths
2005-01-19, 15:30:57
jo, immerhin etwas.

Aber könnte man auf 3DC nicht ein bischen Druck auf Nvidia ausüben indem man diese Tatsache öffentlich schön sichtbar auf die Hauptseite bringt?
Und am besten noch so viele andere Seiten wie möglich anschreiben mit der Meldung ;)

Ich will, daß das im nv48 oder nv50 "gefixt" wird ;)Ich empfehle etwas mehr Gelassenheit. Sehen wir den Tatsachen ins Auge: Nvidias aktuelles SLI-System ist die erste "vernünftige" Realisierung seitens NV. Die sammeln da jetzt erst mal Erfahrung. Wenn SLI mittel- oder langfristig zur Option für die Zielgruppe wird (ernsthafte Gamer, bestimmte Segmente des Profi-Bereiches), wird NV sicherlich sowas wie SLI 2.0 oder so vorstellen, wo einige Schwächen gefixt sind. Ich glaube nicht (reine Spekulation meinerseits) dass das schon mit NV50 kommt. Sicher könnte ich jemanden fragen, der es wissen muss. Aber NV kommentiert grundsätzlich keine zukünftigen Produkte, und die wissen auch, dass ich das weiß. Zudem würde sich NV sicherlich nur ungerne den Verkauf der heutigen SLI-Lösung kaputt machen wenn sie ankündigen, dass es bald was viel besseres gäbe.

Es gibt Andeutungen dass die SLI-Technik nicht per se auf nur zwei Karten beschränkt ist. Dass das Verfahren weiterentwickelt wird, sofern es sich auf dem Markt halbwegs bewährt, halte ich deshalb für praktisch sicher.

Die NV4x-Chips sind für eine bestimmte SLI-Bandbreite ausgelegt, welche durch die aktuelle Bridge wohl schon zu 100% realisiert ist.

aths
2005-01-19, 15:36:06
Ich denke nicht das die Brücke der Grund des Problems ist. Erwartet hier wirklich jemand das über diese Brücke unmengen an Daten transferiert werden müssen? Die Brücke wird schlicht dazu genutzt werden die Karten zu synchronisieren. Und das ist nicht wirklich viel. Deshalb muss und kann die Lösung von Ati nicht unbedingt schlecht sein. Das es wirklich nicht viele Daten sind die die beiden Grakas austauschen müssen.Wenn die Karten sich nur synchronisiert werden müssen, wie entsteht dann das fertige Gesamtbild?

RaumKraehe
2005-01-19, 15:44:09
Wenn die Karten sich nur synchronisiert werden müssen, wie entsteht dann das fertige Gesamtbild?

z.B. Treiber unterteilt das Bild .. obere und untere hälfte und schickt die Daten an die entsprechende GraKa. Beide empfangen sie. Über die Bridge müssen sie sich nur noch darüber verständigen ob alles geladen wurde und bei welchem Frame beide Karten nun sind. Und schwupps wird das Bild brechnet. Eine der Karten muss nun nur noch die Daten des Framebuffers zu der anderen Karte schicken. Was aber sicher auch über den PCI-E Bus laufen wird.

Allerdings weiß ich es nicht, sondern das sind nur meine Vermutungen. Weil wenn die Brücke wirklich mehr machen würde könnte ich mir auch SLI zwischen einen AGP und einer PCI-Karte vorstellen. Wobei die PCI-Karte als reiner "Cooprozessor" dann nicht mal vom Bus sonderlich ausgebremst werden würde. Theoretisch versteht sich.

Aber klärt mich auf wenn ich falsch liege. :)

Fadl
2005-01-19, 15:47:17
SLI funktioniert auch ohne die Brücke. Nur etwas langsamer.

DrumDub
2005-01-19, 15:49:38
SLI funktioniert auch ohne die Brücke. Nur etwas langsamer.

interessant. gibts dazu irgendwelche infos?

Fadl
2005-01-19, 15:51:34
interessant. gibts dazu irgendwelche infos?

Ich weiß nur das es funktioniert da ich es selbst ausprobiert habe ;)

DrumDub
2005-01-19, 16:05:49
Ich weiß nur das es funktioniert da ich es selbst ausprobiert habe ;)

laufen auch beide modi, also sfr und afr?

Grestorn
2005-01-19, 16:06:30
Ja, SLI funktioniert auch ohne Brücke. Dann muss aber die Hälfte des Bildes (oder jedes 2. Bild), also das, was von der anderen Karte berechnet wird, über den PCIe Bus übertragen werden...

Schließlich ist EINE Karte letztlich dafür zuständig, das Gesamtbild darzustellen, und dazu müssen die Daten beider Karten vorliegen.

Dieser Datenaustausch umfasst massig Daten: Bei 60 Hz und 1280x1024 sind das 3 Bytes pro Pixel x 1280x1024 Pixel x 60 Bilder pro Sekunde / 2 (nur die Hälfte des Bildes muss übertragen werden) Bytes pro Sekunde, also 112,5 MB.

Diese Last möchte ich nicht auf dem PCIe Bus haben... das kann nicht gut sein. Und es ist recht leicht einzusehen, dass bei sehr hoher Auflösung und Wiederholrate diese Datenrate stark ansteigt, bis halt die Brücke überfordert ist. Der PCIe Bus ist m.E. schon viel früher ausgelastet, da die Daten kaum direkt von einem PCIe Channel zum anderen übertragen werden können, ohne anderweitig Resourcen zu belasten (oder doch?).

Amun-Re
2005-01-19, 16:30:30
Interessant wäre auch welcher Modi sparsamer im Datentransfer ist SFR oder AFR oder wohlmöglich nehmen sich beide nichts. Weniger Overhead auch aufgrund vom fehlenden Loadbalancing schreibt man ja dem AFR Modus zu.

Aber vermutlich ist die eingesparte Datenmenge sofern es denn eine gibt nicht groß genug als das man eine resolutionsstufe höher gehen kann als mit SFR

Überhaupt wäre es mal interessant zu wissen welcher Modi die höhere CPU Limitierung besitzt. Schätzungsweise dürfte das auf AFR zutreffen.

aths
2005-01-19, 16:37:17
Eine der Karten muss nun nur noch die Daten des Framebuffers zu der anderen Karte schicken.Bist du dir darüber im Klaren, wie viel Speicherbandbreite das bei 2048x1536 @60+ Hz erfordert?

sth
2005-01-19, 17:22:56
Bist du dir darüber im Klaren, wie viel Speicherbandbreite das bei 2048x1536 @60+ Hz erfordert?
...was übrigens auch schon zeigt, dass es sich beim SLI-Link definitiv nicht um einen PCI-E 1x handeln kann :smile:

RaumKraehe
2005-01-19, 17:34:01
Ja, SLI funktioniert auch ohne Brücke. Dann muss aber die Hälfte des Bildes (oder jedes 2. Bild), also das, was von der anderen Karte berechnet wird, über den PCIe Bus übertragen werden...

Schließlich ist EINE Karte letztlich dafür zuständig, das Gesamtbild darzustellen, und dazu müssen die Daten beider Karten vorliegen.

Dieser Datenaustausch umfasst massig Daten: Bei 60 Hz und 1280x1024 sind das 3 Bytes pro Pixel x 1280x1024 Pixel x 60 Bilder pro Sekunde / 2 (nur die Hälfte des Bildes muss übertragen werden) Bytes pro Sekunde, also 112,5 MB.

Diese Last möchte ich nicht auf dem PCIe Bus haben... das kann nicht gut sein. Und es ist recht leicht einzusehen, dass bei sehr hoher Auflösung und Wiederholrate diese Datenrate stark ansteigt, bis halt die Brücke überfordert ist. Der PCIe Bus ist m.E. schon viel früher ausgelastet, da die Daten kaum direkt von einem PCIe Channel zum anderen übertragen werden können, ohne anderweitig Resourcen zu belasten (oder doch?).


OK. mein Denkfehler. :redface: Habs kapiert.

tombman
2005-01-20, 12:49:46
Bist du dir darüber im Klaren, wie viel Speicherbandbreite das bei 2048x1536 @60+ Hz erfordert?

Also so wie ich das als Laie verstehe ist das gar ned soviel, oder?

Maximal muß doch nur ein ganzes Bild (AFR) zur Karte Nr.1 geschickt werden, das wären im Maximalfall bei meinem Beispiel:

2304x1440x75(Hz) Pixel in der Sekunde = 248832000 Pixel pro Sekunde

Da es 32 bit pro Pixel sind (eher 24 Bit, oder?) macht das 4 byte pro Pixel, also 995328000 byte pro Sekunde..... sind also WENIGER als 1 GB/s über die Brücke.

Und du sagst Nvidia schafft es nicht bei einer dedicated bridge mit vielen pins
1 Gb/s zu übertragen?

Nvidia hat also weniger skill als die Leute, die 10gbit Netzwerkkarten bauen? ;D

Grestorn
2005-01-20, 13:43:38
Nvidia hat also weniger skill als die Leute, die 10gbit Netzwerkkarten bauen? ;DWo gibt's im Consumer Bereich 10 GB Karten?

Außerdem... die gängigen Netzwerkkarten schaffen 1 GigaBIT. Bei der von Dir genannten Auflösung bräuchte man 1 GigaBYTE pro Sekunde. Das ist alles andere als trivial.

Phoenix03
2005-01-20, 15:28:47
selbst im profi-bereich gibts kaum 10GB selbst die ganz grossen haben sowas nicht!

tombman
2005-01-20, 15:42:15
Wo gibt's im Consumer Bereich 10 GB Karten?

Außerdem... die gängigen Netzwerkkarten schaffen 1 GigaBIT. Bei der von Dir genannten Auflösung bräuchte man 1 GigaBYTE pro Sekunde. Das ist alles andere als trivial.

Es GIBT 10gbit Netzwerkkarten, und so ne Nettzwerkkarte muß einiges mehr können als so ne simple SLI bridge von Nvidia.

Ich wette mit euch, das ist nur ne Ausrede von Nvidia. Warum geht dann zb 2048x1536 in 61 Hz nicht, 60hz aber schon?`

Das ist keine physikalische Grenze die hier erreicht wird, sondern ganz einfach ne Treibersache.. die haben das eben so eingestellt.

Das witzige ist, daß der Treiber bei custom resolutions sogar 70hz akzeptiert, aber trotzdem schaltet IRGENDWAS auf 60hz runter... irgendeine Sperre hat Nvidia da eingebaut, und die können mir nicht erzählen, daß 60hz noch geht und 61hz schon nicht mehr ---> solche Zufälle gibts nicht, daß die offizielle 60Hz Frequenz auch zufällig die physikalische Grenzfrequenz der bridge ist ;D

Und nochwas: warum geht zb 1920x1200 in 85hz ?? Das ist eine GRÖSSERE Last als 2048x1536 in 61hz- rechnets nach.

Nachdem ich einige Auflösungen durchprobiert habe, komme ich zu dem Schluß, daß Nvidia es so eingestellt hat, daß eine imaginäre 200"mhz" Pixelfrequenz nicht überschritten wird.

Nur ein Zufall, daß das genau die Hälfte von 400mhz, dem Ramdac speed, ist? :cool:

Grestorn
2005-01-20, 15:53:51
Ich wette mit euch, das ist nur ne Ausrede von Nvidia. Warum geht dann zb 2048x1536 in 61 Hz nicht, 60hz aber schon?`Weil man die Grenze irgendwo setzen muss. 2048x1536 in 70 Hz geht halt nicht mehr, deswegen wird die nächst übliche gerade Wiederholfrequenz als Limit festgelegt.

Ich glaube gerne, dass man den Treiber so abändern könnte, dass auch 61 Hz gehen, aber ich bin genau so sicher, dass nVidia das nie so ändern wird. Das ist auch keine Ausrede sondern schlicht eine (durchaus sinnvolle) Designentscheidung.

Grestorn
2005-01-20, 15:55:48
Es GIBT 10gbit Netzwerkkarten, und so ne Nettzwerkkarte muß einiges mehr können als so ne simple SLI bridge von Nvidia.Ganz im Gegenteil. Eine 1 GB-NIC Karte wird recht selten echte 1 Gigabit pro Sekunde über längere Zeiträume ungestört übertragen können.

Die SLI Bridge kann sich keine Verzögerungen, keine Fehler und keine Einbrüche in der Bandbreite leisten.

tombman
2005-01-20, 16:05:53
Ganz im Gegenteil. Eine 1 GB-NIC Karte wird recht selten echte 1 Gigabit pro Sekunde über längere Zeiträume ungestört übertragen können.

Die SLI Bridge kann sich keine Verzögerungen, keine Fehler und keine Einbrüche in der Bandbreite leisten.

Aber schau dir doch mal die Daten an was die zu übertragen hat. Die muß keine Protokolle abarbeiten oder sonstwas, die muß nur immer wieder das selbe tun--- ein paar Pixel "rüberschupfen", also immer das GLEICHE, noch leichter geht ned.

Amun-Re
2005-01-20, 16:06:26
10Gigabit Netzwerkkarten setzen auch ein bandbreitenpotentes Bus System vorraus wie dieses meist nur in großen ServerSystemen mit 133MHz PCI-X. Datenübertragung vorhanden ist dann über Glasfaserkabel.

Selbst 1GigBit LAN Karten hatten genug Probleme ihre volle Leistung im FullDuplex Modus zu fahren wenn sie nicht über propritäre Anschlüssen angeflanscht wurden wie seinerzeit mit CSA.

Die Bandbreite der SLI Bridge soll sich in der Tat auf 1GB/s belaufen
Und der Aufwand ist nicht so leicht abzuschätzen Im SFR Modus gibt es diverse Probleme beim Aufteilen des Bildes denn es gibt genügend "OffScreen" Effekte die nicht unmittelbar sichtbar sind da sie mehrere Passes brauchen bevor sie auf dem Schirm ausgegeben werden können hier dürfte auch durchs LoadBalancing ein höherer Overhead auftauchen.
Außerdem reichen viele Polygone über die Teilung des Bildschirms hinaus (SFR) alles Dinge die berücksichtigt werden müssen.
Und in erster Linie dient die SLI Bridge der Synchronisation beider Karten der Rest wird über PCIe erledigt.

tombman
2005-01-20, 16:09:24
Weil man die Grenze irgendwo setzen muss. 2048x1536 in 70 Hz geht halt nicht mehr, deswegen wird die nächst übliche gerade Wiederholfrequenz als Limit festgelegt.

Ich glaube gerne, dass man den Treiber so abändern könnte, dass auch 61 Hz gehen, aber ich bin genau so sicher, dass nVidia das nie so ändern wird. Das ist auch keine Ausrede sondern schlicht eine (durchaus sinnvolle) Designentscheidung.

Das hab ich mir auch gedacht und es scheint, daß 200mhz Pixelfrequenz, also genau die Hälfte des ramdacs das Maximum sind. 65hz wäre auch schon drüber.

tombman
2005-01-20, 16:11:28
Die Bandbreite der SLI Bridge soll sich in der Tat auf 1GB/s belaufen


Sagt wer?

Amun-Re
2005-01-20, 16:16:31
SLI doesn't just rely upon the PCI Express bandwidth, but also that of NVIDIA's high-speed digital link interface which syncs data between the two SLI-enabled graphics cards and provides extra transfer bandwidth. It is a simple bridge that has a bandwidth of up to 1GB/s


Quelle: http://www.hardwarezone.com/articles/view.php?cid=3&id=1358&pg=2

tombman
2005-01-20, 16:31:18
wenn es wirklich 1gb/s sind, dann sollte aber 2048x1536 in 70hz LOCKER gehen-- tuts aber nicht ...wird zwar in den custom resolutions akzeptiert, trotzdem wird es durch irgendwas "overruled" runter auf 60hz.

Hellfire-Torrod
2005-01-20, 16:35:18
wenn es wirklich 1gb/s sind, dann sollte aber 2048x1536 in 70hz LOCKER gehen-- tuts aber nicht ...wird zwar in den custom resolutions akzeptiert, trotzdem wird es durch irgendwas "overruled" runter auf 60hz.

Vieleicht behält sich nVidia die Funktion vor, um Kunden gerade mit solchen ansprüchen auf die Quadro-Serie su lenken :wink:

tombman
2005-01-20, 16:45:14
Vieleicht behält sich nVidia die Funktion vor, um Kunden gerade mit solchen ansprüchen auf die Quadro-Serie su lenken :wink:

hehe, glaub ich nicht, denn die fx 4400 quadro mit 512mb ram kostet 2000€ :eeeeek: Und KEIN freak is so wahnsinnig den 4fachen Preis zu bezahlen.... (ok, hat auch mehr Speicher, aber trotzdem)
http://www.geizhals.at/eu/a127574.html

Aber wenn man sich die Daten so ansieht.... *schmacht*
http://www.pny.com/products/quadro/fx/imgs/QuadroPCIeFXChartLabel.jpg

Hellfire-Torrod
2005-01-20, 17:26:34
hehe, glaub ich nicht, denn die fx 4400 quadro mit 512mb ram kostet 2000€ :eeeeek: Und KEIN freak is so wahnsinnig den 4fachen Preis zu bezahlen.... (ok, hat auch mehr Speicher, aber trotzdem)
http://www.geizhals.at/eu/a127574.html

Aber wenn man sich die Daten so ansieht.... *schmacht*
http://www.pny.com/products/quadro/fx/imgs/QuadroPCIeFXChartLabel.jpg

Du wiedersprichst dich selbst ;D :wink:

tombman
2005-01-20, 18:18:57
Du wiedersprichst dich selbst ;D :wink:

Nö, kaufen würd ich das NIE bei dem Preis, aber ANSCHMACHTEN darf ich ja wohl noch :D

Hellfire-Torrod
2005-01-20, 19:49:07
Nö, kaufen würd ich das NIE bei dem Preis, aber ANSCHMACHTEN darf ich ja wohl noch :D

Jup :biggrin:

Dr Hake
2005-01-21, 10:13:58
warum geht (1) 2304x1440 @ 75 Hz, aber (2) 2.048x1.536 @ 60Hz?
reine Spekulation meinerseits, aber die Idee kam mir aufgrund dieses Artikels: http://www.de.tomshardware.com/display/20050108/dvi-grundlagen-05.html.
Evtl nutzt nV ja den TMDS um das Signal der "slave" auf den Link zu uebertragen. In diesem Falle kann es durchaus logisch sein dass bei Aufloesung(1) zwar mehr Pixel uebertragen werden muessen, und trotzdem weniger Daten ueber den Links muessen, da weniger Blanking im Spiel ist, da Umfang(1) < Umfang(2).
Wie gesagt Spekulation meinerseits.

tombman
2005-01-21, 11:01:15
wer hat gesagt, daß 2304x1440 geht? Die geht natürlich nicht solang SLi eingeschaltet ist

Dr Hake
2005-01-21, 11:21:03
wer hat gesagt, daß 2304x1440 geht? Die geht natürlich nicht solang SLi eingeschaltet ist
sorry Fehler meinerseits. Hatte da was durcheinandergeworfen, bezieh es auf hierauf

Und nochwas: warum geht zb 1920x1200 in 85hz ?? Das ist eine GRÖSSERE Last als 2048x1536 in 61hz- rechnets nach.

natuerlich entsprechend mit den angepassten Werten

Coda
2005-01-21, 12:57:43
wenn es wirklich 1gb/s sind, dann sollte aber 2048x1536 in 70hz LOCKER gehen-- tuts aber nicht ...wird zwar in den custom resolutions akzeptiert, trotzdem wird es durch irgendwas "overruled" runter auf 60hz.Vermutlich gibt es mehrere Kanäle für verschiedene Sachen.

Sailor Moon
2005-01-21, 23:54:25
Allerdings dann alles andere als wirklich scharf.
Aber mit einem 30" Apple Cinema könnte man sogar noch höhere Auflösungen gebrauchen ;)

Stimmt ;-) - aber von dem Hype bin ich zum Beispiel lange runter. Hier sitzt eine "einfache" 6800 NU um Rechner (mittlerweile allerdings mit dem Rivatuner entsprechend "freigeschaltet"). Natürlich ging es auch nicht anders, weil ich DualLink DVI brauchte und nicht in eine QuadroFX investieren wollte. Aber selbst wenn die PCI-E Ultras DL DVI gehabt hätten, wäre ich bei der einfachen Version geblieben. Klar geht das nicht in nativen 2560x1600, aber da würde wohl auch einem SLI Gespann mit AA und AF langsam -aber dann sicher- die Luft ausgehen.
Zur Not bleiben ja 1920x1200 oder 1280x800. Jeder setzt eben seine Prioritäten. Bei meinen anderen TFTs/ Monitoren wars ja nicht anders. Für die wirklich hohen Auflösungen in aktuellen Games hats eigentlich nie gereicht. Erinnere mich noch gut an 2001 als ich genau wie Tombman auch den FW-900 hatte. 1920x1200, da war mit der GF3 in Qualitätssettings eigentlich nie dran zu denken. Gezockt hab ich trotzdem und es hat sogar Spaß gemacht ;-) .

Gruß

Denis

ZilD
2005-01-22, 11:00:57
naja he nimmst du sony FW900 röhre oder 24" nec TFT bildschirme, dann brauchste so auflösungen! :)

tombman
2005-01-22, 11:04:35
Stimmt ;-) - aber von dem Hype bin ich zum Beispiel lange runter. Hier sitzt eine "einfache" 6800 NU um Rechner (mittlerweile allerdings mit dem Rivatuner entsprechend "freigeschaltet"). Natürlich ging es auch nicht anders, weil ich DualLink DVI brauchte und nicht in eine QuadroFX investieren wollte. Aber selbst wenn die PCI-E Ultras DL DVI gehabt hätten, wäre ich bei der einfachen Version geblieben. Klar geht das nicht in nativen 2560x1600, aber da würde wohl auch einem SLI Gespann mit AA und AF langsam -aber dann sicher- die Luft ausgehen.
Zur Not bleiben ja 1920x1200 oder 1280x800. Jeder setzt eben seine Prioritäten. Bei meinen anderen TFTs/ Monitoren wars ja nicht anders. Für die wirklich hohen Auflösungen in aktuellen Games hats eigentlich nie gereicht. Erinnere mich noch gut an 2001 als ich genau wie Tombman auch den FW-900 hatte. 1920x1200, da war mit der GF3 in Qualitätssettings eigentlich nie dran zu denken. Gezockt hab ich trotzdem und es hat sogar Spaß gemacht ;-) .

Gruß

Denis

Das geile an SLI ist ja, daß genau diese Auflösungen durch SLI jetzt SPIELBAR sind, und zwar MIT AA und AF :D

Gouvernator
2005-01-22, 11:43:24
Das geile an SLI ist ja, daß genau diese Auflösungen durch SLI jetzt SPIELBAR sind, und zwar MIT AA und AF :D

Kommt auf das Spiel an , habe auch GTA VC mit 2500*1500 ausprobiert und GlobalOps und .. ach ich probiere einfach jedes Spiel aus mit so einer Auflösung zu spielen. Naja , bis vor kurzem habe ich das gemacht, denn ab jetzt besitze ich ein 19" LCD und bin an 1280*1024 gebunden . Was mir aber mit dem Wechsel zu TFT sehr aufgefallen hat ist die Tatsache , das die Technik des TFT"s mir mehr bringt als beliebig große Auflösungen eines CRT .
Die Sache ist das ich mit dem TFT viel mehr vom Spiel sehe als mit CRT+Auflösung+AA+AF, ein Beispiel ist CMR Serie. Ab sofort verzichte ich auf große Auflösungen .

Sailor Moon
2005-01-22, 12:11:50
naja he nimmst du sony FW900 röhre oder 24" nec TFT bildschirme, dann brauchste so auflösungen! :)
Ich setze ja das 30" Cinema HD ein, bräuchte nach der Rechnung also auch eine "SuperUltraExtreme SLI Kombination" für die 2560x1600.
Ich will das ja auch niemanden ausreden. Jeder mag das so machen, wie er möchte. Aber es muß eben nicht unbedingt sein, ich hab mit dem Display auch so meinen Spielspaß mit einer normalen 6800 NU@Ultra.
Und ob zum Beispiel Doom3 in 2560x1600 mit AA und AF ruckelfrei läuft, wage ich zu bezweifeln. Momentan ruckelt es so schon sehr stark (ganz ohne AF, nur mit 4xAA). Setze ich jetzt mal voraus, dass der Performance Boost tatsächlich 100% beträgt; dann würde es zwar weniger ruckeln, was dem eigentlichen Ergebnis der Unspielbarkeit aber nicht entgegenwirkt.
Ein- oder zwei Auflösungsstufen niedriger mag das schon anders aussehen, ich will das mit dem SLI ja den Besitzern dieser Systeme auch gar nicht schlechtreden. Aber es ist eben nicht die allein "seligmachende" Lösung.

Wie auch immer; SLI kam für mich ja eh nie in Frage. Mit welchen Karten auch. Außer der V9999GE (und vielleicht noch der V9999GT) hat keine Consumer 6800er DualLink DVI. Auch nicht die PCI-E Varianten. Auflösungen >1920x1200 über DVI fallen somit weg, könnte das Display so sogar nur mit 1280x800 betreiben. Also keine Lösung. Möglich wären natürlich zwei QuadroFX 3400 oder 4400. Hier liegt die Betonung aber auf möglich und nicht auf nötig ;-)

Gruß

Denis

P.S. NEC stellt kein 24" TFT her, die machen bei 21" im 4:3 Format Schluß; 24" gibts von Samsung, den hatte ich vorher und auch hier sozusagen inadäquat angesteuert gar nur mit einer 9800 Pro, die bei 1920x1200 in halbwegs aktuelle Games natürlich kapitulierte

tombman
2005-01-22, 12:13:42
Kommt auf das Spiel an , habe auch GTA VC mit 2500*1500 ausprobiert und GlobalOps und .. ach ich probiere einfach jedes Spiel aus mit so einer Auflösung zu spielen. Naja , bis vor kurzem habe ich das gemacht, denn ab jetzt besitze ich ein 19" LCD und bin an 1280*1024 gebunden . Was mir aber mit dem Wechsel zu TFT sehr aufgefallen hat ist die Tatsache , das die Technik des TFT"s mir mehr bringt als beliebig große Auflösungen eines CRT .
Die Sache ist das ich mit dem TFT viel mehr vom Spiel sehe als mit CRT+Auflösung+AA+AF, ein Beispiel ist CMR Serie. Ab sofort verzichte ich auf große Auflösungen .

Hmm, also wenn deine sig noch stimmt und du diese Auflösungen nicht mit high end sli ausprobiert hast wundert mich ned, daß es ned schnell genug war.

Und wie meinst du das, mit TFT "mehr zu sehen" als mit CRT?

tombman
2005-01-22, 12:18:53
Ich setze ja das 30" Cinema HD ein, bräuchte nach der Rechnung also auch eine "SuperUltraExtreme SLI Kombination" für die 2560x1600.
Ich will das ja auch niemanden ausreden. Jeder mag das so machen, wie er möchte. Aber es muß eben nicht unbedingt sein, ich hab mit dem Display auch so meinen Spielspaß mit einer normalen 6800 NU@Ultra.
Und ob zum Beispiel Doom3 in 2560x1600 mit AA und AF ruckelfrei läuft, wage ich zu bezweifeln. Momentan ruckelt es so schon sehr stark (ganz ohne AF, nur mit 4xAA). Setze ich jetzt mal voraus, dass der Performance Boost tatsächlich 100% beträgt; dann würde es zwar weniger ruckeln, was dem eigentlichen Ergebnis der Unspielbarkeit aber nicht entgegenwirkt.
Ein- oder zwei Auflösungsstufen niedriger mag das schon anders aussehen, ich will das mit dem SLI ja den Besitzern dieser Systeme auch gar nicht schlechtreden. Aber es ist eben nicht die allein "seligmachende" Lösung.

Wie auch immer; SLI kam für mich ja eh nie in Frage. Mit welchen Karten auch. Außer der V9999GE (und vielleicht noch der V9999GT) hat keine Consumer 6800er DualLink DVI. Auch nicht die PCI-E Varianten. Auflösungen >1920x1200 über DVI fallen somit weg, könnte das Display so sogar nur mit 1280x800 betreiben. Also keine Lösung. Möglich wären natürlich zwei QuadroFX 3400 oder 4400. Hier liegt die Betonung aber auf möglich und nicht auf nötig ;-)

Gruß

Denis

P.S. NEC stellt kein 24" TFT her, die machen bei 21" im 4:3 Format Schluß; 24" gibts von Samsung, den hatte ich vorher und auch hier sozusagen inadäquat angesteuert gar nur mit einer 9800 Pro, die bei 1920x1200 in halbwegs aktuelle Games natürlich kapitulierte

Naja, du könntest dir 2 4400er Quadro kaufen (um zusammen 4000€ :D), dann hättest du garantiert dual-"dual"-dvi auf beiden Karten...

Aber wie ich rausgefunden habe, hat nvidia SLI ja praktisch auf 1920x1200 limitiert (2304x1440 geht schon nicht mehr), daher wurds für dich keine Lösung geben derzeit. Außer die quadro Serie hat die SLI Auflösungseinschränkung nicht. (is aber sehr unwahrscheinlich)

Btw, is das 30" CD schnell genug für games? (3d shooter)

Fadl
2005-01-22, 12:30:54
Btw, is das 30" CD schnell genug für games? (3d shooter)

16ms s-ips Panel. Sollte also schnell genug sein ;)

Sailor Moon
2005-01-22, 12:32:09
Naja, du könntest dir 2 4400er Quadro kaufen (um zusammen 4000€ :D), dann hättest du garantiert dual-"dual"-dvi auf beiden Karten...
Ja, machen kann man natürlich viel, aber für die Grafikkarten mehr auszugeben als für den Monitor muß nicht unbedingt sein :-o. Könnte man dann natürlich gleich zwei Anschließen, auch nicht schlecht ;-) - Nein im Ernst, wenn es die Alternative mit der Asus Karte nicht gegeben hätte, müßte ich *eine* QuadroFX 3400 einsetzen. Sonst würde ich vor Zorn wahrscheinlich in die Tischkante beißen, wenn ich zwei teure CAD Karten gekauft hätte (mit Features -außer DL DVI- die ich gar nicht brauche, aber brav mitbezahle) und in diesem Jahr vielleicht doch noch ganz offiziell DL DVI Consumerkarten herauskommen.

Btw, is das 30" CD schnell genug für games? (3d shooter)
Auf jeden Fall schneller als der 240T mit PVA Panel. Vorher wurde mir schon Angst und Bange gemacht, daß das große Cinema Display schlecht in der CT in der Beziehung abgeschnitten hätte und Schlieren würde ohne Ende. Kann ich absolut nicht bestätigen, wobei ich auch ganz klar sagen muß, dass mich der Samsung auch nicht gestört hat, was darauf schließen läßt, dass ich da sehr resistent bin - daher wird meine subjektive Meinung über die generelle Spieletauglichkeit wahrscheinlich auch nicht ausreichen.

Zurück zum SLI: Natürlich lassen sich damit nette Ergebnisse erzielen und ich will das auch gar nicht als Humbug darstellen. Muß man für sich selber entscheiden, ob man das braucht oder eben nicht. Schnell ist es ja auf jeden Fall, keine Frage.

Gruß

Denis

Gouvernator
2005-01-23, 10:26:57
Hmm, also wenn deine sig noch stimmt und du diese Auflösungen nicht mit high end sli ausprobiert hast wundert mich ned, daß es ned schnell genug war.

Und wie meinst du das, mit TFT "mehr zu sehen" als mit CRT?

z.B. die Sichtweite , feinste Strukturen , bessere Schärfe, die bewirkt das ich das 3d-Modell "greifen" kann. Größere Auflösungen eliminieren halt nur die Kanten , aber Schärfe geben sie nicht . Die Spiele werden meiner Meinung nach realistischer durch mehr Kontrast und Schärfe . Das habe ich erfahren weil mir mein CRT nie das gezeigt hat mit sehr großer auflösung was ich vom TFT mit 1280*1024 zu sehen bekomme.

OFFtopic
Ich habe Mafia mit 2500*1500 gespielt und mit 2990*1800 probiert zu spielen :biggrin: Der 9800 hat so ne Macke - er lässt AA voll aufdrehen nur bis XXXX*1200 ( 2500*1200 geht auch 6*AA)

Asmodeus
2005-01-24, 13:58:21
Seitens Nvidia habe ich nun noch folgendes Statement erhalten:

Zum einen gibt es eine durchaus gewollte Abgrenzung des Consumer Marktes vom Profi Markt (was ja zu erwarten war). Dies schlägt sich z.B. auch durchaus in Begrenzungen der maximalen Auflösung nieder. Und zum anderen unterstützt bisher kein Treiber diese extrem hohen Auflösungen (dabei bezog er sich auf 3840x2400) im SLI Betrieb. Sobald solch ein Treiber in der Workstation Abteilung bei Nvidia Deutschland vorliegt, werden sie das genaue Verhalten testen und sich wieder bei mir melden.

Gruss, Carsten.

Gouvernator
2005-01-24, 14:51:56
Seitens Nvidia habe ich nun noch folgendes Statement erhalten:

Zum einen gibt es eine durchaus gewollte Abgrenzung des Consumer Marktes vom Profi Markt (was ja zu erwarten war). Dies schlägt sich z.B. auch durchaus in Begrenzungen der maximalen Auflösung nieder. Und zum anderen unterstützt bisher kein Treiber diese extrem hohen Auflösungen (dabei bezog er sich auf 3840x2400) im SLI Betrieb. Sobald solch ein Treiber in der Workstation Abteilung bei Nvidia Deutschland vorliegt, werden sie das genaue Verhalten testen und sich wieder bei mir melden.

Gruss, Carsten.

Na das will ich sehen, wie die so hohen RAMDAC hinkriegen -
hab kurz nachgeschaut 3840*2400 gibt bei 50Hz einen RAMDAC von 496 . Gibt es denn überhaupt Karten mit e RAMDAC von 500 ?

Coda
2005-01-24, 14:55:22
Das ist natürlich auf Dual DVI bezogen :rolleyes:

z.B. die Sichtweite , feinste Strukturen , bessere Schärfe, die bewirkt das ich das 3d-Modell "greifen" kann. Hört sich danach an, als wäre der CRT ziemlich beschissen gewesen.

Asmodeus
2005-01-24, 16:39:42
Na das will ich sehen, wie die so hohen RAMDAC hinkriegen -
hab kurz nachgeschaut 3840*2400 gibt bei 50Hz einen RAMDAC von 496 . Gibt es denn überhaupt Karten mit e RAMDAC von 500 ?

Zum einen, wie Coda schon sagte, handelt es sich um Dual-Link DVI und zum anderen hat man selbst da bei 3840x2400 nur noch 25 Hz Bildwiederholfrequenz. Also so oder so sind 50 Hz bei so einer Auflösung nur Wunschdenken :wink:

Gruss, Carsten

Coda
2005-01-24, 18:19:16
Uhm soweit ich weiß ist DVI doch immer 60Hz?

Tesseract
2005-01-24, 18:35:57
Hört sich danach an, als wäre der CRT ziemlich beschissen gewesen.

das würde ich auch meinen. auch ein noch so guter TFT kann keine information (texturen, geometrie) aus dem nichts erzeugen, also müsste sie der CRT verschluckt haben :udown:

tombman
2005-01-24, 18:44:24
Seitens Nvidia habe ich nun noch folgendes Statement erhalten:

Zum einen gibt es eine durchaus gewollte Abgrenzung des Consumer Marktes vom Profi Markt (was ja zu erwarten war). Dies schlägt sich z.B. auch durchaus in Begrenzungen der maximalen Auflösung nieder. Und zum anderen unterstützt bisher kein Treiber diese extrem hohen Auflösungen (dabei bezog er sich auf 3840x2400) im SLI Betrieb. Sobald solch ein Treiber in der Workstation Abteilung bei Nvidia Deutschland vorliegt, werden sie das genaue Verhalten testen und sich wieder bei mir melden.

Gruss, Carsten.

hmm, is ja schön, hilft mir aber jetzt auch nicht weiter, denn eigentlich ging es um die Frage warum 2304x1440 ohne SLI geht und mit SLI nicht.

Könntest du da noch mal nachhaken?

Asmodeus
2005-01-25, 11:12:56
Uhm soweit ich weiß ist DVI doch immer 60Hz?

Also bei den extrem hohen Auflösungen auf keinen Fall mehr. Selbst im Dual Link Verfahren würden sich 3840 x 2400 mit 60 Hz bei 165 MHz Pixeltakt nicht mehr realisieren lassen.

Gruss, Carsten

Asmodeus
2005-01-25, 11:16:53
hmm, is ja schön, hilft mir aber jetzt auch nicht weiter, denn eigentlich ging es um die Frage warum 2304x1440 ohne SLI geht und mit SLI nicht.

Könntest du da noch mal nachhaken?

Wie schon gesagt sieht es so aus, wenn ich Nvidia richtig verstanden habe, bei Consumer-Karten gibt es eine Beschränkung der maximalen Auflösung was SLI anbelangt. Und ausserdem sieht es so aus, dass aktuell sowieso kein Treiber im SLI Betrieb höhere Auflösungen als 2048 x 1536 @ 60 Hz anbietet.
Nun bleibt nur abzuwarten, ob neue Treiber dann höhere Auflösungen nur für Quadro-Karten anbieten, oder ob man auch auf Consumer-Karten diese Auflösungen dann anwählen, oder freischalten kann.

Gruss, Carsten.

sth
2005-01-25, 12:24:14
Geht 2560x1024 (dual-monitor) mit SLI?

tombman
2005-01-25, 18:12:08
Wie schon gesagt sieht es so aus, wenn ich Nvidia richtig verstanden habe, bei Consumer-Karten gibt es eine Beschränkung der maximalen Auflösung was SLI anbelangt. Und ausserdem sieht es so aus, dass aktuell sowieso kein Treiber im SLI Betrieb höhere Auflösungen als 2048 x 1536 @ 60 Hz anbietet.
Nun bleibt nur abzuwarten, ob neue Treiber dann höhere Auflösungen nur für Quadro-Karten anbieten, oder ob man auch auf Consumer-Karten diese Auflösungen dann anwählen, oder freischalten kann.

Gruss, Carsten.

Tja, dann wäre das Gerede um eine hardware Limitation allerdings wirklich nur solches ;)

Und wenn es für quadro Karten gehen wird, kannst sicher sein, daß man das irgendwie freischalten wird können ;) (außer es geht NUR auf 512mb Karten)

tombman
2005-01-25, 18:12:47
Geht 2560x1024 (dual-monitor) mit SLI?

Ich hab keine dual Monitor Erfahrung...

Quasar
2005-01-25, 18:23:02
Tja, dann wäre das Gerede um eine hardware Limitation allerdings wirklich nur solches ;)

Und wenn es für quadro Karten gehen wird, kannst sicher sein, daß man das irgendwie freischalten wird können ;) (außer es geht NUR auf 512mb Karten)

..oder es handelt sich um folgende Problematik:

tombman
2005-01-25, 18:30:52
was meinst damit?

Merlin31
2005-01-25, 18:49:53
was meinst damit?

Er meint bestimmt, das bei der normalen Karte wohl 2 Chips fehlen (die fehlenden Brücken könnte man ja noch löten), und das es es it einem Treiber Hack wohl nicht so einfach sein wird.

tombman
2005-01-25, 18:56:31
des hab ich gesehen, aber ich erkenne die Karten gar ned... sollen des quadro nv45 Karten sein?

Meine beiden 6800u pci-e haben da vorne nämlich GAR KEINE solchen chips..

EIn bischen weniger rätselhaft wäre vielleicht von Vorteil gewesen...

Quasar
2005-01-25, 19:04:22
Das sind Wildcat Realizms - eine 100 und eine 200.
Worauf ich hinaus will, ist, daß man nicht alles, was bei den Quadros möglich wäre, durch einen Treiberhack auch auf den GeForces drin ist.

Dual-Link DVI hat jetzt zwar nur bedingt etwas mit SLI zu tun, aber nichtsdestotrotz.

tombman
2005-01-25, 19:10:56
Das sind Wildcat Realizms - eine 100 und eine 200.
Worauf ich hinaus will, ist, daß man nicht alles, was bei den Quadros möglich wäre, durch einen Treiberhack auch auf den GeForces drin ist.

Dual-Link DVI hat jetzt zwar nur bedingt etwas mit SLI zu tun, aber nichtsdestotrotz.

Wennst mich fragst hat diese dual dvi Geschichte gar nix mit dem Problem dieses threads zu tun.

Wie gesagt, das witzige is ja, daß 2304x1440x75hz ohne Probleme OHNE SLI Modus geht, mit aber scheinbar derzeit unmöglich ist.

Ich tippe da mal eher auf Treiber, weil die Sache mit der SLI bridge will mir ned so recht in den Kopf :)

Quasar
2005-01-25, 19:14:26
Und wenn du mich fragst, hast du meinen Post nicht gelesen...

Worauf ich hinaus will, ist, daß man nicht alles, was bei den Quadros möglich wäre, durch einen Treiberhack auch auf den GeForces drin ist.

Es geht schlicht darum, daß nicht alles, was 'ne Quadro kann, auch eine GeForce können muss - selbst wenn man die Treiber überlistet.

tombman
2005-01-25, 20:42:14
Es geht schlicht darum, daß nicht alles, was 'ne Quadro kann, auch eine GeForce können muss - selbst wenn man die Treiber überlistet.

Darum gehts in dem thread eben nicht.

Quasar
2005-01-25, 20:51:33
Darum gehts in dem thread eben nicht.
Warum erwähnst du's dann?

"Und wenn es für quadro Karten gehen wird, kannst sicher sein, daß man das irgendwie freischalten wird können"

tombman
2005-01-25, 23:12:07
Warum erwähnst du's dann?

"Und wenn es für quadro Karten gehen wird, kannst sicher sein, daß man das irgendwie freischalten wird können"

Die letzte hardware Erklärung was ich hier gehört habe war, daß die sli bridge Schuld is-> die is aber total gleich auf den quadros.

Also welche hw Limitierung sollte dann bei den quadros wegfallen, die es bei den consumer Karten noch gibt?

Normalerweise haben die quadros auch die selben chips und rams, oder?

Und wie sollte so eine Limitierung IN HARDWARE aussehen, die "2304 SLI" nicht mehr zuläßt auf den consumer Karten?

Quasar
2005-01-25, 23:18:13
Vielleicht betreiben Quadros den SLI-Bus mit höherem Takt oder double-pumped? Vielleicht erkennt der Treiber an einem aufgelöteten SMD-Bauteilchen oder Widerstand auf dem GPU-Träger eine Quadro und schaltet nur dann zusätzliche Features frei?

Vielleicht - und das sollte sowieso erstmal geklärt werden, wie Carsten schon sagte - ob SLI+ für Quadros überhaupt verfügbar sein wird. :cool:

tombman
2005-01-25, 23:25:36
SLI+ ??

Steht des plus da absichtlich?

UNd wenns nur um einem smd Widerstand geht---> no Problem ;)

Quasar
2005-01-26, 08:22:57
Das steht da absichtlich von mir, um die umständliche Umschreibung zu sparen.

Gasst
2005-01-28, 04:23:06
Könnte man eigentlich (natürlich nur rein theoretisch) mit 2 Quadros (512MB, basierend auf 6800 Ultra) ein Sli-System aufbauen, mit dem man dann auch zocken kann, sprich die Karten mit dem Standard-Treiber klarkommen. Wenn das ginge, wäre dies dann wohl das bestmögliche System, leider unbezahlbar teuer ;)

Das wären dann 1GB(!!!) V-RAM. Wenn ich daran denke, dass ich mit 1MB angefangen habe... :)

Grindcore
2005-01-28, 05:32:27
Das wären immer noch 512 MB nutzbarer V-Ram

MechWOLLIer
2005-01-28, 12:11:07
Hier stand Müll

Gasst
2005-01-29, 03:31:41
Das wären immer noch 512 MB nutzbarer V-Ram

Egal, wie man das jetzt rechnet, auf jeden Fall doppelt so viel wie 2 normale 6800U. Aber wäre es überhaupt möglich, mit 2 Quadros zu zocken? Und würde das mehr an VRAM bei irgendeinem Spiel etwas bringen?

Xmas
2005-01-29, 04:25:00
Sicher könnte man mit Quadro-SLI zocken. Man kann natürlich auch auf normale 6800U-Karten mit 512 MiB warten, in extrem hohen Auflösungen mit AA und bei bestimmten Spielen (Doom3 Ultra, HL2) sollte die Karte davon profitieren können.

Kommandofrosch
2005-01-29, 16:40:58
Ich verstehe das Problem nicht. SLI extra sich dafür anschaffen um möglichst hohe AA + AF Stufen zu betreiben ist meiner Meinung nach Sinnlos. Mit Maximal
1200X1600 pixeln soll man doch zufrieden sein. Bei den Hohen Auflösungen dürfte nix mehr von Treppchen etc ... zusehen sein, es sei denn man sitzt 5cm vom monitor nah/entfernt. Solche Xtra/ Ultra hohen Auflösungen sind erst im militärischen Sektor empfehlenswert bei speziellen See/Luft-Gefechtssimulationen auf großen Leinwänden.
Da SLI sowieso neu ist wird man fast überall seine kleinen SLI bedingten Problemchen haben.
Schöner ist es wenn man sich an hohen FPS werten erfreuen könnte.
Lock On auf SLI das wäre was Feines.

Gouvernator
2005-01-29, 17:08:37
das sehe ich anders, mit solchen auflösungen hat man einen besseren überblick , das ist bei multiplayer sehr wichtig - einmal wurde ich fast gekickt vom Vietkong server, weil mein Sneipergewehr dank hoher auflösung+AA sehr gut war :biggrin: . jetzt experimentiere ich mit den hohen auflösung auf meinem TFT , ich kanns einfach nicht lassen
;D immerhin bin ich schon bei 2000*1024 angekommen :biggrin:

Xmas
2005-01-29, 17:43:06
Was willst du denn mit einer Auflösung, die dein TFT gar nicht anzeigen kann?

Gouvernator
2005-01-29, 17:56:27
Was willst du denn mit einer Auflösung, die dein TFT gar nicht anzeigen kann?

Mein TFT kann 1600*1200 nicht anzeigen, Bildschirm bleibt schwarz. Aber mann kann einfach 1024 statt 1200 lassen und dann geht die Post ab . Ich habe nur 2000*1024 genannt weil ich noch 6*AA einstellen kann , ohne AA gehts noch weiter 2560*1024.. 3000*1024. Die Bildqualität bleibt in Spielen fast unverändert , dafür gehn FPS runter . Desktop sieht zwar richtig schlecht aus , spielen kann man damit allemal.

esch
2005-02-04, 11:00:01
Vielleicht bin ich etwas rückständig, aber mal im Ernst, wer spielt in Auflösungen über 2304x1440??? :cool:

MfG

Gouvernator
2005-02-04, 13:37:35
ich spiele ,würde jetzt auch spielen, aber geht net. =)

Asmodeus
2005-04-01, 14:53:32
So, von Nvidia kam die Information, dass die Bridge bei den Consumerkarten tatsächlich mit einem geringeren Takt läuft als bei den Quadrokarten und deshalb auch die maximal mögliche Auflösung beschränkt ist.

Gruss, Carsten.

tombman
2005-04-01, 16:32:13
So, von Nvidia kam die Information, dass die Bridge bei den Consumerkarten tatsächlich mit einem geringeren Takt läuft als bei den Quadrokarten und deshalb auch die maximal mögliche Auflösung beschränkt ist.

Gruss, Carsten.

APRIL? :D

Falls ned:

Hmm, das schreit nach hack, oder ned?

Schick mal "unwinder" ne mail ;)

Ich will wieder 2304x1440 in SLi ;)

Asmodeus
2005-04-01, 16:37:36
APRIL? :D

Falls ned:

Hmm, das schreit nach hack, oder ned?

Schick mal "unwinder" ne mail ;)

Ich will wieder 2304x1440 in SLi ;)

Nein, kein Aprilscherz, versprochen. Es sei denn, der Mensch von Nvidia Deutschland hat eine komsiche Art von Humor. :wink: Aber bestätigt doch nur die Vermutungen, dass damit künstlich eine Grenze zwischen Consumermarkt und Workstationmarkt geschaffen werden soll. Ob sich die Sache jedoch durch nen Hack von außen umgehen lässt, keine Ahnung.

EDIT:
Als Unwissender muss ich fragen, wer oder was ist "unwinder" :confused:

Gruss, Carsten.

tombman
2005-04-01, 16:47:35
Nein, kein Aprilscherz, versprochen. Es sei denn, der Mensch von Nvidia Deutschland hat eine komsiche Art von Humor. :wink: Aber bestätigt doch nur die Vermutungen, dass damit künstlich eine Grenze zwischen Consumermarkt und Workstationmarkt geschaffen werden soll. Ob sich die Sache jedoch durch nen Hack von außen umgehen lässt, keine Ahnung.

EDIT:
Als Unwissender muss ich fragen, wer oder was ist "unwinder" :confused:

Gruss, Carsten.

Das is der Russe, der rivatuner inkl. quadro hacks schreibt ;)

Dunkeltier
2005-04-01, 16:50:30
Vielleicht bin ich etwas rückständig, aber mal im Ernst, wer spielt in Auflösungen über 2304x1440??? :cool:

MfG


Hm, zwar nicht 2304x1440 - aber 2048x1536 bei über 120 FPS mit 8xtri-aF (oder war es 16xtri.aF?) in Half-Life². :)

Asmodeus
2005-04-01, 16:51:22
Das is der Russe, der rivatuner inkl. quadro hacks schreibt ;)

Achso :rolleyes: Naja, stell ich mir schon lustig vor, man kann die GPU übertakten, den VideoRam übertakten und dann vielleicht auch die SLI-Bridge übertakten. :wink:

Gruss, Carsten.

Dunkeltier
2005-04-01, 16:54:39
Naja, du könntest dir 2 4400er Quadro kaufen (um zusammen 4000€ :D), dann hättest du garantiert dual-"dual"-dvi auf beiden Karten...

Aber wie ich rausgefunden habe, hat nvidia SLI ja praktisch auf 1920x1200 limitiert (2304x1440 geht schon nicht mehr), daher wurds für dich keine Lösung geben derzeit. Außer die quadro Serie hat die SLI Auflösungseinschränkung nicht. (is aber sehr unwahrscheinlich)

Btw, is das 30" CD schnell genug für games? (3d shooter)


Heißt das, das man mit einer Single-Karte höhere Auflösungen fahren kann? :confused: Wenn Sli nicht über 1920x1200 hinausgeht, wozu taugt es dann was? Gerade wenn ich zwei Karten in der Spielekiste habe, will ich doch in hohen Auflösungen zocken!

Asmodeus
2005-04-01, 17:01:45
Heißt das, das man mit einer Single-Karte höhere Auflösungen fahren kann? :confused: Wenn Sli nicht über 1920x1200 hinausgeht, wozu taugt es dann was? Gerade wenn ich zwei Karten in der Spielekiste habe, will ich doch in hohen Auflösungen zocken!

Naja, aber mal ehrlich, welches aktuelle Spiel kann man denn heute auf was für einer Rechnerkonfiguration vernünftig auf über 1920x1200 mit vollem Detailgrad und höchster Antialiasing und Filtereinstellung flüssig spielen. Und wie viel Prozent der Gesamtkundschaft hat neben so einem Rechner dann auch noch den entsprechenden Monitor um überhaupt Auflösungen größer 1920x1200 zu nutzen? Das es aktuell nicht geht heißt ja nicht, dass es bei zukünftigen Consumerkarten auch nicht mit höheren Auflösungen geht. Und zum jetzigen Zeitpunkt ist diese Beschränkung doch ganz "vernünftig".

EDIT:
Extremes Beispiel, Doom 3 läuft bei 3840x2400 noch mit 1-2 FPS oder so, da bringt SLI dann auch nichts mehr.

Gruss, Carsten.

Dunkeltier
2005-04-01, 17:06:25
Naja, aber mal ehrlich, welches aktuelle Spiel kann man denn heute auf was für einer Rechnerkonfiguration vernünftig auf über 1920x1200 mit vollem Detailgrad und höchster Antialiasing und Filtereinstellung flüssig spielen. Und wie viel Prozent der Gesamtkunschaft hat neben so einem Rechner dann auch noch den entsprechenden Monitor um überhaupt Auflösungen größer 1920x1200 zu nutzen? Das es aktuell nicht geht heißt ja nicht, dass es bei zukünftigen Consumerkarten auch nicht mit höheren Auflösungen geht. Und zum jetzigen Zeitpunkt ist diese Beschränkung doch ganz "vernünftig".

Gruss, Carsten.

Eine Frage, eine Antwort: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2834497#post2834497

Half-Life² mit 16xtri-aF, 2xMSAA in 2048x1536 und mit etwa 120 FPS. Alle Details auf Maximal, inkl. Reflect All.


Ich tu es, und steh dazu! :D Insbesondere gefällt mir mehr und mehr das Gefühl wirklich mehr Details erkennen zu können, und MSAA braucht man bei 2048x1536 auch nicht mehr unbedingt. Das war damals noch an meinen 19" Monitor, jetzt am 21" mache ich sowas erst Recht gerne. :)

Asmodeus
2005-04-01, 17:09:27
Eine Frage, eine Antwort: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2834497#post2834497

Half-Life² mit 16xtri-aF, 2xMSAA in 2048x1536 und mit etwa 120 FPS. Alle Details auf Maximal, inkl. Reflect All.


Ich tu es, und steh dazu! :D Insbesondere gefällt mir mehr und mehr das Gefühl wirklich mehr Details erkennen zu können, und MSAA braucht man bei 2048x1536 auch nicht mehr unbedingt.

Tja, selber Schuld :wink: Schalte 16xAA ein und schon sieht die Sache anders aus. Und ich bin der Meinung, auch bei diesen Auflösungen bringen hohe AA-Modi etwas, wenn man sich z.B. die Neonlampe auf deinem Screenshot ansieht :wink: .

Gruss, Carsten.

Dunkeltier
2005-04-01, 17:13:46
Tja, selber Schuld :wink: Schalte 16xAA ein und schon sieht die Sache anders aus. Und ich bin der Meinung, auch bei diesen Auflösungen bringen hohe AA-Modi etwas, wenn man sich z.B. die Neonlampe auf deinem Screenshot ansieht :wink: .

Gruss, Carsten.


16xMSAA würde auch jeglichen Sli-Gespann beide Beine in solchen 2000'er Auflösungen brechen.

/edit: Außer in Spielen von '88, aber darum gehts hier nicht.

Dunkeltier
2005-04-01, 17:16:09
Außerdem sieht es im Spiel nicht ganz so schlimm aus. Speicher das Bild mal ab, und stell es dann mit IrfanView mal als Vollbild auf deinen Monitor dar. Dann wird es entsprechend angepasst, und auch die Lampe erscheint nicht mehr so unrealistisch groß. Du siehst ja nur einen Ausschnitt aus dem großen Bild, ich würds mal komplett vor mich projezieren.

Asmodeus
2005-04-01, 17:29:11
16xMSAA würde auch jeglichen Sli-Gespann beide Beine in solchen 2000'er Auflösungen brechen.

/edit: Außer in Spielen von '88, aber darum gehts hier nicht.

Ja, und darum ging es mir, dass bei maximaler Qualitätseinstellung auch unter SLI solch extrem hohe Auflösungen bei heutigen Grafikkarten nicht nutzbar sind. Und eben deshalb die Obergrenze von 1920x1200 ganz nachvollziehbar ist.

Gruss, Carsten.

tombman
2005-04-01, 17:53:06
jo, es ist ja ned wirklich schlimm, daß 1920x1200 die höchste Breitwand Auflösung mit SLi ist, vorallem weil man ganz ohne AA ja auch nimmer gamen will.
Mich würde aber brennend interessieren wie schnell 2304x1440 mit 4xAA und mit 0xAA ist im SLI Modus. Ich wette viele games rennen da noch ganz schön.

Asmodeus, kannst du den genauen Wortlaut vom Nvidia Mensch posten? Vielleicht hilft das unwinder ja.- ich schreib dem echt ne mail, glaub ich ;) Btw, benche mal Doom3 2304x1440 4xAA/16xAF mit deinen Quadros im SLI Modus ;)

Gast
2005-04-01, 18:09:26
jo, es ist ja ned wirklich schlimm, daß 1920x1200 die höchste Breitwand Auflösung mit SLi ist, vorallem weil man ganz ohne AA ja auch nimmer gamen will.
Mich würde aber brennend interessieren wie schnell 2304x1440 mit 4xAA und mit 0xAA ist im SLI Modus. Ich wette viele games rennen da noch ganz schön.

Asmodeus, kannst du den genauen Wortlaut vom Nvidia Mensch posten? Vielleicht hilft das unwinder ja.- ich schreib dem echt ne mail, glaub ich ;) Btw, benche mal Doom3 2304x1440 4xAA/16xAF mit deinen Quadros im SLI Modus ;)

Also, Hintergrund ist folgender, wir haben unser System mit den 2 Quadros bekommen, ich wollte SLI testen und stellte fest, dass SLI auch nur bis 1920x1200 funktioniert. Also, an Nvidia ne Mail geschrieben und nachgefragt, auch bezüglich der Bedenken was die Bandbreite der Bridge anbelangt. Heute Nachmittag kam dann ein Anruf, im dem es darum ging, dass der SLI Modus bei OpenGL Anwendungen auf FX 4400 Karten im Treiber 71.84 noch nicht implementiert ist, und auch die Möglichkeit der höheren SLI Auflösungen für die Quadro Karten noch nicht implementiert ist. Kommt aber mit dem nächsten Quadrotreiber im April/Mai. Und dann wurde mir noch erzählt, dass es im Grunde tatsächlich mit der SLI-Bridge und der Bandbreite zusammenhängt. Die Bridge bei den Consumerkarten is niedriger getaktet als die Bridge der Quadrokarte. Und im 71.84 liegt die maximale SLI-Auflösung aber auch noch bei 1920x1200. Dies soll mit dem nächsten Quadrotreiber im April/Mai behoben werden, so dass dann auch Auflösungen bis 3840x2400 in SLI möglich sind.

Wenn diese neuen Treiber kommen, dann kann man ja folgendes versuchen: Die 6800 Ultras mittels Softmod zu Quadros machen. Sollten dann höhere Auflösungen unter SLI funktionieren, dann ist es wohl allein der Treiber, der diese Taktung der Bridge bestimmt. Sollte sich durch den Mod aber nichts ändern, so wäre wohl anzunehmen, dass die Taktraten der Bridge eher "festverdrahtet" sind.

Also, momentan kann ich Doom 3 also noch nicht unter SLI in 3840x2400 testen. Mit einer Karte habe ich bei der timedemo1 unter UltraHighQuality ohne AA und ohne AF 6 FPS.

Gruss, Carsten.

Asmodeus
2005-04-01, 18:10:33
Ups, anmelden wäre angebracht gewesen.

EDIT:
@ tombman: Der Monitor hat als TFT bei den hohen Auflösungen leider nicht so viel Auswahl, es geht standardmäßig nur 1920x1200, 1920x2400 und dann eben 3840x2400. Kann also schwer Auflösungen wie 2...x1... testen.

Gruss, Carsten.

tombman
2005-04-01, 20:17:23
wie gesagt, der neueste 76.41 fw nimmt die Auflösung sogar AN (2304x1440), aber ausführen tut er sie nicht, sondern nur mit 1920x1440.

The_Invisible
2005-04-01, 21:54:45
jo, es ist ja ned wirklich schlimm, daß 1920x1200 die höchste Breitwand Auflösung mit SLi ist, vorallem weil man ganz ohne AA ja auch nimmer gamen will.
Mich würde aber brennend interessieren wie schnell 2304x1440 mit 4xAA und mit 0xAA ist im SLI Modus. Ich wette viele games rennen da noch ganz schön.

Asmodeus, kannst du den genauen Wortlaut vom Nvidia Mensch posten? Vielleicht hilft das unwinder ja.- ich schreib dem echt ne mail, glaub ich ;) Btw, benche mal Doom3 2304x1440 4xAA/16xAF mit deinen Quadros im SLI Modus ;)

tja, da werden dann schon wieder eher die 256mb der karte limitieren, da wären dann wirklich 512mb karten angebracht

mfg

Gouvernator
2005-04-01, 22:10:47
was haben die grafikkarten für RAMDAC das solche 3800*2400 auflösung möglich ist ? bei 60 Hz brauche man weit über 500 Hz

Sailor Moon
2005-04-01, 22:31:38
Das Problem dabei wird sein, daß Tombman seine Auflösungen über den analogen Anschluß realisiert, während der BenQ ja digital angesteuert wird. Hier ist sowieso bei 1920x1200 "Schluß mit Lustig", zumindest bei SL DVI.

Gruß

Denis

der Lustige
2005-04-01, 22:47:21
was haben die grafikkarten für RAMDAC das solche 3800*2400 auflösung möglich ist ? bei 60 Hz brauche man weit über 500 Hz

2x ramdac 400 = 800

hat übrigens jede gf 6600 und 6800 karte

Gouvernator
2005-04-01, 22:58:45
Waaaas?! jede neue Geforce hat 800 Mhz RAMDAC ? :eek:

der Lustige
2005-04-01, 23:02:35
Ja kommt aber trotzdem nur auf 3840x2400 @ 49 Hz

halloooo
2005-04-02, 08:39:43
Hm, zwar nicht 2304x1440 - aber 2048x1536 bei über 120 FPS mit 8xtri-aF (oder war es 16xtri.aF?) in Half-Life². :)

Davon träumen SLI User noch! hehe ;)

Asmodeus
2005-04-02, 11:44:24
Ich denke, hier wurde mal wieder einiges durcheinander gebracht. Die extreme Auflösung von 3840 x 2400 ist zum einen nur über Dual-Link DVI möglich, und zum anderen selbst dann nur mit maximal 25 Hz Bildwiederholfrequenz, dafür aber eben auch mit nur einem einzigen Dual-Link DVI-Kabel. Um bei 3840 x 2400 eine Bildwiederholrate von 48Hz zu haben ist es notwendig, dass bei dem Monitor T221 von IBM vier Quellen angeschlossen werden, die jeweils 1920 x 1200 @ 48 Hz liefern. Der dabei zu betreibende Aufwand (2 Doppelkabel mit jeweils 2 DVI-Anschlüssen) ist natürlich wesentlich größer, und zumindest die aktuellen Nvidia-Treiber zeigen dann zwar auch 4 nutzbare Bildschirme an, aber es gibt im Treiber keinen Modus, dann auch alle 4 zu einer großen Anzeige zusammenzuschalten. Es funktioniert momentan nur DualView, dann mit jeweils nur 2 der 4 Bildschirme.

Gruss, Carsten.

Asmodeus
2005-04-05, 17:57:21
Mit dem inoffiziellen Treiber 76.41 lassen sich die beiden FX 4400 im SLI Betrieb jetzt auch bis 3840x2400 betreiben, auch wenn die ganze Sache noch etwas buggy ist (verständlich bei nem Alpha-Treiber).

Gruss, Carsten.

tombman
2005-04-06, 04:29:37
lol, mach mal benchmarks und screenshots ... des is zu geil :D

The_Invisible
2005-04-06, 10:53:43
Mit dem inoffiziellen Treiber 76.41 lassen sich die beiden FX 4400 im SLI Betrieb jetzt auch bis 3840x2400 betreiben, auch wenn die ganze Sache noch etwas buggy ist (verständlich bei nem Alpha-Treiber).

Gruss, Carsten.

ähm, sind das die mit 512mb und >2000€ ??? ich schätze mal das hat man nicht privat

mfg

Asmodeus
2005-04-06, 11:07:35
ähm, sind das die mit 512mb und >2000€ ??? ich schätze mal das hat man nicht privat

mfg

Ja, sind sie, und natürlich hab ich die nicht privat :wink: Aber es ging ja eben genau darum, herauszufinden, ob die SLI-AUflösungsbeschränkung technisch bedingt war, oder von Nvidia bewusst bei den Consumerkarten eingesetzt wird.

@tombman: Screens und Benchmarks (leider nur Doom 3) folgen heute noch.

Gruss, Carsten.

Asmodeus
2005-04-06, 14:48:46
Zuerst ein Bild vom Desktop:

http://www.inf.uni-konstanz.de/~colditz/desktop_tn.jpg (http://www.inf.uni-konstanz.de/~colditz/desktop.jpg)

Dann noch 3 Bilder von Doom 3:

http://www.inf.uni-konstanz.de/~colditz/Doom3-01_tn.jpg (http://www.inf.uni-konstanz.de/~colditz/Doom3-01.jpg)

http://www.inf.uni-konstanz.de/~colditz/Doom3-02_tn.jpg (http://www.inf.uni-konstanz.de/~colditz/Doom3-02.jpg)

http://www.inf.uni-konstanz.de/~colditz/Doom3-03_tn.jpg (http://www.inf.uni-konstanz.de/~colditz/Doom3-03.jpg)

Und noch ein Bild vom Doom3 Timedemo demo1 mit HQ und 0xAA / 0xAF:
(Es treten jedoch immer noch Texturartefakte während des Durchlaufs auf, was wohl nach wie vor am Alphastatus dieses Treibers liegt)

http://www.inf.uni-konstanz.de/~colditz/Doom3-04_tn.jpg (http://www.inf.uni-konstanz.de/~colditz/Doom3-04.jpg)

Gruss, Carsten.

Benedikt
2005-04-06, 15:50:14
Zuerst ein Bild vom Desktop:

http://www.inf.uni-konstanz.de/%7Ecolditz/desktop_tn.jpg (http://www.inf.uni-konstanz.de/%7Ecolditz/desktop.jpg)

Dann noch 3 Bilder von Doom 3:

http://www.inf.uni-konstanz.de/%7Ecolditz/Doom3-01_tn.jpg (http://www.inf.uni-konstanz.de/%7Ecolditz/Doom3-01.jpg)

http://www.inf.uni-konstanz.de/%7Ecolditz/Doom3-02_tn.jpg (http://www.inf.uni-konstanz.de/%7Ecolditz/Doom3-02.jpg)

http://www.inf.uni-konstanz.de/%7Ecolditz/Doom3-03_tn.jpg (http://www.inf.uni-konstanz.de/%7Ecolditz/Doom3-03.jpg)

Und noch ein Bild vom Doom3 Timedemo demo1 mit HQ und 0xAA / 0xAF:
(Es treten jedoch immer noch Texturartefakte während des Durchlaufs auf, was wohl nach wie vor am Alphastatus dieses Treibers liegt)

http://www.inf.uni-konstanz.de/%7Ecolditz/Doom3-04_tn.jpg (http://www.inf.uni-konstanz.de/%7Ecolditz/Doom3-04.jpg)

Gruss, Carsten.

Is ja irre! :eek::eek:
Jetzt noch 'ne Oberfläche für Windows, die nicht auf "festen" Abmessungen (Pixeln) basiert, und man hat den perfekt scharfen Desktop.
Lass mal KDE oder Gnome unter Linux laufen, das skaliert frei - wie das aussehen muss - krass!

Panasonic
2005-04-06, 16:37:38
Auf was für Monitoren spielt Ihr?

Asmodeus
2005-04-06, 16:56:12
Auf was für Monitoren spielt Ihr?

Der IBM T221 kann diese Auflösung darstellen. Natürlich spielt hier keiner auf dem Monitor, da er ja nur zum Arbeiten da ist. :wink: Obwohl man unter dieser Auflösung sowieso keine flüssigen Frameraten hinbekommt.

Gruss, Carsten.

sth
2005-04-06, 17:25:31
6,9fps in der Doom³-Timedemo -> Quake3 dürfte flüssig laufen :biggrin:

tombman
2005-04-07, 06:10:43
SO SICK!!!!!!!!!!!!!!!!!!!!!!!!!!!!1

Man kann nur erahnen wie scharf das auf einer 22" Fläche aussehen muß :D

AA -> völlig unnötig :D

tombman
2005-04-07, 06:25:31
btw, die fps kommen mir zuwenig vor, denn mit genau 1/4 der Auflösung (1920x1200) ohne AA/AF, also selbe Einstellungen wie bei dir, komm ich ohne Übertakten auf 85fps in der timedemo. Durch 4 wären das über 20fps.

1.) bist du sicher, daß das im SLI Modus gelaufen ist? (SLi load Anzeiger etc..)
2.) dürfte die Speicherbandbeite, die ja bei den quadros ned mehr wird (nur die Menge des ram) deine scores killen :(

tombman
2005-04-07, 06:28:17
Auf was für Monitoren spielt Ihr?

spielen gar ned :)

Asmo hat sowas auf der Arbeit stehen, einen IBM T221 mit 9 Millionen Pixel (3840x2400), welcher die spaßige Summe von 7000€ kostet :cool: (nein, da is keine Null zuviel :D:D)

Sailor Moon
2005-04-07, 07:07:38
Oh man, ja das wäre natürlich ideal; 2560x1600 sollten auf jeden Fall noch einigermaßen laufen.

@Tombman: Das mit den 10< FPS kann schon hinkommen; hatte (OK mit einer Karte) auch schon derbe Einrüche beim Sprung von 1920x1200 auf 2560x1600.

Gruß

Denis

Asmodeus
2005-04-07, 07:12:16
btw, die fps kommen mir zuwenig vor, denn mit genau 1/4 der Auflösung (1920x1200) ohne AA/AF, also selbe Einstellungen wie bei dir, komm ich ohne Übertakten auf 85fps in der timedemo. Durch 4 wären das über 20fps.

1.) bist du sicher, daß das im SLI Modus gelaufen ist? (SLi load Anzeiger etc..)
2.) dürfte die Speicherbandbeite, die ja bei den quadros ned mehr wird (nur die Menge des ram) deine scores killen :(

Du hast auf jeden Fall recht, die knapp 7 Frames bekomme ich auch, wenn ich SLI ausschalte und Doom 3 nur auf einer Karte läuft. Aber wie gesagt, der OpenGL Teil bei diesem Treiber im Zusammenspiel mit der Quadrokarte ist noch buggy, was man auch sehr gut an den Profilen erkennen kann :wink:

http://www.inf.uni-konstanz.de/~colditz/profile_tn.jpg (http://www.inf.uni-konstanz.de/~colditz/profile.jpg)

Somit würd ich nicht drauf wetten, dass da alles schon so reibungslos läuft.
Außerdem kommt sicher noch dazu, dass die Quadrokarten standardmäßig "nur" auf 400/1050 laufen.

Gruss, Carsten.

Grestorn
2005-04-07, 07:45:57
AA -> völlig unnötig :DNein. Dazu muss die Auflösung noch viel viel höher sein.

Im stehenden Bild sieht man vielleicht kaum noch Aliasing-Artefakte. Im bewegten Bild ganz sicher. Das ist ja das Problem.

Gast
2005-04-07, 08:10:03
btw, die fps kommen mir zuwenig vor, denn mit genau 1/4 der Auflösung (1920x1200) ohne AA/AF, also selbe Einstellungen wie bei dir, komm ich ohne Übertakten auf 85fps in der timedemo. Durch 4 wären das über 20fps.



quadro-treiber haben in spielen oft krasse performanceeinbrüche gegenüber "game-treiber", evtl. auch in doom3.

Asmodeus
2005-04-07, 08:10:15
Nein. Dazu muss die Auflösung noch viel viel höher sein.

Im stehenden Bild sieht man vielleicht kaum noch Aliasing-Artefakte. Im bewegten Bild ganz sicher. Das ist ja das Problem.

Um einer auch hier sicher wieder "ausartenden" AA-Diskussion gleich entgegen zu wirken, ja auch bei dieser Auflösung ist Aliasing sichtbar, ganz auf AA kann man also nicht verzichten. Andererseits muss man bei der Betrachtung auch bedenken, gegenüber 1920x1200 ist nicht nur die Auflösung bei 3840x2400 in jede Richtung doppelt so hoch, sondern bei dem Monitor ist zusätzlich auch die Pixelgröße nur noch halb so groß (0.12 gegenüber gewöhnlich 0.24), was dem Aliasing auch nochmal entgegenwirkt.

Gruss, Carsten.

tombman
2005-04-07, 08:37:21
ALso ich weiß wie 2304x1440 ohne AA aussieht, also muß doch 3840x2400 ohne AA genial aussehen.

Asmodeus
2005-04-07, 08:41:00
ALso ich weiß wie 2304x1440 ohne AA aussieht, also muß doch 3840x2400 ohne AA genial aussehen.

Tut es auch :wink: , aber ganz "verschwunden" ist das Aliasing eben trotzdem noch nicht.

Gruss, Carsten.

tombman
2005-04-07, 11:18:52
Tut es auch :wink: , aber ganz "verschwunden" ist das Aliasing eben trotzdem noch nicht.

Gruss, Carsten.

Jo sicher, wennst mit der Lupe 5cm vorm Schirm wie ein Spürhund absuchst wirst sicher was sehen, die Auflösung des Auges ist eben doch noch mal höher :D

Aber wenn man normal auf den Schirm schaut, kann ich mir ned vorstellen, daß aliasing auffällt.

Grestorn
2005-04-07, 12:00:09
Aber wenn man normal auf den Schirm schaut, kann ich mir ned vorstellen, daß aliasing auffällt.In Bewegung schon, weil die Kanten unruhig sind und die Zacken wandern. Sich bewegende Details nimmt der Mensch problemlos war, obwohl er sie in Standbildern niemals erkennen würde.

Und die Aliasing-Zacken bewegen sich nun mal unnatürlich, d.h. nicht entsprechend den restlichen Inhalten des Bildes. Und das fällt auf.

Sailor Moon
2005-04-07, 15:46:06
@tombman: Das "Problem" dabei ist ja u.a. das der Sony nicht mehr die Maske für 2xxxer Auflösungen hat. Das sieht sicher nicht schlecht aus (konnte das zu meiner Zeit mit dem Gerät nicht mehr testen, da die Leistung 2002 einfach noch nicht da war), aber führt in Zusammenhang mit der analogen Signalzuführung sicher zu einer Art natürlicher Unschärfe. Sowas fällt beim T221 ja weg, daher ist ein Vergleich so direkt nicht wirklich möglich. Kann hier aus eigenem Test nur sagen, daß 2560x1600 in jedem Falle nicht ausreichen um AA in irgendeiner Art wirklich ersetzen zu können. Obs mich stört ist eine andere Frage, Leistung ist wie gesagt eh nicht genug da, auch ohne alles. Wäre das Gerät nun die 8 Zoll kleiner, würds bezgl. AA bzw. dem Verzicht entsprechend "besser" aussehen, aber auch hier glaube ich noch nicht, daß der Unterschied gänzlich wegfallen würde.

Gruß

Denis

tombman
2005-04-08, 12:17:20
jo, das mit der Unschärfe wegen der Maske kam mir dann auch in den Sinn :)

Jedenfalls sieht 2304x1440 auf einem crt genial aus :D

Aber so wie es aussieht geht ja auch mit den quadros kein SLi > 1920x1200.

Asmodeus
2005-04-08, 16:36:58
...
Aber so wie es aussieht geht ja auch mit den quadros kein SLi > 1920x1200.

Naja, mit dem nächsten offiziellen Treiber, der nicht noch im experimentellen Alphastatus steckt wird auch das dann sicher kein Problem mehr sein. :wink:

Gruss, Carsten.

tombman
2005-04-09, 20:47:55
Naja, mit dem nächsten offiziellen Treiber, der nicht noch im experimentellen Alphastatus steckt wird auch das dann sicher kein Problem mehr sein. :wink:

Gruss, Carsten.

Würde mich ned wundern, wenn es dann plötzlich auf wundersame Weise auch für consumer Karten geht ;)

Denn vor der "76"er Reihe, hat der Treiber 2304x1440 im SLI Modus nicht mal akzeptieren wollen, jetzt tut er das, aber darstellen kann/will er ihn noch nicht richtig (macht daraus 1920x1440 mit "verschobenem" Desktop)

Naja, hoffen wir das beste. Sobald die Bestätigung mal von dir kommt, hab ich mir schon überlegt, die ultras auf quadro zu flashen :D

Gast
2005-04-09, 21:07:27
Naja, hoffen wir das beste. Sobald die Bestätigung mal von dir kommt, hab ich mir schon überlegt, die ultras auf quadro zu flashen :D

nicht unbedingt eine gute idee, quadros sind in spielen teilweise kaum, teilweise aber extrem langsamer.

tombman
2005-04-09, 21:14:29
nicht unbedingt eine gute idee, quadros sind in spielen teilweise kaum, teilweise aber extrem langsamer.#

Woher weißt du, daß es diesmal wieder so sein muß? Oder hast du eine 4400er? ;)

Außerdem würde es ja nur um die Bestätigung der Nvidia Aussage gehen, daß die SLI bridge bei den quadros "höher getaktet" ;D ist als bei den 6800ern...

minos5000
2005-04-12, 19:52:28
Jedenfalls sieht 2304x1440 auf einem crt genial aus :D



Was für ein TFT schafft eine solche Auflösung ?? :eek:

Gast
2005-04-12, 20:01:46
#

Woher weißt du, daß es diesmal wieder so sein muß? Oder hast du eine 4400er? ;)



weil ich meine 6800GT mal testweise auf quadro gemoded hab. in specview zwar die 2-7-fache performance, spiele dafür sehr viel langsamer.

dafür gab es 16xFSAA über das CP, AF aber nur bis 8x (im CP) ;)

Sailor Moon
2005-04-12, 20:25:50
Was für ein TFT schafft eine solche Auflösung ??
Der Apple 30er hat 2560x1600; in Games sicherlich schwierig zu nutzen. Leider sieht 1280x800 extrem (naja, sagen wir ziemlich) schlecht aus (einfach zu groß und zu kantig), obwohl genau 1/4 der Auflösung. D.h. hier ist eigentlich schon ordentlich Power nötig; SLI macht da aber wie gesagt noch Probleme und wenn es klappt, dann wohl erstmal nur auf den Quadro Karten. Mit meiner DELL GTO bin ich da defintiv an der Grenze angelangt aber eine andere Consumer Karte mit DL DVI ist noch nicht erhältlich (und die DELL ja auch nur über Ebay oder in einem neuen Komplettsystem).
Der IBM T221 hat übrigens noch eine höhere Auflösung von 3840x2400 bei 8 Zoll kleinerer Fläche...also seeehr kleine Pixel :-)


Gruß

Denis

tombman
2005-04-13, 06:52:01
weil ich meine 6800GT mal testweise auf quadro gemoded hab. in specview zwar die 2-7-fache performance, spiele dafür sehr viel langsamer.

dafür gab es 16xFSAA über das CP, AF aber nur bis 8x (im CP) ;)

ich rede aber von PCI-e Karten, du auch?

Asmodeus
2005-04-13, 07:15:23
weil ich meine 6800GT mal testweise auf quadro gemoded hab. in specview zwar die 2-7-fache performance, spiele dafür sehr viel langsamer.

dafür gab es 16xFSAA über das CP, AF aber nur bis 8x (im CP) ;)

In den 76.xx Treibern ist das Aussehen des CP bei den Quadrokarten dann wieder eher an das CP der Consumerkarten angenähert und es gibt auch dort dann die Möglichkeit AF bis 16x einzustellen.

Gruss, Carsten.

tombman
2005-04-13, 08:12:18
In den 76.xx Treibern ist das Aussehen des CP bei den Quadrokarten dann wieder eher an das CP der Consumerkarten angenähert und es gibt auch dort dann die Möglichkeit AF bis 16x einzustellen.

Gruss, Carsten.

Könntest du mal probieren, ob du ein d3d game in SLi zum laufen bekommst mit ner Auflösung > 1920x1200?

Asmodeus
2005-04-13, 08:30:46
Könntest du mal probieren, ob du ein d3d game in SLi zum laufen bekommst mit ner Auflösung > 1920x1200?

Welche D3D-Games unterstützen von sich aus Auflösungen > 1920x1200 oder lassen sich per Hand zu solchen Auflösungen bewegen (am besten natürlich im Fullscreen Modus, nicht wie Doom 3 nur im Fenstermodus). Und dann muss ich gestehen, die einzigen D3D-Spiele, die ich hier im Büro rumliegen habe sind FarCry, Battlefield 1942 und Battlefield Vietnam. Oder gibts vielleicht auch irgendeine Demo, mit der man es testen könnte? Weitere Einschränkung wäre noch, dass ich es nur mit dem 76.41 testen könnte, denn siehe meine Postings zum 76.44 im NV-Unterforum ist dieser Treiber auf meinem System noch extrem buggy.

Gruss, Carsten.

tombman
2005-04-13, 08:45:10
also wegen D3: wundert mich ned, daß du im Fenster kein SLI zum laufen gebracht hast, des rennt nämlich nur in Ausnahmefällen im Fenster (zb Far Cry).
Btw, Doom3 rennt im fullscreen Modus sehr wohl mit SLi und hohen Auflösungen.
(r_customwidth XXXX, r_customheight YYYY, r_mode -1, vid_restart)

Wenn du SLI testen willst mußt du auf jeden Fall fullscreen testen, ansonsten kannst für nix garantieren.

Btw, kann der IBM TFT 2304x1440 fullscreen interpolieren? Is ja erstmal egal wie scheiße es aussehen mag, ich will nur wissen ob es überhaupt rennt.

Also Far Cry rennt schon mal 100% in 2304x1440, denn das hab ich ja selbst schon laufen gehabt. UT2004 kannst auch mal probieren, demo sollte reichen.

Asmodeus
2005-04-13, 10:03:30
also wegen D3: wundert mich ned, daß du im Fenster kein SLI zum laufen gebracht hast, des rennt nämlich nur in Ausnahmefällen im Fenster (zb Far Cry).
Btw, Doom3 rennt im fullscreen Modus sehr wohl mit SLi und hohen Auflösungen.
(r_customwidth XXXX, r_customheight YYYY, r_mode -1, vid_restart)

Wenn du SLI testen willst mußt du auf jeden Fall fullscreen testen, ansonsten kannst für nix garantieren.


Also Doom 3 lässt sich unter 3840 x 2400 nicht zum Fullscreen bewegen. Er bringt bei der Initialisierung immer die Fehlermeldung: "3840x2400 is unsupported in 32 bit". Hab es dann mal mit r_depthbits 16 versucht, hat aber auch nichts geholfen.


Btw, kann der IBM TFT 2304x1440 fullscreen interpolieren? Is ja erstmal egal wie scheiße es aussehen mag, ich will nur wissen ob es überhaupt rennt.


Sorry, aber ich werden von Hand bei dem Monitor keine eigenen Auflösung und entsprechende Timings einstellen.


Also Far Cry rennt schon mal 100% in 2304x1440, denn das hab ich ja selbst schon laufen gehabt. UT2004 kannst auch mal probieren, demo sollte reichen.

Far Cry werde ich mal probieren, wenn ich heute noch Zeit dazu habe.

Gruss, Carsten.

Asmodeus
2005-04-13, 10:32:17
Wie kann ich bei Far Cry die Auflösung per Hand auf Auflösungen > 1920x1200 stellen?

Gruss, Carsten.

tombman
2005-04-13, 10:49:39
Sorry, aber ich werden von Hand bei dem Monitor keine eigenen Auflösung und entsprechende Timings einstellen.



.

:confused:³

Wieso muß man bei dem TFT Monitor eine Auflösung "einstellen". Stellen TFTs sich ned immer ideal ein je nachdem was die Graka liefert?
Also entweder fullscreen, full screen interpolated + correct AR, oder 1:1 mit schwarzen Rändern?

@far cry: da muß ich mal schauen wie des in der console aussieht, aber wenn der Desktop 2304x1440 anbietet ist des bei mir so, daß auch far cry dieses schon im Menu drinn hat.

Btw, wie is des eigentlich: wird der IBM TFT zweimal angeschlossen, also von jeder 4400er ein Kabel, szs ein display was 2 displays nur vortäuscht oder schon EIN display, wo auch auch nur ein Kabel von der primären 4400er weggeht? (bei ersterem wäre SLi gar ned möglich). SLi geht derzeit nur, wenn es als EINE Graka in der Systemsteuerung auftaucht, die an EINEM Bildschirm angeschlossen ist iirc.

Asmodeus
2005-04-13, 11:12:58
:confused:³

Wieso muß man bei dem TFT Monitor eine Auflösung "einstellen". Stellen TFTs sich ned immer ideal ein je nachdem was die Graka liefert?
Also entweder fullscreen, full screen interpolated + correct AR, oder 1:1 mit schwarzen Rändern?


Also der TFT bietet nur bestimmte Auflösungen an, die dann natürlich auch nur im CP angewählt werden können. Alle anderen Auflösungen lassen sich also nur per Hand hinzufügen, und da muss dann natürlich auch Refreshrate und Timing stimmen.


@far cry: da muß ich mal schauen wie des in der console aussieht, aber wenn der Desktop 2304x1440 anbietet ist des bei mir so, daß auch far cry dieses schon im Menu drinn hat.


Wenn der Desktop auf 3840x2400 steht (egal ob SLI oder nur mit einer Karte) dann lässt sich trotzdem maximal nur 1920 x 1200 auswählen.

Wenn ich eine systemcfgoverride.cfg anlege, mit den ensprechenden Werten, dann tut sich unter Direct3D gar nix, wenn ich Far Cry auf OpenGL umstelle, dann ist der Bildinhalt zwar 3840x2400, der Monitor wird aber von Far Cry trotzdem nur auf 1920x1200 geschaltet, man sieht dann also nur die obere linke Ecke des Bildinhaltes (egal ob SLI oder nur mit einer Karte).


Btw, wie is des eigentlich: wird der IBM TFT zweimal angeschlossen, also von jeder 4400er ein Kabel, szs ein display was 2 displays nur vortäuscht oder schon EIN display, wo auch auch nur ein Kabel von der primären 4400er weggeht? (bei ersterem wäre SLi gar ned möglich). SLi geht derzeit nur, wenn es als EINE Graka in der Systemsteuerung auftaucht, die an EINEM Bildschirm angeschlossen ist iirc.

Der Monitor wird nur mit einem einzelnen Kabel (Dual Link Kabel) angesprochen, dass nur am Primäranschluss der primären 4400 steckt.

Gruss, Carsten.

tombman
2005-04-13, 12:14:19
Also der TFT bietet nur bestimmte Auflösungen an, die dann natürlich auch nur im CP angewählt werden können. Alle anderen Auflösungen lassen sich also nur per Hand hinzufügen, und da muss dann natürlich auch Refreshrate und Timing stimmen.





Was meinst du mit timings?

Mach doch einfach im nvidia cp "add custom resolution" mit der refresh Werten der nächthöheren offiziellen Standardauflösung deines TFTs. Dann auf "apply" und dann wirst eh sehen wie der Monitor darauf reagiert. Wenn du kein gescheites Bild mehr hast mach einfach gar nix, dann schaltet der Treiber nach ein paar Sekunden eh wieder zurück auf den vorigen Modus und du kannst weiterarbeiten. (um die advanced timings brauchst dich ned kümmern)

Asmodeus
2005-04-13, 12:37:22
Was meinst du mit timings?

Mach doch einfach im nvidia cp "add custom resolution" mit der refresh Werten der nächthöheren offiziellen Standardauflösung deines TFTs. Dann auf "apply" und dann wirst eh sehen wie der Monitor darauf reagiert. Wenn du kein gescheites Bild mehr hast mach einfach gar nix, dann schaltet der Treiber nach ein paar Sekunden eh wieder zurück auf den vorigen Modus und du kannst weiterarbeiten. (um die advanced timings brauchst dich ned kümmern)

Ok, das hat funktioniert, die Auflösung 2304x1440 konnte ich einstellen, aber bei Far Cry ändert sich nichts. Wenn ich Far Cry Konfig starte, dann steht bei Auflösung "Benutzer" da. Wenn ich dann jedoch das Spiel starte wird es wieder in 1920x1200 ausgeführt. Wenn ich in der Override Datei die Sache angebe, dann ist unter Direct3D wieder nur 1920x1200 und unter OpenGL das gleiche Problem wie schon bei 3840x2400.

Gruss, Carsten.

tombman
2005-04-13, 13:00:05
dh, du hast jetzt schon mal die 2304x1440er Auflösung im Desktop, richtig? Na is ja geil, is das IBM TFT Monster doch ned so unflexibel ;)
Btw, der Desktop @ 2304x1440 is in Ordnung oder hat der Macken?

Wenn er ok ist, dann versuch doch mal D3 in 2304x1440 FULLSCREEN zu starten (is einfacher, denn da kennen wir ja die console commands)

(btw, bei mir is der Desktop mit den 6800utras @ 2304x1440 fucked up-> er zeigt nur 1920x1440 an, die restlichen 384 horizontal Pixel sind rechts im Nirvana :D)

Asmodeus
2005-04-13, 13:45:43
Sorry tombman, aber mit den jetzigen 76.xx Treibern wird das alles wohl nix.
Es treten nur merkwürdige Probleme auf.

1.
2304x1440 hat ohne SLI geklappt, wenn ich SLI aktiviere, dann stimmt unter 2304x1440 die Desktopdarstellung überhaupt nicht mehr.

2.
Unter FarCry im Fenstermodus (3840x2400) ist SLI von sich aus überhaupt nicht aktiviert. Ich hab es einfach mal anhand der Temperaturanzeigen der Grafikkarten überprüft. Wenn ich dann den SLI-Modus im Treiber von "single GPU" auf "multi GPU" stelle, dann gibt es unter Direct3D übelste Grafikfehler (auch unter 1920x1200 im Fullscreen). Unter OpenGL sind die Grafikfehler zwar weniger, aber immer noch vorhanden, und es ist wesentlich langsamer als wenn der SLI-Modus auf "single GPU" steht.

3.
Und unter Doom 3 hattest Du schon richtig vermutet, egal welche Einstellungen im Treiber vorgenommen werden, im Fenstermodus erfolgt keine SLI-Beschleunigung, die zweite Grafikkarte bleibt immer "kalt".

Fazit:
Die 76.xx Treiber erlauben bei den FX 4400 bisher lediglich mit aktiviertem SLI die Desktopauflösung bis auf 3840x2400 hochzusetzen (was beim 71.84 nicht funktionierte, da ging es nur bei deaktiviertem SLI). Bei 3D Programmen bleibt die SLI-Beschleunigung noch aus, obwohl nicht endgütlig geklärt werden kann, ob es am nicht funktionierenden Fullscreen-Modus liegt, oder einfach am Alphastatus des Treibers, oder an allen beiden.

Ich denke, bei den 76.xx Treibern ist der Quadro-Teil noch eine üble Baustelle. Das merkt man auch schon daran, dass das CP beim Wechsel zwischen den Auflösungen und den SLI-Modus auch schon mal komplett abstürzt. Nvidia meinte ja auch, dass erst im Mai mit einem neuen Treiber für die Quadros zu rechnen ist, der diese Probleme dann alle beheben soll.

Gruss, Carsten.

tombman
2005-04-13, 14:42:36
Tjo, na dann bestätigt sich meine Ahnung immer mehr, daß Nvidia nur shit labert wenn sie meinen die sli bridge ist bei den quadros "höher getaktet". So wie es derzeit aussieht, rennt SLi auf den consumer Karten 10 mal besser als auf den quadros.

Btw, diesen hinnigen desktop @ 2304x1440 hab ich im SLi Modus eh auch auf den Ultras ;)

ALso bei den 6800ultras rennt bis 1920x1200 alles wie es soll @ SLi Modus :)

p.s: der 2304x1440 Modus wurde von pre 76.xx Treibern GAR NICHT ANGENOMMEN, jetzt wird er wenigstens schon angenommen, auch wenn er noch falsch dargestellt wird. Ich wette, daß im Mai Treiber kommen wo 2304x1440 @ SLI funken wird- und dann gibts fette screenshots von mir :D:D

p.p.s.: aber trotzdem danke für die Mühe.... machen wir einfach weiter im Mai oder wenn neue betas rauskommen (77er...)

Asmodeus
2005-05-31, 17:41:13
So, endlich ist es soweit. Mit neuen Beta-Treibern (77iger Reihe) funktioniert nun SLI auf den Quadro-Karten so wie es soll (naja, fast :wink: ) und auch in hohen Auflösungen.

Zur Erinnerung, im Single-GPU Betrieb lief Doom3 mit dem 71.85 Treiber mit 6.9 FPS, bei 3840 x 2400. Jetzt läuft es im SLI-Betrieb unter gleicher Auflösung mit 23.6 FPS :D.

Das einzige Manko ist noch, dass OpenGL-Programme auch im Fenstermodus von SLI profitieren, der Fensterrahmen aber noch leicht hoch und runter "hüpft" im AFR Modus, so als würden die Bilder der beiden Grafikkarten nicht immer genau an die selbe Stelle gerendert werden.

Gruss, Carsten.

tombman
2005-05-31, 20:38:18
So, endlich ist es soweit. Mit neuen Beta-Treibern (77iger Reihe) funktioniert nun SLI auf den Quadro-Karten so wie es soll (naja, fast :wink: ) und auch in hohen Auflösungen.

Zur Erinnerung, im Single-GPU Betrieb lief Doom3 mit dem 71.85 Treiber mit 6.9 FPS, bei 3840 x 2400. Jetzt läuft es im SLI-Betrieb unter gleicher Auflösung mit 23.6 FPS :D.

Das einzige Manko ist noch, dass OpenGL-Programme auch im Fenstermodus von SLI profitieren, der Fensterrahmen aber noch leicht hoch und runter "hüpft" im AFR Modus, so als würden die Bilder der beiden Grafikkarten nicht immer genau an die selbe Stelle gerendert werden.

Gruss, Carsten.

OMG... wurde aber auch Zeit.

Ich wette, die hohen Auflösungen werden dann auch mit der normalen Karten gehen ;)

Aber woher hast du die 77er? HER DAMIT! :D

Asmodeus
2005-06-01, 07:02:28
OMG... wurde aber auch Zeit.

Ich wette, die hohen Auflösungen werden dann auch mit der normalen Karten gehen ;)

Aber woher hast du die 77er? HER DAMIT! :D

Pssst, die gibts leider erstmal nur für "treue Nvidia Kunden." :wink:
Außerdem ist der Treiber wie es scheint ein reiner Quadrotreiber.

Gruss, Carsten.

SKYNET
2005-06-01, 11:09:23
Pssst, die gibts leider erstmal nur für "treue Nvidia Kunden." :wink:
Außerdem ist der Treiber wie es scheint ein reiner Quadrotreiber.

Gruss, Carsten.


dann kannste ihn ja mir geben. ;)

Fatality
2005-06-01, 12:39:49
@ tombman

du musst jetzt deine signatur ändern

"an alternative to sli? there is mvp! " ;)

Gast
2005-06-01, 16:01:50
@ tombman

du musst jetzt deine signatur ändern

"an alternative to sli? there is mvp! " ;)

Warum? Der G70 kommt. :D

tombman
2005-06-01, 23:10:03
@ tombman

du musst jetzt deine signatur ändern

"an alternative to sli? there is mvp! " ;)

Nö, denn

1.) SLi steht nicht direkt für Nvidia allein, sondern generell für dual Karten, egal welche Namen die jetzt haben-> und SLI kennt nun mal jeder seit V2SLI.

2.) Crossfire ist keine Alternative, da kein SM 3.0 und maximal 2x SSAA (derzeit)

3.) G70 ;)

tombman
2005-06-01, 23:11:20
Pssst, die gibts leider erstmal nur für "treue Nvidia Kunden." :wink:
Außerdem ist der Treiber wie es scheint ein reiner Quadrotreiber.

Gruss, Carsten.

Frag mal deinen Nvidiakontakt wann man denn mit der 77er Reihe zum download rechnen darf, leaks inklusive ;)

Spasstiger
2005-06-01, 23:21:10
2.) Crossfire ist keine Alternative, da kein SM 3.0 und maximal 2x SSAA (derzeit)


Dafür ist das 12xS AA bei ATI (bzw. 14x wie ATI es nennt) bei guter Performance nutzbar, wenn man bedenkt, dass 6xMSAA für eine X800 XT kein Problem in aktuellen Spielen darstellt (mal abgesehen von Doom 3 oder Riddick und sehr hohen Auflösungen >1600x1200).
Das 8xS AA von Nvidia liefert theoretisch (und wohl auch praktisch) eine schlechtere Bildqualität als das 12xS AA bei ATI und die besseren AntiAliasing-Modi von Nvidia mit 4xSSAA-Anteil kommen nur bei älteren Spiele in Frage. Somit dürfte ATI wohl wieder die beste AntiAliasing-Qualität bei guter Performance anbieten können.

Und als Antwort auf den G70 kommt ja der R520, der mit Sicherheit auch in einer Crossfire-Version erscheinen wird.

P.S.: Das SSAA aus dem DXTweaker sieht auch nicht schlecht aus ;). Wenn da nur die Auflösungbeschränkung auf 1024x1024 nicht wäre wegen der max. Texturauflösung von nur 2048x2048. Die Performance des SSAA aus dem DXTweaker soll übrigens brauchbar sein, Farcry läuft mit 4xSSAA auf einer X850 XT PE flüssig.

Coda
2005-06-01, 23:25:28
Dafür ist das 12xS AA bei ATI (bzw. 14x wie ATI es nennt) bei guter Performance nutzbar, wenn man bedenkt, dass 6xMSAA für eine X800 XT kein Problem in aktuellen Spielen darstellt (mal abgesehen von Doom 3 oder Riddick und sehr hohen Auflösungen >1600x1200).Was nützt das noch großartig? Selbst 4xMSAA ist ausreichend in 1600, was wir brauchen ist mehr Supersampling...

Spasstiger
2005-06-02, 00:05:45
Was nützt das noch großartig? Selbst 4xMSAA ist ausreichend in 1600, was wir brauchen ist mehr Supersampling...

Öhm, das 12xS AA von ATI (bzw. 14xS AA) hat einen Supersampling-Anteil.

Coda
2005-06-02, 00:10:07
Ja 2x, ganz toll. Ich will mindestens 2x2...
Vor allem bei nem SLI Setup ist das eine der naheliegendsten Anwendungen.

Da wird immer von 2x6 gesprochen ohne viel Performanceverlust. Was ein Quark, das braucht ja wohl massivst Performance (50% fürs SS + der Verlust durch's MSAA)

DrumDub
2005-06-02, 00:53:31
Da wird immer von 2x6 gesprochen ohne viel Performanceverlust. Was ein Quark, das braucht ja wohl massivst Performance (50% fürs SS + der Verlust durch's MSAA) es ist (fast) immer noch so schnell wie 6xmsaa auf einer karte.

Grestorn
2005-06-02, 07:32:03
es ist (fast) immer noch so schnell wie 6xmsaa auf einer karte.Klar.

8xS (2x1 SS + 4xMS) ist auf einem SLI System ebenfalls in etwa genau so schnell wie 4xMS auf einem Single-GPU System. Wo ist da also der Unterschied?

ATI versteht sich sehr gut auf Marketing! "Supersampling for free". Haha. :)

Dennoch muss ich sagen, dass ich die Lösung für recht gelungen halte. Insbesondere, da ich mir gut vorstellen kann, dass diese Super-AA Geschichte bei deutlich mehr Spielen funktioniert, wie alle anderen Multi-GPU Modi

Asmodeus
2005-06-02, 07:41:05
Frag mal deinen Nvidiakontakt wann man denn mit der 77er Reihe zum download rechnen darf, leaks inklusive ;)

Naja, der jetzt Ende Mai erschienene Betatreiber sollte eigentlich mal eher Ende April schon erscheinen und der finale dann eigentlich so im Juni. Nun hat sich das ganze wie Du siehst eher nach hinten verschoben. Die Aussagen bezüglich Treiberrelease kann man also eh nur als groben Richtwert ansehen.

Vor kurzem hat mir dann mal jemand von Barco erzählt, dass bis zur Siggraph erstmal nur ein Linuxtreiber zur Verfügung stehen wird, der die 4 Schirm-Ausgabe nutzen kann. Und beim Windows-Treiber soll dieser Aspekt aber noch etwas mehr Zeit in Anspruch nehmen.

Und da ist nun die Frage, ob es vorher für Quadrokarten unter Windows noch einen neuen Treiber geben wird, oder erst, wenn dieses Feature implementiert ist.

Naja, und zu geleakten Treibern bekomme ich von Nvidia wohl eher keine Auskunft. :wink:

Und dann ist sowieso immer die Frage, ob diese ganzen zusätzlichen Features nicht eh nur den Quadrokarten zur Verfügung stehen (oder hast Du bei Deiner Grafikkarte schon mal im Treiber das Einstellungsmenü für "Desktop Overlap and Edge Blending" für den gleichzeitigen Anschluss mehrerer Beamer aufrufen können :wink: ).

Gruss, Carsten.

Spasstiger
2005-06-02, 09:17:22
8xS (2x1 SS + 4xMS) ist auf einem SLI System ebenfalls in etwa genau so schnell wie 4xMS auf einem Single-GPU System. Wo ist da also der Unterschied?


Der Unterschied ist, das 12xS AA die bessere Bildqualität liefert ;). Die höheren Modi bei Nvidia mit 3x-4xSSAA-Anteil (höhere Modi mit 2xSSAA als 8xS sind bei Nvidia ja nicht möglich) brechen in aktuellen Spielen zu stark ein, auch mit SLI. Ich wage mal zu bezweifeln, dass Farcry z.b. mit 12xS oder 16xS AA (Performanceeinbrüche rund 70% jeweils) noch flüssig laufen würde mit einem SLI-System in 1280x960 oder höher. Und somit dürfte ATI den in aktuellen Spielen praktisch nutzbaren AntiAliasing-Modus mit der höchsten Qualität liefern.

Grestorn
2005-06-02, 09:50:16
Der Unterschied ist, das 12xS AA die bessere Bildqualität liefert ;).
Tut es das? In etwa so viel mehr, wie 6x gegenüber 4x auf ATI bringt. Also praktisch nichts.

Die höheren Modi bei Nvidia mit 3x-4xSSAA-Anteil (höhere Modi mit 2xSSAA als 8xS sind bei Nvidia ja nicht möglich) brechen in aktuellen Spielen zu stark ein, auch mit SLI.
Ach, tun sie das? Du musst es ja wissen... Sicher, es gibt Spiele, die man nicht mit SS spielen kann. Aber es sind weit mehr bei denen es geht, weit mehr als Du denkst.

3x SS gibt es nicht. Es gibt 1x2, 2x1, 2x2 und 4x4. Und einige Hybridmodi. Die meisten Modi findest Du im Vergleich hier (www.nhancer.com/help/AAPres.htm).

Ich wage mal zu bezweifeln, dass Farcry z.b. mit 12xS oder 16xS AA (Performanceeinbrüche rund 70% jeweils) noch flüssig laufen würde mit einem SLI-System in 1280x960 oder höher. Und somit dürfte ATI den in aktuellen Spielen praktisch nutzbaren AntiAliasing-Modus mit der höchsten Qualität liefern.
Wenn man AF auf 4x reduziert (was bei 2x2 SS kein Nachteil ist) ist das auf einem SLI System gerade noch in 16xS spielbar.

Nochmal: Die Idee von ATI mit dem Super-AA ist gut. Das 6x MS bringt aber wenig gegenüber 4x MS, das war schon immer so, und wird nicht dadurch anders, dass man einen 2xSS Anteil hinzupackt. M.E. ist also der 8x Modus mit dem 12x Modus von der Qualität her praktisch identisch.

Coda
2005-06-02, 10:06:35
Und somit dürfte ATI den in aktuellen Spielen praktisch nutzbaren AntiAliasing-Modus mit der höchsten Qualität liefern.Was will ich denn in 1600+ mit >6xMSAA? Da sieht man eh nur mit der Lupe nen Unterschied.

Was man braucht ist mehr Supersampling und da ist der 2xRG nicht gerade befriedigend. 16xS wird wohl die bessere Bildqualität bieten als alle ATi Modi und das ist noch gut verwendbar in den meisten Spielen mit SLi.

BlackArchon
2005-06-02, 11:56:21
Wobei es aber mit 16xAA ein Problem zu geben scheint: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=225356

Coda
2005-06-02, 11:59:08
Das bezieht sich doch auf den 4x4 SS Modus.

robbitop
2005-06-02, 12:14:52
Für die Kantenglättung ist 4xRGMS eigentlich schon recht nett. Durch SSAA werden die Subpixel eh vervielfältigt, was ein sehr gutes EER bringt. Allerdings ist der OGSS Anteil für Texturen, AT und Moire oft sogar besser geeignet als RGSS. Bei 2x2 OGSS hat man dann eine recht gute glättung von AT und durch das 4x vervielfältigte 4xRGMS ein sehr gutes EER.
Sicher ist das 12x sparse MS von ATI vom EER höher, aber den Unterschied sucht man mit der Lupe. Hingegen die Möglichkeit AT/Moiré/Texturen zu glätten ist bei NV deutlich besser.

tombman
2005-06-05, 07:39:26
@Asmodeus:

welchen beta Treiber hast du da verwendet?

Weil mit dem 77.13, der jetzt geleaked wurde, bekomm ich immer noch kein SLi >1920x1200...

Oder Nvidia meint das ernst mit der Beschränlung auf quadro Karten? :(

Asmodeus
2005-06-06, 07:54:48
@Asmodeus:

welchen beta Treiber hast du da verwendet?

Weil mit dem 77.13, der jetzt geleaked wurde, bekomm ich immer noch kein SLi >1920x1200...

Oder Nvidia meint das ernst mit der Beschränlung auf quadro Karten? :(

Jepp, ist der 77.13. Und ich denke, so kam es in den Gesprächen mit den Nvidia Leuten auch immer rüber, dass es Nvidia schon Ernst mit der Beschränkung meint. Und wie ja auch schon besprochen, wird diese Beschränkung wohl über die unterschiedliche Taktung der Bridge laufen.

Gruss, Carsten.

tombman
2005-06-07, 09:16:25
OMG!!!

2304x1440 in 60hz geht plötzlich!!!!!

Tjo, damit dürfte bewiesen sein, daß es um den bridge Takt geht :(

Aber wenigstens kann ich die res jetzt benchen :D

robbitop
2005-06-07, 09:26:54
Aber wenigstens kann ich die res jetzt benchen :D
Nicht spielen? ;) (ich weiß ich weiß ...mit 60Hz ist das kein Vergnügen)

tombman
2005-09-04, 21:16:11
..und wir graben tieeeeeeef :D

UPDATE: 2304x1440 @ 70Hz möglich mit 78.03 und SLI

Na vielleicht kommen wir ja irgendwann mal auf 75hz oder 80hz, mehr kann dann mein FW900 eh nimmer. Aber wenigstens kann man jetzt schon spielen damit, 70hz ist grenzwertig :cool:

Sailor Moon
2005-09-04, 21:49:48
Das war mit der 7800GTX auch abzusehen. Per DVI gehen ja mit der GTX auch 2560x1600 mit zwei Karten. Da hat nVidia dann einfach mal die Hausaufgaben gemacht.

Gruß

Denis

tombman
2005-09-04, 22:23:19
Das war mit der 7800GTX auch abzusehen. Per DVI gehen ja mit der GTX auch 2560x1600 mit zwei Karten. Da hat nVidia dann einfach mal die Hausaufgaben gemacht.

Gruß

Denis

Hmm, wenn du schreibst DVI, dann ist das sicher TFT @ 60hz, es ging aber um Werte ÜBER 60hz und SLI. Es ist zwar besser aber noch ned ganz da wo ich hinwill, nämlich 75hz.

Und den Nvidia-Schmäh mit der Bandbreite der bridge werd ich nie glauben ;)

Coda
2005-09-04, 22:24:56
Vielleicht wurde die bei der GeForce 7 ja erhöht? Gut möglich wär's.

Sailor Moon
2005-09-04, 22:26:44
Hmm, wenn du schreibst DVI, dann ist das sicher TFT @ 60hz, es ging aber um Werte ÜBER 60hz und SLI. Es ist zwar besser aber noch ned ganz da wo ich hinwill, nämlich 75hz.
Das ändert ja aber nix am gewaltigen Bandbreitenbedarf auch @60Hz. Das war ja eines der zentralen Probleme mit den 6800ern (ganz davon abgesehen, dass sie kein DL DVI hatten). Hier hätte eine Limitierung der Bridge genauso reingespielt.

Gruß

Denis

Gast
2005-09-05, 18:38:14
@grestorn :

Bitte benutze dich doch nicht selbst als referenz !


>>Die meisten Modi findest Du im Vergleich hier.

Das ist ja wie wenn George Bush meint er wärte der beste Präsident und nennt "www.whitehouse.gov" als Quelle


Thx

Grestorn
2005-09-05, 18:55:44
@grestorn :

Bitte benutze dich doch nicht selbst als referenz !


>>Die meisten Modi findest Du im Vergleich hier.

Das ist ja wie wenn George Bush meint er wärte der beste Präsident und nennt "www.whitehouse.gov" als Quelle Was für ein Problem hast Du denn, auf ein 3 Monate altes Posting von mir zu flamen?

Und bezweifelst Du die Echtheit der Shots auf www.nhancer.com ? Denn das muss ich auch Deinem merkwürdigen Satz mit G. Bush irgendwie schließen.

Dabei will ich mit den Shots gar nichts beweisen sondern ledilich die Unterschiede der diversen Modi demonstrieren.

Aber wenn ich schlauer wäre würde ich gar nix hierzu schreiben. Denn wie heißt es? Don't feed the trolls. :)

Gouvernator
2005-09-21, 11:10:48
geht 32xAA mit 7800GTX@quadro karten ? http://www.nvidia.com/object/IO_24361.html

zeljko
2005-11-10, 11:22:33
Hallo zusammen,

zur einem herzliches Beileid an tombman es ist schreklich wie oft ein technischer Post in einem "meinungs" Post umgewandelt wird.

Die Frage die ich hab ist das ich den 30"" Zoll Apple TFT hab und er mit der DELL 6800GTO wunderbar bei 2560x1600 funktioniert. Also Dual Link DVI

Ich habe mir jetzt noch eine 6800GTO gekauft um SLI anzuschmeissen um mehr FPS zu bekommen.

Leider funzt das SLI nur mit 1600*800 die nächst höhere Auflösung ist 2560*1600 und da wirds lustig, das Bild flackert aber horinzontal und bringt fehlfarben.

Wie gesagt eine Auflöung tiefer alles bestens. (das Spiel war übrigens WOW)

hat es einer hier hinbekommen mit zwei GTO ein SLI System aufzubauen??
Bei 2560x1600

Gruß Zeljko

PS:Bitte jetzt nicht wieder anfangen mit wozu, wer braucht das, wie hoch ist die stromrechnung oder ähnliches. Hast du nix sachliches direkt zu dem Thema fresse halten, offtopic besuchen.

Sailor Moon
2005-11-10, 19:32:08
Schwierig. Ich habe das 30" eine Zeit auch mit einer GTO betrieben. DELL selbst hat SLI für die GTO nicht freigegeben. Im amerikanischen Apple Support Forum habe ich allerdings gelesen, dass es wohl auch mal mit 2 GTOs @2560x1600 geklappt hat.
Zurzeit betreibe ich mein 30" mit einer 7800GTX. Performancesprung war in den meisten Spielen gut 100% in 2560x1600. Würde dir daher eher raten, in Richtung GTX umzuschwenken. Leider hast du ja schon eine zweite GTO gekauft.
Die GT/GTX Karten haben in jedem Fall einen DL DVI Port. Allerdings kommt es in DirectX9 Games in 2560x1600 zu sporadischen Bildfehlern (kein Defekt des TFTs/ Grafikkarte, bin auch nicht der einzige gewesen, der das Problem hat), mit 1:1 Darstellung bei 2552x1595 kann man sich aber gut behelfen; hier treten die Probleme nicht auf. Denke mal, dass eine DDC Information falsch umgesetzt wird.

Gruß

Denis

zeljko
2005-11-10, 21:52:38
hast du die Adresse was das Apple Forum angeht?
auf apple.com Support konnte ich nichts finden

ach ja die Fehler was die GTX angeht finde ich nicht akzeptabel bei einer Karte die mit dual link beworben wird und um die 500€ kostet, schon ein Hammer was sich da NVIDIA leistet

wie sieht's mit der Konkurenz ATI aus, hast du da schon was gehört, duallink könne wohl alle mit avivo also die x1300 usw. ?
Gibt's da Schwirigkeiten oder ähnliches wie bei NVIDA?

Sailor Moon
2005-11-10, 22:44:18
Der Workaround funktioniert hervorragend; und 2552x1595 kannst du nicht von 2560x1600 unterscheiden, da fehlen ja gerade 4 Pixelspalten links und rechts und 2 oben bzw. 3 unten. Ist auch die Frage, wo der Fehler genau liegt. Ich denke, dass da wie gesagt eine DDC Information etwas falsch ausgelesen wird. Könnte man die 2560x1600 noch als Customauflösung hinzufügen, würde es wahrscheinlich gehen. Hab da aber wenig Energie reingesteckt, weil mit die 2552x1595 mehr als reichen. Ein Hammer ist es weniger, immerhin hat nVidia hier DualLink DVI implementiert und bietet Interpolationsoptionen im Treiber. Bei ATI sucht man letzteres vergebens. Und deshalb würde mir auch DL DVI bei einer ATI nichts bringen. Der Performancesprung in den hohen Auflösungen von der GTO war auf jeden Fall gewaltig. Die 100% können sich sehen lassen.

Zum Support-Forum:
http://discussions.info.apple.com/

Gruß

Denis

zeljko
2005-11-11, 10:57:59
na ja die "Gto" bei mir ist jetzt eine "Ultra"
pixelpipe. und vertex. sind alle freigeschaltet und die Karte selbst läuft mit ultra werten 400/1100