PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SLI und Crossfire unter D3D10: Bessere Chancen für den MainstreamMarkt ?


Nightspider
2006-10-31, 00:59:26
Sicherlich ging es jedem von uns in diesem Forun schonmal so, über die Vor-und Nachteile eines Multi-GPU Systems nachzudenken.
Wir schreiten mit großen Schritten, Richtung 2007 und in der Realität erreichen wir mit SLI oder Crossfire nie zufriedenstellende Ergebnisse.

Einige Spiele, da sei F.E.A.R. genannt, schlagen gar über 90% Mehrleistung durch eine 2. Karte heraus. Doch der Großteil der Spiele profitiert gering und dann auch nur in hohen Auflösungen und Bildqualitätsmodi von SLI oder Crossfire. Bei 4 Grafikchips, wie der Quad-SLI Lösung von Nvidia, können Spiele kaum noch davon profitieren.

Doch die Zukunft ist Richtungsweisend, auf Multicores ausgelegt. Im CPU-Sektor wurde es bereits vorgemacht: Stromspartechniken und Effizientere Leistung, bei gutem Verbrauch.

Zwischen 2007 und 2008 wird es dann auch im Grafiksektor soweit sein. Die ersten Dualcore-GPUs werden auf den Markt kommen, also müssen die Programme dementsprechend angepasst werden.

SLI und Crossfire PCs würden daraufhin viel effizienter arbeiten können, da die Programme sowieso auf Multicores ausgelegt sind.

Mich interessiert nun, inwieweit sich meine Prognosen realisieren lassen und welche Rolle D3D10 dabei spielt.

In einigen anderen Threads wurde das Pre-Renderlimit angesprochen, welches zu Laggs führen kann, wenn zB. unter Quad-SLI 3 Bilder im Vorraus berechnet werden müssen. Was hat es damit auf sich ? Wie kann D3D10 das Problem beseitigen ?

Zudem wollte ich noch fragen, ob eine Liste von Spielen existiert, welche die Mehrperformance unter SLI und Crossfire angibt, damit sich neben mir, auch andere potentielle Käufer ein Bild davon machen können, ob sich ein Multi-GPU-System lohnt.

Mfg, Nightspider

HisN
2006-10-31, 01:19:10
Solange der "Mainstream-Markt" 1280 als Bildschirmauflösung fährt und die meisten Single-GPUs durchaus in der Lage sind diese Auflösung und Performance-Probleme zu bedienen wird sich SLI im Mainstreammarkt nicht durchsetzen.. das lässt sich meines Erachtens durchaus so in die Zukunft übertragen.

Die meisten neuen Games die zur Zeit herausgebracht werden sind stark CPU-Limitiert und nicht GPU-Limitiert. SLI/Crossfire wird nen Nischenmarkt bleiben für die Leute die auf grossen Displays spielen wollen für die die Leistung von Single-GPUs nicht ausreicht.

Ich hab ne Zeitlang in ner PC-Bude geschraubt. 99% der Rechner waren billig und billigst. Anspruchsvolle Highend-Systeme machen einen winzigen Bruchteil von der täglichen Produktion. Denke das wird auch so bleiben, und da jeder Core extrem viel Geld im Gegensatz zum Rest des Systems kostet wird sich auch hier SLI nicht durchsetzen denke ich.
Dieses Mulit-CPU-Zeugs wird auch nur mit Macht von den Chip-Größen durch den Markt gedrückt weil sich über MegaHerz nix mehr verkaufen lässt, bzw dort eine Grenze erreicht ist und man seine Hardware ja über "Features" verkauft. Welche Anwendungen Profitieren denn schon von Multicores in der täglichen Arbeit? Jeder Office-Rechner ist mit einem Multicore schon total überpowert.. überall das gleiche Bild :-) Hoffe die SLI-Sachen entwickelt sich nicht auch in diese Richtung, aber solange die GPUs noch eine mehrfache Menge Silizium im Gegensatz zu CPUs brauchen ist wohl dort noch die MHZ bzw Feature-Zahl Verkaufsargument. Sobald das ausgereizt ist wäre es durchaus möglich das Multi-GPU genau so wie Multicores als "Feature" und "Must have" verkauft werden, auch wenn die Leistungssteigerung genau so erbärmlich bzw Anwendungsbedingt wie bei den Multicores ist.

=Floi=
2006-10-31, 02:01:13
nein SLI und multi cpu bleiben nischen produkte
bis zu einem gewissen grad werden die chips wie aus dem baukasten zusammengebaut aber es ist auf jedenfall günstiger einen chip für jede klasse zu bauen als die anzahl derer zu verdoppeln ala voodoo 3500 5500 6000

Gast
2006-10-31, 08:07:40
Zwischen 2007 und 2008 wird es dann auch im Grafiksektor soweit sein. Die ersten Dualcore-GPUs werden auf den Markt kommen,GPUs sind schon lange Zeit quasi "Multicores".

Nightspider
2006-10-31, 11:58:54
GPUs sind schon lange Zeit quasi "Multicores".

Quasi. Aber auch nur Quasi. Ein ATI Mitarbeiter sprach davon, dass die Nachfolgegeneration, wahrscheinlich die nach dem R600 (Refreshs nicht mit einbezogen) auch den Weg von CPUs gehen werden, um Strom zu sparen und effizienter zu arbeiten.


Das die Mehrheit der PC Nutzer einen TFT mit 1280 betreiben, spricht trotzdem nicht gegen SLI oder Crossfire.
1. Gibt es Spiele, die Locker eine High End Grafikkarten ausreitzen.
2. Wäre es für die Leute am meisten interessant, die eine Mainstream Karte kaufen und später einen Nachkaufen könnten.

Und genau darauf bezieh ich ich mit meinen Fragen. Ich gehe gar nicht vom HighEnd Markt aus. Viele Nutzer würde sich ein paar Monate, nach dem Kauf einer P/L Karte eine 2. hinzukaufen, wäre da nicht das Problem, dass man in den meisten Spielen, kaum Mehrleistung hat.
Eine 2. Karte wäre Preis-/Leistungstechnisch, total daneben. Klar, wer nur Spiele wie F.E.A.R. spielen will, die extrem von einer 2. Karte profitieren, könnten sich ohne schlechtes Gewissen eine 2.Karte kaufen.

Doch der Otto-Normaluser rüstet wenn dann gleich von einer älteren Karte, auf eine neue schnelle auf, da sich eine 2. "alte" nicht lohnt !

Und jetzt interessiert mich halt, wie D3D10 unter Vista, die Leistung von 2 und mehr Karten beeinflussen kann.

drmaniac
2006-10-31, 12:10:48
das alles stürzt schon an der Aussage

"da die Programme sowieso auf Multicores ausgelegt sind."

zusammen.

Die Programmierer wissen jetzt noch nicht genau, wie sie am besten Multithreated für Dualcore schreiben sollen, von Multicore mal abgesehen, das sind umfassende Änderungen die in allen Gliedern der Kette durchdacht und umgesetzt werden müssen (von den Entwicklungstools bis zur eigentlichen Software). Ich finde den Artikel gerade nicht, aber laut Aussagen ist das alles noch zig Jahre von echten Ergebnissen entfernt.

Nightspider
2006-10-31, 12:30:38
Wurde bei der Vorstellung von SLI nicht gesagt, dass jedes Spiel davon profitieren wird ? Schon aber zum Teil im 1-stelligen Bereich. Nvidia und ATI müssen die Treiber verbessern. Und wenn die Spiele Entwickler mithalten wollen, müssen sie früher oder später bessere Unterstützung für mehr als 1ne Karte bieten müssen. Spätestens, wenn in ein paar Jahren wirklich multi GPU Karten auf den Markt kommen oder richtige Dualcore GPUs oder so.

HisN
2006-10-31, 15:21:21
Gabs da nicht mal größere Artikel dazu, dass sich der Spiele-Code nicht einfach so parallelisieren lässt, da ein Spiel meistens aus Reaktionen auf eine Aktion des Users bestehen? Schmatz ab Deine Traumwelt :-)

Dunkeltier
2006-10-31, 16:29:10
nein SLI und multi cpu bleiben nischen produkte
bis zu einem gewissen grad werden die chips wie aus dem baukasten zusammengebaut aber es ist auf jedenfall günstiger einen chip für jede klasse zu bauen als die anzahl derer zu verdoppeln ala voodoo 3500 5500 6000

Auf der Voodoo² 3500 saß kein VSA-100 bzw VSA-101, folglich ließ sich hier nichts "verdoppeln". Du meinst wohl eher die 4500er.

Coda
2006-10-31, 16:41:12
-

Coda
2006-10-31, 16:42:24
Quasi. Aber auch nur Quasi

Nein nicht Quasi. Es sind in der Tat Multicores. Eine GeForce 7 hat z.B. 6 identische Pixel- und 8 identisch Vertexprozessoren.

Single-Die-Multicore ist für GPUs absolut unsinnig. Wenn dann mehrere Dies um irgendwie Kosten zu sparen - dafür würde aber wieder das Packaging viel teurer (vor allem wenn beide dann auch noch seperate Speicherinterfaces haben sollen).

Ich glaube nicht daran.

Auf der Voodoo² 3500 saß kein VSA-100 bzw VSA-101, folglich ließ sich hier nichts "verdoppeln". Du meinst wohl eher die 4500er.

Ist denn sicher, dass die V³ nicht auch SLI-fähig gewesen wäre? Ich meine alle anderen Chips von 3Dfx sind es ja...

Gast
2006-10-31, 16:53:17
Wurde bei der Vorstellung von SLI nicht gesagt, dass jedes Spiel davon profitieren wird ?Wenn man nicht CPU-limitiert ist, profitiert praktisch jedes Spiel von SLI und das auch ganz ordentlich. Out-of-the-box ist das natürlich nicht immer der Fall, aber wenn man sich ein wenig mit den Profilen und dem Nhancer auseinandersetzt, erzielt man fast immer sehr gute Ergebnisse
Nein nicht Quasi. Es sind in der Tat Multicores. Eine GeForce 7 hat z.B. 6 identische Pixel- und 8 identisch Vertexprozessoren.Richtig.
Ist denn sicher, dass die V³ nicht auch SLI-fähig gewesen wäre? Ich meine alle anderen Chips von 3Dfx sind es ja...Auch richtig. Die Chips waren definitiv SLI-fähig, nur gab es entsprechende Produkte nicht im Consumermarkt.

Gast
2006-10-31, 16:56:51
Übrigens läuft der Einsatz von Multi-GPU-Systemen für den Spieleentwickler vollkommen transparent ab. Er muss SLI/CF in keinster Weise berücksichtigen und der Multi-GPU-Betrieb funktioniert trotzdem. Das ist hier "ein wenig anders" als bei mehreren CPUs...

J0ph33
2006-10-31, 16:58:34
alle 3dfx-chips sind SLI-fähig, zur anwendung kam es allerdings beim ottonormal-verbraucher ledigliche bei der voodoo² und beim VSA100...

jedoch hat quantum3d mal ein karte mit 4*Voodoo3 gefertigt, der name ist mir leider entfallen...

Botcruscher
2006-10-31, 17:00:09
Die meisten neuen Games die zur Zeit herausgebracht werden sind stark CPU-Limitiert und nicht GPU-Limitiert.

Die Anzahl der CPU limitierten Spiele kann ich mir an der Hand abzählen. Selbst Gothic 3 und Oblivien schreien nur nach massig RAM wärend die CPU-Leistung im nichts verpuft. Schon ab 1200x1024 +4AA+16AF sind weit über 90% der Spiele nur noch Grakalimitiert. Wenn unsere Helden hier nicht nur 640x480 benchen würden könnte man das auch super sehen.


Die Zeiten der CPUlimitierung sind schon lange entgültig vorbei, wenn man mal von Physikspielereien absieht. Was man heute brauch ist viel RAM und eine dicke GraKa. Die Hauptbremse sind eh die Festplatten.

Gast
2006-10-31, 17:03:41
Die Hauptbremse sind eh die Festplatten.Nö, eigentlich nicht. Sobald die Daten einmal im Arbeitsspeicher sind, hat die Festplatte gar nichts mehr zu melden. Die Festplattengeschwindigkeit hat höchstens Einfluss auf die Ladezeiten, für die ingame-Performance ist sie relativ unwichtig. Du redest doch von Spielen, oder? In manch anderen Anwendungen ist die Festplattenperformance durchaus wichtig, klar, aber dein Posting sah mir sehr spielebezogen aus.

HisN
2006-10-31, 17:09:33
Öh.. ich hab letztens mal 7 Demos aktueller Spiele einem Stoppuhr-Test unterzogen. Fazit bei mir. Der Festplatten-Unterbau ist total egal. Ob Single, Raid1, Raid0 oder I-Ram ... Level/Game-Ladenzeiten haben sich praktisch nicht geändert. Festplatten limitieren schon lange nicht mehr.

Botcruscher
2006-10-31, 17:12:10
In Verbindung mit Streaming tun sie es. Wenn das Spiel natürlich zu 100pro in den RAM past merkt man nix.

Gast
2006-10-31, 17:22:44
In Verbindung mit Streaming tun sie es.Ich weiß, Äpfel/Birnen und so, aber bei der PS2 wird sogar von der DVD gestreamt und das klappt soweit ganz gut.

Nightspider
2006-10-31, 23:49:49
Mensch Leute:
http://www.golem.de/0608/47044.html
Da ! Lesen !

Und genau deswegen müssen die Spieleentwickler daraufhin entwicklen, in der Zukunft !

Nein nicht Quasi. Es sind in der Tat Multicores. Eine GeForce 7 hat z.B. 6 identische Pixel- und 8 identisch Vertexprozessoren.

Single-Die-Multicore ist für GPUs absolut unsinnig.

Schon aber nicht in dem Sinne, wie ich das meine. Siehe Oben. Habe hier auch im 3DC von ein paar informierten Leuten gehört, dass man bei GPUs so wie bei CPUs Strom sparen kann. Also geht der Trend auch bei GPUs zu MultiCores. Und nicht in dem Sinne, dass einfach ein paar Shader inzugefügt werden. Denn dann kann die Spannung mit der Zeit reduziert werden und am Schluss kommt eine geringere Leistungsaufnahme, im Gegensatz zu einer einzigen, gleichschnelle GPU heraus.

robbitop@work
2006-11-01, 09:33:53
Ich stimme Coda natülich zu. Multicore bei GPU's ist kontraproduktiv.
Denn das schöne an GPUs (im Gegensatz zu CPUs) ist: man kann die Recheneinheiten beliebig skallieren wobei die Leistung mitskalliert. Das ist eben das Feine an hochparallelen Prozessoren.
Je mehr Leistung wir wollen, desto mehr steigt die Transistoranzahl, da die Einheiten skalliert werden. Linear dazu steigt die Leistungsaufnahme. Nur ein Prozess-Shrink steuert ein wenig dagegen.
Warum skalliert die Leistungsaufnahme im Gegensatz zu CPUs so stark mit dem Transistorcount? Weil im Gegensatz zu einer CPU fast jeder Transistor in einer GPU immer schaltet (übertrieben: sie schalten viel öfter). Die Leistungsdichte ist also viel höher.
Als MultiCore würde ich SLI auf einem Board oder Package ansehen. Das bringt nix. Man hat zwar höchstens die 2x Leistung von einer GPU aber auch dafür die 2x Leistungsaufnahme. Hinzukommt das teurere PCB und Packaging. Aber eigentlich ist es ineffizienter weil:
-viele Redundanzen da sind (z.B. der 2D Kern)
-SLI nicht optimal ist
Mittels SLI/Crossfire kann der eine Chip nicht auf den Framebuffer des anderen zugreifen. Also müssen sie an verschiedenen Bildern arbeiten (das erzeugt Lag und CPU Last) oder sie Teilen das Bild in 2 Hälten (CPU Last bei der Verteilung und nicht immer kompatibel). Außerdem müssen Texturen doppelt vorgehalten werden. Eine Lösung wäre ein sehr breiter Bus zw beiden GPUs, der es erlauben würde auf den FB des anderen zugreifen zu können. Aber einen so breiten Bus kann man nur schwierig realisieren (auch preislich).

Fazit:
-Multi Core bei GPU ist sinnfrei
-bei GPUs bekommt man beinahe linear das an Leistung, was man an Leistungsaufnahme bereit ist auf sich zu nehmen

Lösung der Leistungsaufnahmeprobleme:
auf einen Shrink warten oder ein Midrangeprodukt nehmen

Gast
2006-11-01, 11:07:07
MultiGPU muss aber früher oder später kommen. Irgendwann ist Ende bei den Fertigungsprozessen und dann gehts nurnoch über die Anzahl der Cores; wie derzeit bei den GPUs.
Und ich finds gut, dass nvidia und ATI schon jetzt MultiGPU anbieten. Das gibt allen genug Zeit, sich darauf einzustellen für den Zeitpunkt, wenn diese Technik einfach notwendig wird.

robbitop@work
2006-11-01, 12:20:31
MultiGPU muss aber früher oder später kommen. Irgendwann ist Ende bei den Fertigungsprozessen und dann gehts nurnoch über die Anzahl der Cores; wie derzeit bei den GPUs.
Und ich finds gut, dass nvidia und ATI schon jetzt MultiGPU anbieten. Das gibt allen genug Zeit, sich darauf einzustellen für den Zeitpunkt, wenn diese Technik einfach notwendig wird.
Dank der Shrink's wird immer eine Verdopplung der Leistung bei erhöter Featureanzahl vorhanden sein. Bei derzeitigen Preisen (500 EUR für High End) wird es keine MultiCore Einheiten geben IMO.

Derzeitiges SLI hat o.g. Nachteile. Es läßt sich schlecht skallieren. SLI/CF wird wohl auf lange Zeit den Enthusiasten (>600 EUR) vorbehalten sein bei aktueller Generation.

Gast
2006-11-01, 15:05:30
In einigen anderen Threads wurde das Pre-Renderlimit angesprochen, welches zu Laggs führen kann, wenn zB. unter Quad-SLI 3 Bilder im Vorraus berechnet werden müssen. Was hat es damit auf sich ? Wie kann D3D10 das Problem beseitigen ?D3D10 kann da gar nix machen, das Problem ist prinzipbedingt.
Um den Knackpunkt an AFR mal zu verdeutlichen:
CPU bereitet Bild 1 vor
CPU bereitet Bild 2 vor -> GPU 1 beginnt Bild 1
CPU bereitet Bild 3 vor -> GPU 2 beginnt Bild 2
CPU bereitet Bild 4 vor -> GPU 3 beginnt Bild 3
CPU bereitet Bild 5 vor -> GPU 4 beginnt Bild 4
Im Idealfall ist GPU 1 jetzt mit Bild 1 fertig und kann (nach dem Bufferswap) mit Bild 5 weitermachen, während die CPU schon bei Bild 6 ist. Allerdings ist Bild 1 jetzt erst berechnet, aber noch nicht dargestellt! Damit muss GPU 1 noch bis zum Austausch von Backbuffer und Frontbuffer warten, bei Triplebuffering noch ein Bild länger. Jetzt ist Bild 1 also im Monitor. Wenn dies ein TFT mit Overdrive ist landet es auch dort erst in einem Zwischenpuffer, der nötig ist, damit Overdrive funktionieren kann.
Fassen wir zusammen:
Läuft ein Quad-SLI im Quad-AFR-Modus, so wird Bild 1 im Idealfall (weder CPU noch GPU limitieren und der Rechner hängt an einem CRT, kein Triplebuffering) erst dargestellt, wenn die CPU bereits an Bild 6 rechnet. In einem weniger idealen Fall (CPU und GPU limitieren immer noch nicht, Triplebuffering ist aber aktiv und der Rechner hängt an einem TFT mit Overdrive) ist die CPU bereits mit Bild 8 beschäftigt! Was das bei Multiplayerspielen bedeutet und wie vergleichsweise unwichtig der Ping im Netz dazu wird, das kann sich jeder selbst ausrechnen...

Multi-GPU-Systeme sind dennoch nicht sinnfrei. Es gibt ja noch andere Modi, mit denen man ihre Leistung nutzen kann, nämlich SFR (wo alle GPUs sich quasi wie eine große verhalten, was nicht die Effizienz von AFR erreicht, die relativ zu AFR geringere Bildrate aber mit der gleichen Latenz wie mit einer GPU erreicht) und SLI-AA/CF-Super-AA (was auch keine zusätzliche Latenz erzeugt).

tombman
2006-11-01, 15:13:12
@mods, paßt bitte auf, daß der thread nicht schon wieder in die absolut sinnlose "Diskussion" vom Nutzen von SLI/CF abgleitet, denn das ist nicht das Thema. Zumal (R, Agent Smith ;D) "wir ja schon alle wissen wie es ausgehen wird" :cool:

Falls die Frage im Raum steht welche games von SLI/CF DEUTLICH profitieren: fast alle ;)

HisN
2006-11-01, 16:00:42
@mods, paßt bitte auf, daß der thread nicht schon wieder in die absolut sinnlose "Diskussion" vom Nutzen von SLI/CF abgleitet, denn das ist nicht das Thema. Zumal (R, Agent Smith ;D) "wir ja schon alle wissen wie es ausgehen wird" :cool:

Falls die Frage im Raum steht welche games von SLI/CF DEUTLICH profitieren: fast alle ;)

Sofern man eine Auflösung höher als 1024 fährt .. dort ist der nutzen von SLI/CF gleich NULL. Jetzt stellt sich die Frage .. welche Auflösung fährt der Mainstreammarkt?

AnarchX
2006-11-01, 16:06:00
Ich bin immernoch überzeugt, dass AMD/ATI mit ihrer Aussage nicht zweimal den gleichen Kern meinte - Torrenza on Package/Die...;)

tombman
2006-11-01, 16:18:35
Sofern man eine Auflösung höher als 1024 fährt .. dort ist der nutzen von SLI/CF gleich NULL. Jetzt stellt sich die Frage .. welche Auflösung fährt der Mainstreammarkt?
Der Mainstreammarkt fährt 1280x1024, was bereits eine hohe Auflösung IST, was viele aber ned glauben (wollen).
1280x1024 ist 66% höher (!) als 1024x768, was früher mal sehr beliebt war.
Die mainstream TFTs mit eben dieser Auflösung haben die Leute in eine "GPU-Krise" gestürzt, weil man für diese Auflösung eigentlich eine highend Karte braucht- wurde von vielen einfach nicht bedacht.
Und klar spürt man SLI/CF auch schon DEUTLICH in dieser Auflösung, natürlich immer vorrausgesetzt man spielt games die generell grafiklimitiert sind...

Gast
2006-11-01, 16:53:47
Um den Knackpunkt an AFR mal zu verdeutlichenIn der Praxis ist aber auch bei 4-way-AFR kaum ein Lag zu bemerken.

Und Tombman hat absolut Recht. Wenn man sich ein wenig mit SLI und den Profilen beschäftigt, profitiert praktisch jedes Spiel ordentlich von SLI und das auch in Mainstream-Auflösungen wie 1280x1024, sofern man nicht CPU-limitiert ist.

Gast
2006-11-01, 17:22:44
In der Praxis ist aber auch bei 4-way-AFR kaum ein Lag zu bemerken.Im Singleplayer? In den meisten Genres sicher nicht. Im Multiplayer wirst du trotzdem von wesentlich schlechteren Spielen zerschreddert, weil sie nicht durch AFR behindert werden. Schaltet man halt auf SFR oder SLI-AA/CF-Super-AA, da gibts keinen Zusatzlag.
Und Tombman hat absolut Recht. Wenn man sich ein wenig mit SLI und den Profilen beschäftigt, profitiert praktisch jedes Spiel ordentlich von SLI und das auch in Mainstream-Auflösungen wie 1280x1024, sofern man nicht CPU-limitiert ist.Hey, ich bin doch auch Multi-GPU-Fan, wenn das möglich ist habe ich sogar vor, auf G80-Triple-SLI zu setzen. Nur AFR halte ich für absolute Grütze. Es macht die Grafik zwar flüssiger, die flüssigere Spielbarkeit hat man aber mit SFR, SLI-AA/CF-Super-AA oder einer Einzelkarte.

Gast
2006-11-01, 17:30:55
Im Singleplayer? In den meisten Genres sicher nicht. Im Multiplayer wirst du trotzdem von wesentlich schlechteren Spielen zerschreddert, weil sie nicht durch AFR behindert werden.Ja, ich rede vom Singleplayer-Modus von 3d-Shootern wie Quake4. Da ist ein Lag fast nicht zu bemerken. Allerdings spiele ich nicht online, weiß also nicht ob das in dem Fall eher störend auffällt.

tombman
2006-11-01, 17:37:05
Jo, mit multiplayer ist AFR in der Tat schädigend, aber nur wenn du wirklich kompetitiv spielst, sprich sehr gut bist und gegen gute Leute spielst. Für single player wirst es kaum merken und auch für Gelegenheitshobbymultiplayer ist es nicht dramatisch.

Ich selbst hab ich es nur gemerkt beim Railen gegen Xaero Nichtmare Bot auf DM17 in Quake3, was ich gelegentlich mal mache wenn mir kurz fad ist, wo ich immer dachte "wtf, normal treff ich das...." Es lag einfach am leichten, nennen wirs mal "AFR-Lag".

Fazit: bei 99.99% aller Spieler in 99.99% aller Fälle ist AFR-Lag egal, und wenn man einen recht guten Skill hat spielt man auch mit AFR-Lag immer noch gut genug um sich ned zu blamieren ;)
Als Profispieler oder sehr, nennen wirs mal "ehrgeiziger" Hobbygamer, die ihr Ego drauf aufbauen (;D), sollte man kein AFR wählen ;)

Gast
2006-11-01, 17:44:13
Ja, ich rede vom Singleplayer-Modus von 3d-Shootern wie Quake4. Da ist ein Lag fast nicht zu bemerken. Allerdings spiele ich nicht online, weiß also nicht ob das in dem Fall eher störend auffällt.Dann mach doch einfach mal die Probe aufs Exempel: Schlepp deinen Rechner zu einem Kumpel und zockt eine Runde, wobei du deinen Rechner mit AFR laufen lässt. Dann schalte auf SFR oder SLI-AA um und zockt noch eine Runde. Ohne AFR wirst du wesentlich besser sein, garantiert! Je schneller das Spiel ist, um so größer ist der Unterschied.
@tombman:
War das AFR oder Quad-AFR? Bei Quad-AFR kann ich mir den Effekt nicht anders als desaströs vorstellen.

tombman
2006-11-01, 17:48:31
@tombman:
War das AFR oder Quad-AFR? Bei Quad-AFR kann ich mir den Effekt nicht anders als desaströs vorstellen.
Normales AFR. Quad-AFR hatte ich nie weil ich nie Quad-SLi hatte ;)

Gast
2006-11-01, 18:00:02
Normales AFR. Quad-AFR hatte ich nie weil ich nie Quad-SLi hatte ;)Ja dann... 2fach AFR geht ja noch, zumal gegen Bots. Aber Quad-AFR und dann noch der Ping im Netz oben drauf und am schlimmsten auch noch ein Overdrive-TFT (bist ja vernünfig genug beim CRT zu bleiben (y))... Na gute Nacht, da werden sogar Gosus von Vollnoobs abgezogen.

RavenTS
2006-11-05, 15:21:21
Sofern man eine Auflösung höher als 1024 fährt .. dort ist der nutzen von SLI/CF gleich NULL. Jetzt stellt sich die Frage .. welche Auflösung fährt der Mainstreammarkt?

Was hackt Ihr denn immer so auf dieser Auflösung rum, selbst hier kann man doch dank der vielen Möglichkeiten aktueller GPUs mit massivem AA und AF schnell auch HighEnd-Karten ans Limit bringen.

Generell verstehe ich nicht, was D3D10 für SLI/CF bringen soll, es gibt da doch keinen speziellen SLI/CF-Modus, der irgendwelche Besonderheiten bietet.

Gast
2006-11-05, 16:14:07
Generell verstehe ich nicht, was D3D10 für SLI/CF bringen soll, es gibt da doch keinen speziellen SLI/CF-Modus, der irgendwelche Besonderheiten bietet.

das prerenderlimit wird standardmäßig auf 4 erhöht -> 4xAFR ist möglich.

Gast
2006-11-05, 17:15:42
Ich lass die Finger von den ersten Shader 4 Karten, weil ich einfach noch nicht glauben kann das dieses Produkt schon voll ausgereift ist. Die ersten Refresh Karten sollten eine bessere 3D10 Leistung haben und die Treiber werden wohl in einem Jahr besser sein.

Zum Thema SLI möcht ich noch sagen das ich es mir heute ohne nicht mehr vorstellen könnte, man gewöhnt sich sehr schnell an die Power. Was SLI unter 3D10 bringt wird sich erst zeigen, glaub aber schon das es auch etwas bringt. Von Quad SLI halte ich schon mal gar nichts, weil es nicht die Power bringt die man sich erhofft, wie es ja schon getestet wurde.

RavenTS
2006-11-05, 19:29:58
das prerenderlimit wird standardmäßig auf 4 erhöht -> 4xAFR ist möglich.

Ja aber genau das soll ja nicht unbedingt so toll sein und kann man das Prerenderlimit nicht auf jeder Karte generell erhöhen (erinnere mich da an eine Option im RivaTuner), was hat das nun genau mit D3D10 am Hut.?!

paul.muad.dib
2006-11-05, 22:18:00
Ich denke, dass sich SLI und X-Fire nicht auf dem Mainstream-Makrt durchsetzen werden, weil sie einfach ineffizienter bei den Produktionskosten sind. Man braucht 2 PCBs und die doppelte Menge Ram.

Vorstellen könnte ich mir aber Lösungen, bei denen verschidene Chips eineln produziert werden und dann wie aktuell bei Kentsfield unter einem Die zusammengesetzt werden. Dadurch könnte die Produktionsausbeute gesteigert werden und Entwicklungskosten gespart werden, weil man eben ein Design nur einmal entwickeln muss und dann den gleichen Chips nur eben in unterschiedlicher Anzahl vom Einsteiger bis ins Mainstream Segment verkaufen könnte. Damit wäre auh eine bessere Anpassung an Nachfrageänderungen möglich.

Der Nachteil ist halt, dasss dafür zusätzöiche Steuerlogik benötigt wird. Aber je komplexer die Chips werden, desto weniger sollte das noch ins Gewicht fallen.

svenw
2006-11-06, 11:51:14
SLI/Crossfire werden sich nie im Mainstrem Market durchsetzen. Warum? Es ist schlicht zu teuer! Die Entwickler zielen bei Spielekreationen auf den Massenmarkt und der hat nun mal kein SLI. Somit muß man das Spiel auf "normale" Systeme abstimmen und einfach die Mehrleistung von SLI/Crossfire vernachlässigen. Damit könnte man viele Sachen besser darstellen aber das Verhältnis von (Programmier-) Aufwand und Käufern ist zu schlecht! Mit Crossfire etc läßt sich sicherlich das letzte aus einem Spiel herrauskitzeln, aber dafür haben 95% der Spieler gar nicht das Equipment um es darzustellen. Das fängt schon alleine mit der Suche nach einem großen (>19 Zoll) und spieletauglichen Monitor an. 19' ist Standard und somit muß man eben nur eine 1024er Auflösung darstellen und darauf optimieren.

Das ist Mainstream! Große Monitore + hyper AA etc ist etwas für Enthusiasten und für die ist SLI/Crossfire.

SLI/Crossfire werden erst interessant, wenn sie hohe Steigerungen bringen und es sich lohnt eine Mid- bis Highrange Karte zu kaufen und sich später eine andere dazu zu kaufen. Wenn die beiden denn dann noch gut zusammenspielen (was momentan eher fraglich ist) und dann nicht die CPU alles ausbremst. Wenn ich neue CPU + neues Mainboard + neuer Speicher+ Midrange Karte brauche um möglicherweise gute Effekte von SLI/Crossfire zu haben warte ich noch ein halbes Jahr und hole ich mir gleich einen komplett neuen Rechner.......ohne SLI/Crossfire.

SLI/Crossfire werden eher Karriere machen indem die "alte" Karte im 2ten Slot als Physikbeschleuniger mißbraucht wird anstatt für die Grafikausgabe.

Nightspider
2006-11-07, 21:14:08
Wie gesagt, als Gebrauchtware oder bei bei fast jedem Spiel die doppelte Leistung bei 2 Karten, dann fällt dein hauptargument, des zu teuren Preises weg.