PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was haltet ihr von Dual-GPU-Karten?


Spasstiger
2008-03-05, 10:17:05
Mal eine Umfrage zu Dual-GPU-Karten, insbesondere der GeForce 9800 GX2 und der Radeon HD3870 X2.
Ist eine Dual-GPU-Karte für euch eine Kaufoption, eventuell auch nur unter gewissen Bedingungen?

Meine Meinung:
[x]Ich stehe den Dual-GPU-Karten kritisch gegenüber und würde diese nur kaufen, wenn das Preis-Leistungsverhältnis außergewöhnlich gut ist.

Eine Radeon HD3870 X2 für 250€ oder GeForce 9800 GX2 für 300€ fände ich z.B. durchaus interessant. Die Probleme, vor allem die mit den Mikrorucklern, würde ich dann in Kauf nehmen in Hoffnung auf eine Lösung. Außerdem existieren ja schon Verbesserungsansätze (fps-Limiter) und etwas Tweaking und Frickelei macht mir persönlich auch nichts aus.

Exxtreme
2008-03-05, 10:24:08
[X] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

Malachi
2008-03-05, 10:26:55
Habe seit knapp 2 Wochen die Radeon 3870 X2. Meine Eindrücke habe ich im entspr. Thread schon gepostet.
Der zweite Eindruck war besser als der erste. Wenn man sich in die Materie einarbeitet und Zeit und Lust zum probieren hat, kann man viel Spaß und Leistung haben.
[X] Ich halte die Dual-GPU-Karten für eine Kaufoption, solange sie ...

@Exxtreme: Von welchen gravierenden Nachteilen sprichst Du? Mikroruckler? Stromverbrauch? Daß man angeblich einen Kern nicht deaktivieren kann?

K4mPFwUr$t
2008-03-05, 10:28:55
[X] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

würde es keine mikroruckler, miese skalierung und übertriebene preise geben könnte man drüber nachdenken, aber so ... nein?!

Exxtreme
2008-03-05, 10:32:55
@Exxtreme: Von welchen gravierenden Nachteilen sprichst Du? Mikroruckler? Stromverbrauch? Daß man angeblich einen Kern nicht deaktivieren kann?
Man muss dauernd Treiber aktuell halten, preislich sind sie auch nicht so toll da der RAM etc. doppelt vorgehalten werden muss. Dann kann es passieren, daß die Dualgrafikkarte doch nicht die erwartete Leistung bringt weil Spiel X mal wieder was Unorthodoxes benutzt und man wieder neue Treiber braucht etc. Microruckler sind auch ein Negativpunkt.

Ist mir echt zuviel Hickhack. Dann lieber eine fette Einchip-Lösung.

The_Invisible
2008-03-05, 10:40:28
[x] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

wenn ich zocken will, will ich einfach nur zocken. probleme habe ich auf der arbeit genug, da will ich mir nicht auch noch mit mikroruckler und profilen in der freizeit auseinandersetzen, höchstens AA/AF wird da eingestellt.

mfg

GeneralHanno
2008-03-05, 10:41:36
[X] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

ausnahme: voodoo ;)

Sie sind in meinen Augen nur für eine Sache gut: um sie mit LN2 an die Schmerzgrenze zu OCen und Benchmarks zu machen :P

AnarchX
2008-03-05, 10:47:54
[x] Ich stehe den Dual-GPU-Karten kritisch gegenüber und würde diese nur kaufen, wenn das Preis-Leistungsverhältnis außergewöhnlich gut ist.

Die 7900GX2 war im Sommer 2006 so ein Fall, mit ~350€ lies sie so alles im Punkt Preis-Leistung hinter sich.

Aber generell haftet an den DGPU-Karten doch der Geschmack, dass hier der AIB einfach an RnD sparen will und seine Marge umso mehr steigern will, wie man es momentan an der 9800GX2 sieht, die laut Heise mit enem MSRP von 699€ starten soll bzw. mit deutlich über 500€ bei einigen Distributoren gelistet wird.

Zudem muss bei der 9800GX2 auch der geringe Speicherausbau von effektiven 512MiB bemängelt werden, mit dem so mancher Enthusiast wohl kaum glücklich wird und vom Marketing als 1GiB vermarktet wird, was auch bei der 3870X2 der Fall ist.
Bei einem solchen Preis bei der GX2, sollten doch 2x1GiB kein Problem sein (geizhals.at/deutschland/a301196.html).

Solang keiner der IHVs kein softwareabhängiges MGPU-Konzept bietet, was eine konsistente Performance ermöglicht, so würde ich wie gevotet DGPU mir nur antun, wenn es diese zu einem Schleuderpreis gibt.

ATi sollte also langfristig einiges an RnD investieren, wenn sie wie desöfteren angedeutet alle High-End-Lösungen auf dem DGPU-Konzept aufbauen wollen.

ShadowXX
2008-03-05, 10:57:23
[X] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

Selbst wenn man mir eine schenken würde, würde ich Sie sofort wieder verkaufen....

_flx
2008-03-05, 11:56:38
[x] Ich stehe den Dual-GPU-Karten kritisch gegenüber und würde diese nur kaufen, wenn das Preis-Leistungsverhältnis außergewöhnlich gut ist.

Die 7900GX2 war im Sommer 2006 so ein Fall, mit ~350€ lies sie so alles im Punkt Preis-Leistung hinter sich.

Aber generell haftet an den DGPU-Karten doch der Geschmack, dass hier der AIB einfach an RnD sparen will und seine Marge umso mehr steigern will, wie man es momentan an der 9800GX2 sieht, die laut Heise mit enem MSRP von 699€ starten soll bzw. mit deutlich über 500€ bei einigen Distributoren gelistet wird.

Zudem muss bei der 9800GX2 auch der geringe Speicherausbau von effektiven 512MiB bemängelt werden, mit dem so mancher Enthusiast wohl kaum glücklich wird und vom Marketing als 1GiB vermarktet wird, was auch bei der 3870X2 der Fall ist.
Bei einem solchen Preis bei der GX2, sollten doch 2x1GiB kein Problem sein (geizhals.at/deutschland/a301196.html).

Solang keiner der IHVs kein softwareabhängiges MGPU-Konzept bietet, was eine konsistente Performance ermöglicht, so würde ich wie gevotet DGPU mir nur antun, wenn es diese zu einem Schleuderpreis gibt.

ATi sollte also langfristig einiges an RnD investieren, wenn sie wie desöfteren angedeutet alle High-End-Lösungen auf dem DGPU-Konzept aufbauen wollen.

+1

Sonyfreak
2008-03-05, 12:00:25
[x] Ich würde mir eine Dual-GPU-Karte/ein SLI-System nur dann anschaffen, wenn die Mikroruckler-Problematik behoben wurde.

Da momentan keine Lösung in Sicht ist, kommt mir so ein Teil nicht ins Haus.

mfg.

Sonyfreak

Lyka
2008-03-05, 12:15:43
[x] Ich stehe den Dual-GPU-Karten kritisch gegenüber und würde diese nur kaufen, wenn das Preis-Leistungsverhältnis außergewöhnlich gut ist.

Die 7900GX2 war im Sommer 2006 so ein Fall, mit ~350€ lies sie so alles im Punkt Preis-Leistung hinter sich.

Aber generell haftet an den DGPU-Karten doch der Geschmack, dass hier der AIB einfach an RnD sparen will und seine Marge umso mehr steigern will, wie man es momentan an der 9800GX2 sieht, die laut Heise mit enem MSRP von 699€ starten soll bzw. mit deutlich über 500€ bei einigen Distributoren gelistet wird.

Zudem muss bei der 9800GX2 auch der geringe Speicherausbau von effektiven 512MiB bemängelt werden, mit dem so mancher Enthusiast wohl kaum glücklich wird und vom Marketing als 1GiB vermarktet wird, was auch bei der 3870X2 der Fall ist.
Bei einem solchen Preis bei der GX2, sollten doch 2x1GiB kein Problem sein (geizhals.at/deutschland/a301196.html).

Solang keiner der IHVs kein softwareabhängiges MGPU-Konzept bietet, was eine konsistente Performance ermöglicht, so würde ich wie gevotet DGPU mir nur antun, wenn es diese zu einem Schleuderpreis gibt.

ATi sollte also langfristig einiges an RnD investieren, wenn sie wie desöfteren angedeutet alle High-End-Lösungen auf dem DGPU-Konzept aufbauen wollen.
+1

Bin auch dabei

Botcruscher
2008-03-05, 12:36:58
[x] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.


[x] Verschwendung von Ressourcen um bessere Singelchipkarten zu entwickeln.

robobimbo
2008-03-05, 12:38:11
[X] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

Die Kollegen ober mir haben es schon angescprochen, zuviele wenn und abers...

MadManniMan
2008-03-05, 12:54:39
Ich würd sie mir partout nicht kaufen ... und am schlimmsten ist:

[x] Verschwendung von Ressourcen um bessere Singelchipkarten zu entwickeln.

AnarchX
2008-03-05, 12:57:49
[x] Verschwendung von Ressourcen um bessere Singelchipkarten zu entwickeln.
Das ist eben nicht der Fall.

MadManniMan
2008-03-05, 13:08:44
...was Du wie begründen kannst?

AYAlf
2008-03-05, 13:16:12
[x] ich würde mir keine nvidia x2 lösung kaufen aber eine ati x2 lösung schon.

AnarchX
2008-03-05, 13:16:31
...was Du wie begründen kannst?

Die Wiederverwendung von zwei Performance-Chips für eine High-End-SKU, wo es dann eben nur die vergleichsweise einfachere Entwicklung eines neuen PCB benötigt, spart gerade eben Entwicklungsresourcen, die dann einer kommenden Single-Die-HighEnd-SKU zu gute kommen:

7950GX2 -> 8800 GTX
9800 GX2 -> GT200, dem 3-fache G80GTX-Performance nachgesagt wird.

MGPU-Treiber werden sowieso entwickelt, für SLI und CF als Enthusiasten-Option, sodass dieser Aufwand hier nicht berücksichtigt werden muss.

Für AMD ist es hingegen vorerst der einzige Weg, im HighEnd präsent zu bleiben.

MadManniMan
2008-03-05, 13:27:53
Ich bin mir über all diese Sachen im Klaren - aber dennoch wird überhaupt Geld auf Nicht-Single-GPU-Enwicklungen verschwendet.

Gast
2008-03-05, 13:34:03
Die Wiederverwendung von zwei Performance-Chips für eine High-End-SKU, wo es dann eben nur die vergleichsweise einfachere Entwicklung eines neuen PCB benötigt, spart gerade eben Entwicklungsresourcen, die dann einer kommenden Single-Die-HighEnd-SKU zu gute kommen:
Ich halte es für gewagt anhand der letzten 2 Karten auf eine allgemeine Vorgehensweise zu schließen.


aber dennoch wird überhaupt Geld auf Nicht-Single-GPU-Enwicklungen verschwendet.
Am Ende ist der Aufwand im Vergleich zum Gewinn gering, der Aufwand für eine Single Lösung ist deutlich größer, der Gewinn hingegen nicht.

Ich sehe nur das aufwändigere PCB, der doppelte VRAM als Verschwendung an.

AnarchX
2008-03-05, 13:37:33
Ich bin mir über all diese Sachen im Klaren - aber dennoch wird überhaupt Geld auf Nicht-Single-GPU-Enwicklungen verschwendet.

Naja, halt etwas "verschwenden" für die DGPU-SKU, mit der man für den Durchscnhittuser seine Leistungsfähigkeit präsentieren kann, und mehr Budget für das nachflogende Single-Die-Projekt haben oder mehr in eine Zwischen-Single-Die-Lösung investieren unter der dann das richtige Projekt leidet?

oder anders ausgedrückt

Eine 9800GTX mit 1.5facher 8800GTX-Performance Anfang 2008 und eine "10800GTX" mit knapp über 2facher 88GTX-Performance am Ende oder halt eine 9800GX2 im Q1, die eine sehr schwankenden Leistung von langsamer als die 88GTX bietet bis deutlich mehr als 50% bietet und dann im 3. Quartal eine 10800GTX mit 3-facher 88GTX-Leistung?

Eine High-End-SKU muss NV so oder so in diesem Quartal vorstellen...

Spasstiger
2008-03-05, 13:38:26
Nvidia und AMD/ATI dürften genug Abteilungen haben, um solche Dual-Chip-Lösungen parallel zu entwickeln. Eine Singlechip-Lösung kann eh nicht von einem beliebig großen Team entwickelt werden, da sonst keiner mehr den Überblick hat und die Kommunikation schwierig wird. Viele Köche verderben den Brei heißt es doch so schön.

MadManniMan
2008-03-05, 13:43:06
Jedenfalls würden sich ATi und nV wesentlich eher auf die Belange der richtigen Karten stürzen können, sei es, wie es sei.

ezzemm
2008-03-06, 07:03:28
[X] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

Allein schon daß man unter SLI/CF den zweiten Monitor deaktivieren muß, ist für mich ein no-go.
Den Rest habt ihr ja schon aufgelistet.

mictasm
2008-03-06, 08:08:38
[x] Ich bin zwar ein Freund von Multi-GPU-Lösungen, ziehe aber zwei Einzelkarten vor.

Wobei ich nach den letzten SLI Gespannen (7800GTX, 8800GTX) erst wieder beim G(T)200 aufrüste und da wird es ziemlich wahrscheinlich nur eine Karte werden. Obwohl... man sollte niemals nie sagen...

Gruß,

MIC

Raff
2008-03-07, 21:37:07
[x] zu gravierende Probleme

SLI und Crossfire skalieren nicht 100% von einem auf zwei Chips, sind also (relativ) ineffizient. Hinzu kommt das Mikroruckeln, das ich mittlerweile als Genickbruch für alle Multi-GPU-Verfahren sehe. Ich freue mich auf die Rückkehr meiner V5 6000, denn die macht's auch mit 4 GPUs richtig. ;)

MfG,
Raff

O RLY?
2008-03-07, 21:38:44
[x] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

_DrillSarge]I[
2008-03-07, 21:41:29
[x] Ich würde mir eine Dual-GPU-Karte nur dann kaufen, wenn die Mikroruckler-Problematik behoben wurde.
UND SLI/Crossfire bei fast allen spielen funktionieren würde (damn the profiles ;))

mapel110
2008-03-07, 21:49:18
Ich stehe den Dual-GPU-Karten kritisch gegenüber und würde diese nur kaufen, wenn das Preis-Leistungsverhältnis außergewöhnlich gut ist.
Ich würde mir eine Dual-GPU-Karte nur dann kaufen, wenn die Mikroruckler-Problematik behoben wurde.

Die beiden Optionen kombiniert, also hab ich für "Sonstiges" gevotet.

Dass man nicht immer mehr Leistung bekommt und dass nicht mit 100 % mehr fps gerechnet werden kann, muss sich auch im Preis für mich widerspiegeln.

y33H@
2008-03-07, 21:50:02
[x] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

Mikro-Ruckler, Skalierung, Treiber-Abhängigkeit, P/L-V, Platz- und Strombedarf ...

cYa

Gast
2008-03-07, 21:51:45
Solang keiner der IHVs kein softwareabhängiges MGPU-Konzept bietetBieten die Dual- und Quadcore core CPUs das? sie sind ja auch auf den Kernel angwiesen.

Vielleicht ist einfach nur DirectX zu primitiv? Wie machten das die ganzen Voodoos son wunderbar?

Statt mit der SLI-Brücke die Chips direkt auf dem PCB zu verbinden finde ich extrem primitiv.
Von MultiGPU-Lösungen halte ich zwar viel, genauso wie von Mehrkern-CPUs, würde aber sagen, 2 bis 4 reichen wirklich. WENN es pro weiteren Chip 60% bis 80% mehr Leistung gibt.

Sonst ist das der allerletzte Kappes und schlichte Verarsche.

Paßt nur gut auf. Man wird uns bald die zweite GPU abgespeckt als PhysikUnit verkaufen. Man ist das ein crap :mad:

PatkIllA
2008-03-07, 22:07:49
Vielleicht ist einfach nur DirectX zu primitiv? Wie machten das die ganzen Voodoos son wunderbar?
Da machen einem die Möglichkeiten von aktuellen Karten und APIs einem Strich durch die Rechnung.

vinacis_vivids
2008-03-07, 22:15:39
Ich bin zwar ein Freund von Multi-GPU-Lösungen, ziehe aber zwei Einzelkarten vor.
Ich halte die Dual-GPU-Karten für eine Kaufoption, solange sie nicht viel teurer sind als zwei vergleichbar Einzelkarten.

Spasstiger
2008-03-07, 22:15:53
Vielleicht ist einfach nur DirectX zu primitiv? Wie machten das die ganzen Voodoos son wunderbar?
Die Voodoos verwendeten ausschließlich Split Frame Rendering (SFR), wobei damals jede Zeile abwechselnd von einem anderen Chip berechnet wurde. Auch mit dem heutigen SLI und Crossfire kann man noch teilweise SFR verwenden und Mikroruckler sind dann auch ausgeschlossen. Das Bild wird dabei heute aufgeteilt in z.B. eine obere und eine untere Hälfte.
Neuere Renderverfahren sind allerdings oftmals inkompatibel zu SFR, zumal zeilenweise abwechselndes Rendering mit heutigen GPUs eh nicht möglich ist, die rechnen immer 4*4 Pixel große Blöcke ("Quads") auf einmal. Und einen Frame in große Bereiche aufzuteilen (z.B. oben/unten), ist nicht allzu effizient, da ein Bereich immer schneller fertig gerechnet wird als ein anderer. Beim zeilenweise abwechselnden Rendering waren beide GPUs ungefähr gleich stark ausgelastet.

Man könnte Dual-GPU-Karten mit zusätzlicher Logik aber durchaus fit machen für effizientes SFR, wobei jede GPU z.B. einen anderen 4*4-Block zum Rechnen bekommt. Diese zusätzliche Logik würde auch den RAM (möglichst) redundanzfrei verwalten und die ROPs beinhalten. Es würde halt zusätzliche Kosten bedeuten, sowohl in der Entwicklung als auch in der Fertigung. Und diese Entwicklungskosten sind im Endeffekt noch besser in eine neue Single-GPU-Lösung investiert - zumindest so lange wie die Integrationsdichte bei Halbleiterschaltungen regelmäßig ansteigt.

_DrillSarge]I[
2008-03-07, 22:17:58
Die Voodoos verwendeten ausschließlich Split Frame Rendering (SFR), wobei jede Zeile abwechselnd von einem anderen Chip berechnet wurde. Auch mit dem heutigen SLI und Crossfire kann man noch teilweise SFR verwenden und Mikroruckler sind dann auch ausgeschlossen.
Neuere Renderverfahren sind allerdings oftmals inkompatibel zu SFR, zumal zeilenweise abwechselndes Rendering mit heutigen GPUs eh nicht möglich ist, die rechnen immer 4*4 Pixel große Blöcke auf einmal.
bei ati gibts ja noch super-tiling nur, wie gesagt, ist sfr praktisch tot.
niemand konnte mir einen grund dafür nennen. ist es nur deswegen, weil durch den erhöhten "verwaltungsaufwand" die benchmarkbalken kürzer werden ? :mad:

Gast
2008-03-07, 22:18:42
@PatkIllA
Sag ich doch. Vista ist nix und DX10 ist auch nix. Es lebe Win7 und DX11 ;)

Gast
2008-03-07, 22:36:23
I[;6337356']niemand konnte mir einen grund dafür nennen. ist es nur deswegen, weil durch den erhöhten "verwaltungsaufwand" die benchmarkbalken kürzer werden ? :mad:Ja ja. Jetzt muß sich aber jeder der ohne Vsync/Triplebuff spielt ähnliches fragen.

Ihr steht nicht auf Bildqualität, sondern nur auf Renderqualität. Das sind nun die Folgen.
Keine TripleBuff Verträglichkeit für eine DX10-Konformität und damit öftersmal zwangsweise übles TFT-tearing, kaum gescheite TFTs überhaupt, absolut garkeine annehmbare MultiGPU Lösungen usw usw.
Hauptsache irgendein Treiber untersützt SSSSSSAAAAA.

Genau das tritt jetzt auf was ich mir vor jahren zwischendurch mal dachte, als ich mich darüber noch kaputt gelacht habe. Die V2 und die V5 6000 waren die einzigen großartige Lösung auf dem Markt. Danach kam der Rotgrüne-Mob und trieb sein Schindluder. Bis heute.

Das kann es aber nur, wenn ihr es futtert.

Gast
2008-03-07, 23:47:47
Ihr steht nicht auf Bildqualität, sondern nur auf Renderqualität.
Ich glaub, die meisten Leute, auch und gerade solche mit SLI- oder CF-Systemen, stehen vor allem auf spielbare Frameraten und nehmen dann bei heftigen Szenen, bei denen die Framerate unter 30fps sinkt, lieber Tearing in Kauf...

OBrian
2008-03-08, 20:10:24
[x] Ich finde die Nachteile von Multi-GPU-Lösungen so gravierend, dass ich mir generell keine Dual-GPU-Karte kaufen würde.

Da müßte ich aber ein hoffnungsvolles "noch" reinsetzen. Die Mikrorucklerproblematik ist ja bestimmt lösbar, die Unterstützung möglichst aller Spiele auch machbar. Außerdem tue ich mich schwer damit, 100W+ Karten in meinen Rechner zu bauen, die (unabhängig wie gut sie gekühlt werden) immer den Raum stark aufheizen, was gerade im Sommer unangenehm ist (besonders dann, wenn man durch Fensteröffnen nur noch mehr Wärme in die Bude bekommt).

Wenn es aber in weiterer Zukunft eine Karte gibt, die max. 70-80W unter Vollast verbraucht, unter Idle nur um 10W (bzw. optimalerweise ganz abgeschaltet wird), wo SLI/CF in jedem Spiel funktioniert, die keine Mikroruckler hat — nun, dann hab ich nichts dagegen so ein Ding zu kaufen. Preis/Leistung muß natürlich stimmen, das ist klar.

Rainman2k
2008-03-08, 20:22:38
[X] Ich halte die Dual-GPU-Karten für eine Kaufoption, solange sie nicht viel teurer sind als zwei vergleichbar Einzelkarten.

Weil Dualgpu gut funktioniert, geil skaliert und es im vergleich zu 2 single karten keinen unterschied gibt.

Habe mich etwas damit auseinandergesezt, wenn man dahinter kommt wie, geht es echt gut ab.

Gruss

robbitop
2008-03-10, 12:54:55
Die Voodoos verwendeten ausschließlich Split Frame Rendering (SFR), wobei damals jede Zeile abwechselnd von einem anderen Chip berechnet wurde.
Die letzten Voodoos renderten auch schon Quads. Die Karten renderten also mindestens je 2 zusammengehörige Zeilen.

Das hat damals so toll funktioniert, da die Geometrie eh auf der CPU lief und es keine R2T u.Ä gab.


Man könnte Dual-GPU-Karten mit zusätzlicher Logik aber durchaus fit machen für effizientes SFR, wobei jede GPU z.B. einen anderen 4*4-Block zum Rechnen bekommt.
Also ein Super-Tiling mit feinerer Granularität?
Da du mit Quadbatches renderst, ist das allerdings nicht beste Lösung.


Diese zusätzliche Logik würde auch den RAM (möglichst) redundanzfrei verwalten und die ROPs beinhalten.
Wie stellst du dir das vor? Ohne eine Verbindung zwischen zwei GPUs, die sehr hohe Bandbreite als auch niedrige Latenz bietet, ist das schlichtweg nicht möglich. Ohne das wirst du Texturen immer redundant halten müßen, Geometrie doppelt berechnen müssen und bei der Zusammensetzung des Bildes auch auf die Synchronisation der beiden Framebufferfragmente warten müßen.

I[;6337356']bei ati gibts ja noch super-tiling nur, wie gesagt, ist sfr praktisch tot.
niemand konnte mir einen grund dafür nennen. ist es nur deswegen, weil durch den erhöhten "verwaltungsaufwand" die benchmarkbalken kürzer werden ? :mad:
Loadbalancing kostet CPU-Leistung und Geometrie muss doppelt berechnet werden.
Außerdem ist Render-to-Texture, was heute ja quasi ständig zum Einsatz kommt, ziemlich problematisch.

KinGGoliAth
2008-03-10, 16:54:12
wenn der preis stimmt und die mikroruckler verschwinden könnte ich da schon drüber nachdenken.

auf alle fälle wäre mir eine karte mit dual gpu lieber als zwei einzelne karten im sli. sli ist zwar ganz nett aber selbst in meinem chieftec big tower wird es damit für meinen geschmack zu eng.
die frage ist dann natürlich wie sehr man von den beiden gpus profitiert und vor allem wie der stromverbrauch aussieht. die meiste zeit wird selbst bei mir nur der desktop auf den bildschirm gemalt und wenn dabei dann zwei gpus mit volldampf laufen wäre der nächste blick auf den stromzähler sicherlich nicht sehr erfreulich.