PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mögt ihr Dual-Chip-Karten?


MadManniMan
2007-11-20, 10:54:18
Aus aktuellem Anlass jene Frage, da nV und AMD scheints über eben jene Karten High-End markieren wollen :|

Worf
2007-11-20, 11:03:37
Du hast "mir egal" vergessen.

Don Vito
2007-11-20, 11:06:36
nein, bin vom Debakle der GX2 geheilt, zumindest von QuadSLI

reunion
2007-11-20, 11:09:17
Natürlich nicht. Ein Single-Chip ist einer Dual-Karte, so wie wir sie heute kennen immer vorzuziehen, da die Leistung unter allen Umständen und ohne Treiberhickhack abgerufen werden kann. Von den anderen Problemen mal ganz zu schweigen. Leider ist dieser Weg für die Hersteller offensichtlich deutlich billiger.

seahawk
2007-11-20, 11:12:04
Nein, solange die Mehrleistung nur via SLI / CF realisiert wird.

Hakim
2007-11-20, 11:14:11
Ich bin etwas froh das ich die GX2 los bin. Mit dem rumspielerei der Profile bis endlich sli ordentlich lief konnte ich mich net so sehr anfreunden ehrlich gesagt.

Stormscud
2007-11-20, 11:22:42
Nein, Begründung siehe Seahawk!

StefanV
2007-11-20, 11:27:24
Ja, ich mag das, CF-AA ist einfach genial :D

Henroldus
2007-11-20, 11:28:04
nur wenn sie unter allen Bedingungen auch ihre Leitung entfalten, was sie nicht tun.
DualPCB Karten lehne ich erst recht ab und von CF und SLI halte ich auch nicht viel.
ich stimme reunion zu: nichts geht über eine ordentlichen singlechip.

Coda
2007-11-20, 11:28:50
Solange es nicht völlig transparent auf Hardwarelevel funktioniert wie früher mit 3Dfx' SLI - nein.

Raff
2007-11-20, 11:33:03
Solange es nicht völlig transparent auf Hardwarelevel funktioniert wie früher mit 3Dfx' SLI - nein.

Ack. Damals gab es hervorragende 100% mehr Leistung durch einen zweiten Chip, jetzt darf man Luftsprünge machen, wenn es über 50% geht.

[x] Nein

Allerdings finde ich die Dinger sinnvoller als Multi-GPU mit mehreren "ganzen" Karten. Ein Dual-Chip-Board spachtelt weniger Strom als zwei volle PCBs.

MfG,
Raff

Matrix316
2007-11-20, 11:35:04
Klares jein, weil die Idee im Grunde nicht schlecht ist, aber die Ausführung über SLI oder CF blöd ist, da es nicht immer funktioniert. Also eher nein.

Blutmaul
2007-11-20, 11:56:28
Nein, das kann sich bei entsprechenden Zukunftsentwicklungen ändern.

Heelix01
2007-11-20, 12:01:23
Bei ordentlicher Umsetzung ... warum nicht ? Hauptsache die Leistung stimmt im Verhältnis zum Preis, wieviele GPUs sie dafür auf eine Karte bauen ist mir ziemlich egal *g .

StefanV
2007-11-20, 12:02:04
[x] ja, aber nur mit Super-AA, sonst kann man drauf verzichten.

tombman
2007-11-20, 12:03:07
Nein, solange die Mehrleistung nur via SLI / CF realisiert wird.
:up: agreed.

Gegen eine transparente DualChip Lösung hätte ich nix.

Gast
2007-11-20, 12:03:51
Solange es nicht völlig transparent auf Hardwarelevel funktioniert wie früher mit 3Dfx' SLI - nein.

Warum tut es das heute nicht? Was machen die Hersteller falsch?

Hatte nie eine MultiGPU-Karte aber warum wird die Zusammenarbeit auf einer mit Technologien geregelt die normalerweise zwei physische Karten ansteuern? SLI != SLI oder wie?

Die gelbe Eule
2007-11-20, 12:05:25
Mit fast egal, hauptsache die Leistung stimmt für den Preis und ich muss nicht drumherumrüsten, nur damit es läuft. Wer eine GTX einbauen kann, der kann vielleicht auch eine GX2 mit DualChips reinpacken, was nun das krasseste wäre. Soll halt die Effizienz entscheiden, nicht das Design.

dargo
2007-11-20, 12:19:18
Bei 100% mehr Leistung durch eine weitere GPU in jedem Spiel (natürlich beim vollständigen GPU-Limit) ohne Rumgefrickel mit Profilen und vor allem ohne einen Lag - ja. Habe aber für "nein" gestimmt da leider nur SLI/CF praktiziert wird.

Spasstiger
2007-11-20, 12:22:56
Von den Konzepten, die derzeit von Nvidia und ATI verfolgt werden, halte ich nicht allzuviel. Sicherlich die einzig vernünftige Lösung, um Quad-SLI bzw. Crossfire X mit vier GPUs zu realisieren.
Aber generell ziehe ich eine Single-GPU-Lösung mit vergleichbarer Performance ganz klar vor.

Blaire
2007-11-20, 12:24:03
nein, bin vom Debakle der GX2 geheilt, zumindest von QuadSLI

Ja das war wahrlich nix. Zudem die recht hohen Temps usw.

Sonyfreak
2007-11-20, 12:31:09
Ich hätte im Prinzip nichts gegen so eine Dual-Chip Karte, wenn sich dadurch keine schon von SLI bekannten Probleme (wie dieses leichte Stottern) ergeben. Wenn es aber problemlos funktioniert, ists doch ne feine Sache.

mfg.

Sonyfreak

StefanV
2007-11-20, 12:31:25
Warum tut es das heute nicht? Was machen die Hersteller falsch?
Die HErsteller haben die Multi GPU Dingsda nicht wirklich in Hardware realisiert, wie es z.B. 3DFX getan hat.

Das Problem dabei ist, das die beiden auch nicht so richtig gut miteinander kommunizieren können, eine Einheit zum Verteilen der Arbeit usw fehlt...

MadManniMan
2007-11-20, 12:41:18
Schön, dass der generelle Trend gegen diese Karte ist, aber der relativ große "ja"-Anteil enttäuscht mich doch ein wenig... :usad: ...aber vielelicht ists noch zu früh für Schlüsse, also Tee trinken!


Du hast "mir egal" vergessen.

Verzeih diesen meinen Entschluss, aber wems egal ist, der stimmt halt nicht ab.

Anarchy-HWLUXX
2007-11-20, 12:47:36
Ja, ich mag meine "kleine" 7950GX2 ... die große würd auch nicht in mein case passen ;D

Neomi
2007-11-20, 13:12:41
Die HErsteller haben die Multi GPU Dingsda nicht wirklich in Hardware realisiert, wie es z.B. 3DFX getan hat.

1. Damals waren Grafikkarten eigentlich nur ein Rasterizer und nahmen die fertig berechnete und geclippte Geometrie von der CPU entgegen. Heute wird die Geometrie von den GPUs berechnet (bzw. transformiert, um genauer zu sein), und zwar von jeder einzeln.

2. Es gab keine Features wie z.B. Render-to-Texture. Die einzige erforderliche Kommunikation beschränkte sich auf das Zusammenmischen der Bilder am Schluß. Heute werden Dinge in Texturen gerendert, die dann von beiden GPUs jeweils vollständig benötigt werden. Also müssen entweder beide GPUs die vollständige Textur berechnen oder ihre Teilergebnisse untereinander austauschen, um weiterarbeiten zu können.

3. Diverse effizienzsteigernde Maßnahmen gab es damals noch nicht, wobei einige davon sich mit SLI (in der ursprünglichen Bedeutung: Scan Line Interleaving) nicht vertragen. Man kann es quasi auch so betrachten, daß damals Single-GPU nur 50% der Leistung von Dual-GPU bringen konnte, heute dank diverser Maßnahmen aber eine weitere Steigerung möglich ist, allerdings nur für eine alleine arbeitende GPU.

Das sind die Gründe, weswegen Scan Line Interleaving heute nicht mehr so effizient arbeiten kann und gar nicht mehr eingesetzt wird. Split Frame Rendering krankt an den Punkten 1 und 2, wobei noch dazu kommt, daß durch unterschiedliche Detailfülle in unterschiedlichen Bildteilen auch die Rechenlast ungleich verteilt wird. Alternate Frame Rendering kann noch an Punkt 2 knabbern, wenn (z.B. durch Lazy Updates) Ressourcen ausgetauscht werden müssen, die in einem Frame berechnet werden, im nächsten aber wiederverwendet anstatt neu berechnet werden. Dazu kommt noch das AFR-eigene Problem der ungleich verteilten Frames.

Die Effizienz der Voodoos damals ist keinesfalls auf besondere technische Genialität zurückzuführen, sondern auf besonders niedrige technische Anforderungen dank des niedrigen Featuresets von damals.

J0ph33
2007-11-20, 13:36:32
:love2: Voodoo 5 5500 :love2:

aber jene Effizienz ist bei heutigen Darstellungsverfahren und Multi-GPU-Techniken nicht mehr zu erreichen, also:

[x]nein

Matrix316
2007-11-20, 13:41:21
Die müssten doch einfach nur die Last gleichmäßig auf zwei Chips verteilen. Wenn ein Chip 112 Shader hat, sollte man mit zwei einfach 224 nutzen können, ohne Verluste. Also keine zwei GPUs, sondern quasi Dual Core. Ein Chip aus 2 Kernen wo beide zusammengeschaltet sind.

AnarchX
2007-11-20, 13:46:38
Die müssten doch einfach nur die Last gleichmäßig auf zwei Chips verteilen. Wenn ein Chip 112 Shader hat, sollte man mit zwei einfach 224 nutzen können, ohne Verluste. Also keine zwei GPUs, sondern quasi Dual Core. Ein Chip aus 2 Kernen wo beide zusammengeschaltet sind.

Sinn? Was du beschreibst ist einfach wieder eine fettere Single-GPU...


Solang man nichts besseres als AFR hat, halte ich Dual-GPU-Karten eher als Lückenfüller -> [x] Nein.

Coda
2007-11-20, 13:52:37
Allerdings finde ich die Dinger sinnvoller als Multi-GPU mit mehreren "ganzen" Karten. Ein Dual-Chip-Board spachtelt weniger Strom als zwei volle PCBs.
Da wäre ich mir jetzt nicht so sicher. Eigentlich brauchen trotzdem beide Chips getrennte Spannungsregler.

Sinn? Was du beschreibst ist einfach wieder eine fettere Single-GPU....
Er meint zwei getrennte Dies. Der Vorteil wären dann geringere Herstellungskosten des Chips an sich. Allerdings wird das PCB und das Packaging teurer.

Solang man nichts besseres als AFR hat, halte ich Dual-GPU-Karten eher als Lückenfüller -> [x] Nein.
AFR ist eigentlich gar nicht so schlecht, wenn man den Lag bei einem oder zwei Frames hält. Nur sind gerade HDRR und andere Dinge oft von Ergebnissen des letzten Frames abhängig und dann funktioniert es nicht.

Was wir evtl. brauchen ist ein besseres vereinheitlichtes Entwicklerinterface für Multi-GPU direkt in Direct3D und OpenGL. Ich denke dann würden auch nicht so oft Blocker von den Entwicklern unabsichtlich eingebaut.

Raff
2007-11-20, 13:57:46
Da wäre ich mir jetzt nicht so sicher. Eigentlich brauchen trotzdem beide Chips getrennte Spannungsregler.

Ich meine mich da an Zahlen erinnern zu können. Es gab ja immer wieder Dual-Karten. Muss ich mal suchen ... oder es findet jemand was. :)

MfG,
Raff

Gast
2007-11-20, 13:59:36
[x]mir egal!

Coda
2007-11-20, 14:04:52
Ich meine mich da an Zahlen erinnern zu können. Es gab ja immer wieder Dual-Karten. Muss ich mal suchen ... oder es findet jemand was. :)
Also ich hab in Erinnerung, dass der Unterschied höchst minimal, wenn überhaupt einer vorhanden war.

StefanV
2007-11-20, 14:13:00
Ich meine mich da an Zahlen erinnern zu können. Es gab ja immer wieder Dual-Karten. Muss ich mal suchen ... oder es findet jemand was. :)
Die nV GX2 bzw Quadros sind ja einfach 2 'normale' übereinander geklatscht, bleiben also noch die Dual x1950 und HD2600.

Da hat aber 'leider' jede GPU seinen eigenen Regler, ist wohl einfacher zu handhaben, 2 kleine denn einen großen zu basteln, außerdem hält man so die Wege kurz, bei denen man richtig Dampf braucht.

AnarchX
2007-11-20, 14:16:20
Er meint zwei getrennte Dies. Der Vorteil wären dann geringere Herstellungskosten des Chips an sich. Allerdings wird das PCB und das Packaging teurer.
Da er von "einem Chip" sprach, kam mir das nicht so vor, sondern wieder nach diesem "Multi-Core-GPUs ist etwas neues"-Unsinn.



AFR ist eigentlich gar nicht so schlecht, wenn man den Lag bei einem oder zwei Frames hält.
Was dann aber nur 2-3 GPUs bedeutet, was je nach verwendeter GPU doch zu wenig ist.

Matrix316
2007-11-20, 14:41:41
Das Ziel von Dual GPUs ist ja auch eigentlich auf billige Art "einen" fetten Chip zu bekommen, der bei zwei GPUs auch die doppelte Leistung bringt. Dieses wäre ja das optimum. Durch die Shader und Pipelines sind die GPUs intern ja irgendwie schon "multicore" und Threads wie bei CPUs sind ja nicht unbedingt wichtig.

Oder anders: Das Ziel ist ja die Leistungsvervielfachung und nicht die Lastverteilung. Auch wenn beides manchmal zusammenkommt.

Metalmaniac
2007-11-20, 15:03:11
Ich bin mit meiner eigentlich soweit zufrieden und habe alle beschriebenen Probleme auch nicht. Vielleicht kommt das daher, daß, ich zumeist nicht groß per RivaTuner und/oder nHancer an irgendwelchen Profilen o.ä. rumbastle (hab aber auch zu wenig Ahnung von der Materie :redface:). Der Geschwindigkeitsprung war jedenfalls vor etwas mehr als einem Jahr von meiner 7800GT Extreme Gamer (also eine Karte, die annähernd so schnell lief wie eine 7800GTX) zur GX2 enorm. Auch heute noch läuft eigentlich fast alles zufriedenstellend bis gut (und ich setze die Regler immer aufs max., lediglich bei AA und AF bin ich moderat und verzichte zuweilen sogar darauf). Dennoch habe ich nun eine Bestellung für eine 8800GT am Laufen, da diese in den div. Benches dann doch reichlich schneller ist und ich einfach Crysis und was danach kommen wird voll genießen möchte. Das ist auch ein kleiner Tick von mir, mich ständig verbessern zu müssen in Sachen Hardware, gerade wenn der jeweilige Preis so sexy ist. Und zuguterletzt soll auch mein Sohn mal wieder eine Aufrüstung erhalten, der werkelt mit meinem System von vor 3 Jahren herum, einem XP 2400 und einer Radeon 9800pro. Nun kann er die GX2 und meinen "alten" Opteron 170 nebst dazugehöriger Peripherie haben.:smile:

lance201
2007-11-20, 16:39:55
Ich glaube, dass das die einzige Möglichkeit darstellt den hohen Anforderungen neuer Spiele gerecht zu werden. Wieso soll, was bei CPUs gut funktioniert nicht auch eine Lösung für GPUs sein.

Lance

Nvidia5
2007-11-20, 16:47:06
[x]gut
Aber nicht von der Mehrleistung, sonder eher der Stoltz eine zu besitzen. Die V2 is halt nunmal genial(is zwar 2x Single Chip Karte aber das erste SLi). Genauso wie alle anderen Dual Chip Karten.

Mir gefällt es eher vom Technischen, einfach nur der Gedanke an 2 Chips auf einer Graka.;)

Coda
2007-11-20, 16:49:59
Ich glaube, dass das die einzige Möglichkeit darstellt den hohen Anforderungen neuer Spiele gerecht zu werden. Wieso soll, was bei CPUs gut funktioniert nicht auch eine Lösung für GPUs sein.
Es funktioniert bei CPUs halt auch nicht so toll.

StefanV
2007-11-20, 16:54:48
Es funktioniert bei CPUs halt auch nicht so toll.
Kommt drauf an wovon wir sprechen.

Sprechen wir von Programmen die unabhängig voneinander arbeiten können oder eher von Programmen/Threads die voneinander abhängig sind?

Bei ersteren funzts recht gut, bei letzteren 'Bauartbedingt' natürlich nicht.

mrt
2007-11-20, 17:31:44
Was heißt gut finden... mir ist egal woher die Leistung kommt... solange sie kommt ;)
Das SLI/CF-Konzept ist natürlich nicht so der Hammer, aber besser gehts derzeit kaum ohne großen Aufwand und dann könnte man gleich einen gr0ßen Chip designen. Aber solange es Super AA bzw SLI-AA gibt und nutzbar ist, ists nicht so schlimm. Deswegen:
[x] Ja, aber mit der obigen Einschränkung.

Scoff
2007-11-20, 17:49:55
Die nV GX2 bzw Quadros sind ja einfach 2 'normale' übereinander geklatscht, bleiben also noch die Dual x1950 und HD2600.

Was ist mit der alten Rage Fury Maxx? Ich erinnere mich nur das es damals an den Treibern scheiterte, aber wie sah es mit der Hardwarerealisierung aus?

StefanV
2007-11-20, 17:52:46
Welche Hardware?!

Da hat man einfach 2 Chips zusammen aufn AGP geklatscht, das das überhaupt funktionierte, war 'nen Wunder...

mrt
2007-11-20, 17:53:03
War doch AFR, wenn mich meine Erinnerung nicht trügt. Also nix Hardware :)

saddevil
2007-11-20, 17:58:02
ich finds gut :-)

habe immernoch 2 7600Gt im SLi
und es lief von anfang an
auch habe ich nie in irgendwelchen profilen gespielt...

habe bei neuen games den SLibalken mal mitlaufen lassen um zu sehen ob es überhaupt geht
meist war es teils sogar so das es ohne SLi leicht ruckelte
mit SLi wars weg


also wenn es in zukunft auch mit TVout gehen sollte
wärs super

laser114
2007-11-20, 18:01:04
Für mich ist keine Abstimmoption da. Generell ist das ja doch eine sinnvolle Idee, für mich muss lediglich die Effizienz stimmen. Wenn man die Technologie weiterentwickelt könnte man durch Dual-Die-Chips evtl. ja sogar noch einige Einschränkungen eliminieren, es muss nur Geld und Wille dafür da sein.

HD-Ronny
2007-11-20, 18:33:54
Ich hab für ja gestimmt. Ein potenter Nachfolger für die 7950GX2 wäre sexy. :D

StevenB
2007-11-20, 18:42:27
[X] Nein

Imho sind die Heutigen Chips einfach zu Groß und zu Teuer. Die Chips brauchen immer mehr Platz und kosten damit auch immer mehr Geld.

Die Hersteller sollten sich lieber viel mehr gedanken drüber machen, einen Chip mit einer richtigen Effizienz zu erschaffen. Wie damals der Kyro II mit TBR.

tombman
2007-11-20, 18:59:06
[X] Nein

Imho sind die Heutigen Chips einfach zu Groß und zu Teuer. Die Chips brauchen immer mehr Platz und kosten damit auch immer mehr Geld.

Die Hersteller sollten sich lieber viel mehr gedanken drüber machen, einen Chip mit einer richtigen Effizienz zu erschaffen. Wie damals der Kyro II mit TBR.
ich glaube du unterschätzt ein bischen, was ein chip heutzutage alles können muß.
Das sind eigentlich schon fast CPUs...

Warum kann man eigentlich nicht einen Steuerchip haben und dahinter die Rechensklaven-Chips? Klar wird das PCB dann um einiges komplexer, aber immer noch besser als single Monsterchips, die keiner mehr bauen oder kühlen kann.

StevenB
2007-11-20, 19:02:57
ich glaube du unterschätzt ein bischen, was ein chip heutzutage alles können muß.
Das sind eigentlich schon fast CPUs...

Das ist mir bewusst tombman. Das Grundprinzip von TBR sollten sich aber dennoch die GPU Hersteller mal anschauen. Ich kann nicht immer mehr GPUs herstellen, die immer mehr Transistoren haben, und immer mehr Strom verbrauchen....

tombman
2007-11-20, 19:04:33
Das ist mir bewusst tombman. Das Grundprinzip von TBR sollten sich aber dennoch die GPU Hersteller mal anschauen. Ich kann nicht immer mehr GPUs herstellen, die immer mehr Transistoren haben, und immer mehr Strom verbrauchen....
Klar geht das, wenn du mit dem Herstellungsprozess immer weiter runtergehst und damit weniger vcore brauchst... ;D

StevenB
2007-11-20, 19:06:47
Klar geht das, wenn du mit dem Herstellungsprozess immer weiter runtergehst und damit weniger vcore brauchst... ;D

hehe das ist mir klar :)

Aber irgendwann ist damit mal Schluss, ich muss dir sicherlich nicht sagen was dein Rechner für einen Stromverbrauch hat..

Neue Fertigungstechnologien kosten schon oft mehr Geld als die eigentliche Entwicklung. Aber ich glaube das Umdenken wird erst in ein paar Jahren kommen.

MGeee
2007-11-26, 09:46:32
Nein. Allein schon wg. der höheren Stromkosten als bei einer Neuentwicklung mit einem Chip würde ich generell keine Dual-Chip Karte kaufen.
Zudem war es in der Vergangenheit immer so, dass die nächste Graka-Generation immer schneller war, als alles vorher dagewesene inklusive SLI und Crossfire.

Avalance
2007-11-26, 12:14:51
[x] ja

Finde Dualchip Karten gut, sofern diese +/- 5% gleichschnell zu "ebenbürtigen" SLI Lösung sind und vom Preis her günstiger/gleichteuer (schon alleine das man sich ja dann ein SLI Board "spart") und man bei "nichtverwendung" einen der beiden Chips + die dazugehörigen Komponenten in den Standby schicken oder abschalten könnte.

Gast
2007-11-26, 12:44:07
Ich bin etwas froh das ich die GX2 los bin. Mit dem rumspielerei der Profile bis endlich sli ordentlich lief konnte ich mich net so sehr anfreunden ehrlich gesagt.

Hakim oloyowon.

Dr.Doom
2007-11-26, 13:39:09
Solange es EINE GrafikKARTE ist, ist mir die Anzahl der darauf verbauten Teile und die verwendete Technik ziemlich egal.

Coda
2007-11-26, 13:43:02
Naja, wenn du dann mit Profilen rumpfuschen musst ist es dir wohl nicht mehr so egal.

KinGGoliAth
2007-11-26, 17:07:22
generell finde ich dual chip karten sinnvoller als zwei einzelne karten im sli. aber auch nur weils weniger platz wegnimmt. ;)

mit sli kann ich persönlich nichts anfangen. kostet erstmal viel geld, der performancezuwachs ist verglichen mit den guten alten voodoo 2 zeiten auch eher schlecht als recht und eine karte der nächsten generation (qwelche bekanntlich heute nicht lange auf sich warten läßt) bringt dann auch schon wieder deutlich mehr leistung mit als zwei der alten generation im sli.

Gast hitcher
2007-11-26, 17:17:54
ideal wäre, wenn man eine Karte mit einem shared memory Bus baut, sodass beide, oder alle 4 Grafikchips auf den gleichen Speicher zugreifen können.

An jeder GPU hängt 1/2 oder 1/4 vom GPU-Speicher, und wenn auf Speicher zugegriffen werden muss, der nicht am eigenen Bus hängt, dann eben über eine HT-Verbindung zur entsprechenden GPU.

Bei den AMD Opteron CPUs kann genau so auf den Speicher der anderen CPUs zugegriffen werden. Das würde den doppelten oder mehrfach vorhandenen Speicher, wie bei aktuellen SLI Systemen üblich, einsparen, also die Kosten senken.

So ein GPU-Board, das auf der Rückseite mit DDR3-DIMM Modulen und vorne mit GPU chips nachträglich aufrüstbar ist, wäre mal etwas interessantes und effizientes, gegenüber den aktuellen 4x, oder 8x crossfire Missgeburten.

Dr.Doom
2007-11-26, 23:38:46
Naja, wenn du dann mit Profilen rumpfuschen musst ist es dir wohl nicht mehr so egal.In der Tat, das fehlt.
Einbauen, Treiber installieren, benutzen.