PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Lucid Logix' "HYDRA" Cross SLI? - MSI Big Bang


Seiten : [1] 2

dreas
2008-07-15, 09:10:15
Lucid Logix stellt Hydra vor. Eine kombinierte Hardware/Software-Lösung um Grafikkarten verschiedenster Hersteller und Chips miteinander arbeiten zu lassen.

http://www.computerbase.de/news/hardware/chipsaetze/2008/juli/lucid_logix_hydra_grafikkarten/
http://www.lucidlogix.com/technology/index.html
http://www.dvhardware.net/article28563.html

Ob das funktioniert? Ich bin ja sowas von gespannt.

mfg dreas

AnarchX
2008-07-15, 09:38:17
Wenn das mal keine Vaporware ist... X-D

Vorallem wo soll der Sinn darin sein?
Beide Hersteller bieten doch relativ ausgereifte MGPU-Konzepte an und da will eine Wald-und-Wiesen-Firma, die nicht wirklich einen GPU-Background scheint zu haben, daherkommen und ein effezientes SFR-Konzept implementieren? Man stelle sich nur mal vor, dass eine Hälfte des Bodens im 3D-Bild mit NVs HQ gefiltert wird, während der anderen mit ATis suboptimalen AF.

Demirug
2008-07-15, 09:39:33
Irgendwie kann das so wie beschrieben auf keinen Fall funktionieren.

AnarchX
2008-07-15, 11:44:07
Hmmm... Intel scheint wohl von der Technologie überzeugt zu sein:
http://www.eetimes.com/news/semi/showArticle.jhtml;jsessionid=4FLAA5D4IORCMQSNDLRCK%20%20H0CJUNN2JVN?articleID=19 6800262

Und hier noch ein paar Patente:
Graphics processing and display system employing multiple graphics cores on a silicon chip of monolithic construction (http://www.freshpatents.com/Graphics-processing-and-display-system-employing-multiple-graphics-cores-on-a-silicon-chip-of-monolithic-construction-dt20061019ptan20060232590.php?type=description)

Method and system for compositing three-dimensional graphics images using associative decision mechanism (http://www.freepatentsonline.com/y2006/0146072.html)

Gast
2008-07-15, 16:48:39
Irgendwie kann das so wie beschrieben auf keinen Fall funktionieren.

Mit dieser Argumentation hast du mich vollends überzeugt.

Demirug
2008-07-15, 19:35:16
Mit dieser Argumentation hast du mich vollends überzeugt.

Das war keine Argumentation sondern eine Einschätzung aufgrund von dem was sie auf ihrer Webseite schreiben.

Coda
2008-07-15, 21:56:22
Nur mal kurz paar Bemerkungen

1. Bildqualitätsunterschiede sind da definitiv sichtbar egal ob man AFR oder SFR macht.
2. Zwei Treiber unter Vista funktionieren nicht mit Aero.
3. Ohne SLI- oder Crossfire-Brücke ist das ganze verdammt lahm zu sein und die kann nur der Treiber direkt verwenden.
4. Was soll der SoC überhaupt machen?

Die Liste ist beliebig verlängerbar. Herrstellerübergreifend halte ich für absolutes Snakeoil. Das gibt einfach viel zu viele Probleme.

Demirug
2008-07-15, 22:06:05
Was soll der SoC überhaupt machen?

Das ist erst mal eine PCIE zu PCIE Bridge. Da man ja von Chipsätzen ausgeht die für die Grafik nur einen ganz normalen 16er PCIE Anschluss vorsehen. Daneben sitzt dann da noch die Logik um die Ausgabe von 2 oder mehr GPUs zu mergen ohne über den Hauptspeicher gehen zu müssen.

Die Liste ist beliebig verlängerbar. Herrstellerübergreifend halte ich für absolutes Snakeoil. Das gibt einfach viel zu viele Probleme.

Ja für Intel macht es aber durchaus Sinn das $12M rein zu pumpen wenn sie dadurch multi GPU für Larrabee bekommen ohne selbst viel zu tun zu müssen.

dreas
2008-07-15, 23:51:09
Die zwingend unterschiedlichen Latenzen sind imo auch unbeherrschbar.
mfg dreas

AnarchX
2008-08-19, 10:10:03
HYDRA Engine by Lucid - Multi-GPU Technology with No Strings Attached (http://www.pcper.com/article.php?aid=607)

Preview und auf der IDF in wenigen Tagen soll es wohl noch mehr Infos geben.

Ist offenbar sogar schon lauffähig.:eek:

Wenn das in Intels Chipsätze Einzug hält, dann haben sie aber ein mächtiges Argument für den Gamer...

Mark
2008-08-19, 10:35:27
Interessant ist auch dieser Teil:
How will tasks be distributed in greatly exaggerated card matchups?
- For example, in that 6800 and 9800 combination mentioned above? With the HYDRA Engine it is apparently very easy - the software and chip recognize the potential for each and distribute the appropriate number of tasks to each card. Maybe 5 tasks to 1 or something like that; the results are then combined by the HYDRA chip and sent to a single GPU for output.

Klingt schonmal gut, aber wer sagt, dass die "Tasks" alle gleich viel Leistung beanspruchen? Der Treiber müsste ja erstmal analysieren was zu tun ist und dann entscheiden wohin diese Aufgabe gehen soll. Bekommt die schwächere karte eine Aufgabe und die Berechnung dauert zu lang, dann fehlen für einen Moment alle Wandtexturen, oder alle Lichtquellen. Die Idee find ich sehr gut, aber auf die fehlerfreie Umsetzung bin ich mal gespannt.


Gibts eigentlich schon Gerüchte ob Intel die Technologie aufkaufen bzw lizensieren will? Ich stimme dem Auto des Berichtes zu, dass es schade wäre, wenn Lucid von Nvidia oder Ati aufgekauft wird, nur damit man einen Konkurrenten los wird. Für Intel aber ebenso für Lucid würde es sich lohnen, wenn beide zusammenarbeiten. Intel spart sich die Entwicklung einer eigenen MultiGPU-Lösung, man hätte für die eigenen Chipsätze ein weiteres Feature, für den eigenen Grafikchip ebenso und Lucids Verfahren verschwindet nicht in der Versenkung.

Gespannt bin ich aufjedenfall, denn angekündigt und präsentiert wurde ja schon viel.

tombman
2008-08-19, 10:48:45
Na das war ja immer klar, daß die beste Lösung ein Verteilerchip + Sklavenchips ist.
Nur ob die Lucid Jungs das wirklich 100% transparent und fehlerfrei schaffen, glaube ich erst wenn ich es sehe.

Wär natürlich der Oberhammer, wenn so eine Luzid Karte SLI/CF total ablösen könnte ;)

Mark
2008-08-19, 11:04:55
Ich gehe jetzt mal von diesen zwei Bildern aus:

http://www.pcper.com/images/reviews/607/screen1.jpg
http://www.pcper.com/images/reviews/607/screen2.jpg

Da ich im Grafikbereich nicht sonderlich bewandert bin, versuch ich einfach mal meinen Gedankengang zu schildern. das dieser nicht 100%ig korrekt ist wird anzunehmen sein, aber ich hoffe man versteht was ich meine.
Müssten nicht bestimmte Daten, wie z.b. einige Texturen oder das Lightning oder Shader jeweils im VRAM der Grafikkarten vorhanden sein, also insgesamt doppelt? Auf den Bildern sieht man auch, dass die Waffe 2 mal komplett gerendert wird. Damit wäre eine Skalierung von 100% wie sie selbst angeben eher unwahrscheinlich.

Demirug
2008-08-19, 11:10:57
Ihr wollt keine gemischten Chips. Glaubt mir ihr wollt das nicht.

AnarchX
2008-08-19, 11:16:22
Ihr wollt keine gemischten Chips. Glaubt mir ihr wollt das nicht.

Dass muss man ja auch nicht wollen, aber ein effektives SFR-Verfahren mit bis zu 4 gleichen GPUs wäre doch schon mal nicht schlecht.

tombman
2008-08-19, 11:18:18
Dass muss man ja auch nicht wollen, aber ein effektives SFR-Verfahren mit bis zu 4 gleichen GPUs wäre doch schon mal nicht schlecht.
Jo, 2x GX2 Karten und fette Skalierung ohne AFR-MR/IL = :massa:

:)

Mark
2008-08-19, 11:18:33
Wenn es funktionieren würde, warum denn nicht?

Angenommen man hat eine 8800gt und die Leistung reicht nicht mehr aus, dann würde man aufrüsten, z.b. auf eine 280gtx und anstatt die alte Grafikkarte in den Schrank zu legen lässt man sie weiterhin im Rechner und hat dadurch vielleicht 40% mehr Leistung.

Nachteile wie Lautstärke und Stromverbrauch mal außer Acht gelassen.

Spasstiger
2008-08-19, 11:24:02
Ihr wollt keine gemischten Chips. Glaubt mir ihr wollt das nicht.
Meinst du ATI + Nvidia? Das geht ohnehin nicht, siehe den letzten Link von AnarchX.

Demirug
2008-08-19, 12:03:23
Meinst du ATI + Nvidia? Das geht ohnehin nicht, siehe den letzten Link von AnarchX.

Nein, ich meine auch schon die aufgeführte 6800 mit einer 9800. Es gibt da immer feine kleine Unterschiede in den Chips. Verbindet man solche Chips kommt es zu einem unruhigen Bild.

Mark
2008-08-19, 12:07:36
Du meinst Texturfilterung, etc?

Coda
2008-08-19, 12:08:10
Ich gehe jetzt mal von diesen zwei Bildern aus:

http://www.pcper.com/images/reviews/607/screen1.jpg
http://www.pcper.com/images/reviews/607/screen2.jpg

Da ich im Grafikbereich nicht sonderlich bewandert bin, versuch ich einfach mal meinen Gedankengang zu schildern. das dieser nicht 100%ig korrekt ist wird anzunehmen sein, aber ich hoffe man versteht was ich meine.
Müssten nicht bestimmte Daten, wie z.b. einige Texturen oder das Lightning oder Shader jeweils im VRAM der Grafikkarten vorhanden sein, also insgesamt doppelt? Auf den Bildern sieht man auch, dass die Waffe 2 mal komplett gerendert wird. Damit wäre eine Skalierung von 100% wie sie selbst angeben eher unwahrscheinlich.
Sieht nach Sort-Last aus.

Spasstiger
2008-08-19, 12:12:47
Nein, ich meine auch schon die aufgeführte 6800 mit einer 9800. Es gibt da immer feine kleine Unterschiede in den Chips. Verbindet man solche Chips kommt es zu einem unruhigen Bild.
Diese Kombi wäre auch aus Performancesicht Schwachsinn. Ich denke, dass der Entwickler das fertige Produkt schon auf Grafikkarten mit identischem Featureset limitieren wird.

Und ich denke, dass sich die "HYDRA"-Technologie ohnehin einer der IHVs bzw. Chipsatzhersteller einverleiben wird, wenn sie denn was taugen sollte.

roidal
2008-08-20, 16:50:32
Hier gibts mal wieder was neues dazu: http://winfuture.de/news,41663.html

Wäre doch eine riesen Leistung wenn sie es schaffen würden 2 Grafikkarten eines anderen Herstellers effektiver zu verbinden als dieser selbst.

tombman
2008-08-21, 04:18:16
Hier gibts mal wieder was neues dazu: http://winfuture.de/news,41663.html

Wäre doch eine riesen Leistung wenn sie es schaffen würden 2 Grafikkarten eines anderen Herstellers effektiver zu verbinden als dieser selbst.
Glaube ich aber auch erst, wenn ich es sehe ;)
Toll wäre es natürlich schon.

Aber stellt euch mal ein HighEnd X58 mobo vor, welches offiziell SLi+CF+Hydra können soll:
X58 chipset+ NF200 Chip+ Hydra Chip = 400€ ;D;D

AnarchX
2008-08-21, 10:37:58
Lucid hat nun auch ein PDF mit ein paar marketingwirksamen Infos bereitgestellt:
http://img179.imageshack.us/img179/755/lucidriscud9.png (http://imageshack.us)
... zudem kann man sich auch ein Whitepaper zuschicken lassen:
http://lucidlogix.com/technology/index.html

Mark
2008-08-21, 10:53:01
Im Grunde genommen verteilt der Chip zusammen mit dem Treiber ja bloß die Aufgaben. Nun Frage ich mich ob es nicht theoretisch möglich wäre eine Pci-e-Karte mit diesem Chip zum Nachrüsten älterer Mainboards funktionieren könnte. Dem Treiber dürfte es ja egal sein ob er nun einen Chip auf dem Mainboard anspricht oder einen der über Pci-e angebundne ist

AnarchX
2008-08-21, 10:54:24
Hier gibt es sogar ein paar Performance Aussagen:
LucidLogix says this approach can solve many of the problems inherent in multi-GPU rendering today. First, you get better scaling. The test system we saw our live demo on contained two GeForce 9800 GT cards (basically identical to the 8800 GT in performance) and yet we saw Crysis running at 1920x1200 in DX9 mode, with all details cranked up, getting 45–60 frames per second all the time. That's far better than the usual SLI scaling. For three or four graphics cards, where SLI and CrossFire deliver diminishing returns, the scaling for a HYDRA-enabled system should still be almost entirely linear, provided the game isn't limited by CPU power
http://www.extremetech.com/article2/0,2845,2328497,00.asp

Im Grunde genommen verteilt der Chip zusammen mit dem Treiber ja bloß die Aufgaben. Nun Frage ich mich ob es nicht theoretisch möglich wäre eine Pci-e-Karte mit diesem Chip zum Nachrüsten älterer Mainboards funktionieren könnte. Dem Treiber dürfte es ja egal sein ob er nun einen Chip auf dem Mainboard anspricht oder einen der über Pci-e angebundne ist
Wie es momentan aussieht, so müssen die GraKas an den PCIe-Ausgängen des Hydra-Chips hängen, was dann nur die Möglichkeiten gibt:
- direkt auf dem Mobo verbaut
- auf einer MGPU-Karte zwischen PCIe-Slot und GPUs verbaut

Birdman
2008-08-21, 16:10:35
- direkt auf dem Mobo verbaut

Dies würde doch Intels Engagement erklären - so können Sie das ganze auf Ihre Mainboards löten oder sogar ins Chipset integrieren und so quasi SLI sowie CF anbieten, bzw. halt jedwelche MultiGPU Lösung.
Und dies ganz ohne AMT/Nvidia Lizenzkosten zu zahlen oder Technologieaustauschgeschichten abwickeln zu müssen.

Moralelastix
2008-08-21, 17:32:22
Chipmaker Hydra's Stunning Work May Render CrossFire, SLI Obsoletev
http://www.dailytech.com/Chipmaker+Hydras+Stunning+Work+May+Render+CrossFire+SLI+Obsolete/article12719.htm

"...
According to the Lucid the system has "virtually no CPU overhead and no latency" when compared to single-card solutions. The approach is very different from AMD/ATI and NVIDIA's work in that it actually intercepts Direct X calls before sending them to the GPU and intelligently splits scenes up, as opposed to "brute force" rendering them.

While the engine is capable of cruder split frame rendering, which it performs well, it really shines when it splits the scene up with this custom logic. Individual components in a scene -- say part of the floor and windows -- are sent to one GPU while other parts -- say your character and the walls are sent to the other. With virtually no additional overhead the entire scene is rendered nearly twice as fast. Where SLI/CrossFire offer only 50-70 percent scaling at best, Lucid claims its solution is near 100 percent -- linear scaling.
....."

Gast
2008-08-21, 18:14:00
Scheint ja wirklich zu funktionieren. Zwar nicht Ati mit NV gleichzeitig aber immerhin so das Microruckler praktisch der Vergangenheit gehören.

Demirug
2008-08-21, 18:28:46
"...
According to the Lucid the system has "virtually no CPU overhead and no latency" when compared to single-card solutions. The approach is very different from AMD/ATI and NVIDIA's work in that it actually intercepts Direct X calls before sending them to the GPU and intelligently splits scenes up, as opposed to "brute force" rendering them.

Da bekomme ich irgendwie ein Déjà-vu. Hat Alienware nicht vor Jahren sowas ähnliches erzählt?

Coda
2008-08-21, 18:38:39
Doch. Das kommt mir auch bekannt vor. Und irgendwie glaube ich immer noch nicht daran, dass das funktionieren wird.

Mal abwarten.

CrazyIvan
2008-08-21, 20:14:26
Mal ne blöde Frage: Wie sollen solche Dinge wie FSAA und irgendwelche Beleuchtungseffekte funktionieren, wenn man die Objekte auf verschiedene GPUs aufteilt? Ich meine, wenn ne Figur von GPU1 gerendert wird und die Wand hinter ihr von GPU2, fehlen ja die Farbinformationen zum AAen der Kante der Figur.

Coda
2008-08-21, 21:09:23
Anti-Aliasing wird ja erst am Ende der Szene vollendet. Deshalb ist das nicht das Problem.

CrazyIvan
2008-08-21, 22:29:36
Das würde ja wiederum bedeuten, dass der von GPU2 gerenderte Content seinen Weg auf GPU1 finden müsste, um dann das AA über das komplette Bild durchzuführen. Alternativ müsste ja sonst "HYDRA" für das AA des gemergten Bildes sorgen. Da mir Alternative 2 wenig glaubhaft erscheint, klingt das für mich schon wieder nach einer Art Synchronisation, die kaum Vorteile gegenüber AFR haben sollte.

P.S.
Bitte betrachte AA jetzt nur als (eventuell hinkendes) Beispiel für Operationen, die nicht isoliert auf einzelne Objekte einer Szene anwendbar sind.

P.P.S.
Ebenjene Problematik ist doch sicherlich auch der Grund dafür, warum bei heutigem SLI/CF die Bilder abwechselnd gerendert werden, statt wie bei den Voodoos damals die Zeilen, oder irre ich mich da?

tombman
2008-08-22, 04:00:02
"That's far better than the usual SLI scaling."

Und warum hauen die dann keine benchmarks raus? ;)

Anarchy-HWLUXX
2008-08-22, 08:51:41
Weil man wieder schmerzhafte komprommisse zu schlucken hat ... lieber erstmal Presserummel machen bevor die geschichte anne wand fährt.

-> Ich glaub das erst wenn unabhängige Tests vorliegen

dreas
2008-08-22, 08:54:30
Weil man wieder schmerzhafte komprommisse zu schlucken hat ... lieber erstmal Presserummel machen bevor die geschichte anne wand fährt.

-> Ich glaub das erst wenn unabhängige Tests vorliegen
Dito

Die ganze Hardware/Software-Rechnerei braucht Zeit. Ist sicher nicht einfach zu syncronisieren und es bringt ja nix wenn das Ausgabegerät der Eingabe schwer hinterher rennt.

mfg dreas

AnarchX
2008-08-22, 17:29:37
Mal sehen ob Lucid oder ein Partner vielleicht auch das aktuelle Testaufbau-Board als Produkt verkauft:
http://img99.imageshack.us/img99/2025/9800s540x4058690363yo8.jpg (http://imageshack.us)
http://news.cnet.com/8301-17938_105-10021005-1.html

Über 4 gut gekühlte in einem externen Gehäuse ausgelagerten High-End-GraKas, deren Leistung noch nahezu linear skalieren soll, würde sich sicher so mancher Enthusiast freuen.;)

Ob es denn da wirklich so funktioniert bleibt natürlich noch fraglich und wird sich wohl zeigen...

robobimbo
2008-08-22, 17:52:44
Aus dem Artikel des Vorposters:

Also, just to be clear, you will not be able to use graphics cards from both Nvidia and ATI at the same time.

Demirug
2008-08-22, 17:55:17
Realitätscheck.

Nehmen wir mal an das wir mit 1920*1200*4xAA rendern wollen (sonst brauchen wir ja keine Multi GPU Lösung). Nehmen wir weiterhin an das wir FP16 benutzten (ein bisschen HDR muss sein). Damit kommen wir pro Bild auf etwa 72 Mib und nochmal ~36 Mib für den Z-Buffer. Dieser Custom Chip müsste also diese Datenmenge von zwei Chips holen verarbeiten und dann das Bild einmal wieder zurück schicken. Das wren also für eine Karte mindestens 180 Mib. PCIe schafft bei 16 Lanes theoretisch maximal 4 GB/s. Das sind also bestenfalls ~22 Bilder/s. Viel Spaß damit. ;)

AnarchX
2008-08-22, 18:15:50
Ach da findet sich bestimmt unter den 500 Patenten auch ein intelligenter, verlustfreier und auf der GPU ausgeführter Kompressionsalgorithmus, der dieses Problem umgeht. ;D

Naja, warten wir mal auf die nächsten Infos bzw. Demos des Systems, Zweifel sind natürlich mehr als berechtigt...

edit:
Noch eine Patentschrift, die man auch einsehen kann:
METHOD AND SYSTEM FOR MULTIPLE 3-D GRAPHIC PIPELINE OVER A PC BUS (http://patents.ic.gc.ca/cipo/cpd/en/patent/2546427/summary.html)

tombman
2008-08-22, 19:01:26
Die hatten doch schon 50fps bis 60fps laufen, und es soll besser als SLi skaliert haben.
Wie soll das dann mit den 22fps stimmen?
Und wieso muß jedes Pixel übertragen werden?

AnarchX
2008-08-22, 19:05:52
Die hatten doch schon 50fps bis 60fps laufen, und es soll besser als SLi skaliert haben.
Wie soll das dann mit den 22fps stimmen?
Vielleicht war ja der Monitor und Eingabegeräte an einem etwas versteckten GTX 280 PC angeschlossen, während das 9800GT SLI direkt im Vordergrund stand und irgendwo ein minimalistisch, kaum lesbarer Aufsteller mit "simulation of final functionality " stand. ;) ;D


Und wieso muß jedes Pixel übertragen werden?
Weil nunmal eine GraKa den kompletten Framebuffer benötigt um daraus das Bild zur Ausgabe zu generieren bzw. weitere Bearbeitung vorzunehmen.

tombman
2008-08-22, 19:11:03
Weil nunmal eine GraKa den kompletten Framebuffer benötigt um daraus das Bild zur Ausgabe zu generieren bzw. weitere Bearbeitung vorzunehmen.
Ich dachte der Chip teilt die Szene in OBJEKTE auf. Dh Karte A darf an Objekt 1 bis 25 arbeiten und Karte B zb an Objekt 26 bis 56 (Hausnummern).
Der Rest ist dann eben SCHWARZ. Und dieses Schwarz kann man ja leicht komprimieren.

So stelle ich noob mir das eben vor :)

Demirug
2008-08-22, 19:15:38
Die hatten doch schon 50fps bis 60fps laufen, und es soll besser als SLi skaliert haben.

Was sie gezeigt haben war ein aufteilen der Rendercalls auf zwei Karten. Das kann ich dir mit jedem Mainboard in das ich zwei Karten stecken kann auch machen. Das komplizierte ist aber aus den zwei Bildern wieder eines zu machen und dafür wird die angegeben Bandbreite benötigt.

AnarchX
2008-08-22, 19:19:49
Was sie gezeigt haben war ein aufteilen der Rendercalls auf zwei Karten. Das kann ich dir mit jedem Mainboard in das ich zwei Karten stecken kann auch machen. Das komplizierte ist aber aus den zwei Bildern wieder eines zu machen und dafür wird die angegeben Bandbreite benötigt.
Das war nur ein Teil der Präsentation, daneben soll es noch Crysis @ 1920x1200 @Max. Details DX9 auf zwei 9800GT mit 40-60FPS gegeben haben:
http://techreport.com/articles.x/15367
Assuming the Hydra 100 does work as advertised, the big questions now are "How does it really perform?" and "Who will make use of it?" As for the first question, we got a demo of Crysis running at 1920x1200 at the highest quality levels available in DirectX 9. The test system was using a pair of GeForce 9800 GTX cards, and performance ranged between 40 and 60 FPS on the game's built-in frame rate counter. The game played very, very smoothly, and I didn't perceive any latency between mouse inputs and on-screen responses. That seemed very promising, but we'll have to get one of these things into Damage Labs for a true test of Lucid's scaling claims before we can draw any real conclusions about performance.
Das System:
http://img355.imageshack.us/img355/4716/luciddemo5492730yl5.jpg (http://imageshack.us)

LucidLogix says this approach can solve many of the problems inherent in multi-GPU rendering today. First, you get better scaling. The test system we saw our live demo on contained two GeForce 9800 GT cards (basically identical to the 8800 GT in performance) and yet we saw Crysis running at 1920x1200 in DX9 mode, with all details cranked up, getting 45–60 frames per second all the time. That's far better than the usual SLI scaling. For three or four graphics cards, where SLI and CrossFire deliver diminishing returns, the scaling for a HYDRA-enabled system should still be almost entirely linear, provided the game isn't limited by CPU power
http://www.extremetech.com/article2/0,2845,2328497,00.asp

Im integrierten Benchmark von Crysis liegt einer 8800GT (=9800GT) bei ~30FPS unter DX9:
http://ht4u.net/reviews/2008/asus_en9600_gt/index25.php

Aber wie schon gesagt, hat man da vielleicht etwas nachgeholfen... ;)

tombman
2008-08-22, 19:27:05
Ich glaub kaum, daß Intel denen Millionen in den Arsch schiebt, wenn die nix Funktionierendes in der Hand hätten...

"...Die Firma Lucid Technologies, die von Intels Finanzierungsarm mit Geld versorgt wird, hat während des Intel Developer Forum (IDF) ihre neue Multi-GPU-Technologie gezeigt..."

Demirug
2008-08-22, 19:40:24
Ich glaub kaum, daß Intel denen Millionen in den Arsch schiebt, wenn die nix Funktionierendes in der Hand hätten...

Peanuts aus der Portokasse.

Das war nur ein Teil der Präsentation, daneben soll es noch Crysis @ 1920x1200 @Max. Details DX9 auf zwei 9800GT mit 40-60FPS gegeben haben:
http://techreport.com/articles.x/15367

Aber wie schon gesagt, hat man da vielleicht etwas nachgeholfen... ;)

Ohne AA würde die Bandbreite ja reichen. Ich weiß jetzt nicht wie schlimm die AFR Fehler bei Crysis sind. Vielleicht sollte ich es mal auf meine neue 4870x2 werfen und die Checks im Driver abschalten.

tombman
2008-08-22, 19:51:36
Peanuts aus der Portokasse.
Und die blamieren sich auf der IDF weils so lustig ist, oder wie? :)
Btw, wer den peanut nicht ehrt ist die Milliarden nicht wert ;D

Ohne AA würde die Bandbreite ja reichen. Ich weiß jetzt nicht wie schlimm die AFR Fehler bei Crysis sind. Vielleicht sollte ich es mal auf meine neue 4870x2 werfen und die Checks im Driver abschalten.
Selbst wenns ohne AA ist, es gibt ja auch noch 2560x1600. Mit SLi kann man bei entsprechenden games auch 100fps+ erreichen, was ja dann laut deiner Rechnung mit Hydra auch nie gehen würde.
Ich glaub kaum, daß die DAS nicht bedacht haben...

Birdman
2008-08-22, 20:14:29
Hmm, wie werden z.B. FullScreen PP Effekte bei so einer Lösung dargestellt?
Dazu wird doch heutzutage das komplette, fertige Bild als Textur genommen und durch einen Whatever Filter gejagt.
Dazu müsste ja der Lucid Chips die Einzelkomponentend der Grakas abholen, zusammensetzen, und dann da drauf entweder selber den Effekt berechnen, dies der CPU überlassen, oder es einer der beiden Karten zum rechnen schicken.....
Dunno ob sowas überhaupt geht, hört sich für mich aber zu abenteuerlich an als dass es gescheit funktionieren würde.

AnarchX
2008-08-23, 09:40:31
Anandtech hat nun auch einen umfangreicheren Artikel, (http://www.anandtech.com/video/showdoc.aspx?i=3385&p=1) der das ganze auch etwas in Frage stellt.

Since Lucid is analyzing the data, they can even do things like not draw hidden "tasks" (if an entire object is occluded, rather than send it to a graphics card, it just doesn't send it down). I asked about dependent texturing and shader modification of depth, and apparently they also build something like a dependency graph and if something modified affects something else they are able to adjust that on the fly as well.


Das mit den "hidden "tasks" " klingt doch schon etwas nach TBDR?

Gast
2008-08-23, 09:54:11
Nur mal am Rande der Chef von Luzid ist seinem Namen nach ein Israeli und die sind für ihre Wundertechnologien sehr bekannt...

AnarchX
2008-08-23, 09:59:34
Nur mal am Rande der Chef von Luzid ist seinem Namen nach ein Israeli und die sind für ihre Wundertechnologien sehr bekannt...
Die ganze Firma sitzt in Israel:
http://lucidlogix.com/about/contact.html

Aber wenn man sich das Team anschaut, dann sind dort durchaus ein paar fähige Leute dabei:
http://lucidlogix.com/about/team.html

Das wäre vielleicht eine Möglichkeit die Technik mal vor dem Marktstart zu testen:
QA Test Engineer

* Knowledge with disassembling PCs and reassemble.
* Knowledge with installing a PC from scratch (Windows XP / Vista).
* Knowledge with MS Office tools.
* Good knowledge with searching the web for tools and answers inside forums.
* Responsible, young at heart, love playing PC games, likes the job of exploring for new bugs.

http://lucidlogix.com/work/job_listings.html
:D ;)

Demirug
2008-08-23, 10:52:51
Und die blamieren sich auf der IDF weils so lustig ist, oder wie? :)

Auf dem IDF wurden schon öfter Prototypen gezeigt die nie die Marktreife erreicht haben. In diesem Fall ist Intel ja sogar noch weniger involviert da sie ja lediglich Geld beigesteuert haben. Für Intel ist das mehr ein politisches Investment als ein technisches. Bei zukünftigen Verhandlungen mit nvidia können sie einfach sagen: „Wir haben da diese Firma an der Hand die uns von eurer SLI Lizenz unabhängig machen wird.“ Auch wenn am Ende nichts daraus werden sollte ist die Verhandlungsposition von nvidia erst mal geschwächt und sie werden schwerlich langfristig Zusagen von Intel einfordern können. Inel hat sich einfach Zeit gekauft die sie brauchen bis sie für Larrabee selbst eine Multi GPU Lösung haben.

tombman
2008-08-23, 12:10:35
Auf dem IDF wurden schon öfter Prototypen gezeigt die nie die Marktreife erreicht haben. In diesem Fall ist Intel ja sogar noch weniger involviert da sie ja lediglich Geld beigesteuert haben. Für Intel ist das mehr ein politisches Investment als ein technisches. Bei zukünftigen Verhandlungen mit nvidia können sie einfach sagen: „Wir haben da diese Firma an der Hand die uns von eurer SLI Lizenz unabhängig machen wird.“ Auch wenn am Ende nichts daraus werden sollte ist die Verhandlungsposition von nvidia erst mal geschwächt und sie werden schwerlich langfristig Zusagen von Intel einfordern können. Inel hat sich einfach Zeit gekauft die sie brauchen bis sie für Larrabee selbst eine Multi GPU Lösung haben.
Dann haben sie aber ein Problem, falls Hydra echt funken sollte, weil sie dann Geld in was gesteckt haben, was ALLEN nutzt, nicht nur Intel.
Es ist ja klar, daß die Zielgruppe sich ein Hydra mainboard kaufen wird, welches ALLE Multi-Gpu Systeme unterstützt als nur ein Intel mobo, welches nur die Intel Karten unterstützt- peinlicherweise sogar besser.

Mit X58+ NF200 wirds ja auch erstmals ein mobo geben was CF und SLI unterstützt- Asus hat schon bestätigt, daß sie sowas bauen werden ;)

pool1892
2008-08-23, 14:14:14
zuerst mal: dass intel da ein paar cent drin hat: keine sache. intel vc und die vielen anderen investieren immer noch in alles, was ein powerpoint hat und nicht bei drei auf den bäu...insolvent ist;-) würde ich unter zufall verbuchen, auch wenn es natürlich implikationen bzgl. verfügbarkeit geben könnte.

als ich die ankündigung gesehen habe, habe ich ähnlich wie demirug reagiert: unsinn. aber natürlich ist so ein design denkbar, auch wenn es ohne zutun der grafikchiphersteller und damit treiberanpassungen wohl wenig sauber wäre.
dann hab ich überlegt, was der chip selbst können muss - und der workload scheint mir ähnlich wie es die richtig großen netzwerkbausteine abbekommen: qos, load balancing, routing und so weiter - in fast echtzeit. da hab ich mir gedanken gemacht, wie das funktionieren soll, rein vom verbrauch und vom chipdesign. verglichen mit dem bekanntgebenen layout auf grundlage eines baukastenchips von tensilica hätte ich um größenordnungen mehr erwartet. das ding muss nen durchsatz von mehrern gbit/s verkraften und wirklich alles genau anschauen und soll dabei noch optimieren und sich selbst on the fly restrukturieren? uff. und das ganze ohne lokalen speicher? und ohne belastung für die hostprozesse, also die cpu? und ohne latenz in größenordnung von frames?

das ganze schmeckt nach wunderalgorithmus (muss ja auch da sein, denn hardware wie den hydra hätten amd und nvidia doch wohl schon längst verbaut, wenn sie so nen speedup dafür bekommen hätten - der hydra ist sehr klein und braucht max 5 watt).

ich kann mir vorstellen, dass das ganze ein wenig säbelrasseln ist, damit nvidia und amd die lizenzen für sli und cf nicht zu teuer machen, also irgendwie gepose.

für larrabee ist hydra ja prinzipiell uninteressant, weil äh...das eben genau der große vorteil von larrabee ist, loadbalancing in perfektion, alles ist identisch.

(und ein letztes: wäre es nicht viel viel sinnvoller, hydra mit nem ausgangsmodul zu bestücken, also praktisch hydra das signal zusammensetzen zu lassen und die grafikkarten gleichberechtigt zu betreiben? klassisches retro-master-slave-modell? dann bräuchte allerdings hydra lokalen speicher)

(ach ja, und: wie will liquid an dem chip verdienen? der darf nicht viel kosten, die haben enormen anpassungsaufwand bei jedem spiel und sie verwenden ne teure ip. nvidia klagt doch immer, wie teuer die ganzen anpassungen sind. und extreme stückzahlen werden das auch nicht, wenn nur die enthusiast mainboards damit bestückt werden.)

Gast
2008-08-23, 19:22:13
Dieser Custom Chip müsste also diese Datenmenge von zwei Chips holen verarbeiten und dann das Bild einmal wieder zurück schicken.
Reicht nicht das Holen von einer GPU? Das Bild der anderen ist ja gleich das ganze Bild, minus der Teile, die die erste GPU schickt.
Könnte man nicht die SLI/Crossfire-Brücke zusätzlich nutzen, um den PCIe-Bus zu entlasten, z. B. zum verschicken des Halbbildes an die Ausgabe-GPU?
Und letztlich, wenn ich folgendes Zitat richtig verstehe, dann kann die Methode auf 2 mal 16 Datenstränge zurückgreifen:
This chip has several key components, including a RISC processing core that Lucid licensed from a third party, Lucid's own proprietary 48-lane PCI Express switch fabric, and an image compositing engine. In a typical implementation, the Hydra 100 would be connected to a system's north bridge chip via a 16-lane PCIe connection. Two GPUs would then sit behind it, each connected to it via a PCIe x16 link. (The Hyrda 100 can also partition its PCIe lanes into a 4x8 config for quad-GPU setups.)

Gast
2008-08-23, 19:25:59
Über 4 gut gekühlte in einem externen Gehäuse ausgelagerten High-End-GraKas, deren Leistung noch nahezu linear skalieren soll, würde sich sicher so mancher Enthusiast freuen.;)


Würde mich auch über 3 interne midrange Grafikkarten, die die für ~250€ jedes andere high-end System wegblasen, freuen.
...und ab geht die luci...

tombman
2008-08-24, 03:34:50
Jo, der hat doch 48 lanes, 16 zur nb und 32 Richtung Gpus...
(also 2x16 oder 4x8)

Gast
2008-08-24, 13:07:52
für larrabee ist hydra ja prinzipiell uninteressant, weil äh...das eben genau der große vorteil von larrabee ist, loadbalancing in perfektion, alles ist identisch.



aber nicht über mehrere DIEs, da hat larrabee prinzipiell mal die gleichen probleme wie alle anderen GPUs.

das "tolle" scaling von larrabee ist im prinzip auch nichts besonderes, auch ATI/NV-karten skalieren sehr gut mit der anzahl der rechencluster.

Gast
2008-08-24, 13:26:55
im prinzip hört sich das ganze ja so ähnlich an wie das ur-crossfire mit master-karte, nur dass die aufteilung eben weder nach tiles noch nach einfach in 2 bildteile sondern nach rendercalls vorgenommen wird.

wie das ganze allerdings effizienter als herkömliches SLI/CF sein soll ist mir schleierhaft.

pool1892
2008-08-24, 13:58:28
aber nicht über mehrere DIEs, da hat larrabee prinzipiell mal die gleichen probleme wie alle anderen GPUs.

das "tolle" scaling von larrabee ist im prinzip auch nichts besonderes, auch ATI/NV-karten skalieren sehr gut mit der anzahl der rechencluster.

doch, auch über mehrere dice. denn der larrabee treiber wird ja eine art "emulation" darstellen, also einen on the fly compiler für eine ganze menge des codes. das kann man dann auch fast perfekt schedulen (mit sicherheit besser als hydra), weil ja die kapazitäten der hardware bekannt sind. sogar über 100% skalierung sind denkbar, falls durch verteilen häufige taskwechsel innerhalb der kerne wegfallen - das ist allerdings ziemlich theoretisch. Zitat (anand): "While Intel wouldn't get specific with multi-GPU Larrabee plans, it did state that with a multi-GPU Larrabee setup Intel doesn't "expect to have quite as much pain as they [AMD/NVIDIA] do""

der einzige echte begrenzer ist pciE, was aber dann in der nächsten gen mit qpi hinfällig wird (vielleicht ja sogar vom start weg, das ist noch nicht genau bekannt, wenn ich das richtig sehe) - dann sollen sogar die caches kohärent gehalten werden können.


dass die nvidia/amd hardware gut mit der anzahl der math-kerne skaliert: stimmt, aber wie oft ist es in der vergangenheit vorgekommen, dass ein bestimmtes spiel wegen der ratio bestimmter fixer raster- oder texturhardware limitiert war, obwohl die groben flops verfügbar waren? das kann bei larrabee nur sehr selten passieren (wenn intel die hausaufgaben macht eigentlich fast nie)

Gast
2008-08-24, 15:28:08
wenn das stimmt was im artikel steht, geht hydra über alles bisher bekannte balancing von sll, cross... weit hinaus.

-------------
"The most intriguing aspect of this scheme is how Lucid actually breaks down a scene and apportions work to the individual GPUs. Remez said the firm has applied for over 50 patents, many of them for its load-balancing algorithms, which are much more fine-grained than AFR, SFR, or the like.

It's difficult to express verbally, but Lucid's demo on the show floor offered a good sense of what's happening. The demo system had two GeForce GTX 260 cards connected to a Hydra 100 and enclosed in a box. A PCI Express cable then attached this test mule to the PCIe x16 slot in an enthusiast-class system (based on an Intel chipset). The whole setup was running Unreal Tournament 3. On one screen, we could see the output from a single GPU, while the other showed the output from either the second GPU or, via a hotkey switch, the final and composited frame. GPU 0 was rendering the entire screen space, but only portions of the screen showed fully textured and shaded surfaces—a patch of the floor, a wall, a column, a sky box—while other bits of the screen were black. GPU 1, meanwhile, rendered the inverse of the image produced by GPU 0. Wiggle the mouse around, and the mix of surfaces handled by each GPU changed frame by frame, creating an odd flickering sensation that left us briefly transfixed. The composited images, however, appeared to be a pixel-perfect rendition of UT3. Looking at the final output, you'd never suspect what's going on beneath the covers."
--------------

auch von der skalierung her gibts nix vergleichbares, da durch obigen ansatz beide gpu immer praktisch 100% ausgelastet sind AUCH wenn unterschiedliche GPUs eingesetzt werden.

--------------
"Remez told us Lucid uses a mix of load-balancing algorithms, and he wouldn't reveal too many specifics about how the various algorithms might work. He claims the end result is near-linear performance scaling. Even with mismatched GPUs, if the slower of the two is only 30% the speed of the faster one, the total system could produce nearly 1.3X the performance of a single card alone."
--------------


klingt einfach nur zu schön um wahr zu sein...

MasterElwood

Mark
2008-08-24, 15:32:45
Danke Gast, aber das System und die Skalierbarkeit sind seit der ersten Seite im Thread schon bekannt :rolleyes:

Gast
2008-08-24, 16:04:49
weis ich. trotzdem schreiben leute dauernd sachen wie:

"Es gibt da immer feine kleine Unterschiede in den Chips. Verbindet man solche Chips kommt es zu einem unruhigen Bild."

"Wie sollen solche Dinge wie FSAA und irgendwelche Beleuchtungseffekte funktionieren, wenn man die Objekte auf verschiedene GPUs aufteilt"

"Ich denke, dass der Entwickler das fertige Produkt schon auf Grafikkarten mit identischem Featureset limitieren wird"

"auch ATI/NV-karten skalieren sehr gut mit der anzahl der rechencluster"

"im prinzip hört sich das ganze ja so ähnlich an wie das ur-crossfire mit master-karte"



DARUM gehts ;-)

ME

Mark
2008-09-29, 00:39:40
kommt wohl nix?

AnarchX
2008-12-20, 09:56:04
Intel puts Lucid Hydra on x58

IT LOOKS LIKE Intel is not content with their x58 'Smackover' board, and is going to add a Lucid Hydra chip to the next revision. Yup, improved in every way, plus mix-and-match GPUs, what's not to love?
http://www.theinquirer.net/inquirer/news/117/1050117/intel-puts-lucid-hydra-on-x58

Mal sehen was daraus wird, damit Intel doch einen ziemlich Trumpf für den Enthusiastenmarkt in der Hand.

Man stelle sich nur mal ein GTX 295 Quad-"SLI" vor, was linear und ohne Mikroruckler skaliert, zumal hier ja noch nicht das Ende erreicht ist, da Lucid Logix Support für bis zu 8 GPUs verspricht.:D

Demirug
2008-12-20, 10:08:14
http://www.theinquirer.net/inquirer/news/117/1050117/intel-puts-lucid-hydra-on-x58

Mal sehen was daraus wird, damit Intel doch einen ziemlich Trumpf für den Enthusiastenmarkt in der Hand.

Man stelle sich nur mal ein GTX 295 Quad-"SLI" vor, was linear und ohne Mikroruckler skaliert, zumal hier ja noch nicht das Ende erreicht ist, da Lucid Logix Support für bis zu 8 GPUs verspricht.:D

Das wird nix. Das wird höchstens mal mit Larrabee funktionieren.

AnarchX
2008-12-20, 10:12:51
Das wird nix. Das wird höchstens mal mit Larrabee funktionieren.
Es gab doch schon lauffähige Demos, wenn auch die ganze Sache in der Tat ziemlich vaporwaremässig klingt.

Oder hast du schon mehr über die aktuellen Samples gehört, die ja LL zur Validierung den Herstellern gegeben hat?;)

Demirug
2008-12-20, 10:32:36
Ich kann es natürlich nicht beweisen aber diese Demo roch verdammt nach fake. Zudem hat man bei dieser Demo wohl die ganzen komplizierten Sachen (Schatten , Post Processing, …) überhaupt nicht demonstriert.

Ich bin jetzt mal böse und sage ich könnte dir das gleiche in nicht mal 2 Wochen mit einem SLI/Crossfire Board präsentieren. Letzten Endes würde es zwar auch nicht funktionieren aber diese Demo würde erst mal den Eindruck erwecken.

StefanV
2008-12-20, 18:17:50
The initial Hydra 100 supports up to 32 PCIe 2.0 lanes, and you can split it up to 2x16 or 4x8, hence the 4 GPU support.
http://www.theinquirer.net/inquirer/news/611/1045611/lucid-makes-multi-gpus-easy

Preise bekannt?

AnarchX
2008-12-30, 20:22:13
Da scheint wohl noch ein anderer großer Hersteller neben Intel überzeugt zu sein:
5a10 RD890 Northbridge only dual slot (2x16) PCI-e GFX Hydra part
5a11 RD890 Northbridge only single slot PCI-e GFX Hydra part
5a12 RD890 Northbridge only dual slot (2x8) PCI-e GFX Hydra part
http://pci-ids.ucw.cz/read/PC/1002
http://www.xtremesystems.org/forums/showthread.php?t=212665

Wenn Hydra die versprochene Skalierung bis 8 GPUs erreicht, dann wäre das natürlich perfekt für AMD, denen dann z.B. RV740 für das komplette Line-up reichen würde in H1 2009.

Demirug
2008-12-30, 20:43:51
Hydra ist bei AMD eigentlich der Codename für die 8 Core Opterons.

AnarchX
2009-02-11, 00:01:59
Mit ELSA hat man wohl einen Partner gefunden:
http://img5.imageshack.us/img5/593/limg46621138qt4.jpg (http://imageshack.us)
http://img9.imageshack.us/img9/5674/limg56671579nv0.jpg (http://imageshack.us)

http://www.elsa-jp.co.jp/newsrelease/2009/0130_eng.html

End of Mar 2009, The new solution will allow ELSA to provide a cost affective solution based on multi GPUs from any vendor. First products will feature dual and quad GPU configurations.

looking glass
2009-02-11, 00:12:59
Ich entschuldige mich für meine Unwissenheit, aber wie zur Hölle bringt man das Teil irgendwo in einem Gehäuse mit normalen ATX Mainboard an?

ESAD
2009-02-11, 01:19:54
IN einem gehäuse wo der rest steckt wohl garnicht

tombman
2009-02-11, 01:47:22
Also ich lese da nur was über "visualisation" und "medical", aber NIX über highend gaming...

ScottManDeath
2009-02-11, 02:46:30
Sieht aus wie Tesla cluster, so ganz ohne DVI/HDMI ;)

Coda
2009-02-11, 03:14:39
Und wofür genau braucht man dann diesen Lucid-Chip? Kann man doch jeden x-beliebige PCIe-Switch verwenden.

tombman
2009-02-11, 04:07:59
Jo, wenn er keine Bilder zusammensetzen tut, was zur Hölle macht der dann überhaupt?

Coda
2009-02-11, 05:21:57
Ich frag mich überhaupt was das für Karten sind. Gibt's Teslas in dieser Bauform? Man beachte auch dass sie nur einen Stromanschluss haben.

Ach okay, das ist der GTX-285-Verschnitt. Dachte das sei eine Dual-Lösung.

tombman
2009-02-11, 07:47:23
Ich frag mich überhaupt was das für Karten sind. Gibt's Teslas in dieser Bauform? Man beachte auch dass sie nur einen Stromanschluss haben.

Ach okay, das ist der GTX-285-Verschnitt. Dachte das sei eine Dual-Lösung.
Aber die 285 hat ZWEI 6pin Anschlüsse...

Demirug
2009-02-11, 07:52:44
Das sind Tesla Karten.

AnarchX
2009-02-11, 09:39:49
Natürlich wird sich die Lösung die ELSA hier zeigt erstmal an Profi-Anwender richten.
Für Endkunden relevanter wird Hydra erst, wenn er auf Mainboards (X58 Rev2?) oder eben auf Dual-GPU-Karten verbaut wird.

Nichtdestotrotz wird man über die ELSA-Lösung an unabhängige Tests kommen.
Wenn ELSA einfach einen PCie-Switch benötigt hätte, dann hätte man ein besseres Modell wohl von anderen Herstellern bekommen, mit 48 Lanes PCIe1.x ist ja der Hydra auch nicht gerade das beste was es gibt.

btw.
Die Karte ist eine Tesla 1060, welche durch den 55nm Die nur einen 8-Pin für die Stromversorgung benötigt, ganz unten an der Meldung gibt es aber auch noch Bilder mit anderen Profi-Karten.

Gast
2009-02-12, 18:48:43
2. Zwei Treiber unter Vista funktionieren nicht mit Aero.
Unter XP geht es aber, und unter Windows 7 geht es wieder.

Vista kann man da nicht wirklich zählen, da es ein Zwischenläufer war, der sich nicht wirklich verbreitet hat. (und eben keine mehreren GPU-Treiber unterstützt)

HOT
2009-02-19, 13:58:40
Jo, wenn er keine Bilder zusammensetzen tut, was zur Hölle macht der dann überhaupt?
Das Teil macht SFR in Hardware. Von wegen das macht nix ;). Mit dieser Technik kann man mehrere verschiedene Geforce oder Radeon (jedoch nicht die Hersteller gemischt) kombinieren und bekommt ein Maximum an Effizienz raus, wenn das Ganze funzt wie es soll. Die Funktionsweise ist im Prinzip simpel, die dazugehörige Software gibt aber den Ausschlag. Wenn AMD und NV das unterstützen gibts da auch mit Grafik keine Probleme - zumindest AMD scheint recht angetan von dem Konzept zu sein. Der Chip ist nicht nur ein PCIe-Switch, sondern ein Prozessor mit angebautem PCIe.

AnarchX
2009-02-19, 14:01:43
Wenn man Fuad glaubt, dann setzt ihn ELSA wohl doch nur als etwas besseres PCIe-Switch ein:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=12128&Itemid=65
... zur Cebit könnte es vielleicht eine Demo geben vom Consumer-Ansatz.

Gast
2009-02-19, 14:11:16
Hört sich für mich immer noch nach großem Bullshit an. Wie soll der Hydra denn die Bilder der GPUs zusammensetzen, wenn diese nix vom Hydra Chip wissen?

HOT
2009-02-19, 14:46:45
Wie schon gesagt wird es ohne Unterstützung der IHVs natürlich nicht gehen mit der Grafik. Aber wenn die auf diese Technik ebenfalls setzen, ist Grafik selbstredend auch möglich. Wenn AMD sowas im oder als Kombination mit dem RD890 vorsieht, wird das seine Gründe haben. Fakt ist, dass wir weg müssen von dem AFR-Bullshit und das ist der erste brauchbare Lösungsansatz überhaupt. Aller Anfang ist schwer, das gleich als Mist abzustempeln finde ich aber eher dumm - man sollte ihnen eine Chance geben. Ist genau wie mit der Ageia PhysX-Karte. Mittlerweile hat das einen brauchbaren Qualitätsmehrwert bei einigen Cosumerspielen - als das Teil rauskam haben es auch alle verteufelt.

Coda
2009-02-19, 15:57:52
Wenn AMD sowas im oder als Kombination mit dem RD890 vorsieht, wird das seine Gründe haben.
Tun sie nicht.

Triskaine
2009-02-19, 18:30:15
Weil?

Leonidas
2009-02-22, 13:26:57
Ich stempel es als "Mist" ab, weil die eben die Unterstützung von ATI und nVidia benötigen und sie die zumindest seitens NV niemals bekommen werden. Das ganz ist ungefähr so clever, wie einen x86-Prozessor zu designen ohne entsprechender Lizenz von Intel.

Aber Du hast Recht: Wenn es dennoch klappt, ist es technisch interessant.


Update: Hab es mir nochmal angesehen, besonders das neue von Fudzilla. Wenn es so funktioniert, wie ich es mir denke, wird wohl keine Lizenz für CF oder SLI benötigt.

_DrillSarge]I[
2009-02-22, 14:08:53
ich steige immernoch nicht hinter die funktionsweise :confused:
was machen die genau?

Captain Future
2009-02-23, 17:32:02
Ich glaub nicht dran. Objekt-based rendering... tststs

AnarchX
2009-08-11, 21:57:19
MSI P55 Big Bang Board mit Hydra 100 auf dem PCB:
http://www.iopanel.net/forum/thread31404.html

Peilo
2009-08-11, 23:46:38
könnte das nich vll auch ein fake sein? wo liegt denn vorteil, falls hydra nich funktioniert? sind die dann einfach nur billiger einzukaufen, wie die NF100/200

samm
2009-08-12, 01:20:48
Klingt mindestens merkwürdig... "one will enable the usage of video cards like HD4870 along with a
HD4650 for example" - das geht doch ohnehin schon, oder? Nicht, dass es sinnvoll wäre oder von jemand ernsthaft eingesetzt würde...

Demirug
2009-08-12, 08:03:21
Schönes Board für drei Grafikkarten aber zusammenarbeiten wie irgendwann mal versprochen werden die nie.

Gast
2009-08-12, 08:52:44
Sehr interessant ist, ob man nun immernoch spezielle Profile für Spiele braucht oder ob der Treiber des Lucid-Chips das unabhängig von der eingesetzten Software regeln kann.

san.salvador
2009-08-12, 09:23:34
Noch interessanter wäre es zu sehen, ob der Chip außer warmer Luft überhaupt etwas produziert. ;)

AnarchX
2009-08-12, 09:29:55
Wohlmöglich ist das nur ein Versuch ihn als PCIe-Switch einzusetzen, als Alternative zu einem NF100/200, wie ihn auch ELSA nutzen.

Wenn da nicht schon wieder so ein Satz wäre:
but a source inside one of the companies told us that the Hydra Chip is working as planned.

Demirug
2009-08-12, 09:37:24
Wohlmöglich ist das nur ein Versuch ihn als PCIe-Switch einzusetzen, als Alternative zu einem NF100/200, wie ihn auch ELSA nutzen.

Wenn da nicht schon wieder so ein Satz wäre:

Wenn MSI geplannt hat in als PCIe switch einzusetzen stimmt die Aussage ja.

Nighthawk13
2009-08-12, 20:11:27
Hmm, die Drawcalls von nicht-transparenten Objekten mit komplexen Shadern auf N Grafikkarten zu verteilen und die Framebuffer samt Z-buffer danach zusammenzusetzen und wieder hochzuladen => könnt ich mir vorstellen, dass das geht.

Aber was ist mit Alpha-Blending? Post-processing?
Z.b. HDR mit Bloom (Gaussfilter mit Render-to-Texture Ping-Pong).

StefanV
2009-08-12, 20:34:14
Ja, aber wie willst das ganze wieder zusammensetzen?
Da bist dann am Ende bei einer Lösung a la ATI Crossfire 1.0 (x1x00 Karten)

HD-Ronny
2009-08-13, 14:06:35
Hmm, damit könnte man doch auf dem board eine HD4xxx mit einer kleinen gforce als physx beschleuniger zusammenarbeiten lassen. Bin schon gespannt auf das erste review.

reallord
2009-08-13, 14:20:56
Hmm, damit könnte man doch auf dem board eine HD4xxx mit einer kleinen gforce als physx beschleuniger zusammenarbeiten lassen. Bin schon gespannt auf das erste review.

Geht das nicht eh jetzt schon, sofern das OS zwei Grafiktreiber parallel unterstützt? XP und 7 sollen das können, Vista nicht.

AnarchX
2009-08-13, 14:47:09
Hmm, damit könnte man doch auf dem board eine HD4xxx mit einer kleinen gforce als physx beschleuniger zusammenarbeiten lassen. Bin schon gespannt auf das erste review.

Zwischen auf "magischer Weise" Direct3D bzw. OpenGL Anweisungen auf verschiedenen Grafikkarten zu verteilen und PhysX unter CUDA ist doch ein erheblicher Unterschied.
Gerade letzteres unterbindet Nvidia, wenn nicht auch das Render-Device eine GeForce ist, mit den neuesten Treibern:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7462437#post7462437

HD-Ronny
2009-08-15, 13:20:52
Ach nvidia macht manchmal so komische Sachen das es schwerfällt die lieb zu haben. Sollen die doch froh sein wenn ein paar Nerds sich eine geforce für PhysX/Cuda gönnen. z.B mit sowas : http://geizhals.at/deutschland/a443649.html
Aber wer nicht will, der hat schon. Lassen wir uns mal überraschen welche fantastischen Möglichkeiten Hydra bietet, vielleicht kann man ja zwischen den Grakas switchen (gibt ja ähnliches schon bei notebooks um etwa den intel gma zu deaktivieren und mit einer radeon/geforce zu spielen). Bei mir ist jedenfalls das MSI Board auf der Merkliste ganz oben.

san.salvador
2009-08-15, 13:23:39
[...] vielleicht kann man ja zwischen den Grakas switchen (gibt es ja schon bei notebooks). Bei mir ist jedenfalls das MSI Board auf der Merkliste ganz oben.
Aber auch nur mit Reboot, das bekommst du manuell auch hin.

tombman
2009-09-23, 07:56:33
HYDRA LEBT!! Und scheint zu funken!!!

http://www.anandtech.com/video/showdoc.aspx?i=3646

Man stelle sich vor:

4x GT300+ Hydra :eek:

AnarchX
2009-09-23, 10:27:37
20 minütiges Video mit Offir Remez und Demos der Technologie und Ausblicke:
http://www.pcper.com/article.php?aid=785

robbitop
2009-09-23, 10:55:55
Allein der Fakt, dass sie noch keine Benchmarks zeigen, zeigt, dass es (noch??) nicht so toll skaliert, wie es soll.

tombman
2009-09-23, 12:22:34
Also, wenn DAS funkt mit ordentlicher Leistung, wenig Latenz und ohne MR, haben wir den heiligen Gral des Multi-GPU: Single-GPU-Spielgefühl ohne Profile!

robbitop
2009-09-23, 12:43:58
Die Skalierung wird prinzipbedingt nie an AFR herankommen. Ich frage mich auch, wie man mit Postprocessing umgehen will. Dazu benögigt man ja den gesamten Framebuffer und alle Rendertargets und Nebenpuffer. Und den jeden Frame auszustauschen würde schon eine anständige Bandbreite zwischen den Karten benötigen. Zwischen 10 und 20 GiB/s in etwa (je nach Auflösung/AA/Framerate etc).

mictasm
2009-09-23, 12:48:14
Sind das nicht zu wenig PCIe-Lanes für wirkliches High-End?

Demirug
2009-09-23, 12:51:12
Die Skalierung wird prinzipbedingt nie an AFR herankommen. Ich frage mich auch, wie man mit Postprocessing umgehen will. Dazu benögigt man ja den gesamten Framebuffer und alle Rendertargets und Nebenpuffer. Und den jeden Frame auszustauschen würde schon eine anständige Bandbreite zwischen den Karten benötigen. Zwischen 10 und 20 GiB/s in etwa (je nach Auflösung/AA/Framerate etc).

Und das ist nur die Spitze des Eisbergs von Problemen.

tombman
2009-09-23, 12:52:11
Hmm, naja, aber wieviel Rechenzeit braucht das PP? Kann nicht die display-gpu NUR den PP machen während die anderen GPUs den Rest gerechnet haben?
Es muß ja nicht 50-50 zu jedem Zeitpunkt gerechnet werden.

Sorry wenns Blödsinn ist, ich noob :)

p.s.: wenn das alles unlösbar wäre, warum baut MSI dann Mobos, und warum pumpt Intel Geld hinein?

AnarchX
2009-09-23, 12:56:06
p.s.: wenn das alles unlösbar wäre, warum baut MSI dann Mobos, und warum pumpt Intel Geld hinein?
Für MSI wohl ein günstiges PCIe-Switch und Intel könnte wohl mehr an ein paar Forschungsgrundlagen interessiert sein.

tombman
2009-09-23, 13:05:53
Für MSI wohl ein günstiges PCIe-Switch und Intel könnte wohl mehr an ein paar Forschungsgrundlagen interessiert sein.
Günstig ist gut: die Version auf dem MSI mobo kostet über 70$...
Wäre da ein NF200 nicht wesentlich günstiger?

Spasstiger
2009-09-23, 14:08:11
Günstig ist gut: die Version auf dem MSI mobo kostet über 70$...
Wäre da ein NF200 nicht wesentlich günstiger?
Das denke ich doch auch. Ein 70$-Chip ist alles andere als günstig, der wird sicherlich erst in der 300$-Klasse verbaut werden.

Dass es in Bezug auf die Durchschnittsframerate langsamer ist als AFR, ist voraussehbar. Wie es sich gegenüber der gefühlten Framerate bei AFR verhält, müssen aber Tester noch herausfinden. ;)
Wenn DX11 damit nicht geht, wird es aber wohl schnell wieder in der Versenkung verschwinden.

robbitop
2009-09-23, 14:41:07
Für das Postprocessing benötigt man das gesamte Bild. Also alles. Und das nach dem eigentlichen Rendern, was sich ja beide teilen. Also muss es ausgetauscht werden.

tombman
2009-09-23, 21:51:30
Für das Postprocessing benötigt man das gesamte Bild. Also alles. Und das nach dem eigentlichen Rendern, was sich ja beide teilen. Also muss es ausgetauscht werden.
Wo landet eigentlich ein Bild VOR dem PP? Liegt das verstreut auf mehreren Karten oder kann es auch auf nur einer Karte zu liegen kommen?

Demirug
2009-09-23, 22:05:48
Wo landet eigentlich ein Bild VOR dem PP? Liegt das verstreut auf mehreren Karten oder kann es auch auf nur einer Karte zu liegen kommen?

wenn du es auf einer Karten haben willst bist du wieder bei AFR.

tombman
2009-09-23, 22:24:14
wenn du es auf einer Karten haben willst bist du wieder bei AFR.
Kann nicht eine Karte als container dienen, wo beide Gpus Teilergebnisse des selben frames hinschicken und dann die container Karte allein das PP machen, während die zweite Karte schon wieder am nächsten frame "bastelt"?

Demirug
2009-09-23, 22:58:03
Kann nicht eine Karte als container dienen, wo beide Gpus Teilergebnisse des selben frames hinschicken und dann die container Karte allein das PP machen, während die zweite Karte schon wieder am nächsten frame "bastelt"?

Soviel Bandbreite gibt es nicht zwischen zwei GPUs.

AnarchX
2009-09-24, 13:11:32
Nun steigt MSI wohl beim Hype auch ein:

http://img29.imageshack.us/img29/9632/clipboard21.jpg (http://img29.imageshack.us/i/clipboard21.jpg/)

http://event.msi.com/mb/bigbang/

Der Prozessor im Chip ist auch etwas verbessert wurden:
Embeded RISC
• Tensilica Diamond Architecture 32-bit RISC
• 300 Mhz clock
• 64 Kbytes on-chip instruction memory
• 32 KBytes on-chip data memory
• On chip DMA engine to enable PCIe packet generation
and reception
• Real time control over the switch operation

dildo4u
2009-09-25, 08:43:22
Lucid Hydra 200: Vendor Agnostic Multi-GPU, Available in 30 Days

http://anandtech.com/video/showdoc.aspx?i=3646

tombman
2009-09-25, 09:02:28
Soviel Bandbreite gibt es nicht zwischen zwei GPUs.
Und wie setzt Hydra dann zusammen? Die 50% von der zweiten Karte- wie kommen die zu den 50% der ersten Karte?

tombman
2009-09-25, 09:04:12
Lucid Hydra 200: Vendor Agnostic Multi-GPU, Available in 30 Days

http://anandtech.com/video/showdoc.aspx?i=3646
Fast so alt wie du ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7550065&postcount=111

robbitop
2009-09-25, 09:08:03
Und wie setzt Hydra dann zusammen? Die 50% von der zweiten Karte- wie kommen die zu den 50% der ersten Karte?
Na nur mal den bereits fertig berechneten und downgesampelten Framebuffer zu übertragen ist wenig BB intensiv.

Wenn man aber PP machen will, muss man mehr als diesen Buffer übertragen, da der Fertige Buffer erst errechnet werden muss. Und dafür braucht man alle Puffer. Das wird dann wesentlich BB intensiver.

tombman
2009-09-25, 09:24:57
Im November werden wir dann eh wissen ob Hydra was taugt :)

Ich finde Hydra jedenfalls hochspannend!

Es macht mir nur ein bischen Sorgen warum kein X58 chipset gewählt wurde! X58 hat ja noch mehr Bandbreite als P55...

ScottManDeath
2009-09-25, 10:39:22
Wenn selbst NVIDIA intern nicht sicher war, ob man Karten verschiedener Generationen zusammenarbeiten lassen kann, bin ich gespannt, wie garantiert werden soll, das Karten verschiedener Hersteller Subpixel bit-kompatibel werden sollen... Sachen wie Interpolation, usw. sind mit einem gewissen Fehler spezifiziert, innerhalb dessen haben die IHVs freie Hand...

boxleitnerb
2009-09-25, 11:16:43
Wie ist das eigentlich, wenn man theoretisch ne GTX285 und ne HD4870 zusammenstecken würde. Könnte man Dinge beschleunigen lassen, die eine der Karten nicht kann? SSAA? Andere AF-Implementierung (HQ). Anderes Featureset (10 vs. 10.1)?

AnarchX
2009-09-25, 11:22:04
Zwei Grafikkarten von verschiedenen Herstellern, werden momentan noch nicht offiziell unterstützt und selbst wenn dann kann man wohl soetwas eher vergessen.
Denn die PCIe-Bandbreite reicht wohl kaum, die TMUs einer GeForce mit den ALUs einer Radeon zu verbinden, zumal Lucid wohl kaum einen solchen Zugriff auf die GPUs hat.

Demirug
2009-09-25, 12:11:17
Zwei Grafikkarten von verschiedenen Herstellern, werden momentan noch nicht offiziell unterstützt und selbst wenn dann kann man wohl soetwas eher vergessen.
Denn die PCIe-Bandbreite reicht wohl kaum, die TMUs einer GeForce mit den ALUs einer Radeon zu verbinden, zumal Lucid wohl kaum einen solchen Zugriff auf die GPUs hat.

Lucid hat nur auf das Zugriff was das API/DDI erlaubt. Ich wage mal vorherzusagen das es nur bei ganz einfachen Spielen funktionieren wird und sie ansonsten auf AFR oder noch schlimmer auf eine einzelne Karte zurück fallen werden.

tombman
2009-09-25, 14:17:32
Also, wenn Hydra schlechter als AFR ist, bedeutet das doch praktisch einen INSTANT DEATH.
Das einzige Ziel von Hydra ist doch Multi-Gpu Überlegenheit!
Wenn die fps nicht stimmen, wird jeder Enthusiast drauf pissen und weiterhin SLI/CF nutzen...

Lucid wird doch klar sein, daß jeder reviewer hydra sofort mit SLI/CF vergleichen wird, und wenn da nicht zumindest Gleichstand herrscht....
P55 hat CF und SLI Lizenz, also ist das in 2 Minuten gebenched...

Gast
2009-09-25, 14:48:49
Vielleicht gibt es ja sowas wie Eyefinity obendrauf. :devil:

Spasstiger
2009-09-25, 15:19:28
Also, wenn Hydra schlechter als AFR ist, bedeutet das doch praktisch einen INSTANT DEATH.
Das einzige Ziel von Hydra ist doch Multi-Gpu Überlegenheit!
Wenn die fps nicht stimmen, wird jeder Enthusiast drauf pissen und weiterhin SLI/CF nutzen...
AFR ist schon das Verfahren, das am Besten skaliert. Besser geht es nicht. Wenn mehrere Karten am selben Bild rendern, hat man zwangsweise einen "Verschnitt", weil sich nicht alles zu 100% parallelisieren lässt.
Gefühlt könnte Hydra allerdings schneller sein, wenn die Mikroruckler entfallen.

tombman
2009-09-25, 15:21:17
Aber hat Lucid nicht gerade mit besserem scaling geworben? Vorallem je mehr Chips eingesetzt werden und bei 4 am besten im Vergleich zu SLI/CF?

Leonidas
2009-09-25, 15:50:45
In erster Linie *wirbt* Lucid erst einmal nur. Das ist derzeit deren große Stärke. Ob das Produkt selber auch stark ist, ist noch lange nicht raus.

Ich geb dem ganzen immer noch eine 30% Chance, daß das nur ein großer Bluff ist. 60% dafür, daß es das versprochene kann, es aber in der Praxis aufgrund Kompaibilitätsproblemen zu selten läuft. Allerhöchstens 10% dafür, das Lucid es hinbekommt. Und selbst das ist möglicherweise noch zu hoch gegriffen.

Mark
2009-09-25, 15:57:35
Gab es nicht eine Folie die sogar gezeigt hat, dass Hydra üperpropotional skaliert? Mit 2 Grafikkarten gleich mal 120% Mehrleistung gegenüber einer Karte

Spasstiger
2009-09-25, 19:34:18
Gab es nicht eine Folie die sogar gezeigt hat, dass Hydra üperpropotional skaliert? Mit 2 Grafikkarten gleich mal 120% Mehrleistung gegenüber einer Karte
Wird bestimmt als Feature namens Magic Synergizer verkauft. :freak:

AnarchX
2009-09-25, 22:56:28
Mit einem TBDR-Ansatz könnte Lucid wohl wirklich Rechenleistung sparen und damit ein besseres Ergebnis erreichen, als ein normal angesprochener IMR.
Nur das man dies performant umsetzen kann ist wohl eher zweifelhaft.


The HYDRA engine contains processes to analyze the frames
before rendering and intelligently distribute the rendering tasks
between the GPUs on board. The frame decision mechanism
resolves bottlenecks and inter-frame dependencies prior to
rendering, in real-time, such that there is no additional latency.

Demirug
2009-09-25, 23:29:57
Mit einem TBDR-Ansatz könnte Lucid wohl wirklich Rechenleistung sparen und damit ein besseres Ergebnis erreichen, als ein normal angesprochener IMR.
Nur das man dies performant umsetzen kann ist wohl eher zweifelhaft.

Das ist aber kein TBDR Ansatz. Dabei geht es darum festzustellen welches Rendertarget wann wieder als Texture benutzt wird. Desweiteren muss der Einsatz von Alphablending überwacht werden. Diese Informationen werden gebraucht um das kopieren zwischen den GPUs zu optimieren.

Für AFR laufen bei nvidia und ATI ähnliche Analysen wenn es kein Profil gibt welche das Spiel als MGPU friendly einstuft.

Birdman
2009-09-26, 00:17:18
Wird bestimmt als Feature namens Magic Synergizer verkauft. :freak:
Theoretisch ist dies aber möglich, vor allem beim Einsatz von Karten versch. Hersteller und Baureihe.
Je nachdem limitiert bei einer Karte ja eine andere Komponente (Fillrate, Bandbreite, Shaderpower whatever) als bei der zweiten Karten und durch geschicktes Lastverteilen auf die unterschiedlichen Funktionseinheiten des Grafikchips könnte es möglich sein, mehr als 100% Steigerung rauszuholen.

Wurzelkraft
2009-09-26, 13:07:42
Evtl. wurde das Video bereits gepostet, wenn nich hier das Interview mit pcper.com :

http://pcper.com/article.php?aid=785

Um die 20 min lang; back to the roots ?

|FAT|Punisher
2009-09-26, 13:31:17
Für das Postprocessing benötigt man das gesamte Bild. Also alles. Und das nach dem eigentlichen Rendern, was sich ja beide teilen. Also muss es ausgetauscht werden.
Was im Übrigen überhaupt kein Problem wäre!
1920x1200x3 Bytes sind 6,6 MB. Dann werden die eben rübergeschickt, so what?

Coda
2009-09-26, 13:56:48
Die Latenz ist das Problem. Und es sind auch oft nicht nur 3 Bytes pro Pixel.

tombman
2009-09-26, 13:57:31
Was im Übrigen überhaupt kein Problem wäre!
1920x1200x3 Bytes sind 6,6 MB. Dann werden die eben rübergeschickt, so what?
8000 mb/s hätte man bei pci-e 16x 2.0

Hmm, wieviel buffer bräuchte man denn bei sowas? Bei 5 vollen Bildern 100x pro Sekunde wären das 6.6*5*100= 3300mb/s

Geht doch, oder?

[/noobige Milchmädchenrechnung]

|FAT|Punisher
2009-09-26, 14:22:11
Die Latenz ist das Problem. Und es sind auch oft nicht nur 3 Bytes pro Pixel.
Das ist jetzt die Frage. Wenn es um Postprocessing geht, sind es dann nicht wirklich nur 3 Bytes? Aber gut, laß es 12 sein, ist doch furzegal. Das sind alles nur wenige MB, oder wenige zig MB.

Peilo
2009-09-26, 15:19:00
wenn pp so ein aufwand ist, würd ich drauf verzichten wenn dadurch die fps hoch genug sind, pp sieht in vielen games eh übertrieben aus

AnarchX
2009-10-08, 13:23:32
Auf eine Soundkarte kann man wohl beim Big Bang erstmal verzichten:
http://eu.msi.com/index.php?func=newsdesc&news_no=868
... so bleibt mehr Platz für Grafikkarten. :D

Coda
2009-10-08, 15:14:26
Das ist jetzt die Frage. Wenn es um Postprocessing geht, sind es dann nicht wirklich nur 3 Bytes? Aber gut, laß es 12 sein, ist doch furzegal. Das sind alles nur wenige MB, oder wenige zig MB.
Was hat das nochmal genau mit der Latenz zu tun? ;)

AnarchX
2009-10-10, 10:54:25
Q&A mit NV und AMD zu Hydra:
http://www.legitreviews.com/article/1093/5/

|FAT|Punisher
2009-10-11, 00:31:35
Was hat das nochmal genau mit der Latenz zu tun? ;)
Wenn ich 8 MB mit 8000 MB/s übertrage (PCIe 2.0 16x, als Beispiel), dann dauert das 1 ms. Diese Latenz ist wohl gerade noch zu verkraften.

Coda
2009-10-11, 00:44:06
Es ist mehr als 1ms, weil da noch zusätzliche Latenzen dazukommen von PCIe. Und 1ms sind bereits sehr viel wenn man hohe Frameraten will. Bei 60 FPS darf jedes Bild nur 16ms dauern - während der 1 ms müssen alle GPUs warten.

Und man muss ja nicht nur einmal pro Frame etwas übertragen. Das heißt 6 Transfers und man hat schon 1/3 der Frametime verbraten. Mit effektivem Nichtstun.

Peilo
2009-10-11, 12:53:25
und deswegen wird es noch lange dauern, bis multigpu wirklich kein unterschied zu single gpu macht.
denn diese latenz kann man nicht wegzaubern

stav0815
2009-10-12, 10:24:46
Wie war das eigentlich damals bei der XGI Volari V8 Duo? Müsste es da nicht auch Micro-Ruckler gegeben haben?
(mal von den normalen Rucklern dieser Karte abgesehen :freak:)

AnarchX
2009-10-12, 10:30:00
Da man hier wohl auch AFR gesetzt hat, dürfe sie auch betroffen gewesen sein.

|FAT|Punisher
2009-10-12, 21:07:03
Es ist mehr als 1ms, weil da noch zusätzliche Latenzen dazukommen von PCIe.
Klar, aber da wir nicht wissen, wie hoch die sind... Können auch nur einige µs sein, wer weiß das schon.
Und man muss ja nicht nur einmal pro Frame etwas übertragen.
Doch, ich bezog mich ja nur auf das Postprocessing, für das ggf. jede Karte das vollständige Bild benötigt. Also muß das vollständige Bild einmal kopiert werden.

Demirug
2009-10-12, 21:10:37
Doch, ich bezog mich ja nur auf das Postprocessing, für das ggf. jede Karte das vollständige Bild benötigt. Also muß das vollständige Bild einmal kopiert werden.

Schön wäre es. Bei den ganzen Schritten die heute gemacht werden kann das auch mal schnell 5 oder noch Kopien erfordern.

|FAT|Punisher
2009-10-12, 21:46:17
Schön wäre es. Bei den ganzen Schritten die heute gemacht werden kann das auch mal schnell 5 oder noch Kopien erfordern.
Hmnö, die Notwendigkeit sehe ich nicht.
Es könnte z.B. eine Karte die obere Bildhälfte und eine die untere Bildhälfte per Postprocessing behandeln. Beide haben das komplette Ausgangsbild, also alle notwendigen Daten. In der Mitte kann man nach oben bzw. unten ein bißchen überlappend rechnen, wenn angrenzende Pixel mit einbezogen werden.

- Ist aber auch sch...egal. Ich warte, bis es die ersten Testberichte der Hydra gibt. Ich bin sehr skeptisch, aber auch sehr gespannt auf das Teil. :smile:

Demirug
2009-10-12, 22:25:43
Wenn man spezifische Kenntnisse über das Postprocessing eines Spiels hat geht das natürlich. Nur haben generische Lösungen diese Kenntnisse nicht.

deekey777
2009-10-25, 22:54:22
JHH mag Hydra nicht:
http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/#
CHW: What do you think about the Lucid Hydra 200 Chip?
JHH: I don’t know, it sounds like terrible idea. There is so much software going on, drivers, applications and optimization that to think that there is no software is a bad idea, too much to expect. Plus SLI and Crossfire are available to anybody.

Gast
2009-10-25, 22:58:27
das nächste treiberupdate wirds dann wohl richten :ugly:

AnarchX
2009-10-29, 08:27:00
# MSI P55 GD80 Fuzion = with the Lucid Hydra chip -- this motherboard has been delayed to Q1 2010.
http://www.guru3d.com/news/msi-big-bang-fuzion-hydra-motherboard-q1-2010/

Taigatrommel
2009-10-29, 09:55:39
JHH mag Hydra nicht:
http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/#
Available to anybody? Gerade SLI unterliegt doch größeren Beschränkungen. Gut, das hat sich in den letzten Monaten geändert, nur gerade auf den AMD Plattformen muss man auf vergleichsweise alte nVidia Chipsätze zurückgreifen. Selbst auf den aktuellen P55 Boards muss man extra auf den NF100 Chip achten, wenn man volle Ausnutzung der SLI Möglichkeiten will.
Ich liebäugele für mein nächstes Systemupgrade in den kommenden Wochen mit einem AMD System - allerdings möchte ich gerne SLI nutzen. Da sind die Möglichkeiten irgendwo überaus ernüchternd.

tombman
2009-10-29, 10:19:26
Lol, der countdown rennt weiter :rolleyes:
http://event.msi.com/mb/bigbang/

Demirug
2009-10-29, 12:11:52
Irgendwie habe ich das geahnt. Ich vermute man hat einfach die Komplexität der heutigen Renderpipelines unterschätzt.

Philipus II
2009-10-29, 12:22:55
Irgendwie glaube ich net an einen Erfolg. Ich vermute, dass da nichts funktionierendes rauskommt.
Naja, mal schaun...

AnarchX
2009-10-29, 13:47:19
Big Bang Fuzion
The upcoming Big Bang Fuzion mainboard features the powerful Lucid HYDRA engine, designed to support different Graphics Processing Units (GPUs) within a single system. This provides the first viable alternative to offerings from current graphics card vendors that offer identical multi-GPU specific solutions. It will be revealed before the end of 2009.
http://www.msi.com/index.php?func=newsdesc&news_no=882

tombman
2009-10-29, 13:56:40
Irgendwie habe ich das geahnt. Ich vermute man hat einfach die Komplexität der heutigen Renderpipelines unterschätzt.
Irgendwie glaube ich net an einen Erfolg. Ich vermute, dass da nichts funktionierendes rauskommt.
Naja, mal schaun...
http://www.msi.com/index.php?func=newsdesc&news_no=882
Jo, des wird nix mehr. Ende 2009 verschieben sie es dann auf Q1 2010, und irgendwann wird es dann leise released, weil die Leistung nicht da ist :rolleyes:

Auf ein bischen Leistung würde ich gerne verzichten, wenn ich dadurch MR loswerden könnte. Dann wird eben statt 2x GT300, 3x GT300 genommen, dafür MR-frei :D

Tjo, wenns so einfach nur gehen würde... :)

Demirug
2009-10-29, 14:19:57
Wen man das MultiGPU Problem effektiv ohne AFR lösen könnte hätten es ATI und nvidia schon längst getan. Dann müssten sie sich auch nicht mehr mit AFR unfreundlichen Spielen rumschlagen.

AFR-MR könnte man eigentlich ganz leicht beseitigen. Ich hatte schon beim ersten bekanntwerden eine Lösung dafür ausgetüftelt. Dummerweise muss man es direkt in der GPU machen. Rein durch Software ist es leider nicht machbar. Die Sache ist allerdings so simpel das ich mir beim besten Willen nicht vorstellen kann das ATI und nvidia nicht selbst darauf gekommen sind. Es liegt also wohl eher am Unwillen.

tombman
2009-10-29, 14:28:16
Wen man das MultiGPU Problem effektiv ohne AFR lösen könnte hätten es ATI und nvidia schon längst getan. Dann müssten sie sich auch nicht mehr mit AFR unfreundlichen Spielen rumschlagen.

AFR-MR könnte man eigentlich ganz leicht beseitigen. Ich hatte schon beim ersten bekanntwerden eine Lösung dafür ausgetüftelt. Dummerweise muss man es direkt in der GPU machen. Rein durch Software ist es leider nicht machbar. Die Sache ist allerdings so simpel das ich mir beim besten Willen nicht vorstellen kann das ATI und nvidia nicht selbst darauf gekommen sind. Es liegt also wohl eher am Unwillen.
Hast du die Lösung hier schon kommuniziert?
Verliert man bei dieser Lösung fps?

Raff
2009-10-29, 14:33:19
Sofern du's nicht schon längst getan hast, solltest du diese Lösung mal an deine Dev-Kontakte schicken. Eventuell sehen wir das dann in kommenden Architekturen. :)

MfG,
Raff

Ailuros
2009-10-29, 14:35:55
Sofern du's nicht schon längst getan hast, solltest du diese Lösung mal an deine Dev-Kontakte schicken. Eventuell sehen wir das dann in kommenden Architekturen. :)

MfG,
Raff

Beide IHVs zeigten sich bis jetzt bei privater Ansprache nicht besonders daran interessiert so lange die extrem billige AFR Loesung sich verkaufen laesst.

Demirug
2009-10-29, 14:47:09
Hast du die Lösung hier schon kommuniziert?
Verliert man bei dieser Lösung fps?

Theoretisch in Fällen wo man aber sowieso nichts von den zusätzlichen Frames hat weil sie durchrutschen.

Sofern du's nicht schon längst getan hast, solltest du diese Lösung mal an deine Dev-Kontakte schicken. Eventuell sehen wir das dann in kommenden Architekturen. :)

MfG,
Raff

Dev-Kontakt nützt da nichts. Die können ja nur bei Problemen mit vorhandener Hardware helfen. Da muss man schon einen Hardwarearchitekt überzeugen.

Wuge
2009-10-29, 18:30:28
Jo, des wird nix mehr. Ende 2009 verschieben sie es dann auf Q1 2010, und irgendwann wird es dann leise released, weil die Leistung nicht da ist :rolleyes:

Auf ein bischen Leistung würde ich gerne verzichten, wenn ich dadurch MR loswerden könnte. Dann wird eben statt 2x GT300, 3x GT300 genommen, dafür MR-frei :D

Tjo, wenns so einfach nur gehen würde... :)

Kannst Du das nicht auch so haben? Einfach 3 statt 2 Grafikkarten rein und dafür VSync an.

tombman
2009-10-29, 18:49:56
Theoretisch in Fällen wo man aber sowieso nichts von den zusätzlichen Frames hat weil sie durchrutschen.
Und die erste Frage war: hast du die Methode schon mal irgendwo in einem öffentlichen Forum etc beschrieben?
Kannst Du das nicht auch so haben? Einfach 3 statt 2 Grafikkarten rein und dafür VSync an.
VSync schützt aber NICHT vor MR im relevanten fps-Bereich -> lies dir die Problematik von MR nochmal durch, damit du es auch verstehst ;)

Wuge
2009-10-29, 21:33:32
Was ist für Dich der FPS relevante Bereich? Ich will bei so einer Grafiklösung konstante 60 FPS mit VSync. Damit ist die MR Problematik gleich mit gelöst ;)

Reaping_Ant
2009-10-29, 22:26:25
Ich will bei so einer Grafiklösung konstante 60 FPS mit VSync.

Das ist natürlich der Optimalfall. In solchen Situationen schafft aber auch die Single-GPU um die 40 FPS.

Für mich, der ich schon drei Mal in die Multi-GPU Falle getappt bin (7800 GT SLI, 8800 GT SLI und 4870 X2), war der Mehrwert gegenüber der Einzelkarte stets bestenfalls esoterischer Natur. In jedem Fall war das Spielgefühl mit einer etwas stärkeren Single-GPU wesentlich besser (die jeweiligen Nachfolger waren eine X1900 XT, 8800 GTX und GTX 285).

Als 30"-Nutzer und Bildqualitätsfetischist wäre ich von einer Multi-GPU Lösung ohne Mikroruckler und guter Skalierung sehr angetan. Einerseits fände ich es deshalb bedauerlich, wenn sich Lucid's Wunderwerk als Vaporware entpuppen würde, andererseits habe ich selbst mit meinem eher marginalen Verständnis von Renderpipelines und PCIe starke Zweifel an dessen Funktionalität.

tombman
2009-10-30, 01:53:17
Was ist für Dich der FPS relevante Bereich? Ich will bei so einer Grafiklösung konstante 60 FPS mit VSync. Damit ist die MR Problematik gleich mit gelöst ;)
30 bis 60 fps, da man sonst multi gpu gar nimmer braucht...
Außerdem verschlechtert sich der IL mit vsync dramatisch.
Ich hab mal auf 24hz am lcd tv gelockt, und es waren konstante
frametimes, aber praktisch nimmer bedienbar...

Wuge
2009-10-30, 18:15:24
Prerender Frames runter auf 1 und es reagiert i.d.R. ganz gut. Ich persönlich mag konstante 30 FPS lieber als Schwankungen zwischen 30 und 60. Das gilt auch für Single GPU.

Und wieso braucht man multi GPU nicht bei 60 FPS? Beispiel NFS Shift. Mit einer GPU hatte ich in den gewünschten Settings 40-50 FPS ohne VSync, das wirkte nicht flüssig. Mit SLI hab ich 60 FPS Vsync on und es ist perfekt flüssig.

Gouvernator
2009-10-31, 09:03:04
Prerender Frames runter auf 1 und es reagiert i.d.R. ganz gut. Ich persönlich mag konstante 30 FPS lieber als Schwankungen zwischen 30 und 60. Das gilt auch für Single GPU.

Und wieso braucht man multi GPU nicht bei 60 FPS? Beispiel NFS Shift. Mit einer GPU hatte ich in den gewünschten Settings 40-50 FPS ohne VSync, das wirkte nicht flüssig. Mit SLI hab ich 60 FPS Vsync on und es ist perfekt flüssig.
Naja, nicht alle wollen extra 200€-500€ ausgeben um nur "flussig" zu spielen. Ich würde mir verarscht vorkommen, wenn ich A) doppelten Preis zahle und B) keine ~doppelte Leistung bzw. BQ dafür bekomme. In deinem Fall hast du von dem doppelten Preis etwas mehr Leistung bei absolut gleicher BQ, ist es das Geld wert?

=Floi=
2009-10-31, 14:14:17
er hat ja bessere bq.

Wuge
2009-10-31, 14:23:15
Naja, nicht alle wollen extra 200€-500€ ausgeben um nur "flussig" zu spielen. Ich würde mir verarscht vorkommen, wenn ich A) doppelten Preis zahle und B) keine ~doppelte Leistung bzw. BQ dafür bekomme. In deinem Fall hast du von dem doppelten Preis etwas mehr Leistung bei absolut gleicher BQ, ist es das Geld wert?

Naja, die zweite Grafikkarte hab ich mir gekauft, als eine einzelne dann zu langsam wurde für neue Games. Die hat mich ganze 70 EUR incl. Versand gekostet. Daher war mirs die Sache natürlich Wert.

Aber ich versteh schon was Du meinst.

Bei mir ist es halt so, dass ich generell ungern ohne VSync spiele und dann machts halt nen Unterschied (z.B. am Beispiel NFS Shift oder CoD WAW) ob ich die 60 FPS garnicht bzw. nur mit reduzierten Settings erreiche oder ob ich meine 60 FPS konstant mit AA hab.

Doppelte Leistung wirds außer in synthetischen Tests kaum geben. Wenn die Grafiklösung (wie bei mir) im Vergleich zur CPU recht schwach ist, kommt man aber auf eine Skalierung um die 90%, das ist schon o.k..

tombman
2009-11-04, 20:42:04
Laut Charlie erlaubt NV nicht, daß Hydra jemals funktioniert. Deswegen ist das MSI Fusion mobo gestorben. MSI hat das board auf Q1 verschoben und wird so weitermachen, bis es jeder vergessen hat.
Tjo, das wars dann...
http://www.semiaccurate.com/2009/11/04/nvidia-crushes-msis-lucid-based-board/

Coda
2009-11-04, 20:51:22
Wie genau sollte NVIDIA das denn anstellen? Außerdem könnte Lucid dann ja immer noch sagen es läuft nur mit ATI-Karten.

Eh scheiß egal, das Ding hätte imho sowieso nicht funktioniert.

Demirug
2009-11-04, 20:51:31
Halte ich für eine faule Ausrede. Zudem hat Charlie überhaupt nicht verstanden wie das ganze technisch funktionieren soll. Das merkt man schon im ersten Absatz.

Coda
2009-11-04, 20:53:54
Natürlich kapiert das Charlie nicht, dafür brauch ich nichtmal einen Absatz lesen.

Deshalb kann ich ihn auch überhaupt nicht ausstehen. Er kommentiert mit einer schärfe Sachen die er nicht einmal ansatzweise versteht und fühlt sich dabei auch noch im Recht.

tombman
2009-11-04, 21:16:22
Wie genau sollte NVIDIA das denn anstellen?
Indem sie die komplette 3D-Beschleunigung deaktivieren, sobald eine ATI Grafikkarte entdeckt wird?
Dürften sie das überhaupt?

HatesuckZ
2009-11-05, 17:13:09
Natürlich dürfen sie das, immerhin werden die Geforcekarten nicht damit beworben, dass sie mit einer AMD-Karte im System funktionieren.

LovesuckZ
2009-11-05, 17:16:14
Indem sie die komplette 3D-Beschleunigung deaktivieren, sobald eine ATI Grafikkarte entdeckt wird?
Dürften sie das überhaupt?

Wie sollen sie das machen? Damit müssten sie in das Betriebssystem eingreifen. Und ich wette, dagegen hätte Microsoft etwas. :D

Bei PhysX deaktiviert nVidia die eigene Funktionalität.

Gouvernator
2009-11-05, 17:21:36
Ich glaube jemand versucht Nvidia einfach anzuschwärzen. Lucid sucht momentan Personal mit "Reverse-Engineering" Erfahrung... sprich sie haben sich festgefahren, können ihr Produkt nicht in annehmbaren Zustand ausliefern und um das zu "rechtfertigen" benutzen sie Nvidia um die Mehrheit zu "überzeugen" das böse NV mal wieder gegen den Spieler ist... LoL. Intel hasst NV wirklich.

Sefegiru
2009-11-05, 17:49:19
Ganz ehrlich das ist der selbe Blödsinn warum CF und SLI nicht auf allen Mobos laufen....

Menace
2009-11-05, 21:28:12
Dazu auch noch ht4u:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=424996&page=10&highlight=Lucid

Kephis
2009-11-06, 15:24:44
Wie sollen sie das machen? Damit müssten sie in das Betriebssystem eingreifen. Und ich wette, dagegen hätte Microsoft etwas. :D

Bei PhysX deaktiviert nVidia die eigene Funktionalität.

Wieso, sie müssten doch nur sobald ein Hydra Chip detected wird ihre eigene Graka abschalten, ähnlich Physix mit ATI Karten.

Gast
2009-11-07, 19:34:32
funktioniert bestimmt und wenn nich gibts halt nen nachfolger hiervon
http://img440.imageshack.us/img440/1473/bfast3gcw3.jpg

dreas
2009-11-07, 20:38:12
funktioniert bestimmt und wenn nich gibts halt nen nachfolger hiervon
http://img440.imageshack.us/img440/1473/bfast3gcw3.jpg

Hab sehr gelacht! Danke für dieses grandiose Bild!

Gast
2009-11-09, 04:30:32
http://www.gamestar.de/hardware/news/grafikkarten/2310359/nvidia.html

Der nächste Marketingflop seitens Nvidia?

Die Kommentare sind ja auch nicht ohne... ;D

=Floi=
2009-11-09, 04:37:10
es gibt schlimmeres und irgendwo ist der weg nur logisch. die kämpfen um ihre zukunft und da gibt es keinen wohlfahrtsweg.

Coda
2009-11-09, 04:43:54
Wenn Lucid etwas funktionierendes hätte, könnten sie das Reviewern auch schicken ohne dass NVIDIA ihren Segen dazu geben. Alte Treiber im nachhinein ändern ist schwierig. Und ATI-Systeme gibt es auch.

Ehrlich gesagt, habe ich und andere Leute hier ganz große Zweifel daran, dass da überhaupt was wie beworben funktioniert.

Insofern finde ich es ziemlich lächerlich, da jetzt NVIDIA anschwärzen zu wollen. Das ganze ging ja auch mal wieder von Charlie aus.

Gast
2009-11-09, 05:01:33
Insofern finde ich es ziemlich lächerlich, da jetzt NVIDIA anschwärzen zu wollen. Das ganze ging ja auch mal wieder von Charlie aus.
Wieso?
Nvidia ist mal wieder die Technologiebremse.
Du kannst ja bei denen nachfragen, wie sei dazu stehen.
Dann ist Charlie raus.

Eine Antwort von Nvisia darfst du aber nicht erwarten...
Support scheint ja nicht ihre Stärke zu sein...

Coda
2009-11-09, 05:04:21
Wieso?
Weil ich glaube, dass Lucid einfach keine funktionierende Technologie hat, und DAS das Problem ist, nicht NVIDIA. Und solange es Vaporware bleibt werde ich da meine Meinung auch nicht ändern.

NVIDIA hat doch ohnehin keinen Grund dagegen vorzugehen. Wenn der Chip wie versprochen funktionieren würde und sie sich ausschließen, welche Folgen hätte das wohl?

=Floi=
2009-11-09, 05:08:28
warum sollten sie die hardware der anderen supporten? da liegt bestimmt noch einiges im argen und/oder nv will schlicht einfach so keinen support dafür leisten.
nv hätte sofort den schwarzen peter, wenn durch diese lösung das system mit einer fehlermeldung abstürzt. ebenso müsste besimmt dann der kartenhersteller den fehler fixen und nicht der hersteller des chips. das sieht man auch immer wieder an den games wo die grafikkartenhersteller nach monaten einen fix für bugs (neben in hl2) oder das AA anbieten.

Coda
2009-11-09, 05:10:23
warum sollten sie die hardware der anderen supporten?
Lucid stellt keine GPUs her. Und jetzt überleg dir das nochmal genau. Eine optimal funktionierende Multi-GPU-Lösung würde eher zu mehr GPU-Verkäufen führen als zu weniger.

Wenn das Zeug nicht gescheit funktioniert - was es sehr wahrscheinlich tun wird - bekommt Lucid eh soviel schlechte Presse dass sie innerhalb kürzester Zeit weg vom Fenster sind.

Gast
2009-11-09, 05:11:14
Weil ich glaube, dass Lucid einfach keine funktionierende Technologie hat, und DAS das Problem ist, nicht NVIDIA. Und solange es Vaporware bleibt werde ich da meine Meinung auch nicht ändern.

NVIDIA hat doch ohnehin keinen Grund dagegen vorzugehen. Wenn der Chip wie versprochen funktionieren würde und sie sich ausschließen, welche Folgen hätte das wohl?
Und das weisst du oder vermutest du es nur?

Warum sollte Nvidia eine Technologie blockieren, wenn es eh nicht gescheit läuft... ? :confused:

Coda
2009-11-09, 05:12:34
Und das weisst du oder vermutest du es nur?
Ich habe genügend gute Gründe zur Annahme, dass es nicht funktionieren wird wie sie es anpreisen.

Warum sollte Nvidia eine Technologie blockieren, wenn es eh nicht gescheit läuft... ? :confused:
Wer sagt denn dass sie es überhaupt blocken? Die ganze Story basiert auf einem GERÜCHT das Charlie in die Welt gesetzt hat und alle schreiben davon ab.

Wie gesagt, tut NVIDIA wahrscheinlich überhaupt nichts. Lucid hat es einfach total verkackt, deshalb gibt es kein MSI Big Bang. Und Charlie saugt sich dazu eine Anti-NV-Story aus den Fingern. So sieht's aus.

Gast
2009-11-09, 05:16:56
Ich habe genügend gute Gründe zur Annahme, dass es nicht funktionieren wird wie sie es anpreisen.
Und das ist der Grund, um es aufs Abstelgleis zu stellen?
Dann sollten NV und AMD doch dran arbeiten, dass es richtig funktionirt.
Wäre doch perfekt, wenn man eine Nvidia Karte und eine AMD Karte im Rechner haben könnte.
Viel Kunden würde es doch freuen, oder nicht?

Coda
2009-11-09, 05:17:31
Und das ist der Grund, um es aufs Abstelgleis zu stellen?
Ja, weil das Konzept ziemlich sicher von vornherein zum Scheitern verdammt ist.

Falls sie wirklich funktionierende Technik haben und das ganze wegen NVIDIA nicht auf den Markt kommt, dann würde ich das auch nicht gut finden. Nur halte ich das in etwas so plausibel wie die Existenz des Osterhasen.

Dann sollten NV und AMD doch dran arbeiten, dass es richtig funktionirt.
Das liegt nicht an NV oder AMD.

Viel Kunden würde es doch freuen, oder nicht?
Mich würde auch freuen, wenn ein Chip die Performance meines Rechners um den Faktor 10 steigern, und außerdem auf einer GeForce 2 D3D12 lauffähig machen würde.

=Floi=
2009-11-09, 05:33:49
wenn ich mgpu möchte, dann würde ich mir einen X58 kaufen, wo ich weiß, dass mgpu darauf problemlos läuft. bei dem bang board würde nv sicherlich nicht mehr grafikkarten verkaufen, weil dessen sinn eher in der kombination mit einem anderen hersteller liegt. (sonst reicht ja eine sli lizenz)
eine getestete platform mit stabilen treibern ist schon viel wert und je weniger kombination es gibt, desto weniger fehleranfällig ist so etwas.
das mgpu-problem kann sowieso nur der hersteller des grafikchips selbst lösen. zumindest existieren die mikroruckler nicht bei höheren frameraten und man kann dadurch das problem umschiffen. (nicht elegant und sinn der sache, aber beim normalem zocken und mit 60fps arbeitet mgpu problemlos)

lucid ist aber für diesen "wunderchip" verantwortlich und dieser ist für mich hardware.

edit
solch ein programmierbarer chip welcher die befehle abfängt und dann zum teil an die cpu weitergeben würde könnte doch theoretisch auch eine gf2 dx12 fähig machen?!

Coda
2009-11-09, 05:36:15
Bitte, glaubt was ihr wollt. Ich habe meine eigene Story, und ich bin zuversichtlich dass sie eher zutrifft als diese Verschwörungstheorien schon wieder.

solch ein programmierbarer chip welcher die befehle abfängt und dann zum teil an die cpu weitergeben würde könnte doch theoretisch auch eine gf2 dx12 fähig machen?!
Das wäre langsamer als gleich alles auf der CPU zu rendern. Wunderbare Idee.

Aquaschaf
2009-11-09, 09:36:11
Und das weisst du oder vermutest du es nur?

Warum sollte Nvidia eine Technologie blockieren, wenn es eh nicht gescheit läuft... ? :confused:

Wie bereits gesagt: selbst wenn Nvidia deswegen eine Sperre im Treiber implementieren würde - eine Hydra-Demo könnte man dann immer noch mit einem älteren Treiber zeigen. Oder mit AMD-Hardware. Deswegen klingt das für mich auch sehr stark nach einer billigen Verschwörungstheorie es Nvidia in die Schuhe zu schieben dass der Kram nicht tut.

mik
2009-11-10, 02:25:14
Was gibts da noch rumzudiskutieren, nVidia kann ja nichts dafür das Lucid nur heiße Luft produziert.

Das ist das Duke Nukem Forever der Grafikhardware! ;(

MR werden wohl nur nVidia / ATi (evtl. mit Koordination mit Microsoft) selber lösen können!

Alles andere ist Vapoware :P

AnarchX
2009-11-11, 15:48:15
Lucid HYDRA 200 Multi-GPU Technology Performance Preview (http://pcper.com/article.php?aid=815&type=expert&pid=1)

Naja, kein lineares Scaling. Aber trotzdem sehr interessant.

mik
2009-11-11, 15:54:18
DELETED

robbitop
2009-11-11, 16:32:39
Sie scheinen auf jeden Fall auch Profile zu brauchen und damit ist man an das Lucid Treiberteam gebunden. +80% ohne Mikroruckler wären jedenfalls schon eine tolle Geschichte und der Bericht beweist, dass das Verfahren bei den Spielen in der Liste funktioniert wie es soll.

Gast
2009-11-11, 16:36:26
Ohne Mikroruckler steht bitte wo?

robbitop
2009-11-11, 16:37:54
Ohne Mikroruckler steht bitte wo?
Das braucht nirgends zu stehen. Das ist prinzipbedingt. Beide GPUs arbeiten an einem Bild.

Gast
2009-11-11, 16:39:41
Das braucht nirgends zu stehen. Das ist prinzipbedingt. Beide GPUs arbeiten an einem Bild.

Das wird sich erst zeigen müssen.

robbitop
2009-11-11, 16:42:30
Das wird sich erst zeigen müssen.
??? :| Das ist einfach prinzipbedingt so. Wenn man die Ursachen von Mikrorucklern verstanden hat, sollte man das wissen.

AnarchX
2009-11-11, 17:13:50
Das Thema ist Lucid Logix' Hydra!

Gast
2009-11-11, 17:15:36
Leider kein Wort über MR. Beim 3DMVantage Test hätte es man sogar mit freiem Auge sehen können, wenn man weiß wo/wie man hinsehen muß.

Wenn es ideal rennt, ist man mit dem scaling knapp unter SLI, was aber ok wäre, wenn MR dafür weg wäre.

Multivendor und gemischte GPUs halte ich für wenig sinnvoll, weil da wird das scaling sowieso kaum passen. Jeder mit Verstand würde sich da doch sowieso die nächsthöhere GPU kaufen.

Das größte Problem ist, daß offenbar doch wieder Handarbeit notwendig ist, und ich glaube nicht, daß Lucid das durchhält. Wenn dann noch NV und AMD die Treiber so schreiben, daß Lucid behindert wird...

AnarchX
2009-11-11, 17:25:59
Multivendor und gemischte GPUs halte ich für wenig sinnvoll, weil da wird das scaling sowieso kaum passen. Jeder mit Verstand würde sich da doch sowieso die nächsthöhere GPU kaufen.

Laut den Multivendorbenches kann man sich hier offenbar eine vernünftige Kombination aus ALU-Leistung(ATi) und Texturfüllrate/Z-Leistung(Nvidia zusammenstellen.

Bleibt natürlich die Frage, wie homogen das Bild ist bei den Filterqualitätsunterschieden und ob man so etwas einen vernünftigen Support erfährt.

Gast
2009-11-11, 17:30:15
Multivendor benches gabs doch praktisch keine. Die min-fps Verarsche hat doch fast keine Aussagekraft.

robbitop
2009-11-11, 17:34:43
Das Thema ist Lucid Logix' Hydra!
:| War es doch auch. MR bei der Lösung von Lucid Logix.

Raff
2009-11-11, 17:45:03
Leider kein Wort über MR.

Mikroruckeln bei einem Multi-GPU-Test unter den Tisch fallen zu lassen ist so, als ließe man die Balken weg.

MfG,
Raff

robbitop
2009-11-11, 18:02:53
Keine Bange: Wenn an einem Bild gearbeitet wird, gibt's kein MR. MR entsteht bei AFR nur durch das Verhältnis "Dauer Berechnung eines Frames CPU/GPU" und dem daraus entstehenden Versatz.

Demirug
2009-11-11, 18:07:01
??? :| Das ist einfach prinzipbedingt so. Wenn man die Ursachen von Mikrorucklern verstanden hat, sollte man das wissen.

Wer sagt uns das sie kein AFR verwenden?

reallord
2009-11-11, 18:30:58
Ich bin zwar der tooootallle Laie, aber bei AFR rechnen die Chips doch an unterschiedlichen Bildern.
Wenn bei Lucid's Lösung alle Chips am selben Bild rechnen, dann kann das gar kein AFR sein oder?

Demirug
2009-11-11, 18:33:48
Auch ATI und nvidia wollten mal mehrere GPUs am gleichen Frame render lassen bis sie die Realität eingeholt hat.

Nakai
2009-11-11, 19:10:07
Wer sagt uns das sie kein AFR verwenden?

http://pcper.com/image.php?aid=607&img=screen1_big.jpg

Man rendert doch an einem gemeinsamen Bild.


mfg

€: Wenn es gut klappt, dann ist es verdammt geil.

Demirug
2009-11-11, 19:22:46
http://pcper.com/image.php?aid=607&img=screen1_big.jpg

Man rendert doch an einem gemeinsamen Bild.


mfg

€: Wenn es gut klappt, dann ist es verdammt geil.

Das ist ein altes Bild von einer Marketingveranstaltung. Wobei ich die Frage präziser hätte formulieren sollen.

Wer sagt uns dass sie bei Spielen mit modernen Render verfahren kein AFR verwenden?

Bei den ganzen Fällen wo sie gezeigt haben dass ihr Verfahren angeblich funktioniert handelte es sich um sehr einfache Render Verfahren. In diesen Fällen haben sie auch niemanden benchen lassen.

Alles in allem glaube ich es erst wenn eine vertrauenswürdige Stelle das ganze einmal analysiert hat.

AnarchX
2009-11-11, 19:57:58
Techreport durfte auch testen: http://techreport.com/articles.x/17934/1
Hot Hardware ebenfalls: http://hothardware.com/Articles/Lucid-Hydra-200-MultiGPU-Performance-Revealed/

Birdman
2009-11-11, 20:09:32
AFR bei MultiVendor wäre imho aber unspielbar, aufgrund der unterschiedlichen Filter, Farb, Gammeeinstellungen.
Kann mir nicht vorstellen, dass dies fürs Auge gut geht.

Wenn beide Karten unterschiedliche Bereiche/Objekte rendern - diese aber fürs Spiel selbst immer die selben sind - dann ist das fürs Auge viel weniger ein Problem.

AnarchX
2009-11-11, 20:12:35
TR hat sich etwas genauer mit dem Multivendor-Problemen auseinandergesetzt:
Lucid's goal in all of this is to maintain what Belz calls image integrity. This is no small thing. For instance, we've documented the differences in texture filtering algorithms from one GPU architecture to the next. If Lucid isn't careful about how it divides up the workload for a scene, either within one frame or from frame to frame, it risks exposing visual noise caused by the differences in image output. We spent some time peering skeptically at Operation Flashpoint: Dragon Rising with a mixed-vendor config trying to detect any such problems, though, and none were apparent. The on-screen image seemed solid and looked quite good.

Und offenbar ist die auch Lucid wichtig, die optional noch einen Speed-Modus anbieten wollen:
Maintaining pristine image integrity will naturally limit the Hydra's load-balancing options, and so it may present a performance tradeoff. Belz tells us Lucid has chosen image integrity over raw performance in its default driver tuning, but the firm plans to expose an option to allow the user to favor performance, instead. Some folks may not be annoyed by the subtle differences between GPU output, so giving users the option seems sensible.

Gast
2009-11-11, 20:13:18
Steht auch drin das AFR genutzt wird.

Gast
2009-11-11, 20:14:12
Also, AFR doesn't scale well when the GPUs aren't evenly matched. Lucid may employ AFR in certain cases, but its best load-distribution methods are clearly finer-grained than AFR and involve per-polygon or per-object divisions of labor.

robbitop
2009-11-11, 22:07:39
Wer sagt uns das sie kein AFR verwenden?
Das wäre die Verarschung des Jahrhunderts (und unnötig wie ein Kropf - da SLI und CF bereits vorhanden). Zumal Lucid ja schon in ein paar Previews erklärt hat, wie sie es machen (Drawcalls abfangen und auf einzelne GPUs verteilen?).

Coda
2009-11-11, 22:11:27
Anders kann es bei dieser Skalierung aber einfach fast nicht sein.

robbitop
2009-11-11, 22:15:24
Wenn das so kommen sollte, kann sich die Firma jetzt schon beerdigen.

Gast
2009-11-11, 22:15:56
Kein Crysis, kein Stalker CS ;) Zu komplex? :)

Und wenn da AFR drinnen ist, können sie es gerne behalten.

Demirug
2009-11-11, 22:34:03
Anders kann es bei dieser Skalierung aber einfach fast nicht sein.

Bei einfachen spielen funktioniert es auch noch mit frame split verfahren. Haben nvidia und ATI ja früher auch demonstriert. Ich hoffe wirklich jemand (xbitlabs wäre da für mich ein Kandidat) analysiert das mit seinem Review board etwas genauer mit komplexen spielen.

Gast
2009-11-14, 15:31:13
http://www.technic3d.com/news-4535-lucids-hydra200-erste-benchmarks-und-performanceeindruecke.htm

=Floi=
2009-11-14, 18:42:03
http://www.computerbase.de/news/hardware/grafikkarten/2009/november/lucids_hydra-chip/
damit ist die sache eh schon durchgefallen:
http://pics.computerbase.de/2/7/4/6/2/7.jpg

Gast
2009-11-16, 01:33:56
und wieso bitte? ich kann mir gutvorstellen, dass bei einem game sfr, bei einem anderen afr und wiederum bei einem anderen wenn unterschiedliche objekte von jeweils einer anderen karten gerendert werden, die schnellste lösung ist. die effizienteste lösung ist hier in meinen augen einfach profile für spiele anzulegen. eine dynamische bestimmung der besten rendering methode dürfte nicht einfach zu implementieren sein und könnte immer noch mit späteren treibern nachgereicht werden.

robbitop
2009-11-16, 08:36:55
Ohne Profile wird Multi-chip mit 2x getrennten GPUs in der heutigen Entwicklung der Renderpipelines en nicht funktionieren.

AnarchX
2009-11-16, 08:44:21
Although that fix might resolve an issue with a particular game, he insists that game-specific profiles are not employed.
http://techreport.com/articles.x/17934/4

robbitop
2009-11-16, 08:54:07
Erstmal nur Gelaber. Der Screenshot zeigt Profile. Abwarten, wie transparent das ganze am Ende läuft.