PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Also doch: NVIDIA Dual 8800er Karten?


drmaniac
2007-01-25, 20:42:17
http://www.pcgameshardware.de/?article_id=548000

Das gibt bestimmt ein Hitzemonster ? ;)

Fetza
2007-01-25, 22:43:50
jo und derbe performance *freu*

Godmode
2007-01-25, 23:38:35
Ich denke in 80nm Fertigung wird das wohl zu machen sein!

Gast
2007-01-26, 00:01:48
Ob es sich lohnt ist die andere Frage.

Die gelbe Eule
2007-01-26, 00:37:02
Wer sagt das sie wieder im Sandwichmode kommen?
Denke das man 2 GTS auf das GTX PCB schnallen kann, wie mit der (6600GT)7600GT gezeigt. Auch da war es Gigabyte mit der DualGPU.

Gast
2007-01-26, 00:41:51
QuadSLI ist erstmal Quatsch. Die Effizienz ist zu mies bei 4 GPUs und wirklich brauchen tut man es momentan auch nicht.

Eine Karte mit zwei GPUs wäre aber dennoch interessant, vorallem wenn man sie wie die GX2 als Einzelkarte in den Slot steckt und SLI hat.

Bei 2 GPUs ist die Effizienz wenigstens noch einigermaßen erträglich.

seahawk
2007-01-26, 07:48:10
Quad SLI wird erst mit VISTA interessant

Mancko
2007-01-26, 09:59:48
Quad SLI wird erst mit VISTA interessant

und das ist im Handel demnächst oder eventuell schon? erhältlich.
Ich finde die Information vor allem wegen einer möglichen GX2 interessant. Daran dürfte ATI sich nämlich die Zähne ausbeissen. Hat schon in der letzten Runde hervorragend für Nvidia funktioniert.

stav0815
2007-01-26, 13:34:36
und das ist im Handel demnächst oder eventuell schon? erhältlich.
Ich finde die Information vor allem wegen einer möglichen GX2 interessant. Daran dürfte ATI sich nämlich die Zähne ausbeissen. Hat schon in der letzten Runde hervorragend für Nvidia funktioniert.
Ist schon erhältlich.

LeChuck
2007-01-26, 14:02:30
http://www.pcgameshardware.de/screenshots/medium/quadsli2.jpg

Auf dem Bild sind 4 Slots zu sehen, ziemlich verwirrend....

AnarchX
2007-01-26, 14:05:18
Daran dürfte ATI sich nämlich die Zähne ausbeissen. Hat schon in der letzten Runde hervorragend für Nvidia funktioniert.

Es ist anzunehmen, dass wohl ATi in der Radeon X2-Generation auch eine High-End-Dual-GPU-GraKa anbieten wird, da wie schon gesagt mit Vista 4Way-AFR offiziel ist.
Mittlerweile übt man schon mit dem RV570 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=340284).;)

Mit dem 65nm Refresh dürfte eine Radeon X2900 MAXX vielleicht durchaus realistisch sein.

Zum Thema Dual-GeForce8:
ASUS scheint da wohl irgendetwas in ihren Labors zu basteln...

dargo
2007-01-26, 14:06:53
http://www.pcgameshardware.de/?article_id=548000

Das gibt bestimmt ein Hitzemonster ? ;)
Nur seltsam, dass auf dem Bild 4 Slots zu sehen sind. :D

Edit:
Zu spät.

deekey777
2007-01-26, 14:13:47
Nur seltsam, dass auf dem Bild 4 Slots zu sehen sind. :D

Edit:
Zu spät.

2+2+1+1=6 (für aufwendige Physik gleich zwei einzelne 8800GTX X-D)
Oder nur 2+2+2+0=6 (hier eine 8800GX2 als Physik-Beschleuniger)

dargo
2007-01-26, 16:39:07
2+2+1+1=6 (für aufwendige Physik gleich zwei einzelne 8800GTX X-D)
Oder nur 2+2+2+0=6 (hier eine 8800GX2 als Physik-Beschleuniger)
Oje, wenn ich hier an den Idle Stromverbrauch denke. X-D

Die gelbe Eule
2007-01-26, 20:39:44
Bisher braucht man keine, also wird sie erst nach dem Launch des G81 hinzukommen. NV wartet garantiert erstmal ab was AMD vor hat, nachlegen können sie ja immer.

Gast
2007-01-26, 21:23:02
Die haben sicherlich schon etwas in der Hinterhand und warten erst ab, was die Konkurrenz bringt.

Gegen eine Karte wie die GX2 habe ich nichts einzuwenden. Meiner Meinung nach sogar ziemlich sinnvoll, sofern der Preis ähnlich bleibt. Damals war die GX2 ja auch nicht doppelt so teuer wie eine GTX.

Wenn die im Bereich um 600-650 € liegt, wäre es eine super alternative.

Angesichts der brachialen Leistung könnt ich mir vorstellen, das man mit der Karte extrem lange auskommt, denn so langsam aber sicher, stoßen wir an eine Grenze bei der Auflösung, die erst durch neue Bildschirme weiter nach oben gesetzt werden muss.

Die gelbe Eule
2007-01-26, 21:37:25
Auflösung vielleicht, aber Filterung, da kann man nie genung Leistung übrig haben. 16xMSAA durchgehend flüssig in 16x12 geht auch nicht so einfach ;)

dargo
2007-01-26, 21:50:15
Angesichts der brachialen Leistung könnt ich mir vorstellen, das man mit der Karte extrem lange auskommt, denn so langsam aber sicher, stoßen wir an eine Grenze bei der Auflösung, die erst durch neue Bildschirme weiter nach oben gesetzt werden muss.
Der Grafikhunger der Games wird nicht still bleiben. Mit Crysis und UT3 könnte eine G8800GTX in 1600x1200 4xAA/16xAF so langsam ihre Probleme bekommen.

Gast
2007-01-26, 21:56:18
Der Grafikhunger der Games wird nicht still bleiben. Mit Crysis und UT3 könnte eine G8800GTX in 1600x1200 4xAA/16xAF so langsam ihre Probleme bekommen.

Das denke ich nicht. Das Game wird total gehypt und wird genauso tief fallen, wie z.B. Oblivion, welches mittlerweile ziemlich gut läuft.

Ich kenne keinen Entwickler, der so dumm ist und ein Spiel auf den Markt wirft, das nur von 0,01% aller High End User spielbar ist.

AnarchX
2007-01-26, 21:59:30
Ich kenne keinen Entwickler, der so dumm ist und ein Spiel auf den Markt wirft, das nur von 0,01% aller High End User spielbar ist.
Die anderen 99.9% spielen halt nicht in 1600x1200 + AA/AF @ max. Details. ;)

Gast
2007-01-26, 22:01:53
Die anderen 99.9% spielen halt nicht in 1600x1200 + AA/AF @ max. Details. ;)

Möglich, aber selbst das ist meiner Meinung nach nicht nötig.

Ich habe auch ziemlich hohe Ansprüche, aber z.B. bei Oblivion störte es eher weniger mit weniger AA zu spielen.

Man muss ja auch sehen, das allein durch steigende Auflösungen die Pixel teilweise "kleiner" werden und dadurch, das sie kleiner wird, man die Übergänge immer weniger sieht.

Ich könnte mir vorstellen, das AA irgendwann nutzlos ist, weil man den hakeligen Übergang einfach nicht mehr sehen kann mit dem menschlichen Auge.

AnarchX
2007-01-26, 22:05:54
Ich könnte mir vorstellen, das AA irgendwann nutzlos ist, weil man den hakeligen Übergang einfach nicht mehr sehen kann mit dem menschlichen Auge.

Falsch, das effizientes AA viel günstiger ist als extrem hohe Auflösungen.
Diskutiert wurde das hier aber schon:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=331418

Die gelbe Eule
2007-01-26, 22:10:22
Steigende Auflösungen erfordern auch teure Monitore. 12x10 kostet immernoch sehr viel für den normalen User, 16x12 auf TFT tut schon weh im Geldbeutel. Umso mehr man darstellen kann, umso mehr gibt es auch zu glätten. Die Spielehersteller können sich halt nun nicht mehr beklagen, weil Speed im Überluss da ist.

Gast
2007-01-26, 22:15:31
Falsch, das effizientes AA viel günstiger ist als extrem hohe Auflösungen.

Ich sehe da keinen Widerspruch in meiner Aussage.
Falsch ist diese Aussage schonmal gar nicht. Hättest du eine Auflösung von 16000x12000 auf heutigen Bildschirmen, würdest du die Übergange nur mit genauerem hinsehen erkennen können. Das ist ein Faktum.

Außerdem stimmt die Kernaussage des anderen Threads schonmal gar nicht: Es mag ja sein, das AA weniger kospielig ist, aber andererseits kann AA auch keine höhere Auflösung ersetzen, denn höhere Auflösungen bedeuten zudem, das mehr Details auf der gleichen Fleche dargestellt werden können. Mit AA geht das nicht.

Steigende Auflösungen erfordern auch teure Monitore.

Nicht ganz, denn die Technik der Monitore wird ja auch günstiger.

AnarchX
2007-01-26, 22:26:28
Ich sehe da keinen Widerspruch in meiner Aussage.
Falsch ist diese Aussage schonmal gar nicht. Hättest du eine Auflösung von 16000x12000 auf heutigen Bildschirmen, würdest du die Übergange nur mit genauerem hinsehen erkennen können. Das ist ein Faktum.
Das mag sein, aber man stelle sich doch vor wie grausam die Games aussehen würde, wenn man so eine Auflösung heute als Standard setzen würde.
Da ist die Lösung: niedrige Auflösung + AA bedeutend sinnvoller.

Zwar stieg in den letzten Jahren die "Mindestauflösung", aber bis man eine Auflösung erreicht hat, bei der kein Aliasing mehr auftritt vergehen noch ein paar Jahre und in denen steigt auch wie der Polycount, welcher dann eine noch höhere Auflösung benötigen wird um, da Aliasing verschwinden zu lassen...


Außerdem stimmt die Kernaussage des anderen Threads schonmal gar nicht: Es mag ja sein, das AA weniger kospielig ist, aber andererseits kann AA auch keine höhere Auflösung ersetzen, denn höhere Auflösungen bedeuten zudem, das mehr Details auf der gleichen Fleche dargestellt werden können. Mit AA geht das nicht.

Natürlich wird durch AA mehr Details dargestellt und nämlich genau an denn Stellen, wo es auch sinnvoll ist -> Polygonkanten, selektierte Texturen,...

Gast
2007-01-26, 22:29:51
Natürlich wird durch AA mehr Details dargestellt und nämlich genau an denn Stellen, wo es auch sinnvoll ist -> Polygonkanten, selektierte Texturen,...

Wie willst du mehr Details auf dem *selben* Bildschirm darstellen können? Das ist unmöglich.
Irgendwo müssen die Pixel schließlich hin um dargestellt zu werden.

dargo
2007-01-26, 22:37:31
Wie willst du mehr Details auf dem *selben* Bildschirm darstellen können? Das ist unmöglich.

Mal eine Frage an dich.
Ich schaue mir eine Szene an einem CRT mit 1024x768 und einmal die gleiche Szene in 1600x1200 an. Jetzt sage mir nicht in 1600x1200 sehe ich mehr Details sonst gibts gleich ein riesen LOL.

Gast
2007-01-26, 22:40:20
Ich schaue mir eine Szene an einem CRT mit 1024x768 und einmal die gleiche Szene in 1600x1200 an. Jetzt sage mir nicht in 1600x1200 sehe ich mehr Details sonst gibts gleich ein riesen LOL.

Klar geht das. Ist abhängig von der Programmierung. Bei Tiberian Sun hast du beispielweise einen größeren Überblick bei höherer Auflösung und somit Vorteile gegenüber dem Gegner.

Aber darum ging es ja nicht. Es ging darum, das *kleinere* Pixel dazu führen, das auch alle Unebenheit kleiner sind und daher nicht so deutlich auffallen. Übliche Auflösungen dafür natürlich nicht, ab 5 stelligen wird es erstmal interessant.

dargo
2007-01-26, 22:44:43
Aber darum ging es ja nicht. Es ging darum, das *kleinere* Pixel dazu führen, das auch alle Unebenheit kleiner sind und daher nicht so deutlich auffallen. Übliche Auflösungen dafür natürlich nicht, ab 5 stelligen wird es erstmal interessant.
Natürlich würde eine deutlich höhere Auflösung zb. auf einem 19" TFT als heutige 1280x1024 was bringen. Je kleiner die Pixel umso weniger fällt das Aliasing auf. Diese Technik fehlt aber heute. Und falls es die gäbe würde jede Graka völlig überfordert sein.

Wenn du das aber heute schon haben willst schalte einfach SSAA ein.

AnarchX
2007-01-26, 22:47:00
Wie willst du mehr Details auf dem *selben* Bildschirm darstellen können? Das ist unmöglich.
Irgendwo müssen die Pixel schließlich hin um dargestellt zu werden.
Doch durch AA wird der Informationsgehalt eben in bestimmten Bildberreichen erhöht, würde man nun eine vergleichbare Polygonkantenglättung wie z.B. 4xMSAA erreichen wollen brauch man einen extrem hohen Supersamplingmodus bzw. höhere Auflösung(Zahlen müsste man mal ausrechnen), was eben sehr ineffizient ist.

Die gelbe Eule
2007-01-26, 22:58:57
Nicht ganz, denn die Technik der Monitore wird ja auch günstiger.

Finde mal einen mit ordentlicher Auflösung ohne TN Panel unter 500€. Das ist schon ne Menge Holz.

Gast
2007-01-26, 23:08:08
Finde mal einen mit ordentlicher Auflösung ohne TN Panel unter 500€. Das ist schon ne Menge Holz.

Ja, jetzt. Aber warte es noch einige Zeit ab.

Was gibt es in 5 Jahren und was gab es vor 5 Jahren und was gibt es heute? Ich glaube man muss kein Hellseher sein. :)

AnarchX
2007-01-26, 23:12:46
Was gibt es in 5 Jahren und was gab es vor 5 Jahren und was gibt es heute?
Jedenfalls hat sich die Aulösung in den letzten 5 Jahren, bei gleicher Diagonal nicht verfünfacht/verzehfacht wie du es dir wünschst.;) edit: (es müsste verzwanzigfacht/verhunderfacht heißen... )

Bis es Displays mit solchem Dotpich für Consumer gibt, gehen weit mehr Jahre ins Land, wenn es überhaupt möglich ist soetwas wirtschaftlich noch zu fertigen, alles hat halt seine Grenzen.

Gast
2007-01-26, 23:14:42
Jedenfalls hat sich die Aulösung in den letzten 5 Jahren, bei gleicher Diagonal nicht verfünfacht/verzehfacht wie du es dir wünschst.;)

Das nicht, aber es erfolgte der Umschwung auf eine neue Technik und auch die durchschnittliche Auflösung stieg.

Hätte ich damals ebay gekannt, wäre ich wahrscheinlich nicht so lang mit 1024x768 rumgegurkt. ;)

Jetzt gibts schon 1920x1200 für den selben Preis. Insofern tut sich da schon was.

dargo
2007-01-26, 23:42:37
Afaik gibt es heute schon Laptops mit einem 15" TFT und 1920x1200 Auflösung. Das wäre schon mal ein Anfang. Nur dann halt ein 19" TFT mit <3000-er Auflösung. Kaufen würde ich mir aber so einen TFT trotzdem nicht. Die heutigen Grakas sind dafür einfach zu lahm. Man wäre auch immer auf eine High-End Graka angewiesen.

Banshee18
2007-01-27, 04:41:40
Macht doch bitte da (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=331418) weiter mit eurer AA/Auflösung/Bildschirm-Diskussion.=)

aths
2007-01-27, 06:48:21
Ich sehe da keinen Widerspruch in meiner Aussage.
Falsch ist diese Aussage schonmal gar nicht. Hättest du eine Auflösung von 16000x12000 auf heutigen Bildschirmen, würdest du die Übergange nur mit genauerem hinsehen erkennen können. Das ist ein Faktum.

Außerdem stimmt die Kernaussage des anderen Threads schonmal gar nicht: Es mag ja sein, das AA weniger kospielig ist, aber andererseits kann AA auch keine höhere Auflösung ersetzen, denn höhere Auflösungen bedeuten zudem, das mehr Details auf der gleichen Fleche dargestellt werden können. Mit AA geht das nicht.Wozu auch? DVD-Filme bieten maximal 576 Zeilen. Der Film sieht trotzdem realistischer aus als jedes Echtzeit-Spiel das gerne in 1538 Zeilen gerendert sein darf.

AA ist und bleibt effizienter als nur auf hohe Auflösungen zu setzen. Anstatt immer nur mehr Pixel zu berechnen ist es besser, schönere Pixel zu berechnen.


QuadSLI ist erstmal Quatsch. Die Effizienz ist zu mies bei 4 GPUs und wirklich brauchen tut man es momentan auch nicht.Wer ist "man"? Du?


und das ist im Handel demnächst oder eventuell schon? erhältlich.
Ich finde die Information vor allem wegen einer möglichen GX2 interessant. Daran dürfte ATI sich nämlich die Zähne ausbeissen. Hat schon in der letzten Runde hervorragend für Nvidia funktioniert.Bei dem Stromhunger dürfte das allerdings schwierig werden. Vielleicht kommen solche Karten trotzdem, allerdings sind das eher Aktionen, um in die Presse zu kommen.

Gast
2007-01-27, 12:25:59
Wenn ich mich recht errinnere würde man bei 16000x12000 gar keine übergänge mehr sehen denn das wären in 19 zoll auflösung mehr als das auge auflösen kann
glaub mehr is sicher nimmer nötig zumindest wenn man monitor größe net verändert eigentlich is es ja net die auflösung die wichtig ist sondern die dpi die ein monitor darstellen kann denn ein monitor mit 100zoll und ner auflösung von 1600x1200 is ja ein witz
ab 8k wird sicher nur wenig aa verwendet werden aber welche gfx karte könnte das derzeit berechnen dass man auch die qualität für solch nen monitor bereitstellen kann das wär immerhin die ähm 100fache leistung wenn mein hirn richtig funktioniert oder wars weniger nimmt doch zum quadrat zu na ja egal
also erst mal ne gfx karte die das schafft naja und ein monitor der diese auflösung bringt is auch schwer zu finden zumindest auf 21zoll crt ;)

Gast
2007-01-28, 11:26:37
Wären das dann zwei GTX oder zwei GTS Modelle auf einem PCB oder doppelt zusammen ?

Ich glaube eher GTS wegen der gewaltigen Abwärme oder gibt es da auch bereits Infos zu (Habe jetzt hier nicht alles gelesen...) ?

Gruß
-GHOST

Gast
2007-01-28, 20:29:32
Also kommt ATi doch mit ne mOnster GPU gegen welche nividia ""wieder" 2GPU chips entgegensetzen muss.
Oder gibt es einen anderen grund für diese aktion??

gruss

Die gelbe Eule
2007-01-28, 20:58:49
Man pappt einfach ein bestehendes Design zusammen, Asus und Gigabyte haben da eigene und ich glaube XFX entwickelte das Referenzdesign für die GX2. ATi kann gerne eine MonsterGPU bringen, einen Refresh hat NV doch eh schon parat. Und ich glaube das man gerne 600€ für eine 8800GX2 bezahlen würde, als 500€ für eine GTX oder 700€+ für 2 GTS. Trotzdem sind das alles Karten und Regionen, welche nur ein paar tausend Einheiten haben werden.
Interessanter wären mal kleinere Ausgaben, wie 8300er oder 8600er.

dargo
2007-01-28, 21:01:20
Interessanter wären mal kleinere Ausgaben, wie 8300er oder 8600er.
Diese ergeben aber keinen Sinn sobald es eine schnellere SingleGPU-Lösung gibt.

Fetza
2007-01-29, 08:01:20
einen Refresh hat NV doch eh schon parat.

dann gib mal nen link. Jetzt bin ich gespannt;)

Moralelastix
2007-01-29, 08:22:45
Diese ergeben aber keinen Sinn sobald es eine schnellere SingleGPU-Lösung gibt.

Nur vom Stromverbrauch her, lol?! :biggrin:

saddevil
2007-01-29, 09:20:16
ichfände eine 8600Gt oder ultra besser als die 8800er serie


weil es sich einfach nicht jeder leisten kann eine 600€ graka in den rechner zu stecken
es gibt noch so viele andere dinge auf dieser welt als vorm rechner zu hocken ...


zumal ich eh kaum zeit hab zu zocken ...
das ist mal alle 2-3 wochen ein paar stunden
oder zwiscehndurch mal ein stündchen



die 8600 ist eh eine rennerkarte wie die 7600er ...
da wird mächtig der OEM-markt beteiligt sein
ebenso die 8300er karten ..

und von deren verkauf bekommt NV geld ...

Byteschlumpf
2007-01-29, 09:42:12
Ich rechne eher mit einer 8950GX2, als mit einer 8800GX2,was ja auch fast schon auf der Hand liegen dürfte, angesichts der 7950GX2. ;)

Die gelbe Eule
2007-01-29, 11:52:53
dann gib mal nen link. Jetzt bin ich gespannt;)

Warum sollte NV jetzt schon etwas preisgeben, das den Abverkauf der GTX beeinflusst? Man hat bisher die schnellste Karte und das bleibt mindestens bis
Anfang März so.

Black-Scorpion
2007-01-29, 11:57:16
Also doch nur heiße Luft.

darkcrawler
2007-02-06, 12:08:05
die 8600 ist eh eine rennerkarte wie die 7600er ...
da wird mächtig der OEM-markt beteiligt sein
ebenso die 8300er karten ..

und von deren verkauf bekommt NV geld ...

da wäre ich mir nicht so sicher

man hätte anhand der daten der 7600gt auf dem papier vllt. auch nicht grad angenommen, dass sie so schnell ist, wie das topmodell der vorherigen (6800ultra)

wenn das verhältnis wieder so stimmt, wird die 8600er auf jeden fall wieder ein hit

DrPeacemaker
2007-02-06, 12:29:55
Könnte ich eine Karte mit 2 GPUs überhaupt auf meinem Board (Gigabyte P965 DS3) überhaupt richtig einsetzen?

Anarchy-HWLUXX
2007-02-06, 14:51:40
Könnte ich eine Karte mit 2 GPUs überhaupt auf meinem Board (Gigabyte P965 DS3) überhaupt richtig einsetzen?

Wieso sollte es denn nicht gehen ?

DrPeacemaker
2007-02-06, 16:34:11
Mein Board unterstütz SLI nicht nativ. P965 unterstützt nur ATIs SLI Variante. Deswegen meine Frage. Ich möchte September oder Oktober eine neu Graka holen. Und wenn auf dem Chipsatz auch die Doppel GPU Karte funktionieren würde, wäre es eine weitere Option für mich.

Gast
2007-02-06, 17:23:03
Die 7950GX2 lief auch auf nicht-SLI-Boards. Nur wenn man zwei Karten (also 4 GPUs) betreiben wollte, brauchte man ein SLI-Board.

Gast
2007-02-07, 21:52:06
Kurze Frage: Welche Dual-Karten sind im Moment überhaupt auf dem Markt erhältlich? Man hört dauernd von Dual-Prototypen, aber meistens schaffen die es nicht auf den Markt und man hört nie wieder was davon.

Die gelbe Eule
2007-02-07, 22:21:12
6600GT Dual, 7800GT Dual, 7900GX2, 7950GX2

Gast
2007-02-08, 03:08:17
Schätze mal eher, das werden zwei unkastrierte Chips mit moderaten Taktraten, da davon bei G8X ja auch der verbaubare Speicher abhängt. Gerade mit so einem Doppel-GPU-Monstrum, erst recht mit zweien, jagt man doch gerne alle Qualitätsoptionen in den Orbit, da wird der VRAM sehr schnell knapp.

AnarchX
2007-02-08, 14:28:00
6600GT Dual, 7800GT Dual, 7900GX2, 7950GX2

AFAIK gab es ja in Asien auch noch die Masterpiece-Serie, die auch erhältlich war:
7600GT Dual, 7900GTX Dual

Magnificus
2007-02-10, 02:31:01
Bei einem WoW Gewinnspiel auf der offiziellen World of Warcraft Seite kann man jetzt einen Alienware PC oder eine 8800 GX2 gewinnen...
http://www.wow-europe.com/de/contests/twoyear/index.html

Zweijähriges Jubiläum

Am 11. Februar wird World of Warcraft in Europa 2 Jahre alt werden! Um dieses Ereignis zu feiern, geben wir euch die Chance, in unseren 2-Jahre-Jubiläums-Wettbewerben tolle Preise zu erbeuten. Lest unten, wie ihr einen Alienware PC* oder eine Nvidia GeForce 8800 GX2 Grafikkarte gewinnen könnt! Lest außerdem hier unsere Wettbewerbsregeln.

Tja Übersetzungsfehler oder die neue Karte von Nvidia ? :biggrin:

Slipknot79
2007-02-10, 02:32:51
Quad SLI wird erst mit VISTA interessant


Wieso?

Magnificus
2007-02-10, 02:46:00
Wieso?

Das Problem mit Quad-SLI gibts nur mit Directx unter xp, dass Prerenderlimit wird unter Windows XP auf 3 Bilder begrenzt. Dadurch kann Quad-SLI nicht auf touren kommen.3 Bilder auf vier Chips verteilen gibt Probleme. Unter Opengl gibts das Problem nicht daher sind die Benchmarks dort auch wesentlich besser.

Ausserdem "sollte" Vista weniger Prozessor Overhead im Directxapi haben, und dadurch auch besser mit SLI klarkommen. Die Karten sind ja meistens eh am CPU-Limit.

Fetza
2007-02-10, 05:17:57
Warum sollte NV jetzt schon etwas preisgeben, das den Abverkauf der GTX beeinflusst? Man hat bisher die schnellste Karte und das bleibt mindestens bis
Anfang März so.

Jo, deine behauptung möchte ich dann mit diesem zitat beantworten.

Also doch nur heiße Luft.

Denn man darf ja nicht vergessen, das ati jetzt schon den r 600 refresh der gegen den g80 antreten soll in der hinterhand hält :upara:

Die gelbe Eule
2007-02-12, 07:39:30
Heiße Luft verkauft sich nicht und eine GX2 wird kommen mit dem Refresh. Warum sollte man ein Konzept fallen lassen, welches so gut angekommen ist?

dargo
2007-02-12, 11:05:46
Heiße Luft verkauft sich nicht und eine GX2 wird kommen mit dem Refresh. Warum sollte man ein Konzept fallen lassen, welches so gut angekommen ist?
Weil man hier thermische Probleme bekommt. ;)

Die gelbe Eule
2007-02-13, 01:26:46
Kann man mit dem WaKüsystem von Thermaltake hevorrangend lösen. Man muss nur die Wärme der verdeckten Karte durch Heatpipes and die andere führen, alles kein Thema.

Fetza
2007-02-13, 02:02:56
Kann man mit dem WaKüsystem von Thermaltake hevorrangend lösen. Man muss nur die Wärme der verdeckten Karte durch Heatpipes and die andere führen, alles kein Thema.

Selbst wenn es möglich wäre ist immer noch die frage wie teuer so eine karte wäre, sollte die karte über 1000 euro kommen wird es schwer kunden dafür zu gewinnen.

Edit: und ob es möglich wäre hängt dann doch sehr davon ab, wie viel wärme der refresh produziert. Ich glaube nicht, das man zwei g80 mit einer wakü ausreichend kühlen kann.

Slipknot79
2007-02-13, 02:44:45
>ch glaube nicht, das man zwei g80 mit einer wakü ausreichend kühlen kann.

Aber locker, Waküs sind modular. Wenn also ein Radi zu unterdim. ist hängt man eben noch einen dran.

Die gelbe Eule
2007-02-13, 03:25:31
Zwei GTS kosten 700€, wären aber modfiziert schneller als eine GTX. War mit der GX2 nicht anders, eben halt 2 GTs.
Die 40W mehr pro Karte kann man locker abführen, weil das PCB eh länger wird, die Kühlefläche somit größer. Eine Heatpipe transportiert auch die komplette Wärme von mehreren Komponenten zu einem Ort, wo es wieder abkühlen kann. Das Prinzip von Mainboards kann man auch auf 2 GPUs anwenden. Quad SLi ist auch nicht eingestampft, läßt sich aber nur so realisieren. 8 freie Slots bietet Dir ATX nicht, um 4 Dualslot Karten zu fahren, 4 Slots aber schon. Die Karten müssen nicht unbedingt länger werden, breiter geht auch noch.

Don Vito
2007-02-13, 23:32:06
Zwei GTS kosten 700€, wären aber modfiziert schneller als eine GTX. War mit der GX2 nicht anders, eben halt 2 GTs.
Die 40W mehr pro Karte kann man locker abführen, weil das PCB eh länger wird, die Kühlefläche somit größer. Eine Heatpipe transportiert auch die komplette Wärme von mehreren Komponenten zu einem Ort, wo es wieder abkühlen kann. Das Prinzip von Mainboards kann man auch auf 2 GPUs anwenden. Quad SLi ist auch nicht eingestampft, läßt sich aber nur so realisieren. 8 freie Slots bietet Dir ATX nicht, um 4 Dualslot Karten zu fahren, 4 Slots aber schon. Die Karten müssen nicht unbedingt länger werden, breiter geht auch noch.
HAtte es doch auch schon von Asus, zu Zeiten der 6800Ultra gegeben:http://scr3.golem.de/?d=0503/ASUS_Dual_G6800U&a=36889
Ausserdem sehe ich da keine Tempprobleme...
Hatte selbst QuadSLI mit WAKü.....
Dabei lagen meine Temps unter Last iom Schnitt bei max 50°C nach 6 Stunden vollem Einsatz.Es kommt nur darauf an wie man die Wärme abführt und z.B. bei Wakü das Wasser wieder kühlt.....bei mir erfoplgte dies über 2 TribbleRaddis, die rein für die Grakas inne hielten.
Sehe also bei der Kühlung kein Problem...
Wer so ein System kauft, den kommt es auf die notwendige Kühlung auch nicht drauf an.

Die gelbe Eule
2007-02-14, 14:35:59
Die Gemini von Gecube sieht nicht viel anders aus. GX2 wird kommen, nur jetzt brauch sie keiner.

dargo
2007-02-14, 23:29:16
GX2 wird kommen, nur jetzt brauch sie keiner.
Also, manchmal staune ich was du für Argumente ans Licht bringst. :|
Meinst du denn wirklich es gibt keine User die sich ein SLI @G8800GTX aufbauen?

Die gelbe Eule
2007-02-18, 22:43:07
Und was wollen dann diese User mit einem GX2, welcher langsamer ist?
GX2 war immer über der einzelnen Karte anzusiedeln, aber klar unter den 2 schnellsten. Und Deine provozierenden Kommentare kannst Dir bitte in Zukunft sparen, ich gehe darauf nicht ein. Ist auch völlig OT der Scheiß.

Gast
2007-02-19, 02:39:46
Langsamer muss die GX2 nicht sein!

Wenn man zwei davon kombiniert, hat man vier Grafikchips am Werkeln, was doch ganz ordentlich ist.

Es wird wohl noch ne Weile dauern, bis 1,5-2 GB auf einer DualChip GraKa sinnvoll verbaut werden können. ;)

An den Units sollte man bei solchen Karten aber nicht sparen, wie ich finde. Wenn schon Dual, dann richtig!

Fetza
2007-02-19, 03:00:14
Und was wollen dann diese User mit einem GX2, welcher langsamer ist?
GX2 war immer über der einzelnen Karte anzusiedeln, aber klar unter den 2 schnellsten. Und Deine provozierenden Kommentare kannst Dir bitte in Zukunft sparen, ich gehe darauf nicht ein. Ist auch völlig OT der Scheiß.

er hat aber schon recht. Die gx2 karten waren vor allem für leute die keine zwei pci-express ports im rechner hatten. Niemand würde sonst einen so hohen preis zahlen. Die 7900 darfst du preislich nicht zählen, das war ein abverkauf.

dargo
2007-02-19, 18:43:59
Und was wollen dann diese User mit einem GX2, welcher langsamer ist?

Eine GX2 die langsamer als das High-End Produkt mit einer GPU ist macht imho absolut keinen Sinn. Und ich könnte mir gut vorstellen, dass wir in nächster Zeit überhaupt keine GX2 mehr sehen werden.

Warum war die G79x0GX2 überhaupt möglich? NV hat beim G71 eine recht sparsame GPU gehabt (mit eben den verbundenen Nachteilen). Das hat sich mit dem G80 aber verdammt stark geändert. Und ich könnte mir auch gut vorstellen, dass es selbst in 65nm keine GX2 geben wird weil man dann die Taktraten dementsprechend beim G90 so weit wie möglich hochschraubt was wiederum die Verlustleistung steigen lässt. Somit wird man nie zur der Verlustleistung vom G71 kommen wenn man das aktuelle Topprodukt performancemäßig schlagen will.