Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Triple-SLI - IN THA HOUSE ;)


Seiten : [1] 2

tombman
2007-12-18, 01:31:22
Tjo, nach einem langen Kampf rennt triple sli jetzt bei mir.

Weil ich schon saumüde bin, hier nur ein paar Stichworte:

1.) Bis der Scheiß Treiber Triple SLI endlich aktiviert bekommt, verliert man viele Nerven.

2.) 3 normale SLi Brücken reichen, man braucht keine spezielle triple Brücke (Bild wie man es verschaltet schicke ich gleich nach)

3.) Drei Karten auf engstem Raum werden so heiß, daß ich mich nicht getraut habe zu overclocken, und außerdem noch 2x12 cm fans draufblasen lasse. Am besten werden wohl Wasserkühler sein.

4.) Triple SLI geht nur in Vista, bei Xp hat man dann sogar gar kein SLI mehr, nur mehr single (diesen Punkt muß ich mir noch näher ansehen und verifizieren.)

5.) Den Stromverbrauch werde ich noch messen, auch unter Volllast, mein Enermax 1000Watt NT scheint jedenfalls zu halten. (was noch fehlt ist ein Test, der CPU UND alle GPUs auf Maximum belastet- wird ebenfalls nachgereicht)

6.) DIe Frametimes haben sich zwar rein objektiv verbessert, subjektiv aber verschlechtert.
Hier mal ein Auszug:
Frames, Time (ms), Min, Max, Avg
31, 995, 31, 31, 31.156

Frame, Time (ms)
1, 0.000
2, 27.340
3, 43.408
4, 92.583
5, 122.125
6, 138.252
7, 185.482
8, 217.812
9, 233.526
10, 284.748
11, 313.969
12, 329.938
13, 381.641
14, 410.671
15, 430.326
16, 473.764
17, 505.788
18, 538.961
19, 575.628
20, 605.336
Der "50er Hacker" kommt jetzt nicht mehr regelmäßig, sondern wann es ihm paßt, und das tut richtig weh auf dem Auge. Da können 30fps schon mal zu gefühlten 10fps werden :eek:

7.) Die performance ist geradezu ABARTIG. Man beachte bitte die Auflösung und den AA Modus ;)

Hier mal etwas, worauf ihr alle gewartet habt, ein 3dm06 Screenie.
http://img209.imageshack.us/img209/5348/triplemegapowerva5.jpg (http://imageshack.us)

Weitere games/tests folgen natürlich, aber ich wollte ned schlafen gehen, bevor diese triple-Hure nicht rennt. Im Endeffekt mußte sich auch dieses Problem dem GOTT beugen ;D

stay tuned ;)

FREAK23.de
2007-12-18, 01:52:37
:umassa::love2:

bitte so schnell wie möglich crysis bench ^^

Moralelastix
2007-12-18, 02:02:19
Was wärs 3Dcenter nur ohne tombman. :biggrin:

(del)
2007-12-18, 02:08:38
Vor dem Schlafen gehen muss die 10.000 aber noch fallen! :D

Gast
2007-12-18, 02:22:51
Der "50er Hacker" kommt jetzt nicht mehr regelmäßig, sondern wann es ihm paßt, und das tut richtig weh auf dem Auge. Da können 30fps schon mal zu gefühlten 10fps werden :eek:Na Klasse :(

tombman
2007-12-18, 03:01:18
Na toll, wenn ich 4x prime mache + 3dm06 schaltet das NT nach einiger Zeit aus-> tjo, da reichen 1000Watt wohl doch ned ganz, obwohl nur maximal ca 900 Watt gezogen wurden :confused: (habs gemessen)
Ich schätze mal der 12 Volt Anteil war zu hoch.

tombman
2007-12-18, 03:39:32
In XP hat man tatsächlich gar kein SLI mehr- megalame.
Dh, triple SLi zwingt einen zu Vista als Hauptsys!

Wieso habe ich das Gefühl, daß ich auf SLi bald scheißen werde?

Hübie
2007-12-18, 03:47:45
"enable 3-way SLI (recommended)" ;D:biggrin::D

ROFL! Ne ich verschenke meine Rechenpower und lasse es deaktiviert! :|
Wieso musste ich an tombman denken als ich die Nachricht mit triple-SLi auf der CB gelesen habe:confused:

b2t:
Die brachiale Leistung fordert aber anscheinend ihre Tribute:
1.) extremer Energiebedarf
2.) anscheinend unausgegorene Treiber
3.) (und das ist das schlimmste) Windows Fiasko..ääh Vista
4.) overclocking adé (wozu sei aber dahingestellt - haben beruhigt :D)


bye Hübie

tombman
2007-12-18, 04:20:50
"enable 3-way SLI (recommended)" ;D:biggrin::D

ROFL! Ne ich verschenke meine Rechenpower und lasse es deaktiviert! :|
Wieso musste ich an tombman denken als ich die Nachricht mit triple-SLi auf der CB gelesen habe:confused:

b2t:
Die brachiale Leistung fordert aber anscheinend ihre Tribute:
1.) extremer Energiebedarf
2.) anscheinend unausgegorene Treiber
3.) (und das ist das schlimmste) Windows Fiasko..ääh Vista
4.) overclocking adé (wozu sei aber dahingestellt - haben beruhigt :D)


bye Hübie
ocing geht aber...genauso wie unter SLI oder single.

boxleitnerb
2007-12-18, 06:37:56
Ist Nvidia die Problematik dieser Microruckler durch die unregelmässigen Frames nicht bewusst oder juckt es die und die allermeisten SLI Nutzer einfach nicht?
Man sollte doch meinen, dass das Enthusiasten sind, die ein Auge für sowas haben...

Skiller_no1
2007-12-18, 08:20:35
nö, hauptsache 3 fette Karten und viele 3DMark Punkte;D

Gast
2007-12-18, 08:30:01
Ist Nvidia die Problematik dieser Microruckler durch die unregelmässigen Frames nicht bewusst oder juckt es die und die allermeisten SLI Nutzer einfach nicht?
Man sollte doch meinen, dass das Enthusiasten sind, die ein Auge für sowas haben...
bewusst *gg* Tombman hats erfunden öhm gefunden :D

was ich nicht checke warum nvidia das nicht checkt.

gut ATI/AMD hats auch in crossfire, nur nicht so arg..


grüsse

Gast
2007-12-18, 08:34:03
Na toll, wenn ich 4x prime mache + 3dm06 schaltet das NT nach einiger Zeit aus-> tjo, da reichen 1000Watt wohl doch ned ganz, obwohl nur maximal ca 900 Watt gezogen wurden :confused: (habs gemessen)
Ich schätze mal der 12 Volt Anteil war zu hoch.

CPU wieviel overclocked ?
noch der QX6700 oder ?

stehe Heute vor dem selben Spiel

war mir aber klar daß das Enermax 1000w der ersten Generation ( ALSO OHNE dxx ) da eingeht..
das hat so schon seine Schwächen.

RaumKraehe
2007-12-18, 08:47:23
da reichen 1000Watt wohl doch ned ganz, obwohl nur maximal ca 900 Watt gezogen wurden :confused: (habs gemessen)


Das wäre ja ein Wirkungsgrad von 90%. Ist doch klar das es nicht klappt. ;)

Aber ansonsten Gratulation zu trippel SLI, obwohl du es ja erst "überspringen" wolltest.

MartinRiggs
2007-12-18, 09:01:59
da muss man aber schon sehr leidensfähig sein.
Triple-SLI geht nicht unter XP.
Ein 1000 Watt-Netzteil reicht nicht:eek:
Die Frametimes sind kagge.
Also für mich wäre das ein absolutes No-GO, aber irgendjemand muss es ja mal in freier Wildbahn testen:biggrin:
Aber Tombman, bitte Games testen, 3DMark hat nun wirklich null Aussagekraft, sonst wäre der R600 nämlich ein Überflieger

JaDz
2007-12-18, 09:12:43
Das wäre ja ein Wirkungsgrad von 90%. Ist doch klar das es nicht klappt. ;)
Wenn er 900 Watt außen misst, sollten es innen nur ca 720 - 760 Watt gewesen sein bei ca. 80 - 85 % Wirkungsgrad.

DevilX
2007-12-18, 09:19:32
Oh mann wieso habe ich mir nur Gedacht das du der erste hier damit sein würdest ;-)
Wenn Nvidia die Scheiß ruckler mal endlich in den Griff bekommt, wirst wohl mehr Spass damit haben oder?
Legst du dir jetzt noch ne Wasserkühlung für die Karten zu oder bleibt es erstmal so?

Razor
2007-12-18, 09:21:07
da muss man aber schon sehr leidensfähig sein.
Triple-SLI geht nicht unter XP.
Ein 1000 Watt-Netzteil reicht nicht:eek:
Die Frametimes sind kagge.
Also für mich wäre das ein absolutes No-GO, aber irgendjemand muss es ja mal in freier Wildbahn testen:biggrin:
Aber Tombman, bitte Games testen, 3DMark hat nun wirklich null Aussagekraft, sonst wäre der R600 nämlich ein Überflieger
Du hast die hohe Temp vergessen... ;)
Und die Notwendigkeit eines nVidia-Boards...
Und der Extrem-Beta-Zustand der Treiber insgesamt...
Und die nicht vorhandene Aufrüstbarkeit des Rechners...
(von tombmans 'Basteleien' mal abgesehen - wenn das überhaupt noch geht ;-)...

Alles für mich ein "noGo"!
(inkl. der von Dir genannten Problematiken natürlich ;-)

Sich dann aber an den "Schnullern" zu ergötzen, paßt zu den "Enthusiasten"!
Frei nach dem Motto: "Ey, 30fps fühlen sich wie 10 an, aba supa-dolle 10 thousands of Murks-Schnullah!"
:D

Razor

Gast
2007-12-18, 09:23:00
da muss man aber schon sehr leidensfähig sein.
Triple-SLI geht nicht unter XP.
Ein 1000 Watt-Netzteil reicht nicht:eek:
Die Frametimes sind kagge.
Also für mich wäre das ein absolutes No-GO, aber irgendjemand muss es ja mal in freier Wildbahn testen:biggrin:
Aber Tombman, bitte Games testen, 3DMark hat nun wirklich null Aussagekraft, sonst wäre der R600 nämlich ein Überflieger

Du sagst es..
wenns keiner probiert sterben wir Dumm :D

3D Mark hatte noch ie eine gute Aussagekraft, außer obs Sys halbwehs passt.
Daher wären game Tests super.

zum 3way SLI, 1kw NT sonstiger Extrem HW.
ob sinnlos oder nicht kann nur jeder selber entscheiden.
was man aber nicht machen soll ist, jemanden deshalb Persönlich angreifen wie es leider oft der Fall ist..

Grüße @ Tombman

PR1

Grestorn
2007-12-18, 09:42:33
Alles für mich ein "noGo"!
(inkl. der von Dir genannten Problematiken natürlich ;-)

Sich dann aber an den "Schnullern" zu ergötzen, paßt zu den "Enthusiasten"!
Frei nach dem Motto: "Ey, 30fps fühlen sich wie 10 an, aba supa-dolle 10 thousands of Murks-Schnullah!"

Als ob Du SLI auch ohne irgendeinen der genannten Gründe in Erwägung ziehen würdest - denn dann müsstest Du ja Deine in gefühlten 100000 Beiträgen uns allen aufgezwungene Meinung revidieren.

Topic:
Gut, dass die ungleiche Verteilung der Frames nun noch deutlicher sichtbar wird. Ich bin recht sicher, dass es nur noch eine Frage der Zeit ist, bis der Treiber eine Option enthält namens "smoothen frame rate" oder so ähnlich.

Der Treiber kann das am besten steuern. Als Option wird es wohl kommen (im Gegensatz zu einer immer aktiven Funktion), weil die Zahl der Frames pro Sekunde durch eine solche Option immer sinken muss, und die 3DMark Fetischisten sie deswegen immer auch ausschalten können müssen.

Razor
2007-12-18, 09:54:16
Als ob Du SLI auch ohne irgendeinen der genannten Gründe in Erwägung ziehen würdest
Die Gründe contra TripleSLI sind hier ja nun konkret genannt.
Das müsste Dir eigentlich aufgefallen sein...

Dass es zudem generelle Kritikpunkte (und derer viiiieeeele ;-) gegen derzeitige Implementierungen von Multi-GPU-Umgebungen (egal, ob AMD oder nVidia) gibt, kommt natürlich hinzu... da hast Du vollkommen recht!
;)

Razor

Grestorn
2007-12-18, 09:57:38
Die Gründe contra TripleSLI sind hier ja nun konkret genannt.
Das müsste Dir eigentlich aufgefallen sein...

Dass es zudem generelle Kritikpunkte (und derer viiiieeeele ;-) gegen derzeitige Implementierungen von Multi-GPU-Umgebungen (egal, ob AMD oder nVidia) gibt, kommt natürlich hinzu... da hast Du vollkommen recht!

Dumm nur, dass nach den aktuellen Gerüchten, der "Enthusiast"-Markt nur noch durch Mutli-GPU Lösungen abgedeckt werden soll.

Was einerseits auch gut ist - das bedeutet nämlich, dass der Druck einige der Nachteile von SLI zu lösen, stärker wird. Die berüchtigten Microruckler glauben hoffentlich als erste daran.

Alle anderen Nachteile halte ich persönlich für vernachlässigbar oder von Dir (und anderen) unnötig aufgebauscht.

Gast
2007-12-18, 10:24:44
Na toll, wenn ich 4x prime mache + 3dm06 schaltet das NT nach einiger Zeit aus-> tjo, da reichen 1000Watt wohl doch ned ganz, obwohl nur maximal ca 900 Watt gezogen wurden :confused: (habs gemessen)
Ich schätze mal der 12 Volt Anteil war zu hoch.
doch das wird schon reichen aber die 1000watt boliden versprechen zuviel...nur die wenigsten 1000watt netzteile können diese auch tatsächlich stabil liefern...

schau mal bei letzten netzteilroundup von planet3dnow ;)

Razor
2007-12-18, 10:51:21
Dumm nur, dass nach den aktuellen Gerüchten, der "Enthusiast"-Markt nur noch durch Mutli-GPU Lösungen abgedeckt werden soll.
Vermutliche eher: "...abgedeckt werden kann."
Oder?

nVidia hat doch mal gesagt, dass es im Prinzip nur durch MultiGPU-Lösungen möglich ist, die Performance von zukünftigen SingleGPUs zu erhalten... nicht das Featureset, sondern lediglich die Performance. Und klar: das ist das, was den "Enthusiast"-Markt zukünftig ausmacht, denn offenbar ist die Produktion von derat leistungsfähigen SingleGLU-Karten so aufwändig, dass man damit nicht mehr wirklich viel verdienen kann. Auch ist die Notwendigkeit von solchen "Leistungsmonstern" nicht mehr gegeben, weil es einfach keine Konkurrenz mehr gibt.

Wer solche Lösungen wie TripleSLI in der derzeitigen Form in Betracht zieht, muss 'eh zwangsläufig ein "Bastler" sein... insofern ist er Leidensdruck gewöhnt... und so schmeißt man eben mal so sein 1000W Netzteil raus und ersetzt es durch eines mit 1200W... ob sinnvoll oder nicht. Gemessen an den sonstigen Kosten solcher "Bastellösungen" dürfte das auchnicht mehr ins Gewicht fallen. Auch die Treiber im Alpha-Stadium stören hier nicht wirklich, wenn denn nur die "Schnuller" stimmen...

Was einerseits auch gut ist - das bedeutet nämlich, dass der Druck einige der Nachteile von SLI zu lösen, stärker wird. Die berüchtigten Microruckler glauben hoffentlich als erste daran.
Da glaub' mal dran...

Wird sein, wie bei den CPUs - Multithreading muss schon Anwendungsseitig implementiert sein, damit dies performance-seitig wirklich zum Tragen kommt. Und erst heute, wo DualCore-CPUs 'normal' sind, sehen wir 'langsam' eine breite Unterstützung in den Anwendungen/Engines.

Wann wird SLI, bzw. generell MultiGPU 'normal' sein?

Momentan ist das nur ein Nieschenmarkt und nur die wenigsten Entwickler dürften dafür Geld verschwenden...
Klar, wenn die Entwickler-Studios diese Kosten nicht tragen müssen (siehe aktuelles Beispiel: Crysis), ist das ein anderes Thema.

Aber nVidia müsste dann nicht nur die Treiber-interne Entwicklung massiv voran trieben, sondern auch bei den externen Entwicklern noch weit mehr investieren, als dies ohnehin schon der Fall ist. Zudem müsste man Mainstream-Produkte auf MultiGPU-Basis in den Markt schießen, damit sich langsam eine breite Hardware-Basis dafür bildet...

Alles ein bischen viel für eine einzelne Firma, oder?
Bei AMD hat man derzeit andere Probleme...

Das alles ist Zukunftsmusik und wohl erst ein Thema für 2009... vielleicht auch erst 2010.
Bis dahin werden sich die "Enthusiasten" wohl noch gedulden müssen...

...eine erste Auswirkung ist die Begrenzung von TripleSLI auf Vista - dem "Enthusiasten" zuzumuten (der schluckt ja alles) und für nVidia die Möglichkeit, den Entwicklungsaufwand zu begrenzen. Bin auch mal gespannt, ob das mit der "TripleSLI"-only Geschichte so bleibt... denn solange die Performance mit TripleSLI oftmals noch schlechter ist, als mit (Dual-)SLI, ist dies eigentlich ein unhaltbarer Zustrand... eine "Bastellösung" allenfalls.

Razor

blackbox
2007-12-18, 11:13:44
Wir haben hier im Forum genau 1 Enthusiasten :D, wenn man das mal so hochrechnet.... kann das für Nvidia sich gar nicht lohnen. Es ist mehr ein Prestigeobjekt seitens Nvidia, mit all seinen Problemen. ;) Und wie das so mit Prestigeprojekten so ist, die dürfen kosten und müssen nichts einbringen, außer an Erfahrung. :D

Trotzdem finde ich das ganze interessant, sei es, dass man sich darüber amüsiert, darüber lächelt, mitleidet oder einfach nur dämlich findet, ich finde es gut, dass Tombman darüber berichtet.

Ähm... Tombman, wir warten. :biggrin:

Razor
2007-12-18, 11:17:34
Und wie das so mit Prestigeprojekten so ist, die dürfen kosten und müssen nichts einbringen, außer an Erfahrung. :D
No limit?
Wohl kaum...
:D

Trotzdem finde ich das ganze interessant, sei es, dass man sich darüber amüsiert, darüber lächelt, mitleidet oder einfach nur dämlich findet, ich finde es gut, dass Tombman darüber berichtet.
Das unterschreib' ich sofort!
Mega-:up:

Razor

Snoopy69
2007-12-18, 11:34:49
@ tombman

Welches MB hast du?

tombman
2007-12-18, 12:08:31
@ tombman

Welches MB hast du?

EVGA 680i.

Btw, gerade heute in meiner mail: evga macht ein 60 Tage stepup Programm.
für 80€ bekommt man ein 780i mobo und muß sein 680i abgeben ;D;D

Razor
2007-12-18, 12:11:35
EVGA 680i.

Btw, gerade heute in meiner mail: evga macht ein 60 Tage stepup Programm.
für 80€ bekommt man ein 780i mobo und muß sein 680i abgeben ;D;D
Würde mich echt interessieren, ob das was bringt!
Der einzige Unteschied soll wohl 3xPCIe16x vs. 2xPCIe16x+1xPCIe8x sein, korrekt?
(elektrisch, bei beiden sinds ja immer 3xPCIe16x Slots)

Razor

tombman
2007-12-18, 12:17:38
Würde mich echt interessieren, ob das was bringt!
Der einzige Unteschied soll wohl 3xPCIe16x vs. 2xPCIe16x+1xPCIe8x sein, korrekt?
(elektrisch, bei beiden sinds ja immer 3xPCIe16x Slots)

Bringen wirds wahrscheinlich nix, aber durch das 780i bekomme ich Yorkfield support, und der ist mir sowieso wichtig, egal ob ich SLI behalte oder nicht ;)
Vorteil bei Nvidia chipsets ist eben die perfekte Ram-Steuerung, da hier fsb und Ram unabhängig eingestellt werden können ;)

Ach ja, rennt Crossfire eigentlich auf Nvidia chipset mobos? Hat ATI das jetzt komplett freigeschalten? (bin bzgl CF nicht auf dem Laufenden)

Snoopy69
2007-12-18, 12:28:13
@ tombman

Also wenn du garkein SLI mehr haben willst sind nforce-MBs nicht gerade die erste Wahl.
CPU-OC ist beim 680i ja miserabel. Mal gespannt wie es mit dem 780i wird.

MartinRiggs
2007-12-18, 12:32:19
Find ich schon witzig, macht doch Cf immer runter und bist dabei gar nicht mehr auf dem laufenden:eek:
Aber zu deiner Frage, CF läuft nicht auf NV-chipsätzen, so nett ist ATI dann doch net.
Geht nur auf Intel und AMD-Chipsets, allerdings laufen die Dual-Karten ja auch auf NV-Mainboards, vielleicht gibts nen Hack???

Oranje
2007-12-18, 13:42:50
Das enermax hat seine 12Volt leistung ueber 4 oder 5 schienen verteilt und das ist der grund warum,s damit nicht klappt.

Schau dich um nach eins das EINE 12Vol;t schiene hat.
(Zb, das 1KW PC Power&Cooling
Turbocool SR (SR steht fuehr single rail)


@Raumkraehe Du irst dich! Ein NT mit zb. 1KW liefert auch 1KW aber effizienz-bedingt hats dan ein mehr-verbrauch.
Also zb. bei 1KW und effiz. von 80% verbrauchts dan 1200Watt (Aber nur wen man dan auch diese 1KW verbraten wuerde.

Hier eine seite wo man sich prima ,,schlau,, machen kanv diesbez. http://www.jonnyguru.net/forums/index.php
Und ins besondere diesen link hier http://www.jonnyguru.net/forums/showthread.php?t=3137


GrtzO

Grestorn
2007-12-18, 14:10:25
Wir haben hier im Forum genau 1 Enthusiasten :D

Das würde ich keinesfalls so stehen lassen. Mir fallen mindestens 4-5 User hier im Forum ein, die sich eine 8800 SLI Lösung gekauft haben. Fallen die für Dich nicht unter "Enthusiast"?

TurricanM3
2007-12-18, 14:47:51
Ich hab das mit dem Geruckel schon befürchtet. Schade eigentlich, wollte demnächst umbauen.

Kann das treiberseitig nicht beseitigt werden?

d2kx
2007-12-18, 14:55:07
tombman = Hardcore

Ohne dich wäre das 3DCenter echt nicht, was es ist.

Das musste von meiner Seite nochmal gesagt werden ^^

PS: Nächstes Jahr will ich Quad GeForce 9000 sehen! :umassa:

RaumKraehe
2007-12-18, 14:59:55
Das enermax hat seine 12Volt leistung ueber 4 oder 5 schienen verteilt und das ist der grund warum,s damit nicht klappt.

Schau dich um nach eins das EINE 12Vol;t schiene hat.
(Zb, das 1KW PC Power&Cooling
Turbocool SR (SR steht fuehr single rail)


@Raumkraehe Du irst dich! Ein NT mit zb. 1KW liefert auch 1KW aber effizienz-bedingt hats dan ein mehr-verbrauch.
Also zb. bei 1KW und effiz. von 80% verbrauchts dan 1200Watt (Aber nur wen man dan auch diese 1KW verbraten wuerde.

Hier eine seite wo man sich prima ,,schlau,, machen kanv diesbez. http://www.jonnyguru.net/forums/index.php
Und ins besondere diesen link hier http://www.jonnyguru.net/forums/showthread.php?t=3137


GrtzO

Danke für die Infos. In der Tat sehr interessant. :)

Gast
2007-12-18, 15:02:24
PS: Nächstes Jahr will ich Quad GeForce 9000 sehen! :umassa:

TSLI läßt mich daher erstmal kalt.
Soso. ;)



Im Frühjahr kommt G100, und der wird sowieso alles wegownen ;)
Also zusammenfassend:
tombman will von einem TSLI G80 auf einen Single G100 umsteigen, na wenn das nicht weh tut.

tombman
2007-12-18, 15:30:10
Das enermax hat seine 12Volt leistung ueber 4 oder 5 schienen verteilt und das ist der grund warum,s damit nicht klappt.

Ich habe vor ner Stunde eine hdd ausgebaut und gleichzeitig die Leitungen umgesteckt.
Jetzt hat er mir mehrere Maximallast-Loops überlebt ohne auszuschalten.
Wie sehr das jetzt am seidenen Faden hängt weiß ich auch ned.
Ich habe zb eine der dedizierten pci-e 6 pin Lines von Graka 2 auf Graka 3 gehängt, weil ich denke, daß die "stärker" sind. Ändert zwar logischerweise an der Gesamtsituation nichts, aber so bekommt auch die dritte Karte zumindest eine der "fetten" Leitungen. Vorher war die 3. Karte über 4x Molex -> 2x pci-e Adaptern angebunden.
(mein "first gen" 1Kw Enermax hat nur 4x pci-e 6pin Stecker, die neueren haben mehr)

Oder es war wirklich nur wegen der 1 Hdd weniger :rolleyes: (aber es kommt wieder eine dazu später, dann wird sich ja zeigen ob er wieder abkackt).

Raten kann ich nur mindestens 1200 Watt für Triple SLI zu nehmen, bei schwerem OC+ Quadcore+ haufenweise HDDs (Raid etc) eher das 1500 Watt Monster von Thermaltake- preislich ist es eh schon egal, sind beide über 300€ :rolleyes:

Snoopy69
2007-12-18, 15:50:38
Das mit den NTs wäre mit auch wichtig...
Auf jeden Fall will ich KEIN Thermaltake - viel zu laut. Ich hatte mal das Toughpower 850W. Nee danke...
Und von Seasonic gibt es leider nichts über 900W. Für mich die besten NTs überhaupt...

Gast
2007-12-18, 15:56:51
Ach komm jetzt wird es lustig, 1000W und gleichzeitig leise? Wo sollen die 200W Abwärme hin?



Und von Seasonic gibt es leider nichts über 900W. Für mich die besten NTs überhaupt...
Nimm doch 2, brauchst nur ein anständiges Gehäuse, wo das realisierbar ist. :)

Snoopy69
2007-12-18, 16:00:53
Mein M12 700W ist verdammt leise - Seasonic eben :D
Und 2x M12 700W sind nicht gleich laut, oder?
Das Case dazu hätte ich - Stacker STC-T01 :wink:

Hängt auch wirklich sehr von der Güte des NTs ab ob 1000W oder 1200W reichen.
Angegebenen techn. Daten entpuppen sich oft als Papiertiger. Nur wenige Hersteller können wirklich gute NTs bauen...

tombman
2007-12-18, 16:07:26
Und das mit "nimm-2" wird auch nix, sonst kann man sich ganz leicht seine hw schrotten. Nur Festplatten, bzw Geräte die nur eine Stromquelle haben kann man "extern" füttern.
Bei ner Grafikkarte, welche Strom aus dem mobo Slot UND über die pci-e Stecker bekommt, muß die Quelle die gleiche sein, sonst fließt Strom von Masse A zu Masse B --> ganz ungut ;)
Da hatte ich schon so meine "Welcome to Stichflamme"-Erlebnisse ;D;D

Beomaster
2007-12-18, 16:17:10
wie soll das mit 2NTs überhaupt gehen
irgendwoher muß doch das 2. NT "wissen" wann es angehn soll?

Fatality
2007-12-18, 16:21:45
der Poweron-button kann mit dem ATX-Stecker des 2. nts gebridged werden, fertig.

Karten und mb an ein nt, rest an 2.nt. sollte gehen.

Gast
2007-12-18, 16:22:53
wie soll das mit 2NTs überhaupt gehen
irgendwoher muß doch das 2. NT "wissen" wann es angehn soll?
Da gibt es spezielle ATX Zwischenstecker.

Dann weiß das 2. NT genau wie das 1. NT, wann es angehen muss.
Dann wird halt auf beiden NTs die grüne Leitung mit der Masse kurzgeschlossen.

Gast
2007-12-18, 16:28:38
Und das mit "nimm-2" wird auch nix, sonst kann man sich ganz leicht seine hw schrotten. Nur Festplatten, bzw Geräte die nur eine Stromquelle haben kann man "extern" füttern.
Bei ner Grafikkarte, welche Strom aus dem mobo Slot UND über die pci-e Stecker bekommt, muß die Quelle die gleiche sein, sonst fließt Strom von Masse A zu Masse B --> ganz ungut ;)
Da hatte ich schon so meine "Welcome to Stichflamme"-Erlebnisse ;D;D
hab ich schonmal probiert, da geht nix..
die NTs piepen da nur= Schutz aktiv

solche Zwischenstecker waren zb beim ersten coolermaster staker dabei

bleibt nur 1 sehr sehr starkes kaufen ..

wobei ma eigentlich glauben konnte beim kauf vor ca 1 jahr das 1000w länger ausreicht :D

dargo
2007-12-18, 16:52:41
Das wäre ja ein Wirkungsgrad von 90%. Ist doch klar das es nicht klappt. ;)

Aber ansonsten Gratulation zu trippel SLI, obwohl du es ja erst "überspringen" wolltest.
Was hat der Wirkungsgrad denn schon wieder damit zu tun? Leute, informiert euch doch bitte vorher. :)

Auch ist die Notwendigkeit von solchen "Leistungsmonstern" nicht mehr gegeben, weil es einfach keine Konkurrenz mehr gibt.

Sorry, aber das ist BS. Frage mal einen 24" TFT User ob er mit der Leistung einer Single-GPU zufrieden ist. Vorallem wenn man min. 4xAA benutzen will.

Gast
2007-12-18, 17:03:33
Was hat der Wirkungsgrad denn schon wieder damit zu tun? Leute, informiert euch doch bitte vorher. :)
Er meinte wohl die Auslastung, die in bei 900W bei ~ 70% liegen sollte. Reichlich Platz nach oben.


Trotzdem Enermax schwindelt etwas bei den Daten mit 1000W:
4* 17A @ 12V = 816W
1* 30A @ 5V = 150W

Tja es scheitert an den schwachen 12V Leitungen.


Jetzt im Vergleich ein 900W Seasonic:
4* 18A @ 12V = 864W
1* 30A @ 5V = 150W

Schön zu sehen, wie Seasonic etwas besser ist, aber bei der W Angabe etwas zurückhaltender. :)

dargo
2007-12-18, 17:05:56
Das enermax hat seine 12Volt leistung ueber 4 oder 5 schienen verteilt und das ist der grund warum,s damit nicht klappt.

Was glaubst du denn warum es die combined 12V Power gibt? :rolleyes:

Trotzdem Enermax schwindelt etwas bei den Daten mit 1000W:
4* 17A @ 12V = 816W
1* 30A @ 5V = 150W

Tja es scheitert an den schwachen 12V Leitungen.

Das Enermax NT kann bis zu 75A (900W) combined auf 12V liefern.
http://www.guru3d.com/article/psu/368/2/

Hier das Originalbild:
http://www.guru3d.com/article/psu/368/3/

Man kann nicht einfach die einzelnen 12V Schienen addieren. Ok, bei manchen NT Herstellern trifft es zu. Bei vielen aber nicht.

Edit:
Wenn tombman wirklich "nur" 900W beim gesamten System gemessen hat ist das Enermax NT einfach nicht sein Geld wert. Es kann die Spezifikation bei weitem nicht halten. Schließlich muss das NT bei 900W Messung nur ca. 720-765W liefern. Und selbst das schafft es anscheinend nicht bzw. läuft an der Grenze. Eine Möglichkeit gäbe es allerdings noch. Tombmans System belastet die 3,3V und 5V Schienen zu stark. Was ich mir aber bei heutigen Systemen kaum vorstellen kann.

Gast
2007-12-18, 17:29:42
....
Also zb. bei 1KW und effiz. von 80% verbrauchts dan 1200Watt (Aber nur wen man dan auch diese 1KW verbraten wuerde.
....



Es sollten dann wohl 1250 Watt sein. Jaja, die Prozentrechnung...

Gast
2007-12-18, 17:39:14
Das Enermax NT kann bis zu 75A (900W) combined auf 12V liefern.
http://www.guru3d.com/article/psu/368/2/

http://geizhals.at/deutschland/?cat=gehps1000&sort=artikel&bpmax=&asuch=enermax&filter=+Angebote+anzeigen+&pixonoff=off
Ich habe das obere gewählt.

Wenn er wirklich das untere hat, dann hast du recht. :)

Turiz
2007-12-18, 17:39:48
Darum geht es doch nicht wirklich. Das soll vermutlich die Feiertagsbastlerei für tombman sein. Aber das hat sich jetzt sowieso erledigt. Zuerst muss er jetzt sein (jetzt veraltetes :biggrin: ) Hauptsystem auf Vordermann bringen.

http://80.237.210.54/vbulletin/showthread.php?t=395116

Triple SLI werde ich vermutlich auslassen ;)
2008 könnte ich sogar ganz auf SLi verzichten, denn ein G90/G100 sollte dann auch für alles reichen, schätze ich.

Hab ichs doch gewusst, dass du nicht lange widerstehen kannst. :biggrin:

Gast
2007-12-18, 17:41:41
Hab ichs doch gewusst, dass du nicht lange widerstehen kannst. :biggrin:
Immerhin 5 Tage. ;)

Gast
2007-12-18, 17:42:12
:edit

ops weniger :D

dargo
2007-12-18, 17:43:59
http://geizhals.at/deutschland/?cat=gehps1000&sort=artikel&bpmax=&asuch=enermax&filter=+Angebote+anzeigen+&pixonoff=off
Ich habe das obere gewählt.

Wenn er wirklich das untere hat, dann hast du recht. :)
Ups, sorry wußte nicht, dass es zwei Versionen davon gibt. :redface:
Aber auch bei diesem sollte man nicht einfach die einzelnen 12V Schienen addieren. Sieht man ja schon bei der stärkeren Variante. Rein rechnerisch ergeben 5x 17A 1020W, das NT liefert aber "nur" max. 900W.

Ich habe leider keine combined 12V Power Angaben zum Enermax Crossfire gefunden.

tombman
2007-12-18, 17:56:48
Ich glaube ich habe weder das CF, noch das ganz neue. Ich habe jedenfalls das erste 1000er Galaxy was am MArkt war. Und es SCHEINT auch zu halten, nach der Umsteckerrei.

Habe es jetzt im Endausbau laufen mit 4x HDD + X-FI.

Btw, das krasseste tombman Video EVER erscheint gleich hier ;)

STAY TUNED ;)

tombman
2007-12-18, 17:58:57
TRIPLE SLI VIDEO :cool: (H.264 codec !!!!)

http://rapidshare.com/files/77450178/TRIPLE_MADNESS-SLI.avi.html

Snoopy69
2007-12-18, 17:59:19
Schön zu sehen, wie Seasonic etwas besser ist, aber bei der W Angabe etwas zurückhaltender. :)
Die haben zudem 30Jahre Erfahrung und sparen sich den schicki-micki-scheiß wie leuchtende Lüfter oder besonders "veredelte" Gehäuse etc.
Einzig beQuiet-NTs überzeugen mich beim Kabelmanagement (hochwertige Kabel). Ich ziehe aber trotzdem Seasonic vor.

Das mit T-SLI werd ich mir sehr gut überlegen müssen. Die Kosten würde ich eingehen, aber die Probleme mit dem Mikrorucklern gefällt mit garnicht.
T-SLI also nur für Benchmarks gut?

Ist es deshalb auch der Grund warum es kein Q-SLI gibt? Weil es mit jeder karte mehr schlimmer wird?

tombman
2007-12-18, 18:04:47
Die haben zudem 30Jahre Erfahrung und sparen sich den schicki-micki-scheiß wie leuchtende Lüfter oder besonders "veredelte" Gehäuse etc.
Einzig beQuiet-NTs überzeugen mich beim Kabelmanagement (hochwertige Kabel). Ich ziehe aber trotzdem Seasonic vor.

Das mit T-SLI werd ich mir sehr gut überlegen müssen. Die Kosten würde ich eingehen, aber die Probleme mit dem Mikrorucklern gefällt mit garnicht.
T-SLI also nur für Benchmarks gut?

Ist es deshalb auch der Grund warum es kein Q-SLI gibt? Weil es mit jeder karte mehr schlimmer wird?
Was am meisten bei T_SLI ankotzt sind neben den Rucklern der Zwang auf VISTA *kotz*

Du hast nämlich unter XP dann gar kein SLI mehr, nur mehr single :(

Moralelastix
2007-12-18, 18:08:09
Ich verstehe einfach nicht wieso keiner versucht NV direkt auf dieses Ruckel Problem anzusprechen?

Das tool von dem Progamierer scheint ja auch nicht so prall zu sei aber wenigstens hat mal einer Erbarmen von den "Hochwürden" gezeigt. Aber ne richtige Lösung is das doch auch nicht.

tombman
2007-12-18, 18:15:37
Wenn Demirug den fps-Limiter Progger Ludi hier nicht "vertrieben" hätte, hätten wir so ein Tool schon :(

Blaze
2007-12-18, 18:16:07
TRIPLE SLI VIDEO :cool:

http://rapidshare.com/files/77450178/TRIPLE_MADNESS-SLI.avi.html

Du hast ja immer noch nicht staub gewischt :D

Snoopy69
2007-12-18, 18:16:42
Was am meisten bei T_SLI ankotzt sind neben den Rucklern der Zwang auf VISTA *kotz*

Du hast nämlich unter XP dann gar kein SLI mehr, nur mehr single :(
Auch nicht wenn ich unter XP normale SLI-Treiber benutze? Oder muss man quasi die Triple-Brücke entfernen?

r00t
2007-12-18, 18:16:59
@tomb

kann es sein das man die ruckler sogar im video sieht/merkt?^^

tombman
2007-12-18, 18:19:59
Auch nicht wenn ich unter XP normale SLI-Treiber benutze? Oder muss man quasi die Triple-Brücke entfernen?
Ich schätze mal, du mußt die Brücken entfernen, wenn nicht sogar die 3. Karte.
Ausprobiert habe ich das aber nicht...
Und unter XP gibts nur normale SLi Treiber, XP Treiber kennt kein Triple SLI.

Das Auge
2007-12-18, 18:20:43
Bist du eigentlich masochistisch veranlagt, Tombman? Sich das anzutun ähnelt schon fast dem Leidensweg Jesu. Ach so, ich vergass, du bist ja Gott, du fühlst keine Schmerzen :lol:

Weiter so, wir brauchen dich. Erstens muß ja jemand die arme Industrie am kacken halten und zweitens brauchts Leute wie dich, um die eigene Hardwaresucht nicht ganz so schlimm erscheinen zu lassen :D

tombman
2007-12-18, 18:21:15
@tomb

kann es sein das man die ruckler sogar im video sieht/merkt?^^
Ne, die Ruckler die du im Video siehst, sollen auch dort sein, weil da die fps deutlich unter 30 ist, es gibt da einige Stellen im benchmark. Die echten "SLi-Ruckler" sieht man im Video nicht, das machen die 30fps der Kamera kaputt.

tombman
2007-12-18, 18:23:24
Bist du eigentlich masochistisch veranlagt, Tombman? Sich das anzutun ähnelt schon fast dem Leidensweg Jesu. Ach so, ich vergass, du bist ja Gott, du fühlst keine Schmerzen :lol:

Weiter so, wir brauchen dich. Erstens muß ja jemand die arme Industrie am kacken halten und zweitens brauchts Leute wie dich, um die eigene Hardwaresucht nicht ganz so schlimm erscheinen zu lassen :D
Hmm, ich weiß derzeit noch gar nicht, ob ich diese Anhäufung von BORG Assimilationsmaterial (;D) überhaupt behalte.

Triple-SLi ist nämlich wirklich Masochismus- *seufz*, aber du solltest mal Bioshock in 2304x1440 sehen ;D

Ich spiele zb auch mit dem Gedanken SLI zu verkaufen und mir dafür ne PS3 als Trost zu ownen :D
Zu Weihnachten GT5 PROLO(gue) zu zocken hätte nämlich was :D

Snoopy69
2007-12-18, 18:30:36
Ich schätze mal, du mußt die Brücken entfernen, wenn nicht sogar die 3. Karte.
Ausprobiert habe ich das aber nicht...
Und unter XP gibts nur normale SLi Treiber, XP Treiber kennt kein Triple SLI.
Die 3. Karte kann stecken bleiben, da bin ich mir sicher. Bei den Brücken allerdings nicht.
Wenn aber beides bleiben kann wäre das gut. Ich hab mom. XP und Vista auf einem PC laufen (getrennt auf 2 HDDs). Wäre also gut wenn XP normales SLI erkennt ohne die Brücken umstecken zu müssen.

Hast du mal den DX9-Trick bei 3DMark unter Vista probiert?
Einfach in der Verknüpfung hinter den Pfad von 3DM "-dx9" dranhängen. So müsste 3DM mehr Punkte bringen, da DX9 aktiv ist :wink:
Hat bei mir in Spielen bisher immer geklappt...

Eine PS3 wäre was, ja...
Die Rechenleistung kann derzeit keine CPU (auch mit hohem OC) schlagen. Nie mehr Treiber-Probleme, keine HW-Aufrüstung für einige Jahre, da massenhaft Leistung vorhanden, BR-LW gleich dabei.
Einzig die magere Spiele Auswahl und das mit dem Gamepad stört mich. kann man sich an sowas gewöhnen bzw. wird man überhaupt so gut steuern können, wie mit W-A-S-D und Maus?

_DrillSarge]I[
2007-12-18, 18:35:49
3dmark ist ja schön und gut...crysis ? :)

Das Auge
2007-12-18, 18:44:52
Hmm, ich weiß derzeit noch gar nicht, ob ich diese Anhäufung von BORG Assimilationsmaterial (;D) überhaupt behalte.

Triple-SLi ist nämlich wirklich Masochismus- *seufz*, aber du solltest mal Bioshock in 2304x1440 sehen ;D

Mit oder ohne Ruckler?
Sorry, aber die ownage von SLI ist seit der "SLI FPS-Lüge" einfach weg. Was bringen dir gemessene 50fps, wenn das Spielgefühl subjektiv dank der Ruckler total scheiße ist? Schwach von nvidia da nix zu fixen, gut daß du die Problematik aufgedeckt hast.
Ich sehe es jedenfalls so, daß der Enthusiast im Moment regelrecht verarscht wird. Da kann ich es auch gut nachvollziehen, daß du von SLI die Schnauze voll hast :comfort:
Sicher kommt jetzt wieder Grestorn daher und versucht das ganze zu beschönigen, nur glaube ich nicht daran, daß nv da in dieser Generation noch irgendwas dran fixt. Vram-Bug und idle-Mode lassen grüssen ;)

Ich spiele zb auch mit dem Gedanken SLI zu verkaufen und mir dafür ne PS3 als Trost zu ownen :D
Zu Weihnachten GT5 PROLO(gue) zu zocken hätte nämlich was :D

Naja, dann bräuchtest du auch keinen 4GHz-Quad mehr usw...
Außerdem zockst du doch am Beamer mit 1920x1280, oder? So hohe Auflösungen sind ohne funktionierendes SLI richtig scheiße...
Trotzdem viel Spaß mit der PS3, nur wage ich mal zu behaupten, daß ein Tombman mit ner Konsole auf Dauer unterfordert ist ;D

Ric
2007-12-18, 18:47:34
@ tombman


Wäre es möglich, dass du mal ein oder ein paar bilder deines system´s postest.
Nur aus neugier mal.

Lotzi
2007-12-18, 18:51:31
du siehst doch sein sys im video..........

Snoopy69
2007-12-18, 18:55:29
Ich weiss nur eins...
Wenn das mit den Rucklern Wellen schlägt in vielen Foren weltweit, dann ist SLI tot. Kein Mensch will dann mehr T-SLI- oder gar Q-SLI-MBs (Skulltrail) kaufen.

Liegt jetzt eig. an uns bei denen ordentlich Druck zu machen. Ich kann mir nicht vorstellen, dass NV nichts davon wusste.

"Solange keiner meckert müssen wir nix tun" oder so...

Ric
2007-12-18, 18:56:39
du siehst doch sein sys im video..........

Alles klar, den link hatte ich übersehen, danke.

tombman
2007-12-18, 18:59:24
Mit oder ohne Ruckler?
Sorry, aber die ownage von SLI ist seit der "SLI FPS-Lüge" einfach weg.
Hmm, offenbar ist die Faszination SLi bei mir immer noch ned ganz weg-- fps sind offenbar meine Droge :(

Außerdem zockst du doch am Beamer mit 1920x1280, oder?
Mein beamer hat nur 1280x720, ist kein FUll HD beamer ;)
Da würde eine single Karte reichen, zumindest bis G90/G100 ;)

Also ein "Austiegsszenario" würde es sehr wohl geben....nur ob ich es tatsächlich mache- keine Ahnung :)

Das Auge
2007-12-18, 19:15:06
Mein beamer hat nur 1280x720, ist kein FUll HD beamer ;)
Da würde eine single Karte reichen, zumindest bis G90/G100 ;)

Also ein "Austiegsszenario" würde es sehr wohl geben....nur ob ich es tatsächlich mache- keine Ahnung :)

Naja, da reicht eine 8800GTX eigentlich dicke. Zocke ja selber in 1366x768 am TV und bspw. Crysis läuft wirklich gut (für Inselverhältnisse ;)) mit allem auf high und 2xAA.

Musst aufpassen, du wirst ja noch richtig vernünftig. Zumindest solange bis es den nächsten Schuss HW (ohne Ruckelproblem) zum anfixen gibt ;D

Snoopy69
2007-12-18, 19:18:30
Hmm, offenbar ist die Faszination SLi bei mir immer noch ned ganz weg-- fps sind offenbar meine Droge :(


Auch wenn die angezeigten FPS nicht den gefühlten FPS entsprechen?

Ist dieses Problem überhaupt jemals richtig lösbar?
Bei Multi-CPUs ist es irgendwie ähnlich. Mit jedem Core mehr sinkt die Effizienz an Rechenleistung. Ist aber angeblich nur Programmierungsache.

@ Das Auge

Spätestens hier sollte man vernünftig werden...
Dicke Karte 400-500€, evtl. mit Wakü-Block 100€, neues NT (weil man nie an T-SLI gedacht hat) 300€, neues MB 250-300€. Hab ich was vergessen?
Also min. 1000€ zusätzlich für T-SLI (insofern man schon SLI hat, sonst wirds mächtig teuer) für eine miserable FPS-Leistung? Hält NV uns wirklich für so dumm?

Wie ich oben schon schrieb...
Wenn das Wellen schlägt ist T-SLI tot. Oder betrifft das evtl. nur G80-karten? Andere User mit alten Karten hatten ja saubere Frametimes.

Moralelastix
2007-12-18, 19:18:55
Ich versteh einfach nicht wieso eine große Firma wie NV ein technisches Problem mit so einem "Treiber Fix" haben sollte was ein Treiberprogrammierer in seiner Freizeit einfach so schnell mal nebenher gelöst hat.

Der Grund wieso sie keine Lösung präsentieren muss wo anders liegen.

Entweder an der Kommunikation zwischen den Kunden(uns) und NV. Den entsprechenden Leuten bei NV ist es also nicht bewußt das es ein handfestes Problem ist.
Oder es ist eine NV interne politische Entscheidung um mehr FPS zu erhalten.

Letzteres ist nur eine Frage des öffentlichen Drucks auf die Firma das Problem zu lösen.

Blaire
2007-12-18, 19:29:19
Das Problem gibts nicht nur bei Nvidia, sondern auch bei Ati das vergessen einige , außerdem treten diese Mikroruckler nicht immer auf so daß man generell nicht sagen kann, das SLI schlechter rennt als ohne.
NV/Ati wissen sicher von den Problemen, aber solange es keine großen Sites aufgreifen bzw. thematisiern, wird sich so schnell nix dran ändern.

Propagandapanda
2007-12-18, 19:49:28
Sorry... hier stand Mist

Moralelastix
2007-12-18, 19:50:48
Kannst du mal ein Foto uppen wie T-Sli so bei dir aussieht? ;)

Haste das Video nicht gesehn?

Propagandapanda
2007-12-18, 19:52:09
Jaja... man sollte erstmal gründlich lesen :biggrin: danke

Beomaster
2007-12-18, 19:52:42
das Video sieht bissl komisch aus, so grau und flimmernde Streifen, was soll das darstellen?

tombman
2007-12-18, 19:54:28
das Video sieht bissl komisch aus, so grau und flimmernde Streifen, was soll das darstellen?
Lol, du kommst wohl aus Prä-CRT Zeit, gell? FYI, wenn man Rührengeräte abfilmt, dann flimmern Streifen übers Bild.

Siehst du überhaupt irgendwas auf dem Video? Du brauchst H.264 codec.

Propagandapanda
2007-12-18, 20:03:21
Ich hätte mal ne Frage, man entschuldige sie einem Unwissenden ;D
Warum startest du in dem Video 3DMark mit nebenbei Prime? Wirkt sich das bei so hohen Auflösungen kaum bis garnichtmehr auf die Punkte/fps aus
oder soll das zeigen, dass die Stromversorgung gewährleistet ist. (also Maximalauslastung)

€: und ich muss sagen, ich spüre Neid ^^

Snoopy69
2007-12-18, 20:13:05
@ tombman

Ist der komische grüne Balken links ein Feature von NV und was soll er darstellen? Das sieht man nicht genau.

tombman
2007-12-18, 20:14:03
oder soll das zeigen, dass die Stromversorgung gewährleistet ist. (also Maximalauslastung)

Genau das. Sogar die Hintergrundmusik mit Blick auf den Mediaplayer hat einen Sinn, nämlich um zu zeigen, daß die X-FI außen am riser funkt ;)

tombman
2007-12-18, 20:14:52
@ tombman

Ist der komische grüne Balken links ein Feature von NV und was soll er darstellen? Das sieht man nicht genau.
ROFL. Du hast selbst SLI und noch nie was von der Lastanzeige gehört?

dargo
2007-12-18, 20:21:20
Eine PS3 wäre was, ja...
Die Rechenleistung kann derzeit keine CPU (auch mit hohem OC) schlagen.
Das halte ich für ein Gerücht.

Gast
2007-12-18, 20:42:29
Das Problem gibts nicht nur bei Nvidia, sondern auch bei Ati das vergessen einige , außerdem treten diese Mikroruckler nicht immer auf so daß man generell nicht sagen kann, das SLI schlechter rennt als ohne.
NV/Ati wissen sicher von den Problemen, aber solange es keine großen Sites aufgreifen bzw. thematisiern, wird sich so schnell nix dran ändern.
Die grossen Seiten greifen das schon auf... nur der blöde "Normal User" versteht nix, weiss nicht was gemeint ist. Die paar Worte sagen ihm überhaupt nix. Bei golem.de in ihrem Bericht stand doch das die PCGH Redakteure "unregelmäßige Framerate trotz hohen FPS bemerkt haben". Interessiert keine Sau...

TurricanM3
2007-12-18, 21:10:57
Das mit T-SLI werd ich mir sehr gut überlegen müssen. Die Kosten würde ich eingehen, aber die Probleme mit dem Mikrorucklern gefällt mit garnicht.
Gleiches gilt für mich, ich habe auch schon alles hier bloß noch keine Zeit/Lust gehabt es einzubauen (Wakü).

Ich weiss nur eins...
Wenn das mit den Rucklern Wellen schlägt in vielen Foren weltweit, dann ist SLI tot. Kein Mensch will dann mehr T-SLI- oder gar Q-SLI-MBs (Skulltrail) kaufen.

Liegt jetzt eig. an uns bei denen ordentlich Druck zu machen. Ich kann mir nicht vorstellen, dass NV nichts davon wusste.

"Solange keiner meckert müssen wir nix tun" oder so...
Wie lange hat es denn gedauert, bis das Problem überhaupt erstmal (von einem normalen :biggrin: User!) aufgedeckt wurde? 2 Jahre? Ich glaube nicht, dass sich da was tut.

Ach komm jetzt wird es lustig, 1000W und gleichzeitig leise? :)
Klar geht das:
http://www.turricanm3.de/pc/galaxy_umbau.jpg

:wink:

Und das mit "nimm-2" wird auch nix, sonst kann man sich ganz leicht seine hw schrotten.
...
Bei ner Grafikkarte, welche Strom aus dem mobo Slot UND über die pci-e Stecker bekommt, muß die Quelle die gleiche sein, sonst fließt Strom von Masse A zu Masse B --> ganz ungut ;)
Da hatte ich schon so meine "Welcome to Stichflamme"-Erlebnisse ;D;D
Ist das wirklich so und reproduzierbar? :confused:
Es gibt doch Hersteller von Komplettsystemen die genau das anbieten - wie machen die das dann? Wozu liegen dann manchen Netzteilen oder Gehäusen diese Überbrückungskabel ebi ohne Hinweis?

tombman
2007-12-18, 21:15:40
Die grossen Seiten greifen das schon auf... nur der blöde "Normal User" versteht nix, weiss nicht was gemeint ist. Die paar Worte sagen ihm überhaupt nix. Bei golem.de in ihrem Bericht stand doch das die PCGH Redakteure "unregelmäßige Framerate trotz hohen FPS bemerkt haben". Interessiert keine Sau...
Solange es nicht reißerisch gebracht wird, mit Ziel NVIDIA bringt des auch alles nix.

Habe gerade Lost Planet gespielt, sogar auf 5x fps Ruckler...:rolleyes:
Wobei es aber immer spielbar bleibt (was mit normalem SLI nicht der Fall war), denn die Reaktion auf Eingaben findet ja statt. (1920x1080, 4xAA, Rest max, DX10 mit softshadows)

Was total krass ist: man denkt immer "JETZT müssen die fps aber einbrechen", bei großen Explosionen etc, aber sie bleiben einfach oben, genauso in CoD4..2304x1440 gaming kein Problem ;D

reunion
2007-12-18, 21:29:37
http://img134.imageshack.us/img134/7960/minimumww4.jpg (http://imageshack.us)

http://img75.imageshack.us/img75/484/psusam7.jpg (http://imageshack.us)

Kein Wunder, das du Probleme hast mit deinem Netzteil.

LeChuck
2007-12-18, 21:38:27
Wie schliesst man denn die 8pin PCI Stecker an?
Passen die auch auf 6pin buchsen?

Gast
2007-12-18, 21:53:45
Kein Wunder, das du Probleme hast mit deinem Netzteil.

seit wann sind den die netzteilangaben von nvidia wirklich eine notwendigkeit?

Gast
2007-12-18, 22:09:32
seit wann sind den die netzteilangaben von nvidia wirklich eine notwendigkeit?
Seit dem tombmans Sys etwas mehr zieht als das nv Sys: OC, QX, mehr Platten

Snoopy69
2007-12-18, 22:14:36
ROFL. Du hast selbst SLI und noch nie was von der Lastanzeige gehört?
Hab ich bisher nicht genutzt. Taugt das was?

Das halte ich für ein Gerücht.
*hust*

http://de.wikipedia.org/wiki/Ps3

Und vergiss die Effizienz der SPUs nicht... :ulol:

http://de.wikipedia.org/wiki/Cell_%28Prozessor%29

Bei den vielen Features könnte man schon schwach werden. Da ruckelt halt nix und schont den Geldbeutel...

Razor
2007-12-18, 22:27:18
Bringen wirds wahrscheinlich nix, aber durch das 780i bekomme ich Yorkfield support, und der ist mir sowieso wichtig, egal ob ich SLI behalte oder nicht ;)
Vorteil bei Nvidia chipsets ist eben die perfekte Ram-Steuerung, da hier fsb und Ram unabhängig eingestellt werden können ;)
Ups... das mit dem nicht-Yorkfield-Support ist mir beim 680i irgendwie entfallen.
DAS ist selbstversändlich ein guter Grund... neben den 3 'echten' PCIe16x selbstverständlich.
;)

Ach ja, rennt Crossfire eigentlich auf Nvidia chipset mobos? Hat ATI das jetzt komplett freigeschalten? (bin bzgl CF nicht auf dem Laufenden)
Nö... nicht auf nVidia-Brettern.
(auch nicht mit 'Hack' soweit ich weiß ;-)

Da hatte ich schon so meine "Welcome to Stichflamme"-Erlebnisse ;D;D
Jup... hatte ich auch mal.
Mann hat das gestunken... OK, die Hardware war dann auch hin, aber das (2.) Netzteil hat es überlebt.
:D

hab ich schonmal probiert, da geht nix..
die NTs piepen da nur= Schutz aktiv
Wus?
Ein Netzteil für Mobo und Co. und ein weiteres allein für die GraKa?
Des hat vielleicht gequalmt... und "gepiept" hat da nix!

Sorry, aber das ist BS. Frage mal einen 24" TFT User ob er mit der Leistung einer Single-GPU zufrieden ist. Vorallem wenn man min. 4xAA benutzen will.
Aber lesen kannst Du schon, oder?
Kauf Dir SLI, wenn Du hohe Auflösungen UND ordentlich AA willst!
"Monsterkarten" = unwirtschaftlich zu produzierende Karten - braucht es nicht, weil keine Konkurrenz.

Was genau hast Du daran nicht verstanden?
:confused:

Razor

Gast
2007-12-18, 22:42:20
G
Klar geht das:
http://www.turricanm3.de/pc/galaxy_umbau.jpg

:wink:

Was ist das?

Ein 120mm Fan und weiter?
Runtergeregelt? Ok, aber unter Volllast müssen immerhin über 200W raus.
Also entweder die Geschichte wird sehr warm oder es ist nicht ganz so leise.

oh btw mit leise meine ich ein kaum ausgelastetes Seasonic SII.

Hübie
2007-12-19, 00:15:55
IIIH. Die Performance is ja abartig (und dein Teppich auch). ;D
Und dein Rechner gleicht noch einem Gemüsegarten.

Das mit den frametimes is sicher bekannt. Wenn PCGH sogar darüber schreibt. Und es betrifft nicht nur SLi ...
Zum Thema NTs: Corsair find ich bisher am besten. Gebaut von Seasonic und Kabelmanagement wie ein bequiet!. Was will man mehr. "Leider" gibts das nur bis 750W.

SO UND NUN WOLLEN WIR CRYSCHISS SEHEN!!!111einseinself :D


bye Hübie

Sk4tz
2007-12-19, 01:38:01
ja gott es wird zeit für crysis @ maxxed :P

Scose
2007-12-19, 03:28:11
Natürlich funktioneren 2 Netzteile parallel, selbst ausprobiert.

1 NT hat CPU, MB, Lüfter etc versorgt und das andere war unter anderem für die Graka und die Laufwerke zuständig.

Hat absolut problemlos funktioniert, abgesehen davon das es völlig sinnfrei war da 1 NT schon absolut gereicht hätte. :biggrin:

Marty98
2007-12-19, 06:28:42
Laut Anand ist Crysis gar nicht an 3 Grakas angepasst, kaum ein Unterschied zu 2.

Gast
2007-12-19, 07:21:43
Laut Anand ist Crysis gar nicht an 3 Grakas angepasst, kaum ein Unterschied zu 2.
jop, da ist ein Crysis Update fällig welches als normal sterblicher NOCH nicht zu bekommen ist.

AnarchX
2007-12-19, 07:36:17
Laut Anand ist Crysis gar nicht an 3 Grakas angepasst, kaum ein Unterschied zu 2.

Einfach noch ein paar Treiber abwarten:
http://img250.imageshack.us/img250/841/paper021ccab05ckc8.jpg

Gast
2007-12-19, 07:40:45
Du hast ja immer noch nicht staub gewischt :D

hier siehts genauso aus ^^ aber was mich mehr intressiert:
welches lied lief da im hintergrund?

Gast
2007-12-19, 09:12:51
Einfach noch ein paar Treiber abwarten:
http://img250.imageshack.us/img250/841/paper021ccab05ckc8.jpg
lol der letzte Punkt ist eine glatte Lüge.

Godmode
2007-12-19, 10:08:41
lol der letzte Punkt ist eine glatte Lüge.

Vom technischen bzw graphischen Aspekt schon, IMO.

Foxbat
2007-12-19, 10:55:20
wo kriegt man den verdammten Codec her?

Hab schon zwei irgendwelche x.264er installiert, aber das BIld ist nach wie vor schwarz - sehen will! :redface:


edit: danke hat sich erledigt

TFT ist grad per VGA und DVI angeschlossen, und über DVI (sekundär) wollte er kein video ausgeben

captainsangria
2007-12-19, 10:57:06
versuche mal VLC (http://www.videolan.org/)

Beomaster
2007-12-19, 11:04:47
damit (http://downloads.sourceforge.net/ffdshow-tryout/ffdshow_rev1703_20071215_xxl.exe?modtime=1197731346&bieg_mirror=0) hab ichs gemacht, weiß nun auch was tombman für nen hübschen Teppich hat

A.Wesker
2007-12-19, 11:13:32
Hab ich bisher nicht genutzt. Taugt das was?


Du möchtest ja Wissen, ob SLI bei dem jeweiligen Spiel überhaupt aktiv ist und wie es skaliert. Darausfolgend erfährst du, ob du mit dem Nhancer noch ein wenig "tricksen" musst :>

Mr. Lolman
2007-12-19, 11:15:43
Vom technischen bzw graphischen Aspekt schon, IMO.

Da konnte aber bei beiden Aspekten das original HL nicht besonders punkten.

tombman
2007-12-19, 11:33:24
Oh Mann, es fällt mir echt schwer mich von Triple SLI zu trennen, auch wenn es [Agent Smith]Es ist unvermeidlich, Mr. Anderson[/Agent Smith] heißt :(

Zieht euch mal DIE abartige Performance in FEAR rein:

http://img150.imageshack.us/img150/2016/fear3xslity9.jpg (http://imageshack.us)

Aussehen tut das dann so:
http://img170.imageshack.us/img170/1679/fearxp22007121911230238um3.jpg (http://imageshack.us)

*seufz*

Fatality
2007-12-19, 11:35:22
Mach doch mal so ein screen mit Crysitis :cool:

tombman
2007-12-19, 11:38:53
Mach doch mal so ein screen mit Crysitis :cool:
Ohne den patch geht da gar nix, und den patch haben derzeit nur die reviewer und sonst niemand.

Fatality
2007-12-19, 11:44:07
damn..
die pcgh-user was hier gereggt sind, werden dir hier wohl net beistehen..

Tesseract
2007-12-19, 12:15:21
TRIPLE SLI VIDEO :cool: (H.264 codec !!!!)

http://rapidshare.com/files/77450178/TRIPLE_MADNESS-SLI.avi.html

hättest du das licht angemacht, würde man deutlich mehr erkennen. :D

FYI, wenn man Rührengeräte abfilmt, dann flimmern Streifen übers Bild.

nicht wenn die Hz ein genaues vielfaches der kameraframes sind. dann sieht es fast wie am TFT aus.

Moralelastix
2007-12-19, 12:37:48
Wieso is es unvermeidlich sich von Tripple zu trennen?

Wegen der Kühlung und dem Netzteil oder willste auf keinen Fall auf die olle Ägeia Karte verzichten?

Oder wegen dem Preisverfall im Frühjahr mit dem D9E?

Razor
2007-12-19, 13:04:59
Wäre also gut wenn XP normales SLI erkennt ohne die Brücken umstecken zu müssen.
Tut es nicht... hier heißt es "Ganz oder gar nicht!".
Nur ein (Dual-)SLI wird unter WinXP erkannt... steckt ein TripleSLI drin, hat man nur eine einzige Karte.
Da heißt es Brücken oder gleich eine ganze Karten entfernen...

Ist aber ausschließlich ein Treiber-'Problem'.
Das zeigt recht deutlich, in welch frühem Stadium diese Art der Entwicklung steckt...

Wenn Demirug den fps-Limiter Progger Ludi hier nicht "vertrieben" hätte, hätten wir so ein Tool schon :(
FPS-Limiter?
Wie wäre es mit vSync (und Triplebuffer)?

Ich versteh einfach nicht wieso eine große Firma wie NV ein technisches Problem mit so einem "Treiber Fix" haben sollte was ein Treiberprogrammierer in seiner Freizeit einfach so schnell mal nebenher gelöst hat.
Ein Frame-Limiter sollte ausschließlich von den Entwicklern der Game-Engine kommen.
Im Treiber macht eine solche Funktion nun wirklich keinen Sinn...

Besser wäre es, die offensichtlichen Abstimmungsschwierigkeiten zwischen den GPUs in den Griff zu bekommen.

Die grossen Seiten greifen das schon auf... nur der blöde "Normal User" versteht nix, weiss nicht was gemeint ist. Die paar Worte sagen ihm überhaupt nix. Bei golem.de in ihrem Bericht stand doch das die PCGH Redakteure "unregelmäßige Framerate trotz hohen FPS bemerkt haben". Interessiert keine Sau...
Es interessiert einfach "niemanden".

Die SLI-User sind so dermaßen in der Minderheit, dass jeglicher Aufwand in dieser Richtung purer Luxus ist, der ausschließlich mit der Entwicklung zukünftiger Lösungen zu rechtfertigen ist. Und hier hängt es immer von der Priorität solcher "Zukunftslösungen" ab... ich denke mal, dass sich nVidia diesem Thema wieder näher widmen wird, wenn anderes in den Hintergrund tritt (Vista, aktuelle Hardware [G92/98] und 'nahe' Hardware [Rest der G9x/D9x Familie], wie auch aktuelle Technologie der professionellen Schiene [CUDA]).

SO UND NUN WOLLEN WIR CRYSCHISS SEHEN!!!111einseinselfja gott es wird zeit für crysis @ maxxedjop, da ist ein Crysis Update fällig welches als normal sterblicher NOCH nicht zu bekommen ist.
So to say... und da nVidia in diese Engine wahrlich viel Geld gesteckt hat und auch Crysis sich eine Menge davon versprechen wird (Entwicklung der Engine allgemein), wird es unmöglich sein, an eine 'leaked' Version des besagten TripleSLI-Builds zu kommen.

Bin sowieso mal gespannt, ob überhaupt noch ein Patch für Crysis in der nächsten Zeit zu erwarten ist...

nicht wenn die Hz ein genaues vielfaches der kameraframes sind. dann sieht es fast wie am TFT aus.
Und wie machst Du das mit dem FrameSync?
Sonst hast Du den schwarzen Balken irgenwo statisch im Bild...

Razor

Grestorn
2007-12-19, 13:06:58
nicht wenn die Hz ein genaues vielfaches der kameraframes sind. dann sieht es fast wie am TFT aus.

Kamera und Schirm müssen exakt synchronisiert sein, d.h. die Kamera darf nur während der Austastlücke ein Bild aufnehmen. Das ist extrem aufwendig.

Razor
2007-12-19, 13:08:17
hier siehts genauso aus ^^ aber was mich mehr intressiert:
welches lied lief da im hintergrund?
Was ist nun damit?
:D

Und noch etwas zu dem Video:
RESPEKT!
:up:

Finde ich wirklich mutig, einen privaten Einblick dieser Art im sonst anonymen iNet zu ermöglichen.
Und für den Rechner-Aufbau hat Tombman ein

:ujump2: Hardware-Freak of the Year :ujump2:

AWARD
\2007/
*****
verdient.

Und das meine ich wirklich ernst... und 'nett'!
;)

Razor

P.S.: Und jetzt her mit dem Song... finde des ausgesprochen 'freaky' :uup:

Grestorn
2007-12-19, 13:10:01
Ein Frame-Limiter sollte ausschließlich von den Entwicklern der Game-Engine kommen.
Im Treiber macht eine solche Funktion nun wirklich keinen Sinn...

Besser wäre es, die offensichtlichen Abstimmungsschwierigkeiten zwischen den GPUs in den Griff zu bekommen.

Es sind ja keine Abstimmungsschwierigkeiten zwischen den Karten.

Und selbstverständlich ist es Sache des Treibers und nicht der Applikation. Der Treiber muss messen, wie lange eine GPU braucht um ein Bild zu berechnen und dann dafür sorgen, dass die zweite GPU erst nach Ablauf der Hälfte dieser Zeit zu rechnen beginnt. (bzw. beim Tripel-SLI bei einem Drittel dieser Zeit).

Das kann nur der Treiber vernünftig machen, sonst niemand.

Gast
2007-12-19, 13:16:52
So to say... und da nVidia in diese Engine wahrlich viel Geld gesteckt hat und auch Crysis sich eine Menge davon versprechen wird (Entwicklung der Engine allgemein), wird es unmöglich sein, an eine 'leaked' Version des besagten TripleSLI-Builds zu kommen.

Bin sowieso mal gespannt, ob überhaupt noch ein Patch für Crysis in der nächsten Zeit zu erwarten ist...
Schon mal gesehen wer Crysis vertreibt? Es ist EA.
Nein da kommt KEIN Patch mehr, dafür gibt es ein Vollpreisaddon in Kürze. :)

Razor
2007-12-19, 13:20:58
Es sind ja keine Abstimmungsschwierigkeiten zwischen den Karten.

Und selbstverständlich ist es Sache des Treibers und nicht der Applikation. Der Treiber muss messen, wie lange eine GPU braucht um ein Bild zu berechnen und dann dafür sorgen, dass die zweite GPU erst nach Ablauf der Hälfte dieser Zeit zu rechnen beginnt. (bzw. beim Tripel-SLI bei einem Drittel dieser Zeit).

Das kann nur der Treiber vernünftig machen, sonst niemand.
Wus?
Wie würdest Du Deine Schilderung denn anders bezeichnen wollen, als derzeitige "Abstimmungsschwierigkeiten"?
Und für mich bilden Hardware & Treiber eine Einheit...

Auch sagte ich, dass ein FrameLimiter im Treiber keinen Sinn macht.
Klar, die Lösung sollte von Treiber (und/oder einer Anpassung der Technologie) erfolgen.

Insofern verstehe ich Deinen Kommentar nun ganz und gar nicht.

Zumal Dein Vorschlag irgendwie das Henne-Ei-Prinzip vollkommen durcheinander bringt... woher soll der Treiber 'wissen' oder wie soll er 'messen', wie lange die Berechnung eines ganzen Frames dauert? Dies 'weiß' er erst, wenn ein ganzer Frame abgearbeitet ist... soll er diesen nicht darstellen und dann nochmal damit anfangen, nur um das Timing der anderen Karten zu Optimieren?

Nicht wirklich 'logisch'...

Razor

Gast
2007-12-19, 13:25:03
woher soll der Treiber 'wissen' oder wie soll er 'messen', wie lange die Berechnung eines ganzen Frames dauert?
In dem er die misst, wie lange Frame 1 gedauert hat. Bei den nächsten Frames stimmt diese Zeit nicht mehr ganz, aber als Annäherung ist es zu gebrauchen.

Razor
2007-12-19, 13:25:51
Schon mal gesehen wer Crysis vertreibt? Es ist EA.
Nein da kommt KEIN Patch mehr, dafür gibt es ein Vollpreisaddon in Kürze. :)
Der Retailer ist uninteressant...

Da Crytek ein Interesse daran hat, die Engine an andere Dev-Studios zu lizensieren, wie auch nVidia ein Interesse daran hat, die eigene Investition zu schützen, wird es ganz sicher nicht von EA abhängen, ob ein Patch erscheint oder nicht.

In dem er die misst, wie lange Frame 1 gedauert hat. Bei den nächsten Frames stimmt diese Zeit nicht mehr ganz, aber als Annäherung ist es zu gebrauchen.
Da genau das vermutlich schon passiert (wie sonst ein Sync bei AFR?) und es ja nicht alle 2 Frames (oder alle 3 im Falle von TriSLI) gemacht werden kann, braucht es 'irgendwann' einen Resync. und ganu hier liegt vermutlich die Problematik...

Dreh' Dich einmal in einem FPS im Kreis, und sag' mir, dass ein Resync alle - sagen wir - 30 Bilder dann noch immer reicht.

Razor

Tesseract
2007-12-19, 13:58:25
Und wie machst Du das mit dem FrameSync?
Sonst hast Du den schwarzen Balken irgenwo statisch im Bild...

deswegen hab ich auch ganz bewusst "fast" dazu geschrieben.

besser ein balken, der vielleicht innerhalb von 10-20 sekunden einmal durch das bild wandert, als mehrmals pro sekunde.

Grestorn
2007-12-19, 14:12:55
Wus?
Wie würdest Du Deine Schilderung denn anders bezeichnen wollen, als derzeitige "Abstimmungsschwierigkeiten"?

Es geht ja nicht um Probleme der Abstimmung. Das bisherige Prinzip bringt die besten Frameraten, wenn man einfach nur zählt wie viele Frames pro Sekunde berechnet werden.

Durch den Eingriff würden die Frames ja nur gleichmäßiger auf der Zeitachse verteilt.

Bei Abstimmungsschwierigkeiten klingt das so, als würden sich die Karten nicht verstehen oder gar verhaspeln. Aber das ist ja nicht der Fall.

Auch sagte ich, dass ein FrameLimiter im Treiber keinen Sinn macht.
Klar, die Lösung sollte von Treiber (und/oder einer Anpassung der Technologie) erfolgen.

Ein Framelimiter macht keinen Sinn, da hast Du recht. In so fern habe ich Deinen Beitrag missverstanden.

Ein "Frameverteiler" ist ja kein "Framelimiter".

Zumal Dein Vorschlag irgendwie das Henne-Ei-Prinzip vollkommen durcheinander bringt... woher soll der Treiber 'wissen' oder wie soll er 'messen', wie lange die Berechnung eines ganzen Frames dauert? Dies 'weiß' er erst, wenn ein ganzer Frame abgearbeitet ist... soll er diesen nicht darstellen und dann nochmal damit anfangen, nur um das Timing der anderen Karten zu Optimieren?

Das ist ein statistischer Vorgang. Man lässt erst mal beide Karten so rechnen wie bisher, also ohne Verzögerung. Man ermittelt über einige Frames die mittlere Zeit pro Frame. Die wird dann als Basiswert für die einzufügende Verzögerung verwendet (wobei natürlich die Zeit abgezogen wird, die die CPU selber zum rechnen braucht und die derzeit der einzige Grund sind, dass die Karten nicht vollständig gleichzeitig das selbe Bild rechnen). Natürlich wird die Zeit ständig an die aktuellen Bedürfnisse angepasst.

Die Verzögerung würde dann immer einige Frames hinterherlaufen, was eben auch in ungünstigen Fällen das eine oder andere FPS kosten kann.

Nicht wirklich 'logisch'...
Eigentlich schon...

Noebbie
2007-12-19, 14:17:35
Die Musik in dem Video is so lustig^^ ;D

kk sry 4 spam kk thx bye :redface:

krass
2007-12-19, 14:18:18
:ujump2: Hardware-Freak of the Year :ujump2:

AWARD
\2007/
*****



find ich auch :smile:

tombman
2007-12-19, 15:25:53
P.S.: Und jetzt her mit dem Song... finde des ausgesprochen 'freaky' :uup:
Die Musik in dem Video is so lustig^^ ;D


IT´S BRITNEY, BITCH!! ;D

"Hot as Ice" ;)

Gast
2007-12-19, 15:32:04
Da konnte aber bei beiden Aspekten das original HL nicht besonders punkten.
HL konnte vom Spielerischen gewaltig punkten, genau da, wo Crysis versagt.

tombman
2007-12-19, 15:37:24
HL konnte vom Spielerischen gewaltig punkten, genau da, wo Crysis versagt.
Wo jetzt genau? Sind beides shooter und damit im gameplay deutlich beschränkt.
Nur ist bei Crysis eben alles besser, Grafik UND Physik, sogar der Sound ;)

PHuV
2007-12-19, 15:42:51
IT´S BRITNEY, BITCH!! ;D

"Hot as Ice" ;)

Na ja, an Deinem Musikgeschmack mußte noch arbeiten. :tongue:

Razor
2007-12-19, 16:01:38
Eigentlich schon...
OK, akzeptiert.
Wirklich 'einfach' ist es aber wohl nicht...
Und Voraussetzung ist natürlich, dass genau diese Nicht-Beachtung auch die Ursache der "Micro-Ruckler" ist.

IT´S BRITNEY, BITCH!! ;D
"Hot as Ice" ;)
Holy shit!
:ugly:

Des hätt' ich nicht gedacht... Britneys aktuelles Album "Blackout".
(wäre nicht einmal ansatzweise darauf gekommen, ausgerechnet in dieser Ecke zu suchen ;-)

THX!
:up:

Na ja, an Deinem Musikgeschmack mußte noch arbeiten. :tongue:
Hast Du schon mal in das Album rein gehört?
Ist gar nicht mal schlecht.

Halt das Album nach ihrer "Auferstehung"...
;)

Razor

tombman
2007-12-19, 16:03:46
Na ja, an Deinem Musikgeschmack mußte noch arbeiten. :tongue:
Nö, du an deinem. Das neue Album ist nämlich ned übel ;)

PHuV
2007-12-19, 16:15:15
Nö, du an deinem. Das neue Album ist nämlich ned übel ;)

Na, nur hartes Metal oder Klassik. Nix Pop (außer Poppen:tongue:), ist heute schon Freitag? Mist, zu früh für Unsinn ;).

BTW: Ich bin doch fast geneigt, mit Triple-SLI bis März zu warten, und dann auf G100 zu hoffen. Die 8800GTX gehen jetzt runter, klar, aber wieder das Netzteil wechseln (850 W Galaxy) habe ich echt keine Lust.

Blaire
2007-12-19, 17:29:00
BTW: Ich bin doch fast geneigt, mit Triple-SLI bis März zu warten, und dann auf G100 zu hoffen. Die 8800GTX gehen jetzt runter, klar, aber wieder das Netzteil wechseln (850 W Galaxy) habe ich echt keine Lust.

Hauptgrund gegen TripleSLI für mich heisst "Vista only". Unter WinXP würde das noch viel besser performen.

PHuV
2007-12-19, 17:32:12
Hauptgrund gegen TripleSLI für mich heisst "Vista only". Unter WinXP würde das noch viel besser performen.

Bis auf Crysis spielte ich mittlerweile alles unter Vista64, und läuft sehr gut. Und das jetzt noch XP sehr gut performed, halte ich angesichts der Tatsache, daß unter Vista das Verteilen der Prozesse erheblich verbessert wurde, für vernachlässigbar. Aber Du hast schon recht, der Vista-Zwang ist hier nicht gerechtfertigt.

Snoopy69
2007-12-19, 19:18:38
Du möchtest ja Wissen, ob SLI bei dem jeweiligen Spiel überhaupt aktiv ist und wie es skaliert. Darausfolgend erfährst du, ob du mit dem Nhancer noch ein wenig "tricksen" musst :>
Das es aktiv ist weiss ich immer. Nur weiss ich nix von der Effizienz...

Tut es nicht... hier heißt es "Ganz oder gar nicht!".
Nur ein (Dual-)SLI wird unter WinXP erkannt... steckt ein TripleSLI drin, hat man nur eine einzige Karte.
Da heißt es Brücken oder gleich eine ganze Karten entfernen...

Ist aber ausschließlich ein Treiber-'Problem'.
Das zeigt recht deutlich, in welch frühem Stadium diese Art der Entwicklung steckt...


Die sollen mal lieber gescheite HW entwickeln, die es ermöglicht bestimmte Komponenten komplett abzuschalten - also null Strom!
Gerade wenn man zb neue HW unter 2D testen will (CPU, Soundcard etc.) ist der Verbrauch von 3 GTX/Ultras echt übel (3x 80W @ idle) - also 160W zuviel.

Viel mehr schreckt mich aber das mit den Rucklern ab als die Kosten. Einen Grossteil hab ich ja schon. Ich sehe es irgendwie nicht ein für T-SLI fast 1000€ draufzulegen, das noch ineffizienter als mein vorhandenes SLI ist.
Nach derzeitigem Stand wäre Q-SLI wohl pure Verschwendung wegen höchster Ineffizienz. Ich hoffe wirklich, dass das nur am Treiber liegt.
Was ist aber garnicht verstehe, dass das Problerm bei altem SLI (vor G80) angeblich nicht da war. Treiber müssten doch immer besser werden!? Oder liegt es doch an G80?

Schade, dass niemand SLI und CF als Vergleich hat (nicht nur ausgelesene Framtimes, sondern auch optischer Eindruck).

@ tombman

Ich wäre echt nicht auf die kleine US-Schlunze gekommen :D
Geht es der irgendwie nicht gut, oder warum macht die grad auf bitchy-like? :ulol:

Blaire
2007-12-19, 19:28:26
Diese Mikroruckler gab es schon zu Anfangszeiten von SLI (ab 6800er Serie aufwärts...),ich erinner mich noch an Battlefield2 seinerzeit das lief laut fraps mit 60fps aber es lief irgendwie nicht so gut wie mit SFR oder SingleGPU, bei X1900 Crossfire hatte ich das damals schon recht früh bemerkt u.a. bei Farcry lief sehr zäh trotz 50fps fühlte sich das an wie ~30fps, 3DMark Stutterings etc. Bei Nvidia SLI gab es immer noch Möglichkeiten durch Nhancer die Kompatibility Bits zu verändern und verschiedene Ruckler zu eliminieren, bei Crossfire hatte man keine Chance man muss damit leben. Crossfire haben natürlich sehr wenige daher ist es dort nicht so bekannt. SLI ist weitaus verbreiteter.

Snoopy69
2007-12-19, 19:55:32
Wäre es überhaupt machbar zw. jedem Frame die exakt gleichen Frametimes mit Treibern zu erzwingen? Wenn ja, warum hat man das noch nicht getan. NV MUSS was davon gewusst haben...

@ tombman

Wie "fühlen" sich angezeigte 40FPS an?
Oder besser so... Ab wieviel angezeigten FPS würdest du es für wirklich flüssig halten?

The_Invisible
2007-12-19, 21:52:15
Na ja, an Deinem Musikgeschmack mußte noch arbeiten. :tongue:

hätte tombman den interpreten nicht genannt wäre es ein "geile musik" geworden :D :P

mfg

tombman
2007-12-19, 21:53:51
hätte tombman den interpreten nicht genannt wäre es ein "geile musik" geworden :D :P

Jo, zuerst alle geil drauf und dann "neee, nicht Britney" ;D;D

Gast
2007-12-19, 21:57:23
Demnächst bei geizhals.at:

nVidia: Neue (und alte) Filtertricks

nvidia: Gefühlte (und gefilmte) Microruckler...




Go Tombman, go! <-- "3dc-Hardware-Freak of the year2007"! :up:

Gast
2007-12-19, 22:38:20
Wo jetzt genau? Sind beides shooter und damit im gameplay deutlich beschränkt.
HL1 brauchte wie HL2 eine gewaltige Mod Flut hinter sich her. Die MP Parts der HL Serie laufen immer noch prächtig.


Schwenken wir zu Far Cry und Crysis: Naja über die MP Szene brauche ich nichts zu schreiben, über die Mods auch nicht.




Nur ist bei Crysis eben alles besser, Grafik UND Physik, sogar der Sound ;)
Einspruch.
Physik?
Das soll doch ein Witz sein? HL2 topt immer noch alles im Physi Bereich, auch im MP voll nutzbar, wie war das bei Crysis? Verkümmerte Phyisik beim MP?

Spasstiger
2007-12-19, 23:03:10
HL1 brauchte wie HL2 eine gewaltige Mod Flut hinter sich her. Die MP Parts der HL Serie laufen immer noch prächtig.
Ich ziehe lieber Qualität statt Quantität vor. Für HL1 und HL2 gibts massenhaft Maps, die designtechnisch einfach nur eine Schande für das jeweilige Spiel sind. Da werden lieblos ein paar Blöcke aneinandergeklatscht und mit den erstbesten Texturen überzogen und das nennt sich dann Map. Ein paar von solchen Maps werden sogar richtig erfolgreich, weil sie ihren Zweck erfüllen (auf viele CS-Maps trifft das zu).

tombman
2007-12-19, 23:21:43
Das soll doch ein Witz sein? HL2 topt immer noch alles im Physi Bereich, auch im MP voll nutzbar, wie war das bei Crysis? Verkümmerte Phyisik beim MP?
Träum weiter, was willst mit der Kindergartenphysik in HL2? Zwei Matrazen aufs Wasser schmeißen und sich freuen, daß die schwimmen? LOL.
In Crysis kannst mit nem Auto in ein Haus fahren, alle drin killen usw. Bei schweren Gefechten gehen haufenweise Bäume drauf und aus Fässern rinnt zb Öl raus. Und das Wasser hat 3D Wellen, usw...

Und mit DX10 ist die Physik im MP nicht verkrüppelt.

Dender
2007-12-19, 23:30:47
tombmann, ich will das du mein sennsei wirst, ich hab seit heute sogar ein britney album ;p

Sonyfreak
2007-12-20, 00:47:44
Schönes Video über dein Triple-SLI-System. Der überaus positive Eindruck wird nur dadurch geschmälert, dass SLI durch diese Mikroruckler mehr oder minder nutzlos ist. Hoffentlich kommt von Nvidia da mal ein Treiber raus, der dieses Problem behebt.

mfg.

Sonyfreak

Razor
2007-12-20, 13:14:58
Ich wäre echt nicht auf die kleine US-Schlunze gekommen :D
Geht es der irgendwie nicht gut, oder warum macht die grad auf bitchy-like? :ulol:
Du hast in letzter Zeit nicht viel von den Prommi-'News' mitbekommen, gell?
(und damit meine ich rund das ganze Jahr ;-)

hätte tombman den interpreten nicht genannt wäre es ein "geile musik" geworden
Ist es immer noch... für mich... besonder der eine Titel - das Album ist zumindest OK ;)
(mich interessieren bei guter Musik aber auch nicht generell die Interpreten und 'Metal' geht mir vollkommen am Anus vorbei ;-)

Und mit DX10 ist die Physik im MP nicht verkrüppelt.
Was einen ähnlich dämlichen 'Hintergrund' haben dürfte, wie des "very high" only für D3D10.
:rolleyes:

Razor

Noebbie
2007-12-20, 14:46:56
Um wie viel Prozent wohl die Verkaufszahlen des Britney Albums nach oben gestiegen sind?

FREAK23.de
2007-12-20, 15:39:59
Um wie viel Prozent wohl die Verkaufszahlen des Britney Albums nach oben gestiegen sind?

ich habs Lied bei itunes gekauft :D aber es ganze album^:rolleyes:
gimme more is noch ganz cool

Sk4tz
2007-12-20, 18:31:19
Um wie viel Prozent wohl die Verkaufszahlen des Britney Albums nach oben gestiegen sind?

naja nun wo das ganze 3dc weiss das DER hw gott britney hört dürften da so einige scheiben die tage über die theke gegangen sein und es werden gewiss noch mehr werden ;)

Noebbie
2007-12-20, 18:44:27
Jetzt wird mir auch einiges klar.

Ganz übler Werbetrick, Herr Tombman. Ganz übel! :uclap:

Gast
2007-12-20, 18:51:20
Ich spiele zb auch mit dem Gedanken SLI zu verkaufen und mir dafür ne PS3 als Trost zu ownen :D
Zu Weihnachten GT5 PROLO(gue) zu zocken hätte nämlich was :D

Seitwann kannst du es ohne AA ertragen.
Kauf dir lieber ne Xbox360.

Was ich meine.

Stärkeres Kantenflimmern, ansonsten identisch zum PC- und 360-Duo mit allen Stärken und Schwächen. ”

http://4players.de/4players.php/dispbericht_fazit/360/Test/Fazit_Wertung/360/8409/6156/Kane_&_Lynch_Dead_Men.html
Bis auf eine leicht ruckelanfälligere Framerate ist die PS3-Raserei identisch zur Xbox 360-Version - allerdings ohne Abzocke beim Tuning!”
http://4players.de/4players.php/dispbericht_fazit/360/Test/Fazit_Wertung/360/9131/6086/Need_for_Speed_ProStreet.html
Inhaltsgleich zur 360-Variante sorgt die Summe der grafischen Unzulänglichkeiten für deutliche Abzüge in der B-Note”
http://4players.de/4players.php/dispbericht_fazit/360/Test/Fazit_Wertung/360/8145/6009/Assassins_Creed.html

Die Ps3 ist schlechter als die Xbox 360.

Gast
2007-12-20, 18:53:09
Seitwann kannst du es ohne AA ertragen.
Kauf dir lieber ne Xbox360.

Was ich meine.

Stärkeres Kantenflimmern, ansonsten identisch zum PC- und 360-Duo mit allen Stärken und Schwächen. ”

http://4players.de/4players.php/dispbericht_fazit/360/Test/Fazit_Wertung/360/8409/6156/Kane_&_Lynch_Dead_Men.html
Bis auf eine leicht ruckelanfälligere Framerate ist die PS3-Raserei identisch zur Xbox 360-Version - allerdings ohne Abzocke beim Tuning!”
http://4players.de/4players.php/dispbericht_fazit/360/Test/Fazit_Wertung/360/9131/6086/Need_for_Speed_ProStreet.html
Inhaltsgleich zur 360-Variante sorgt die Summe der grafischen Unzulänglichkeiten für deutliche Abzüge in der B-Note”
http://4players.de/4players.php/dispbericht_fazit/360/Test/Fazit_Wertung/360/8145/6009/Assassins_Creed.html

Die Ps3 ist schlechter als die Xbox 360.
teils übles Tearing (PS3)
immer wieder Bildratenprobleme (PS3)
Pop-Ups in Reitsequenzen
weniger Grafikeffekte (PS3)
usw

tombman
2007-12-20, 20:00:25
@Gast

[ ] du hast verstanden worum es in Gran Turismo überhaupt geht.

Nvidia5
2007-12-20, 20:48:14
Irgendwie erinnert mich das Video(beim Moni) an ein Cinebench Fenster beim Coden.:biggrin:
Aber deine Konstruktino ist schon gewaagt.:rolleyes:

tombman
2007-12-20, 21:23:40
Btw, in XP kann man normales SLI trotzdem weiterhin nutzen, wenn man im Gerätemanager einfach eine Karte deaktiviert :cool:

Alles weitere seht im Text dieses Bildes ;)
http://img87.imageshack.us/img87/2212/tripleremovedfp1.jpg (http://imageshack.us)

Ich bin soo gut ;)

Gast
2007-12-20, 22:18:17
Hole dir mal eine oder zwei Konsolen... MAN!

K4mPFwUr$t
2007-12-20, 22:29:37
warum sollte man sich mit einer massenverblödungskonsole abgeben?
für eine konsole braucht man kein wissen, außer wie man sie anschaltet.

tombman
2007-12-20, 22:36:37
Hole dir mal eine oder zwei Konsolen... MAN!
Ich habe zwei Konsolen :rolleyes:

tombman
2007-12-20, 22:37:17
warum sollte man sich mit einer massenverblödungskonsole abgeben?
für eine konsole braucht man kein wissen, außer wie man sie anschaltet.

Naja, PS3 wegen BR player und Exklusivtitel wie GT5.

Sicher nicht wegen der Rechenleistung..lol.

Spasstiger
2007-12-20, 22:55:51
Mit deinen drei 8800 GTXen und deinem aufgebohrten Kenny könntest du eigentlich fast schon die PS3 emulieren. ;)
Rechenleistung ist jedenfalls massig vorhanden.

No.3
2007-12-20, 23:02:28
Jetzt wird mir auch einiges klar.

Ganz übler Werbetrick, Herr Tombman. Ganz übel! :uclap:

irgendwie muss er ja die ganze Hardware finanzieren und ein paar extras Euros nebenbei, warum nicht... ;)

InsaneDruid
2007-12-20, 23:08:29
Gnarf,.. Nv soll man endlich weg von AFR und irgendeinen anderen Weg einschlagen, der das Problem der Kadenzverkrüppelung nicht hat. Da nachträglich dranrumzupfuschen mit Verzögeren etc kanns ja wohl auch nicht sein.

Gast
2007-12-20, 23:32:08
Gnarf,.. Nv soll man endlich weg von AFR und irgendeinen anderen Weg einschlagen, der das Problem der Kadenzverkrüppelung nicht hat. Da nachträglich dranrumzupfuschen mit Verzögeren etc kanns ja wohl auch nicht sein.

und jetzt warten alle auf deinen Vorschlag...........

Gast
2007-12-21, 00:20:15
Gnarf,.. Nv soll man endlich weg von AFR und irgendeinen anderen Weg einschlagen, der das Problem der Kadenzverkrüppelung nicht hat. Da nachträglich dranrumzupfuschen mit Verzögeren etc kanns ja wohl auch nicht sein.
SFR for the win. :D

Dender
2007-12-21, 07:07:47
am besten tripple sli mit sfr, dann nen cell chip in die sli brücke haun das es auch wieder mit dem load-balancing klappt und gut is :D

tombman
2007-12-21, 11:25:08
SFR ist crap, selbst wenns funken würde, da es keine Geometrie beschleunigen kann...

HOT
2007-12-21, 11:46:37
Zum ersten Posting: TripleSLI geht nur auf 64Bit muss es glaub ich richtig heissen. Für 32Bit fehlt dafür der Adressraum im Kernelspace.

Undertaker
2007-12-21, 11:50:07
warum sollte man in 32bit keine 3x768mb vram adressieren können? das dann nur noch wenig für das restliche system übrig bleibt ist klar, aber rein funktionell...?

tombman
2007-12-21, 11:52:06
Natürlich rennt es in 32bit. Mein Vista ist 32bit.
Und skaliert auch ziemlich gut, wenn nix anderes limitiert ;)

3dm06, Pixel Shader Test, 2304x1440:

1x GTX: ~240fps
2x GTX: ~480fps
3x GTX: ~630fps

Mr. Lolman
2007-12-21, 11:57:57
Und mit DX10 ist die Physik im MP nicht verkrüppelt.

Was imo eine Frechheit ist.

SFR ist crap, selbst wenns funken würde, da es keine Geometrie beschleunigen kann...

Bin ganz deiner Meinung, aber erzähl das bitte mal aths!

Gast
2007-12-21, 14:06:06
SFR ist crap, selbst wenns funken würde, da es keine Geometrie beschleunigen kann...
Die Quelle hier
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2_quad-sli/3/
sagt auch, daß keine Geometrie beschleunigt werden kann. Die Vertex-Shader-Leistung kann nicht gesteigert werden. Könnte man dann nicht das Vertex-Shader/Pixel-Shader-Verhältnis zugunsten Vertex verändern?
Also wenn es vorher z.B. 50/50 war auf 75/25 erhöhen, denn die Pixel-Shader können durch SFR beschleunigt werden.
Bei unified shader könnte das ja problemlos dynamisch angepasst werden und bei SLi Nutzung die Vertex-Shader begünstigt werden.
Kenne mich mit der ganzen Thematik nicht aus und weiß nicht ob meine Annahme kompletter Bullshit ist - bitte um Aufklärung.

tombman
2007-12-21, 14:13:19
Die Quelle hier
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2_quad-sli/3/
sagt auch, daß keine Geometrie beschleunigt werden kann. Die Vertex-Shader-Leistung kann nicht gesteigert werden. Könnte man dann nicht das Vertex-Shader/Pixel-Shader-Verhältnis zugunsten Vertex verändern?
Also wenn es vorher z.B. 50/50 war auf 75/25 erhöhen, denn die Pixel-Shader können durch SFR beschleunigt werden.
Bei unified shader könnte das ja problemlos dynamisch angepasst werden und bei SLi Nutzung die Vertex-Shader begünstigt werden.
Kenne mich mit der ganzen Thematik nicht aus und weiß nicht ob meine Annahme kompletter Bullshit ist - bitte um Aufklärung.
SFR ist einfach viel zu inkompatibel zu den ganzen games. Die haben es einfach nicht gern, wenn man, noch dazu dynamisch, das BIld zerhackt. Hat sich deswegen wahrscheinlich nicht durchgesetzt. Ganz am Anfang war ja Far Cry ein Vorzeigetitel für SLI, und die ersten Profile liefen noch mit SFR, wurde aber dann später auf AFR geändert.

Mr.Magic
2007-12-21, 14:21:22
und jetzt warten alle auf deinen Vorschlag...........
SFR for the win. :D

Horizontal Vertikal unterteiltes SFR. DOH! ;)

Ich denke ich muss ergänzen. Ein nicht dynamischer und voll kompatibler neuer Modus ist gemeint.

Gast
2007-12-21, 14:42:29
SFR ist einfach viel zu inkompatibel zu den ganzen games. Die haben es einfach nicht gern, wenn man, noch dazu dynamisch, das BIld zerhackt. Hat sich deswegen wahrscheinlich nicht durchgesetzt. Ganz am Anfang war ja Far Cry ein Vorzeigetitel für SLI, und die ersten Profile liefen noch mit SFR, wurde aber dann später auf AFR geändert.
SFR lässt sich wahrscheinlich wirklich nicht so einfach verwirklichen und bedarf immensen Treiberaufwand. Bei AFR setzt nV ein paar Kompatibilitätsbits in den Profilen und fertig ist der Lack. Die Treiberversion spielt ja wie gut AFR rennt so gut wie keine Rolle.

Snoopy69
2007-12-21, 15:15:27
Natürlich rennt es in 32bit. Mein Vista ist 32bit.
Und skaliert auch ziemlich gut, wenn nix anderes limitiert ;)

3dm06, Pixel Shader Test, 2304x1440:

1x GTX: ~240fps
2x GTX: ~480fps
3x GTX: ~630fps
Hastc du die Möglichkeit dire Vista x64 von einem Freund zu leihen? Würde es was ändern?

tombman
2007-12-22, 02:01:02
OK, die 3.GTX habe ich zurückgegeben.

Dafür mal schnell das hier geowned, um CF mal richtig auf den Zahn zu fühlen. Wenns mir nicht gefällt, geht das ebenfalls zurück ins Geschäft ;)

http://img522.imageshack.us/img522/8742/muahahjc4.jpg

TB1333
2007-12-22, 02:15:44
Wie lange ham die Geschäfte bei dir bitte offen? 24/7 oder was? :D

tombman
2007-12-22, 02:22:37
Wie lange ham die Geschäfte bei dir bitte offen? 24/7 oder was? :D
Heute war ich in 2 Läden, einer bis 20 Uhr und einer bis 21 Uhr ;)

smockdogx
2007-12-22, 03:09:17
OK, die 3.GTX habe ich zurückgegeben.

Dafür mal schnell das hier geowned, um CF mal richtig auf den Zahn zu fühlen. Wenns mir nicht gefällt, geht das ebenfalls zurück ins Geschäft ;)

http://img522.imageshack.us/img522/8742/muahahjc4.jpg

Bei den schönen Bild kann man ja kaum wiederstehen sich auch so 2 zu holen ;)

Snoopy69
2007-12-22, 03:18:10
Das einzigste was mich reizen würde wäre das MB...
Die 2 ATIs wären mir in HQ zu schwach.

smockdogx
2007-12-22, 03:22:35
Das einzigste was mich reizen würde wäre das MB...
Die 2 ATIs wären mir in HQ zu schwach.
Klar von 2 oder 3 Gtx würde ich auch nicht Tauschen :biggrin:
Ich glaub ich halt noch bis zum r700 aus :)

Gast
2007-12-22, 06:24:03
OK, die 3.GTX habe ich zurückgegeben.

Dafür mal schnell das hier geowned, um CF mal richtig auf den Zahn zu fühlen. Wenns mir nicht gefällt, geht das ebenfalls zurück ins Geschäft ;)

http://img522.imageshack.us/img522/8742/muahahjc4.jpg

Dann lass es mal krachen..... ;)
Bin schon gespannt.....

=Floi=
2007-12-22, 06:41:04
CF wird ein desaster
TSLI wurde ja schnell wieder ausgebaut

DevilX
2007-12-22, 09:02:48
Das Board ist geil das hat sich nen Kumpel auch zugelegt, ist wirklich glücklich damit.
Ich hab den Vorgänger und kann auch nicht meckern..

Wo bleiben die Benchmarks? ^^

4711
2007-12-22, 09:32:51
Jo auch warte...und mein X38...ein Kärtchen liegt hier :tongue:

DevilX
2007-12-22, 09:37:57
Hätte ich mir auch gerne geholt aber das Liebe GELD :-(
hab mir das Vorgänger Board auch nur deswegen geholt weil mein Computerladen bzw Großhänder oder Asus nicht aus dem Quark kommen mit der RMA und ich in den Freien Tagen zocken will.
Aber eine 8800GTX reicht im Moment ja auch noch.

4711
2007-12-22, 09:55:44
reichen tut das locker (ultra)aber ich bin etwas Treiberseitig angepißt,nur weil keine Konkurenz da ist denken die wohl sie können sich erlauben was sie wollen.

Razor
2007-12-22, 10:29:47
OK, die 3.GTX habe ich zurückgegeben.

Dafür mal schnell das hier geowned, um CF mal richtig auf den Zahn zu fühlen. Wenns mir nicht gefällt, geht das ebenfalls zurück ins Geschäft ;)

http://img522.imageshack.us/img522/8742/muahahjc4.jpg
Zu früh!
:D

Im Januar stehen 2x R680 an... Dual-(Quad-)Crossfire sozusagen (i.e. 2x2 GPUs).

Aber auch ich bin gespannt, wie Dir mal ein Intel Board 'schmeckt'!
:up:

Razor

tombman
2007-12-22, 16:17:17
Das einzigste was mich reizen würde wäre das MB...
Die 2 ATIs wären mir in HQ zu schwach.
Das MB habe ich deshalb gewählt, weil es für mich "freak" wichtige Eigenschaften hat, im Gegensatz zu den Gigabyte X38ern.

1.) digitale PWMs :naughty: (sowas wollte ich immer schon haben, ist einfach GEIL)
2.) POST Anzeige, was GANZ wichtig ist , hat mein 680i mobo ja auch. Wenn mal was ned rennt, weiß man gleich welcher Bauteil rumzickt
3.) Taster für ON/RESET -> zum Testen ideal, man braucht keine Gehäusekabel anstecken.
4.) Taster für CMOS reset !!! Keine Fummeleien mehr mit spitzen Fingern ;)

tombman
2007-12-22, 16:21:24
Zu früh!
:D

Im Januar stehen 2x R680 an... Dual-(Quad-)Crossfire sozusagen (i.e. 2x2 GPUs).

Aber auch ich bin gespannt, wie Dir mal ein Intel Board 'schmeckt'!
:up:

Razor
Ich will in erster Linie wissen wie es mit den frametimes und dem subjektiven Ruckeln aussieht, was übrigens auch der einzige Grund für T-SLI war.
Ich will also Cf generell bewerten, nicht unbedingt mehr Leistung haben, denn 2x GTX ist sowieso schneller.

Außerdem spiele ich mit dem Gedanken mir einen QX9650 zu holen, der ja dann auf das X38 mobo passen würde. Die Kombination Yorkfield + CF wäre ein nettes Spielzeug bis zu G100(SLI) ;)

Btw, ich hatte schon früher Intel mobos und weiß, daß die sehr gut sind, zb 975er BadAxe ;)

tombman
2007-12-22, 16:23:12
CF wird ein desaster
TSLI wurde ja schnell wieder ausgebaut
Heute am Abend/Nacht gibts dann mal erste Tests....

Ultron
2007-12-22, 16:23:59
OK, die 3.GTX habe ich zurückgegeben.

Dafür mal schnell das hier geowned, um CF mal richtig auf den Zahn zu fühlen. Wenns mir nicht gefällt, geht das ebenfalls zurück ins Geschäft ;)

http://img522.imageshack.us/img522/8742/muahahjc4.jpg

YEAH MANN!!! ENDLICH hast dir mal wieder ein INT(H)EL(L) Mobo geholt. :D

Hoffentlich packt dich dann auch wieder die Sucht der vielen GHz ;) Jetzt kannst ma richtig geil ohne Limits overclocken! Das IX38 dürfte ja schon um einiges besser gehen, gerade auch SuperPI und so =) :cool:

Deine 2 3870er dürften gerade bei hohen Auflösungen + AA + AF richtig gut gehen!

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating_qualitaet

tombman
2007-12-22, 16:28:44
Naja, ich habe nicht widerstehen können, weil ich pro Karte nur 195€ gezahlt habe ;D;D
Ich weiß ja wie geil alle drauf sind und wie schwer die zu bekommen sind, deshalb kann ich die mit GEWINN bei ebay verkaufen, selbst wenn der Laden bei Geld zurück rumzickt ;)

Gast
2007-12-22, 17:14:25
Ich weiss schon wie es diesmal ausgeht. Er wird CF schneller los wie TSLI. Der hat ja bemerkt das mit TSLI Framezeiten um einiges schlechter sind weil die 50ms sehr unregelmäßig vorkommen - willkommen in Crossfire Welt. :)

Snoopy69
2007-12-22, 21:44:52
Das MB habe ich deshalb gewählt, weil es für mich "freak" wichtige Eigenschaften hat, im Gegensatz zu den Gigabyte X38ern.

1.) digitale PWMs :naughty: (sowas wollte ich immer schon haben, ist einfach GEIL)
2.) POST Anzeige, was GANZ wichtig ist , hat mein 680i mobo ja auch. Wenn mal was ned rennt, weiß man gleich welcher Bauteil rumzickt
3.) Taster für ON/RESET -> zum Testen ideal, man braucht keine Gehäusekabel anstecken.
4.) Taster für CMOS reset !!! Keine Fummeleien mehr mit spitzen Fingern ;)
Joh, iss nett. Kenne ich schon von meinem Commando R.O.G. her. Kommt demnächst in meinem Arbeits-PC...



Außerdem spiele ich mit dem Gedanken mir einen QX9650 zu holen, der ja dann auf das X38 mobo passen würde. Die Kombination Yorkfield + CF wäre ein nettes Spielzeug bis zu G100(SLI) ;)


Wie bis G100? Dann wieder zurück auf Nforce? Intel unterstützt ja kein SLI.

YEAH MANN!!! ENDLICH hast dir mal wieder ein INT(H)EL(L) Mobo geholt. :D

Hoffentlich packt dich dann auch wieder die Sucht der vielen GHz ;) Jetzt kannst ma richtig geil ohne Limits overclocken! Das IX38 dürfte ja schon um einiges besser gehen, gerade auch SuperPI und so =) :cool:

Deine 2 3870er dürften gerade bei hohen Auflösungen + AA + AF richtig gut gehen!

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/28/#abschnitt_performancerating_qualitaet
Schneller als 2 GTX/Ultras sind sie sicher nicht in HQ. Und eine CPU spielt da auch keine Rolle mehr (Grakalimit). Oder warum denkst du, dass ich noch SLI besitze? :wink:

Skiller_no1
2007-12-22, 21:58:20
waaaaaaaaaaat ? Tombman und CF :eek:

lol rolf;D

Skiller_no1
2007-12-22, 22:08:15
Schneller als 2 GTX/Ultras sind sie sicher nicht in HQ. Und eine CPU spielt da auch keine Rolle mehr (Grakalimit). Oder warum denkst du, dass ich noch SLI besitze? :wink:


Du willst doch nicht deine GTX mit normal vergleichen oder? :|
2x normale GTX könnte er packen, deine natürlich nicht das klar.

Aber mit VMOD und GPU auf 1100 Mhz +Chiller könnte das schon locker drin sein ;D

Snoopy69
2007-12-22, 22:35:25
Die GTXen sind auch ohne VMod schneller.
Dazu bin ich mal auf GXT/Ultra-Niveau runter und hab gegen paar User mit CF in HQ gebencht.
Wer mehr FPS hatte war mir schon vorher klar :D

tombman
2007-12-23, 03:50:17
waaaaaaaaaaat ? Tombman und CF :eek:

lol rolf;D
Ja genau, fürchte meinen Zorn, wenn du gelogen hast was das subjektive Ruckeln bei CF angeht :cool:

In 1 Stunde weiß ich es ;)

p.s: und ich hatte schon früher mal CF ;)

Gast
2007-12-23, 04:01:51
Gib Gas Tombi.......

tombman
2007-12-23, 07:07:21
Also abschließend kann ich das CF HD3870 nicht beurteilen, aber es sieht schlecht aus, ganz schlecht. (Treiber 7.12)
Stichworte:
1.) Beim CRT ein oder zwei horizontale zitternde Streifen mit Verschiebung vertikal. Nein, mein CRT ist nicht kaputt gegangen, das machen die Karten.
2.) der Kühler der Karten läßt sich um ein kleines Stück drehen, vermutlich weil die Federn nicht stark genug anziehen -> ich empfehle bei HD3870 Karten einen aftermarket Kühler
3.) Habe ein neues Vista 32 sys auf nackter HDD aufgesetzt, deshalb hatte ich nicht viel zu benchen/testen, daher gibts mehr Tests erst später.
ABER: Call of Juarez DX10 benchmark -> kein CF :rolleyes: (auch mit 3dmark06.exe nicht). Lost Planet DX10 benchmark -> schwerste Bildfehler bei CF, ohne CF keine Fehler.(aber wenigstens war es aktiviert). Performance aber trotzdem unter aller Sau, da lachen die GTXen drüber.
MS SDK mit DX10 sample "cube map CAR" und sample "advanced particles" -> deutlich langsamer als GTX.
3dm06 pixel shader auch DEUTLICH langsamer als GTX, dafür aber DEUTLICH schneller bei vertex shader complex. Multitexturing wieder DEUTLICH langsamer als GTX. Dafür gingen die shader particles ärger ab ;)
4.) 3dm06 geht natürlich mit CF, allerdings auch da trotzdem schöner frametimes Ruckeln, zwar "in anderer Art" als bei SLI, aber sie sind da.
Das "Frametime-Ruckeln" muß ich aber noch mit VIEL mehr games/benchmarks testen, da ist 3dm06 zu wenig-> wie gesagt, dazu später mehr.
5.) Positiv war anzumerken, daß praktisch alle wichtigen widescreen Auflösungen gleich im CP drin waren-> die Auslesung aus den EDID CRT Daten scheint also gut zu funken. (hat jetzt nix mit CF zu tun)
6.) Was wirklich geil ist, ist der Stromverbrauch, mit nem Kenni @ default vcore @ default mhz und 2x HD3870 unter 200 Watt idle :eek:
Mit voller Belastung gerade mal 450 Watt (4x Prime + 3dm06), bei realistischer Belastung ca 3xx Watt.
Mein 650 Watt SIlverstone NT hatte damit jedenfalls keinerlei Probleme.
7.) Das mobo mochte meinen Celeron nicht- es versuchte zwar zu booten, wollte aber immer 200fsb bei einer 133fsb cpu einstellen, was dann 4.2ghz für den armen Celi bedeutete -> das kann ned gutgehen. Auch wenn ich es mal ins Bios schaffte und ihn auf 133fsb zwingen wollte, so kam das irgendwie ned an. Egal, habe dann meine Kenni eingebaut, der ging problemlos. Im Gegenteil, der lief, was den fsb betraf, DEUTLICH besser als im 680i. Aufgrund des 800er Rams (1:1 Zwang!) habe ich nur bis 450fsb getestet, das war für das Abit X38 mobo überhaupt kein Problem, also wer Quadcores übertakten will ist mit X38/X48 genau richtig ;)Hier mal ein kleines pic:
http://img411.imageshack.us/img411/3251/x38he2.th.jpg (http://img411.imageshack.us/my.php?image=x38he2.jpg)
Yorkfields mit >= 500fsb werden mit X48 wahrscheinlich kein Problem sein ;D
Auch das µguru tool fand ich sehr gut. Was dagegen im Bios fehlt ist eine Temp Anzeige, aber ich habe das Bios noch nicht geflashed.
Auf jeden Fall hat das QuadGT Freaks als Zielgruppe, vermutlich gefällt es mir deshalb. *seufz* Wenn SLi doch nur bei Intel gehen würde ;D

Die reine Rechenleistung von 2x HD3870 ist natürlich höher als bei EINER GTX, und das bei nur 10% mehr Preis. Es scheint aber, daß CF immer noch fast genauso suckt wie damals bei der X1xxx Serie. Aber wie gesagt, dazu muß ich noch viel mehr testen....

tombman
2007-12-23, 08:28:11
Lol, habe gerade Crysis DEMO getestet, eine Katastrophe. DX10 very high kann man gleich ganz vergessen, da performance unter aller Sau, außerdem typisches "AFR-Flimmern" bei Crossfire, was für ein versautes Profil spricht.

Gast
2007-12-23, 08:50:18
Lol, habe gerade Crysis DEMO getestet, eine Katastrophe. DX10 very high kann man gleich ganz vergessen, da performance unter aller Sau, außerdem typisches "AFR-Flimmern" bei Crossfire, was für ein versautes Profil spricht.
Ich kann dir nur eins raten verschwende nicht deine Zeit lass es gleich bleiben. Nützt ehe keinem ausser das du dir ein paar neue "Freunde" unter Boardleitung machst.
Ganz konkret Leonidas hat mal auf seiner News Seite doch tatsächlich geschrieben das bei den ATIs R600 CF KEINE Micro-Ruckler geben würde. Das fiel in die Zeit wo du die Problematik aufgedeckt hattest, auf dem Höhepunkt sozusagen.

=Floi=
2007-12-23, 08:59:23
mal mal nen anderen thread auf, denn das ganze ist hier schon mächtig OT.
deine ernüchterung wundert mich nicht wirklich. Immerhin hast du über 1 jahr GTX SLI hinter dir und sonst
hörte man auch von keinen erfolgreichen CF tests. :rolleyes:
könntest mal 3dmark testen, ob du da mit den selben einstellungen mind 5000 punkte hast

DevilX
2007-12-23, 09:00:32
Der Kumpel von mir Der das Board auch hat ist mit ddr 800 Ram über 450 gekommen..
das woran es gehangen hatte war ich glaube die FSB Spannung und noch eine, wenns dich enteressiert Frage ich. Er hat mit FSB 500 gebootet, allerdings massig Mtest fehler ^^.

Skiller_no1
2007-12-23, 10:00:14
Tombman, du hast nen CRT damit wirst du eh nicht glücklich der ist bestimmt Analog angeschlossen oder? (crap)
Ich hab bloss Vista 64 Bit im mom und ja das stimmt Bugy ist es noch, in DX10 lief der treiber 7.11+Hotfix besser kA wieso, aber Crysis ist mir egal weil so toll isses nicht.

Aber warum CoJ DX10 Benchmark nicht geht ist komisch funzt doch:eek:

3DMark06.exe

OFF
http://www.abload.de/thumb/cfoffmgm.jpg (http://www.abload.de/image.php?img=cfoffmgm.jpg)
ON
http://www.abload.de/thumb/cfonomw.jpg (http://www.abload.de/image.php?img=cfonomw.jpg)

Razor
2007-12-23, 10:50:27
Wie bis G100? Dann wieder zurück auf Nforce? Intel unterstützt ja kein SLI.
Wenn ich das richtig verstanden habe, läßt er sein 680i gerade für 80€ auf das 780i upgraden...
Da brauch' man doch was für den Übergang, oder?
:D

@Tombman

Danke für die Infos bzgl. CF.
Deckt sich in etwa mit dem, was ich so bisher hörte, bzw. auch teilw. gesehen habe.
Lediglich das mit dem D3D10 CoJ Demo habe ich anders in Erinnerung... sollte eigentlich unter CF funzen.

Wie ja schon des öfteren gesagt... ich kann schon dem SLI-"Gefummel" nichts abgewinnen, aber CF geht ja nun überaupt nicht.
Na dann mal viel Spaß weiterhin damit!
:up:

Razor

The_Invisible
2007-12-23, 10:57:24
Lol, habe gerade Crysis DEMO getestet, eine Katastrophe. DX10 very high kann man gleich ganz vergessen, da performance unter aller Sau, außerdem typisches "AFR-Flimmern" bei Crossfire, was für ein versautes Profil spricht.

naja, das ati karte + dx10 + quali einstellungen nicht gut geht, ist aber auch nichts neues, siehe http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/18/

bei funktionierendem cf kommst du vielleicht mal über einzel-gtx performance.

mfg

Successor
2007-12-23, 13:21:47
tombman: Coole Aktion mit den ATis - und schade das es immer noch unschön läuft. Weil bei dem Preis für 2x 3870er-Karten kann man ja wirklich schwach werden.

Triple-SLI läuft nicht zufällig mit 8800GT´s? Wäre sonst ja ne Idee für dich :)

instinct
2007-12-23, 13:30:20
8800gt unterstützt kein tsli

master_blaster
2007-12-23, 13:34:08
@ Tombman: Habe den Thread nicht komplett verfolgt, deshalb meine Frage: Hast du garkeine GTXen mehr, oder ist das nur ein Übergangssystem, weil du dein Board von EVGA umtauschen lässt? Von 2 (bzw. 3) GTXen auf 2 HD3870 zuwechseln, ist doch von vornherein als Rückschritt verdammt. Die sind ja schon von der Singleperformance her langsamer ...

reunion
2007-12-23, 13:49:05
Also abschließend kann ich das CF HD3870 nicht beurteilen, aber es sieht schlecht aus, ganz schlecht. (Treiber 7.12)
Stichworte:
1.) Beim CRT ein oder zwei horizontale zitternde Streifen mit Verschiebung vertikal. Nein, mein CRT ist nicht kaputt gegangen, das machen die Karten.
2.) der Kühler der Karten läßt sich um ein kleines Stück drehen, vermutlich weil die Federn nicht stark genug anziehen -> ich empfehle bei HD3870 Karten einen aftermarket Kühler
3.) Habe ein neues Vista 32 sys auf nackter HDD aufgesetzt, deshalb hatte ich nicht viel zu benchen/testen, daher gibts mehr Tests erst später.
ABER: Call of Juarez DX10 benchmark -> kein CF :rolleyes: (auch mit 3dmark06.exe nicht). Lost Planet DX10 benchmark -> schwerste Bildfehler bei CF, ohne CF keine Fehler.(aber wenigstens war es aktiviert). Performance aber trotzdem unter aller Sau, da lachen die GTXen drüber.
MS SDK mit DX10 sample "cube map CAR" und sample "advanced particles" -> deutlich langsamer als GTX.
3dm06 pixel shader auch DEUTLICH langsamer als GTX, dafür aber DEUTLICH schneller bei vertex shader complex. Multitexturing wieder DEUTLICH langsamer als GTX. Dafür gingen die shader particles ärger ab ;)
4.) 3dm06 geht natürlich mit CF, allerdings auch da trotzdem schöner frametimes Ruckeln, zwar "in anderer Art" als bei SLI, aber sie sind da.
Das "Frametime-Ruckeln" muß ich aber noch mit VIEL mehr games/benchmarks testen, da ist 3dm06 zu wenig-> wie gesagt, dazu später mehr.
5.) Positiv war anzumerken, daß praktisch alle wichtigen widescreen Auflösungen gleich im CP drin waren-> die Auslesung aus den EDID CRT Daten scheint also gut zu funken. (hat jetzt nix mit CF zu tun)
6.) Was wirklich geil ist, ist der Stromverbrauch, mit nem Kenni @ default vcore @ default mhz und 2x HD3870 unter 200 Watt idle :eek:
Mit voller Belastung gerade mal 450 Watt (4x Prime + 3dm06), bei realistischer Belastung ca 3xx Watt.
Mein 650 Watt SIlverstone NT hatte damit jedenfalls keinerlei Probleme.
7.) Das mobo mochte meinen Celeron nicht- es versuchte zwar zu booten, wollte aber immer 200fsb bei einer 133fsb cpu einstellen, was dann 4.2ghz für den armen Celi bedeutete -> das kann ned gutgehen. Auch wenn ich es mal ins Bios schaffte und ihn auf 133fsb zwingen wollte, so kam das irgendwie ned an. Egal, habe dann meine Kenni eingebaut, der ging problemlos. Im Gegenteil, der lief, was den fsb betraf, DEUTLICH besser als im 680i. Aufgrund des 800er Rams (1:1 Zwang!) habe ich nur bis 450fsb getestet, das war für das Abit X38 mobo überhaupt kein Problem, also wer Quadcores übertakten will ist mit X38/X48 genau richtig ;)Hier mal ein kleines pic:
http://img411.imageshack.us/img411/3251/x38he2.th.jpg (http://img411.imageshack.us/my.php?image=x38he2.jpg)
Yorkfields mit >= 500fsb werden mit X48 wahrscheinlich kein Problem sein ;D
Auch das µguru tool fand ich sehr gut. Was dagegen im Bios fehlt ist eine Temp Anzeige, aber ich habe das Bios noch nicht geflashed.
Auf jeden Fall hat das QuadGT Freaks als Zielgruppe, vermutlich gefällt es mir deshalb. *seufz* Wenn SLi doch nur bei Intel gehen würde ;D

Die reine Rechenleistung von 2x HD3870 ist natürlich höher als bei EINER GTX, und das bei nur 10% mehr Preis. Es scheint aber, daß CF immer noch fast genauso suckt wie damals bei der X1xxx Serie. Aber wie gesagt, dazu muß ich noch viel mehr testen....

IMHO gehört das in einen eigenen Thread, so verliert man komplett die Übersicht. Es sei denn du willst nur schnell CF ein bisschen bashen. Das du damit nicht die Leistung von zwei GTXen erreichst, sollte bei dem Preis klar sein. Dafür hast du auch deutlich weniger Stromverbrauch.

Dender
2007-12-23, 13:56:44
tombman
das x38 kannst eigentlich gleich behalten ^^

auch wegen sli, bald kommen ja die 88xx gx2 ;) die haben nen bridge chip aufn karten und da sollte sli auf jedem board funzen

Cubitus
2007-12-23, 13:57:25
IMHO gehört das in einen eigenen Thread, so verliert man komplett die Übersicht. Es sei denn du willst nur schnell CF ein bisschen bashen. Das du damit nicht die Leistung von zwei GTXen erreichst, sollte bei dem Preis klar sein. Dafür hast du auch deutlich weniger Stromverbrauch.
naja gebashe kann ich da keines erkennen, er zeigt Fehler auf die es auch schon mit X1900 CF gab.

Also CF bleibt weiterhin crap ;D (so, dass war bashen ;) )

reunion
2007-12-23, 14:00:10
naja gebashe kann ich da keines erkennen, er zeigt Fehler auf die es auch schon mit X1900 CF gab.


Ich habe ja nicht gesagt das er basht, ich habe nur gesagt das er einen eigenen Thread aufmachen soll, außer wenn er nur kurz bashen will. ;)


Also CF bleibt weiterhin crap ;D (so, dass war gebashe ;) )

Genauso wie SLi. ;)

Gast
2007-12-23, 14:15:14
Wo isser denn überhaupt ? Ich glaub der schläft grad... :D

Dender
2007-12-23, 14:22:30
der braucht nicht schlafen, maschiiiiiiiine

Ultron
2007-12-23, 15:30:35
Wie sind jetzt die Microruckler in CF? *was sehen will*

Gast
2007-12-23, 17:29:29
ganz sicher, das ganze Forum ist doch von NV Fanboys überflutet hier ist ja nicht auszuhalten euer gequatsche hier ihr habt doch ein an der Waffel.

Wie alt bist du? 12? :D So ein Id..t

Gast
2007-12-23, 18:27:52
Wie alt bist du? 12? :D So ein Id..t
Irgendwie erinnert mich seine Art an jemanden. Und der ist schon gesperrt worden. ;D
Back on Topic: SLi an sich ist schon ne runde Sache, wenn die Mikroruckler nicht wären.
CF hat diese anscheinend auch, wenn auch anders aber von gleichwertigen "Single-GPU-Frames" ist man wahrscheinlich auch entfernt. Dazu noch die anderen CF Unzulänglichkeiten.
Aber wenn's nV schon mit seinem enormen Budget ned hinbekommt, dann AMD erst recht nicht.

Snoopy69
2007-12-23, 18:54:38
Soweit ich gelesen hab hat tombman NUR die 3. GTX zurückgegeben. Das mit CF war mir von vorneherein klar.
Zum Benchen mit dem CPU-limitierten 3DM06 taugt HD3870-CF schon was. Aber bei HQ und ganz besonders in seiner Auflösung verpufft die Rohleistung extrem.
Ich sehe gegen CF bei 3DM06 @ standard kaum Land. Aber wenn interessiert dieser Kinderauflösung OHNE AA/AF schon? Ab 1680x1050 + max. AA/AF zersäge ich so gut wie jedes CF...
Bei 1920x1200 + max. AA/AF sieht CF garkein Land mehr (meine Standard-Auflösung zum Spielen)

Man könnte die Karten mit einem hochtourigen 2L 4zyl. -Motor vergleichen. Und die GTX/Ultra mit einem niedertourigen 5,7L V8-Motor, der auch bei hoher Last noch Power bringt :D

Zu den Mikrorucklern...
Solange die FPS 40-50 oder mehr sind, gibt es keine Mikroruckler. Laut tombman erst ab 30fps sichtbar.

reunion
2007-12-23, 19:04:09
Soweit ich gelesen hab hat tombman NUR die 3. GTX zurückgegeben. Das mit CF war mir von vorneherein klar.
Zum Benchen mit dem CPU-limitierten 3DM06 taugt HD3870-CF schon was. Aber bei HQ und ganz besonders in seiner Auflösung verpufft die Rohleistung extrem.
Ich sehe gegen CF bei 3DM06 @ standard kaum Land. Aber wenn interessiert dieser Kinderauflösung OHNE AA/AF schon? Ab 1680x1050 + max. AA/AF zersäge ich so gut wie jedes CF...
Bei 1920x1200 + max. AA/AF sieht CF garkein Land mehr (meine Standard-Auflösung zum Spielen)


Du vergleichst Karten die in völlig unterschiedlichen Preissegmenten angesiedelt sind. Noch dazu sind deine GTXen bis aufs letzte übertaktet.

Zu den Mikrorucklern...
Solange die FPS 40-50 oder mehr sind, gibt es keine Mikroruckler.

Mit einer Single-GPU habe ich auch bei 30fps keine Microruckler. Da kann ich mir SLI auch gleich sparen, wenn ich da 40-50 fps benötige um ein ähnlich flüssiges Spielgefühl zu erhalten.

Laut tombman erst ab 30fps sichtbar.

Habe gerade Lost Planet gespielt, sogar auf 5x fps Ruckler...:rolleyes:

Gast
2007-12-23, 19:05:37
Mit einer Single-GPU habe ich auch bei 30fps keine Microruckler. Da kann ich mir SLI auch gleich sparen, wenn ich da 40-50 fps benötige um ein ähnlich flüssiges Spielgefühl zu erhalten.

Pauschal kann man das nicht sagen , da dieses Problem nicht immer gleich auftritt. Ich würde eher sagen , sie sind die Ausnahme statt die Regel.

Gast
2007-12-23, 19:07:04
Irgendwie erinnert mich seine Art an jemanden. Und der ist schon gesperrt worden. ;D


Jup das ist Zocker28 besser bekannt als SachsenPaule, mich wundert das die Mods es noch nicht bemerkt haben.

reunion
2007-12-23, 19:10:40
Pauschal kann man das nicht sagen , da dieses Problem nicht immer gleich auftritt. Ich würde eher sagen , sie sind die Ausnahme statt die Regel.

Immer wenn die Grafikkarten der CPU hinterherhecheln, tritt es auf, das ist vollkommen logisch. Deshalb will tombman auch Tests mit 30fps und hoher Grafiklast um die Zeiten zu messen.

~Urmensch~
2007-12-23, 19:15:34
Immer wenn die Grafikkarten der CPU hinterherhecheln, tritt es auf, das ist vollkommen logisch. Deshalb will tombman auch Tests mit 30fps um die Zeiten zu messen.
Es gibt ein Spiel bei dem man dieses Phänomen gut beobachten kann - Armed Assault. Da gibts Stellen da merkst du auch bei einem übertaktetem C2D wie die micro Ruckler plötzlich verschwinden und dann 2 Minuten später wiederkommen. Voll interessant.

Gast
2007-12-23, 19:17:20
Es gibt auch Mikroruckler die garnix mit SLI zu tun haben , sondern enginebedingt sind. Dazu zählt u.a. Armed Assault oder NFS:Pro Street

Gast
2007-12-23, 19:19:42
Ein 400€ gespann mit mit einem 800€ gespann zu vergleichen ist ja wohl mehr als fragwürdig :rolleyes:

Gast
2007-12-23, 19:22:32
Ein 400€ gespann mit mit einem 800€ gespann zu vergleichen ist ja wohl mehr als fragwürdig :rolleyes:

Es wird das Schnellste verglichen was Ati zu bieten hat...daher ist das keinesfalls fragwürdig :-)

InsaneDruid
2007-12-23, 19:27:35
Zu den Mikrorucklern...
Solange die FPS 40-50 oder mehr sind, gibt es keine Mikroruckler. Laut tombman erst ab 30fps sichtbar.


Natürlich tritt das Phenomen auch bei >30 fps auf.

Nur spürt man sie halt weniger, da die gefühlte FPS bei angezeigten 60fps eben halt über 30fps ist (aber unter 60). Statt 10-50 hat man dann evtl 5-25er Kadenzen, und damit dann etwas über 30fps Feeling.

Die Frage nach dem Sinn von SLI muss man sich aber auch hier stellen, da die gefühlten FPS nach wie vor ähnlich einer Single Lösung sind. Es wird dann evtl statt 40fps (Single Karte) 80Fps gebencht, aber das Feeling ist eher 40fps.

Gast
2007-12-23, 19:28:50
Es gibt auch Mikroruckler die garnix mit SLI zu tun haben , sondern enginebedingt sind. Dazu zählt u.a. Armed Assault oder NFS:Pro Street

Gerade Armed Assault weil es ziemlich CPU limitiert ist gibts bei dem Spiel trotz schlechter AFR Profile kaum micro-Ruckler.

Razor
2007-12-23, 19:29:47
Ein 400€ gespann mit mit einem 800€ gespann zu vergleichen ist ja wohl mehr als fragwürdig :rolleyes:
Ich glaube kaum, dass er annimmt, dass CF für ihn performance-seitig interessant werden könnte.
Meinst Du nicht?

Ich denke mal, dass es die MicroRuckler sind, die ihn 'nerven'... auch bei TripleSLI noch auftreten und noch immer (wenn auch in anderer Form) bei AMDs CF auftreten. So vermute ich, dass die "Kleinen" ganz schnell wieder aus dem Rechner fliegen, wenn das 780i da ist...

Razor

Gast
2007-12-23, 19:30:23
Die Frage nach dem Sinn von SLI muss man sich aber auch hier stellen, da die gefühlten FPS nach wie vor ähnlich einer Single Lösung sind.

Das ist Falsch!

Es wird dann evtl statt 40fps (Single Karte) 80Fps gebencht, aber das Feeling ist eher 40fps.

Komplett falsch gedacht. Crysis mit SLI rennt immer in jeder Situation besser als mit einer Karte.

san.salvador
2007-12-23, 19:31:52
Das ist Falsch!



Komplett falsch gedacht. Crysis mit SLI rennt immer in jeder Situation besser als mit einer Karte.
Ich habe verzweifelt nach einem Argument in deinem Post gesucht, gefunden hab ich keines.

reunion
2007-12-23, 19:36:23
Crysis mit SLI rennt immer in jeder Situation besser als mit einer Karte.

Besser als mit einer GPU ist es auf jeden Fall, da man ja praktisch immer noch einen zusätzlichem Frame dazwischenschiebt, der leider sehr ungünstig verteilt ist. Nur bleibt halt dann von der doppelten Leistung nicht mehr viel übrig.

Gast
2007-12-23, 19:38:58
Besser als mit einer GPU ist es auf jeden Fall, da man ja praktisch immer noch einen zusätzlichem Frame dazwischenschiebt, der leider sehr ungünstig verteilt ist. Nur bleibt halt dann von der doppelten Leistung nicht mehr viel übrig.

Die Frametimes in Crysis sind recht gut.
rame, Time (ms)
1, 0.000
2, 26.922
3, 62.695
4, 96.309
5, 123.739
6, 155.997
7, 188.345
8, 222.748
9, 254.048
10, 275.036
11, 322.283
12, 344.920
13, 377.601
14, 414.991
15, 441.004

Gast
2007-12-23, 19:39:51
Es wird das Schnellste verglichen was Ati zu bieten hat...daher ist das keinesfalls fragwürdig :-)
Jo, dann können wir ja noch INTEL und S3 mit zunehmen :ugly2:

master_blaster
2007-12-23, 22:17:32
Nein, aber den schnellsten Intel und den schnellsten AMD ...
Tombman, offenbare mir bitte, warum man von GTX SLI auf 3870 Crossfire umsteigt! Ist es dein grünes Ökogewissen? Sorry, aber ich kann das nicht nachvollziehen, besonders, wenn jemand in so kranken Auflösungen zockt, wie du.

TB1333
2007-12-23, 22:28:07
Er ist glaub ich nicht umgestiegen.
Hat "nur" die 3. GTX zurückgegeben. Und bei der "Gelegenheit" gleich das Board und zwei 3870er geholt um mal zu schauen, wies da mit den Microrucklern und/bzw. Frametimings ausschaut.
So hab ich das jedenfalls verstanden :D

tombman
2007-12-24, 00:02:59
Genauso wie SLi. ;)
NEIN, eben nicht wie SLI. SLi funkt wenigstens ohne Bildfehler, also NUTZBAR.
Die Mikroruckler hat ATI genauso, egal was fanboys wie Skiller Nr1, aka Zocker28@Luxx, einem erzählen.

Jedenfalls weiß ich jetzt, daß die Mikroruckler bei ATI genauso da sind, nur vielleicht an anderen Stellen.
Außerdem leidet CF an Problemen, die bei SLI schon seit Ewigkeiten gelöst sind, wie zb .AFR Flimmern (was nix anderes als eine Profilfrage ist, aber da muß man eben als Hersteller dahinter sein)

Das geilste: nicht mal die ATI hauseigene Whiteout techdemo rennt ohne AFR Flimmern UND den Rechner an einer gewissen STelle zu freezen(!!).

Ne Leute, als Einzelkarte ist die HD3870 angesichts des Preises und Stromverbrauchs vielleicht noch ganz lustig, aber CF bleibt crap.
Bin gespannt ob ATi jemals Crossfire X zum Laufen kriegt ;D;D

War die ganze Zeit im Bett, ich werde mir jetzt mal Bioshock ansehen.

tombman
2007-12-24, 00:06:15
Er ist glaub ich nicht umgestiegen.
Hat "nur" die 3. GTX zurückgegeben. Und bei der "Gelegenheit" gleich das Board und zwei 3870er geholt um mal zu schauen, wies da mit den Microrucklern und/bzw. Frametimings ausschaut.
So hab ich das jedenfalls verstanden :D
Ganz genau, SLI habe ich noch ;)

tombman
2007-12-24, 01:48:50
Soda, jetzt habe ich endlich den Beweis, NFS Pro Street demo tut da gute Dienste ;)
(ich kenne ja meine frametime Pappenheimer ;D)

Wie sagte John Connor in T2 so schön: "Jetzt haben wir Skynet ATI-Crossfire bei den Eiern" :cool:

Hier mal die angeblich so "supertollen" Crossfire frametimes:

Frames, Time (ms), Min, Max, Avg
87, 2722, 29, 35, 31.962

Frame, Time (ms)
1, 0.000
2, 45.882
3, 68.458
4, 116.827
5, 138.584
6, 186.756
7, 206.154
8, 255.885
9, 273.959
10, 323.727
11, 343.830
12, 394.126
13, 413.943
14, 464.276
15, 483.085
16, 533.824
17, 552.942
18, 603.313
19, 617.921
20, 669.294
21, 686.932
22, 737.121
23, 754.720
24, 806.211
25, 818.214
26, 870.660
27, 882.141
28, 933.124
29, 945.106
30, 996.423

Ich sehe da hübsche 50er ;) Und ja, es fühlt sich auch so an. Da war SLi sogar smoother.

Damit wäre wohl klar, daß das frametime Problem nicht nur ein Nvidia-SLI Problem, sondern auch ein ATI-Crossfire Problem ist!!!111elfzwölf.

@all: ignoriert jeden der euch sagt, CF wäre in irgendeiner Art besser als SLI, denn das stimmt nicht. Das frametime Problem haben beide, nur daß eben SLI NUR dieses Problem hat, und sonst keines. CF hat noch einen ganzen Haufen mehr.

mfG, tombman, der Aufdecker ;D