PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : THG VGA Charts 5 PCI-E von X300 bis SLI


dildo4u
2004-12-28, 15:40:02
http://img100.exs.cx/img100/4606/image008.gif

http://img100.exs.cx/img100/8596/image011.gif

http://img75.exs.cx/img75/5485/image014.gif

http://img75.exs.cx/img75/1222/image017.gif

http://img75.exs.cx/img75/6117/image020.gif

http://img75.exs.cx/img75/9652/image023.gif


http://www20.graphics.tomshardware.com/graphic/20041222/index.html

Gast
2004-12-28, 15:57:02
So groß ist der Leistungssprung der SLI-Lösungen nicht. :(
Von fast 0 bis 50% mehr.

tombman
2004-12-28, 16:02:25
So groß ist der Leistungssprung der SLI-Lösungen nicht. :(
Von fast 0 bis 50% mehr.

Bei Doom3 sind es über 70%.
Bei Far Cry über 60%.

Gast
2004-12-28, 16:03:28
Wer spielt denn sowas? Pff..

tombman
2004-12-28, 16:05:02
Wer spielt denn sowas? Pff..

Die Leute mit SLI :cool:

Die anderen spielen CS :)

Gast
2004-12-28, 16:06:51
Die Leute mit SLI :cool:

Die anderen spielen CS :)

Und andere benchen nur und zocken nicht. Gelle ? :D
SLI bringt doch nix außer einen netten Stromzuschuß ;)

dildo4u
2004-12-28, 16:07:05
So groß ist der Leistungssprung der SLI-Lösungen nicht. :(
Von fast 0 bis 50% mehr.
cpu limitiert dafür kann nvidia nix die games die wirklich GK intensiv sind nämlich FC und Doom3 legen ordentlich zu die sind mit einer einzelen high end karte wie eine X850XT auch nicht mher wirklich spielbar mit 30fps im durchschnitt.

tombman
2004-12-28, 16:09:15
cpu limitiert dafür kann nvidia nix die games die wirklich GK intensiv sind nämlich FC und Doom3 legen ordentlich zu die sind mit einer einzelen high end karte wie eine X850XT auch nicht mher wirklich spielbar mit 30fps im durchschnitt.

eben, weil dann bist sofort bei 20fps herunter wenn viel los ist.

tombman
2004-12-28, 16:10:05
Und andere benchen nur und zocken nicht. Gelle ? :D


jo da hast Recht... ich komm echt nimma zum zocken vor lauter aufgeilen an SLI und 3dc posten ;)

Tesseract
2004-12-28, 16:12:01
eben, weil dann bist sofort bei 20fps herunter wenn viel los ist.

abgesehen davon das auch minimum 30fps nicht "ruckelfrei" sein können wenn die ausgabe mit >=60Hz erfolgt.

MechWOLLIer
2004-12-28, 16:12:41
Kann mir mal einer erklären, warum das SLI Gespann der 6600GT in COD langsamer ist, als eine einzelne 6600GT, die 6800 Karten dagegen im SLI Mode ganz normal performen?(wenn auch nicht schneller als eine einzelne Karte)

DeadMeat
2004-12-28, 17:11:17
Kann mir mal einer erklären, warum das SLI Gespann der 6600GT in COD langsamer ist, als eine einzelne 6600GT, die 6800 Karten dagegen im SLI Mode ganz normal performen?(wenn auch nicht schneller als eine einzelne Karte)

Es stand mal eine behauptung nach der fehlender SLI Treiber Support (alte Forcewares) weniger Leistung bringt als eine Single Karte.
€: Also wo es es Probleme gab aber trotzdem angewendet wird.

MarcWessels
2004-12-29, 05:25:11
Wieso haben die den 66.93er FW verwendet? Dadurch sieht nVidia in Half Life 2 wieder so alt aus...

Melc
2004-12-29, 05:38:06
Bin gespannt, wie groß der Leistungsunterschied ist, wenn die Treiber für SLI für alle jetzigen spiele raus sind. Denn bei CoD scheinen die Ergebnisse nicht ganz richtig zu sein.

Edit: Ich freue mich schon auf ATIs Antwort zu SLI. Das wird ein herber Rückschlag für Nvidia, wenn ich mir die Leistung der x850xtpe angucke

san.salvador
2004-12-29, 06:31:29
jo da hast Recht... ich komm echt nimma zum zocken vor lauter aufgeilen an SLI und 3dc posten ;)
Ja, ich glaub das denken sich mittlerweile einige hier.

tombman
2004-12-29, 08:12:58
Ja, ich glaub das denken sich mittlerweile einige hier.

Naja, SLI ist eben doch schon ne Ausnahme, die mehr Zeit zum testen und Erfahrungen sammeln erfordert. Der Treiber ist ja noch nicht wirklich transparent, daher muß man sich teilweise ein bischen spielen um den richtigen Modus für den/das richtige/n benchmark/game finden.

Spätestens im Jänner wirds dann bei mir wieder ruhiger werden, weil dann bis zum Sommer eh nix neues rauskommt...

san.salvador
2004-12-29, 08:18:24
Naja, SLI ist eben doch schon ne Ausnahme, die mehr Zeit zum testen und Erfahrungen sammeln erfordert. Der Treiber ist ja noch nicht wirklich transparent, daher muß man sich teilweise ein bischen spielen um den richtigen Modus für den/das richtige/n benchmark/game finden.

Spätestens im Jänner wirds dann bei mir wieder ruhiger werden, weil dann bis zum Sommer eh nix neues rauskommt...
SLI ist ja auch für mich als Technik-Schnickschnack-Abhängigen was sehr spannendes, aber du verschonst ja kaum ein Forum.

Aber wer weiß, was ich anrichten würde, hätte ich ein SLI-System.... :ueye:

Hauwech
2004-12-29, 08:22:18
Bin gespannt, wie groß der Leistungsunterschied ist, wenn die Treiber für SLI für alle jetzigen spiele raus sind. Denn bei CoD scheinen die Ergebnisse nicht ganz richtig zu sein.

Edit: Ich freue mich schon auf ATIs Antwort zu SLI. Das wird ein herber Rückschlag für Nvidia, wenn ich mir die Leistung der x850xtpe angucke

Naja, wenn die CPU limitiert kann auch X850XT PE x 2 nicht mehr viel reissen.

edit: Es sei denn, es kommt auf Füllrate an, so wie bei HL2 wenn ich das richtig interpretiere.

Steht ja auch in den News, das SLI praktisch für alle Nicht-Extrem-Ocer brutal ausgebremst wird. Genauso wird es bei ATI aussehen. Treiber könnn vielleicht noch das eine oder andere %chen rausholen aber das wird ja noch alles kommen.

Genau, und dann kommt NV mit NV48 dann NV50, ATI mit R580, NV mit NV58, ATI mit R600 etc etc. Völlig egal im Endeffekt. Viel wichtiger ist, dass ATI SM3 Top-to-Bottom anbietet.

tombman
2004-12-29, 08:36:57
SLI ist ja auch für mich als Technik-Schnickschnack-Abhängigen was sehr spannendes, aber du verschonst ja kaum ein Forum.

Aber wer weiß, was ich anrichten würde, hätte ich ein SLI-System.... :ueye:

Naja, mir wären Leute wie ich lieber, da die neben dem ganzen braggin´auch Infos rauslassen.

Ich hasse so Leute wie die ganzen Top-Overclocker der Welt, die vielleicht 2 bis 3 benchmarks veröffentlichen und dann NIX mehr sagen, keine Fragen beantworten und auch sonst nix mehr rauslassen...
Denen gehts echt nicht mehr um die Technik oder die Faszination, nur mehr um "ich bin der schnellste, liebt mich"...

HockleXX
2004-12-29, 08:40:17
@Tombman

Toll, nun ein neuer Fanboi.



Also SLI ist auf jedenfall nichts für normal Zocker. Oder soll ich doppelt so viel Geld ausgeben für 20-50% ? Kommt es drauf ob man mit 80 oder 90 Frames spielt ;D Solche Fanbois belustigen mich immer wieder. Vorallem die mit "Ich hab SLI" gross in der Signatur herumprotzen. Und eben, der Preis ist ja wohl unterm Hund, da kauf ich mir lieber eine X850XT PE, die dann auch stabil läuft und kein 600W Netzteil braucht ;) Aber ich frage mich sowieso, haben die Leute die extra nur benchen und darin gut sind, nicht irgendein RL Problem haben....

SLI ist einfach reine Verarschung, oder sagt mir jemand das die heutigen Prozessoren SLI vollständig fördern ?

Soviel zu SLI.

Nun wies ausschaut hat ATi mal wieder nVidia in der EInzel-Karten Tests weggehauen. Da muss nVidia eben mit SLI kommen ;D
nVidia sollte sich lieber mal fragen an was das liegt....

tombman
2004-12-29, 09:18:32
Soviel zu SLI.



Jo, soviel falsches...

Richtig ist:

1.) es funktioniert stabil
2.) es bringt in games VIEL
3.) 50% bis 90% bei entsprechender cpu
4.) Strom und Hitze für die Zielgruppe kein Argument

tombman
2004-12-29, 09:19:59
del

MechWOLLIer
2004-12-29, 09:47:05
Also SLI ist auf jedenfall nichts für normal Zocker. Oder soll ich doppelt so viel Geld ausgeben für 20-50% ? Kommt es drauf ob man mit 80 oder 90 Frames spielt ;D Solche Fanbois belustigen mich immer wieder. Vorallem die mit "Ich hab SLI" gross in der Signatur herumprotzen. Und eben, der Preis ist ja wohl unterm Hund, da kauf ich mir lieber eine X850XT PE, die dann auch stabil läuft und kein 600W Netzteil braucht ;) Aber ich frage mich sowieso, haben die Leute die extra nur benchen und darin gut sind, nicht irgendein RL Problem haben....
SLI ist einfach reine Verarschung, oder sagt mir jemand das die heutigen Prozessoren SLI vollständig fördern ?

Ach ja, ich finde solche Posts irgendwie knuddelig....:)

Aha, SLI ist also nichts für Zocker.
Ich sehe mich zwar eher als ein Technikbegeisterter mit einem Hang zum ausprobieren an, aber spielen tue ich jetzt auch nicht ganz wenig. Hinzukommt, dass ich Spiele gerne in hoher Qualität spiele und da mein TFT eine native Auflösung von 1600x1200 und ich auch gerne mit AA und AF spielen würde, wäre für mich als Zocker SLI alles andere als sinnlos und nicht normal.
Ich habe derzeit mit der 6800U sicherlich auch keine langsame Karte, die 80FPS hätte ich aber gerne immer, ich würde mich auch mit 60FPSD zufriedengeben. Habe ich die? Nö.
Ich frage mich, ob Leute die so einen Post wie du schreiben nicht ernsthaft neidig sind.
SLIist keine Verarschung, sondern sinnvoll für Leite mit genug Geld und die gerne in hoher Qualität spielen.

leroy
2004-12-29, 09:54:04
@Tombman

Toll, nun ein neuer Fanboi.

Ausgerechnet Tombman - man siehe seine alte Signatur- als NVIDIA Fanboy zu bezeichnen, kann ich absolut nicht nachvollziehen.



Also SLI ist auf jedenfall nichts für normal Zocker. Oder soll ich doppelt so viel Geld ausgeben für 20-50% ? Kommt es drauf ob man mit 80 oder 90 Frames spielt ;D Solche Fanbois belustigen mich immer wieder. Vorallem die mit "Ich hab SLI" gross in der Signatur herumprotzen. Und eben, der Preis ist ja wohl unterm Hund, da kauf ich mir lieber eine X850XT PE, die dann auch stabil läuft und kein 600W Netzteil braucht ;) Aber ich frage mich sowieso, haben die Leute die extra nur benchen und darin gut sind, nicht irgendein RL Problem haben....

Stimmt, SLI ist nix für normale Zocker mit normalem Geldbeutel.
Allerdings ist es sein Bier, was er in die Sig reinschreibt. Du brauchst es ja nicht zu lesen. Als er in seiner Sig drin stehen hatte

"X800XT-PE ist schneller als 6800 Ultra bei gleicher Bildqualität..."

hat es Dich ja anscheinend auch nicht gestört.

SLI ist einfach reine Verarschung, oder sagt mir jemand das die heutigen Prozessoren SLI vollständig fördern ?

Soviel zu SLI.

Wer extreme Auflösung mit HQ Settings will, wäre doch blöd, wenn er es sich erlauben kann aber darauf verzichten würde. Die Benchmarkergebnisse sagen alles.


Nun wies ausschaut hat ATi mal wieder nVidia in der EInzel-Karten Tests weggehauen. Da muss nVidia eben mit SLI kommen ;D
nVidia sollte sich lieber mal fragen an was das liegt....

*ROTFL* Hat hier jemand Fanboy gesagt...

Godmode
2004-12-29, 10:05:56
cpu limitiert dafür kann nvidia nix die games die wirklich GK intensiv sind nämlich FC und Doom3 legen ordentlich zu die sind mit einer einzelen high end karte wie eine X850XT auch nicht mher wirklich spielbar mit 30fps im durchschnitt.

und das finde ich einfach nur geil, ein Spiel das in 1600*1200 mit 4AA8AF noch immer CPU limiertiert ist!

warum wird nie mit 8xS gebencht?

HockleXX
2004-12-29, 10:08:49
Naja dann seid ihr aber Performancegeilesaäue :D

san.salvador
2004-12-29, 10:11:54
Naja dann seid ihr aber Performancegeilesaäue :D
Hallo und herzlich willkommen im 3DCenter. :D

Gast
2004-12-29, 15:10:34
Denk auch mit 1600 und 8S ist es wohl bei allen neuen Spielen auch bei SLI ganz schnell vorbei mit der CPU Limitierung.

dildo4u
2004-12-29, 15:12:46
warum wird nie mit 8xS gebencht?
Weils kein sli test in dem sinne ist und ati nix vergleichbares anbietet.

MarcWessels
2004-12-29, 16:59:57
Naja dann seid ihr aber Performancegeilesaäue :D

Naja, ich weiß es nicht - das könnte man vielleicht sagen, wenn es nur um eine nichtssagende Balkenlänge gehen würde; tut's aber nicht, weil man heute mit einer einzelnen Karte (ob nun ATI oder nVidia) in wirklich forderneden Spielen schon öfters unter die 60fps-Marke rutscht; erst Recht mit Auflösungen über 1024x768 und AF (von AA ganz zu schweigen).

Wenn man sich die Geschichte unter diesem Aspekt anschaut, ist selbst ein SLI-Gespann in den meisten Fällen (aktueller Engines) nicht in der Lage, in 1600x1200 +4xAA + 16xAF stabil 60fps min über den gesamten Spielablauf zu liefern.

Ich hoffe, daß es nächstes Jahr SLI-fähige Pentium M-Mainboards geben wird.

Tigerchen
2004-12-29, 17:25:00
Jo, soviel falsches...

Richtig ist:

1.) es funktioniert stabil
2.) es bringt in games VIEL
3.) 50% bis 90% bei entsprechender cpu
4.) Strom und Hitze für die Zielgruppe kein Argument

Für ein paar Freaks für die Kosten kein Thema sind ist SLI sicher der Knaller.
Ich gönn dir den Spaß. Aber versteif dich nicht darauf daß jetzt alle SLI gut zu finden haben. Für mich ist so ein Aufwand jenseits von gut und böse.
Und für Freaks die in der letzten Zeit auf 17" TFT umgestiegen sind, und das ist ja der Trend, ist SLI auch sinnfrei.

Tigerchen
2004-12-29, 17:29:09
Ach ja, ich finde solche Posts irgendwie knuddelig....:)

Aha, SLI ist also nichts für Zocker.
Ich sehe mich zwar eher als ein Technikbegeisterter mit einem Hang zum ausprobieren an, aber spielen tue ich jetzt auch nicht ganz wenig. Hinzukommt, dass ich Spiele gerne in hoher Qualität spiele und da mein TFT eine native Auflösung von 1600x1200 und ich auch gerne mit AA und AF spielen würde, wäre für mich als Zocker SLI alles andere als sinnlos und nicht normal.
Ich habe derzeit mit der 6800U sicherlich auch keine langsame Karte, die 80FPS hätte ich aber gerne immer, ich würde mich auch mit 60FPSD zufriedengeben. Habe ich die? Nö.
Ich frage mich, ob Leute die so einen Post wie du schreiben nicht ernsthaft neidig sind.
SLIist keine Verarschung, sondern sinnvoll für Leite mit genug Geld und die gerne in hoher Qualität spielen.

Er hat nicht geschrieben daß SLI nichts für Zocker ist sondern daß es nichts für normale Zocker ist. Welcher normale Zocker besitzt schon ein TFT mit 1600x1200 Pixeln daß auch noch schnell schalten muß. Ist ja auch keine Selbstverständlichkeit oder?

Hauwech
2004-12-29, 18:11:34
SLI bringt schon was, allerdings ist es natuerlich in mehr Faellen noch staerker als eine Singlekarte, CPU-limitiert. Im Web kursieren ja so einige Tests mit 3,1+ GHz A64 und SLI rum und da zeichnet sich doch wesentlich besser ab, was mehr CPU Leistung fuer SLI bringen kann.

Nicht zu vergessen, hier wurde auch ein aelterer Treiber genommen. Mit dem neusten sieht es auch schon wieder anders aus.

Ist irgendein neueres Spiel eigentlich SMP faehig? Falls ja, waere auch mal interessant zu erfahren wie sich SLI dort verhaelt. DualXeon oder DualOpteron waere zwar krank aber interessant :)

Hauwech
2004-12-29, 18:26:43
Er hat nicht geschrieben daß SLI nichts für Zocker ist sondern daß es nichts für normale Zocker ist. Welcher normale Zocker besitzt schon ein TFT mit 1600x1200 Pixeln daß auch noch schnell schalten muß. Ist ja auch keine Selbstverständlichkeit oder?


Was sind normale Zocker?

q@h
2004-12-29, 18:33:02
[COLOR="#000088"]
Er hat nicht geschrieben daß SLI nichts für Zocker ist sondern daß es nichts für normale Zocker ist. Welcher normale Zocker besitzt schon ein TFT mit 1600x1200 Pixeln daß auch noch schnell schalten muß.
Ich besitze einen CRT, der 2048x1536 für Games durchaus noch brauchbar anzeigen kann. Muss ich jetzt auch SLI per se scheisse finden, nur weil ich's mir nicht leisten kann/will?

Tigerchen
2004-12-29, 18:37:07
Ich besitze einen CRT, der 2048x1536 für Games durchaus noch brauchbar anzeigen kann. Muss ich jetzt auch SLI per se scheisse finden, nur weil ich's mir nicht leisten kann/will?

Hab ich geschrieben daß du es Scheiße finden mußt?

Tigerchen
2004-12-29, 18:47:26
Was sind normale Zocker?

Entweder Konsolenspieler oder PC-Spieler die zwar einiges in ihr Hobby investieren aber mit Sicherheit nicht jede Extravaganz mitmachen können oder wollen. Ich möchte mal behaupten daß der "normale" etwas interessierte Zocker im Moment gerade mal den Sprung von 1024x768 CRT zum 1280er TFT macht oder im letzten Jahr gemacht hat. Diese recht große Gemeinde darf sich mit Fug und Recht die Frage nach dem Sinn von SLI stellen.

Wer meint er müßte jedes halbe Jahr der gerade anstehenden Hype hinterherhecheln darf das natürlich gerne tun. Ich nehme mir aber trotzdem die Freiheit kopfschüttelnd meinen Standpunkt zur Sache darzulegen.:)

q@h
2004-12-29, 18:48:19
Hab ich geschrieben daß du es Scheiße finden mußt?

Nee. Aber "ist es" nun "nichts für mich" oder bin ich kein normaler Zocker?

MechWOLLIer
2004-12-29, 18:58:21
Er hat nicht geschrieben daß SLI nichts für Zocker ist sondern daß es nichts für normale Zocker ist. Welcher normale Zocker besitzt schon ein TFT mit 1600x1200 Pixeln daß auch noch schnell schalten muß. Ist ja auch keine Selbstverständlichkeit oder?

Das mit dem Zocker hat mich auch weniger gestört.
Viel mehr störte mich, dass er SLI wiedermal als direkt sinnlos hingestellt hat und danngeschrieben hat, dass wenn einer ein SLI System hat und das in der Sig stehen hat, direkt mal ein Looser im RL ist.

HockleXX
2004-12-30, 08:58:20
Ja irgendwie muss man sich ja behaupten, sieht man ja an meiner sig. aber das ist OT

NUn, normale Zocker wie ich

TFT 17" 1280x1024 brauche kein AA & AF brauch ich dafür SLI ?

nVidia wird glaube ich nur Freaks damit ansprechen können, den wir investieren sonst schon genug in einzelne Grafikkarten.

Ich werde mir kein SLI System holen, obs von NV oder ATi ist. Soviel Geld hab ich 1 ned, und 2 Brauch ichs ned. Und ich glaube ich spreche hier für viele die einfach mal so ne runde am PC zocken, und nicht sich vor dem 3DMark05 abkauern und sich daran erfreuen.

Mir steht bei einem PC-System Spass im Vordergrund. Selber zusammenbauen macht Fun, und dann halt noch ein bisschen Zocken mit freunden. Und ich kann z.b gut mit 35FPS in Far Cry leben (war mit meiner "alten" 5950U)

Konnte diese günstig wegbringen und hab dann halt ne X800Pro gekauft. Eine XT oder sogar PE kommt mir nicht ins Haus, da sie 1 Auch wieder zu teuer ist und 2 Ich das nicht brauche.

Und jetzt spiele ich CoD in 1280x1024 ohne AA & AF ? Wieso auch, möchte nicht jedes Staubkorn am Boden sehen, mir reichts wenn ich paar Frags mache, und zusammn mit meinem Clan Spass haben. Da kommt es nicht auf die beste HW an.

Wixi
2004-12-30, 09:16:48
Ja irgendwie muss man sich ja behaupten, sieht man ja an meiner sig. aber das ist OT

NUn, normale Zocker wie ich

TFT 17" 1280x1024 brauche kein AA & AF brauch ich dafür SLI ?

nVidia wird glaube ich nur Freaks damit ansprechen können, den wir investieren sonst schon genug in einzelne Grafikkarten.

Ich werde mir kein SLI System holen, obs von NV oder ATi ist. Soviel Geld hab ich 1 ned, und 2 Brauch ichs ned. Und ich glaube ich spreche hier für viele die einfach mal so ne runde am PC zocken, und nicht sich vor dem 3DMark05 abkauern und sich daran erfreuen.

Mir steht bei einem PC-System Spass im Vordergrund. Selber zusammenbauen macht Fun, und dann halt noch ein bisschen Zocken mit freunden. Und ich kann z.b gut mit 35FPS in Far Cry leben (war mit meiner "alten" 5950U)

Konnte diese günstig wegbringen und hab dann halt ne X800Pro gekauft. Eine XT oder sogar PE kommt mir nicht ins Haus, da sie 1 Auch wieder zu teuer ist und 2 Ich das nicht brauche.

Und jetzt spiele ich CoD in 1280x1024 ohne AA & AF ? Wieso auch, möchte nicht jedes Staubkorn am Boden sehen, mir reichts wenn ich paar Frags mache, und zusammn mit meinem Clan Spass haben. Da kommt es nicht auf die beste HW an.



genau meine Meinung :D

Hauwech
2004-12-30, 09:42:13
Ja irgendwie muss man sich ja behaupten, sieht man ja an meiner sig. aber das ist OT

NUn, normale Zocker wie ich

TFT 17" 1280x1024 brauche kein AA & AF brauch ich dafür SLI ?

nVidia wird glaube ich nur Freaks damit ansprechen können, den wir investieren sonst schon genug in einzelne Grafikkarten.

Ich werde mir kein SLI System holen, obs von NV oder ATi ist. Soviel Geld hab ich 1 ned, und 2 Brauch ichs ned. Und ich glaube ich spreche hier für viele die einfach mal so ne runde am PC zocken, und nicht sich vor dem 3DMark05 abkauern und sich daran erfreuen.

Mir steht bei einem PC-System Spass im Vordergrund. Selber zusammenbauen macht Fun, und dann halt noch ein bisschen Zocken mit freunden. Und ich kann z.b gut mit 35FPS in Far Cry leben (war mit meiner "alten" 5950U)

Konnte diese günstig wegbringen und hab dann halt ne X800Pro gekauft. Eine XT oder sogar PE kommt mir nicht ins Haus, da sie 1 Auch wieder zu teuer ist und 2 Ich das nicht brauche.

Und jetzt spiele ich CoD in 1280x1024 ohne AA & AF ? Wieso auch, möchte nicht jedes Staubkorn am Boden sehen, mir reichts wenn ich paar Frags mache, und zusammn mit meinem Clan Spass haben. Da kommt es nicht auf die beste HW an.

Irgendwie steht der letzte Satz im Widerspruch mit deiner Signatur...

Die aufgebohrte X800pro kann ich ja verstehen aber der Rest?

HockleXX
2004-12-30, 10:01:20
Weihnachten ;-) Die meisten Sachen hab ich von Freunden bekommen, die mir das geschenkt haben, selber würd ich das nie kaufen....zu teuer

Hauwech
2004-12-30, 10:29:17
Weihnachten ;-) Die meisten Sachen hab ich von Freunden bekommen, die mir das geschenkt haben, selber würd ich das nie kaufen....zu teuer

Solche Freunde hätte ich auch gern :D

Ne aber im Ernst, klar ist SLI nur was für Leute mit entweder zuviel Geld, Freude an der Technik oder Freaks. Ist ja auch nicht schlimm. Das es da Nachteile gibt, ist doch klar. Man muss auch bedenken, es ist die erste Generation, bei der nächsten werden vielleicht so einige Nachteile nicht mehr existieren bzw kleiner ausfallen. 90nm Grafikchips und vielleicht die Gigabyte Idee, SLI auf einem Board, sind mögliche nächste Schritte. Abseits dessen, mit Pentium M ist vielleicht auch ein Kandidat in Aussicht um ein einigermaßen "Low-Power-SLI-System" aufzubauen.

Wichtig ist auf jeden Fall Tests mit neueren Treibern abzuwarten. Da kann und wird sich wahrscheinlich noch einiges tun. Es ist einfach ein anderer Weg mehr Grafikleistung auf recht günstige Weise zu erhalten ohne auf die jeweils neuen Generationen bzw Refreshes zu warten oder gnadenlos zu übertakten.

Bräuchte es zwar auch nicht, aber es haben und damit rumspielen würde ich schon gerne, obwohl ich nicht der große Spieler bin. Gibt schliesslich noch andere Sachen neben Spielen :)

Eins ist ganz sicher, die CPU Leistung muss massiv erhöht werden um SLI auszunutzen. Dual CPU ist, neben dem Preis und auch seinen Nachteilen, ja auch nicht gerade mit toller Spieleunterstützung gesegnet.

Tigerchen
2004-12-30, 14:46:41
Nee. Aber "ist es" nun "nichts für mich" oder bin ich kein normaler Zocker?

Das sind Fragen die mußt du für dich selber entscheiden.

Tigerchen
2004-12-30, 14:50:09
Das mit dem Zocker hat mich auch weniger gestört.
Viel mehr störte mich, dass er SLI wiedermal als direkt sinnlos hingestellt hat und danngeschrieben hat, dass wenn einer ein SLI System hat und das in der Sig stehen hat, direkt mal ein Looser im RL ist.

In dem Punkt mit dem Looser hast du Recht. Das muß wirklich nicht sein.

Gast
2004-12-31, 12:54:17
WENN DIE X800 XL BILLIGER IST ALS DIE 6800 GT WIRDS MEINE NÄCHSTE KARTE :D

tombman
2004-12-31, 13:28:52
WENN DIE X800 XL BILLIGER IST ALS DIE 6800 GT WIRDS MEINE NÄCHSTE KARTE :D

Würd ich mir nochmal überlegen.... shader modell 3.0 könnte 2005 wichtig werden, und das kann die X800XL nicht.

Gibt ja jetzt schon Fälle, wo du gewisse features in games ohne 3.0 nicht sehen kannst.

1.) far cry HDR Modus
2.) Riddick soft shadows Modus

(die sind mir jetzt mal eingefallen)

2005 könnten noch einige Entwickler auf die Idee kommen sm 3.0 Sachen einzubauen, die auf ATI X800 und X850 Serie dann ned rennen würden... (ned weils technisch ned so zu machen wäre, daß es ned auf ATI X800 und X850 Serie gleich aussehen würde, sondern aufgrund der "Faulheit" der Entwickler)

Tigerchen
2004-12-31, 15:40:57
Würd ich mir nochmal überlegen.... shader modell 3.0 könnte 2005 wichtig werden, und das kann die X800XL nicht.

Gibt ja jetzt schon Fälle, wo du gewisse features in games ohne 3.0 nicht sehen kannst.

1.) far cry HDR Modus
2.) Riddick soft shadows Modus

(die sind mir jetzt mal eingefallen)

2005 könnten noch einige Entwickler auf die Idee kommen sm 3.0 Sachen einzubauen, die auf ATI X800 und X850 Serie dann ned rennen würden... (ned weils technisch ned so zu machen wäre, daß es ned auf ATI X800 und X850 Serie gleich aussehen würde, sondern aufgrund der "Faulheit" der Entwickler)

Glaub ich kaum. Wofür soll denn SM 3.0 eingesetzt werden?

MechWOLLIer
2004-12-31, 15:44:51
Glaub ich kaum. Wofür soll denn SM 3.0 eingesetzt werden?

Dafür sollte es mehrere Möglichkeiten geben. Wenn die Shader nicht mehr in einen Pass passen(Far Cry) oder wenn man durch Dynamic Branches eine höhere Performance erreichen kann. Und das zählt nur alleine bei Spielen. Hinzu hat der Vertex Shader3 auch noch einige nette Spielerreie auf Lager auch wenn ich nicht genau weiß welche.
Wenn der R520 erscheint wird es imo nach kurzer Zeit SM3 Spiele hageln, wenn der Vorteil anfangs auch nur minimal sein wird.

Mr. Lolman
2004-12-31, 15:57:29
@Tombman: eigentlich ACK, aber der Softshadows Modus rennt ja selbst mit deinem SLI System nicht mit zufriedenstellender Performance. Die Farrcry HDR Geschichte ist wohl auch lächerlich, da the Project ja gleiches für ATi Karten bringt, allerdings mit geringerem Performanceeinbruch. AFAIK wird schon fleissig an nem ATi HDR Plugin für FC gebastelt.

@Mechwollier: Wars nicht so, dass dynamic Branching kaum Performancevorteile bringt? BTW: selbst wenn die Shader nicht in einen Pass passen - macht an halt einfach Muiltipasses. Selbst die in der Shaderlänge arg begrenze R300 hat anscheinend kein Problem mit HDR bei the Project...

@all:

Bevor SM3.0 für die aktuelle Generation relevant werden wird, ist diese schon zu langsam. Siehe Softshadows bei Riddick.

Also ists vom technischen Standpunkt imo völlig wurscht ob man sich ne R420 oder nNV40 kauft. Allerdings würd ich mir in ein paar Monaten keine hochgetunte R420 kaufen, wenn der R520 da ist, da bei der kommenden Generation SM3.0 höchstwahrscheinlich mehr Bedeutung zukommen wird als jetzt.

Das ganze erinnert mich an die Bumpmappinggeschichte zu Zeiten der V5. 2 Spiele gabs, die das Feature extrem gehypt haben, wovon bei einem das Bumpmapping hauptsächlich statisch war, wegen fehlenden dynamischen Lichteffekten. Eben deswegen weil die HW zu langsam war.

dildo4u
2004-12-31, 16:02:50
@all:

Bevor SM3.0 für die aktuelle Generation relevant werden wird, ist diese schon zu langsam. Siehe Softshadows bei Riddick.
.

Was haben softschadows mit SM3.0 zu tun die sind bei riddick mit opengl extension realisiert worden geht auch auf ati hat demurig alles hier schon kund getan.Dieser support wurde 2wochen vor der release experimentel eingebaut da wurde nix getweaked oder so wenn man SM 3.0 auswählt steht auch das das es experimentel is und extrem leistung frisst.Und Ati HRD bei FC ist kein echtes HDR das wurde auch schon 1000mal erklärt.

Demirug
2004-12-31, 16:04:49
@Tombman: eigentlich ACK, aber der Softshadows Modus rennt ja selbst mit deinem SLI System nicht mit zufriedenstellender Performance. Die Farrcry HDR Geschichte ist wohl auch lächerlich, da the Project ja gleiches für ATi Karten bringt, allerdings mit geringerem Performanceeinbruch. AFAIK wird schon fleissig an nem ATi HDR Plugin für FC gebastelt.

@Mechwollier: Wars nicht so, dass dynamic Branching kaum Performancevorteile bringt? BTW: selbst wenn die Shader nicht in einen Pass passen - macht an halt einfach Muiltipasses. Selbst die in der Shaderlänge arg begrenze R300 hat anscheinend kein Problem mit HDR bei the Project...

@all:

Bevor SM3.0 für die aktuelle Generation relevant werden wird, ist diese schon zu langsam. Siehe Softshadows bei Riddick.

Also ists vom technischen Standpunkt imo völlig wurscht ob man sich ne R420 oder nNV40 kauft. Allerdings würd ich mir in ein paar Monaten keine hochgetunte R4320 kaufen, wenn der R520 da ist, da bei der kommenden Generation SM3.0 höchstwahrscheinlich mehr Bedeutung zukommen wird als jetzt.

Das ganze erinnert mich an die Bumpmappinggeschichte zu Zeiten der V5. 2 Spiele gabs, die das Feature extrem gehypt haben, wovon bei einem das Bumpmapping hauptsächlich statisch war, wegen fehlenden dynamischen Lichteffekten. Eben deswegen weil die HW zu langsam war.

Das komische "MRT HDR" bei FC ist alles nur kein HDR zudem funktioniert es ja nicht mal richtig.

Was haben die Softshadows bei Riddick mit SM3 zu tun? Die würden im Prinzip auch auf einer FX laufen. Allerdings würde sich dann dort gar nicht mehr bewegen.

Und zu guter letzt. Was hat HDR mit Shaderlängen zu tun?

Mr. Lolman
2004-12-31, 16:15:43
Das komische "MRT HDR" bei FC ist alles nur kein HDR zudem funktioniert es ja nicht mal richtig.

Naja, man muß halt die Settings etwas Tweaken. Und ob MDR oder HDR ist ja scheinbar egal. Aussehen tuts ja gleich. Wenn man diese Autokrontrast Anpassung noch in den HDRish Shader bringt, kann man das ja garnicht mehr von echtem HDR unterscheiden. Und zusätzlich würds noch mit [u]jedem[/u[ OpenGL Spiel funktionieren. (Warum baut Ati eigentlich dieses Smartshadertool nicht auf für d3d?)


Was haben die Softshadows bei Riddick mit SM3 zu tun? Die würden im Prinzip auch auf einer FX laufen. Allerdings würde sich dann dort gar nicht mehr bewegen.

Weiss ich eigentlich eh. Tombman ist schuld ;)

BTW: Wieso meinst du, dass du theoretisch die Riddick Softshadows auch ATi verfügbar machen könntest, während das bei D³ ein Problem darstellen soll.



Und zu guter letzt. Was hat HDR mit Shaderlängen zu tun?

Frag ich mich jetzt eigentlich auch :|

Coda
2004-12-31, 16:33:42
Und ob MDR oder HDR ist ja scheinbar egal.
Es ist auch kein MDR. MTR = Multiple RenderTargets.

Und hört endlich auf HDR auf einen Overbright Blur zu reduzieren...
http://www.unrealtechnology.com/screens/HDRGlow.jpg
Sowas geht ohne HDR auf keinen Fall.

BTW: Wieso meinst du, dass du theoretisch die Riddick Softshadows auch ATi verfügbar machen könntest, während das bei D³ ein Problem darstellen soll.
Öhm, weil bei D3 gar nichts in die Richtung vorgesehen ist?

tombman
2004-12-31, 16:35:42
@Tombman: eigentlich ACK, aber der Softshadows Modus rennt ja selbst mit deinem SLI System nicht mit zufriedenstellender

Wer hat dir denn den Blödsinn erzählt?

Klar rennt des mit SLI spielbar, und des is des EINZIGE System was des kann @ 1024x768 ;)

1024x768, 2++, Maximum Detail, Erste Szene

Ohne SLI: 20 fps
Mit SLI: 36 fps

Und das ist eine SEHR fordernde Szene, normal hast im Spiel EINIGES mehr an fps :)

@SM 3.0 features: es geht ja nicht darum was technisch auch auf der ATI möglich wäre, sondern ob die Entwickler es MACHEN, sprich um den menschlichen Faktor. Weil wieso gibt es dann soft shadows nur für gf6 und nicht für ATI? Weil die Entwickler eine Woche vor Schluß diesen Modus erst eingebaut haben, und zwar nur für gf6, weil es eben leichter zu proggn war...

Außerdem kommen 2005 mit der R520 auch sm 3.0 fähige ATi Karten auf den Markt ---> da könnten sich noch mehr Entwickler überlegen SM3.0 only features einzubauen.

Klar, für 2004 war sm 3.0 ned unbedingt erforderlich und daher die X800XTPE die bessere Karte, 2005 KANN das anders sein, und man könnte in Situationen kommen wo man sich ärgert keine sm 3.0 Karte zu haben.

Demirug
2004-12-31, 16:42:54
Naja, man muß halt die Settings etwas Tweaken. Und ob MDR oder HDR ist ja scheinbar egal. Aussehen tuts ja gleich. Wenn man diese Autokrontrast Anpassung noch in den HDRish Shader bringt, kann man das ja garnicht mehr von echtem HDR unterscheiden. Und zusätzlich würds noch mit [u]jedem[/u[ OpenGL Spiel funktionieren. (Warum baut Ati eigentlich dieses Smartshadertool nicht auf für d3d?)

Dieses "MRT HDR" benutzt ganz normale 8 Bit RGBA Buffer. Was ATI macht oder nicht macht darfst du mich nicht fragen. Aber wenn ich mal wieder einen Schwachen Moment habe dann baue ich ein Postprocessing Tool für alle Karten. Allerdings muss ich jetzt erst mal einen Zero Bug Bounce erreichen bevor ich neues Zeug bauen sonst bekomme ich haue.

Weiss ich eigentlich eh. Tombman ist schuld ;)

BTW: Wieso meinst du, dass du theoretisch die Riddick Softshadows auch ATi verfügbar machen könntest, während das bei D³ ein Problem darstellen soll.

Es ginge auch bei D3 allerdings würde es da so heftig reinschlagen das ich derezit keine Lust habe mich damit näher auseinader zu setzten. Zudem wollte ich sowieso noch auf eine Riddick Demo warten um mir den Effekt mal vollständig anzuschauen. Aus den Shadern aleine werde ich noch nicht ganz schlau.

Tigerchen
2004-12-31, 17:05:14
Dafür sollte es mehrere Möglichkeiten geben. Wenn die Shader nicht mehr in einen Pass passen(Far Cry) oder wenn man durch Dynamic Branches eine höhere Performance erreichen kann. Und das zählt nur alleine bei Spielen. Hinzu hat der Vertex Shader3 auch noch einige nette Spielerreie auf Lager auch wenn ich nicht genau weiß welche.
Wenn der R520 erscheint wird es imo nach kurzer Zeit SM3 Spiele hageln, wenn der Vorteil anfangs auch nur minimal sein wird.

Wenns den R520 gibt wird das branching auf nV4x auch nicht schneller. SM3 Spiele hageln wirds genausowenig wie MMX-Spiele oder HT-Spiele. Wirst schon sehen.:)

Tigerchen
2004-12-31, 17:11:11
Es ist auch kein MDR. MTR = Multiple RenderTargets.

Und hört endlich auf HDR auf einen Overbright Blur zu reduzieren...
http://www.unrealtechnology.com/screens/HDRGlow.jpg
Sowas geht ohne HDR auf keinen Fall.


Der Screen ist reine Effekthascherei. Fraglich ob ich das überhaupt in einem Spiel sehen will. Überhaupt ist alles was ich bis jetzt an HDR gesehen habe eine total überzogene Lichtorgie. HL² machts da mit seinem "Fake" wesentlich stimmiger. Und darauf kommt es an. Und performant ist es auch noch.

MechWOLLIer
2004-12-31, 17:46:37
Wenns den R520 gibt wird das branching auf nV4x auch nicht schneller. SM3 Spiele hageln wirds genausowenig wie MMX-Spiele oder HT-Spiele. Wirst schon sehen.:)

Natürlich wird das Branching nicht schneller, aber das habe ich nicht gesagt.
Und laut unseren Gurus(falls ich das richtig verstanden habe) bracht der NV40 gar nicht soviele Takte um einen Branch durchzuführen(auch wenn es noch stark verbesserungswürdig ist und hoffentlich mit dem R520 auch passiert).
Nunja, SM2 Spiele hagelt es mittlerweile auch. und kurz nach Erscheinen vom R300 gab es auch bereits einige SM2 Spiele, warum sollte das bei SM3 anders sein?

Demirug
2004-12-31, 18:06:00
Natürlich wird das Branching nicht schneller, aber das habe ich nicht gesagt.
Und laut unseren Gurus(falls ich das richtig verstanden habe) bracht der NV40 gar nicht soviele Takte um einen Branch durchzuführen(auch wenn es noch stark verbesserungswürdig ist und hoffentlich mit dem R520 auch passiert).
Nunja, SM2 Spiele hagelt es mittlerweile auch. und kurz nach Erscheinen vom R300 gab es auch bereits einige SM2 Spiele, warum sollte das bei SM3 anders sein?

Das Shader inzwischen mehrheitlich mit HLSL geschrieben werden verschwimmen die Grenzen zwischen den SM sehr schnell.

Von den Takten her ist ein Branch auf einem NV40 eigentlich noch günstig das Problem ist die grosse Blockgrösse die erreicht werden muss das der Chip auch wirklich nur einen Pfad ausführt. Diese wird mit ~1000 Pixel angeben. Wenn auch nur ein Pixel in einem solchen Block abweicht dann bringt der Branch keine Vorteile mehr.

Mr. Lolman
2004-12-31, 18:11:19
Wer hat dir denn den Blödsinn erzählt?

Klar rennt des mit SLI spielbar, und des is des EINZIGE System was des kann @ 1024x768 ;)

1024x768, 2++, Maximum Detail, Erste Szene

Ohne SLI: 20 fps
Mit SLI: 36 fps
.

Warens bei irgendwem nicht 11fps ohne SLI? (mit Screenshot) Arg das du da 20 hast...

Und 1024x768 ist ja auch kein Spaß, mit einem 24" Monitor, oder?

Jesus
2004-12-31, 18:18:48
Klar, für 2004 war sm 3.0 ned unbedingt erforderlich und daher die X800XTPE die bessere Karte, 2005 KANN das anders sein, und man könnte in Situationen kommen wo man sich ärgert keine sm 3.0 Karte zu haben.

Naja solange es die Entwickler nicht schaffen was anderes als ne SM3 Slideshow auf die Beine zu stellen (oder die HW es schneller schafft) weine ich diesem Feature (noch) keine Träne hinterher :smile:

tombman
2004-12-31, 19:49:46
Warens bei irgendwem nicht 11fps ohne SLI? (mit Screenshot) Arg das du da 20 hast...

Und 1024x768 ist ja auch kein Spaß, mit einem 24" Monitor, oder?

Du, es is voll spielbar, und das verdank ich nur SLi.... da werd ich doch nicht rummecken weil es nicht 7000 mal 5000 Pixel sind :D

Und ein bischen was geht ja noch :) 1152x864 sollte eigentlich auch gehen...

Und mit den Ultras @ oc wird dann auch 1280x768 (16:10) gehen ;)

Gast
2004-12-31, 19:53:58
Wer sagt denn das die Ultra Karten besser zu takten gehn? Noch dazu büßen die viel Performance durch langsamere Ramtimings ein.

Eine 6800GT 400/550 entspricht vom Speed her einer 6800 Ultra@440/1200

tombman
2004-12-31, 19:58:38
Wer sagt denn das die Ultra Karten besser zu takten gehn? Noch dazu büßen die viel Performance durch langsamere Ramtimings ein.

Eine 6800GT 400/550 entspricht vom Speed her einer 6800 Ultra@440/1200

Sorry, aber das is völliger Blödsinn...

Und klar gehen ultras besser zu takten, denn

1.) mehr Spannung auf dem core vom Bios aus und außerdem selektiert
2.) Samsung GC16 (=600mhz) ram und nicht schwuler GC20 (=500mhz) wie auf der GT
3.) ich kenne die ramtimings-Hysterie und sie is völlig überzogen

4.) Warum werden dann die Weltrekorde immer mit den höchsten Karten gemacht, wenn die zweitschnellsten eh besser sind?

tombman
2004-12-31, 20:06:16
p.s.: 1280x768 geht jetzt schon mit 30fps bei einer sehr anspruchsvollen Szene:

Sorry, keine fps Angabe drauf --> einfach glauben ;)

http://img12.exs.cx/img12/4427/riddick27fa.jpg

Und ich LIEBE games mit echtem 16:10 support :D

Gast
2004-12-31, 20:06:21
Sorry, aber das is völliger Blödsinn...

Und klar gehen ultras besser zu takten, denn

1.) mehr Spannung auf dem core vom Bios aus und außerdem selektiert
2.) Samsung GC16 (=600mhz) ram und nicht schwuler GC20 (=500mhz) wie auf der GT
3.) ich kenne die ramtimings-Hysterie und sie is völlig überzogen

4.) Warum werden dann die Weltrekorde immer mit den höchsten Karten gemacht, wenn die zweitschnellsten eh besser sind?

Warum erreicht dann eine normale 6800 Ultra 400/550 nur 180 fps und eine 6800 GT@Ultra 198 fps? Immerhin satte 18 fps mehr. Wenn ich die Ultra@440/600 takte erreiche ich knapp den selbem Wert@Naturebenchmark 2001 als auch den 3dmark2003? Das ist kein Blödsinn sondern Realität.

tombman
2004-12-31, 20:11:33
Warum erreicht dann eine normale 6800 Ultra 400/550 nur 180 fps und eine 6800 GT@Ultra 198 fps? Immerhin satte 18 fps mehr. Wenn ich die Ultra@440/600 takte erreiche ich knapp den selbem Wert@Naturebenchmark 2001 als auch den 3dmark2003? Das ist kein Blödsinn sondern Realität.

Du hast beide Karten und vergleichst auf dem selben System?

Gast
2004-12-31, 20:17:23
Du hast beide Karten und vergleichst auf dem selben System?

Ich hatte beide Karten ja und das System war absolut gleich. Hatte die Ergebnisse abgespeichert im Resultbrowser. Es kann aber natürlich sein das die jetzigen PCI-E Karten dieses Phänomen nicht mehr haben das kann ich nicht sagen. Aber ich vermute mal schon. Daher geht deine SLI Combo vieleicht schon ganz ordentlich.

TigersClaw
2004-12-31, 20:27:24
Ich besitze einen CRT, der 2048x1536 für Games durchaus noch brauchbar anzeigen kann. Muss ich jetzt auch SLI per se scheisse finden, nur weil ich's mir nicht leisten kann/will?

Is ja schön das er das kann, aber wer braucht das? Mein 18er TFT macht 1280x1024, ich spiele trotzdem maximal 1024x768, reicht völlig, und jedes Game ist superschnell.

tombman
2004-12-31, 20:28:00
Ich hatte beide Karten ja und das System war absolut gleich. Hatte die Ergebnisse abgespeichert im Resultbrowser. Es kann aber natürlich sein das die jetzigen PCI-E Karten dieses Phänomen nicht mehr haben das kann ich nicht sagen. Aber ich vermute mal schon. Daher geht deine SLI Combo vieleicht schon ganz ordentlich.

Hmm, und du bist sicher du hast keine Treiber gewechselt oder andere software dazwischen?

Aber is ja auch egal--- ULTRASSSS :D:D:D *gier*

Kann ja dann berichten ob es was gebracht hat :D

Gast
2004-12-31, 20:34:21
Hmm, und du bist sicher du hast keine Treiber gewechselt oder andere software dazwischen?

Aber is ja auch egal--- ULTRASSSS :D:D:D *gier*

Kann ja dann berichten ob es was gebracht hat :D

Dachte ich zunächst auch. Aber ich hatte zwei Ultra Karten zwischendurch zuerst die E-VGA und danach die MSI und beide Karten zeigten nahezu den gleichen Wert im Nature (ca. 180 fps)
Meine jetzige 6800 GT@Ultra liefert aber konstante 198,xx fps Aber nicht das der Eindruck entsteht es wäre nur im 3dmark der Fall auch bei den Games ließ sich der Zuwachs feststellen auch wenn nicht so arg mit 18fps Unterschied aber so 5-6 fps Unterschied sah man schon recht oft vor allem dann wenn FSAA und AF zum Zuge kam.

BK-Morpheus
2004-12-31, 20:40:25
Wer unbedingt noch das Stück Mehrperformance braucht, ist mit SLI sicher auf der sicheren Seite.

Ich persönlich kaufe mir dennoch lieber eine etwas bessere Karte als z.Bsp. 2mittelmäßige (weil ja viele nicht 2x6800U kaufen können, sondern lieber 2 6600GTs oder ähnliches, die dann nicht schneller sind als eine 6800GT) um dann bis zu 70% mehr Leistung zu haben, bei 100% mehr Abwärme, 100% mehr Stromverbrauch und 100% mehr Kosten.

Das Kaufen einer 6600GT und später iergendwann noch eine 6600GT ist zwar nett, aber wenn es dann soweit ist, dass die 6600GT überall verkackt und man eine 2te Karte kaufen möchte, da gibt's schon wieder Karten, die kaum mehr kosten, als eine weitere 6600GT und dabei mehr Leistung haben und evtl. wieder neue Features...

tombman
2004-12-31, 20:44:23
Dachte ich zunächst auch. Aber ich hatte zwei Ultra Karten zwischendurch zuerst die E-VGA und danach die MSI und beide Karten zeigten nahezu den gleichen Wert im Nature (ca. 180 fps)
Meine jetzige 6800 GT@Ultra liefert aber konstante 198,xx fps Aber nicht das der Eindruck entsteht es wäre nur im 3dmark der Fall auch bei den Games ließ sich der Zuwachs feststellen auch wenn nicht so arg mit 18fps Unterschied aber so 5-6 fps Unterschied sah man schon recht oft vor allem dann wenn FSAA und AF zum Zuge kam.

Aber wieso erreiche ich dann bei selbem GT Takt genau die selben Werte wie eine echte Ultra und nicht mehr?

Außerdem wäre es doch sehr schnell aufgefallen, wenn GT und Ultra die selbe Leistung hätten wenn sie übertaktet werden.

Das wäre doch durchs Internet gegangen wie eine Welle und jeder hätte das sofort gewußt... trotzdem haben aber alle freaks immer noch Ultras und keine GTs. (auch die Top 10 Leute) Die würden das doch nicht machen, wenn GTs in Wirklichkeit schneller sind, oder?

tombman
2004-12-31, 20:50:39
THG hat zb ECHTE Ultras zum SLi Test bekommen und dabei mit dem 66.93er gebenched, wie ich auch.

Und auf ultra Takt kam ich auch nicht höher (mit diesem Treiber) als THG.

Laut deiner Theorie müßte ich aber höher kommen, bin ich aber nicht.

Sprich selbe Ergebnisse bei selbem Takt.

Gast
2004-12-31, 20:57:28
Aber wieso erreiche ich dann bei selbem GT Takt genau die selben Werte wie eine echte Ultra und nicht mehr?

Gegenüber deiner alten 6800 Ultra ? Oder meinst du deiner jetzigen GT@Ultra?


Außerdem wäre es doch sehr schnell aufgefallen, wenn GT und Ultra die selbe Leistung hätten wenn sie übertaktet werden.

Mir ist es auch nicht sofort aufgefallen erst dann als ich bessere Ergebnisse bekam und mich selber wunderte. Und das kann ja kein Zufall sein wenn zwei Ultra Karten den selben Effekt zeigen oder? Da würdest du auch stutzig werden oder?

Das wäre doch durchs Internet gegangen wie eine Welle und jeder hätte das sofort gewußt... trotzdem haben aber alle freaks immer noch Ultras und keine GTs. (auch die Top 10 Leute) Die würden das doch nicht machen, wenn GTs in Wirklichkeit schneller sind, oder?

Die meisten Poweruser holen sich doch gleich Ultras die würden das womöglich garnicht mitbekommen. Man kann ja nicht generell sagen das eine 6800 GT schneller ist denn nicht jede macht auch Ultra Takt oder mehr mit.

Kenny1702
2004-12-31, 22:05:10
Is ja schön das er das kann, aber wer braucht das? Mein 18er TFT macht 1280x1024, ich spiele trotzdem maximal 1024x768, reicht völlig, und jedes Game ist superschnell.
Wenn ich etwas habe, was mir gewisse Möglichkeiten einräumt, warum sollte ich die nicht nutzen. Ich habe einen 17" TFT und spiele grundsätzlich wenn möglich in 1280*1024.

BK-Morpheus
2005-01-01, 15:31:34
Wenn ich etwas habe, was mir gewisse Möglichkeiten einräumt, warum sollte ich die nicht nutzen. Ich habe einen 17" TFT und spiele grundsätzlich wenn möglich in 1280*1024.
außerdem würde ich bei einem TFT immer versuchen in der nativen Auflösung zu zocken um die bestmögliche Schärfe zu haben.

MarcWessels
2005-01-01, 19:13:29
THG hat zb ECHTE Ultras zum SLi Test bekommen und dabei mit dem 66.93er gebenched, wie ich auch.

Und auf ultra Takt kam ich auch nicht höher (mit diesem Treiber) als THG.

Laut deiner Theorie müßte ich aber höher kommen, bin ich aber nicht.

Sprich selbe Ergebnisse bei selbem Takt.


GT-Biosse sind im Schnitt 5% schenller als Ultrabiosse.

Für einen GT-Besitzer ist es also keine Frage, ob er mit einem Ultra-Bios oder mit einem GT-Bios @ 1.4V übertakten sollte.

Eine echte Ultra wird sich aufgrund der besseren Stromversorgung (zumindest i ist das bei den AGP-Versionen so) weiter übertakten lassen, beispielsweise auf 470/1300MHz, wird dann aber mit einem GT-Bios geflasht trotzdem @ 446/1240 dieslbe Performance haben und dabei weniger Hitze entwickeln.

MarcWessels
2005-01-01, 19:24:06
Ich möchte mal behaupten daß der "normale" etwas interessierte Zocker im Moment gerade mal den Sprung von 1024x768 CRT zum 1280er TFT macht oder im letzten Jahr gemacht hat. Diese recht große Gemeinde darf sich mit Fug und Recht die Frage nach dem Sinn von SLI stellen.

1.Schlimm genug.

2.Doch, doch, in 1280x1024 und dann am Besten noch mit 16xAF + 4xAA ist doch schon jetzt bei vielen Spielen mit einer einzigen Karte Ende im Gelände wenn es tatsächlich ruckelfrei sein soll.

Coda
2005-01-01, 23:41:21
Der Screen ist reine Effekthascherei. Fraglich ob ich das überhaupt in einem Spiel sehen will. Überhaupt ist alles was ich bis jetzt an HDR gesehen habe eine total überzogene Lichtorgie. HL² machts da mit seinem "Fake" wesentlich stimmiger. Und darauf kommt es an. Und performant ist es auch noch.
Fraglich ist das überhaupt nicht, ich bin ziemlich sicher dass UE3 vollständig FP Framebuffer benützt.
Zur Lichtorgie: Seit wann ist Spielgrafik nicht überzogen? Ich finde das sieht ziemlich gut aus, egal ob realistisch oder nicht.
Und HL² faked kein HDR, es benützt nur HDR Cubemaps, was etwas völlig anderes ist als dieser Effekt. Aber auch das willst du ja anscheinend nicht kapieren.
Und zum Performanceverlust: Du gehst nicht ernsthaft immer noch von FarCry aus in der Hinsicht? :|

Demirug
2005-01-02, 00:18:17
Und HL² faked kein HDR, es benützt nur HDR Cubemaps, was etwas völlig anderes ist als dieser Effekt. Aber auch das willst du ja anscheinend nicht kapieren.

Wo sind den da HDR Cubemaps? Ich habe noch keine gesehen aber lasse mich gerne vom Gegenteil überzeugen.

Tigerchen
2005-01-02, 07:42:50
1.Schlimm genug.

2.Doch, doch, in 1280x1024 und dann am Besten noch mit 16xAF + 4xAA ist doch schon jetzt bei vielen Spielen mit einer einzigen Karte Ende im Gelände wenn es tatsächlich ruckelfrei sein soll.

1. Was heißt hier schlimm genug? Hat nicht jeder einen reichen Papa. Kannst du mitreden? Zahlst du schon für Miete, Strom, Wasser, Licht, Leasingrate und die Wünsche (z.B. 1600x1200 TFT) der lieben Kleinen?

2. Du gehörst eindeutig zur Zielgruppe denen eine einzelne 6800GT/Ultra nicht reicht. Ich gönn jedem seine Extravaganz. Dir auch. Nur rede dir nicht ein dies wäre normal für andere.

Tigerchen
2005-01-02, 07:51:25
Fraglich ist das überhaupt nicht, ich bin ziemlich sicher dass UE3 vollständig FP Framebuffer benützt.
Zur Lichtorgie: Seit wann ist Spielgrafik nicht überzogen? Ich finde das sieht ziemlich gut aus, egal ob realistisch oder nicht.
|

Der neuen Unreal-Engine sehe ich sehr gelassen entgegen. Schon bei UT2003 raunte man was von modernsten Shader-Effekten und was rauskam war DX7 Techlevel.

gnomi
2005-01-02, 11:46:09
Der neuen Unreal-Engine sehe ich sehr gelassen entgegen. Schon bei UT2003 raunte man was von modernsten Shader-Effekten und was rauskam war DX7 Techlevel.


Wer? Wann?
Quelle?
Ich habe nie eine in diese Richtung gehende Aussage von offizieller Seite gelessen. Es war meiner Meinung nach für alle Informierten zu jeder Zeit klar ersichtlich, daß es abseits von Beschleunigszwecken keinen Pixelshadereinsatz geben würde. (letztere Info kam IIRC auch erst um den Releasetermin herum)

zur UE3:
brauchbare Infos aus erster Hand gibt es hier:
http://www.unrealtechnology.com/html/technology/ue30.shtml
http://www.beyond3d.com/interviews/sweeneyue3/

SKYNET
2005-01-04, 14:37:19
Ausgerechnet Tombman - man siehe seine alte Signatur- als NVIDIA Fanboy zu bezeichnen, kann ich absolut nicht nachvollziehen.



Stimmt, SLI ist nix für normale Zocker mit normalem Geldbeutel.
Allerdings ist es sein Bier, was er in die Sig reinschreibt. Du brauchst es ja nicht zu lesen. Als er in seiner Sig drin stehen hatte

"X800XT-PE ist schneller als 6800 Ultra bei gleicher Bildqualität..."

hat es Dich ja anscheinend auch nicht gestört.


Wer extreme Auflösung mit HQ Settings will, wäre doch blöd, wenn er es sich erlauben kann aber darauf verzichten würde. Die Benchmarkergebnisse sagen alles.



*ROTFL* Hat hier jemand Fanboy gesagt...




tombs signatur hat damals aber nicht gestimmt, NV hat immer die bessere BQ, wird sich in zukunft auch net ändern, das kostet halt ein wenig performance.

weil bei gleicher BQ, sprich über die reg einträge dei BQ der ATI karte anheben verliert diese karte mal eben ca. 30% leistung und gammel damit auf niveau einer 6800GT rum... schon peinlich, 550€ karte soschnell wie ne 400€ karte der konkurenz.

weil tomb hat nämlich dicke tomatas @ glubscher.



wollte ich nurmal loswerden, achja, um die diskussion um sli mal weiter anzuheizen: meine beiden 6800GT's kommen noch diesen monat. ;D

wdragon
2005-01-04, 15:09:10
Was mich wieder mal beim THG-Test aufregt, daß nur 1024x768 und 1600x1200 Auflösungen getestet wurden.

Bei der heutigen Verbreitung von 17" und 19" TFTs wäre eine 1280x1024 momentan am aussagekräftigsten!

Tigerchen
2005-01-04, 16:13:32
Wer? Wann?
Quelle?
Ich habe nie eine in diese Richtung gehende Aussage von offizieller Seite gelessen. Es war meiner Meinung nach für alle Informierten zu jeder Zeit klar ersichtlich, daß es abseits von Beschleunigszwecken keinen Pixelshadereinsatz geben würde. (letztere Info kam IIRC auch erst um den Releasetermin herum)

zur UE3:
brauchbare Infos aus erster Hand gibt es hier:
http://www.unrealtechnology.com/html/technology/ue30.shtml
http://www.beyond3d.com/interviews/sweeneyue3/

Infos?
Seit wann bezieht man Infos direkt vom Hersteller? Wenn all das stimmen sollte was Hersteller so über ihre Produkte verbreiten leben wird in einer Funny-bunny-glücklich-lilaLaune-Phantasiewelt.;D

HockleXX
2005-01-04, 16:14:37
Jep nicht jeder hat so ein Monitor wie MechWarrior.

Allerdings spüre ich hier wie man sein gekauftes Produkt am besten verteidigt....

Coda
2005-01-04, 16:24:10
Wo sind den da HDR Cubemaps? Ich habe noch keine gesehen aber lasse mich gerne vom Gegenteil überzeugen.
Zumindest in den Techdemos war davon was zu sehen. Im Spiel sind mir auch keine aufgefallen.
Aber ich wüsste nicht worauf Tigerchen sich sonst bezogen hat.

Der neuen Unreal-Engine sehe ich sehr gelassen entgegen. Schon bei UT2003 raunte man was von modernsten Shader-Effekten und was rauskam war DX7 Techlevel.
Also von Unreal weiß ich bescheid und davon war nie die Rede, das einzige was im vorraus gezeigt wurde waren Außenlevels mit jeder Menge Polygonen.

Schon allein für den Spherical Harmonic Lighting Einsatz und das Parallax Mapping braucht UE3 längere Shader.

gnomi
2005-01-04, 18:12:40
Infos?
Seit wann bezieht man Infos direkt vom Hersteller? Wenn all das stimmen sollte was Hersteller so über ihre Produkte verbreiten leben wird in einer Funny-bunny-glücklich-lilaLaune-Phantasiewelt.;D


Wer weiß wohl am besten über die UE3 Bescheid?
Es ist alles andere als unüblich, Infos (auch) vom Publisher/Entwickler einzuholen- erst recht bei in Entwicklung befindlichen Sachen.

Letztendlich kommt es quasi immer darauf an, wie man mit dem Gesagten umgeht. (und hier sollte dann die Skepsis einsetzen)
Der logische Verstand sagt einem ja mehr oder weniger klar, daß es immer viele Punkte zu beachten gilt. Als da wären in diesem Fall z.B.:
a) einiges wird kreativ bezeichnet/marketingtechnisch schön geredet werden
b) es werden üblicherweise oftmals nur/eher Dinge genannt, über die man reden möchte
c) die Features der Engine können zumeist nur in Teilen ihre Anwendung im ersten Spiel finden.
d) Was der Entwickler vorzuweisen hat, und was ich persönlich davon halte, spielt in diesen Fällen auch immer eine große Rolle.

Die featureseitigen Infos (DX 9 Techlevel; Verzicht auf Fallbacklösungen z.B.) zur UE3 auf diesen Seiten kommen aus erster Hand und sind meiner Meinung nach äußerst interessant und sehr wohl brauchbar.
Darüber, wie gut die Engine nun vergleichsweise letztendlich wird, (oder gar, wie schön die auf der Engine basierenden Spiele sein sollten) kann man hingegen schön weiter spekulieren.
Hier gibt es außschließlich Infos zur eingesetzten Technik.

Jesus
2005-01-04, 18:33:57
tombs signatur hat damals aber nicht gestimmt, NV hat immer die bessere BQ, wird sich in zukunft auch net ändern, das kostet halt ein wenig performance.

ROFL!

weil bei gleicher BQ, sprich über die reg einträge dei BQ der ATI karte anheben verliert diese karte mal eben ca. 30% leistung und gammel damit auf niveau einer 6800GT rum... schon peinlich, 550€ karte soschnell wie ne 400€ karte der konkurenz.

Die 30% Verliert vielleicht eine NV Karte durch deaktivierung der Filteroptimierungen, bei ATI tat sich dagegen ziemlich wenig (5% war mal B3D AI Test afaik... ).

Nur weiter so :up:

Edit: war nicht B3D, muss mal raussuchen...