Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~30fps) spielbar sein?


Seiten : 1 2 [3] 4

dreamweaver
2007-08-29, 22:22:29
Zoomt doch mal mit einem Zielfernrohr auf Büsche/Bäume, dann gehen die FPS endgültig dahin. Hier meine neue Lieblingsstelle.
Von 88 auf 11 FPS :udown: . Und das bei niedrigen Einstellungen.

http://img117.imageshack.us/img117/5853/arma2007082720073009resch1.jpg (http://imageshack.us)

http://img407.imageshack.us/img407/3272/arma2007082720074034resgh8.jpg (http://imageshack.us)

Nur gut, das ARMA ein Spiel ist, wo das Zielen per Zielfernrohr äusserst selten vorkommt. :rolleyes:

Snoopy69
2007-08-29, 22:28:10
Und das zu beurteilen bräuchte ich die Vollversion und am besten noch das saved Game. So könnte man richtig vergleichen.

Cubitus
2007-08-29, 22:35:07
Wieviel Optionen habt ihr bei Post Processing. Niedrig, Hoch, Sehr Hoch? Ich weiss nur das das Post Processing früher als niedrig und hoch gab. Bei 1,08 gib es das auch als sehr hoch. Mit "nur" hoch komme ich von 11FPS auf 19FPS.

Also soweit hab ich alles auf "sehr hoch" gestellt

@koNan

habs bei uns in der Stadt auch schon für 25 Euro neu gesehen.
ist echt mal ne Überlegung Wert :)

Deathcrush
2007-08-29, 22:38:58
Ich frage deshalb, da das Post Processing vor 1,08 nur als niedrig und Hoch gab ;) und die Demo ja 1.5 ist.

Arma lohnt sich echt ;) Aber man muss Geduld mit bringen. Ist kein Quake :D

ZapSchlitzer
2007-08-29, 22:56:55
Jungs, ihr wisst schon um was es in diesem Thread geht ;)

Cubitus
2007-08-29, 22:58:41
Ich frage deshalb, da das Post Processing vor 1,08 nur als niedrig und Hoch gab ;) und die Demo ja 1.5 ist.

Arma lohnt sich echt ;) Aber man muss Geduld mit bringen. Ist kein Quake :D

habs gemerkt^^ besonders in der dritten Singel Player Map wo man selbst ein Sqaud dirigieren darf.

jay.gee
2007-08-29, 23:43:28
Ich hoffe doch, ihr habt beim Testen neben den Details auch die Sichtweite bis zum Anschlag gedreht. Wenn ja, einfach mal im Tiefflug richtung Waldgebiete und Vegetation fliegen. :biggrin:

Deathcrush
2007-08-29, 23:48:30
Die können ja in der Demo nicht einmal alles auf highest knallen ;) Z.B Landschaftsdetails nur auf "Normal"

jay.gee
2007-08-30, 00:01:20
Die können ja in der Demo nicht einmal alles auf highest knallen ;) Z.B Landschaftsdetails nur auf "Normal"

Hört sich ja fast wie "Crysis on GC 2007" an - um mal wieder zurück zum Thema zu kommen. ;)

Snoopy69
2007-08-30, 00:14:02
@ jay|gee

Sichtweite ist auf max. 10.000m
Trotzdem muss ich es nochmals wieder holen. Wenn 1920x1200 + alles hoch eingestellt wird setzen sich GTX-Karten von der GTS noch stärker ab. Bei einer mittelmäßigen Auflösung von nur 1280x1024 liegen beide dichter beisammen. Ich hab alles nötige hier, um das alles zu testen.

jay.gee
2007-08-30, 00:20:52
@ jay|gee

Sichtweite ist auf max. 10.000m

Wie gesagt, je nach Terrain skaliert die Performance gewaltig. Im Wüstensetting wird "kaum" Power gebraucht - in dichter Vegetation geht es dann richtig ab. Wer mal im Tiefflug in einem Kampfheli zwischen Bäumen geschützt versucht hat, sich im Terrain vorzuarbeiten, der müsste bestätigen, dass zb. ~30 Fps nicht das ist, was man als flüssiges Gameplay bezeichnen kann. Die Maschine ist dann eigentlich nicht mehr zu kontrollieren und man findet sich mit den Rotoren zwischen den Bäumen wieder. ;)

Snoopy69
2007-08-30, 00:25:38
Die Maschine ist dann eigentlich nicht mehr zu kontrollieren und man findet sich mit den Rotoren zwischen den Bäumen wieder. ;)
Und das soll gut sein? :rolleyes:
Um welche Einstellung geht es da genau?

incM
2007-08-30, 07:06:07
Das mag ja durchaus sein das es flüssig lief. Aber das Spiel wurde in DX9 gezeigt, ohne AA und AF und ohne Angabe des Detailgrades ;)

AF ist immer drin- laesst sich sogar objekt/texturbereichsweise einstellen

Deathcrush
2007-08-30, 07:37:45
Und das soll gut sein? :rolleyes:
Um welche Einstellung geht es da genau?

Du musst bedenken das Arma dank der Comunity ein Spiel auch für die Zukunft ist, es landet nicht wie viele andere Spiele nach 6 Monaten auf dem Müll. Und wenn man dann noch in 2 Jahren "BOA EY" sagen kann, ist das doch genial. Gleiches erhoffe ich mir für Crysis. Bei Far Cry hat es auch funkioniert. Nur weil DU damit nicht klar kommst, das deine 2500.- Maschine bei Max vielleicht keine konstante 60FPS hinbekommt, muss das nicht heissen das andere damit nicht klar kommen. Ich halte SLI eh für fragwürdig. Wenn man sich mal die GTS/GTX anschaut, ist eine genauso bzw schneller als ein SLI gespann der Vorgängergeneration. Es mag vielleicht Sinn machen bei 1900er Auflösung + AA. Aber dann ist man ja immer auf ein SLI gespann der neuesten Generation angewiesen :D und dann sollte sich derjenige auch nicht beschweren, das ein neues Spiel, mit der Hardware die 1 Jahr auf dem Buckel hat, nicht mehr flüssig läuft.

Snoopy69
2007-08-30, 07:43:40
Frag würdig würde ich nicht sagen, denn ich könnte ARMA noch flüssig spielen. Du müsstest dich mit einer Dia-Show zufrieden geben.

Deathcrush
2007-08-30, 07:49:12
Spiel ersteinmal die Full. Dann wirst auch die an stellen kommen die mit 20-25 fps rennen :P Versprochen.

Snoopy69
2007-08-30, 07:58:25
Ich werd da sowieso min. das Doppelte haben

Deathcrush
2007-08-30, 08:00:07
Das habe ich schon bei den 20-25FPS mit eingerechnet ;) Aber das diskutieren hat eh keinen Sinn, wenn derjenige glaubt das die Demo alles das zeigt was die Full zu bieten hat. Und wenn man nur glaubt das die FPS wegen der Sonneneinstrahlung so niedrig ist, hat es echt nicht begriffen :D Siehe Post #491 Du musst nur mal die MAP Geprügelter Hund spielen @max, die sehr stark Prozessorabhängig ist, da hab ich 13-14 FPS. Glaubst du wirklich das du da 4 mal mehr FPS hast :D :D :D.



P.S Landschaftsdetails von Normal auf Very High kostet bei mir 22% an Leistung

[dzp]Viper
2007-08-30, 08:00:59
Diskussion über ARma im Crysis Thread....

Wenn das mal net Offtopic ist :redface:

k0nan
2007-08-30, 10:16:39
Ich werd da sowieso min. das Doppelte haben

ich hoffe, die 69 ist nicht dein geburtsjahr, so kindisch kann man in dem alter gar nicht mehr sein, oder?!

Kai
2007-08-30, 10:46:03
Jetzt geht mal bitte wieder aufs Topic ein. Jedesmal wennd er Thread gepusht wird schauen ich und die anderen Crysis-Jünger hier rein ;) Ich will ja nicht unfreundlich wirken, aber ArmA hat in diesem Thread mal tatsächlich absolut nix verloren. Das nervt schon etwas, vor allem weils sich nun schon über anderthalb Seiten zieht.

FREAK23.de
2007-08-30, 13:41:00
wen man giga glauben schenkt, wird alles glatt laufen mit GTX un max. details..
siehe GC oder giga übertragung vor Ort, dort wurde ja Crysis mit na GTX un quadcore vorgestellt halt in directx 9, ok kleine lade ruckler waren schon dabei ^.. das wird schon

FREAK23.de
2007-08-30, 13:51:45
Crytek-Chef Cevat Yerli äusserte sich in der aktuellen PC Gamer-Ausgabe zu den Hardwareanforderungen von Crysis. Um den vielversprechenden Ego-Shooter auf ultrahoher Detailstufe zocken zu können, bedarf es demnach einer Core 2 Duo E6600-CPU, GeForce 8800 GTS (besser GTX) und zwei Gigabyte RAM.

Man sollte dies aber wohlgemerkt noch nicht als finale Anforderungen ansehen. Erstens ist Crysis ja noch in Arbeit, könnte also entsprechend noch performanceoptimiert werden. Zweitens kann "ultrahohe Detailstufe" auch eine besonders utopische Auflösung mit allen aktivierten Filtermodi bedeuten - in diesem Fall dürfte das Spiel auch auf deutlich schwächerer Hardware mit trotzdem exzellenter Grafik flüssig spielbar sein. Nehmt die obigen Systemangaben also besser als grobe Richtungsorientierung.

^

tombman
2007-08-30, 13:54:28
Viper;5799130']Diskussion über ARma im Crysis Thread....

Wenn das mal net Offtopic ist :redface:
Yepp, und machen die mods was dagegen? Nöööö :rolleyes:

Hehe, 205 zu 204... "ja" liegt vorn :D

FREAK23.de
2007-08-30, 13:56:19
;-) Jaaaaaaaa

Für alle die das Spiel schon auf der Games Convention angezockt haben und sich gefragt haben welche PCs dort verwendet wurden.

- CPU: Intel Core 2 Quad Q6600 (2,4 GHz, 8 MByte L2-Cache)
- VGA: einzelne Geforce 8800 GTX
- RAM: 2 GByte
- Auflösung: 1.280x960
- FSAA/AF: aus
- Direct X: Direct-X-9-Modus
- OS: Windows XP 64 Bit

Cubitus
2007-08-30, 13:59:12
Also das die Demo am 24.09 kommt steht doch fest ?
denn das "Fachpersonal" hier im Gamestop sagt es stimmt nicht, man wisse nichts von einer Demo :|

tombman
2007-08-30, 14:02:30
;-) Jaaaaaaaa

Für alle die das Spiel schon auf der Games Convention angezockt haben und sich gefragt haben welche PCs dort verwendet wurden.

- CPU: Intel Core 2 Quad Q6600 (2,4 GHz, 8 MByte L2-Cache)
- VGA: einzelne Geforce 8800 GTX
- RAM: 2 GByte
- Auflösung: 1.280x960
- FSAA/AF: aus
- Direct X: Direct-X-9-Modus
- OS: Windows XP 64 Bit
Die Auflösung stimmt ned. Die war nämlich 16:10 widescreen auf 1280x800...
(1280x960 = 4:3)
TFT war ein Dell 24"...

Logitech G15 und Dell 24" TFTs haben die Messe übrigens geowned ;)

Deathcrush
2007-08-30, 14:03:04
Wurde von EA doch schon off. bestätigt das eine Demo am 25en kommt.

Dadi
2007-08-30, 14:37:13
Die Auflösung stimmt ned. Die war nämlich 16:10 widescreen auf 1280x800...
(1280x960 = 4:3)
TFT war ein Dell 24"...

Logitech G15 und Dell 24" TFTs haben die Messe übrigens geowned ;)


Hmm Interpolationen sehen doch schick aus oder?
Aber ich nehme an die wollten das Ultra flüssig am Laufen haben, daher wenn die auch nichts optimieren kann man auch ein wenig hochschrauben an der Auflösung.

Christi
2007-08-30, 18:11:49
Wäre es flüssig in nativer Solution auf dem 24er hätte man es gemacht, mir sagt das, dass es eben in höheren Auflösungen net flüssig läuft. Das wird man IMHO auch net mehr optimieren können. Lieber die Auflösung auf der Messe reduzieren, als ein Käufer abschreckendes SLI Gespann in die Testrechner einbauen.

Den Grafikverlust bei abgeschwächten Details, aber nativer Auflösung, wäre bestimmt schlimmer gewessen, zur Vorstellung auf der GC, als die Interpolation in Kauf zu nehmen. Und die ist von 1900er auf 1280er Auflösung relativ hoch (was die Quali berifft).

Für mich werden sogar, in voller Pracht, Leute mit einer 8800GTX und einen weitverbreiteten 22zoll WS Probleme mit konstanten >30fps haben.

Werde das abwarten und die Demo beim Kumpel ausprobieren. Der hat nämlich eine 8800GTX, 24zoll TFT etc.. Übrigens muss der schon, bei längst releasten Spielen, Kompromise machen. Wenn man es genau will ist eine 8800GTX jetzt schon in hohen Auflösungen zu langsam.

MfG

tombman
2007-08-30, 18:33:52
Wenn man es genau will ist eine 8800GTX jetzt schon in hohen Auflösungen zu langsam.

Überall wo 19xx oder 16xx davorsteht = SLi Auflösung.

Snoopy69
2007-08-30, 19:32:58
Wenn man es genau will ist eine 8800GTX jetzt schon in hohen Auflösungen zu langsam.

MfG
Naja, immerhin muss seine GTX bei 1920x1200 ca. 75% mehr Pixel ansteuern als nur bei 1280x1024.

Ich kenne Leute, die auf 30" zocken. Das sind wahnsinnige 2560x1600 bzw. 4.096.000 Pixel!!! Und damit 312.5%!!! mehr Pixel als 1280x1024 oder immerhin noch 77,77% mehr als Full-HD 1920x1200...
Da wird es auch für ein fettes 8800 Ultra SLI + hohem OC sehr eng - zu eng!

Deathcrush
2007-08-30, 19:48:21
Wie ist das eigentlich. Ich habe zu Hause einen LCD TV HD Ready 720p. Über den VGA Eingang kann ich ihn nur mit 1024x768 ansteuern. Könnte ich mit einem DVI/HDMI Adapter ihn auch mit 720p ansteuern? Weil 1280 × 720 ist ja nicht so leistungshungrig wie 1280x1024 und Breitbild hätte ich dann ebenfalls mit dem LCD TV *g.

Snoopy69
2007-08-30, 20:01:28
Musst du probieren. Nur ob die Reaktionszeiten auch so toll sind wie bei einem PC-TFT?

Deathcrush
2007-08-30, 20:03:42
8ms dürften i.O sein. Box360/PS3 ging ja auch tadellos. Und als ich damals CS1.6 mit dem Laptop getestet hatte (VGA-Eingang 1024x768) konnte ich auch kein schlieren feststellen. Schade das ich den LCD über VGA nur mit 1024x768 ansteuern kann :(

Snoopy69
2007-08-30, 20:08:48
Glaub nicht an die 8ms - das ist nur Kundenfängerei. Hier findest du alles zu TFTs und TVs. http://prad.de/
Da wirst du sehen, dass die Herstellerangabe von den gemessenen Werten sehr stark abweichen kann - leider...

http://www.pcgameshardware.de/?menu=browser&article_id=608730&image_id=679722&show=original

Dadi
2007-08-30, 20:12:43
Ich werde am Anfang erstmal richtige 1280x1024 bzw 1280x (wide auflösung) wählen, wenn ich einmal nativ auf meinem TFT sehe, schmerzt es dann wenn es nicht flüssig läuft... daher mich stören die Interpolationen nicht so argh wenn ich die bessere Auflösung vorher nicht gesehen habe .Für mich ist eben das allerwichtigste FULL DETAILS, damit ich nichts verpasse.
Auflösungen sind für mich kein Problem, man sollte aber trotzdem was erkennen.

Was ich wissen wollte, kann ich in meinem Samsung BW226 nicht 1280x1024 4:3 zocken ohne dass er es zerrt? Ich meine dass die Seiten dunkel bleiben und mitt eben native 1280x1024 angesprochen werden?

Deathcrush
2007-08-30, 20:16:17
Das ist mir auch bewusst ;) Hab ja nicht erst seit gestern einen TFT/LCD. Aber selbst wenn er 16ms hat, ist es vollkommen i.O. Und wie gesagt, bei CS1.6 konnte ich kein schlieren feststellen. Mir gehts erst einmal um HDMI und ob ich ihn mit dem PC über DVI an HDMI mit 720p ansteuern kann.

Angiesan
2007-08-30, 20:22:14
Wie ist das eigentlich. Ich habe zu Hause einen LCD TV HD Ready 720p. Über den VGA Eingang kann ich ihn nur mit 1024x768 ansteuern. Könnte ich mit einem DVI/HDMI Adapter ihn auch mit 720p ansteuern? Weil 1280 × 720 ist ja nicht so leistungshungrig wie 1280x1024 und Breitbild hätte ich dann ebenfalls mit dem LCD TV *g.

Die Idee hatte ich auch schon :biggrin: ist aber an den starken Protesten
meiner Frau gescheitert.
Habe dann aber doch mal den Zweitrechner allerdings mit einer X800xt angeschlossen und :eek: CoD2 flüssig und auf 106cm ist schon geil aber leider nur zum Spielen. Arbeiten kannst du damit eher nicht. Bei meinem TV
war so ein Kabel dabei, ob das ein besonderes ist kann ich dir aber nicht sagen.

Grüße

Snoopy69
2007-08-30, 20:36:50
Über S-VHS müsste es auf jeden Fall gehen - nur eben nicht so scharf.
DVI- und HDMI ist ziemlich kritisch (empfindlich). Taugt zb der TV nix, dann wird das über DVI/HDMI auch nix.

Ich hab zb seit ein paar Tagen einen DVI/USB-Switch, der nicht ganz billg war (190€). Taugt der nix (meist billige Switches) dann hagelt es Pixelfehler (Pixelblitzen) oder es kommt garkein Bild. Leitung, Leitungslänge und die komponenten müssen schon stimmen.

derwalde
2007-08-30, 22:17:47
Überall wo 19xx oder 16xx davorsteht = SLi Auflösung.

kann ich zumindest bei stalker, titan quest und bioshock net behaupten. da performt meine übertaktete ultra ohne probs in 1920x1200 ;)

Brudertac
2007-08-30, 22:26:52
@derwalde

sorry für halbot, gibts irgendwo details zum lesen was man beim OC der 8800 beachten muss ? ich würde gerne mal meine GTX ein wenig Ocen...
Nimmt man gleich ein Bios oder erst mal "per hand" ?

Danke.

dargo
2007-08-30, 22:29:32
Wie ist das eigentlich. Ich habe zu Hause einen LCD TV HD Ready 720p. Über den VGA Eingang kann ich ihn nur mit 1024x768 ansteuern. Könnte ich mit einem DVI/HDMI Adapter ihn auch mit 720p ansteuern? Weil 1280 × 720 ist ja nicht so leistungshungrig wie 1280x1024 und Breitbild hätte ich dann ebenfalls mit dem LCD TV *g.
Warum nutzst du nicht 1280x720 oder 1280x800 auf deinem TFT? Einfach im Treiber "keine Skalierung" einstellen und schon passt alles. Wegen der Größe?

Was ich wissen wollte, kann ich in meinem Samsung BW226 nicht 1280x1024 4:3 zocken ohne dass er es zerrt? Ich meine dass die Seiten dunkel bleiben und mitt eben native 1280x1024 angesprochen werden?
Ich weiß jetzt nicht wie das bei den WS Displays und den NV Treibern klappt. Bei meinem 19" TFT kann ich aber jede beliebige Auflösung <1280x1024 ohne zu interpolieren nutzen.

Deathcrush
2007-08-30, 22:35:00
Na ja, auf nen 19 Zöller oben und unten einen Balken muss ich nicht haben. Und wenn der 32" LCD vorhanden ist, warum nicht mal testen ^^. Schön auf dem Sessel mit M&T zocken + Dolby hat doch was ;) Ausserdem wäre das noch für Spiele wie Bioshock, Lost Planet, R6 Vegas und Colin Dirt interessant. Da die Spiele ja von Haus aus den XBox Controller unterstützen. Und gegen Padsteuerung, auch bei einem Shooter, habe ich absolut nichts. So lange ich CSS mit Maus und Tastatur zocken kann ^^ Die Atmosphäre auf nem 32" + Sessel und Dolby ist einfach eine ganz andere, als vor nem TFT mit Schreibtisch und Kopfhörer ;)


FEAR z.B hab ich auf dem PC nie durchgespielt, auf der Box hab ich es verschlungen. Eine viel bessere Atmosphäre auf nem 32Zoll, Sessel mit decke und Dolby

Snoopy69
2007-08-30, 22:41:22
@derwalde

sorry für halbot, gibts irgendwo details zum lesen was man beim OC der 8800 beachten muss ? ich würde gerne mal meine GTX ein wenig Ocen...
Nimmt man gleich ein Bios oder erst mal "per hand" ?

Danke.
Natürlich erstmal per Hand mit Rivatuner oder ATI-Tool.
Gleich ein anderes (gemoddetes) BIOS zu nehmen kann tödlich für die Karte sein.

@ Deathcrush

Wie weit hast du da vom 32" weggesessen? Ich sitze so ca. 70cm vom 24" weg. Ich hätte nicht gedacht, dass man sich an die Grösse so schnell gewöhnt. 30" (nur als TFT nicht TV) würde mich auch reizen. Aber die Datenmenge von 2560x1600 ist einfach zu enorm (sind ja 312,5% mehr im gegensatz zu 1280x1024) ;(

Deathcrush
2007-08-31, 08:39:31
Grobgeschätzte 2m. Halt das es gemütlich ist und man alles überblicken kann. Hatte schon vor, das Teil auf dem Schreibtisch zu stellen bzw an die Wand zu hängen und mein altene 16/9 100HZ TV wieder zum Fernseh gucken. Aber kannst dir ja vorstellen was die Frau dazu gesagt hat ^^. Nada, du spinnst wohl :D Die Farben und der Kontrast sind auf dem LCD TV auch einfach viel besser als auf meinem 19" TN Panel :D


P.S In ein paar Wochen kommt ja das SP1 (BETA) für Windows Vista. Mit dem SP1 soll ja auch schon das neue DX10.1 kommen. Wird das auch schon in der Beta vorhanden sein und sollte das vielleicht die überraschung seitens Crytek sein, das das Spiel vielleicht schon DX10.1 unterstützt :D? *Gerüchteküche*

dargo
2007-08-31, 10:34:44
P.S In ein paar Wochen kommt ja das SP1 (BETA) für Windows Vista. Mit dem SP1 soll ja auch schon das neue DX10.1 kommen. Wird das auch schon in der Beta vorhanden sein und sollte das vielleicht die überraschung seitens Crytek sein, das das Spiel vielleicht schon DX10.1 unterstützt :D? *Gerüchteküche*
Nichts besonderes.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=374502

Deathcrush
2007-08-31, 11:05:17
War dem nicht so das in DX10.1 auch AA vorgeschrieben ist, also das das Spiel AA unterstützen muss *. Und wer weiss was noch mit Shader4.1 vorgeschrieben wurde. Den Schweinen traue ich alles zu :D :D

EDIT: Und sollte mit DX10.1 nicht auch die miese Perfomance behoben werden?


*DirectX10.1 bringt eine Reihe von Neuerungen mit sich. Die Hersteller der Grafikkarten müssen nun sich nun stärker an den von Microsoft festgelegten Vorgaben für DirectX-Produkte halten, vor allem was die Bildqualität angeht.

dargo
2007-08-31, 11:30:39
War dem nicht so das in DX10.1 auch AA vorgeschrieben ist, also das das Spiel AA unterstützen muss *.

Nein, die Hardware muss nur min. 4xAA unterstützen. Was eh Quatsch ist, ATIs und NVs DX10 GPUs können das eh schon.


EDIT: Und sollte mit DX10.1 nicht auch die miese Perfomance behoben werden?

Nein. :D

[dzp]Viper
2007-08-31, 11:41:09
Bei dem Pool ist eindeutig was faul.... :|

Es wachsen beide Balken schön gleichmäßig.. nie mehr als 1-2 Stimmen unterschied!

Deathcrush
2007-08-31, 11:58:33
Nein. :D

Och menno :D Na ja, mal schaun was MS mit dem SP1 anstellt, die Perfomance soll ja gesteigert werden. Vielleicht wird ja noch was aus dem Wunder-OS Vista. Ich weiss noch wie MS damlas gepralt hat, das sogar DX9 Spiele unter Vista schneller laufen sollen als unter XP :D

TobiWahnKenobi
2007-08-31, 11:58:35
Na ja, auf nen 19 Zöller oben und unten einen Balken muss ich nicht haben. Und wenn der 32" LCD vorhanden ist, warum nicht mal testen ^^. Schön auf dem Sessel mit M&T zocken + Dolby hat doch was ;) Ausserdem wäre das noch für Spiele wie Bioshock, Lost Planet, R6 Vegas und Colin Dirt interessant. Da die Spiele ja von Haus aus den XBox Controller unterstützen. Und gegen Padsteuerung, auch bei einem Shooter, habe ich absolut nichts. So lange ich CSS mit Maus und Tastatur zocken kann ^^ Die Atmosphäre auf nem 32" + Sessel und Dolby ist einfach eine ganz andere, als vor nem TFT mit Schreibtisch und Kopfhörer ;)


FEAR z.B hab ich auf dem PC nie durchgespielt, auf der Box hab ich es verschlungen. Eine viel bessere Atmosphäre auf nem 32Zoll, Sessel mit decke und Dolby

davon rede ich ja seit ewigkeiten. sofa- oder sesselzocken auf dem HDTV im heimkino rockt.. auf der xbox sowieso und seit die games unter vista auch das xbox-pad nativ unterstützen kommt dem sofa ein ganz anderer stellenwert zu - habe mir extra ein neues gekauft (sofa, nicht pad ;) ).

es ist nur schade, dass man sich an die größe der glotze schnell gewöhnt.. groß erscheint mir mein 40" gerät heute nur noch, wenn ich bei anderen leuten zu besuch bin, die weniger diagonale haben.. aber es gibt für zockwochenenden ja noch den projektor-betrieb mit 2,5m :)


(..)

mfg
tobi

Undertaker
2007-08-31, 12:06:22
Viper;5802202']Bei dem Pool ist eindeutig was faul.... :|

Es wachsen beide Balken schön gleichmäßig.. nie mehr als 1-2 Stimmen unterschied!

das liegt einfach an der absolut sinnlosen fragestelung, dadurch bekommt man eine recht exakte 50/50 verteilung, als ob man einfach 400x eine münze wirft ;D

Deathcrush
2007-08-31, 12:17:52
Jap, hätte man von Anfang gesagt 1280x1024 2AA/8AF @Max Details wäre die Umfrage ganz anders gelaufen.

Christi
2007-08-31, 12:36:25
Für mich hat die Mehrheit für nein gestimmt:)
Da hier im Forum der G80 weitverbreitet ist, sind die G80 User doch befangen bei ihrer Abstimmung.
Haben für die Karte haufenweise Kohle bezahlt und stimmen für ja (irgendwie logisch). Man wäre ja auch entäucht wenns net so wäre.
Die die für nein getippt haben, werden IMHO recht behalten. Denn wer eine G80 im Rechner werkeln hat, müsste min. einen 22zoll WS oder größer besitzen. Alles andere ist IMHO Geldverschwendung.

Ich meine, dass es in den hohen Auflösungen net ohne Abstriche flüssig läuft. Die GC und die doch geringe Vorführ-Auflösung sind mir Beweis genug.

MfG

dargo
2007-08-31, 12:39:30
Denn wer eine G80 im Rechner werkeln hat, müsste min. einen 22zoll WS oder größer besitzen. Alles andere ist IMHO Geldverschwendung.

Mal wieder völliger Unsinn!

TobiWahnKenobi
2007-08-31, 12:49:28
Mal wieder völliger Unsinn!

stimmt - ich habe am schreibtisch auch nur 21" WS und die pixel sind die gleichen, wie bei 22" ;) nur feiner und nicht durch ein ekliges TN-panel realisiert.


(..)

mfg
tobi

dargo
2007-08-31, 13:02:13
stimmt - ich habe am schreibtisch auch nur 21" WS und die pixel sind die gleichen, wie bei 22" ;) nur feiner und nicht durch ein ekliges TN-panel realisiert.

So war das nicht gemeint. Ich wüsste nicht was gegen einen 17-19" TFT mit 1280x1024 und einem G80 sprechen sollte. Der G80 bietet BQ Features mit denen man ihn selbt in dieser Auflösung locker seine Grenzen zeigen kann.

TobiWahnKenobi
2007-08-31, 13:06:31
So war das nicht gemeint. Ich wüsste nicht was gegen einen 17-19" TFT mit 1280x1024 und einem G80 sprechen sollte. Der G80 bietet BQ Features mit denen man ihn selbt in dieser Auflösung locker seine Grenzen zeigen kann.

ich weiß jetzt nicht, wie er sich unter 1280x1024 pixeln verhält, aber für die 1680er auflösung möchte ich nicht weniger grakapower haben..


(..)

mfg
tobi

Christi
2007-08-31, 13:28:40
So war das nicht gemeint. Ich wüsste nicht was gegen einen 17-19" TFT mit 1280x1024 und einem G80 sprechen sollte. Der G80 bietet BQ Features mit denen man ihn selbt in dieser Auflösung locker seine Grenzen zeigen kann.


Deine Meinung- und die akzeptiere ich. Meine Meinung ist, eine z.B. 8800GTX und ein 19zoll TFT (von 17zoll rede ich mal net) sind Schwachfug hoch 10

Auflösung ist nunmal das wahre, und das man, wegen des kleinen TFT, die AA & AF zum Erbrechen hochschraubt- damit die 8800 Sinn macht halte ich für lächerlich.
Für die Graka massig Geld ausgeben und am Monitor sparen. Naja jedem das seine. Übrigens gibts schon gute 22zoll mit einer ordentlichen Auflösung für ca. 300€.

Deathcrush
2007-08-31, 13:32:06
Gerüchte zur G92 reissen nicht ab :D Mal schaun wer am ende Recht behält und ob Crysis mit einer 8800GTX @MAX/1280x1024 2AA/8AF flüssig rennt

Zitat:
Dort heisst es, der neue Chip hätte ein 384 Bit breites Speicherinterface mit 768 MB RAM, genau wie die bisherigen 8800 GTX- und Ultra-Karten. Auch das verwendete Board sei nahezu identisch. Die Leistung soll die einer 8800 Ultra deutlich übertreffen und damit sei der G92 kein Ersatz für die bisherigen 8800 GTS-Karten, sondern ein High-End-Chip.

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1473371/nvidia.html

TobiWahnKenobi
2007-08-31, 13:32:11
Deine Meinung- und die akzeptiere ich. Meine Meinung ist, eine z.B. 8800GTX und ein 19zoll TFT (von 17zoll rede ich mal net) sind Schachfug hoch 10

Auflösung ist nunmal das wahre, und das man, wegen des kleinen TFT, die AA & AF zum Erbrechen hochschraubt- damit die 8800 Sinn macht halte ich für lächerlich.
Für die Graka massig Geld ausgeben und am Monitor sparen. Naja jedem das seine. Übrigens gibts schon gute 22zoll mit einer ordentlichen Auflösung für ca. 300€.
das ist nichts gutes.. egal, wie man "gut" dreht, windet oder auslegt.


(..)

mfg
tobi

dargo
2007-08-31, 13:43:33
Deine Meinung- und die akzeptiere ich. Meine Meinung ist, eine z.B. 8800GTX und ein 19zoll TFT (von 17zoll rede ich mal net) sind Schachfug hoch 10

Ich werde dich nochmal daran erinnern wenn die ersten Spiele kommen bei denen ein G80 nicht mehr für 22" WS reicht. ;)

Für die Graka massig Geld ausgeben und am Monitor sparen. Naja jedem das seine.
Das hat nichts mit Geld am Monitor sparen zu tun, sondern mit einem gesunden Menschenverstand. Sehe es mal so, mit einem 17-19" TFT wirst du in 1280x1024 länger Spaß mit einem G80 haben als mit 22" und 1680x1050. So einfach ist das. ;)

tombman
2007-08-31, 13:51:43
Die GC und die doch geringe Vorführ-Auflösung sind mir Beweis genug.

Weil die GC Version ja schon fertig optimiert war... :rolleyes:

Christi
2007-08-31, 14:36:34
Weil die GC Version ja schon fertig optimiert war... :rolleyes:


Für mich ist sie das zum großen Teil. Aus der Vergangenheit weiß man ja was die Entwickler in so kurzer Zeit noch schaffen- meist garnix.
Bugs beseitigen wird oberste Priorität haben.

@TobiWahnKenobi

Z.B. der Samsung Syncmaster 226BW ist ein einwandfreies Gerät
http://geizhals.at/deutschland/a234794.html
und wie geschaffen für eine 8800er:)

Hier übrigens der Test von Prad Expertenurteil "gut"
http://www.prad.de/new/monitore/test/2007/test-samsung-226bw.html#Einleitung


MfG

tombman
2007-08-31, 14:40:53
Für mich ist sie das zum großen Teil. Aus der Vergangenheit weiß man ja was die Entwickler in so kurzer Zeit noch schaffen- meist garnix.
Bugs beseitigen wird oberste Priorität haben.

Die Version lief aber auch ned gerade am letzten Drücker, da war fps-mäßig noch Luft nach oben....

The_Invisible
2007-08-31, 14:45:11
Für mich ist sie das zum großen Teil. Aus der Vergangenheit weiß man ja was die Entwickler in so kurzer Zeit noch schaffen- meist garnix.
Bugs beseitigen wird oberste Priorität haben.

@TobiWahnKenobi

Z.B. der Samsung Syncmaster 226BW ist ein einwandfreies Gerät
http://geizhals.at/deutschland/a234794.html
und wie geschaffen für eine 8800er:)

MfG

da bleib ich doch lieber bei meinem schnuckeligen 20" pva mit kleineren pixeln. interessant wirds sowieso erst wieder bei 23/24" mit 1920x1200.

mfg

jay.gee
2007-08-31, 16:02:22
Vergangenheit weiß man ja.....


In diesem Thread darfst Du mit Paradebeispielen aus der Vergangenheit nicht kommen - sie werden in der Regel unter den Teppich gekehrt. Hier wird das nachgeplappert, was die Industrie vorgibt. ;)

TobiWahnKenobi
2007-08-31, 16:09:02
@TobiWahnKenobi

Z.B. der Samsung Syncmaster 226BW ist ein einwandfreies Gerät
http://geizhals.at/deutschland/a234794.html
und wie geschaffen für eine 8800er:)

Hier übrigens der Test von Prad Expertenurteil "gut"
http://www.prad.de/new/monitore/test/2007/test-samsung-226bw.html#Einleitung


MfG

ne lass mal.. mit TN-paneln kannst du mich um die häuser jagen und mein 21"-S-PVA kann ne ganze menge mehr als diese 22"-TN-gurke^^.

was die experten angeht, so frage ich lieber die experten, die hier im haus sind. es laufen ja genug rum.


(..)

mfg
tobi

dargo
2007-08-31, 16:20:18
Zitat:
Dort heisst es, der neue Chip hätte ein 384 Bit breites Speicherinterface mit 768 MB RAM, genau wie die bisherigen 8800 GTX- und Ultra-Karten. Auch das verwendete Board sei nahezu identisch. Die Leistung soll die einer 8800 Ultra deutlich übertreffen und damit sei der G92 kein Ersatz für die bisherigen 8800 GTS-Karten, sondern ein High-End-Chip.

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1473371/nvidia.html
Glaube ich nicht, dagegen spricht das:
http://www.hardtecs4u.com/?id=1188487983,73145,ht4u.php

Und auch Ailuros (dem ich übrigens was neue NV GPUs angeht mehr vertraue als irgendwelchen wilden Spekulationen im Web) im G90 Thread ist der Meinung, dass nur eine G92GX2 die G8800GTX in diesem Jahr noch schlagen kann. Ein G92 soll laut Ailuros auch deutlich unter 600 Millionen Transistoren verschlingen. Wie soll dann ein einzelner G92 die G8800GTX deutlich schlagen? ;)

Bugs beseitigen wird oberste Priorität haben.

Ruckler beseitigen zählt für mich auch in die Kategorie Bugs. Diese müssen nicht zwangsläufig aus fehlender Leistung resultieren.

Deathcrush
2007-08-31, 16:47:13
Glaube ich nicht, dagegen spricht das:
http://www.hardtecs4u.com/?id=1188487983,73145,ht4u.php

Und auch Ailuros (dem ich übrigens was neue NV GPUs angeht mehr vertraue als irgendwelchen wilden Spekulationen im Web) im G90 Thread ist der Meinung, dass nur eine G92GX2 die G8800GTX in diesem Jahr noch schlagen kann. Ein G92 soll laut Ailuros auch deutlich unter 600 Millionen Transistoren verschlingen. Wie soll dann ein einzelner G92 die G8800GTX deutlich schlagen? ;)


Ruckler beseitigen zählt für mich auch in die Kategorie Bugs. Diese müssen nicht zwangsläufig aus fehlender Leistung resultieren.

Für mich spricht schon alleine die Tatsache gegen einen langsameren Chip, da erstens die 8800GTX schon ein Jahr auf dem Markt ist (ab Nov.). Und zweitens, wieso sollte man noch eine Karte herausbringen, die sich zwischen einer GTS und GTX setzt? Zwischen der GTX und GTS sind ca. 30% Leistungsunterschied. Warum also sollte man also eine Graka herausbringen, die 15% schneller als die GTS ist und sich somit zwischen eine GTX und GTS 640 positioniert. Marketingtechnisch absoluter blödsinn und wenig Sinnvoll. Einzige Änderung die ich mir vorstellen kann/könnte ist eine Karte die sich zwischen einer 8600er und 8800GTS setzt. Aber mit einer 8800GTS 320 ist diese Lücke auch schon Sinnvoll geschlossen.

Fasse ich mal zusammen.

Ein Karte die zwischen einer 8800GTS und 8800GTX liegt = blödsinn
Ein Karte die zwischen einer 8600 und 8800GTS liegt = blödsinn, da kann man gleich zur 8800 320 greifen

dargo
2007-08-31, 16:51:15
Für mich spricht schon alleine die Tatsache gegen einen langsameren Chip, da erstens die 8800GTX schon ein Jahr auf dem Markt ist (ab Nov.). Und zweitens, wieso sollte man noch eine Karte herausbringen, die sich zwischen einer GTS und GTX setzt? Zwischen der GTX und GTS sind ca. 30% Leistungsunterschied. Warum also sollte man also eine Graka herausbringen, die 15% schneller als die GTS ist und sich somit zwischen eine GTX und GTS 640 positioniert. Marketingtechnisch absoluter blödsinn und wenig Sinnvoll.
Falsch, sowas nennt sich Kostenersparnis bzw. Gewinnmaximierung. ;)
Sollte der 65nm Fertigungsprozess später sehr gut laufen wird man zwangsläufig einen 90nm G80 fallen lassen. Wozu teure GPU noch produzieren wenns billiger geht?

Zu der GTX und einem Jahr auf dem Markt - du siehst gerade was passiert wenn die Konkurrenz nicht mithalten, bzw. mehr bieten kann.

Edit:
Wer sagt denn, dass es nur einen G92 geben wird? ;)

Snoopy69
2007-08-31, 16:56:36
da bleib ich doch lieber bei meinem schnuckeligen 20" pva mit kleineren pixeln. interessant wirds sowieso erst wieder bei 23/24" mit 1920x1200.

mfg
Die 24er sind aber auch nicht langsam. Mein alter Sony SDM-S94 hat bei der Reaktionszeit ganz schön das Nachsehen. Damit meine ich aber nicht die Herstellerangabe, die eh NIE stimmt, sondern des gemessene Wert. ist jedenfalls ein Unterschied wie Tag und Nacht. Nix mehr mit Schlieren.
Einer, der ganz vorne als 24er steht ist der BenQ FP241W mit echten, gemessenen 19ms. Nur der Eizo S2410W(K) mit 18ms ist minimal schneller. Nachteil - er ist schweineteuer (aber saugutes Bild) und unterstützt leider kein HDCP. Naja, ist ja auch schon 2 jahre alt - aber trotzdem der schnellste 24er zum Zocken.

@ Deathcrush

Das mit den 30% zw. GTX und GTS ist mir zu pauschal, da die Spanne sehr stark von der Auflösung abhängt, wie ich dir ja bewiesen hab. Lasse die GTS @ 2560x1600 laufen und gegen eine GTX antreten, dann werden aus den 30% wesentlich mehr Prozent - versprochen! ;)

Meryl Silverburgh
2007-08-31, 17:02:54
ne lass mal.. mit TN-paneln kannst du mich um die häuser jagen und mein 21"-S-PVA kann ne ganze menge mehr als diese 22"-TN-gurke^^.

was die experten angeht, so frage ich lieber die experten, die hier im haus sind. es laufen ja genug rum.


Die aktuellen TN sind so schlecht bei weitem nicht. Nur in Sachen Blickwinkel sind sie noch nicht zu gebrauchen. In Sachen BQ haben die TN Panel enorm aufgeholt und die Unterschiede sind nur noch minimal.

Aber lieber spielste an deinen 50ms Inputlag Samsung, klar.

Deathcrush
2007-08-31, 17:06:31
Das mit den 30% zw. GTX und GTS ist mir zu pauschal, da die Spanne sehr stark von der Auflösung abhängt, wie ich dir ja bewiesen hab. Lasse die GTS @ 2560x1600 laufen und gegen eine GTX antreten, dann werden aus den 30% wesentlich mehr Prozent - versprochen! ;)

Och jüngchen. Und was schafft eine einzelne GTX bei 2560x1600. Bestimmt keine Spielbaren frames. Da kannst du dir die 50% Vorteil in den Popo stecken. Und das hab ich dir auch schon geschrieben, das mir nur sachen interessieren die auch überwiegend genutzt werden und vor allem realistisch sind. Was bringt mir ein Vergleich bei 2560 mit EINER GTX, wenn sie da keine Spielbaren FPS liefern kann? Und bewiesen hast du mir gar nix :P

dargo
2007-08-31, 17:10:51
Och jüngchen. Und was schafft eine einzelne GTX bei 2560x1600. Bestimmt keine Spielbaren frames. Da kannst du dir die 50% Vorteil in den Popo stecken. Und das hab ich dir auch schon geschrieben, das mir nur sachen interessieren die auch überwiegend genutzt werden. Was bringt mir ein Vergleich bei 2560 mit EINER GTX, wenn sie da keine Spielbaren FPS liefern kann?
In einem Punkt hat er aber recht. 30% sind etwas zu wenig. In graka-limitierenden Szenen müssten ca. 40-45, manchmal sogar 50% mehr ankommen. Selbst in spielbaren Frames.

Noch was zum grübeln in Bezug auf den G92. :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5799983&postcount=859

Snoopy69
2007-08-31, 17:15:47
Och jüngchen. Und was schafft eine einzelne GTX bei 2560x1600. Bestimmt keine Spielbaren frames. Da kannst du dir die 50% Vorteil in den Popo stecken. Und das hab ich dir auch schon geschrieben, das mir nur sachen interessieren die auch überwiegend genutzt werden und vor allem realistisch sind. Was bringt mir ein Vergleich bei 2560 mit EINER GTX, wenn sie da keine Spielbaren FPS liefern kann? Und bewiesen hast du mir gar nix :P
Dann lass uns auf gängige 1920x1200 Vista-Standard runterkommen. Sind dann jedenfalls trotzdem mehr als 30% :wink:

Deathcrush
2007-08-31, 17:18:42
Dann zeig mir doch mal benches, bis max 1600x1200, wo eine GTX einer GTS 50% schneller ist. Alles über 1600 interessiert mich nicht, da dann selbst eine GTX nicht mehr spielbare FPS liefern kann (neue Spiele)

http://www.tbreak.com/reviews/article.php?cat=grfx&id=474&pagenumber=9

ich sehe hier nichts von 50%, selbst nicht bei 2048, ja nicht einmal bei 4AA. Alleine Fear schafft mal mehr, aber selbst da keine 50%.

dargo
2007-08-31, 17:24:50
Dann zeig mir doch mal benches, bis max 1600x1200, wo eine GTX einer GTS 50% schneller ist. Alles über 1600 interessiert mich nicht, da dann selbst eine GTX nicht mehr spielbare FPS liefern kann (neue Spiele)

Schau dir doch einfach paar Spiele (auch ältere) in 2560x1600 mit 1xAA/1xAF an.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/8/

Ich habe mit Absicht diese Auflösung ohne AA/AF genommen, da CB noch hier mit TSSAA gebencht hat. Dort siehst du nicht selten >40% für die GTX. Den Extremfall stellt wohl CoH mit 57% Vorteil da.

Deathcrush
2007-08-31, 17:26:02
Bitte lerne lesen

Zitat von mir "Alles über 1600 interessiert mich nicht, da dann selbst eine GTX nicht mehr spielbare FPS liefern kann (neue Spiele)

Und bei 2550 sind es ohne AA und AF bei Anno auch nur 30%


Und jetzt schaun wir uns mal das Perfomancerating an, den durchschnittswert. Der liegt bei 36% bei 2550x1600 4AA. Wo sind die 50% denn auf einmal hin?

Snoopy69
2007-08-31, 17:27:45
Dann zeig mir doch mal benches, bis max 1600x1200, wo eine GTX einer GTS 50% schneller ist. Alles über 1600 interessiert mich nicht, da dann selbst eine GTX nicht mehr spielbare FPS liefern kann (neue Spiele)

http://www.tbreak.com/reviews/article.php?cat=grfx&id=474&pagenumber=9

ich sehe hier nichts von 50%, selbst nicht bei 2048, ja nicht einmal bei 4AA. Alleine Fear schafft mal mehr, aber selbst da keine 50%
Das ist ja Blödsinn. Ich hab ja 2 GTX, also kann ich das ja selber beurteilen. Als mein SLI-MB noch nicht da war, lag die 2. GTX paar Tage herum. Und wer mal (mit einer GTX) Rivatuner zum FPS mitloggen nebenherlaufen lässt und auf GRAW 2 @ 1920x1200 + alles hoch gespielt hat, wird bezeugen können, dass eine GTX eig. zum flüssigen Spielen (über 30 fps - Schnitt ist 70) ausreicht - noch!
ARMA ist wieder eine andere Sache. Da komme ich auch mit SLI + OC mal kurz unter 30fps :wink:

dargo
2007-08-31, 17:29:21
http://www.tbreak.com/reviews/article.php?cat=grfx&id=474&pagenumber=9

ich sehe hier nichts von 50%, selbst nicht bei 2048, ja nicht einmal bei 4AA. Alleine Fear schafft mal mehr, aber selbst da keine 50%.
Ähm, ich weiß nicht wie du rechnen tust. Aber -37% in F.E.A.R. 2048x1536- 4xAA/16xAF bedeutet bei mir, dass die GTX ~57% schneller ist. ;)

TobiWahnKenobi
2007-08-31, 17:31:54
Die aktuellen TN sind so schlecht bei weitem nicht. Nur in Sachen Blickwinkel sind sie noch nicht zu gebrauchen. In Sachen BQ haben die TN Panel enorm aufgeholt und die Unterschiede sind nur noch minimal.

Aber lieber spielste an deinen 50ms Inputlag Samsung, klar.

genaugenommen spiele ich überhaupt nicht am schreibtisch - ich arbeite. und dabei ist mir ein drehbares PVA mit verschiedenen videoeingängen, HDCP und lautsprechern sehr viel lieber, als ein TN.

die geschichte mit dem (overdrive)inputlag ist bei weitem nicht so tragisch beim spielen, wie es blickwinkel, dithering, schwarzwert und farbraum beim TN im alltagsbetrieb sind.

sind wir hier jetzt durch mit OT?


(..)

mfg
tobi

dargo
2007-08-31, 17:33:57
Bitte lerne lesen

Zitat von mir "Alles über 1600 interessiert mich nicht, da dann selbst eine GTX nicht mehr spielbare FPS liefern kann (neue Spiele)

Bitte lerne nachdenken.
Die GTX liefert da die ~50% mehr wo sie auch gebraucht werden, sprich bei grakalimitierenden Szenen. Und diese Szenen werden bei neueren Spielen immer in kleineren Auflösungen vorkommen. ;)
Und wenn für dich 52fps (Fear in 2560x1600 mit 4xAA/16xAF mit der GTX) nicht reichen dann kann ich dir auch nicht helfen.

Und bei 2550 sind es ohne AA und AF bei Anno auch nur 30%
Wie wärs wenn du dir paar Spiele mehr als nur Anno anguckst? :rolleyes:

Deathcrush
2007-08-31, 17:34:00
Ups übersehen. Aber wie gesagt, durchschnittswert liegt bei 36% laut CB (1600x1200). Wo sind also die 50% hin? Oder deine 45%? Und was "ca" bedeutet wisst ihr sicherlich. Da bin ich näher dran als ihr mit euren 50%.



Und nochmals, was bringt mit ein Vergleich in 2550 wenn kein neues Spiel damit flüssig läuft, trotz 50% vorteil? Alles darüber hinaus interessiert mich nicht bei einer Graka, da ich erstens in dieser Auflösung nie Spielen werde und 2ens was bringt es wenn er bei 2550 ein 50% Vorteil hat, aber bei 1280x1024 mir nur 30% bringt. Da kann ich mir die 50% an die Backe schmieren wenn ich mich an 2550er orientieren würde. Wenn man schon vergleiche anställt, sollten diese auch realistisch bleiben, sonnst werden aus 11FPS mal ebn 60FPS :D

Snoopy69
2007-08-31, 17:35:14
genaugenommen spiele ich überhaupt nicht am schreibtisch - ich arbeite. und dabei ist mir ein drehbares PVA mit verschiedenen videoeingängen, HDCP und lautsprechern sehr viel lieber, als ein TN.

Dell 2407WFP + AS501 :wave2:

dargo
2007-08-31, 17:47:01
Ups übersehen. Aber wie gesagt, durchschnittswert liegt bei 36% laut CB. Wo sind also die 50% hin? Oder deine 45%?

Lieber Deathcrush, denk doch mal nach. :)
Der Durchschnitt bei CB errechnet sich aus allen Messungen. Wenn da in bestimmter BQ die CPU höhere Frames verhindert hat ist es wohl logisch, dass plötzlich keine ~50% sondern nur noch ~30% (als Beispiel) bei rumkommen. Und eben diese ~30% in den Durchschnittswert hineinfließen.


Und nochmals, was bringt mit ein Vergleich in 2560 wenn kein neues Spiel damit flüssig läuft, trotz 50% vorteil?
Sehr viel, denn dadurch weißt du auch, dass in zukünftigen Games die die Grafikkarte stark fordern diese ~50% auch schon in 1680x1050 oder weniger vorkommen können. Natürlich solange wie die CPU höhere Frames nicht verhindert.

Und nochmals, was bringt mit ein Vergleich in 2550 wenn kein neues Spiel damit flüssig läuft, trotz 50% vorteil? Alles darüber hinaus interessiert mich nicht bei einer Graka, da ich erstens in dieser Auflösung nie Spielen werde und 2ens was bringt es wenn er bei 2550 ein 50% Vorteil hat, aber bei 1280x1024 mir nur 30% bringt. Da kann ich mir die 50% an die Backe schmieren wenn ich mich an 2550er orientieren würde.
Nochmal, was kann die GTX dafür, dass deine CPU höhere Frames verhindert?

Undertaker
2007-08-31, 17:58:47
Nochmal, was kann die GTX dafür, dass deine CPU höhere Frames verhindert?

die gtx ist nicht überall hardwaremäßig 50% stärker... speziell mit oc und dadurch recht ähnlichen taktraten bleiben nur noch hardwareunterschiede von zb 33% mehr bei den shadern oder 20% mehr beim speicherinterface...

Deathcrush
2007-08-31, 18:00:25
Ich beziehe mich immer auf den durschnitt aller Games und nicht nur auf vereinzelte, hab ich auch nie gesagt. Und da liegt nun mal der Schnitt bei 36% (1600x1200) und nicht bei 50%. Und was bringt es mir, wenn ich weiss das die Karte 50% schneller sein kann, wenn ich dann 1 Jahr später bei einem Blockbuster statt 15FPS dann 22FPS. Sehr sinnvoll ;) Klar kann man jetzt hergehen und sagen, statt 30FPS hast du dann 45FPS. Das spielchen kann man beliebig weit ausführen. Aber ich gehe mal vom schlechtesten Fall aus.

P.S Warum sollte bei 1600x1200 eine CPU limitieren, das sollte extrem selten vorkommen. (Non SLI) Und wer weiss wo und was CB gemessen hat. Wäre ja wenig sinnvoll wenn die sich stellen herausgepickt haben, die CPU limitiert waren.

Testsystem von CB Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core). Ich glaub kaum das bei 1600x1200 diese limitieren wird, schon gar nicht bei den Spielen.

dargo
2007-08-31, 18:10:18
die gtx ist nicht überall hardwaremäßig 50% stärker... speziell mit oc und dadurch recht ähnlichen taktraten bleiben nur noch hardwareunterschiede von zb 33% mehr bei den shadern oder 20% mehr beim speicherinterface...
Jetzt fang bitte nicht an eine übertaktete GTS mit einer standard GTX zu vergleichen. X-D

P.S Warum sollte bei 1600x1200 eine CPU limitieren, das sollte extrem selten vorkommen.

Weil eine GTX so stark ist. ;)


Testsystem von CB Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core). Ich glaub kaum das bei 1600x1200 diese limitieren wird, schon gar nicht bei den Spielen.
Nimm doch einfach CoJ (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/10/). Wenn die GTX in 1600x1200 32% schneller ist und in 2560x1600 plötzlich 42%, was soll dann anderes als die CPU in der kleineren Auflösung limitieren/mehr Frames verhinden?

Snoopy69
2007-08-31, 18:15:36
Aber wie ihr bei den Tests in CB gesehen habt liegt ein GTX SLI @ 1600x1200 (also deine Auflösung @ Deathcrush) um ca. 100% über eine GTS. Bei 2560x1600 250%. Für die meisten zwar uninteressante Auflösung, aber ein guter Indikator dafür, ob die Karte bei zukünftigen stark Graka-lastigen Games schnell einbricht oder nicht.

Vielle. sollte ich mal verschiedene CPU-Takte druchfahren, um zu sehen, ab welchem Takt (CPU) es nicht mehr FPS bringt. Welche Auflösung wünscht ihr?

Deathcrush
2007-08-31, 18:26:25
Jetzt fang bitte nicht an eine übertaktete GTS mit einer standard GTX zu vergleichen. X-D


Weil eine GTX so stark ist. ;)


Nimm doch einfach CoJ (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/10/). Wenn die GTX in 1600x1200 32% schneller ist und in 2560x1600 plötzlich 42%, was soll dann anderes als die CPU in der kleineren Auflösung limitieren/mehr Frames verhinden?

Dazu müsstest du erstmal wissen, wieviel FPS diese Szene z.B bei 640x480 liefert um zu wissen ob überhaupt ein CPU Limit vorliegt.

Ein Beispiel
Bei 640x480 kommen beide Karten über 100FPS

Bei 1280x1024
GTX = 80FPS
GTS = 60FPS

Bei 1600x1200
GTX = 60 FPS
GTS = 30 FPS

Wie soll dann am diesem Beispiel die CPU limitieren. Vielleicht geht auch der GPU bei der hohen Auflösung einfach mehr die Puste aus als bei 1280x1024. Aber von einem CPU Lim zu reden, ohne voher zu wissen was und wo gebencht wurdem halte ich für falsch oder eher gesagt nicht richtig.

dargo
2007-08-31, 18:35:09
Ein Beispiel
Bei 640x480 kommen beide Karten über 100FPS

Bei 1280x1024
GTX = 80FPS
GTS = 60FPS

Bei 1600x1200
GTX = 60 FPS
GTS = 30 FPS

Wie soll dann am diesem Beispiel die CPU limitieren.

Ganz einfach, würde die CPU in 1280x1024 nicht limitieren müsste die GTX dort 120fps liefern. Was ist denn daran so schwer zu verstehen? :)

PS: mal davon abgesehen, dass du die Werte 30 vs. 60fps nie zu sehen bekommst. Doppelt so schnell ist die GTX nun wieder auch nicht.

Snoopy69
2007-08-31, 18:38:10
War ja nur ein Beispiel...
Welche Auflösung mit versch. CPU-Takten soll ich denn durchfahren?

Deathcrush
2007-08-31, 18:41:33
Das wa mal ebn nur so hingekritzelt ;). Hab nur darauf geachtet das die zahlen unterschiedlich sind. Willst jetzt mit der Erbsenzählerei anfangen oder wie?


Zitat"Ganz einfach, würde die CPU in 1280x1024 nicht limitieren müsste die GTX dort 120fps liefern. Was ist denn daran so schwer zu verstehen?"

Kennst du das Phenomän das man bei 800x600 mehr FPS hat als bei 640480, da auf dieser Auflösung hin besser optimiert wurde?

Und wenn man vielen hier glauben schenken darf, je höher die Auflösung, je höher die kluft zwischen der GTS und GTX. Das spricht gegen deine These ;) Dann würde das mit 32% und 42% hinkommen.

dargo
2007-08-31, 18:47:53
Kennst du das Phenomän das man bei 800x600 mehr FPS hat als bei 640480, da auf dieser Auflösung hin besser optimiert wurde?

Ja, das gabs aber nur bei ATI. Zb. war manchmal 1024x768 minimal schneller als 640x480. Wir reden hier aber von NV und deutlich höheren Auflösungen. ;)


Und wenn man vielen hier glauben schenken darf, je höher die Auflösung, je höher die kluft zwischen der GTS und GTX. Das spricht gegen deine These ;)
Nicht je höher die Auflösung sondern, je höher die Graka-Last. Dass man die Graka-Last mit höherer Auflösung und/oder hoher AA/AF Stufe vergrößern kann versteht sich von selbst. Höhere Auflösung/mehr AA/AF ist nur ein Mittel zum Zweck, falls die Anwedung keine hohe Graka-Last verursacht.

Undertaker
2007-08-31, 18:50:40
Jetzt fang bitte nicht an eine übertaktete GTS mit einer standard GTX zu vergleichen.

nein, natürlich beide getaktet ;) da der chip an sich identisch ist, sind die takterfolge nahezu identisch und es bleibt letzlich nur der reine hardwareunterschied :)

Snoopy69
2007-08-31, 18:56:47
nein, natürlich beide getaktet ;) da der chip an sich identisch ist,
Nicht ganz - die GTS und die Ultra haben eine GPU mit Rev. A3. Die GTX allerdings nur den schlechter taktbaren A2 ;(

Deathcrush
2007-08-31, 19:01:28
Ich glaub wir reden an einander vorbei :D

P.S hab gerade mal CoJ mit 800x600 gespielt (ohne AA und allem das was die GPU belastet) und komme auf 150FPS im Schnitt (Schiesserei). Ich kann mir beim besten willen nicht vorstellen, das bei den Messungen von CB dort die CPU die MAX FPS verhindert haben soll. Meine CPU hat zu dem 400MHZ weniger.

Fasse ich mal eben zusammen

Du hast gesagt,

1280x1024 = 32 % unterschied
1600x1200 = 42 % unterschied

Nach deiner Aussage müsste es also so sein, wenn die CPU nicht limitieren würde, das 1280x1024 genauso schnell, oder gar schneller sein müsste. Richtig?!

Dann hab ich das geschrieben
"Und wenn man vielen hier glauben schenken darf, je höher die Auflösung, je höher die kluft zwischen der GTS und GTX. Das spricht gegen deine These"

Und du dann das
"Nicht je höher die Auflösung sondern, je höher die Graka-Last. Dass man die Graka-Last mit höherer Auflösung und/oder hoher AA/AF Stufe vergrößern kann versteht sich von selbst. Höhere Auflösung/mehr AA/AF ist nur ein Mittel zum Zweck, falls die Anwedung keine hohe Graka-Last verursacht."

Verstehe ich da was falsch oder wiederspricht sich das nicht gerade? Eine höhere Auflösung ist nun mal mehr last und dementsprechen können die Werte ja auch weiter auseinander liegen. Du hast gemeint, nach meinem Beispiel, das die Karte bei 1280 mind genauso schnell sein müsste, da ein CPU Lim bei CoJ vorliegen würde. Aber wenn ich richtug gemessen habe, kann das nicht der fall sein.


------------------------------------------------------
Aber was ist, wenn ich mit meiner CPU 150FPS Messe bei COJ. Wie soll diese dann limitieren wenn ich schon gar nicht über 100FPS bekomme bei COJ mit einer 8800GTX bei 1280x1024? Alle Messungen von CoJ waren unter 100FPS. Klar sind das nur Avg FPS. aber 150 FPS mit einer 8800GTX bei 1280x1024 kann ich nciht glauben



EDIT
Mir qualmt der Kopf, hab keine Lust mehr :D Komme ganz durch einander ^^

Snoopy69
2007-08-31, 19:10:11
@ Deathcrush

Wie ich sehe ist dein E6600 @ 3000MHz getaktet, richtig?
Was er meint... Wenn du zb auf 3500MHz gehen "würdest" (Graka-Takt bleibt soll gleich bleiben) und sich an den FPS zw. den 3000 und 3500MHz was ändert, dann limitiert deine CPU :wink:
Ab einem bestimmten CPU-Takt (den wir ja nicht wissen) wird sich bei den FPS irgendwann nicht mehr viel tun. Aber!!! Solange du den CPU-Takt hochnehmen kannst und sich die FPS gut verändern, limitiert die CPU! Das nennt sich dann CPU-Limit! :wink:

Ich hab mal gehört, dass keine CPU (ich meine DCs) in der Lage wären genug Daten an eine GTX zuschaffen. Zumin. nicht mit Default-Takt. Mit OC zw. 3500-4000MHz viell., aber das weiss ich nicht. Müsste ich testen.

dargo
2007-08-31, 19:12:18
nein, natürlich beide getaktet ;)
Wenn man schon vergleicht dann bitte beide Karten @Standard. Alles andere ist Unsinn da Übertakten Glücksache ist.

Deathcrush
2007-08-31, 19:13:33
@snoopy
Ich gehe aber nicht von meiner CPU aus, sondern von den Messungen von Computerbase und CoJ und den 32% unter 1280x1024 und 1600x1200 42% unterschied und das es laut Dargo nicht sein kann, wegen CPU Lim. unter 1280x1024. Aber unter 1280x1024 liegt bestimmt kein CPU lim. vor, denn dann müsste die GTX 100-150 FPS schaffen ;) bei vollen Details. Wenn ich dargo richtig verstanden habe, müsste unter jeder Auflösung der unterschied identisch sein, wenn kein CPU LIMIT vorliegt. Sprich bei 1600 42% und unter 1280 42% oder mehr. Aber nicht weniger. Siehe dazu Post #590 / #593

EDIT und die CPU bei CB hatte sogar 3400MHZ, da sollte man erst recht nicht bei 1280x1024 von einem CPU lim. ausgehen, nicht bei CoJ bei vollen Details. Ich schaff ja schon bei 800x600 100-150 FPS bei einer Schiesserei. Ergo lim. hier ganz klar die GTX.

dargo
2007-08-31, 19:27:23
P.S hab gerade mal CoJ mit 800x600 gespielt (ohne AA und allem das was die GPU belastet) und komme auf 150FPS im Schnitt (Schiesserei). Ich kann mir beim besten willen nicht vorstellen, das bei den Messungen von CB dort die CPU die MAX FPS verhindert haben soll. Meine CPU hat zu dem 400MHZ weniger.

Ich glaube kaum, dass du die gleiche Szene wie CB gebencht hast.


Fasse ich mal eben zusammen

Du hast gesagt,

1280x1024 = 32 % unterschied
1600x1200 = 42 % unterschied

Nach deiner Aussage müsste es also so sein, wenn die CPU nicht limitieren würde, das 1280x1024 genauso schnell, oder gar schneller sein müsste. Richtig?!

Wenn die CPU in 1280x1024 nicht limitieren würde würdest du genauso in dieser Auflösung die 42% Unterschied messen.


Verstehe ich da was falsch oder wiederspricht sich das nicht gerade? Eine höhere Auflösung ist nun mal mehr last und dementsprechen können die Werte ja auch weiter auseinander liegen. Du hast gemeint, nach meinem Beispiel, das die Karte bei 1280 mind genauso schnell sein müsste, da ein CPU Lim bei CoJ vorliegen würde. Aber wenn ich richtug gemessen habe, kann das nicht der fall sein.

Nein, jetzt haust du hier was durcheinander. :D
Die GTX kann nicht in 1280 genauso schnell sein wie in 1600. Das ist doch gar nicht möglich (außer, es liegt ein 100%-iger CPU-Limit vor), schließlich muss die Grafikkarte in 1600 mehr Pixel berechnen. Der Unterschied zwischen der GTS und GTX muss nur genauso groß in 1280 wie in 1600 sein, solange die CPU nicht limitiert. Tut sie es doch, bekommst du je nachdem wie stark die CPU limitiert in 1280 nur noch einen geringeren Performancevorteil, im schlimmsten Fall sind beide Karten gleich schnell.

PS: um es mal kurz zu fassen - die GTX ist beim nahezu 100%-igem GPU-Limit ~50% schneller als die GTS.

Edit:
@Deathcrush
Ich glaube du verstehst unterm Limit etwas anderes als ich.

Nehmen wir ein Beispiel:

Bei 1280x1024
GTX = 75FPS
GTS = 60FPS

Bei 1600x1200
GTX = 60 FPS
GTS = 40 FPS

Bei 1280 sind es 25%, bei 1600 50% Vorteil. In diesem Fall verhindert die CPU, dass die GTX in 1280 90fps schafft. Hätte man hier eine schnellere CPU (zb. einen nicht vorhandenen C2D@5Ghz) genommen würde die GTX bei 1280 auch diese 90fps liefern, weil die GPUs wieder zu 100% in 1280 limitieren.

Deathcrush
2007-08-31, 19:30:05
Ich meine ja den unterschied (42%) und nicht genauso schnell ^^ bei 1280 / 1600.

Was spricht denn bei steigender Auflösung gegen eine grössere Kluft der Leistung? Sprich in dem Fall 32% (1280) und 42% (1600), da ich echt nicht glaube das ausgerechnet bei COJ die CPU limitiert. Nicht bei einer 3,4 GHZ CPU (C2D).


EDIT:
Ich verstehe unter LIMIT das

Min FPS der CPU 100FPS (640x480 und den ganzen gedöns)

Bei 1280x1024
GTX = 75FPS
GTS = 60FPS

Bei 1600x1200
GTX = 60 FPS
GTS = 40 FPS

Wenn du CPU permanent mind. 100FPS liefern kann, wie soll diese dann limitieren wenn die GTX nur 75 schafft. Wie soll diese dann auf 90 kommen?

dargo
2007-08-31, 19:40:32
Was spricht denn bei steigender Auflösung gegen eine grössere Kluft der Leistung? Sprich in dem Fall 32% (1280) und 42% (1600), da ich echt nicht glaube das ausgerechnet bei COJ die CPU limitiert. Nicht bei einer 3,4 GHZ CPU (C2D)
Es ist aber so. Ob du es glaubst oder nicht. Wenn die GTX in höherer Auflösung einen größeren Vorteil hat dann limitiert/verhindert höhere Frames die CPU. Es sei denn, die Daten passen nicht mehr in den Vram. Das dürfte aber nicht der Fall sein, sonst wäre der Unterschied deutlich größer als 50% zwischen den beiden Karten.

dargo
2007-08-31, 19:55:34
EDIT:
Ich verstehe unter LIMIT das

Min FPS der CPU 100FPS (640x480 und den ganzen gedöns)

Bei 1280x1024
GTX = 75FPS
GTS = 60FPS

Bei 1600x1200
GTX = 60 FPS
GTS = 40 FPS

Wenn du CPU permanent mind. 100FPS liefern kann, wie soll diese dann limitieren wenn die GTX nur 75 schafft. Wie soll diese dann auf 90 kommen?
Hehe, es gibt nicht nur einen 100%-igen CPU- oder Graka-Limit.

Ein Beispiel:

Bei 800x600
GTX = 100FPS
GTS = 100FPS

Bei 1280x1024
GTX = 75FPS
GTS = 60FPS

Bei 1600x1200
GTX = 60 FPS
GTS = 40 FPS

Wenn wir davon ausgehen, dass in höheren Auflösungen die GTX keinen weiteren Vorsprung aufbauen kann liegt in 1600 ein 100%-iger Graka-Limit vor. In 800x600 ein 100%-iger CPU-Limit (da die schnellere Grafikkarte nicht mehr FPS liefern kann). Bei 1280 ist das Verhältnis eher ausgeglichen.

Limit heißt bei mir nicht automatisch 100% sondern, dass jeweils eine Seite höhere Frames verhindert.

Edit:
Hmm, wie soll ich das anders erklären? :uponder:

Nehmen wir mal an, der 3,4Ghz C2D liefert wirklich in 800x600 bei beiden Karten 100fps. Also liegt ein 100%-iger CPU-Limit vor. Würdest du jetzt statt einen 3,4Ghz einen 6,8Ghz C2D verbauen würde die GTX in 1280 schon ihre 90fps liefern wenn bei 1600 ein 100%-iger Graka-Limit vorlag. Ganz einfach weil du durch die schnellere CPU eine höhere Graka-Last in 1280 plötzlich erzeugt hast.

Deathcrush
2007-08-31, 20:05:07
Ich weiss schon was du meinst ;) Nichts anderes hab ich in meinem Beispiel aufgeführt. Dort hindert die CPU nicht die MAX FPS sondern die Graka. Ich ging halt im meinem Beispiel davon aus, das die CPU immer in der Lage ist, über 100FPS zu liefern, die Graka aber nicht, was in einer Timedemo auch nicht wirklich ungewöhnlich ist.

Aber auch egal jetzt, wir plappern sonnst den ganzen Abend :D

Erst einmal ein Bierchen trinken :D

Undertaker
2007-08-31, 21:35:31
Wenn man schon vergleicht dann bitte beide Karten @Standard. Alles andere ist Unsinn da Übertakten Glücksache ist.

da es der gleiche chip ist bin ich nicht der meinung ;) ist doch wie bei cpus...

Superheld
2007-09-03, 17:14:36
also wirds doch laufen:smile:

"Auf die Frage nach der optimalen Grafikkarte, erklärte der CEO,
dass eine Nvidia GeForce 8800 GTS oder eine Radeon 2900 bei einer Auflösung
von 1280 Pixeln das maximale Setting widergibt. Will man die Grafik auf 1600x1200
oder mehr genießen, müsste es dann aber schon schnellere Hardware sein."
http://crysisnews.de/news-artikel,23530,1.html

dargo
2007-09-03, 17:40:55
Naja, ich denke er meint 1280 ohne AA/AF. Bei 4xMSAA kannst du noch ca. 25-30% der Frames beim G80 abziehen. Naja, schauen wir mal ...

Blaire
2007-09-04, 04:27:11
Interessant dennoch, so wie es sich liest wird eine X2900XT auf dem Level einer 8800 GTS anzusiedeln sein. Na warten wir mal die Demo ab.

Kladderadatsch
2007-09-04, 08:50:10
also wirds doch laufen:smile:

"Auf die Frage nach der optimalen Grafikkarte, erklärte der CEO,
dass eine Nvidia GeForce 8800 GTS oder eine Radeon 2900 bei einer Auflösung
von 1280 Pixeln das maximale Setting widergibt. Will man die Grafik auf 1600x1200
oder mehr genießen, müsste es dann aber schon schnellere Hardware sein."
http://crysisnews.de/news-artikel,23530,1.html
sauber, 10x7 bei max. details wird die 7950gx2 dann auch noch packen=)

Christi
2007-09-04, 09:54:19
Trotzdem grass, dass eine der schnellsten derzeitlichen Grakas gerade mal die 1280er Auflösung packen soll. Ist ja nur die native Auflösung eines 19zoll TFT (4/3) .
Da wird das ja bei den meisten Usern ein Interpolierungsfest:)


MfG

Edit:
Zumal die Angabe 1280er Auflösung auch dehnbar ist. Meint der nun 1280x1024 oder 1280x720 oder 1280x800 ?
Sind ja auch enorme Unterschiede was die Performance angeht.

Henroldus
2007-09-04, 15:11:43
Trotzdem grass, dass eine der schnellsten derzeitlichen Grakas gerade mal die 1280er Auflösung packen soll. Ist ja nur die native Auflösung eines 19zoll TFT (4/3) .
Da wird das ja bei den meisten Usern ein Interpolierungsfest:)


MfG

Edit:
Zumal die Angabe 1280er Auflösung auch dehnbar ist. Meint der nun 1280x1024 oder 1280x720 oder 1280x800 ?
Sind ja auch enorme Unterschiede was die Performance angeht.
1280*1024 sind 5:4
der Unterschied zwischen deinen genannten Auflösungen ist nicht enorm sondern einfach nur proportional also im schlimmsten Fall 42%
Du hast nicht im ernst eine Spielbarkeit in >=1600er Auflösung bei einem neuen Spiel mit einer 1 Jahr alten Highendkarte erwartet? :|

derwalde
2007-09-04, 15:32:09
das problem ist doch wohl eher, dass es keine neue highend hardware bis zum erscheinen von crysis gibt. für leute die keine lust auf sli haben ist das natürlich denkbar schlecht.

Super Grobi
2007-09-04, 15:40:39
Macht euch doch nicht bekloppt. In ein paar Tagen wissen wir alle mehr und können fleissig im passenden Benchmarkthread diskutieren. Was heißt schon "volle Details? Evt. sind da Settings bei, auf die man gut Verzichten kann.. wer weiss.

Bis zum 25. ;)

SG

Snoopy69
2007-09-04, 15:49:09
Naja, auf 1:1 "poliert" ist nicht so schlimm. Anders, wenn die kleine Auflösung gestreckt wird. Dann wirds unscharf. Aber ob das bei Spielen auffällt?

Cubitus
2007-09-04, 16:02:24
wie war das eigentlich nochmals mit der Skalierfunktion von Nvidia die Interpolation am TFT verhindert ?

Super Grobi
2007-09-04, 16:14:29
Naja, auf 1:1 "poliert" ist nicht so schlimm. Anders, wenn die kleine Auflösung gestreckt wird. Dann wirds unscharf. Aber ob das bei Spielen auffällt?

Das liegt aber dann an deinem TFT. Es gibt auch Geräte, die kleinere Auflösungen sehr scharf darstellen können.

wie war das eigentlich nochmals mit der Skalierfunktion von Nvidia die Interpolation am TFT verhindert ?


Dafür muss diese erstmal funktionieren. Das tut sie leider oft nicht. Und was willst du dazu wissen? Verstehe deine Frage jetzt nicht. Du willst doch nicht wirklich ein kleineres Bild auf dem TFT,nur damit die Auflösung 1:1 ist?

SG

dargo
2007-09-04, 17:11:50
Du willst doch nicht wirklich ein kleineres Bild auf dem TFT,nur damit die Auflösung 1:1 ist?

Ich schon. Ich bevorzuge ein knack-scharfes Bild und kein Wischiwaschi. Bis 1280x800 auf einem 19" TFT kann ich mit leben.

Cubitus
2007-09-04, 17:30:45
Das liegt aber dann an deinem TFT. Es gibt auch Geräte, die kleinere Auflösungen sehr scharf darstellen können.

Dafür muss diese erstmal funktionieren. Das tut sie leider oft nicht. Und was willst du dazu wissen? Verstehe deine Frage jetzt nicht. Du willst doch nicht wirklich ein kleineres Bild auf dem TFT,nur damit die Auflösung 1:1 ist?

SG

kommt drauf an, bei einer Stufe unter der Nativen Auflösung könnte ich mit den schwarzen Rändern leben.

Aber eigentlich hast du mir schon die Frage beantwortet,
dass Sie überhaupt nur sehr selten funktioniert, denn bei mir hat diese Funktion überhaupt noch nie irgendwas zurecht skaliert.

Snoopy69
2007-09-04, 22:06:01
Das liegt aber dann an deinem TFT. Es gibt auch Geräte, die kleinere Auflösungen sehr scharf darstellen können.




Dafür muss diese erstmal funktionieren. Das tut sie leider oft nicht. Und was willst du dazu wissen? Verstehe deine Frage jetzt nicht. Du willst doch nicht wirklich ein kleineres Bild auf dem TFT,nur damit die Auflösung 1:1 ist?

SG
Les mal was bei Prad.de unter Interpolationsarten steht. Eine kleinere Auflösung kann gestreckt garnicht scharf sein. Welcher TFT soll das denn sein?
Und ausserdem, was ist an 1:1 auszusetzen? Das Bild ist gestochen scharf, weil jedes Pixel auch wirklich nur einmal rot/brün/blau bekommt (anders bei Streckung) und ist genau so gross wie zb auf einem 19" (bei
1280x1024).

@ Cubitus

Du hast den gleichen TFT wie ich. Bei mir funktiniert die Skalierung komischerweise ganz gut.

Super Grobi
2007-09-04, 22:07:55
HP 2207 :eek:

Da kannst du mal im Prad Test nachlesen, was dort bei "kleineren Auflösungen" steht. ;)

SG

Snoopy69
2007-09-04, 22:10:27
Und wenn schon...
Unter 24" möchte ich derzeit nix. Und du hast den?

Super Grobi
2007-09-04, 22:39:53
Und wenn schon...
Unter 24" möchte ich derzeit nix. Und du hast den?

Ein 2207 ist ein 22" TFT. Ja ich hab den. Aber nur weil DU 24" brauchst, ändert das nichts daran, das eine kleinere Auflösung auf ein TFT nicht bedeutet, daß das Bild matschig und unscharf wird. Das ist, wie ich schon sagte, von der Quali des TFTs abhänig.

SG

p.s.
und ich will KEINEN 24" TFT! 22" ist mehr als genug (für mich)

Snoopy69
2007-09-04, 22:48:48
Ich weiss, dass das ein 22er ist - sieht man ja an der Bezeichnung :wink:
Wie gesagt, es gibt versch. Interpolationsarten. Und bei 1:1 ist es bei mir so scharf wie mit nativer Auflösung. Kann alsio garnicht unscharf sein. Stelle ich bei mir allerdings auf "Max" wird jeder Auflösung über den ganzen Bildschirm gestreckt und wird bei der kleinsten Auflösung sehr unscharf. Und da kann ich mir nicht vorstellen, dass das bei dir anders sein soll. haste da mal Beweis-Pics und Links von dem TFT mit so einer niedrigen, gestreckten Auflösung?

Super Grobi
2007-09-04, 22:59:36
Guck bitte in den Prad Test zu dem HP 2207. Dort wurde das getestet und ich GLAUB auch zwei Fotos.

SG

Edit: http://2007.prad.de/new/monitore/test/2007/test-hp-w2207-teil11.html#Interpolation

Die Qualität der interpolierten Darstellung können wir beim HP w2207 insgesamt mit einem ´gut bis sehr gut´ einstufen. Bei Spielen stellt der TFT jede gewählte nicht-native Auflösung ohne nennenswerte Bildschärfeverluste dar.

Snoopy69
2007-09-04, 23:29:37
Ich sagen, dass das untere minmal unschärfer ist. Aber die Bilder sind ziemlich unnötig, denn in Spielen fällt diese unschärfe garnicht auf. Interessant (und nur da) ist Text - da sieht man es deutlich.
Und überhaupt - von 1600x1050 auf 1440x900 ist ja mal garnix. Zwischen 1600x1050 und 1280x1024 und tiefer wird man es gut merken. Bei Text sowieso.

Mistersecret
2007-09-04, 23:40:43
ROTFL Dieser Thread ist ja zum Mammut geworden - woran man sehen kann, wie gerne wir alle spekulieren und mutmassen.... :) :) :)

Lustig auch der "Gleichstand" - umso spannender wirds, wenn wir es dann endich mit eigenen Augen sehen werden...

Christi
2007-09-05, 10:27:35
Lustig auch der "Gleichstand" - umso spannender wirds, wenn wir es dann endich mit eigenen Augen sehen werden...


Vorfreude ist nunmal die schönste Freude, die Ernüchterung kommt schneller als man denkt:wink:

MfG

Undertaker
2007-09-05, 11:23:35
Wenn man schon vergleicht dann bitte beide Karten @Standard. Alles andere ist Unsinn da Übertakten Glücksache ist.

es ist der gleiche chip, man kan bei gts wie gtx glück oder pech haben. statistisch, und nur das ist entscheidend, gehen beide gleich. denk mal daran warum du dir einen e6400 gekauft hast, doch nicht wegen der leistung bei standardtakt sondern weil du sicher davon ausgehen konntest, mit oc einen x6800 überflügelnzu können ;)

ich wollte nirgends behaupten, dass die gts an eine gtx herankommt. aber in einem für mich und die meisten nutzer in diesem forum realistischen setting, dh mit oc bei beiden karten, reduzieren sich die leistungsunterschiede auf die differenzen der hardware.

Super Grobi
2007-09-05, 11:37:57
@Snoopy69

Lassen wir es mal so stehen. Ich sag da jetzt nichts mehr zu. Wir sind eh OT und im Prad-Test steht das auch anderen Auflösungen getestet wurden.

SG

Snoopy69
2007-09-05, 11:43:02
Joh, wieder volle Konzentration auf Crysis... :D
Wann kommt nochmal die Demo 9.09.?

TB1333
2007-09-05, 11:53:38
Joh, wieder volle Konzentration auf Crysis... :D
Wann kommt nochmal die Demo 9.09.?

Im Internet steht überall "25. September 2007".

dargo
2007-09-05, 12:05:27
Wann kommt nochmal die Demo 9.09.?
Wie? Du hast den 25 September im Kalender noch nicht dick angekreuzt? :ubash2:

Ganxsta
2007-09-05, 12:11:26
Wie? Du hast den 25 September im Kalender noch nicht dick angekreuzt? :ubash2:

Ich habe 16.November so dick angekreuzt das man September gar nicht mehr sieht. :D

Deathcrush
2007-09-05, 12:24:29
Wie? Du hast den 25 September im Kalender noch nicht dick angekreuzt? :ubash2:


Ich hab vorsichtshalber einen Bleistift genommen :D

Super Grobi
2007-09-05, 12:35:33
Ich hab vorsichtshalber einen Bleistift genommen :D

Gut so :up:, den ich wette, das es erst am 26. HIER saugbar ist. Wir kennen das Spielchen doch schon... nachts um 3 Uhr kommt dann die Demo hier und wir machen uns schon drei Tage vorher bekloppt. Die Leutz die dann die halbe Nacht vorm PC verbringen, um dann um 3 Uhr zu saugen, ärgern sich am nächsten Tag noch mehr, weil eh alles zusammen gebrochen ist und sie sich die Nacht umsonst um die Ohren gehauen haben.

Das wird lustig, das sag ich schonmal voraus *ggg*

SG

Adam D.
2007-09-05, 16:08:40
Ich mein, ich freu mich ja schon auf das Spiel. Aber was bei manchen hier abgeht, wundert mich schon :D Wer braucht da noch 'ne Frau, wenn man Crysis und 'nen Rollladen hat? ;)

dreamweaver
2007-09-05, 17:07:59
Ich mein, ich freu mich ja schon auf das Spiel. Aber was bei manchen hier abgeht, wundert mich schon :D Wer braucht da noch 'ne Frau, wenn man Crysis und 'nen Rollladen hat? ;)

"Frau", was ist das? Neue Spielekonsole? Noch nie gehört. Gibts da 'n Releasedatum?

:uconf2:

HisN
2007-09-23, 22:33:30
Hmm...
also die Multiplayer-Beta läuft nicht flüssig :-)

Nightspider
2007-09-23, 22:38:00
Einstellungen,Auflösung,Szenario, FPS ?

Tschibbl
2007-09-23, 22:40:29
Low, 320x240, 1x1m² Raum, 15 Frames

Dafür wird jedes Molekül in Echtzeit berechnet, du Gangster

tomcat
2007-09-23, 23:39:02
"Frau", was ist das? Neue Spielekonsole? Noch nie gehört. Gibts da 'n Releasedatum?

:uconf2:
Vielleicht in Version 1.3 :biggrin::biggrin::biggrin:

tombman
2007-11-27, 02:55:30
btw, nur mal so zum Abschluß:

ICH...HATTE...RECHT!

Warum? Ganz einfach, gerade getestet:

1280x800, 4xAA, "VERY HIGH" TWEAK (=maximale Details, wie im threadtitle)
Single GTX @ 621/1000 (nix SLI)

GPU-Benchmark: 34fps

Rennt absolut flüssig. Und damit sind alle Bedingungen erfüllt, daß ICH Recht hatte :cool:

Falls jetzt wer einwerfen will, daß "maximale details" eigentlich DX10 und very high heißen müßte- eigentlich ja, aber in diesem speziellen Fall nicht, denn wenn man die gleiche optische Qualität (wer Unterschiede zwischen dem tweak und dem "echten" very high findet, hat wohl stundenlang mit ner Lupe den Bildschirm abgesucht :rolleyes:) unter DX9 und XP erzielen kann, dabei aber locker 50% mehr fps hat, dann IST dieser tweak als "maximale Details" zu sehen.

Gratulation an die 230 Ja-Sager und die absolute Mehrheit ;D;D

Moralelastix
2007-11-27, 06:37:43
Lol!

Ich hab auch auf "ja" getippt(eher aus Sympathie zu Crytek) aber viel Luft is da nimmer geblieben, was!?

boxleitnerb
2007-11-27, 06:52:47
Toll tombman!
Was soll ich zu den <20 fps sagen, wenn ich auf 1280x1024 noch 4xAA einstelle?
Beweisscreens? Wenn du annimmst, dass du alles ohne Beweise präsentieren kannst, tu ich das einfach mal auch :D
Klar, manchmal sind in anspruchslosen Szenen auch deine 34 fps drin, aber in DEN Settings (und die fahre ich auch, Schatten auf medium, sonst wie du alles very high getweaked) ist es NICHT durchgehend flüssig mit einer GTX.

Wenn ich mal zuviel Zeit habe, mach ich mal ein Diagramm mit fps Verlauf.

Undertaker
2007-11-27, 09:29:12
Falls jetzt wer einwerfen will, daß "maximale details" eigentlich DX10 und very high heißen müßte- eigentlich ja, aber in diesem speziellen Fall nicht, denn wenn man die gleiche optische Qualität (wer Unterschiede zwischen dem tweak und dem "echten" very high findet, hat wohl stundenlang mit ner Lupe den Bildschirm abgesucht :rolleyes:) unter DX9 und XP erzielen kann, dabei aber locker 50% mehr fps hat, dann IST dieser tweak als "maximale Details" zu sehen.


du biegst es dir wie du brauchst oder? ;D

Nein, können sie nicht, nicht alle. Und weil es nicht alle sind, darf es sich nicht mehr "very high" nennen ;)

Snoopy69
2007-11-27, 09:30:54
@ tombman

Unter Vista kannst du auch wesentlich mehr FPS haben und zwar genauso viel wie unter XP :D
Was hast du derzeit für ein System? Was macht die Wakü? Welchen Kühler hast du jetzt?

Slipknot79
2007-11-27, 10:30:54
@ tombman

Unter Vista kannst du auch wesentlich mehr FPS haben und zwar genauso viel wie unter XP :D
Was hast du derzeit für ein System? Was macht die Wakü? Welchen Kühler hast du jetzt?

Er hat ne gepimpte Kokü.

Deathcrush
2007-11-27, 10:37:11
btw, nur mal so zum Abschluß:

ICH...HATTE...RECHT!

Warum? Ganz einfach, gerade getestet:

1280x800, 4xAA, "VERY HIGH" TWEAK (=maximale Details, wie im threadtitle)
Single GTX @ 621/1000 (nix SLI)

GPU-Benchmark: 34fps

Rennt absolut flüssig. Und damit sind alle Bedingungen erfüllt, daß ICH Recht hatte :cool:

Falls jetzt wer einwerfen will, daß "maximale details" eigentlich DX10 und very high heißen müßte- eigentlich ja, aber in diesem speziellen Fall nicht, denn wenn man die gleiche optische Qualität (wer Unterschiede zwischen dem tweak und dem "echten" very high findet, hat wohl stundenlang mit ner Lupe den Bildschirm abgesucht :rolleyes:) unter DX9 und XP erzielen kann, dabei aber locker 50% mehr fps hat, dann IST dieser tweak als "maximale Details" zu sehen.

Gratulation an die 230 Ja-Sager und die absolute Mehrheit ;D;D


Weil Avg FPS ja auch durchgehend mind. 30FPS heisst :D und das war die Bedingung mein guter. Ausserdem Max Details = DX10 @Max :P Und das rennt nicht durchgehend mit 30FPS ;) Und ich habe immer geasgt 1280x1024 2AA/8AF und das hast du IMMER verneint und gegenargumente geliefert. Aber so wie du es gerade brauchst wird es auch zurecht gebogen :D :D Kein Rückrad der gute Mann.


P.S Und wie du selber mal gesagt hast, max details erreicht man nur unter Vista. Egal wie man unter XP tweaked.

Si|encer
2007-11-27, 11:15:04
Jo, 20% wo die Frames über 30 laufen, und der Rest wo auch die frames mal auf 2-3(!) gehen.

Gibt unterm Strich kein flüssig mehr. :wink:

Sil

Deathcrush
2007-11-27, 12:47:43
Und selbst wenn der Benchmark flüssig laufen sollte, spätestens im Raumschiff, in der Eiswelt und aufm Träger läuft es nicht mehr flüssig.

Bumsfalara
2007-11-27, 13:00:09
btw, nur mal so zum Abschluß:

ICH...HATTE...RECHT!

Warum? Ganz einfach, gerade getestet:

1280x800, 4xAA, "VERY HIGH" TWEAK (=maximale Details, wie im threadtitle)
Single GTX @ 621/1000 (nix SLI)

GPU-Benchmark: 34fps

Rennt absolut flüssig. Und damit sind alle Bedingungen erfüllt, daß ICH Recht hatte :cool:

Falls jetzt wer einwerfen will, daß "maximale details" eigentlich DX10 und very high heißen müßte- eigentlich ja, aber in diesem speziellen Fall nicht, denn wenn man die gleiche optische Qualität (wer Unterschiede zwischen dem tweak und dem "echten" very high findet, hat wohl stundenlang mit ner Lupe den Bildschirm abgesucht :rolleyes:) unter DX9 und XP erzielen kann, dabei aber locker 50% mehr fps hat, dann IST dieser tweak als "maximale Details" zu sehen.

Gratulation an die 230 Ja-Sager und die absolute Mehrheit ;D;D
Bei allem Respekt dir gegenüber, aber das ist ja wohl mit das lächerlichste was du seit langem hier losgelassen hast.


Die Auflösung ist lächerlich gering, 1280x1024 oder 1680x1025 sollten es sein um wirklich von "High-End" zu reden. Zumal 34FPS Average ziemlich lächerlich wenig sind, eigentlich eher viel zuwenig. Da gegen die FPS bei harten Gefechten durchaus mal auf Grundeis, als das man da von sonderlich flüssig reden könnte.


Nix jetzt gegen dich, aber man kann sich nicht einfach alles biegen wie man grad will, nur um Recht zu behalten ;)

Snoopy69
2007-11-27, 13:04:17
675/1674/1152MHz @ 1920x1200 "high" ohne AA/AF

Eine GTX...

http://www.abload.de/thumb/hc_154ae3.jpg (http://www.abload.de/image.php?img=hc_154ae3.jpg)

Und SLI...

http://www.abload.de/thumb/hc_153c7t.jpg (http://www.abload.de/image.php?img=hc_153c7t.jpg)

Megamember
2007-11-27, 13:17:25
Bin mal gespannnt auf den ersten Patch. Der Patch + der neue Nvidia-Treiber solllen angeblich bis zu 30% mehr Leistung bringen. (Jedenfalls laut eines Hardwareluxx-Users);)

Deathcrush
2007-11-27, 13:19:40
675/1674/1152MHz @ 1920x1200 "high" ohne AA/AF

Eine GTX...

http://www.abload.de/thumb/hc_154ae3.jpg (http://www.abload.de/image.php?img=hc_154ae3.jpg)

Und SLI...

http://www.abload.de/thumb/hc_153c7t.jpg (http://www.abload.de/image.php?img=hc_153c7t.jpg)

Und was soll uns das jetzt sagen? Das es bei High flüssig rennt? Wir reden aber von Very High! Und selbst dann ist der Benchmark von Crysis alles andere als zuverlässig, da die Perfomance locker um 50% nachlässt (Träger, Eiswelt, Raumschiff)

@Megamember

30% wäre ja mal was :) Dann noch die Texturenprobleme gefixed und die KI ein bisl korrigiert und ich werd es mir kaufen.

tombman
2007-11-27, 13:22:08
Weil Avg FPS ja auch durchgehend mind. 30FPS heisst :D und das war die Bedingung mein guter.
Das war NIE die Bedingung, lies den thread TITEL nochmal. Dort steht CIRCA 30fps.
Und da war auch nie von MINIMUM FPS die Rede. Und es war auch nie von 1280x1024 oder 1680x1050 die Rede- oder von zugeschaltetem AA!
Das sind alles Sachen, die sich einige user DAZUGEDICHTET haben, die so aber nie Teil der Umfrage waren! Ich selbst habe nie eine Auflösung angegeben!
ALs FAIR erachte ich aber die kleine HD Auflösung, und mit 1280x800 bin ich da eh schon drübergegangen, außerdem habe ich auch mit 4xAA gebenched, ebenfalls ein reines GESCHENK meinerseits.
Ohne AA waren es über 40fps, FYI. Aber selbst mit AA waren die min. fps ca 29, und das nur ganz kurz, die 34fps waren also ziemlich konstant beim GPU-benchmark.
Das wichtigste aber: ES FÜHLT SICH ABSOLUT FLÜSSIG AN. Und genau darum ging es in der Umfrage, welche sinngemäß lautete: "Wird man mit einer GTX alles aufdrehen können, was Crysis zu bieten zu hat, und dabei Spaß haben" -> JA, DAS WIRD MAN.
Man wird NICHT sich ärgern, daß man zuwenig Rechenpower hat.
Das ist der KERN des ganzen Themas und der Umfrage.

Wie gesagt, der einzige Kritikpunkt bleibt das nur gefakte "very high", was aber unter diesen Umständen IMO legitim ist, denn die fehlendem FPS unter Vista und DX10 sind kein Zeichen der Rechenleistungsschwäche der GTX, und darum ging es ja eigentlich, sondern ein Zeichen der schlappen Treiber von Nvidia + den Problemen von Crytek unter Vista.

Deathcrush
2007-11-27, 13:24:57
Wie oben schon erwähnt. Der Benchmark ist alles andere als repräsentativ für die PErfomance, da sie im späteren verlauf sehr stark abnimmt. Aber rede du mal weiter :D Warum wohl hast du die Umgrage ohne jegliche Angaben von Auflösung und Qualitätsettings angegeben. Richtig, damit du nachher nicht dumm da stehst. So kannst du DIR es auslegen wie du es gerne hättest. Und wenn wir von maximalen Settings ausgehen, müsstest du ja AA voll auf anschlag drehen, da es ja das Ingamemenu zulässt. Siehst du, ich kann es mir auch so hindrehen wie ich es will.

Du hättest ja auch ohne AA bestanden, hätte es keines im Menu gegeben

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5616118&postcount=39

tombman
2007-11-27, 13:27:23
Jo, 20% wo die Frames über 30 laufen, und der Rest wo auch die frames mal auf 2-3(!) gehen.
Gibt unterm Strich kein flüssig mehr. :wink:

Lol, das ist rein mathematisch schon gar ned möglich, wenn AVG 34fps sind :rolleyes:
Wenn es viele frames mit 2 bis 3 fps und der AVG 34 ist, dann muß es im Gegenzug haufenweise frames mit 100fps gegeben haben, und das tat es nicht.

tombman
2007-11-27, 13:29:23
Und wenn wir von maximalen Settings ausgehen, müsstest du ja AA voll auf anschlag drehen, da es ja das Ingamemenu zulässt. Siehst du, ich kann es mir auch so hindrehen wie ich es will.
Lol, daß das kommt ging mir auch gerade durch den Kopf, aber daß 16xAA ja wohl NICHT gemeint war, sollte jedem klar sein :rolleyes:
Denn sonst kommt der nächste und behauptet eine GTX sei zu schwach für alle modernen games @ max details, denn max details würden ja 16xAA bedeuten, weil es die Menus ja anböten :rolleyes:

Deathcrush
2007-11-27, 13:32:27
Laut deiner Umfrage steht doch MAX Details. Für mich heisst das, alle Regler so weit wie möglich, das war deine Aussage! Wenn man eine Umfrage zu seinen gunsten auslegt, sollte man auch mit sowas rechnen.

Aber ich gehe ein Kompromis ein. Man kann selbst mit einer 8800GTS noch ein sehr gutes Grafik/Perfomanceverhältniss hinbekommen ;) So das es immer noch sehr sehr gut aussieht.


P.S Schmeckt dir deine eigene Medizin etwa nicht? ;)

tombman
2007-11-27, 13:40:33
Laut deiner Umfrage steht doch MAX Details. Für mich heisst das, alle Regler so weit wie möglich, das war deine Aussage! Wenn man eine Umfrage zu seinen gunsten auslegt, sollte man auch mit sowas rechnen.

Aber ich gehe ein Kompromis ein. Man kann selbst mit einer 8800GTS noch ein sehr gutes Grafik/Perfomanceverhältniss hinbekommen ;) So das es immer noch sehr sehr gut aussieht.


P.S Schmeckt dir deine eigene Medizin etwa nicht? ;)
Nochmal, um was ging es eigentlich?
Gehts darum I-tüpfelchen zu reiten, oder um eine Frage: Muß ein GTX user in Crysis auf irgendwas verzichten, weil seine GTX zu langsam ist? NEIN, muß er nicht, wenn er mit der Auflösung und dem AA nicht übertreibt.

Quake 4 kannst auch auf 2304x1440, 16xAA spielen. Dafür ist eine GTX zu langsam.
Heißt das jetzt, eine GTX ist zu langsam um Quake4 in "maximalen Details" darzustellen?

Jetzt siehst wie dumm so eine Argumentation ist.

Sprache und Text kann man immer bis aufs Absurde zerpflücken (siehe Eva Herrmann) um ein Ergebnis zu erhalten (in ihrem Fall sie mit aller Gewalt als Nazi darzustellen), aber es gibt Wahrscheinlichkeiten was etwas WIRKLICH bedeutet und was ned.

Weil ansonsten stelle ich bei Crysis 320x200 ein, fahre 16xAA und unter Vista very high.
Damit wären rein logisch alle Bedingungen erfüllt um die Umfrage zu gewinnen.

Absurde Sachen aufführen kann ich auch, geht eben in zwei Richtungen ;)

Bei meinen Einstellungen sind die settings IMO fair um noch von "max details" reden zu können. 1280x800 in 4xAA sieht wunderbar aus, inkl. aller sichtbaren very high Effekte.
IMO gut genug um als "max details" durchzugehen.

Skinner
2007-11-27, 13:44:44
btw, nur mal so zum Abschluß:

ICH...HATTE...RECHT!

Warum? Ganz einfach, gerade getestet:

1280x800, 4xAA, "VERY HIGH" TWEAK (=maximale Details, wie im threadtitle)
Single GTX @ 621/1000 (nix SLI)


Kannst Du dazu bitte mal die Config Posten. Danke :D

JoergH
2007-11-27, 13:47:16
"Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~30fps) spielbar sein?"
ist die Frage und ich habe mit "Nein" gestimmt.

Wenn man im Optionsmenü alles auf max dreht (wie in der Frage steht), dann läuft es nicht in 30fps.
Ich hab ne Ultra und hab keine 30fps, wie solls dann die normale GTX schaffen?!?
Von DX10 will ich garnicht reden. Wenn man das auch noch berücksichtigt, müsste man schon fast fragen: "Wird Crysis auf einer 8800GTX mit mittleren Details flüssig (~30fps) spielbar sein?"

tombman
2007-11-27, 13:47:48
Kannst Du dazu bitte mal die Config Posten. Danke :D
Die restliche config ist bei dem GPU benchmark doch eh egal, aber bitte:
Kenni @ 3.6ghz, 4gb ram@ DDR2-800 CL4, XP SP2 32bit, 680i mobo, SLi absichtlich per Hauptschalter im CP deaktiviert.

[dzp]Viper
2007-11-27, 13:47:55
AA/AF gehören (imho) eh nicht zu den "Max" Settings hinzu, da AA/AF in dem Sinne keine neuen Objekte hinzufügen sondern (eigentlich) eine Treibersache sind.

AA/AF ist ein zustätzliches Feature um die "Max-Details" Settings nochmal etwas zu verschönern.

Es ändert aber nichts daran, dass die Engine unter "Max Details" bereits alles darstellt, was die Einstellungen hergeben!

Deathcrush
2007-11-27, 13:49:57
Sprache und Text kann man immer bis aufs Absurde zerpflücken

Das ist ja genau das was du hier machst. Deine Umfrage war einfach sinnlos, da einfach die Angaben von Settings nicht gemacht wurden und du dir es im nachhinein so auslegen kannst wie DU es gerne hättest. Ich hätte dir auch noch 1024x768 zugetraut.


P.S Und ich glaube kaum, das du mit gleichen Settings immer noch 30FPS Avg hast, in den späteren Levels. So viel dazu das eine GTX reichen sollte. Da kannst du noch so viel mit deinen 30FPS Avg durch die gegend wedeln.

tombman
2007-11-27, 13:51:52
"Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~30fps) spielbar sein?"
ist die Frage und ich habe mit "Nein" gestimmt.

Wenn man im Optionsmenü alles auf max dreht (wie in der Frage steht), dann läuft es nicht in 30fps.
Ich hab ne Ultra und hab keine 30fps, wie solls dann die normale GTX schaffen?!?
Von DX10 will ich garnicht reden. Wenn man das auch noch berücksichtigt, müsste man schon fast fragen: "Wird Crysis auf einer 8800GTX mit mittleren Details flüssig (~30fps) spielbar sein?"
"Alles im Optionsmenu auf max" steht NICHT in der Frage. Wenn du sie so verstanden hast, dann ist deine Antwort verständlich, aber ich hoffe, nicht alle nein-Voter haben sie so verstanden.
IMO wäre dann die Umfrage völlig sinnlos, weil man dann bei jedem modernen Spiel "nein" sagen müßte.

Skinner
2007-11-27, 13:54:40
Die restliche config ist bei dem GPU benchmark doch eh egal, aber bitte:
Kenni @ 3.6ghz, 4gb ram@ DDR2-800 CL4, XP SP2 32bit, 680i mobo, SLi absichtlich per Hauptschalter im CP deaktiviert.

ich meine die config vom game :D

edit: muss ja eine custom config sein

tombman
2007-11-27, 13:56:03
Das ist ja genau das was du hier machst. Deine Umfrage war einfach sinnlos, da einfach die Angaben von Settings nicht gemacht wurden und du dir es im nachhinein so auslegen kannst wie DU es gerne hättest. Ich hätte dir auch noch 1024x768 zugetraut.
"Intern" habe ich immer mit der kleinen HD Auflösung gerechnet, habs nur nicht offen gesagt.
Aber ganz sicher habe ich NICHT mit 1680x1050 oder gar 1920x1200 gerechnet.
Wie gesagt, ich finde 1280x800 sehr fair, wurde ja nicht umsonst auch in dieser Auflösung von
Crytek auf der GC präsentiert- und das OHNE AA.

P.S Und ich glaube kaum, das du mit gleichen Settings immer noch 30FPS Avg hast, in den späteren Levels. So viel dazu das eine GTX reichen sollte. Da kannst du noch so viel mit deinen 30FPS Avg durch die gegend wedeln.
Müßte man sich anschauen, mache ich vielleicht auch.

tombman
2007-11-27, 13:57:20
ich meine die config vom game :D
edit: muss ja eine custom config sein
Es ist diese "very high" tweak config, wo man in dem einen Ordner alle Dateien austauscht.
Also eh der ganz normale very high tweak, wie ihn alle kennen.

Deathcrush
2007-11-27, 13:59:04
"Intern" habe ich immer mit der kleinen HD Auflösung gerechnet, habs nur nicht offen gesagt.
Aber ganz sicher habe ich NICHT mit 1680x1050 oder gar 1920x1200 gerechnet.
Wie gesagt, ich finde 1280x800 sehr fair, wurde ja nicht umsonst auch in dieser Auflösung von
Crytek auf der GC präsentiert- und das OHNE AA.

Müßte man sich anschauen, mache ich vielleicht auch.

Ich kann dir so schon sagen das es nicht hinkommt. Bei 1280x1024 (mit der ich immer rechne) musste ich alles auf Medium und Schatten aus, damit ich auf 25-30FPS komme (Eiswelt). Flugzeugträger (Flugdeck) habe ich dann komplett abgebrochen wegen der Perfomance.

Sonyfreak
2007-11-27, 14:00:27
Welcher Mensch hat einen Highend-PC mit einer GTX, und spielt dann auf 1280x800? Wenn hier auf meinem PC die native Auflösung meines Monitors nutze (1680x1050), dann ist Crysis unspielbar und das selbst ohne AA und nur mit hohen Details unter XP. Wenn ich unter Vista alles im Menü aufs Maximum (sagen wir mal 4xAA) stelle, dann ist es absolut nicht mehr spielbar. OK ich hab nur ne übertaktete GTS, aber auch ne GTX würde sich unter diesen Voraussetzungen zu Tode stottern. ;)

=> Ich hatte Recht. :)

mfg.

Sonyfreak

tombman
2007-11-27, 14:00:41
Ich kann dir so schon sagen das es nicht hinkommt. Bei 1280x1024 (mit der ich immer rechne) musste ich alles auf Medium und Schatten aus, damit ich auf 25-30FPS komme (Eiswelt). Flugzeugträger (Flugdeck) habe ich dann komplett abgebrochen wegen der Perfomance.
Du hast auch eine GTS und keine GTX.

Deathcrush
2007-11-27, 14:03:14
Klar wenn ich ein Mix aus Medium/low 25-30FPS habe, hat eine GTX bei Very High 30FPS. Du wirst ja immer besser :D :D :D Und beim Flugdeck wirds noch mal ne runde schlimmer.

tombman
2007-11-27, 14:03:41
Wenn hier auf meinem PC die native Auflösung meines Monitors nutze (1680x1050),
Ist das uralte Problem, was einige wohl nicht einsehen wollen. Nur weil die TFTs jetzt höhere Auflösungen haben, wird 16xx x 1xxx nicht plötzlich zum single gpu Standard!!!

Was sagst einem user mit nem 30 Zoll Dell TFT und NATIVER 2560x1600 Auflösung? Soll der dann auch in alle Foren hineingehen und rausschreien, wie schlapp seine GTX doch ist, weil er praktsich kein modernes Spiel in seiner NATIVEN Auflösung spielen kann?

dargo
2007-11-27, 14:08:38
Welcher Mensch hat einen Highend-PC mit einer GTX, und spielt dann auf 1280x800?
Ich. ;)

Ok, hab zwar nur eine ~80% GTX. Macht aber nichts. Die nächste Graka wird eine ~140% GTX (ohne OC) sein, an der Auflösung ändert sich gar nichts. Na gut, ich nutze eher 1280x1024. :)

tombman
2007-11-27, 14:12:26
Klar wenn ich ein Mix aus Medium/low 25-30FPS habe, hat eine GTX bei Very High 30FPS. Du wirst ja immer besser :D :D :D Und beim Flugdeck wirds noch mal ne runde schlimmer.

Tjo, feel tha power of tha GTX ;)

http://img519.imageshack.us/img519/9345/crysis2007112714092012tl6.jpg (http://imageshack.us)

Ich habe AA diesmal aber rausgenommen, war eh nur ein "Zuckerl" ;) Ansonsten ist der komplette VERY HIGH TWEAK DRINNEN.

Außerdem gings auch nicht darum eine Stelle zu finden, wo es doch ned geht. Es ging um die GESAMTSITUATION (TM).
Eigentlich müßte man einen benchmark über das ganze SPiel machen und dann die AVG ausrechnen.

Aber vielleicht kann man mir auch mal glauben, wenn ich sage: eine GTX reicht für maximale Details bei Crysis.

Snoopy69
2007-11-27, 14:15:01
Und was soll uns das jetzt sagen? Das es bei High flüssig rennt? Wir reden aber von Very High! Und selbst dann ist der Benchmark von Crysis alles andere als zuverlässig, da die Perfomance locker um 50% nachlässt (Träger, Eiswelt, Raumschiff)


Das ist ja wohl klar...
Ich wollte eig. nur welche dazu animieren, dass sie ihre Werte posten :wink:
Richtig starke Einbrüche hatte ich nicht. Am Ende waren es nicht weniger als 20fps

Deathcrush
2007-11-27, 14:15:12
Und ein Bild von dir soll nun beweisen das es flüssig rennt? :D Sry, ich kann dir das nicht abkaufen, da du wirlich alles tun würdest, um recht zu behalten. Du hast deine Glaubwürdigkeit bei mir jedenfalls verloren.

tombman
2007-11-27, 14:17:11
Und ein Bild von dir soll nun beweisen das es flüssig rennt? :D Sry, ich kann dir das nicht abkaufen, da du wirlich alles tun würdest, um recht zu behalten. Du hast deine Glaubwürdigkeit bei mir jedenfalls verloren.
Ja klar, als ob tombman schon jemals ein Bild gefaked hätte :rolleyes:

[dzp]Viper
2007-11-27, 14:20:27
Welcher Mensch hat einen Highend-PC mit einer GTX, und spielt dann auf 1280x800? Wenn hier auf meinem PC die native Auflösung meines Monitors nutze (1680x1050), dann ist Crysis unspielbar und das selbst ohne AA und nur mit hohen Details unter XP.

Humbug. Ich hab unter 1280x1024 und alles auf "High" + kleine Tweaks im Average 37fps...

Unter 1680x1050 wirst du dann unter diesen Einstellungen immernoch im Schnitt weit über 30fps haben. Und wenn du bereit bist noch ein wenig mehr zu Tweaken, dann erreicht man sicher auch so wieder über 35fps.

P.S. Das Spiel kann nichts dafür, wenn du dir einen Monitor mit der hohen nativen Auflösung kaufst, dann aber bei der Grafikkarte "sparst" ;)

Deathcrush
2007-11-27, 14:23:55
Ich werd es mir die Tage noch einmal aus der Videothek ausleihen und die Eisszenen selber spielen. Bei 1280x1024 8AF Very High Mod (Eiswelt, Träger). Mal schaun wie es rennt. Wenn ich dann ~30% von den FPS Abziehe müsste ich ja mindestens 20-21FPS schaffen. (ich rechne meine GTS gegen eine non OC GTX) Ich denke das da 30% sehr Fair gerechnet sind. Dann werden wir ja sehen. Vielleicht mache ich mich heute noch mal aufn weg. Brauche aber mal ein Savegame :( Denn noch mal alles zu spielen, hab ich kein Bock druff. Eiswelt und Trägermission bräuchte ich mal.

tombman
2007-11-27, 14:24:04
Viper;6063029']Humbug. Ich hab unter 1280x1024 und alles auf "High" + kleine Tweaks im Average 37fps...

Unter 1680x1050 wirst du dann unter diesen Einstellungen immernoch im Schnitt weit über 30fps haben. Und wenn du bereit bist noch ein wenig mehr zu Tweaken, dann erreicht man sicher auch so wieder über 35fps.

P.S. Das Spiel kann nichts dafür, wenn du dir einen Monitor mit der hohen nativen Auflösung kaufst, dann aber bei der Grafikkarte "sparst" ;)
Jo, ist eben das alte Lied. Kaufen sich neue TFTs und glauben damit auch gleich das RECHT erworben zu haben, alle games müßten mit Mittelklasse Hardware in der nativen Auflösung mit maximalen Details rennen. Das spielts eben NICHT.

Bei den jetzt so beliebten 22" TFTs mit 1680x1050 Auflösung würde ich nix unter einer G92 GT, G92 GTS, G80 GTX oder G80 Ultra einsetzen- und die auch noch overclocken ;D

tombman
2007-11-27, 14:26:00
Ich werd es mir die Tage noch einmal aus der Videothek ausleihen und die Eisszenen selber spielen. Bei 1280x1024 8AF Very High Mod (Eiswelt, Träger). Mal schaun wie es rennt. Wenn ich dann ~30% von den FPS Abziehe müsste ich ja mindestens 20-21FPS schaffen. (ich rechne meine GTS gegen eine non OC GTX) Ich denke das da 30% sehr Fair gerechnet sind. Dann werden wir ja sehen. Vielleicht mache ich mich heute noch mal aufn weg. Brauche aber mal ein Savegame :( Denn noch mal alles zu spielen, hab ich kein Bock druff. Eiswelt und Trägermission brüchte ich mal.
Ähm, eine GTX ist unter Extremsituationen bis zu 50% schneller als eine GTS.
Dazu kommen nochmals 20% vom Unterschied zwischen 1280x1024 und 1280x800.
Das kann schon ne Menge ausmachen!

Mein Tip: verkaufe deine G80 GTS und hole dir schleunigst eine G92 GT, oder später eine G92 GTS ;)

dargo
2007-11-27, 14:27:08
Wenn ich dann ~30% von den FPS Abziehe müsste ich ja mindestens 20-21FPS schaffen.
Kommt gut hin. Eine standard GTS leistet ca. 69% einer standard GTX. Natürlich nur beim vollständigen GPU-Limit.

Deathcrush
2007-11-27, 14:28:46
Ähm, eine GTX ist unter Extremsituationen bis zu 50% schneller als eine GTS.
Dazu kommen nochmals 20% vom Unterschied zwischen 1280x1024 und 1280x800.
Das kann schon ne Menge ausmachen!

Mein Tip: verkaufe deine G80 GTS und hole dir schleunigst eine G92 GT, oder später eine G92 GTS ;)

Du weisst das meine GTS rund 25% übertaktet ist? Und wofür jetzt meine Graka verkaufen? Alle Spiele, ausser Crysis, rennen tadellos bei 1680x1050 (oft auf 2 bzw 4AA) Nur für Crysis eine neue Graka kaufen? Die GT rennt ja genauso schnell wie meine übertaktete GTS. (Laut Razors benchmark)

P.S Ich gehe von deinen vorangegangen Settings aus 1280x800 4AA. Daher 1280x1024 ohne AA

Snoopy69
2007-11-27, 14:30:31
Und wieviel leistet sie bei HQ (hohe Auflösung + AA/AF/Details)?

tombman
2007-11-27, 14:31:52
Du weisst das meine GTS rund 25% übertaktet ist? Und wofür jetzt meine Graka verkaufen, alle Spiele, ausser Crysis, rennen tadellos bei 1680x1050 (oft auf 2 bzw 4AA) Nur für Crysis eine neue Graka kaufen? Die GT rennt ja genauso schnell wie meine übertaktete GTS. (Laut Razors benchmark)
Wennst die GT ocst, sieht die GTS kein Land mehr.

Aber eine G92 GTS wäre natürlich noch geiler...

Btw, der thread kann geschlossen werden. Jeder kann sich selbst aussuchen, ob meine Definition von "max details" ausreichend ist, oder nicht.
Ich finds fair, muß aber nicht jeder so denken.

dargo
2007-11-27, 14:33:49
Die GT rennt ja genauso schnell wie meine übertaktete GTS. (Laut Razors benchmark)
Eine GTS gegen eine GT zu tauschen wäre (aus der höhereren Performance) kaum ein Upgrade. Wenn das ne gute Steigerung wäre hätte ich schon eine GT. ;)
Uns bleibt nichts anderes übrig als auf eine neue Graka noch länger zu warten. :(

Deathcrush
2007-11-27, 14:36:33
Eine GTS gegen eine GT zu tauschen wäre (aus der höhereren Performance) kaum ein Upgrade. Wenn das ne gute Steigerung wäre hätte ich schon eine GT. ;)
Uns bleibt nichts anderes übrig als auf eine neue Graka noch länger zu warten. :(

Korrekt. Da warte ich lieber auf die neue GTS, und schau was sie kann. Aber ich werde wohl erst ab Januar/Februar eine neue Karte kaufen. Dann, wenn ich weiss, was NV noch so auf dem Markt schmeisst.

dargo
2007-11-27, 14:37:54
Korrekt. Da warte ich lieber auf die neue GTS, und schau was sie kann. Aber ich werde wohl erst ab Januar/Februar eine neue Karte kaufen. Dann, wenn ich weiss, was NV noch so auf dem Markt schmeisst.
Bei mir wirds wohl genauso aussehen. Die neue GTS reicht mir von der Performancesteigerung immer noch nicht ganz. Naja, schauen wir mal ...

Snoopy69
2007-11-27, 14:38:45
Ist zwar kein Crysis, aber die Last war recht stark (1920x1200 + 8xAA 2Q 16xAF). Wie hatten beide den gleichen CPU- und Ram-Takt und Timings. Aber hier spielt die CPU eh kaum eine Rolle - limitieren tun die Grakas eher.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5959395&postcount=16

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5959533&postcount=19

Trotz default-Einstellung der GTX war diese schneller als die stark übertaktete GTS.

tombman
2007-11-27, 14:40:31
Korrekt. Da warte ich lieber auf die neue GTS, und schau was sie kann. Aber ich werde wohl erst ab Januar/Februar eine neue Karte kaufen. Dann, wenn ich weiss, was NV noch so auf dem Markt schmeisst.
Ich fürchte, mehr als eine "GX2" wird ned kommen :(
AMD macht ja auch nix anderes mit dem R680 = RV670 "GX2".

Ich bezweifle, daß jemand noch einen megachip rausbringen wird, obwohl es von der perf. Seite das beste wäre. Aber MILLIARDEN von Transistoren auf einem einzigen Chip werden wohl doch zu riskant sein. (die jetzigen haben ja schon bis zu 700 Millionen)

Vorteil (oder auch Nachteil, je nach Standpunkt ;D) der Multichiplösung: SLI und CF werden dann ALLE bekommen, ob sie wollen oder nicht :devil:
Denn derzeit melden sich alle Multi-chip Lösungen als SLI/CF an ;D

Sprich, SLI/CF support in games wird nicht mehr nur eine Frage für freaks sein, sondern für alle, die mindestens midrange hw haben wollen. (low end kommt ja mit einem "minicore" aus)

Snoopy69
2007-11-27, 14:44:30
@ tombman

Würde mich nicht wundern, wenn NV sich noch lange zurückhält. Ein echter Konkurent ist ja seit 1 Jahr nicht mehr da.
Ich hatte dich ausserdem nach deinem Sys. gefragt - also was du gerade so hast. Und wie siehts mit deine Wakü aus? Welchen Kühler hast du jetzt?

dargo
2007-11-27, 14:45:14
Vorteil (oder auch Nachteil, je nach Standpunkt ;D) der Multichiplösung: SLI und CF werden dann ALLE bekommen, ob sie wollen oder nicht :devil:
Denn derzeit melden sich alle Multi-chip Lösungen als SLI/CF an ;D

Naja, erstmal abwarten was AMD mit dem R700 vorhat. :)

tombman
2007-11-27, 14:46:16
@ tombman

Würde mich nicht wundern, wenn NV sich noch lange zurückhält. Ein echter Konkurent ist ja seit 1 Jahr nicht mehr da.
Ich hatte dich ausserdem nach deinem Sys. gefragt - also was du gerade so hast. Und wie siehts mit deine Wakü aus? Welchen Kühler hast du jetzt?
Derzeit habe ich Wakü laufen, Kokü steht in Graz rum. Sollte sie mir vielleicht mal wieder zuschicken lassen :D

tombman
2007-11-27, 14:48:12
Naja, erstmal abwarten was AMD mit dem R700 vorhat. :)
Würde mich doch SEHR wundern, wenn das was anderes als Crossfire-X wird. Umsonst proggen die AMDler diesen Treiber derzeit ja nicht fieberhaft.

Der Königsweg wäre natürlich ein Verteilerchip und "Sklavenchips", die sich bei Windows als EIN chip anmelden, also ohne CF/SLI. Aber wieso weiß ich, daß wir das nicht sehen werden? :(

LovesuckZ
2007-11-27, 14:50:47
Crysis braucht mehr als 34fps um annehmbar zulaufen.

[dzp]Viper
2007-11-27, 14:52:40
Crysis braucht mehr als 34fps um annehmbar zulaufen.

nö. Ab 30fps isses gefühlt sehr flüssig. Komischer Weise brauchen andere Games meist viel mehr fps um sich genauso flüssig "anzufühlen"

Bumsfalara
2007-11-27, 14:53:26
Das war NIE die Bedingung, lies den thread TITEL nochmal. Dort steht CIRCA 30fps.
Und da war auch nie von MINIMUM FPS die Rede. Und es war auch nie von 1280x1024 oder 1680x1050 die Rede- oder von zugeschaltetem AA!
Das sind alles Sachen, die sich einige user DAZUGEDICHTET haben, die so aber nie Teil der Umfrage waren! Ich selbst habe nie eine Auflösung angegeben!
ALs FAIR erachte ich aber die kleine HD Auflösung, und mit 1280x800 bin ich da eh schon drübergegangen, außerdem habe ich auch mit 4xAA gebenched, ebenfalls ein reines GESCHENK meinerseits.
Ohne AA waren es über 40fps, FYI. Aber selbst mit AA waren die min. fps ca 29, und das nur ganz kurz, die 34fps waren also ziemlich konstant beim GPU-benchmark.
Das wichtigste aber: ES FÜHLT SICH ABSOLUT FLÜSSIG AN. Und genau darum ging es in der Umfrage, welche sinngemäß lautete: "Wird man mit einer GTX alles aufdrehen können, was Crysis zu bieten zu hat, und dabei Spaß haben" -> JA, DAS WIRD MAN.
Man wird NICHT sich ärgern, daß man zuwenig Rechenpower hat.
Das ist der KERN des ganzen Themas und der Umfrage.

Wie gesagt, der einzige Kritikpunkt bleibt das nur gefakte "very high", was aber unter diesen Umständen IMO legitim ist, denn die fehlendem FPS unter Vista und DX10 sind kein Zeichen der Rechenleistungsschwäche der GTX, und darum ging es ja eigentlich, sondern ein Zeichen der schlappen Treiber von Nvidia + den Problemen von Crytek unter Vista.
Klar, wenn man die Bedingungen selbst festlegt kann man jeden Wettkampf gewinnen.

Das ist einfach sowas von lächerlich, Tombman. Und das weißt du selbst auch ganz genau, du kannst dir einfach nur selbst nicht eingestehen einmal im Leben nicht Recht gehabt zu haben.


Angabe sind: Maximale Details. Darunter kann man ebenso "Max Ingame" Details sehen. Da gehört der AA Regler nunmal dazu, ebenso wie eine Standesgemäße Auflösung und ECHTES Very High, nicht das .ini gefake...

dargo
2007-11-27, 14:56:09
Würde mich doch SEHR wundern, wenn das was anderes als Crossfire-X wird.
Eine vierfache Ausführung vom zb. GDDR für High-End wäre wohl aber nicht gerade günstig. Naja, warten wirs ab.

Crysis braucht mehr als 34fps um annehmbar zulaufen.
Geschmacksache. Mir reichen 30fps in Crysis aus.

[dzp]Viper
2007-11-27, 14:56:58
Angabe sind: Maximale Details. Darunter kann man ebenso "Max Ingame" Details sehen. Da gehört der AA Regler nunmal dazu, ebenso wie eine Standesgemäße Auflösung und ECHTES Very High, nicht das .ini gefake...

Nö gehört er nicht. Und eine Standesgemäße Auflösung ist die 1280iger nun mal..

Und wenn es keinen Unterschied zwischen dem "gefakten" Very High und dem "echten" Very High gibt.. was ist dann da der Unterschied? :ugly:

Sry aber das Very High über die InI im DX9 Modus ist genauso Very High wie unter DX10. Die Unterschiede sind mit dem bloßen Auge nicht zu erkennen.

Deathcrush
2007-11-27, 14:57:45
Viper;6063158']nö. Ab 30fps isses gefühlt sehr flüssig. Komischer Weise brauchen andere Games meist viel mehr fps um sich genauso flüssig "anzufühlen"

30FPS sind mir persönlich zu wenig. Schmerzgrenze 35 FPS, besser noch 40 FPS. Dafür verzichte ich lieber auf 1-2 Details ;)

[dzp]Viper
2007-11-27, 15:00:12
30FPS sind mir persönlich zu wenig. Schmerzgrenze 35 FPS, besser noch 40 FPS. Dafür verzichte ich lieber auf 1-2 Details ;)

Ich freu mich zu lesen, dass du bereits von deinem 60fps Tripp runtergekommen bist

:weg:


X-D

tombman
2007-11-27, 15:05:31
Klar, wenn man die Bedingungen selbst festlegt kann man jeden Wettkampf gewinnen.

Das ist einfach sowas von lächerlich, Tombman. Und das weißt du selbst auch ganz genau, du kannst dir einfach nur selbst nicht eingestehen einmal im Leben nicht Recht gehabt zu haben.


Angabe sind: Maximale Details. Darunter kann man ebenso "Max Ingame" Details sehen. Da gehört der AA Regler nunmal dazu, ebenso wie eine Standesgemäße Auflösung und ECHTES Very High, nicht das .ini gefake...
Wurde alles schon behandelt, lies meine letzten Posts nochmal, habe keine Lust für dich alles zu wiederholen. Nur ganz kurz in Stichpunkten:
1.) 1280x800 ist standesgemäß und fair. (16x10 und darüber = SLI Land)
2.) der tweak ist zulässig, weil man darunter AUCH max. details verstehen kann.
"echtes very high" unterscheidet sich optisch vom getweakten praktisch in fast gar nix.
Und wenn die Treiber und die Patchversionen nicht so saulangsam wären, dann würde das ganze auch in "echtem" very high mit 30fps laufen. (was very high genau macht ist ja kein Geheimnis, kann man in Listen im Netz genau nachlesen, der tweak simuliert das nazu perfekt!)
3.) Es geht sinngemäß um die Gesamtsituation, die es erlaubt, daß man mit einer GTX Crysis
in max. details sinnvoll und flüssig spielen kann- und das kann man.

p.s.. ich habe überhaupt kein Problem damit mal nicht Recht zu haben. Bevor ich was von dem tweak wußte, vorallem wie gut er ist, hatte ich in diesem Forum ja auch schon öffentlich gesagt, daß es für VISTA very high nicht ausreicht, und ich daher die Umfrage VERLOREN habe.
JETZT, nach neuem Erkenntnisstand, ist es für mich eindeutig klar, daß die Situation der Leistung mit dem tweak, als auch die Qualität des tweaks, AUSREICHT um ihn noch als "max details" zu verstehen- und damit die Umfrage zu gewinnen :cool:

Bumsfalara
2007-11-27, 15:22:04
Wurde alles schon behandelt, lies meine letzten Posts nochmal, habe keine Lust für dich alles zu wiederholen. Nur ganz kurz in Stichpunkten:
1.) 1280x800 ist standesgemäß und fair. (16x10 und darüber = SLI Land)
2.) der tweak ist zulässig, weil man darunter AUCH max. details verstehen kann.
"echtes very high" unterscheidet sich optisch vom getweakten praktisch in fast gar nix.
Und wenn die Treiber und die Patchversionen nicht so saulangsam wären, dann würde das ganze auch in "echtem" very high mit 30fps laufen. (was very high genau macht ist ja kein Geheimnis, kann man in Listen im Netz genau nachlesen, der tweak simuliert das nazu perfekt!)
3.) Es geht sinngemäß um die Gesamtsituation, die es erlaubt, daß man mit einer GTX Crysis
in max. details sinnvoll und flüssig spielen kann- und das kann man.

p.s.. ich habe überhaupt kein Problem damit mal nicht Recht zu haben. Bevor ich was von dem tweak wußte, vorallem wie gut er ist, hatte ich in diesem Forum ja auch schon öffentlich gesagt, daß es für VISTA very high nicht ausreicht, und ich daher die Umfrage VERLOREN habe.
JETZT, nach neuem Erkenntnisstand, ist es für mich eindeutig klar, daß die Situation der Leistung mit dem tweak, als auch die Qualität des tweaks, AUSREICHT um ihn noch als "max details" zu verstehen- und damit die Umfrage zu gewinnen :cool:
Gut, das mit dem Tweak gestehe ich dir zu, die Unterschiede sind mit blosem Auge wirklich nicht zu erkennen.

AA4 hast du auch freiwillig reingehaun, von mir aus. Wobei ich der Meinung bin, dass AA4 zu heutigen Max Setting mindestens dazugehört.


Aber die Auflösung ist in meinen Augen nicht mehr Zeitgemäß. Aber gut, darüber lässt sich streiten. Es mir völlig schnurz, ob du irgendwas gewinnst oder net, aber du selbst musst zugeben, dass die Umfrage einen sehr großen Interpretationsraum zulässt.

tombman
2007-11-27, 15:25:39
aber du selbst musst zugeben, dass die Umfrage einen sehr großen Interpretationsraum zulässt.
Jo, tuts leider, sollte ich nächstes Mal vielleicht anders machen, wenn es denn ein nächstes Mal gibt ;)
So nen Hype wie um Crysis, und vorallem die Angst um die Leistung, wirds so schnell nicht wieder geben, schätze ich mal.

p.s. verdammt, noch 1400 posts bis zum insane member ;D

Deathcrush
2007-11-27, 15:31:32
Viper;6063199']Ich freu mich zu lesen, dass du bereits von deinem 60fps Tripp runtergekommen bist

:weg:


X-D


Kommt auf das Spiel an. UT3, Cod4 und CSS würde ich nicht einmal mit 40FPS mit der Kneifzange anfassen. Da sind 50FPS und darüber Pflicht für mich. Alles darunter wird nicht toleriert. Ich achte bei den Games, das ich möglichst 70-75FPS habe ;) Ist ja ansich auch kein Problem. Kommt halt auf die Geschwindigkeit des Spiels an. Arma und Crysis sind ja eher langsamere Spiele.


@All

Mich würde dennoch mal interessieren wie sich hier eine GTX machen würde @1680x1050 0AA/8AF High Details (nicht Very High)

Könnte das mal jemand benchen und mir ein Screenshot zukommen lassen? (min, max und Avg FPS)

Sonyfreak
2007-11-27, 15:32:23
Ist das uralte Problem, was einige wohl nicht einsehen wollen. Nur weil die TFTs jetzt höhere Auflösungen haben, wird 16xx x 1xxx nicht plötzlich zum single gpu Standard!!!
Ich. ;) Ok, hab zwar nur eine ~80% GTX. Macht aber nichts. Die nächste Graka wird eine ~140% GTX (ohne OC) sein, an der Auflösung ändert sich gar nichts. Na gut, ich nutze eher 1280x1024. :)1680x1050 oder 1600x1200 ist die Auflösung für die Grafikkarten der Performanceklasse (2900XT, HD3870, 8800GTS 640MB, 8800GT 512MB). Alles darüber (1920x1440, 1920x1200 usw.) ist meiner Meinung nach das Land der GTX+Ultra Karten, und die 2560x1600 bleibt den SLI-Gespannen vorbehalten. 1280x1024 ist daher ganz eindeutig ein Fall für die Mainstreamklasse, was man ja auch an der Verbreitung entsprechender Displays sieht. Und deine gewählten 1280x800 entsprechen nichtmal diesem eh schon niedrigen Standard. Aber das ist halt nur meine Definition. ;)

Wer jetzt im Endeffekt recht behalten hat, muss jeder für sich entscheiden. Für mich kann ich jedenfalls sagen, dass meine Einschätzung der Lage genau eingetroffen ist. Ich warte mit dem Kauf von Crysis jedenfalls noch, bis ich meine nächste Grafikkarte im PC stecken habe. :)

mfg.

Sonyfreak

[dzp]Viper
2007-11-27, 15:33:03
Aber die Auflösung ist in meinen Augen nicht mehr Zeitgemäß. A

Nur so nebenbei um dein Auflösungsbild mal geradezurücken - die meist verbreiteten Spieleauflösungen sind immernoch 1024x768 und 1280x1024. Beide zusammen kommen auf über 75% "Marktanteil" bei den Spieleauflösungen ;)

[dzp]Viper
2007-11-27, 15:34:14
Kommt auf das Spiel an. UT3, Cod4 und CSS würde ich nicht einmal mit 40FPS mit der Kneifzange anfassen. Da sind 50FPS und darüber Pflicht für mich. Alles darunter wird nicht toleriert. Ich achte bei den Games, das ich möglichst 70-75FPS habe ;) Ist ja ansich auch kein Problem. Kommt halt auf die Geschwindigkeit des Spiels an. Arma und Crysis sind ja eher langsamere Spiele.

Ich sehe, wir kommen doch noch auf einen gemeinsamen Nenner :)

tombman
2007-11-27, 15:37:55
1680x1050 oder 1600x1200 ist die Auflösung für die Grafikkarten der Performanceklasse (2900XT, HD3870, 8800GTS 640MB, 8800GT 512MB). Alles darüber (1920x1440, 1920x1200 usw.) ist meiner Meinung nach das Land der GTX+Ultra Karten, und die 2560x1600 bleibt den SLI-Gespannen vorbehalten. 1280x1024 ist daher ganz eindeutig ein Fall für die Mainstreamklasse, was man ja auch an der Verbreitung entsprechender Displays sieht. Und deine gewählten 1280x800 entsprechen nichtmal diesem eh schon niedrigen Standard. Aber das ist halt nur meine Definition. ;)
:eek: Was ne krasse Definition :eek:

Was hättest eigentlich zu ner Zeit gesagt, wo es noch keine 2560x1600 Displays gab? Da war dann SLI rein zum Spaß an der Freude, oder wie?

Nene, alles ab 1600x1000 aufwärts ist SLI Land, war immer schon so. 2560x1600 ist eher was für triple oder quad Karten ;D

Siehe auch:
Viper;6063346'] die meist verbreiteten Spieleauflösungen sind immernoch 1024x768 und 1280x1024. Beide zusammen kommen auf über 75% "Marktanteil" bei den Spieleauflösungen ;)

Danbaradur
2007-11-27, 15:38:48
3.) Es geht sinngemäß um die Gesamtsituation, die es erlaubt, daß man mit einer GTX Crysis
in max. details sinnvoll und flüssig spielen kann- und das kann man.

Weitesgehend stimme ich dir zu, aber ich denke jeder definiert flüssig anders.

Ich verstehe z.B. unter flüssig, daß ich mich in jedem Level schnell um die eigene Achse drehen kann, oder Scopenutzung egal wo ich hinschaue und das Ganze ohne Microruckler.
Wenn ich danach gehe, gibt es Stellen, die nicht flüssig laufen.

tombman
2007-11-27, 15:42:12
Weitesgehend stimme ich dir zu, aber ich denke jeder definiert flüssig anders.

Ich verstehe z.B. unter flüssig, daß ich mich in jedem Level schnell um die eigene Achse drehen kann, oder Scopenutzung egal wo ich hinschaue und das Ganze ohne Microruckler.
Wenn ich danach gehe, gibt es Stellen, die nicht flüssig laufen.
Siehe Punkt "Gesamtsituation" ;)

Moderne games mit hoher Sichtweite und hohem Polygoncount gibts ohne Mikroruckler gar nimmer, schon gar ned wenn auch haufenweise Physik dabei ist.

Klar, zu quake2 Zeiten, wo alles schön statisch war, konnte man sich sicher sein, daß da nix großartig passieren wird.
Jetzt kann es immer mal wieder vorkommen, wenn ein paar Ereignisse gleichzeitig eintreten, daß es zu Rucklern kommen kann, vorallem in Kombination mit Physik.
Das kann unmöglich alles vom dev. vorhergesagt werden.

Aber kannst ja gerne mal vorbeikommen, dir ne Stelle aussuchen, und selbst spielen ;)

Sonyfreak
2007-11-27, 15:49:22
:eek: Was ne krasse Definition :eek:

Was hättest eigentlich zu ner Zeit gesagt, wo es noch keine 2560x1600 Displays gab? Da war dann SLI rein zum Spaß an der Freude, oder wie?

Nene, alles ab 1600x1000 aufwärts ist SLI Land, war immer schon so. 2560x1600 ist eher was für triple oder quad Karten ;D

Siehe auch:Die Grafikkartenleistung steigt schneller, als die Displays an Größe gewinnen. Eine heutige Highendkarte ist halt nicht mehr wie zu Geforce 3/4 Zeiten dafür ausgelegt, im Normalfall auf 1024x768 oder 1280x960 betrieben zu werten. Aber lassen wir die ganze Sache. Jede hat recht behalten, und alle sind glücklich.

mfg.

Sonyfreak

tombman
2007-11-27, 15:55:28
Die Grafikkartenleistung steigt schneller, als die Displays an Größe gewinnen.
Die Anforderungen der Anwendungen steigen aber auch ;) Und damit bleibt alles beim alten und die alten Grenzen auch.

Bumsfalara
2007-11-27, 15:56:33
Viper;6063346']Nur so nebenbei um dein Auflösungsbild mal geradezurücken - die meist verbreiteten Spieleauflösungen sind immernoch 1024x768 und 1280x1024. Beide zusammen kommen auf über 75% "Marktanteil" bei den Spieleauflösungen ;)
Nicht im 3dcenter Forum, wo haufenweise Leute mit GTXen, 22 und 24 Zoll Monitoren rumlaufen...


Die Steam Hardwareumfrage ist für das Forum hier nicht representativ. Genausowenig wie die Auflösung, die Tombman veranschlagt.

[dzp]Viper
2007-11-27, 16:00:59
Nicht im 3dcenter Forum, wo haufenweise Leute mit GTXen, 22 und 24 Zoll Monitoren rumlaufen...

Ihr redet aber von der "Allgemeinheit" und ich poste dazu Sachen die sich darauf beziehen.

Zitat von dir: "aber die Auflösung ist in meinen Augen nicht mehr Zeitgemäß"

Und sie ist eben doch Zeitgemäß. Auflösungen von 1600 und höher haben nichts mit "Zeitgemäß" zu tun sondern eine Zeitgemäße Sache bezieht sich immer auf das, was gerade die "Allgemeinheit" nutzt...

Danbaradur
2007-11-27, 16:02:39
Aber kannst ja gerne mal vorbeikommen, dir ne Stelle aussuchen, und selbst spielen ;)

Gerne, sofern du die Reisekosten übernimmst.

[dzp]Viper
2007-11-27, 16:03:24
Gerne, sofern du die Reisekosten übernimmst.

Pass auf sonst übernimmt die tombman wirklich noch :tongue:

dargo
2007-11-27, 16:03:53
Die Grafikkartenleistung steigt schneller, als die Displays an Größe gewinnen.
Und der Rechenaufwand bei den Games bleibt immer gleich oder wie?

Coda
2007-11-27, 16:05:58
Die Anforderungen der Anwendungen steigen aber auch ;) Und damit bleibt alles beim alten und die alten Grenzen auch.
Die Pixelanzahl steigt aber nur linear, die Grafikleistung dagegen exponentiell. Es ist schon so, dass die Durchschnittsauflösung stetig steigt. Unreal habe ich damals noch in 512x384 gespielt, da würde ich heute Augenkrebs davon bekommen.

tombman
2007-11-27, 16:06:46
Viper;6063466']Pass auf sonst übernimmt die tombman wirklich noch :tongue:
Nur wenn er ein Weibchen wäre mit ner >90% Chance auf Sex ;D;D

tombman
2007-11-27, 16:08:48
Die Pixelanzahl steigt aber nur linear, die Grafikleistung dagegen exponentiell. Es ist schon so, dass die Durchschnittsauflösung stetig steigt. Unreal habe ich damals noch in 512x384 gespielt, da würde ich heute Augenkrebs davon bekommen.
Kann ja sein, aber 1680x1050 und darüber ist IMO noch keine Durchschnittsauflösung...

Deathcrush
2007-11-27, 18:05:38
Keiner einer der mir mal einen Bench mir einer 8800GTX @1680x1050 /High (kein Very High) zeigen kann?

master_blaster
2007-11-27, 18:12:57
Die Pixelanzahl steigt aber nur linear, die Grafikleistung dagegen exponentiell. Es ist schon so, dass die Durchschnittsauflösung stetig steigt. Unreal habe ich damals noch in 512x384 gespielt, da würde ich heute Augenkrebs davon bekommen.
Es wäre interessant zu wissen, von welcher expliziten Grafikleistung du sprichst; Shaderpower, Texturleistung, Speicherbandbreite?
Ich habe jedenfalls noch keine Grafikkartengeneration in den letzten 5 Jahren gesehen, in denen sich die resultierende Grafikleistung expponentiell vervielfacht hat. Eher ist gerade hier ein lineares Wachstum zu beobachten und bei den Spielen ein exponentialer Bedarf, da ein höherer Realismusgrad (am Beispiel von Crysis) deutlich mehr an Power verbrät, (Vergleich High/Very High).

4 Vitamins
2007-11-27, 19:00:37
wie "jeder" weist ist die meist verbreitete Auflösung 1280x1024
Durch die wahl der auflösung auf "1280x800" hat der user Tombloser offiziell eingeräumt sich in unrecht befunden zu haben.:biggrin:

Das macht IHN zu einem ehrenvollen mituser, der uns seinen wahren und mackenlosen charakter bewundern lässt.:|


gruss

Sonyfreak
2007-11-27, 19:00:45
Kann ja sein, aber 1680x1050 und darüber ist IMO noch keine Durchschnittsauflösung...Und ein G80 ist keine Durchschnittsgrafikkarte. Es gibt sicherlich mehr Leute mit einem 20" bzw. 22" Monitor, als mit einer Karte mit 8800er Chip.

mfg.

Sonyfreak

jay.gee
2007-11-27, 19:39:28
Das war NIE die Bedingung, lies den thread TITEL nochmal. Dort steht CIRCA 30fps.
Und da war auch nie von MINIMUM FPS die Rede. Und es war auch nie von 1280x1024 oder 1680x1050 die Rede- oder von zugeschaltetem AA!

Du hast aber auch einen hohen Anspruch, tombman :biggrin: Man, ich bin schwer beeindruckt was Du so unter edelen Settings und flüssiges Gameplay verstehst ;D Wirklich, tomb - dieses Forum braucht Enthusiasten wie dich :up:

Das wichtigste aber: ES FÜHLT SICH ABSOLUT FLÜSSIG AN. Und genau darum ging es in der Umfrage, welche sinngemäß lautete: "Wird man mit einer GTX alles aufdrehen können, was Crysis zu bieten zu hat, und dabei Spaß haben" -> JA, DAS WIRD MAN.

Shitty - ist das geil hier. ;D An Peinlichkeit kaum zu überbieten.


Das ist der KERN des ganzen Themas und der Umfrage.


Du hast dir wie immer alles so gedreht, wie Du es brauchst, um ja nicht dein Gesicht in einem virtuellen Forum zu verlieren und dabei den KERN ganz oft verfehlt. Tomb, ich glaube ich haue deinen Namen auch in meine Sig. Man sollte dir echt einen Guru-Status verpassen - denn aus meiner Sicht bist Du der grösste Oberchecker im ganzen Forum - mein ganz privater anspruchsvoller Gott :massa: Du hast uns - um es in deinen Worten zu sagen - sowas von geownt, dass ich gegenwärtig ein bischen sprachlos bin. Niemand konnte halt vorraussehen, dass das Game in Qualitätssettings soetwas von flüssig laufen wird.

Besonders beeindruckend in diversen Settings ist der von Crytek eigens programmierte SlowMo-Effekt bei schnellen Moves - wenn die Umgebung um einen herum dabei so richtig bebt. Das ruckelt nicht - das ist SlowMo - absolut ausgelgt für ProGamer, Ownaz, Checker und Enthusiasten. Und halt für Jene, die es gerne wären......

tombman
2007-11-27, 19:54:54
Tombloser
:nono:

Gemeldet.

tombman
2007-11-27, 19:55:43
Und ein G80 ist keine Durchschnittsgrafikkarte. Es gibt sicherlich mehr Leute mit einem 20" bzw. 22" Monitor, als mit einer Karte mit 8800er Chip.

Und? Hier gehts nur um GTX.

tombman
2007-11-27, 19:59:14
...[megabla]...

Lol, ein kompletter "post", nein, eher das übliche jay.gee Senf abgeben, als totale Themaverfehlung.
Ich weiß, deine Doktorarbeit (;D) hat das Thema "Tombman- das Phänomen", aber es ist nun mal nicht das Thema dieses threads. Btw, lang hast gebraucht dich hier blicken zu lassen, habe dich schon vermißt ;D

Popeljoe
2007-11-27, 20:05:28
Mensch Jungs: ist es denn sooo schwer mal einen Tag ohne einen Flame dahinstreichen zu lassen? :rolleyes: Jay.Gee und 4 Vitamins: wenn ihr keinen Bock auf Tombman habt, dann benutzt die Ignore Liste, ansonsten rate ich euch von weiteren derartigen Postings ab! :mad:

Deathcrush
2007-11-27, 20:15:47
Und ich warte immer moch darauf das einer so freundlich ist mir mal Crysis mit 1680x1050 mit einer GTX zu benchen :) (@High ohne AA/8AF)


(Hintergrund: Ich könnte eine GTX für 330.- bekommen ;) Würde ich meine GTS verkaufen, wäre der Verlust recht gering. Fragt sich halt, ob es sich wirklich lohnt)

Blackpitty
2007-11-27, 20:18:37
aus aktuellem anlsass sag ich auch mal was.

System seht ihr in der Signatur.

Habe eine 8800GTX, Taktmäßig mit 684/1053 zwar schneller als eine Ultra oder so schnell wie die schnellste, doch Crysis läuft ganz gut bei mir.

Ich Spiele in 1680x1050

Ingame alles maximal, 2x AA(reicht) 16xAF per Auto CFG alles auf Very High und die wichtigsten DX10 effeckte an, Sonnenstraheln an Blatträndern und sontigen Spass

Habe mit den Einstellungen im GPU Benchmark 25-27FPS Durchschnitt, und ja, ich spiele so wirklich gut, es macht Spass, und das kindische immer auf die FPs geschaue habe ich mir schon lange abgewöhnt, entweder es läuft oder es läuft nicht.

Im Multiplayer sieht es FPS Mäßig dann noch höher aus.

So, meine Meinung, mit meinem System kann ich Crysis gut spielen, es macht Spass, und verzichten tu ich qualitätsmäßig auf nichts, oder kaum.

Hätte nicht gedacht, dass es überhaupt so gut laufen wird.

:edit: ganz vergessen, Transparenz AA habe ich auf Multisampling

master_blaster
2007-11-27, 20:21:37
Und ich warte immer moch darauf das einer so freundlich ist mir mal Crysis mit 1680x1050 mit einer GTX zu benchen :) (@High ohne AA/8AF)


(Hintergrund: Ich könnte eine GTX für 330.- bekommen ;) Würde ich meine GTS verkaufen, wäre der Verlust recht gering. Fragt sich halt, ob es sich wirklich lohnt)
Habe leider diese Woche keine Zeit zum benchen, sonst könnte ich's mal ausprbieren. Allerdings: Mit den Settings ist ja klar, das GTX 'ne ganze Ecke schneller ist. Deutlich höhere Shaderpower und höhere Speicherbandbreite. Nur: Die kommende GTS ist nicht mehr lange hin, wird voraussichtlich sogar die Ultra plätten und das für 349$ -> geschätzter Retailpreis ~300,-.

4 Vitamins
2007-11-27, 20:26:27
:nono:

Gemeldet.

Shit, normaleweise würde sich niemand, nach sone blamablen vorstellung, in einem forum blicken lassen um sein gesicht nicht noch ganz zu verlieren.
Du bist aber doch da..rrrrrrrespekt!!!!:eek: ;D

ups..MOD: habs verstanden ;)

Popeljoe
2007-11-27, 20:28:44
Shit, normaleweise würde sich niemand, nach sone blamablen vorstellung, in einem forum blicken lassen um sein gesicht nicht noch ganz zu verlieren.
Du bist aber doch da..rrrrrrrespekt!!!!:eek: ;D

ups..MOD: habs verstanden ;)
Nee, hast du anscheinend nicht! Viel Spaß bei der Auszeit! :mad:

Megamember
2007-11-27, 20:33:57
Habe leider diese Woche keine Zeit zum benchen, sonst könnte ich's mal ausprbieren. Allerdings: Mit den Settings ist ja klar, das GTX 'ne ganze Ecke schneller ist. Deutlich höhere Shaderpower und höhere Speicherbandbreite. Nur: Die kommende GTS ist nicht mehr lange hin, wird voraussichtlich sogar die Ultra plätten und das für 349$ -> geschätzter Retailpreis ~300,-.

Warum sollte die kommende GTS ne Ultra plätten? Die wird sich schön zwischen GTS und GTX einordnen.

jay.gee
2007-11-27, 20:43:39
Warum sollte die kommende GTS ne Ultra plätten? Die wird sich schön zwischen GTS und GTX einordnen.

Da ist die GT schon, Mega. Die GT SC kannste in Settings ala ~1280x1024 AAx4 und AFx16 eigentlich schon jetzt ~mit der GTX gleichsetzen. Mit dem Unterschied, dass sie nur ~250€ kostet. Also kann man sich in etwa ausmalen, wie die GTS abgehen wird. Die GTX ist tod.

tombman
2007-11-27, 20:44:57
Da ist die GT schon, Mega. Die GT SC kannste in Settings ala ~1280x1024 AAx4 und AFx16 eigentlich schon jetzt ~mit der GTX gleichsetzen. Mit dem Unterschied, dass sie nur ~250€ kostet. Also kann man sich in etwa ausmalen, wie die GTS abgehen wird. Die GTX ist tod.
Tot ist die GTX sicher nicht....

Megamember
2007-11-27, 20:48:20
Warum, ich dachte die neue GTS ist einfach ne "alte" GTS in 65nm und 112 statt 96 Pipes, also nix Weltbewegendes.

Bodo-Ffo
2007-11-27, 20:48:31
Und ich warte immer moch darauf das einer so freundlich ist mir mal Crysis mit 1680x1050 mit einer GTX zu benchen :) (@High ohne AA/8AF)


(Hintergrund: Ich könnte eine GTX für 330.- bekommen ;) Würde ich meine GTS verkaufen, wäre der Verlust recht gering. Fragt sich halt, ob es sich wirklich lohnt)Bitte Schön!

http://img139.imageshack.us/img139/1435/crysis1ct0.jpg (http://imageshack.us)
http://img108.imageshack.us/img108/3851/crysis2wq5.jpg (http://imageshack.us)

Habe mit den Einstellungen im GPU Benchmark 25-27FPS Durchschnitt, und ja, ich spiele so wirklich gut, es macht Spass, und das kindische immer auf die FPs geschaue habe ich mir schon lange abgewöhnt, entweder es läuft oder es läuft nicht.JENAU, entweder es läuft oder es läuft nicht ;)


MfG
Bodo

master_blaster
2007-11-27, 20:50:58
Tot ist die GTX sicher nicht....
Nochnicht, aber dann, wenn die die GTS kommt. Ich kann mir nicht vorstellen, dass nVidia dann ernsthaft noch G80s produzieren wird. Es folgen bestimmt auchnoch refresh GTX'/Ultras.
Und dann steht ja in nicht allzuferner Zukunft auch die nächste Generation an, wenn ATI dann mit der Dualchipkarte auf Basis der alten Technik kommt ... die armen Schweine, :mad:. Dann wirds garkeine Konkurrenz mehr Geben und die Karten für Crysis3 5000,- Euro kosten, ;D.

Blackpitty
2007-11-27, 20:51:10
.....

Die GTX ist tod.

naja, immerhin ist die GTX 1 Jahr alt, und dafür macht sie noch mehr als eine gute Figur:rolleyes:

tombman
2007-11-27, 20:52:41
Warum, ich dachte die neue GTS ist einfach ne "alte" GTS in 65nm und 112 statt 96 Pipes, also nix Weltbewegendes.
Nene, wir meinen die G92 GTS, und die hat 128sp und bis zu 1 Gb ram. Außerdem sehr hohe Taktraten.
NICHT zu verwechseln mit der Neuauflage der alten GTS!!

master_blaster
2007-11-27, 20:55:27
Nene, wir meinen die G92 GTS, und die hat 128sp und bis zu 1 Gb ram. Außerdem sehr hohe Taktraten.
NICHT zu verwechseln mit der Neuauflage der alten GTS!!
Wat? Es kommt noch 'ne Neuauflage der alten GTS? Also insgesamt gibts 3 GTS? Haben die den Anus gespalten, :ugly:!?

@Threadtitel:
Ich würde vermuten, dass die GTX in 640x480 durchaus veryhigh flüssig schafft, :P.

tombman
2007-11-27, 21:04:54
Wat? Es kommt noch 'ne Neuauflage der alten GTS? Also insgesamt gibts 3 GTS? Haben die den Anus gespalten, :ugly:!?
ja, richtig, es gibt drei Grundtypen: G80 GTS (96sp), die "neue" G80 GTS (112sp), und die G92 GTS (128sp).
Die GT ist auch eine G92, deswegen so geil. Hier mal die Info zur G92 GTS
http://www.hartware.de/news_43539.html

@Threadtitel:
Ich würde vermuten, dass die GTX in 640x480 durchaus veryhigh flüssig schafft, :P.
Nö, sie rennt auch in 1280x800 flüssig.