PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wird Crysis auf einer 8800GTX mit maximalen Details flüssig (~30fps) spielbar sein?


Seiten : [1] 2 3 4

tombman
2007-06-25, 14:59:21
ACHTUNG: POLLFRAGE GENAU ANSEHEN!!!!

Immer wieder hört man diesen Satz voller Angst oder sogar Hoffnung.

Jetzt mal Butter bei de Fische- hier die öffentliche Umfrage.

Wer glaubt ja, wer glaubt nein.

Sindri
2007-06-25, 15:00:46
Umfrage ohne Poll?

Ich glaube nein - es sei denn Dx10 Mode in 1920* mit 6/16
-
da ist sie ja^^

captainsangria
2007-06-25, 15:02:12
nein

bis das rauskommt ist die karte auch schon ein alter hut

tombman
2007-06-25, 15:02:57
Umfrage ohne Poll?

Ich glaube nein - es sei denn Dx10 Mode in 1920* mit 6/16
-
da ist sie ja^^
Dann hättest aber JA sagen sollen, POLLFRAGE beachten!

Grey
2007-06-25, 15:03:34
http://www.theinquirer.net/default.aspx?article=36803

wird man dann sehen.

Sindri
2007-06-25, 15:05:11
Dann hättest aber JA sagen sollen, POLLFRAGE beachten!

Warum nimmst du im Poll auch ne andere Frage als im Titel :usad:

Undertaker
2007-06-25, 15:06:51
bestimmt nicht - man wird eine sli konfiguration der zu dem zeitpunkt aktuellsten karten ausreizen wollen, anders wäre ein neuer grafik-meilenstein auch gar nicht zu realisieren

edit: natürlich bezogen auf sinnvolle einstellungen, also 1280x1024 4xaa 16xaf oder 1920x1200 no aa/af

tombman
2007-06-25, 15:07:07
Warum nimmst du im Poll auch ne andere Frage als im Titel :usad:
Des war ned beabsichtigt :(

LovesuckZ
2007-06-25, 15:07:15
Was ist das für ein sinnloser Poll?
Was sind "maximale Details"? Natürlich wird Crysis bei dieser Fragestellung nicht auf dem G80 ruckeln, da man mit maximalen Details auch in 640*480 spielen kann.

tombman
2007-06-25, 15:10:16
Was ist das für ein sinnloser Poll?
Was sind "maximale Details"? Natürlich wird Crysis bei dieser Fragestellung nicht auf dem G80 ruckeln, da man mit maximalen Details auch in 640*480 spielen kann.
Also von MINIMUM 1024x768 gehe ich schon aus. Alles drunter nutzt ja KEIN MENSCH mehr...

dargo
2007-06-25, 15:10:50
http://www.theinquirer.net/default.aspx?article=36803

wird man dann sehen.
Mehr ist dazu auch nicht zu sagen.

Außerdem finde ich die Frage eh sinnlos da:

1. Angaben zur CPU/Ram Ausstattung fehlen.
2. ~30fps bei einem Shooter wie Crysis alles andere als flüßig ist. Wenn ich da an Farcry denke fand ich es erst ab 40fps, besser 45-50fps flüßig.
3. Wenn ich in ~99% von Crysis weit über 30fps bin und es eine Stelle gibt wo die fps auf 25fps rutschen kann ich damit leben. ;)

Man sieht also, diese Frage läßt sich ohne weiteres nicht beantworten.

Edit:
Da fällt mir gerade ein - falsches Unterforum. Im Diskussionsforum (Spekulationen) würde es besser passen. ;)

Undertaker
2007-06-25, 15:11:16
Des war ned beabsichtigt :(

den threadtitel kannst du noch ändern, also machs am besten passend zur umfrage

http://www.theinquirer.net/default.aspx?article=36803

wird man dann sehen.

da muss ich an doom3 denken - da waren demos anfangs auch auf der geforce 3, dann hörte man "maximale details auf einer ti4600" und letztlich brauchte es doch r420/nv40

Matrix316
2007-06-25, 15:12:35
Hm ich hab gedacht die Frage lautet obs ruckeln wird und dann zu schnell auf "nein" geklickt. Warum muss auch die eigentliche Frage genau das Gegenteil vom Threadtitel sein? :rolleyes: ;)

Allerdings wenn ich nochmal überlege, steht da nirgends die Auflösung, also wird wohl nein doch die richtige Antwort sein, mit allen Details auf 2000 x irgendwas dürfte es schon etwas ruckeln. :)

LovesuckZ
2007-06-25, 15:12:53
Also von MINIMUM 1024x768 gehe ich schon aus. Alles drunter nutzt ja KEIN MENSCH mehr...

Das ist nicht Bestandteil deiner Umfrage. ;)
Stelle sie konkreter dar und dann mach einen neuem Thread auf. Aber dieser ist vollkommen sinnlos.

tombman
2007-06-25, 15:14:00
Nix da, das bleibt jetzt so wie es ist- Chaos inkl. ;)

LovesuckZ
2007-06-25, 15:16:34
Nix da, das bleibt jetzt so wie es ist- Chaos inkl. ;)

Dann bleibt doch nur "nein" als einzige Antwortmöglichkeit übrig, da man das Spiel auch in 640*480 spielen kann mit "maximalen Details".
Du siehst, deine Umfrage ist wirklich einseitig.

/edit: Abgesehen davon, dass niemand weiß, was du unter "maximalen Details" verstehst.

Noebbie
2007-06-25, 15:16:57
Nix da, das bleibt jetzt so wie es ist- Chaos inkl. ;)

ich hab eh für jain gevotet! (y)

Nedo
2007-06-25, 15:17:01
Ich wollte eigtl. auf Ja klicken hab dann aber aus Versehen auf Nein...

Bin mir aber auch nicht ganz sicher. Ich weiß nicht... zählen zu Maximalen Details auch ein bisschen AA ^^?

Ich befürchte fast, dass es oft unter 30 fps kommen wird...

Monger
2007-06-25, 15:22:15
Bei einer Auflösung von 1280*960 mit vollen Details, aber ohne AF und AA - ja.

Was ich bis jetzt von Crysis gesehen habe, sah zwar bombastisch aus, aber imho nicht zuletzt, weil sich offensichtlich die Grafiker diesmal richtig ins Zeug gelegt haben. Den Sprung von Far Cry zu Crysis halte ich gar nicht mal für sooo riesig.

JackBauer
2007-06-25, 15:24:27
ich glaube crysis wird butterweich laufen auf modernene kisten (mit aa + af), weil es extrem an den pc optimiert wird, wie seinerzeit Half Life 2

GanjaBob
2007-06-25, 16:36:29
bin optimist: klaro! sogar auf ner x2900XT !!! ;)

Super Grobi
2007-06-25, 16:42:27
Crysis wird auf der GTX so laufen, wie damals Farcry auf einer 9700Pro. Brauchbar, aber könnte besser gehen.

SG

jay.gee
2007-06-25, 16:50:19
Ja, es wird imho in maximalen Details @ ~1280x1024 AAx4 & AFx16 ruckeln. Der G80 wird zum Release des Games auch ganz sicher kein "HighEnd" mehr darstellen. Nicht mal auf Präsentationsmovies sind die Devs bis jetzt in der Lage, mal 1min. Nonstop Gameplay aufzuzeigen, ohne, dass es zu sichtbaren Framedrops oder Hängern kommt, bei denen das Bild gelegentlich bis zu ~2 Sek. stockt. Ich persönlich gehe davon aus, dass die passende Hardware so in etwa ~6 Monate nach dem Release verfügbar sein wird, wenn man denn keine Kompromisse eingehen möchte und wirklich von flüssigem Gameplay sprechen möchte. *Wie halt immer nach einem neuen Techniksprung*

Trotz des Marketinggeblubbers, hoffe ich doch, dass listige Beobachter noch in Erinnerung haben, dass es laut Aussagen mal auf einer x1900XT sehr gut laufen sollte. Ich weiss noch wo die X1900XT Highend darstellte und alle gesabbelt haben, dass sie locker für Crysis ausreichen wird. Ich denke, das glauben heute nur noch die Wenigsten.

Blackpitty
2007-06-25, 16:50:46
ja, mit einer 8800GTX läuft es angenehm und schön flüssig :smile:

Morbid Angel
2007-06-25, 16:54:40
ja, mit einer 8800GTX läuft es angenehm und schön flüssig :smile:

Ich besitze eine und könnte es ja testen, irgendwann. ;)

Ice-Kraem
2007-06-25, 16:57:51
ja, in der richtigen umgebung, sprich dicker cpu, viel ram, ....

Super-S
2007-06-25, 17:04:17
Ja, es wird imho in maximalen Details @ ~1280x1024 AAx4 & AFx16 ruckeln. Der G80 wird zum Release des Games auch ganz sicher kein "HighEnd" mehr darstellen.

Das mit dem Ruckeln glaube ich auch... hängt aber auch stark von der CPU ab. Das der G80 aber bei Rlz. ein alter Hut vom Namen her sein wird glaub ich nicht. Selbst wenn ein Nachfolger draussen sein wird.... wird mann den G80 nicht als Midrange abstempeln.

War ja beim Rlz. von 1900xtx auch so.... da gehörte die X1800 auch noch zum High-End Segment. Und da der G80 ja auch nur als Refresh und nicht im kompletten Neu_Design rauskommt, erst Recht.

Alles nur starke Vermutung... zu meiner Sicherheit ;).

TheGoD
2007-06-25, 17:12:31
ACHTUNG: POLLFRAGE GENAU ANSEHEN!!!!

Immer wieder hört man diesen Satz voller Angst oder sogar Hoffnung.

Jetzt mal Butter bei de Fische- hier die öffentliche Umfrage.

Wer glaubt ja, wer glaubt nein.

Mhmm, was sind den maximale Details, alles Ingame auf High? Denkt mal an den HDRR-Patch von FarCry oder an die SoftShadows aus Fear.

Hab mal mit ja gestimmt, in 320*240 sollte die Grafikkarte recht egal sein;D

mapel110
2007-06-25, 17:50:47
Naja, schon bei Farcry war niedrigste mögliche Auflösung afaik 800x600.

Je nach Ansprüchen (AA/AF/Auflösung) sind sicher 30 fps drin. Laut Entwicklern solls ja auf der GTX und selbst auf der GTS sehr gut laufen.
http://www.winfuture.de/news,32318.html
Er sagte, dass man mit einer Intel Core 2 Duo E6600 CPU, deren Kerne mit 2,4 Gigahertz takten, bereits bestens gerüstet sei. Damit soll Crysis mit den maximal möglichen Leistungseinstellungen ohne Schwierigkeiten spielbar sein. Er empfahl, zwei Gigabyte Arbeitsspeicher zu installieren. Während eine Nvidia 8800 GTS ausreicht, sei die schnellere GTX-Variante die Ideallösung in Sachen Grafik.

Christi
2007-06-25, 18:05:08
Ich meine Ja, nur könnten Benutzer der 24zoll Fraktion in nativer Auflösung Probleme bekommen.

Mein Kumpel hat einen 24zoll TFT + 8800GTX, da wird es in Lost Planet und Colin Dirt schon eng. Für AA sollte dann schon Sli drin stecken.


MfG

skivi
2007-06-25, 18:09:56
@mapel110

Diese Aussage ist mit Vorsicht zu geniessen. Entwickler haben schon vieles gesagt, und dann nicht eingehalten.

Und welche Auflösung gemeint ist steht auch nicht.

Al-CAlifAX
2007-06-25, 18:11:07
Ich meine Ja, nur könnten Benutzer der 24zoll Fraktion in nativer Auflösung Probleme bekommen.

Mein Kumpel hat einen 24zoll TFT + 8800GTX, da wird es in Lost Planet und Colin Dirt schon eng. Für AA sollte dann schon Sli drin stecken.


MfG

2 spiele die von der konsole kommen und auch dementsprechend eher mies programmiert sind.

ich tippe da auch eher das crysis voll optimiert daherkommen wird. wenns so wie bei farcry wird, wo ich selbst mit ner 5900TD128 spaß hatte und gut aussah (man muss nur wissen welche optionen viel fressen und man diese abschaltet ohne das man es arg merkt). richtig geil wars dann nochmal mit der 6800GT und vor kurzem erst wieder nen bissl gezockt mit meiner 7950GT. da wars dann richig geil. aber ansich gings auch damals. von daher.

ich denk es wird gut laufen mit oben genannter grafikkarte aber es wird tweakmäßig sicherlich mehr gehen. auch habe ich keine problem wenn mittlere details dastehen. solange das gebotene wie super high end aussieht. denn dann heisst das nur, das crysis nach oben hin mehr bitet für hardware die es erst in 1-2 jahren gibt. ansich ne gute idee.

was ich aber net toll finde. wenn man meint man muss mittlere details grad so lauffähig für high end systeme machen und der gegenwert an grafik passt net zur hardware. das ist net toll. aber warten wir es mal. ;)

Kladderadatsch
2007-06-25, 18:13:01
ich habe auf den titel geantwortet, nicht auf die poll-frage;(

far cry lief auf der high-end-karte der damals letzten genereation (ti4600) bei max. details ohne aa/af gerade noch flüssig. das werden die diesmal wohl wieder so machen und ich hoffe, der g90 ist bis dahin nicht schon gelauncht;)

Undertaker
2007-06-25, 18:26:03
naja, 30fps avg flüssig?

http://www.3dcenter.de/artikel/geforce4_treibervergleich/index5.php

ich fand es auf meiner 9700@pro damals in 1280x1024 gerade so erträglich, und die war gewiss um den faktor 1,5-2 schneller

mapel110
2007-06-25, 18:42:10
und die war gewiss um den faktor 1,5-2 schneller
nicht mit damaligen CPUs (XP3200+ max iirc) und ohne AA/AF.
In Farcry gings schon sehr häufig ans CPU-Limit, egal bei welcher Auflösung und Graka.

Lightning
2007-06-25, 18:46:10
Crysis wird auf der GTX so laufen, wie damals Farcry auf einer 9700Pro. Brauchbar, aber könnte besser gehen.

SG

So denke ich auch, dass es kommen wird. Vorrausgesetzt, das Spiel kommt noch in diesem Jahr. Wie sieht der aktuell angepeilte Releasezeitpunkt aus?

san.salvador
2007-06-25, 19:02:43
Ich glaub es wird mit 30 fps laufen, aber nicht flüssig.

Was soll ich jetzt anklicken? :confused:

Deathcrush
2007-06-25, 19:27:56
Auf der 8800GTX (non SLI) wird Crysis mit maximalen Details ruckeln. Wieso? Weil Crytek es schon angekündigt hat oder wieso sagen sie das man Crysis 1,5 Jahre nach oben hin skalieren kann ;) Ich denke 1280x960 ohne AA / 8AF und einem mix aus high und middle halte ich für realistisch, sofern eine Dual-Core CPU vorhanden ist. (4800+) Obwohl ja Crysis immer häufiger auf einer QuadCore-CPU präsentiert wird.

tombman
2007-06-25, 19:43:53
Maximale Details heißt alle INGAME Schalter auf maximal. Falls AA INGAME nicht wählbar ist, dann ist es nicht dabei.

Henry
2007-06-25, 19:51:33
was soll an dem pixelbrei so kompliziert sein?
da reicht ne mainstreamkarte+C2D

Undertaker
2007-06-25, 20:01:58
was soll an dem pixelbrei so kompliziert sein?
da reicht ne mainstreamkarte+C2D

troll? huschhusch hinfort

jay.gee
2007-06-25, 20:13:50
Er sagte, dass man mit einer Intel Core 2 Duo E6600 CPU, deren Kerne mit 2,4 Gigahertz takten, bereits bestens gerüstet sei. Damit soll Crysis mit den maximal möglichen Leistungseinstellungen ohne Schwierigkeiten spielbar sein. Er empfahl, zwei Gigabyte Arbeitsspeicher zu installieren. Während eine Nvidia 8800 GTS ausreicht, sei die schnellere GTX-Variante die Ideallösung in Sachen Grafik.

Was sollen sie auch anderes sagen? Was meinst Du was nvida als zahlender Partner sagen würde, wenn die Yerli`s sagen würden: "Wartet lieber auf die nächste Generation Grakas, wenn ihr es in Max Details spielen wollt." Alleine schon der Umstand, sich auf eine Firma festzulegen, diese zu bewerben, zeigt auf, was für ein Marketinggesabbel das ist.

ich fand es auf meiner 9700@pro damals in 1280x1024 gerade so erträglich, und die war gewiss um den faktor 1,5-2 schneller

Bemessen an meinen heutigen Ansprüchen, fand ich es seinerzeit auf einer 9800pro @1024x768 nicht wirklich erträglich.

Auf der 8800GTX (non SLI) wird Crysis mit maximalen Details ruckeln. Wieso? Weil Crytek es schon angekündigt hat oder wieso sagen sie das man Crysis 1,5 Jahre nach oben hin skalieren kann ;) Ich denke 1280x960 ohne AA / 8AF und einem mix aus high und middle halte ich für realistisch, sofern eine Dual-Core CPU vorhanden ist. (4800+) Obwohl ja Crysis immer häufiger auf einer QuadCore-CPU präsentiert wird.

Das mit der Skalierbarkeit habe ich auch noch in den Ohren. Wenn man alleine einmal die letzten Jahre rückwirkend als Vergleich betrachtet. Es wäre wirklich das erste mal, wo die passende Hardware vor einer neuen Optikgeneration erscheint. Bezogen auf den G80 - sogar so viele Monate vorher verfügbar sein soll. Wenn ich da alleine nur die letzten ~5 Jahre als Vergleich heranziehe, fällt es mir einfach schwer zu glauben, dass es dann wirklich in echten Qualitätssettings flüssig ohne Kompromisse laufen wird.

Das der G80 aber bei Rlz. ein alter Hut vom Namen her sein wird glaub ich nicht. Selbst wenn ein Nachfolger draussen sein wird.... wird mann den G80 nicht als Midrange abstempeln.


Auf die Masse bezogen wird die Karte natürlich kein alter Hut sein - für Einige von uns wird sie das allerdings wohl wieder sein. :) Ich bin auch davon überzeugt, dass der G80 gute Dienste leisten wird - allerdings gebunden an Kompromisse. Und diese möchten einige Leute von uns halt nicht gerne eingehen. Wenn ich mir alleine angucke, wie schnelllebig dieser Markt geworden ist. Wir haben doch alle genug Karten in den letzten Jahren im Tower verbaut. ;) Imho fällt es vielen halt schwer glauben, dass aktuelle Top Hardware von heute, schon ganz schnell wieder ein alter Hut sein wird. Besonderes beeindruckend wird einem das immer aufgezeigt, wenn neue Hardware- oder halt Software erscheint, die eine neue Bewertungsrealtion aufzeigt. In diesem Sinne - ich warte auf die ersten Dx10 Karten mit 1Gig und mehr Rohpower. Ganz nebenbei ist es mir egal, ob diese aus dem roten oder grünen Lager sein wird. ;)

dargo
2007-06-25, 20:27:24
Das mit der Skalierbarkeit habe ich auch noch in den Ohren.
Mich würde mal interessieren wann das mit der Skalierbarkeit nach oben behauptet wurde. Denn ursprünglich sollte Crysis afaik im Herbst 2006 erscheinen. Ob man da schon was vom G80/R600 wusste/erahnte? Nur mal so als Denkanstoß. :)

Deathcrush
2007-06-25, 20:30:48
Schön gesagt Jay Gee ;). Aber du sprichst gegen eine Mauer. Viele wollen die Wahrheit leider nicht hören. Das die G80 eine gute und schnelle Karte ist, zweifelt ja keiner an. Aber für kommende DX10 Spiele einfach zu langsam. Aktiviert doch mal Spasseshalber Anti Aliasing bei R6 Vegas. Da ist ganz schnell schluss mit lustig ;). Selbst bei 1280x1024. Ich hoffe ja, das wie bei vielen anderen Spielen, die Schatten einen grossteil der Perfomance ausmachen werden, denn mit mittleren Schattendetails kann ich auch gut leben, wenn sich dadurch 80-100.- für eine Graka einsparen lässt. Die Zeiten, wo ich 400.- für eine Graka ausgegeben habe, sind vorbei. Sind wir doch mal ehrlich. Wenn man gabz oben mitspielen will, dann ist der Austausch der Graka alle halbe ja PFLICHT geworden. Das muss dann jeder für sich selbst entscheiden, darf dann aber auch nicht meckern wenn sein 400.- Karte in einem halben oder 3/4 Jahr da auch schon wieder schlapp macht.

Deathcrush
2007-06-25, 20:31:51
Mich würde mal interessieren wann das mit der Skalierbarkeit nach oben behauptet wurde. Denn ursprünglich sollte Crysis afaik im Herbst 2006 erscheinen. Ob man da schon was vom G80/R600 wusste/erahnte? Nur mal so als Denkanstoß. :)

Hab ich im Dez06 gelesen ;). Aber es wurde auch gesagt, das man es 2 Jahre zurück skalieren kann, sprich man kann es mit einem 2 Jahre altem Sys noch gut spielen.

Cubitus
2007-06-25, 20:35:25
[X] Ja wird es!

obwohl eigentlich 30 FPS für nen Shooter nicht flüssig sind.

dargo
2007-06-25, 20:35:50
Hab ich im Dez06 gelesen ;).
Tja, dann hätten wir vorraussichtlich Ende 2007 (falls das Game überhaupt in diesem Jahr erscheint) nur noch ~6 Monate nach oben. Es sei denn, Crytek verbessert die Optik weiterhin. Oder wie soll ich mir das mit den 1,5 Jahren Skalierbarkeit nach oben vorstellen?

MartinRiggs
2007-06-25, 20:37:35
[x] Über sowas mache ich mir noch keine Gedanken.
Diese Antwort fehlt im Poll.
Wenn Crysis wirklich so rockt(was sich erst noch zeigen muss) wäre es ein spiel für das ich mal wieder aufrüsten könnte.
Aber momentan weiss ja keiner was abgeht, also erstmal in Ruhe abwarten.

Deathcrush
2007-06-25, 20:40:12
Das weiss nur Crysis. Vielleicht werden auch erst weitere Features nach gereicht, so das man am Anfang nichts vermissen wird. Aber selbst wenn es erst mit der Hardware Juni/08 flüssig laufen soll (MAX Detaisl), wird dann eine 8800GTX damit überfordert sein. LAssen wir uns überraschen, wenn es mit einer 8800gts flüssig läuft, haben wir ja alle was davon :)

jay.gee
2007-06-25, 20:40:20
Mich würde mal interessieren wann das mit der Skalierbarkeit nach oben behauptet wurde. Denn ursprünglich sollte Crysis afaik im Herbst 2006 erscheinen. Ob man da schon was vom G80/R600 wusste/erahnte? Nur mal so als Denkanstoß. :)

Es ist gut möglich, dass diese Aussagen wirklich schon so alt sind, dargo. Habe es nur noch im Unterbewusstsein und kann es zeitlich nicht mehr wirklich sachgerecht einschätzen. :) Ob man vom G80/R600 wusste? Das steht in der Branche für mich ausser Frage. Man sollte hier die Brille des Endkunden einfach mal absetzen. :)

dargo
2007-06-25, 20:42:46
[x] Über sowas mache ich mir noch keine Gedanken.
Diese Antwort fehlt im Poll.

Da ist was dran. So langsam wird mir das zuviel Spekulatius hier. :D

jay.gee
2007-06-25, 20:45:53
So langsam wird mir das zuviel Spekulatius hier. :D

Das ist doch das Spassige an der Sache. :) Vorerst werden wir den G80 wohl erst einmal an Hand von Bioshock in 2 Monaten bewerten. ;) Da werden imho zumindestens den kleineren Karten schon einmal die Grenzen aufgezeigt. ;)

dargo
2007-06-25, 20:57:17
@jay|gee
BioShock und Crysis haben schon mal nichts gemeinsam. Völlig unterschiedliche Engines.

Was mich an der ganzen Diskussion (oder besser gesagt Spekulation) zur Crysisperformance stört ist die Fixierung auf max. Details. Ich habe keine Ahnung was Crytek dadrunter versteht. Aber jeder Spiele-Hersteller kriegt jede erhältliche High-End Hardware klein, wenn er möchte. Und zu oft gibts es Settings die verdammt viel Leistung kosten, man aber keinen/kaum einen Unterschied sieht. Selbst wenn Crysis @max. sagen wir mal mit nur 30fps laufen sollte verzichte ich gerne auf solche Scherze wie weiche Schatten und ähnliches was nicht selten >60% mehr Performance bringt.
Wenn ich mich richtig erinnere hatte auch Farcry einige Settings wo man keinen/kaum einen Unterschied zwischen Ultra und Hoch gesehen hat. Und ich möchte mal daran erinnern, dass Farcry nicht selten cpu-limitiert war.

RainingBlood
2007-06-25, 21:08:17
Schwachsinns Thread. ->Spielwiese.

DarkmanGER
2007-06-25, 21:12:23
Ich glaube auch nicht daran, das das Game ruckeln wird. Vielleicht kann man das
es nicht in höchster Auflösung zocken, aber eine gute einstelltung wird schon drin sein. Mit SLI sowieso!
Ich habe noch eine 7800GTX und da muß ich mir mehr sorgen machen, als mit einer 8800 GTX! lol :biggrin:

Gruß

Darkman

tombman
2007-06-25, 21:14:05
Schwachsinns Thread. ->Spielwiese.
Wieso, mal sehen ob die whiner oder die Zuversichtlichen Recht hatten. Ich weiß auch ned wer es sein wird ;D
Aber falls es die Zuversichtlichen sind kann man in Zukunft darauf verweisen "jaja, dachten auch alle bei Crysis, und alles lief glatt"...
Kann natürlich auch so sein "das wird wieder bei Crysis, keiner kanns flüssig zocken"...

Wer weiß, wer weiß? ;)

jay.gee
2007-06-25, 21:19:52
@jay|gee
BioShock und Crysis haben schon mal nichts gemeinsam.

Doch - beide basieren auf Engine`s, die dem G80 ihmo die Grenzen aufzeigen werden. :)

mapel110
2007-06-25, 21:23:50
Doch - beide basieren auf Engine`s, die dem G80 ihmo die Grenzen aufzeigen werden. :)
Und?! Die Grenze wird wesentlich höher liegen als auf allen anderen derzeit erhältlichen Karten.

dargo
2007-06-25, 21:34:52
Doch - beide basieren auf Engine`s, die dem G80 ihmo die Grenzen aufzeigen werden. :)
Naja, bei Bioshock gibts afaik nur Innenlevels, bei Crysis eher (große) Außenlevels. Nicht wirklich vergleichbar, vorallem da auch wie gesagt unterschiedliche Engines. Ich würde jetzt mal bei Crysis eine höhere CPU-Last als in Bioshock vermuten. Aber das ist nur Spekulatius von meiner Seite. ;)

PS: wurde Bioshock nicht primär für die Konsolen entwickelt? Dann würde mich eine schlechte Performance auch nicht wundern.

PPS: die Grenzen kennt ein G80 schon lange. Das Spiel heißt Call of Juarez mit maximalen Details (DX9). ;) Wie ich schon sagte, wenn man will kriegt man einen G80 klein. Dafür ist weder Crysis noch DX10 ansich nötig.

Deathcrush
2007-06-25, 21:40:55
Ich denke auch das der Vergleich Bioshock - Crysis gewagt ist, was die Sys-Anfordeung angeht. Ich würde Bioshsock eher mit R6 Vegas, was die Anorderung angeht, vergleichen. Bioshock und R6 Vegas sind glaub ich 360er portierungen, wie Dargo schon erwähnte. Aber auch nur eine Vermutung meinerseits. Bioshock galt ja lange als Exklusiv 360er.

dargo
2007-06-25, 21:46:17
Ich würde Bioshsock eher mit R6 Vegas, was die Anorderung angeht, vergleichen.
Wenn Bioshock keine weichen Schatten verwendet siehts für das Spiel sogar besser aus. :)

Kosh
2007-06-25, 21:58:43
Welche Auflösung denn? 2560*1900?? Höchstunwahrscheinlich.

1650*1080?
Könnte mir vorstellen das es sauviele einstellbare Details gibt,bei denen sich viele eigentlich nicht wirklich auf die Optik auswirken aber extrem Leistung fressen.

Somit wären maximale Details nicht möglich, aber die Optik mit den nicht ganz Max Details quasi 99% des Optimalen erreicht.

So oder so ist viel zu viel Spekulation dabei.

Wobei ich mir allerdings nicht vorstellen kann, das man bei dem Grafikkracher überhaupt maximale Details mit einer 1 Jahre alten Karte erreichen kann in einer hohen Auflösung.

Dadi
2007-06-25, 21:58:59
Ich hab einen 22", ich sollte doch lieber zurück zu 19", denn interpoliert will ichs auch nicht haben. :biggrin:

Sonyfreak
2007-06-25, 22:10:53
[x] Nein, Crysis wird auf maximalen Details und ner sinnvollen Auflösung nicht mit einem G80 spielbar sein

Es wird genauso wie seinerzeit mit Far Cry sein. Das war mit damaligen 3D-Beschleunigern wie R350 oder NV35 auch nicht annähernd spielbar bei maximalen Details. Nicht mal die nächste Generation, also NV40 und R420 haben das hinbekommen. Erst jetzt mit G70 und R520/R580 kann man davon sprechen, dass es halbwegs passabel läuft.
Ich für meinen Teil entscheide nach den ersten Performancetests, ob ich mir Crysis gleich hole, oder ob ich noch ein oder zwei Jahre darauf warte, wie ich es auch bei Far Cry getan habe. Denn ich möchte das Spiel mindestens auf 1680x1050 mit 4xTAA und 8xAF genießen, und das ganze mit rund 60fps.

mfg.

Sonyfreak

mapel110
2007-06-25, 22:13:46
[x] Nein, Crysis wird auf maximalen Details und ner sinnvollen Auflösung nicht mit einem G80 spielbar sein

Es wird genauso wie seinerzeit mit Far Cry sein. Das war mit damaligen 3D-Beschleunigern wie R350 oder NV35 auch nicht annähernd spielbar bei maximalen Details. Nicht mal die nächste Generation, also NV40 und R420 haben das hinbekommen. Erst jetzt mit G70 und R520/R580 kann man davon sprechen, dass es halbwegs passabel läuft.
Ich für meinen Teil entscheide nach den ersten Performancetests, ob ich mir Crysis gleich hole, oder ob ich noch ein oder zwei Jahre darauf warte, wie ich es auch bei Far Cry getan habe. Denn ich möchte das Spiel mindestens auf 1680x1050 mit 4xTAA und 8xAF genießen, und das ganze mit rund 60fps.

mfg.

Sonyfreak
Als Farcry rauskam, war 1280x1024 beinahe Standard, eher darunter und da lief es mit eine 9800 Pro sehr gut. Was schlapp machte, war da eher die CPU. Später mit einem Athlon64 war es dann schon ein ganz anderes Spielgefühl.

/edit
WTF? R420 und NV40 zu lahm für Farcry? Da täuscht dich aber deine Errinnerung. Bei 1600er Auflösung mit 4xAA ists eng geworden mit den Karten, ja. Aber alles darunter war spielbar.

Nightspider
2007-06-25, 22:17:18
Fragen wir mal anders herum:

Wer wird für Crysis seine G80 verkaufen und sich den Refresh kaufen ?

Wer rüstet allgemein sein PC für Crysis auf ?

Was seit ihr bereit an Geld für Cryis hinzulegen ?


Ich werde meine 8800GTX wohl verscherbeln und G92 einbauen.
4 GB Ram werde ich wohl zum Ende des Jahres drin haben und ein QuadCore muss auch noch rein.

Also, neue CPU, neues MB,neuen Ram,neue Graka....so far...

jay.gee
2007-06-25, 22:24:41
Und?! Die Grenze wird wesentlich höher liegen als auf allen anderen derzeit erhältlichen Karten.

Mathematische Logik musst Du mir nicht aufzeigen, mapel. ;)


Ich würde jetzt mal bei Crysis eine höhere CPU-Last als in Bioshock vermuten. Aber das ist nur Spekulatius von meiner Seite. ;) Da bin ich ja mal gespannt - besonderes wenn ich mir ältere U-Engines vor Augen halte.

PS: wurde Bioshock nicht primär für die Konsolen entwickelt? Dann würde mich eine schlechte Performance auch nicht wundern.

Das lässt sich imho immer schelcht sagen. Welche Aussagen der Entwickler muss man zb. in die Kategorie Marketing eingliedern? Ich kann mir gut vorstellen, dass MS oder Sony für PR in Form von Suggestionen ala Exklusivtitel nicht geizig sind, um es mal nett zu umschreiben. Auf der anderen Seite hat man im Fall Bioshock schon sehr früh bekundet, dass die PC-Version keine billige Portierung darstellen soll. Es wird von einem eigenständigen Team mit Sitz in Australien und nicht in Boston produziert, wenn mich nicht alles täuscht. DX10 ect. sprechen dafür, dass man die Jungs von Irrational vielleicht sogar beim Wort nehmen kann.

Ich denke auch das der Vergleich Bioshock - Crysis gewagt ist, was die Sys-Anfordeung angeht. Ich würde Bioshsock eher mit R6 Vegas, was die Anorderung angeht, vergleichen.

Aus technischer Sicht hoffe ich doch sehr stark, dass man es eher mit UT3 vergleichen kann - sprich; nicht nur Bruchteile der Engine nutzt. :)

Dadi
2007-06-25, 22:25:13
Fragen wir mal anders herum:

Wer wird für Crysis seine G80 verkaufen und sich den Refresh kaufen ?

Wer rüstet allgemein sein PC für Crysis auf ?

Was seit ihr bereit an Geld für Cryis hinzulegen ?


Ich werde meine 8800GTX wohl verscherbeln und G92 einbauen.
4 GB Ram werde ich wohl zum Ende des Jahres drin haben und ein QuadCore muss auch noch rein.

Also, neue CPU, neues MB,neuen Ram,neue Graka....so far...

Welche CPU hast denn du jetzt drin ?

Spasstiger
2007-06-25, 22:28:01
Hängt von der Auflösung ab und davon, ob man AA/AF auch wieder im Spiel einstellen kann. 1680x1050 Pixel mit 8xTranparenz-AA, 16:1 AF und max. Details werden sicherlich auch zwei 8800 GTX in die <30-fps-Gefilde fallen lassen.

Dadi
2007-06-25, 22:32:07
Ich sage, es wird nicht ruckeln. Mit nem Quad Q6600 und G80 auf max Details mit Standard AA und Standard AF, wird da alles gehen auf 1680x1050! ;)

jay.gee
2007-06-25, 22:37:09
[x] Es wird genauso wie seinerzeit mit Far Cry sein. Das war mit damaligen 3D-Beschleunigern wie R350 oder NV35 auch nicht annähernd spielbar bei maximalen Details. Nicht mal die nächste Generation, also NV40 und R420 haben das hinbekommen. Erst jetzt mit G70 und R520/R580 kann man davon sprechen, dass es halbwegs passabel läuft.


So sieht/sah es in der Praxis auch nach meinem Empfinden aus.

Kira
2007-06-25, 22:39:51
also ich sehe für meine 1280 * 1024 auf high und standard aa + af keine probleme :)

und außerdem kommt es ja nicht sooooo sehr auf die klitzekleinen details an, ich hoffe viel mehr, dass das spiel spaß machen wird... denn was ich so sah mit den aliens und den raumschiffen etc sah sau geil aus! erinnerte mich an krieg der welten (den film) und sowas würd ich gern nachspielen :)

Nightspider
2007-06-25, 22:48:14
Welche CPU hast denn du jetzt drin ?

Siehe sig, X2 @ 2,7 atm

Trice1001
2007-06-25, 23:24:16
in DX9 wirds wunderbar laufen daher habe ich für ja gestimmt ;)

Christi
2007-06-25, 23:26:06
Nochmal was zu Farcry, hatte damals den gleichen Rechner wie jetzt (2004)

Also A64 3000
1GB Ram
9700pro
Ich weiß genau, dass das Game in 1024x768 mit allen Details (ohne AA und AF ) flüssig lief.

Bei 1200er Auflösung musste ich schon die Schatten (die auf der Knarre sich zeigten) abschalten.
Also lief es nicht so dolle mit der Hardware.
Aber 2004 war die 9700pro lange kein HighEnd mehr, eine 8800GTX z.B. ist zum Release von Crysis definitiv noch HighEnd.
Somit wird es IMHO definitv besser laufen.

MfG

Deathcrush
2007-06-25, 23:43:05
Wenn Crysis im Winter released wird, gibt es doch schon refreshes von den G80, also ist die 8800gtx dann bestimmt kein High End mehr ;)


@Nightspider

Aufrüsten ja. Fragt sich nur was. Werde die ersten Benchmarks begutachten und dann schaun was besser rennt. ATI oder NV. Eventuell dann noch 4GB RAM wegen Vista64, das dann auch dazu gekauft wird. Will aber nicht mehr als 400€ für die Aufrüstaktion hinblättern. Denke 80€ OS, 80€ für 2 zusätzliche Ramriegel und 240 für die Grak muss reichen. Vielleicht rennt es ja auch gut mit 2GB RAM, aber bei Vista64 hab ich da so meine bedenken :(. Hatte es schon mal drauf (mit dem alten AMD SYS) und 2GB RAM waren definitv zu wenig.

Mistersecret
2007-06-26, 00:22:33
Irgendwo in einem Interview oder Report glaube ich gelesen zu haben, dass man zwei 8800GTS 640MB braucht, um alle Details aktivieren zu können. (also SLI) Mit der Konfiguration soll es in üblichen Auflösungen und guten Qualitätseinstellungen ordentlich laufen - bzw. soll es erst ab da Sinn machen, alle Details zu aktivieren. (einen guten Prozi vorausgesetzt)

Daraus kann man für die GTX ableiten, dass sie nicht ausreichen wird - zwei GTS sind in Games, die das SLI Potential ausschöpfen - imho schneller als eine GTX.

Mein persönlicher Tip für 1680x1050 8xAA 16xAF und maximale Details ist ein gut übertaktetes 8800GTX SLI Gespann. Und zwar sowohl auf XP als auch Vista.

PS: Mein persönlicher Release-Termin Tip bleibt Mitte September - da wird 8800GTX Ultra vermutlich noch immer High-End sein.... oder ?

4711
2007-06-26, 00:29:39
ruckeln wie Sau wirds...und wehe Dir Freund Dargo du kommst jetzt wieder mir den Softigen Schatten :tongue:
Ich könnt heulen wenn ich an die Kohle denke...... :cool:

Christi
2007-06-26, 10:52:57
Mein persönlicher Tip für 1680x1050 8xAA 16xAF und maximale Details ist ein gut übertaktetes 8800GTX SLI Gespann. Und zwar sowohl auf XP als auch Vista.


Zumal der Sinn von 8xAA bei der Auflösung mir nicht erschließt.
Klar kann man das aktivieren um sein teures SLI System einen nutzen zu geben:wink:
Ich find solche hohe Kantenglättung bei 1680er Auflösung absoluten Qwark.
Aber ich würde vielleicht anders reden, wenn ich so verückt wäre, solch teure und meist unnütze Hardware zu kaufen.


MfG

4711
2007-06-26, 10:56:11
jo ich würde da auch nur 4xAA + SSAA einstellen.

TobiWahnKenobi
2007-06-26, 10:57:40
natürlich wird das spielbar sein. der g80 ist sicher die meistverbreitetste DX10-lösung, wenn crysis rauskommt.. wäre traurig wenn die entwickler nicht auf den g80 optimieren würden.. dann wäre das spiel ein rohrkrepierer.


(..)

mfg
tobi

Argo Zero
2007-06-26, 11:04:59
natürlich wird das spielbar sein. der g80 ist sicher die meistverbreitetste DX10-lösung, wenn crysis rauskommt.. wäre traurig wenn die entwickler nicht auf den g80 optimieren würden.. dann wäre das spiel ein rohrkrepierer.


(..)

mfg
tobi

Wird es das nicht sowieso? Ich fande die Story schon von Far Cry irgendwie uninteressant und spätestens an dem Teil, wo man gegen Monster kämpfen musste wurde mir das ganze etwas langweilig.
Bisher las ich auch noch nichts spannendes über Crysis, aber mal abwarten...

Deathcrush
2007-06-26, 11:09:07
natürlich wird das spielbar sein. der g80 ist sicher die meistverbreitetste DX10-lösung, wenn crysis rauskommt.. wäre traurig wenn die entwickler nicht auf den g80 optimieren würden.. dann wäre das spiel ein rohrkrepierer.


(..)

mfg
tobi


Nur weil es auf aktueller Hardware in Ultra nicht flüssig laufen soll? Wo lebst du denn. Doom3 konnte man damals auch nicht mit Ultrasettings flüssig spielen mit der vorhandenen Hardware bei Release, ebenso Far Cry. Und denke jetzt z.B mal an Arma. Geht ebenfalls nicht.

TobiWahnKenobi
2007-06-26, 11:20:35
zwischen doom, crysis und farcry sehe ich keine parallele. gründe für das abschalten von texturkompression konnte ich mir schon zu doom-zeiten nicht herleiten.

mit farcry hatte ich damals kaum sorgen - wenige wochen nach release hatte ich schon zwei grakas.

dass es noch nichts besseres als den G80 gibt hast du mitbekommen? wielange es wohl dauert, bis sich ein nachfolger etabliert.. ?!

mal ab von all dem spekulatius: was ist denn an crysis so toll, dass man es hier so medienwirksam zu hypen versucht.. ?!


(..)

mfg
tobi

nggalai
2007-06-26, 11:26:02
Threadtitel angepaßt …*haben doch einige falsch abgestimmt, weil sie verwirrt waren. ;)

tombman
2007-06-26, 11:26:11
Dafür, daß der thread Schwachsinn sein soll, nehmen aber viele an der Umfrage teil :up:

Nur weiter so ;)

Deathcrush
2007-06-26, 11:30:00
zwischen doom, crysis und farcry sehe ich keine parallele. gründe für das abschalten von texturkompression konnte ich mir schon zu doom-zeiten nicht herleiten.

mit farcry hatte ich damals kaum sorgen - wenige wochen nach release hatte ich schon zwei grakas.

dass es noch nichts besseres als den G80 gibt hast du mitbekommen? wielange es wohl dauert, bis sich ein nachfolger etabliert.. ?!

mal ab von all dem spekulatius: was ist denn an crysis so toll, dass man es hier so medienwirksam zu hypen versucht.. ?!


(..)

mfg
tobi

Wir reden hier aber nicht von SLI, bzw ich nicht. Und Far Cry, Doom3 und Arma haben nun mal das gleiche Problem. Mit aktueller Hardware läuft es in MAX Settings nicht flüssig. Das kannst du drehen und wenden wie du willst. Nicht mit der Hardware die es zum Release gab, das wird auch bei Crysis der Fall sein. Und wer sich jetzt schon eine 8800GTX für Crysis gekauft hat, der ist einfach nur Naiv und hat aus der Vergangenheit rein gar nichts gelernt ;)

TobiWahnKenobi
2007-06-26, 11:35:10
denke, die wenigsten werden sich ihren G80 explizit für crysis gekauft haben.

die karten gibts seit nem dreivierteljahr und seit dem, sind sie die schnellsten und vollständigsten modelle am markt.. das kauft man wegen super features, guter bildqualität und sauberer performance.. nicht weil irgendwann ein gehyptes spiel erscheint..

da könnte ich auch sagen, dass ich damals die xbox-360 nur wegen starwars the force unleashed gekauft habe, das ende des jahres erscheinen soll.. absurd!

klar, dass man mit nem G80GTS/GTX/Ultra die besten chancen auf gute frameraten hat, wenn man sich die anderen am markt verbreiteten karten anschaut.


(..)

mfg
tobi

Deathcrush
2007-06-26, 11:39:14
Na ja, wie oft wurde Crysis mittlerweile verschoben ;) Und bei erscheinen der G80 war noch nicht bekannt das es dann erst in einem Jahr kommen soll ;) Klar kaufen viele die G80, weil sie auch eine flotte DX9 Karte ist, aber immer wieder hört man die Argumentation, kauf dir eine G80 wegen DX10, da bist du für die Zukunft gerüstet. Na wie viele Spiele gibt es denn mit DX10? Und wird diese für DX10 @Max Details überhaupt ausreichend sein. Nein, ich glaub nicht daran. Genauso wie bei allen Grafikkarten davor. Geforce 3 für DX8 = MÜLL, da musste schon die GF4 her. Genau das gleiche wie für DX9 und für DX10 wird sich das ganze noch einmal wiederholen.

Skinner
2007-06-26, 11:44:16
Ich habe nein gestimmt gestimmt weil.....

Maximale Settings = Max Auflösung, Max Treiber Einstellungen & Max Einstellungen im Spiel ;)

4711
2007-06-26, 11:46:03
ja nun reg dich wieder ab...keiner der hier schreibenden hat sich einen G80 für Crysis gekauft und wenn das Game dann mal zu kaufen ist hat von den Leutchen hier keiner mehr "einen" G80 für "Crysis" ,ich glaube auch kaum das da einer etwas unter 1600x1200 auf dem Tisch stehen hat.

Mistersecret
2007-06-26, 12:06:34
Zumal der Sinn von 8xAA bei der Auflösung mir nicht erschließt.
Klar kann man das aktivieren um sein teures SLI System einen nutzen zu geben:wink:
Ich find solche hohe Kantenglättung bei 1680er Auflösung absoluten Qwark.
Aber ich würde vielleicht anders reden, wenn ich so verückt wäre, solch teure und meist unnütze Hardware zu kaufen.


MfG

Es hängt auch von der Display-Grösse ab. Auf 22" sieht man bei zumindest 4xAA schon einen deutlichen Unterschied - 8xAA natürlich nicht mehr so offensichtlich.

Natürlich macht man sich solche Gedanken, wenn man seinen letzten Cent in ein High-End System investiert - wofür sonst tut man das ?

TobiWahnKenobi
2007-06-26, 12:06:38
ich habe derzeit nichts mehr in der wohnung, das 1600x1200 pixel anzeigen kann. ich beschränke mich auf 1680x1050, 720p oder auch 1360x768 pixel (verteilt auf 21-40" geräte). da wird mein G80 crysis sicher in ansprechender optik bewegen können. und falls nicht: auch nicht schlimm - ich gucke eh immer nur und spiele selten bis nie.


(..)

mfg
tobi

BAGZZlash
2007-06-26, 12:51:49
Dafür, daß der thread Schwachsinn sein soll, nehmen aber viele an der Umfrage teil :up:

Nur weiter so ;)

Das erinnert mich hieran: http://www.pharfruminsain.com/graphics/images/free-MrBurnsExcellent.gif:wink:

RainingBlood
2007-06-26, 13:11:05
der Thread ist Schwachsinn, hier wird viel getextet und rein garnichts gesagt. ->Spielwiese.
Und die Umfrage ist ja wohl n Witz. Ich bin für eine Funktion, mit der man Threads von Ignore-Listen User ausblenden kann, du bist ja leider Serientäter tomban.

tombman
2007-06-26, 13:22:56
der Thread ist Schwachsinn, hier wird viel getextet und rein garnichts gesagt. ->Spielwiese.
Und die Umfrage ist ja wohl n Witz. Ich bin für eine Funktion, mit der man Threads von Ignore-Listen User ausblenden kann, du bist ja leider Serientäter tomban.
Da kann ich nur sagen "heul doch". Der thread und die Umfrage LEBEN und werden gut besucht ;)
Mr. Burns "Excellent" triffts ganz genau ;)

Merlin31
2007-06-26, 15:02:31
Ich denke die GraKa packt das.
Aber die CPU macht mir Sorgen.

tombman
2007-06-26, 15:08:40
Ich denke die GraKa packt das.
Aber die CPU macht mir Sorgen.
Quadcores wird es dann deutlich unter 300€ geben, und Crysis kann alle 4 Kerne nutzen ;)

dargo
2007-06-26, 15:11:40
Ich denke die GraKa packt das.
Aber die CPU macht mir Sorgen.
Oh man. :uhammer:
Mach einen neuen Thread mit dem Titel "Wird Crysis mit einem Conroe@3Ghz flüßig laufen?" auf. :| :weg:

Merlin31
2007-06-26, 15:14:10
Quadcores wird es dann deutlich unter 300€ geben, und Crysis kann alle 4 Kerne nutzen ;)
Da bin ich aber mal gespannt, wie sehr die 4 Kerne ausgelastet werden.
Evtl. werde ich dann auch auf Quad gehen. :biggrin:

PHuV
2007-06-26, 15:21:10
Da bin ich aber mal gespannt, wie sehr die 4 Kerne ausgelastet werden.
Evtl. werde ich dann auch auf Quad gehen. :biggrin:

Ich auch, vorher will ich aber erst Benchen sehen. Wobei ich eher skeptisch bin, ich glaube, daß Alan Wake das erste Spiel sein wird, was von Quadcore richtig profitiert.

Mr. Cruise
2007-06-26, 15:23:21
denke, die wenigsten werden sich ihren G80 explizit für crysis gekauft haben.

die karten gibts seit nem dreivierteljahr und seit dem, sind sie die schnellsten und vollständigsten modelle am markt.. das kauft man wegen super features, guter bildqualität und sauberer performance.. nicht weil irgendwann ein gehyptes spiel erscheint..

da könnte ich auch sagen, dass ich damals die xbox-360 nur wegen starwars the force unleashed gekauft habe, das ende des jahres erscheinen soll.. absurd!

klar, dass man mit nem G80GTS/GTX/Ultra die besten chancen auf gute frameraten hat, wenn man sich die anderen am markt verbreiteten karten anschaut.


(..)

mfg
tobi

Du wirst dich wundern was einige Menschen so machen.

Ich kenn da genug die sich wegen bestimmten Titeln die irgendwann rauskommen, die HW dazu heute schon kaufen.
Schwachsinn, aber wem willst das erzählen.

Btw. Es gibt auch im Konsolenbereich begung Leute die sich das Ding zu Release schon kaufen wegen Titeln die mal irgendwann 2008/2009 kaufen.

Wobei du das nicht mit Konsolen vergleichen kannst, hier hast du deine "feste" HW und es kommen so oder so noch weitere Titel raus auf die d nicht gewartet hast aber dir trotzdem gefallen werden.
Der Unterschied ist zum pC Markt. das die HW zwar veraltet, aber nicht im gleichen Sinne.
Beim PC wirst du 2008/2009 wieder neue HW kaufen müssen um deine sehnlichst erwarteteten SPiele knackig zu zocken, bei der Konsole ned.

tombman
2007-06-26, 15:23:23
Lost Planet kann bereits alle 4 Kerne maximal auslasten ;)

Mr. Cruise
2007-06-26, 15:26:03
Na ja, wie oft wurde Crysis mittlerweile verschoben ;) Und bei erscheinen der G80 war noch nicht bekannt das es dann erst in einem Jahr kommen soll ;) Klar kaufen viele die G80, weil sie auch eine flotte DX9 Karte ist, aber immer wieder hört man die Argumentation, kauf dir eine G80 wegen DX10, da bist du für die Zukunft gerüstet. Na wie viele Spiele gibt es denn mit DX10? Und wird diese für DX10 @Max Details überhaupt ausreichend sein. Nein, ich glaub nicht daran. Genauso wie bei allen Grafikkarten davor. Geforce 3 für DX8 = MÜLL, da musste schon die GF4 her. Genau das gleiche wie für DX9 und für DX10 wird sich das ganze noch einmal wiederholen.
Na na na, nicht immer von der Vergangenheit auf heute sschließen.
Es ist zwar öfters der Fall das es so ist, aber mehr als eine Tendenz/Vermutung ist es auch nicht.

Siehe ATi (Radeon 9700/9800)

dargo
2007-06-26, 15:26:57
Lost Planet kann bereits alle 4 Kerne maximal auslasten ;)
Dann zeige mir bitte in LP eine cpu-limitierte Stelle wo du mit 4 Kernen doppelt so hohe Frames hast wie mit 2. Das glaube ich dir erst wenn ich es sehe.

Mr. Cruise
2007-06-26, 15:28:06
Dafür, daß der thread Schwachsinn sein soll, nehmen aber viele an der Umfrage teil :up:

Nur weiter so ;)
Fastfood isst auch jeder obwohl jeder weiß das es "scheiße" fürn Körper ist.

@ Dargo
genau das wäre jetzt auch meine Frage.

Ich wette sogar ohne jeglichen Benches oder sonst was gesehn zu haben, das es nicht so ist:)

dargo
2007-06-26, 15:32:51
@ Dargo
genau das wäre jetzt auch meine Frage.

Ich wette sogar ohne jeglichen Benches oder sonst was gesehn zu haben, das es nicht so ist:)
Ich auch. ;)

@tombman
4x Taskmanager auf 100% bedeutet nicht unbedingt, dass du auch doppelt so hohe Frame im Vergleich zu 2x Taskmanager auf 100% hast. ;)

Deathcrush
2007-06-26, 15:36:19
tada

http://www.pcgameshardware.de/?menu=browser&article_id=602653&image_id=%20658707

Ich find es schon beachtlich was Quadcore bringe kann.

Mr. Cruise
2007-06-26, 15:43:22
tada

http://www.pcgameshardware.de/?menu=browser&article_id=602653&image_id=%20658707

Ich find es schon beachtlich was Quadcore bringe kann.
Oha....ok.
Ich hab ehrlich gesagt nicht damit gerechnet da es nur ne Umsetzung ist, aber das ist tatsächlich mal ein guter Sprung, aber nicht doppelt schnell wie ein DC:biggrin:

Von daher, Wette ned verloren:tongue:

4711
2007-06-26, 15:43:37
jo irre 84-99 :tongue: die Balkenlänge machts..nix für ungut.

Mr. Cruise
2007-06-26, 15:46:52
jo irre 84-99 :tongue: die Balkenlänge machts..nix für ungut.
Naja, man muss bedenken das es ein 360 Game ist und nur umgesetzt wurde, daher der kleinere Sprung von Triple auf Quad, aber das da noch eine gute Steigerung ist, zeigt das die sauber gearbeitet haben.

Respect

Deathcrush
2007-06-26, 15:47:59
@4711
von 63 auf 99, das andere ist der tripplecore :P Ich sag ja, immer erst schaun, dann posten ;) Das sind über 50% Mehrleistung, das sollte man nicht verachten.

DC 63FPS
TC 84FPS
QC 99FPS

4711
2007-06-26, 15:54:24
ups scheiße erwischt :tongue:
was ist ein tripplecore........
63-99 das ist natürlich ne Hausnummer!

Danbaradur
2007-06-26, 15:54:34
Bei Crysis muß ich nicht lange überlegen.

Wenn Crysis erscheint gehe ich ins Reisebüro (Hardwarehändler) kaufe mir das Ticket (das Spiel selbst) und buche 5 Sterne All Inclusive.

Ja, ich bin verrückt.

Deathcrush
2007-06-26, 15:56:22
ups scheiße erwischt :tongue:
was ist ein tripplecore........
63-99 das ist natürlich ne Hausnummer!

Die Box hat z.B ein Triplecore ;) (3Kern CPU)

Sonyfreak
2007-06-26, 16:08:07
Hier noch ein Beispiel: KLICK (http://enthusiast.hardocp.com/article.html?art=MTMwNiw1LCxoZW50aHVzaWFzdA==)

http://enthusiast.hardocp.com/images/articles/1174066643Rrrbl528Ru_5_5.gif

Wie man sieht, gibt es auch heute schon Spiele, die deutlich von QC profitieren. In Zukunft werden es eher mehr und nicht weniger.

mfg.

Sonyfreak

jay.gee
2007-06-26, 16:09:20
Ich sehe sie schon wieder alle vor mir - wie sie den Dev`s Unfähigkeit unterstellen. ;) Dann kommen wieder die Sätze ala "für das Gebotene ist das Game aber sehr schlecht geproggt" ect. Es wird halt wie immer sein :)

Nedo
2007-06-26, 16:14:04
Ich sehe sie schon wieder alle vor mir - wie sie den Dev`s Unfähigkeit unterstellen. ;) Dann kommen wieder die Sätze ala "für das Gebotene ist das Game aber sehr schlecht geproggt" ect. Es wird halt wie immer sein :)
Dieses Gefühl hab auch... Ich bleib eh erstmal bei meiner X1950XTX und ich glaube kaum, dass ich Crysis damit über 30 fps avg bekomm ^^

Danbaradur
2007-06-26, 16:21:44
Ich sehe sie schon wieder alle vor mir - wie sie den Dev`s Unfähigkeit unterstellen. ;) Dann kommen wieder die Sätze ala "für das Gebotene ist das Game aber sehr schlecht geproggt" ect. Es wird halt wie immer sein :)

"Dafür habe ich mir die teure xy Hardware gekauft", "dumme Story", "viel zu kurz", "Grafikblender" und "wofür hat Crysis denn bitteschön 93% bekommen".

dargo
2007-06-26, 16:25:51
tada

http://www.pcgameshardware.de/?menu=browser&article_id=602653&image_id=%20658707

Ich find es schon beachtlich was Quadcore bringe kann.
Das sind zwar gute 57% Mehrleistung aber noch meilenweit von 100% entfernt (vielleicht hätte man auch 640x480 für diesen Test genommen). Das hat aber schon Quake 4 und CoD2 lange gekonnt. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326362

Ich zweifle auch daran, dass wir je in Spielen einen nahezu 100%-igen Vorteil vom Quadcore sehen werden.

Edit:
Wobei meine Tests wenig mit dem PCGH Test zu tun haben. Ein Dualcore scheint bei LP in diesem Test 80% schneller als ein Singlecore zu sein. Das fällt bei mir schon in die Rubrik "sehr gut".

was ist ein tripplecore........

Ein Quadcore bei dem man einen Core deaktiviert hat. ;)

Mr. Cruise
2007-06-26, 16:27:18
Das sind zwar gute 57% Mehrleistung aber noch meilenweit von 100% entfernt (vielleicht hätte man auch 640x480 für diesen Test genommen). Das hat aber schon Quake 4 und CoD2 lange gekonnt. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326362

Ich zweifle auch daran, dass wir je in Spielen einen nahezu 100%-igen Vorteil vom Quadcore sehen werden.

Einen perfekten Code gibt es bis heute nicht und den wird es auch in Zukunft wohl nicht geben:D
Vielleicht mal wenn wir nicht mehr da sind:)

jay.gee
2007-06-26, 16:28:29
"Dafür habe ich mir die teure xy Hardware gekauft", "dumme Story", "viel zu kurz", "Grafikblender" und "wofür hat Crysis denn bitteschön 93% bekommen".

Ja, genau - wie immer halt. :) Das dem so sein wird, lässt sich doch schon seit sehr vielen Jahren an sehr vielen Beispielen belegen. Daher verstehe ich auch gar nicht, dass viele die Praxis so völlig aus den Augen verloren haben - keine Rückschlüsse aus den letzten Jahren ziehen wollen. :)

tombman
2007-06-26, 16:49:49
Fastfood isst auch jeder obwohl jeder weiß das es "scheiße" fürn Körper ist.
Nicht mal das stimmt, Fastfood ist gar ned so schlecht ;)
Aber abgesehen davon; es kommt drauf an ob es Erfolg hat, Fastfood hat ihn und mein thread auch ;)

Ich wette sogar ohne jeglichen Benches oder sonst was gesehn zu haben, das es nicht so ist:)
Die anderen haben dir ja schon gezeigt was quadcore bringen kann ;)

tombman
2007-06-26, 16:53:23
@tombman
4x Taskmanager auf 100% bedeutet nicht unbedingt, dass du auch doppelt so hohe Frame im Vergleich zu 2x Taskmanager auf 100% hast. ;)
Sagte das Küken zum Hahn ;)

Ne, echt jetzt, +100% gibts ned, weder bei DC, noch bei SLI, noch bei QC.
Aber wer das Prinzip des abnehmenden Ertrages jetzt, nach sovielen Jahren 3DC, immer noch ned kapiert hat und +X00% erwartet, dem ist nimmer zu helfen.

Schau dir den supreme commander shot an, dann weißt was Sache ist bzgl QC :cool:

dargo
2007-06-26, 17:10:47
Schau dir den supreme commander shot an, dann weißt was Sache ist bzgl QC :cool:
Ich sehe da "nur" ~38% Vorteil für den QC gegenüber DC. Und ja, ich weiß dass bei den min. fps es mehr sind. Min. fps sind aber leider unbrauchbar bei Savegames. Habe selber die Erfahrung schon gemacht. ;)

tombman
2007-06-26, 17:30:48
Ich sehe da "nur" ~38% Vorteil für den QC gegenüber DC. Und ja, ich weiß dass bei den min. fps es mehr sind. Min. fps sind aber leider unbrauchbar bei Savegames. Habe selber die Erfahrung schon gemacht. ;)
Min fps sinds 73%, egal was du glaubst oder ned glaubst :rolleyes: Und selbst der Unterschied zwischen 50fps und 35fps ist gewaltig...
Stell dir vor du ocest den QC noch dazu auf 3.6ghz (wie ich mit Wakü). Dann ist das Ding VOLL SPIELBAR-> mit DC nicht, basta.

Aber glaub doch was du willst, ist eh immer das selbe: Hauptsache seinen Kram verteidigen und Highend= Scheiße sagen, jaja, die Trauben sind ja sooo sauer...

Mr. Cruise
2007-06-26, 17:37:04
Nicht mal das stimmt, Fastfood ist gar ned so schlecht ;)
Aber abgesehen davon; es kommt drauf an ob es Erfolg hat, Fastfood hat ihn und mein thread auch ;)

Die anderen haben dir ja schon gezeigt was quadcore bringen kann ;)
Hab ich gemerkt.
Und bin wirklich überrascht.

Und wieso bin ich überrascht?;)

dargo
2007-06-26, 17:38:04
Min fps sinds 73%, egal was du glaubst oder ned glaubst :rolleyes:
Das hat nichts mit glauben zu tun sondern wissen. ;)
Und wenn du mir nicht glaubst frage mal Madkiller in Bezug auf Savegames und min.fps, ich habe keine Lust dir das alles zu erklären.

Nur mal grob:
Benche mal in verschiedenen Games die gleichen Savegames mehrmals hintereinander mit Fraps (ich habe es immer 6 mal gemacht). Und du wirst ein Wunder erleben. ;)

tombman
2007-06-26, 17:41:43
ich habe keine Lust dir das alles zu erklären.

DU erklärst MIR gar nix. Ich höchstens DIR ;)
Friß DAS:
http://enthusiast.hardocp.com/images/articles/1174066643Rrrbl528Ru_5_4_l.gif

Viel Spaß beim unter 20fps Dahindümpeln mit DC ;)
Maximale Settings offenbar NUR mit QC überhaupt spielbar :cool:

Und wennst den Kenni dann noch overclockst auf 3.6Ghz bis 4Ghz -> Halleluja ;)

p.s: danke für das Aufmerksammachen auf diesen Test. Das Bild kann ich jetzt wunderbar jedem Quadcore-Ketzer reindrücken ;D;D

dargo
2007-06-26, 17:53:20
DU erklärst MIR gar nix. Ich höchstens DIR ;)

Dafür musst du noch ein bissel wachsen, oder sollte ich besser sagen reifen? Denn, an deinem "Beigaben" wirkst du für mich wie ein ~16 Jähriger.


Friß DAS:
http://enthusiast.hardocp.com/images/articles/1174066643Rrrbl528Ru_5_4_l.gif

Viel Spaß beim unter 20fps Dahindümpeln mit DC ;)
Maximale Settings offenbar NUR mit QC überhaupt spielbar :cool:
Und was willst du mir mit diesem Diagramm jetzt beweisen? Dass du keine Ahnung von Savagames hast?

Seit wann misst man die CPU Leistung an Timedemos? Ich empfehle da die 3DCenter-Lektüre.
http://www.3dcenter.de/artikel/timedemos2/

Mal davon abgesehen, dass dein hochgelobter Quadcore nicht selten in dieser TD selbst unter der 20-er Marke landet.

wollev45
2007-06-26, 17:53:48
Selbstverständlich wird Crysis nicht auf aktueller Hardware flüssig laufen.

Ich denke mit einer GTX und dem aktuellsten Prozessor wirds bei 1280x1024 mit allen "Optionen auf ON" gerade so laufen...
War bei Farcry auch nicht anders und wird meiner Meinung nach auch mit Crysis nicht anders sein...

tombman
2007-06-26, 18:01:52
Und was willst du mir mit diesem Diagramm jetzt beweisen?
Das was draufsteht? Augen aufmachen? Ich brauche keinen 3DC Artikel der mir was erklärt wie du.
Wenn ich so ein Bild sehe, dann ist die Sache für mich klar, egal ob timedemo oder nicht.
3DMark ist auch nur eine "timedemo", und trotzdem ist es DER weltweit anerkannte benchmark.
Timedemos generieren wertvolle Informationen, man muß sie nur lesen können, und nicht wie der ärgste Noob falsche Schlüsse ziehen, nur weil mal in einem Artikel gestanden hat, daß Timedemos automatisch böse sind...
Außerdem ist die RELATIVE Performance immer noch eindeutig, denn es sind ja alles timedemos. Ob die absoluten Zahlen jetzt stimmen oder nicht ist irrelevant.
Quadcore zieht alle ab, das ist FAKT.

Und nein, du hast nicht automatisch immer mehr Recht, je länger du gegen felsenharte Tatsachen (=ich) anrennst ;)

Du kannst zwar weiter labern was du willst, es ändert nix. Jeder kann das Bild sehen, und jeder sieht sofort auf einen Blick was Sache ist, nämlich das Quadcore abartig abowned in diesem Fall.

Grey
2007-06-26, 18:05:29
nämljch das Quadcore abartig abowned in diesem Fall.

Dir ist aber schon klar, dass bei einem Spiel wie SC die Dinge anders gewichtet sind als in Crysis?

tombman
2007-06-26, 18:06:46
Dir ist aber schon klar, dass bei einem Spiel wie SC die Dinge anders gewichtet sind als in Crysis?
Na sicher ist mir das klar...so gut wie SC wird kaum was skalieren...

Undertaker
2007-06-26, 18:07:06
Dir ist aber schon klar, dass bei einem Spiel wie SC die Dinge anders gewichtet sind als in Crysis?

davon kann man absolut ausgehen, bei den unmengen von einheiten kann man speziell die ki wunderbar parallelisieren

Deathcrush
2007-06-26, 18:13:12
Das was draufsteht? Augen aufmachen? Ich brauche keinen 3DC Artikel der mir was erklärt wie du.
Wenn ich so ein Bild sehe, dann ist die Sache für mich klar, egal ob timedemo oder nicht.
3DMark ist auch nur eine "timedemo", und trotzdem ist es DER weltweit anerkannte benchmark.
Timedemos generieren wertvolle Informationen, man muß sie nur lesen können, und nicht wie der ärgste Noob falsche Schlüsse ziehen, nur weil mal in einem Artikel gestanden hat, daß Timedemos automatisch böse sind...
Außerdem ist die RELATIVE Performance immer noch eindeutig, denn es sind ja alles timedemos. Ob die absoluten Zahlen jetzt stimmen oder nicht ist irrelevant.
Quadcore zieht alle ab, das ist FAKT.

Und nein, du hast nicht automatisch immer mehr Recht, je länger du gegen felsenharte Tatsachen (=ich) anrennst ;)

Du kannst zwar weiter labern was du willst, es ändert nix. Jeder kann das Bild sehen, und jeder sieht sofort auf einen Blick was Sache ist, nämlich das Quadcore abartig abowned in diesem Fall.

Die Frage die sich jetzt stellt bei der ganzen Streiterei. Wäre man mit DC nicht genauso gut dran, sprich immer im spielbaren Bereich, wenn DC besser genutzt würde? Es gibt doch bisher kaum Spiele die DC wirklich richtig nutzen. Ich glaub Valve hat mal geschrieben, DC wäre dazu da um die FPS zu verbessern und Quadcore für zusätzliche Effekte. Hat man bei Supreme Comander bessere Grafik mit Quadcore? Ich will damit sagen, wäre es nicht sinnvoller ersteinmal DC richtig auszunutzen bevor man gleich auf Quadcore springt?

Mr. Cruise
2007-06-26, 18:31:24
Die Frage die sich jetzt stellt bei der ganzen Streiterei. Wäre man mit DC nicht genauso gut dran, sprich immer im spielbaren Bereich, wenn DC besser genutzt würde? Es gibt doch bisher kaum Spiele die DC wirklich richtig nutzen. Ich glaub Valve hat mal geschrieben, DC wäre dazu da um die FPS zu verbessern und Quadcore für zusätzliche Effekte. Hat man bei Supreme Comander bessere Grafik mit Quadcore? Ich will damit sagen, wäre es nicht sinnvoller ersteinmal DC richtig auszunutzen bevor man gleich auf Quadcore springt?
Wozu?
Das hält doch nur auf oder willst du jedesmal nen kleinen Grafiksprung machen?

Wenn in paar Jahren schon 8 Core CPUs erscheinen und die Entwickler wie bei Crytek Details skalierbar an die HW anpassen, also je mehr Leistung übrig, umso mehr Details odder Effekte in der Umgebung, dann optimiert sich dann von Zeit zu Zeit von selber, da die Entwicklller von Zeit zu Zeit mehr und mehr parallersieren können bzw. es optimieren können auf Mehrkern CPUs.


edit: mehr Power kann nie schaden:naughty:

Deathcrush
2007-06-26, 18:45:02
Mir geht es darum, das der User mal wieder der dumme ist. Ich bin mir sicher, das wenn man Supreme Comander richtig optimiert hätte, das es auch auf DC richtig laufen würde. Nur der dumme User kauft und kauft und kauft. Warum also sich die Mühe machen und richtig programmieren? Mehr effekte hast du dann im endeffekt mit QC ebenfalls nicht.

tombman
2007-06-26, 18:49:54
Mir geht es darum, das der User mal wieder der dumme ist. Ich bin mir sicher, das wenn man Supreme Comander richtig optimiert hätte, das es auch auf DC richtig laufen würde. Nur der dumme User kauft und kauft und kauft. Warum also sich die Mühe machen und richtig programmieren? Mehr effekte hast du dann im endeffekt mit QC ebenfalls nicht.
Aber wieso, DC funkt doch, sieht man ja an der Skalierung von single auf dual.

Mr. Cruise
2007-06-26, 18:54:14
Mir geht es darum, das der User mal wieder der dumme ist. Ich bin mir sicher, das wenn man Supreme Comander richtig optimiert hätte, das es auch auf DC richtig laufen würde. Nur der dumme User kauft und kauft und kauft. Warum also sich die Mühe machen und richtig programmieren? Mehr effekte hast du dann im endeffekt mit QC ebenfalls nicht.
Hast du jemals den Code gesehn?
Kennst du den Aufwand des Codes von Supreme Commander und des eines D&C?

Kann sein das sie hätten mehr machen können, kann aber auch sein, das hinter S-C weit mehr Aufwand und optimierung steckt als hinter andere RTS Games.

Natürlich wil ich auch lieber alles mitn DC spielen als mir für 500 nen Quad zu besorgen.
Aber vergiss nicht, der PC ist keine Konsole;).

Wer HIGH zocken will, muss halt latzen oder der zockt das Games halt nicht und kauft ein älteres welches besser läuft.

HisN
2007-06-26, 18:55:51
Auf meinem 30"-Dell in seiner nativen Auflösung?

[x] Nein, definitv :-)

Wie üblich bei diesen Umfragen... das wichtigste vergessen.. die Auflösung. In 640x480 wirds bestimmt auch auf einer 8800GTX mit 30FPS laufen.

tombman
2007-06-26, 18:58:19
als mir für 500 nen Quad zu besorgen.
.
350€, nicht mehr ;) XEON 3210 Sockel 775 ;)

Und ich meine normale Auflösungen, ca 1024x768 oder 1280x1024, so in der Gegend...

Mr. Cruise
2007-06-26, 19:07:32
350€, nicht mehr ;) XEON 3210 Sockel 775 ;)

Und ich meine normale Auflösungen, ca 1024x768 oder 1280x1024, so in der Gegend...
I know, aber nicht meiner:cool:;)

edit, wie gesagt, jeder muss wissen wieviel ihm die "mehr"Leistunng wert sind.

Für mich eigentlich keine 500, aber ich brauche sie aus beruflichen Gründen, von daher spielts für mich sowieso keine wirkliche Rolle, da ichs so oder so hab.

dargo
2007-06-26, 19:19:15
Timedemos generieren wertvolle Informationen, man muß sie nur lesen können, und nicht wie der ärgste Noob falsche Schlüsse ziehen, nur weil mal in einem Artikel gestanden hat, daß Timedemos automatisch böse sind...

Welche denn? Achja, dass ich nie die hohen fps mit der selben Hardware im Spiel haben werde. :cool:


Außerdem ist die RELATIVE Performance immer noch eindeutig, denn es sind ja alles timedemos. Ob die absoluten Zahlen jetzt stimmen oder nicht ist irrelevant.

Für dich vielleicht. Für mich zählen nur die fps im Spiel. Ein Game wird auch nicht flüßig laufen nur weil ich mich von 15 auf 22fps (nur als Beispiel) mit einem QC verbessert habe. Mal davon abgesehen, dass mich Supreme Comander nicht die Bohne interessiert, ist nicht mein Genre.

Keiner will hier den Quadcore schlecht reden. Sicherlich hat dieser Vorteile. Nur momentan sehe ich keinen Grund mir sowas anzuschaffen da:

1. Mir mein C2D in jedem von mir gespielten Game genug Frames liefert.
2. Ich keine Heizung im Rechner haben will.
3. Mir die QCs zu teuer sind.

Wenn ein Yorkfield (45nm) mit 3,33Ghz Standardtakt 150-200€ kostet können wir drüber reden. Bis dahin wird es vielleicht schon eine breitere Palette an Games geben die vom QC gut profitieren (mit gut meine ich 50% gegenüber dem Dualcore aufwärts), umso besser.

tombman
2007-06-26, 19:52:46
Welche denn? Achja, dass ich nie die hohen fps mit der selben Hardware im Spiel haben werde. :cool:
SO unterschiedlich wirds im game auch ned sein :rolleyes: Hab die demo ja selbst gespielt und alles war flüssig auf maximalen Details...

Für dich vielleicht. Für mich zählen nur die fps im Spiel. Ein Game wird auch nicht flüßig laufen nur weil ich mich von 15 auf 22fps (nur als Beispiel) mit einem QC verbessert habe.
Dann übertaktest den QC und schon ist es 100% spielbar. Mit einem DC definitiv unmöglich.

Mal davon abgesehen, dass mich Supreme Comander nicht die Bohne interessiert, ist nicht mein Genre.
Irrelevant, kein Argument.

Keiner will hier den Quadcore schlecht reden. Sicherlich hat dieser Vorteile. Nur momentan sehe ich keinen Grund mir sowas anzuschaffen da:

Irrelevant, du allein zählst ned. Hier werden allgemeine Aussagen getroffen...

1. Mir mein C2D in jedem von mir gespielten Game genug Frames liefert.
2. Ich keine Heizung im Rechner haben will.
3. Mir die QCs zu teuer sind.

Warum du keinen QC willst ist irrelevant, nicht das Thema.

Und da das ganze generell OT ist, ist das Thema gegessen, oder ich bitte einen Mod die ganze OT-Diskussion, inkl. meiner Beiträge, zu trashen.

FYI, es geht um Crysis und 8800GTX.

Andererseits hab ich meine Info eh schon, ca die Hälfte denkt, die 8800GTX ist zu schwach...

smockdogx
2007-06-26, 20:26:53
das Thread und die umfrage sind zwar fürn popo ,aber ich finds sehr unterhaltent

danke:smile:


wird nicht maximal laufen ,aber passabel schon sonst brauchen sie es garnicht raus bringen

BAGZZlash
2007-06-26, 20:28:37
Aber wer das Prinzip des abnehmenden Ertrages [...] ned kapiert hat [...] dem ist nimmer zu helfen.


Du meinst wohl den abnehmenden GRENZertrag (http://de.wikipedia.org/wiki/Ertragsgesetz). Wie war das mit dem Glashaus und den Steinen? :tongue:

dargo
2007-06-26, 20:38:11
SO unterschiedlich wirds im game auch ned sein :rolleyes:

Ist das eine Feststellung oder nur deine Vermutung? Jaja, wenns mit einem 4Ghz QC flüßig läuft ist ja alles gut. :cool:
Je nachdem wieviel KI, Physik im Spiel vorkommt kann der Unterschied zwischen TD und SG enorm sein.


Dann übertaktest den QC und schon ist es 100% spielbar.

Natürlich, es hat auch jeder hier eine Kokü. :tongue:


Und da das ganze generell OT ist, ist das Thema gegessen, oder ich bitte einen Mod die ganze OT-Diskussion, inkl. meiner Beiträge, zu trashen.

Dann bitte die Moderation am besten gleich den ganzen Thread zu löschen/schließen. So einen sinnlosen Thread habe ich im 3DC noch nicht gesehen.

jay.gee
2007-06-26, 20:42:10
Dann bitte die Moderation am besten gleich den ganzen Thread zu löschen/schließen. So einen sinnlosen Thread habe ich im 3DC noch nicht gesehen.

Bitte nicht - ich möchte diverse Aussagen aus diesem Thread irgendwann in naher/ferner Zukunft mal zitieren können. :)

dargo
2007-06-26, 20:49:00
Bitte nicht - ich möchte diverse Aussagen aus diesem Thread irgendwann in naher/ferner Zukunft mal zitieren können. :)
Wenn du dich damit besser fühlst ... :rolleyes:

jay.gee
2007-06-26, 21:17:29
Wenn du dich damit besser fühlst ... :rolleyes:

Ich für meinen Teil wünsche mir für jeden G80-User, dass das Game bei ihnen in besten Frameraten mit tollen Details läuft. Dafür würde ich sogar sehr gerne mit meinen Prognosen falsch liegen. Was sowas angeht, bin ich kein durch Neid zerfressener Troll, wie man sie oft vorfindet - wünsche jedem eigentlich immer nur Gutes. :) Wenn allerdings nach dem Release in punkto Erwartungshaltung wieder das typische unsachliche Gebashe dabei rauskommt, hat mein daraus resultierender "virtueller Fingerzeig" nichts damit zu tun, dass ich mich dann besser fühle.

4711
2007-06-26, 21:35:46
ach is datt schön hier ;D
einer will mir erklären wie ich AA erweitern kann...
einer sagt mir ein 3er ist ein 4er -1 :P :biggrin:
dann muß ich hören mein DC taugt nix...dann scaliert<schreibt man das so :D,er doch am besten...

nene Jungs endlich mal wieder watt menschliches hier ich dachte ihr hab es schon vergessen..

Ach ja ehe ichs vergesse auf nem G80 wirds ruckeln wie Sau!
Oder ich zock auf 800x600...ach schied da limitiert ja die CPU...und nu?

Deathcrush
2007-06-26, 22:53:27
Ich für meinen Teil wünsche mir für jeden G80-User, dass das Game bei ihnen in besten Frameraten mit tollen Details läuft.

Nicht nur für die G80 User. Wenn das wirklich so kommen sollte und flüssig läuft, haben ja alles was davon und können günstig aufrüsten ;)

tombman
2007-06-27, 03:33:29
Bitte nicht - ich möchte diverse Aussagen aus diesem Thread irgendwann in naher/ferner Zukunft mal zitieren können. :)
Ich auch, unter anderem gibts den thread ja deswegen ;)

tombman
2007-06-27, 03:35:50
Ist das eine Feststellung oder nur deine Vermutung? Jaja, wenns mit einem 4Ghz QC flüßig läuft ist ja alles gut. :cool:
Je nachdem wieviel KI, Physik im Spiel vorkommt kann der Unterschied zwischen TD und SG enorm sein.
Das betrifft alle cpus, nicht nur quadcores. Skalierung ist perfekt da...

Natürlich, es hat auch jeder hier eine Kokü. :tongue:
Nö, 3.2Ghz geht locker mit Lukü, 3.6Ghz mit Wakü ;)

Dann bitte die Moderation am besten gleich den ganzen Thread zu löschen/schließen. So einen sinnlosen Thread habe ich im 3DC noch nicht gesehen.
Wo du dich aber voll reinhängst, jo, gaanz sinnlos ;)

p.s. schon 240 Leute haben sinnlos gevotet.. very nice ;)

k0nan
2007-06-27, 04:16:15
[x] nein, da 30fps nicht = flüssig (und wenn, dann höchstens in ArmA oder OFP ;))

Christi
2007-06-27, 12:28:14
ich habe derzeit nichts mehr in der wohnung, das 1600x1200 pixel anzeigen kann. ich beschränke mich auf 1680x1050, 720p oder auch 1360x768 pixel (verteilt auf 21-40" geräte). da wird mein G80 crysis sicher in ansprechender optik bewegen können. und falls nicht: auch nicht schlimm - ich gucke eh immer nur und spiele selten bis nie.


Verstehe ich das richtig:confused: Du hast eine 8800GTX und spielst kaum:eek:

Hast du einen Goldesel zuhause oder was?

MfG

dargo
2007-06-27, 15:02:27
Verstehe ich das richtig:confused: Du hast eine 8800GTX und spielst kaum:eek:

Hast du einen Goldesel zuhause oder was?

Wenn er mehr spielen würde wäre die GTX auch nicht billiger. :wink:
Irgendwann ist man aus dem Alter halt raus.

TobiWahnKenobi
2007-06-27, 15:15:12
ist weniger das alter als der alltag. auf der arbeit (c't) haben wir ständig mit hard- und software aller art zu tun - da schwindet das private interesse und die zur verfügungstehende zeit etwas. meine schwerpunkte liegen eher auf AV, spielkonsolen und tricktechnik.


(..)

mfg
tobi

Slipknot79
2007-06-28, 20:00:46
Ein Shooter mit 30fps ist nie flüssig genug.

Grey
2007-06-28, 21:06:17
Ein Shooter mit 30fps ist nie flüssig genug.

Das ist 1. von Spieler zu Spieler verschieden und 2. von Spiel zu Spiel verschieden. Einige brechen bei niedrigen FPS in ruckel- oder lag-orgien aus, bei anderen bemerkt man nicht einmal die 20FPS Grenze.

THEaaron
2007-06-28, 21:34:48
Das stimmt.
Ich kann mich noch an das Star Wars MMORPG erinnern, das bei 30FPS schon butterweich über den Bildschirm flimmerte.

Slipknot79
2007-06-28, 21:50:08
Das ist 1. von Spieler zu Spieler verschieden und 2. von Spiel zu Spiel verschieden. Einige brechen bei niedrigen FPS in ruckel- oder lag-orgien aus, bei anderen bemerkt man nicht einmal die 20FPS Grenze.


Ich wüsste keinen Shooter der bei 20fps besser lauft als bei 30.

Grey
2007-06-28, 21:52:13
Ich wüsste keinen Shooter der bei 20fps besser lauft als bei 30.

und?

Slipknot79
2007-06-28, 21:53:08
und?


Ein Bsp der deine Aussage untermauert?

30fps sind störend für schnelle 90 oder 180° Turns und anschließendes feines Aiming, probier es mal aus ;-)

Grey
2007-06-28, 21:56:45
probier es mal aus ;-)

http://www.imagebanana.com/img/42tlbu2i/framerate.jpg


...

Slipknot79
2007-06-28, 21:58:12
http://www.imagebanana.com/img/42tlbu2i/framerate.jpg


...



Das ist nur die Hälfte des Tests. Und jetzt zeige mir deine Score bei 60fps :wink: (und eventuell besseren Ping)

Grey
2007-06-28, 22:07:55
Das ist nur die Hälfte des Tests. Und jetzt zeige mir deine Score bei 60fps :wink: (und eventuell besseren Ping)

kein unterschied.

Slipknot79
2007-06-28, 23:30:08
kein unterschied.


Sehe zwar keinen Screenshot, aber ich geh davon aus dass es stimmt, dann bestätigst du als Ausnahme die Regel.

interzone
2007-06-29, 17:11:55
Crysis wird auf "alles bis zum Anschlag" sicher nicht mit konstanten 30FPS laufen.
Aber mit einem "vernünftigen" Kompromiß wird es auf einer GTX sicher sehr edel aussehen und gut spielbar sein...das lese ich aus den Schimmelflecken auf meinem Käsebrot.

Gaestle
2007-06-29, 17:17:05
ACHTUNG: POLLFRAGE GENAU ANSEHEN!!!!

Immer wieder hört man diesen Satz voller Angst oder sogar Hoffnung.

Jetzt mal Butter bei de Fische- hier die öffentliche Umfrage.

Wer glaubt ja, wer glaubt nein.

Mist, die Auflösung steht nicht in der Frage, von daher habe ich falsch gevotet (nein), denn für 800x600 ohne AA/AF wird's bestimmt reichen.

Moralelastix
2007-06-29, 20:36:15
Mist, die Auflösung steht nicht in der Frage, von daher habe ich falsch gevotet (nein), denn für 800x600 ohne AA/AF wird's bestimmt reichen.


Und bei 320x240 läuft bestimmt auch noch auf meinem alten Spiele Rechner mit XP3200 und 6800GT!:biggrin:

Gaestle
2007-06-29, 22:10:38
Und bei 320x240 läuft bestimmt auch noch auf meinem alten Spiele Rechner mit XP3200 und 6800GT!:biggrin:

HAst Du Deine GT auf DX10 gemoddet? :eek:

Ich hab' gelesen, dass man dafür relativ viel VCore braucht!


Nee, im Ernst, ich glaube nicht, dass es bei EINER GTX für CRYSIS bei MAX Details in 1280er Auflösung reicht. Es gibt doch da die Aussage von einem Crytek-Menschen, dass man wohl erst ein Jahr nach Launch alles flüssig hinbekommt. (oder so)

Aber genau weiß man's wohl erst, wenn's soweit is...

Amplified
2007-06-29, 23:04:30
Hab mal für nein gestimmt, aber vielleicht werd ich ja überrascht und es läuft doch besser.

Scoty
2007-06-30, 08:29:15
ich denke mit einer 8800 GTX wird es keine Probleme geben den die Macher hatten ja keine besseren Karten da die GTX das schnellste ist was es derzeit gibt. denke auch das eine 8800 GTS reichen könnte, eventuell ohne Schatten halt aber sonst läuft das sicher gut. bei der 7er Serie von NVidia denke ich wird es schon eher schwer werden, selbst mit SLI.

sulak
2007-06-30, 09:32:33
Ich hoffe das Full Detail nicht mit einer 8800GTX flüssig läuft sonst hat man ja gar keinen Grund sich ne neue Graka zu holen im Dezember :rolleyes:

Wenn "High" Details geht bin ich zufrieden aber es sollte schon einen Ultra Modus geben der so richtig die Balken brechen lässt und die GPU ausfährt und nicht ein CPU Limit auftritt. Ähnlich wie Farcry, das maximale darf nicht spielbarsein auf non SLI Systemen, sonst würde das ja zeigen das alle Coder bisher Scheiße gebaut haben wenn die Grafik die Crysis bietet, flüssig auf ner 8800GTX in 1600*1200 @ 4xAA läuft :cool:
Ich mag halt Spiele die ich nachnem Jahr wieder Auspacke und dann voll aufdrehn kann, macht das erneute Durchspielen mehr zu einem Erlebnis.

gnomi
2007-06-30, 09:57:52
Ich rechne schon damit, daß man vielleicht ein paar Details abstellen muß.
Die meiste Zeit wird es aber denke ich gut genug für ein SP Spiel laufen.

TobiWahnKenobi
2007-06-30, 10:07:27
http://www.bilgiustam.com/resimler/donanim/test2.jpg

wenn das^^ stimmt und high-details mit 60fps laufen - dann werden max-details ja wohl nicht auf unter 30fps einbrechen ;)

quelle: irgend-so-ein-test (http://www.bilgiustam.com/?p=125)


(..)

mfg
tobi

jay.gee
2007-06-30, 10:25:20
http://www.bilgiustam.com/resimler/donanim/test2.jpg

Nimm die Grafik wieder raus - denn sie ist megapeinlich. ;)

TobiWahnKenobi
2007-06-30, 10:26:35
darum steht unter quelle auch "irgend-so-ein-test"


(..)

mfg
tobi

jay.gee
2007-06-30, 10:29:20
darum steht unter quelle auch "irgend-so-ein-test"


(..)

mfg
tobi

Ich wusste es immer - ATI hält sich zur Zeit nur noch zurück. :redface:

viking
2007-06-30, 10:35:59
Nein,

ich denke nicht, dass es gut laufen wird.

Deathcrush
2007-06-30, 10:37:12
Ich wusste es immer - ATI hält sich zur Zeit nur noch zurück. :redface:

Nutzt ATI nicht auch "Technologie" die nicht in DX10 vorgeschrieben ist und die auch in der XBox360 zu finden sind? Muss mal ebn schaun, hab es irgendwo gelesen.





Zitat aus der PCGH .....sondern bietet darüber hinaus noch Merkmale, die für DX10-Komp. nicht erforderlich wäre...........wichtigste Merkmale in dieser Hinsicht ist eine programmierbare Tesselationseinheit..............Damit ist es möglich, geometrische Details zu einem vorhandenen Drahtgitter hinzuzufügen, ohne Bandbreite, CPU oder Speicherplatz ausserhalb der GPU zu belasten.

dargo
2007-06-30, 10:47:17
Jo, und irgendwann in 2011-2012 wird man von der Tesselationseinheit Gebrauch machen, nämlich mit DX11. ;)

Deathcrush
2007-06-30, 10:51:53
Soll schon mit DX10.1 kommen ;)




EDIT: Zitat PCGH ............darüber hinaus soll der Teselator die Spezifikation für DX10.1 erfüllen............

dargo
2007-06-30, 11:09:58
Soll schon mit DX10.1 kommen ;)

Ok, dann lasse mich überlegen ... Also früheste Implementierung in 2008/2009. Dann hätten wir davon in Games was in ca. 2010. :D

Deathcrush
2007-06-30, 11:13:52
Oder für Portierungen von der Box auf dem PC ;) Ein Vorteil hat es auf jedenfall.

TobiWahnKenobi
2007-06-30, 11:18:17
hat es derzeit nicht. funktionen, die nicht explizit genutzt werden, liegen nunmal brach. das vorhandensein der tesselations-einheit gibt bestenfalls gewissheit, dass man die ATIs noch unter DX10.1 oder DX11 einsetzen könnte..


(..)

mfg
tobi

dargo
2007-06-30, 11:19:09
Ich wüßte nicht, dass Xenos eine Tesselationseinheit hätte :confused:

hat es derzeit nicht. funktionen, die nicht explizit genutzt werden, liegen nunmal brach. das vorhandensein der tesselations-einheit gibt bestenfalls gewissheit, dass man die ATIs noch unter DX10.1 oder DX11 einsetzen könnte..

Das glaubst du wohl selber nicht. :tongue:
Bis wir "DX10.1" Titel sehen ist ein R600 schon längst Low-End. :D

Deathcrush
2007-06-30, 11:21:26
Weniger bashen mehr lesen. Aber Bildquali ala AA und AF ist ja immer das wichtigste ;)

Zitat"Weiter wurde während des Gesprächs bekannt, dass die Tesselation-Einheit des R600 bereits in der Xbox 360 GPU alias Xenos enthalten ist und in Zukunft eine wichtige Rolle spielen dürfte. Da der Funktionsblock wenige Transistoren verbraucht, stand es außer Frage, ihn auch in die Radeon HD 2000 Familie einzubauen. Das komplette Interview mit Eric Demmers kann man bei den Kollegen von Beyound3d in aller Ausführlichkeit nachlesen."

dargo
2007-06-30, 11:27:09
Zitat"Weiter wurde während des Gesprächs bekannt, dass die Tesselation-Einheit des R600 bereits in der Xbox 360 GPU alias Xenos enthalten ist und in Zukunft eine wichtige Rolle spielen dürfte. Da der Funktionsblock wenige Transistoren verbraucht, stand es außer Frage, ihn auch in die Radeon HD 2000 Familie einzubauen.
Ja, ok. Trotzdem interessiert mich der R600 momentan nicht die Bohne. Die GPU ist für mich nichts halbes und nichts ganzes. Vielleicht der R650, wenn nicht erst R700.

Und ja, für mich ist AA/AF wichtiger als irgendeine nutzlose Tesselationseinheit die keine Verwendung in (PC) Games findet. ;)
Das mag sich in einigen Jahren ändern.

TobiWahnKenobi
2007-06-30, 11:27:32
Ich wüßte nicht, dass Xenos eine Tesselationseinheit hätte :confused:


Das glaubst du wohl selber nicht. :tongue:
Bis wir "DX10.1" Titel sehen ist ein R600 schon längst Low-End. :D

darum habe ich auch "könnte" geschrieben. klar, dass die dann zum alten eisen gehören.


(..)

mfg
tobi

dargo
2007-06-30, 11:28:48
darum habe ich auch "könnte" geschrieben. klar, dass die dann zum alten eisen gehören.

Ich habe dich schon verstanden, war nicht böse gemeint. :)

Deathcrush
2007-06-30, 11:29:52
Ich warte lieber die ersten DX10 Spiele ab und etscheide dann was ich kaufen werde. Jetzt schon zu entscheiden, wer besser oder schneller ist, ist blödsinn. Noch kann man keiner Vergleiche stellen, gibt ja schliesslich noch kein richtiges Spiel. Lost Planet würde mich mal interessieren, da es ja ein XBox Port ist :) Wer da schneller ist, ATI oder NV mit ihren beiden DX10 Karten.

dargo
2007-06-30, 11:32:30
Ich warte lieber die ersten DX10 Spiele ab und etscheide dann was ich kaufen werde. Jetzt schon zu entscheiden, wer besser oder schneller ist, ist blödsinn. Noch kann man keiner Vergleiche stellen, gibt ja schliesslich noch kein richtiges Spiel. Lost Planet würde mich mal interessieren, da es ja ein XBox Port ist :) Wer da schneller ist, ATI oder NV mit ihren beiden DX10 Karten.
Ja gut. Wenn dir die Leistung momentan vom R580 reicht, warum nicht. Ich sehe das relativ gelassen. Wenn irgendwann meine GTS für meine Ansprüche (1280x1024 4xMSAA/16xAF) zu langsam ist wird einfach eine schnellere Graka besorgt. So einfach ist das. :)

TobiWahnKenobi
2007-06-30, 11:34:11
Ich warte lieber die ersten DX10 Spiele ab und etscheide dann was ich kaufen werde. Jetzt schon zu entscheiden, wer besser oder schneller ist, ist blödsinn. Noch kann man keiner Vergleiche stellen, gibt ja schliesslich noch kein richtiges Spiel. Lost Planet würde mich mal interessieren, da es ja ein XBox Port ist :) Wer da schneller ist, ATI oder NV mit ihren beiden DX10 Karten.

derzeit wohl NV, was aber daran liegen dürfte, dass NV zwei people für das entwicklerstudio abgestellt hat, die fleißig helfen auf den G80 zu optimieren.


(..)

mfg
tobi

Rente
2007-06-30, 11:38:27
[...]
Und ja, für mich ist AA/AF wichtiger als irgendeine nutzlose Tesselationseinheit die keine Verwendung in (PC) Games findet. ;)
Das mag sich in einigen Jahren ändern.
Wobei in der PCGH auch irgendwo mal stand das die Tessalationseinheit auch jetzt schon angesprochen werden kann, nur eben nicht über eine Standardschnittstelle, d.h. jeder Entwickler müsste dafür entsprechend anpassen und "Tools" nutzen die es von ATi gibt...

dargo
2007-06-30, 11:41:59
Wobei in der PCGH auch irgendwo mal stand das die Tessalationseinheit auch jetzt schon angesprochen werden kann, nur eben nicht über eine Standardschnittstelle, d.h. jeder Entwickler müsste dafür entsprechend anpassen und "Tools" nutzen die es von ATi gibt...
Und eben das halte ich für ein Todesurteil. Wenn beide Hersteller (NV und ATI) eine Tesselationseinheit haben wird man diese auch nutzen. "Alleingänge" werden kaum richtig genutzt.

TobiWahnKenobi
2007-06-30, 11:43:01
Wobei in der PCGH auch irgendwo mal stand das die Tessalationseinheit auch jetzt schon angesprochen werden kann, nur eben nicht über eine Standardschnittstelle, d.h. jeder Entwickler müsste dafür entsprechend anpassen und "Tools" nutzen die es von ATi gibt...

wenn das wieder so ein optionaler käse wird, wie damals die geschichte mit dem chuckalyst-treiber, dann wird es für die meisten wohl verzichtbar sein..

bis chucks patch in den finalen treiber einzug gehalten hat, war die x1900 zumindest für mich schon überholt.


(..)

mfg
tobi

Deathcrush
2007-06-30, 11:44:13
Eben nicht. Es werden immer mehr Portierungen von der Konsole kommen und da wird die ATI nun mal ein Plus haben, wenn es richtig umgesetzt wird.

P.S Mit deinem bashen bezog ich mich auf den Xenos und nicht auf dem ATI 2900 ;) Du meinst das du immer alles wüsstest und dann weisst du nicht einmal das der C1 eine tesslationseinheit hat :D Und wie du wissen solltest, ist den meissten XBoxusern AA und AF egal, da die Spiele mit anderen sachen aufwarten können.

TobiWahnKenobi
2007-06-30, 11:47:01
nochmal: ein spiel wird - sofern es umgesetzt wird - für ein dx-level umgesetzt. das ist spezifiziert. die spec sieht aber keine tesselationseinheit vor, also wird es auch nicht zu irgendwas beitragen. ausnahme wäre ein patch oder modtreiber seitens ATI.. also ein chuck-deja-vu.


(..)

mfg
tobi

The_Invisible
2007-06-30, 11:48:20
Eben nicht. Es werden immer mehr Portierungen von der Konsole kommen und da wird die ATI nun mal ein Plus haben, wenn es richtig umgesetzt wird.

P.S Mit deinem bashen bezog ich mich auf den Xenos und nicht auf dem ATI 2900 ;) Du meinst das du immer alles wüsstest und dann weisst du nicht einmal das der C1 eine tesslationseinheit hat :D Und wie du wissen solltest, ist den meissten XBoxusern AA und AF egal, da die Spiele mit anderen sachen aufwarten können.

wer sagt den überhaupt das die box immer als lead platform hergenommen wird für konsolen? wir sind jetzt schon ein jahr weiter.

mfg

TobiWahnKenobi
2007-06-30, 11:49:10
da wird microsoft mit vista, LIVE und "games-for-windows" schon für sorgen.


(..)

mfg
tobi

jay.gee
2007-06-30, 11:51:26
Ja, ok. Trotzdem interessiert mich der R600 momentan nicht die Bohne. Die GPU ist für mich nichts halbes und nichts ganzes.

Und ich bin halt der Meinung - dass ebend alle aktuell verfügbaren Karten bezogen auf zukünftige Games nichts "Halbes und nichts Ganzes sind". :) Und ich beziehe mich da nicht auf die nächsten ~2Jahre - sondern ebend auf Titel ala UT3, Crysis und Co :) Die nächste Generation - mir egal ob rot oder grün - wird meinen Ansprüchen da schon eher gerecht. :)

dargo
2007-06-30, 11:52:06
Eben nicht. Es werden immer mehr Portierungen von der Konsole kommen und da wird die ATI nun mal ein Plus haben, wenn es richtig umgesetzt wird.

Aber nicht auf dem PC (zumindest nicht mit MSAA/AF). Der R600 limitiert an vielen anderen Stellen. Da helfen ihm auch keine "Extra-Features".

Deathcrush
2007-06-30, 11:52:31
wer sagt den überhaupt das die box immer als lead platform hergenommen wird für konsolen? wir sind jetzt schon ein jahr weiter.

mfg

Wo hab ich immer geschrieben? Aber Spiele wie Dirt und Lost Planet sind nun einmal Portierungen, oder willst du das bestreiten. Und die Dirt Engine (Jupiter) ist für Konsolen geschrieben wurden und mit der Engine erscheint nun mal auch Operation Flashpoint 2.

dargo
2007-06-30, 12:06:22
Du meinst das du immer alles wüsstest ...
Interessant was du dir hier wieder zusammenreimst. :rolleyes:
Ich habe keine Ahnung wo ich nur ansatzweise behauptet hätte ich wüßte alles. :tongue:

Wie war das nochmal mit dem bashen? ;)

Deathcrush
2007-06-30, 12:07:55
Aber nicht auf dem PC (zumindest nicht mit MSAA/AF). Der R600 limitiert an vielen anderen Stellen. Da helfen ihm auch keine "Extra-Features".

Die Leistung ist laut PCGH Hardware zwischen einer 8800gts und 8800GTX. Was ist daran langsam und vor allem, bedenke den Preis von 350€. Und noch sind die Treiber nicht ausgereift und ATI braucht da ja bekanntlich ein bisl länger :D Darüber hinaus glaube ich eh, das beide Karten (8800er, 2900er) für Crysis zu langsam sein werden in max Details.

TobiWahnKenobi
2007-06-30, 12:09:20
wie "pro" ATI kann man denn eingestellt sein, dass man mit der argumentation "warte auf bessere treiber" kommt?

meine alte X1900XTX wurde von treiber zu treiber immer langsamer. klar, man kann auch über den preis relativieren.. aber wozu????


(..)

mfg
tobi

Deathcrush
2007-06-30, 12:13:01
Also meine wurde selbst mit dem Cat 6.7 noch schneller :P Und wie lange ist bitte die 2900 auf dem MArkt und die X1900er. Was ein vergleich :D Und wenn du meine Graka-History kennen würdest, würdest du sehen das ich nicht PRO ATI eingestellt bin. Wie Leute immer gleich auf Fanboy schliessen können ist mir ein Rätsel.

dargo
2007-06-30, 12:20:41
Die Leistung ist laut PCGH Hardware zwischen einer 8800gts und 8800GTX. Was ist daran langsam und vor allem, bedenke den Preis von 350€.

Mit AA/AF oder ohne? Außerdem interessiert mich nicht nur pure Leistung. Wenn ich mir die Verlustleistung der X2900XT und der G8800GTS anschaue ... *hust*

Ich habe eine gewisse Grenze. Deswegen habe ich mich auch für die GTS und keine GTX entschieden. Ich hoffe nur, man wird mit den 65nm GPUs auch wieder performante 100-120W Grakas liefern können.


Und noch sind die Treiber nicht ausgereift und ATI braucht da ja bekanntlich ein bisl länger :D
Jo, wie lange denn? Bis ein G90 kommt? :tongue:
Nee, sorry. Ich hatte in letzter Zeit auch immer nur ATI. Diesmal haben sie aber mit dem R600 den größten Bock geschossen. Dass man die Preise dann angleichen musste ist der völlig normaler Weg. Für 500€ würde die Karte niemand kaufen.

Wie gesagt, schauen wir mal wie der R700 wird. Dann kann ich wieder die Fronten wechseln. :D

Deathcrush
2007-06-30, 12:54:02
Mit AA/AF oder ohne? Außerdem interessiert mich nicht nur pure Leistung. Wenn ich mir die Verlustleistung der X2900XT und der G8800GTS anschaue ... *hust*



Ohne AA und AF bei 1024x768 ist die 2900er eindeutig die sehr viel schnellere. Mit AA un AF (1280x1024) zwischen einer 8800GTS und GTX. Kommt aber auch auf das Spiel an.
Aber wie gesagt, die neuen Karten müssen erst einmal zeigen was sie unter DX10 können, DX9 ist mir da vollkommen ladde, da meine X1950XT für alle Spiele 1280x1024 (2/4AA und 8AF) vollkommen ausreichend ist.

TobiWahnKenobi
2007-06-30, 12:57:42
du solltest dir mal einen G80 in den rechner stecken - das würde deinen eindruck vielleicht ändern. im letzten jahr empfand ich die leistung meiner XTX auch noch als sehr gut - heute würde ich die nicht mehr haben wollen.

und 1024er auflösungen passen heute weder zu 19" 5:4 noch zu 20, 21 oder 22" 16:10 displays.. LCD-TVs wird man auch eher mit 720p oder 1360x768 pixeln betreiben.

für 1024pixel kann man sich ne 100-150 euro karte kaufen - dazu muss man nicht 300+ euro hinlegen.


(..)

mfg
tobi

Deathcrush
2007-06-30, 13:01:27
Ich hatte schon eine 8800GTS in meinem Rechner :P Vielleicht liegt es auch bei dir das die Leistung nicht Ausreichend war ;) Nenn mir doch mal 3 Spiele die bei 1280x1024 Ruckeln bei einer X1950XT. Und wenn ein Spiel mit 20FPS dahin dümpelt wirst du mit einer 8800gts nicht sehr viel schneller sein. Und wenn ich Dargo zitieren darf, meisstens sind die Schatte schuld an der schlechten Perfomance. Und mit schatten auf mittel Ruckelt lein Spiel bei mir. Selbst Stalker kann ich noch wunderbar spielen.

deekey777
2007-06-30, 13:04:25
Wir sollten die Umfrage an Crytek schicken, damit sie Crysis an diese so anpassen, dass wenigstens eine Gruppe der Teilnehmer der Umfrage nicht entäuscht wird.

PS: Zwei Nvidia-Mitarbeiter greifen seit August letzten Jahres bei der Programmierung des D3D10-Pfades unter die Arme.
http://www.computerbase.de/news/software/spiele/actionspiele/2007/maerz/crysis-grafik_nvidia/

TobiWahnKenobi
2007-06-30, 13:05:36
Ich hatte schon eine 8800GTS in meinem Rechner :P Vielleicht liegt es auch bei dir das die Leistung nicht Ausreichend war ;) Nenn mir doch mal 3 Spiele die bei 1280x1024 Ruckeln bei einer X1950XT. Und wenn ein Spiel mit 20FPS dahin dümpelt wirst du mit einer 8800gts nicht sehr viel schneller sein. Und wenn ich Dargo zitieren darf, meisstens sind die Schatte schuld an der schlechten Perfomance. Und mit schatten auf mittel Ruckelt lein Spiel bei mir. Selbst Stalker kann ich noch wunderbar spielen.

was soll ich mit 1280x1024?? meine displays udn fernseher sind alles widescreen-geräte und probate beispiele für schlechte leistung auf meiner exATI sind gothic3 und oblivion. spiderman3 war auch nicht so der bringer und ich denke mit aktuellen spielen, wie etwa CMR dirt oder two worlds ist es wohl ähnlich.

dass eine GTX noch ein gutes stück schneller als die GTS ist ist bekannt?


(..)

mfg
tobi

Deathcrush
2007-06-30, 13:08:22
Du hast gesagt Zitat "du solltest dir mal einen G80 in den rechner stecken " WARUM soll ich mir einer 8800er in den Rechner stecken wenn ich davon nichts habe, im moment jedenfalls. Das ich dann anstatt von 70FPS dann 85FPS habe?

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/9/

Schau dir die FPS Werte an, ich bin mit einer 1950er XT immer im Spielbaren bereich, also wozu soll ich mir eine 8800er in den Rechner stopfen für 1280x1024.

TobiWahnKenobi
2007-06-30, 13:09:23
PS: Zwei Nvidia-Mitarbeiter greifen seit August letzten Jahres bei der Programmierung des D3D10-Pfades unter die Arme.
http://www.computerbase.de/news/software/spiele/actionspiele/2007/maerz/crysis-grafik_nvidia/

habe ich auf der letzten seite schon erwähnt.. ;)


(..)

mfg
tobi

TobiWahnKenobi
2007-06-30, 13:10:31
Du hast gesagt Zitat "du solltest dir mal einen G80 in den rechner stecken " WARUM soll ich mir einer 8800er in den Rechner stecken wenn ich davon nichts habe, im moment jedenfalls. Das ich dann anstatt von 70FPS dann 85FPS habe?

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/9/

Schau dir die FPS Werte an, ich bin mit einer 1950er XT immer im Spielbaren bereich, also wozu soll ich mir eine 8800er in den Rechner stopfen für 1280x1024.

um zu sehen, dass die GTX fast doppelt so schnell wie die XT ist (unter qualitätssettings mit AA/AF); über 80% schneller bei 1280x1024 pixeln.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/25/#abschnitt_performancerating_qualitaet


(..)

mfg
tobi

Deathcrush
2007-06-30, 13:11:30
Und was willst du mir damit jetzt sagen, das 80FPS nicht mehr spielbar sind, bzw 75FPS da ich ja nur eine 1950xt habe? :D :D :D Au man, wie FPS geil muss man sein. Also noch einmal, wozu eine 8800er? Nur damit ich über 100FPS habe? Ist das dein anliegen? Und 75FPS vs 125FPS sind für mich nicht doppelt so schnell.

TobiWahnKenobi
2007-06-30, 13:12:46
sorry - aber wenn dein tellerrand zu hoch ist, um zu erkennen, dass es auch spiele respektive einstellungen gibt, die du nicht nativ nutzen kannst, ist das zum glück nicht mein problem.


(..)

mfg
tobi

Madkiller
2007-06-30, 13:19:49
Verzichtet bitte auf die Sticheleien - danke.

btw
Die 80 Durchschnitt-aus-allem-möglichem-fps sind zu einem Großteil aus Timedemos mit avg fps und fast nie aus stressigen Szenen ermittelt worden.

Wenn dir Deathcrush deine Graka schnell genug ist, ist das natürlich ok, aber die 80fps repräsentieren bestimmt nicht den Schnitt bei Spielen, und schon garnicht bei stressigen Szenen.

Deathcrush
2007-06-30, 13:22:27
Nein, du denkst nur aus deiner Sichtweise und kannst dir nicht vorstellen das einem auch 50FPS reichen können anstatt von 80fps. Dein Horizont ist da recht eingeschränkt. Und meine X1950XT reicht nun mal für jetzige Spiel mehr als aus für 1280x1024. Ich spiele Stalker, CSS, Quake Wars (2AA 16AF, schatten aus 85-100FPS), Arma, Oblivion und Gothic 3 und es spielt sich alles wunderbar. Also brauch ich keine 8800er. Das ich mir eine in meinem PC Stecken solle, wa ja dein Vorschlag nicht meiner. Wenn dir eine 1900er zu lam ist, ist das ja nicht mein Problem. Du solltest aber nicht dazu übergehen und sagen das sich andere eine 8800er verbauen sollen.

@Madkiller

Alle Spiele laufen bei mir RUCKELFREI. Das einzige was ich ab und zu reduzieren muss sind die Schattendetails. Das musste ich aber auch mit der 8800GTS ;)

deekey777
2007-06-30, 13:42:11
habe ich auf der letzten seite schon erwähnt.. ;)


(..)

mfg
tobi
Das ist toll, aber: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=354521
Schaue mal aufs Datum. Auch wurde dies mehrmals im Crysis-Thread erwähnt, nur haben nur wenige diese Zusammenarbeit mitbekommen.

TobiWahnKenobi
2007-06-30, 13:44:20
ich habe es auch nur mitbekommen, weil laurenz es mir gesagt hat. gelesen hatte ich davon nix, sonst hätte ich auch ne quelle angegeben.

bis dahin hielt ich LP noch für einen guten benchmark ;)


(..)

mfg
tobi

Undertaker
2007-06-30, 13:58:17
Alle Spiele laufen bei mir RUCKELFREI. Das einzige was ich ab und zu reduzieren muss sind die Schattendetails. Das musste ich aber auch mit der 8800GTS ;)

bitte? welches aktuelle game überfordert auf maximalen details in 1280x1024 eine 8800gts?? btw, und gothic 3 wunderbar flüssig auf dem r580 glaub ich auch net ;)

Deathcrush
2007-06-30, 14:01:19
Schalte mal bei Arma alles auf Highest oder R6 Vegas. Da geht der 8800GTS ganz schnell die puste aus. Gothic3 läuft bei 1280x1024 wunderbar, null Probleme. Und wenn schon eine X1950XT es nicht Ruckelfrei darstellen kann (15-20FSP) dann wirds bei einer 8800GTS auch nicht besser, sprich nicht über 30FPS kommen.

TobiWahnKenobi
2007-06-30, 14:08:05
lt. computerbase müsstest du bei gothic3 ca. 20fps haben (1280x1024, 16xAF); ich hatte auf der XTX ca. 26 bzw. hin und wieder auch mal 30.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/15/#abschnitt_gothic_3

mit einer GTX hast du über 50 (bei nativer 1680x1050 pixel darstellung).


(..)

mfg
tobi

Deathcrush
2007-06-30, 14:08:57
Hab ich aber nicht ;) 20FPS hatte ich ja schon mit der X1800XTer :D

Ist die Szene aus dem Anfangsdorf, werde nachher mal Bilder machen mit FPS anzeige. Erst einmal muss ich den Geburtstag meines Sohnes feiern, ist gerade vom Mittagsschlaf erwacht ^^

Deathcrush
2007-06-30, 15:52:36
http://img516.imageshack.us/img516/2280/gothic32007063015315034ou0.th.jpg (http://img516.imageshack.us/my.php?image=gothic32007063015315034ou0.jpg)

http://img516.imageshack.us/img516/7350/gothic32007063015320298gj8.th.jpg (http://img516.imageshack.us/my.php?image=gothic32007063015320298gj8.jpg)

Immer um die 40-50 FPS wie du da auf 20 kommst ist mir ein rätsel :D Alles High 1280x1024 16AF

Undertaker
2007-06-30, 16:02:31
also af war da bestimmt nicht an (siehe boden 2. bild), auch die sichtweite kommt mir nicht ganz maximal vor aber da bin ich nicht sicher.... und btw, vegas läuft bei mir sogar in 1600x1200 ganz gut, bis auf die slowdowns die aber sogar ein sli gespann hat :rolleyes:

arma ist in 1280x1024 deftigst cpu limitiert

Deathcrush
2007-06-30, 16:07:07
Blödsinn, ARMA ist sehr stark Grakalim. und CPU Lim.. Schau dir den Perfomancebericht an vom 3dcenter. AF ist im Spiel eingeschaltet, nicht über treiber.


P.S. Spiel mal die Mission Konvoyhinterhalt und spiel mit der Auflösung ;)

Undertaker
2007-06-30, 16:42:03
Blödsinn, ARMA ist sehr stark Grakalim. und CPU Lim.. Schau dir den Perfomancebericht an vom 3dcenter. AF ist im Spiel eingeschaltet, nicht über treiber.


P.S. Spiel mal die Mission Konvoyhinterhalt und spiel mit der Auflösung ;)

3/4 savegames dort wären nach meiner hochrechnung bei einer 8800gts auf dem 3,2ghz c2d gpu-limitiert, selbst auf der x1900xt sind es immerhin noch 2/4

Deathcrush
2007-06-30, 17:13:42
Mit Arma zwingt man selbst eine 8800GTS noch stark in die Kniehe und das ohne Anti Aliasing. Arma knabbert an beidem sehr gut, CPU wie auch GPU. Die Mission "geprügelter Hund" ist z.B argh CPU Lim.

Aber noch mal zu G3. Wer das Spiel mit einer 1950XT/1950XTXer nur mit 20FPS bei 1280x1024 spielen kann, hat definitiv sein PC falsch konfiguriert. Tobiwahn hat definitiv übertrieben.

Undertaker
2007-06-30, 17:20:00
das sind aber die werte die auch cb angibt, da scheint wohl eher etwas bei dir nicht @max gewesen zu sein? af zb war, nach den screenshots zu urteilen, eher nicht an (bei dem 2. sogar definitiv nicht)

Deathcrush
2007-06-30, 17:21:57
Laut G3 Menu ist AF bis auf Anschlag, liegt vielleicht auch am Post Processing und JPG format.

Madkiller
2007-06-30, 17:29:09
@Madkiller

Alle Spiele laufen bei mir RUCKELFREI. Das einzige was ich ab und zu reduzieren muss sind die Schattendetails. Das musste ich aber auch mit der 8800GTS ;)
Ich berief mich ja auch auf die 80fps...
Warum greifste die eigentlich auf, wenn du genau weißt, daß die nicht Standard ist mit den Settings?
Aber noch mal zu G3. Wer das Spiel mit einer 1950XT/1950XTXer nur mit 20FPS bei 1280x1024 spielen kann, hat definitiv sein PC falsch konfiguriert. Tobiwahn hat definitiv übertrieben.
http://www.3dcenter.org/images/2006/12-09_pic2_tn.jpg
X1900XT@1280x960--->~20fps

Deathcrush
2007-06-30, 17:30:56
So im Treiber 16AF

1280x1024 Alles Highest 16AF

Wenn viel los ist

http://img96.imageshack.us/img96/2082/gothic32007063017232800vm7.th.jpg (http://img96.imageshack.us/my.php?image=gothic32007063017232800vm7.jpg)

http://img510.imageshack.us/img510/8797/gothic32007063017241900ee8.th.jpg (http://img510.imageshack.us/my.php?image=gothic32007063017241900ee8.jpg)

http://img522.imageshack.us/img522/7782/gothic32007063017243631vq5.th.jpg (http://img522.imageshack.us/my.php?image=gothic32007063017243631vq5.jpg)

Zu behaupten das eine X1950XT zu langsam sei für 1280x1024, hat einfach den schuss nicht mehr gehört

Deathcrush
2007-06-30, 17:35:12
Ich berief mich ja auch auf die 80fps...
Warum greifste die eigentlich auf, wenn du genau weißt, daß die nicht Standard ist mit den Settings?

http://www.3dcenter.org/images/2006/12-09_pic2_tn.jpg
X1900XT@1280x960--->~20fps

Mit #223 warst nicht du gemeint, sondern Tobi ;) Schau mal auf die Erstelleruhrzeit. Und in der Szene, die du mir da zeigst, hatte ich schon 20 FPS mit einer X1800XT, ist doch das Savegame von PCGAMES, oder? Und da wo eine X1950er keine spielbaren Frames mehr liefert, wird eine 8800GTS auch nciht besser sein. Die Erfahrung hab ich schon sammeln dürfen. Und es ging mir Auschliesslich darum das Tobi meinte mit einer X1950er hätte man 20-30FPS, was ja nun mal falsch ist.

Zur Erinnerung
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5630553&postcount=228

Madkiller
2007-06-30, 17:40:34
Und in der Szene, die du mir da zeigst, hatte ich schon 20 FPS mit einer X1800XT, ist doch das Savegame von PCGAMES, oder? Und da wo eine X1950er keine spielbaren Frames mehr liefert, wird eine 8800GTS auch nciht besser sein.
Die selbe Stelle mit ner GTS: 34fps, GTX 48fps

Wenn du keine schnellere GraKa brauchst, ok.
Wenn dir der Sprung zur GTS/GTX zu klein ist, ok.
Wenn du Anno 1701 spielst, ok. ;)

Aber in mehreren Spielen ist der G80 deutlich schneller.

Deathcrush
2007-06-30, 17:48:09
Deutlich schneller ist ja ok, aber was bringt mir das wenn ich statt 75FPS auf einmal 100FPS habe? Darum geht es mir, nicht mehr und nicht weniger und das Tobi der Meinung ist, ich müsse mir eine 8800er einbauen damit ich einen unterschied merke. Klar, bei 1680x1050 merke ich da einen unterschied. Aber nicht bei 1280x1024, dafür hatte ich schon eine 8800GTS im Rechner. Soviel schneller ist eine 8800GTS nicht als eine 1950erXT Und ob ich jetzt 50 oder 62 fps (25%) habe ist vollkommen ladde. Und wenn ich jetzt z.B 15fps habe, würde ich mit der GTS 18-19FPS haben. Super :D

Aber um es mal nach dem ganzen durcheinander zusammen zu fassen

-Tobi meint eine 1950er ist für 1280x1024 zu langsam
-ich sage nein
-Benchmarks zeigen deutlich das ich immer im voll Spielbaren bereich bin
-Tobi sagt ich hätte bei G3 nur 20-30FPS
-Ich beweise das Gegenteil
-Selbst die Dirt Demo kann ich bei 1280x1024 4AA 8AF alles Max ausser schatten Mittel bei 35-40 FPS spielen.

Also, wo ist bitte eine 1950XT zu langsam, nur weil Tobi das sagt und es seine Meinung wiederspiegelt?

Undertaker
2007-06-30, 17:59:47
warum 25%? in gothic 3 zb hat madkiller 70% gemessen...

Deathcrush
2007-06-30, 18:02:50
Weil ich mit dem durchschnitt rechne und nicht eine Szene zum Maß aller dinge nehme. Und wenn das die Stelle ist, die ich meine, frage ich mich wie er da auf nur 20FPS kommt. Da war ich mit meiner X1800XT ja genauso schnell. Wer der Meinung ist statt mit 50FPS lieber mit 65 oder 70 oder 80 spielen zu müssen ist das ja sein Bier. Aber er sollte nicht seine Meinung auch für andere geltend machen.

Madkiller
2007-06-30, 18:13:38
Und wenn das die Stelle ist, die ich meine, frage ich mich wie er da auf nur 20FPS kommt.
Wieso, haste Benches die zeigen, daß die X1800XT deutlich langsamer ist als die X1900XT in G3?
Eine gewisse Schwankgung gibt es ja immer bei Treibern bzw deren Settings.

Deathcrush
2007-06-30, 18:18:30
Ich wurde hier mal gesteinigt, als ich geschrieben habe, das eine X1800XT OC identisch schnell sei wie eine X1900XT non OC.

Undertaker
2007-06-30, 18:34:51
weils in der form halt völlig undifferenziert ist - es gibt stellen, wo eine x1800xt oc sogar schneller als eine x1900xt sein kann, an anderer stelle ist der r580 auf einmal doppelt so fix - je nach dem was die 48 alus so zu tun bekommen ;)

Madkiller
2007-06-30, 18:45:09
Ich habe auch wegen den "immer 40-50fps bei G3" von Deathcrush überhaupt erst den Screenshot mit 20fps gepostet. Auch das "75fps zu 100fps" hat IMO keine Praxisnähe. Sieht man ja allein daran, daß keine von den Szenen von G3 die als Beispiel gebracht wurden, die 75fps erreicht hatten.

Differnzier doch bitte ein wenig mehr, Deathcrush. :)

Deathcrush
2007-06-30, 18:49:22
wo bitte hab ich 75FPS auf 100FPS auf Gothic3 bezogen?

Mit den 75FPS oder 100FPS meine ich, das es mir egal ist ob ich in einem Spiel 75FPS oder nun 100FPS habe. Das man immer mal auf 30FPS herunterrutschen kann, ist ja selbstverständlich, aber so lange es nicht die Regel ist, ist es ja egal. Und ich habe bisher keine Spiele hier, wo ich dauerhaft auf 30FPS abrutsche. Kein Stalker, kein CSS ;) ,kein BF2, keine QWET, kein Arma, kein Oblivion und auch kein Gothic 3. Alle Spiele rennen in der Regel mit mind. 45-50FPS. Oder auch mehr ;) Und warum sollte ich mir dann eine 8800GTS für 300.- verbauen, wenn es eine 1950XT für 200.- auch tut. Ich kann für Crysis dann immer noch aufrüsten.

Madkiller
2007-06-30, 18:53:03
Deine 75 auf 100fps waren allgemein gehalten.
Ich schrieb ja schon, daß du die 75fps bei aktuellen Spielen und stressigen Szenen mit der 1900XT @1280 eh nicht erreichst. Das mit G3 war dann ein Beispiel

Deathcrush
2007-06-30, 19:08:44
Mir fallen spontan nur 3-4 Spiele ein, wo es schon eng werden würde, mit meiner X1950XT. Oder was ihr unter eng verstehen würdet. Ich war sogar angenehm überrascht wie Stalker auf der X1950XT performt nach der ganzen Panik die verbreitet wurde. In den seltensten Fällen rutsche ich mal auf 30FPS ab. Gut ich hab den komischen Shaderpatch druff ^^, aber der wird ja nun off. mit in dem neuen Update übernommen. Ich zweifle ja auch nicht daran, das die 8800er schneller ist. Für mich macht es aber keinen Sinn aufzurüsten, wenn ich nur bei 1280x1024 spiele. Und da fing es ja mit Tobi an, der da ganz andere Meinung war und Behauptungen aufstellte die so nicht wahr sind. Wenn jemand aufrüsten will damit ein Spiel anstatt zu 90% immer 100% flüssig läuft, nun gut, soll er es machen. Ich sehe darin nun mal keinen Sinn. Und wenn man ein bisl pfiffig ist, kann man auch mit einer betagten Karte auch das Spiel zu 100% flüssig bekommen, ohne nennenswerten Qualitätsverlust.