PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Erste DX10 Crysis Benchmark-Ergebnisse


up¦²
2007-01-31, 01:19:21
Crysis (HQ, no AA/AF, Phys On) 1024x768 1280x1024 2560x1600
Max FPS............................... 68.5 .......51.2 ........4.8
Min FPS ................................33.4 .......17.3 ........0.2
Avg FPS ................................43.9 .......36.8 .......1.7

The first DX10 Crysis benchmarks has appeared and it seems that a pair GeForce 8800GTX in SLI is just doing average here. The system hardware to run a Crysis demo benchmarks are pretty top notch and just the demo is huge at 2.88GB. Powered by Intel Core 2 Quad QX6700 on ASUS Striker Extreme with 4GB DDR2-800 memories, 2 x 150GB WD Raptor in RAID 0, BFG PhysX card and running on Windows Vista w/ Forceware 100.30 drivers. Using FRAPs and a full 5 mins run inside the game with High Quality settings, Phys on, noAA/AF, the max, min and average FPS are recorded. These benchmarks provide just a glimpse of what's coming and we shall wait for the actual game and more finalized drivers to paint a more accurate picture.
http://sg.vr-zone.com/?i=4555

Na denne! :smile:

Dimon
2007-01-31, 01:33:00
Uff bricht das ding geil ein....... :eek:

Vor allem ohne FSAA etc...


na dann mal sehn wies weiter geht...


mfg

Coda
2007-01-31, 01:34:50
Da geht der VRAM aus, anders ist das nicht zu erklären.

Blaire
2007-01-31, 01:55:34
SLI war sicher auch aus der 100.30 konnte noch garkein SLI würde ich als Fake betrachten.

up¦²
2007-01-31, 02:11:25
BTW...
Crysis DX 10 Environment Flyover (HD) (http://downloads.guru3d.com/downloadget.php?id=1528&file=4&evp=583e78ec78647ab02eb16b25c1c32843)

Spasstiger
2007-01-31, 05:52:35
SLI war sicher auch aus der 100.30 konnte noch garkein SLI würde ich als Fake betrachten.
Hoffentlich, nach den Ergebnissen und unter der Annahme, dass SLI eine deutlich Vorteil bringen würde, wäre das Spiel in 1280x960 mit einer einzelnen GeForce 8800 GTX nicht flüssig spielbar.

Fetza
2007-01-31, 05:55:40
Da geht der VRAM aus, anders ist das nicht zu erklären.

warum vram? seit wann sind 768 mb nicht genug in standard auflösungen?

Super-S
2007-01-31, 05:56:59
Ich denk mal FAKE.... uf der E3, haben sie es doch mit ner X1900XTX ääähm... einigermaßen flüssig darstellen können. So einen Riesenunterschied kann es doch im D3D10-Modus nicht geben... oder?

:cool: Ich halte es für sehr Unglaubwürdig....


Aber wenn es wahr ist... liegt es sicher nicht an den Karten... sondern an den Türken :D .

Zocker_28
2007-01-31, 06:19:05
Was lol nie und nimmer, ich denk Dx10 soll mehr Leistung haben:|
Ich hab das ding auf der GC gezockt mit ner x1900XT drin, und da hat garnix geruckelt also kann ich mir beim besten willen nicht vorstellen das es mit ner GTX ruckelt, aber wie Blare schon sagt, SLI funzt nicht mit dem Treiber.
Und falls es doch so kommen sollten kann mich Crysis und Dx10 mal am A....lecken:mad:

BTW...
Crysis DX 10 Environment Flyover (HD) (http://downloads.guru3d.com/downloadget.php?id=1528&file=4&evp=583e78ec78647ab02eb16b25c1c32843)

Sicher kein DX10, sah genauso aus wie auf der GC mit ner x1900XT.
Und mal ehrlich, so gut sieht das nun wirklich nicht aus, die Bäume sehen da aus wie Pappe, die Menchen die da durchs gebüsch rennen bewegen die Planzen nicht 1mm.
Und das Wasser sieht nun auch nicht so toll aus, aber der Typ am Anfang hrrr.....

dargo
2007-01-31, 06:37:55
Die Benchmarks kommen mir doch bekannt vor. ;D
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345872&page=4

Vergesst es. ;)

Zocker_28
2007-01-31, 06:58:52
Jup denk ich auch, ist voll fürn Arsch.

centurio81
2007-01-31, 12:40:11
Hatte schon schreck bekommen.. ^^
Aber war nicht davon die Rede das auf der CES mit nem 6700er Dual Core und 8800 GTX super flüssiges spielen möglich war.. unter 2560x2046 ;). Das scheint ja soweit zu stimmen, wenn ich dann an meine standard auflösung von 1680x1050 denke.. hehe.. dürfte kein problem geben.. hehe.. auch nich für ne GTS.. ;) Und wenn treiber endlich mal gehen, kann ich die hoffentlich wieder auf GTX clocken.. ;)

Coda
2007-01-31, 12:47:35
warum vram? seit wann sind 768 mb nicht genug in standard auflösungen?

Für Crysis in 2560x1600 offenbar nicht, falls die Ergebnisse stimmen sollten (kann schon sein, weil die D3D10-Treiber für G80 wirklich noch Gülle sind).

ShadowXX
2007-01-31, 13:50:45
Für Crysis in 2560x1600 offenbar nicht, falls die Ergebnisse stimmen sollten (kann schon sein, weil die D3D10-Treiber für G80 wirklich noch Gülle sind).
Der von Chef von Crytek hat schon bestätigt das die Benchmarks ein Fake sind.....

up¦²
2007-01-31, 18:11:38
Der von Chef von Crytek hat schon bestätigt das die Benchmarks ein Fake sind.....

Quelle? oder hörensagen?

tombman
2007-01-31, 20:14:10
Leute, diesen FAKE hatten wir schon in nem anderen thread (link is eh oben).
Da hat nur einer vom anderen abgeschrieben..

Die Werte sind FALSCH!! (und zwar haushoch)

ShadowXX
2007-01-31, 20:36:12
Quelle? oder hörensagen?
Hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5205522&postcount=96

Der größte Unsinn dieses Fakes ist die Erwähnung der PhysX-Karte (+ dieses PhysOn)....Crysis benutzt die AEGIA-Physik-Engine überhaupt nicht (http://www.ageia.com/physx/titles.html).
Sie haben schon öfter erwähnt das Sie eine eigene Physik-Engine benutzen.

Moralelastix
2007-02-01, 13:39:12
http://www.incrysis.com/


EA/Crytek statement on recent benchmark rumors
Wednesday, 31 January 2007

There have been quite a few rumors circulating around the Internet regarding some questionable performance benchmarks. EA/Crytek have made this statement to inCrysis to clarify this.

"We understand there are some rumours in some of the message boards about technology benchmarks as it relates to Crysis and we want to assure you that these are just rumours. We realize that the technical specifications and requirements are a huge topic among our community and when we are prepared to give out our system spec recommendations, you will be the first to find out. Please treat everything you do not hear directly from us as speculation."

--

Das war auch irgendwie klar, schon bei der DX9 Version von der GC 2006 war die Mutliplayer Performance OK!
Wieso sollte jetzt auf einmal, auch noch unter DX10 ,die Performance deutlich schlechter sein?

Schwachsinn!

Matthias1981
2007-02-01, 15:54:11
Also mit 2 6800er kanns schon sein aber net mit 2 8800er^^

Sentionline
2007-10-08, 05:31:17
Ich wecke mal die schlafenden Hunde und frage an: "was ist jetzt?"

Die Beta läuft schon, aber keine Benches weit und breit. Ich jedenfalls sichte keine...:rolleyes:

Spasstiger
2007-10-08, 06:18:36
Die Beta läuft schon, aber keine Benches weit und breit. Ich jedenfalls sichte keine...:rolleyes:
NDA ...
1280x960 high ist mit einer einzelnen GTX aber kein Problem, da hängts da fast nur noch von der CPU ab.

Sentionline
2007-10-08, 06:25:50
NDA ...
1280x960 high ist mit einer einzelnen GTX aber kein Problem, da hängts da fast nur noch von der CPU ab.
Spielst du gerade selber die Beta? Dann ist die GTX ja doch nich so der CrySis burner. Wie siehts bei AA+D3D10 aus? Hätte in dem falle ja nur was mit der Karte zu tun...:biggrin:

*edit* Hab grad erfahren das die Beta nur auf DX9 läuft...hm, ich frag mich warum. :uconf2:

dargo
2007-10-08, 08:56:33
Ich wecke mal die schlafenden Hunde und frage an: "was ist jetzt?"

Nichts. Vor der Demo wirst du nichts erfahren.

Deathcrush
2007-10-08, 13:03:45
Das war auch irgendwie klar, schon bei der DX9 Version von der GC 2006 war die Mutliplayer Performance OK!
Wieso sollte jetzt auf einmal, auch noch unter DX10 ,die Performance deutlich schlechter sein?

Schwachsinn!

Nenn mir doch mal ein Spiel was unter DX10 besser rennt ;) Viele hier überschätzen DX10 + 8800er ganz gewaltig.

feiglinge
2007-10-08, 13:26:54
Nichts. Vor der Demo wirst du nichts erfahren.

NDA...wenn ich sowas höre
Da macht man selbst mal ein paar Benches, startet TOR und postet die hier ins Board und am besten noch überall sonst auch

Dann sollense schön kommen von Crytek und klagen gegen die TOR-IP!!

Crytek: you are owned!!!!

Moralelastix
2007-10-08, 13:45:34
Nenn mir doch mal ein Spiel was unter DX10 besser rennt ;) Viele hier überschätzen DX10 + 8800er ganz gewaltig.

Dazu müsste man doch erst mal Lostplanet(oder ein anderes DX10 Spiel) ohne die zusätzlichen DX10 Effekte im direkten Vergleich zu DX9 antreten lassen!?

Gibts dazu Tests?

Außerdem hat die DX10 Spieleentwicklung ja noch deutlich Potential.
Lass also alle Benchmarks in einem Jahr grad nochmal durchlaufen und geb dann Bescheid. !

Deathcrush
2007-10-08, 14:13:03
Dann ist die 8800er aber schon argh veraltet. Und Lost Planet rennt unter DX9 sehr, SEHR viel besser als unter Vista mit DX10.

Ohne DX10Effekte, aber im DX10 MOdus, ist Lost Planet ca. 5-8% schneller. Mit DX10 Effekte ist es rund 25% langsamer. Ich vermute das Crysis ähnlich abschneiden wird.


EDIT: Hatte es ja mal nachgemessen

Lost Planet 1280x1024 0AA/8AF Alles Highest

Vista + DX10 = snow 33,3 / cave 43,7
Vista DX10 Modus ohne DX10 Effekte = snow 47,3 / cave 55,0
XP = snow 42,0 / cave 56,0

Moralelastix
2007-10-08, 14:35:20
Aber wenn's dann schon im direkten Vergleich genau so schnell is?

Was für ein Risiko geh ich dann mit DX10 ein?

Doch nur die Chance auf "mehr an Effekten"?!

Is doch eh alles Banane.
Wir sind nur die dummen Konsumenten die alles abnicken dürfen! :biggrin:

Deathcrush
2007-10-08, 14:47:32
Was für ein Risiko geh ich dann mit DX10 ein?

Doch nur die Chance auf "mehr an Effekten"?!



Vista + DX10 = snow 33,3 / cave 43,7 mehr effekte = DX10

XP = snow 42,0 / cave 56,0 weniger Effekte = DX9

Früher hatte man ja immer im Kopf Vista = schneller mit gleichen Effekte und gleich schnell mit mehr Effekte. Und Lost Planet macht nicht wirklich viel gebrauch von "DX10 Effekte". Wenn jetzt schon Lost Planet und andere Spiele so stark einknicken, was soll uns dann bei Crysis erwarten? Ich pers. hoffe ja auf 10-15% Mehrleistung unter Vista und OHNE DX10 Effekte. Die kann man sich immer noch mit der neuen Kartengeneration anschaun.

Spasstiger
2007-10-08, 15:15:34
NDA...wenn ich sowas höre
Da macht man selbst mal ein paar Benches, startet TOR und postet die hier ins Board und am besten noch überall sonst auch

Dann sollense schön kommen von Crytek und klagen gegen die TOR-IP!!

Crytek: you are owned!!!!
Der Forenbetreiber ist für die Inhalte verantwortlich und hat solches Material zu löschen.

Moralelastix
2007-10-08, 17:09:15
Jap, warten wir erst mal Crysis ab und beurteilen dann DX10.


Irgend so ein paar dahergelaufenen Consolenentwicklern trau ich nicht über den Rhein.

Deathcrush
2007-10-08, 18:57:52
Company of heroes und World in Conflict sind also Konsolenspiele? Wäre mir neu. Und der DX10 Pfad beider Spiele ist langsamer als der DX9 Pfad.

Sterem
2007-10-08, 19:50:58
Deathscrush ist ebend einer der auch negativ Punkte bei seiner eigenen Hardware sieht.:up:

PCGH_Carsten
2007-10-08, 21:32:18
Nenn mir doch mal ein Spiel was unter DX10 besser rennt ;) Viele hier überschätzen DX10 + 8800er ganz gewaltig.
Nenn du uns dochmal ein Spiel, in welchem sich DX9 und DX10 hinsichtlich der Optik nicht unterscheiden - sonst ist ein Vergleich sinnlos. Für nur wenig mehr an Optik muss man leider proportional immer tiefer in die GFLOP-Tasche greifen.

FSX scheint so ein bißchen (eher prozentual, im einstelligen Fps-Bereich...) vom DX10-Pfad zu profitieren ->http://extreme.pcgameshardware.de/showpost.php?p=16643&postcount=7

Deathcrush
2007-10-08, 21:44:50
BEstes Beispiel Lost Planet

Laut NV und Capcom soll es dank DX10 unter Vista trotz mehr Effekte deutlich schneller laufen, als unter DX9 mit weniger Effekten. PCGH hat sogar davon berichtet und wollte es selbst nachtesten. Darauf warte ich heute noch! Benchmarks hab ich ja schon gepostet.

Hier noch mal

Vista + DX10 = snow 33,3 / cave 43,7
Vista DX10 Modus ohne DX10 Effekte = snow 47,3 / cave 55,0
XP = snow 42,0 / cave 56,0

Bei gleicher Optik ist der DX10 Pfad leicht schneller, aber der verspochene Leistungsvorsprung + mehr Effekte, den suche ich vergeblich.
Und wenn ich mir die Beta von Crysis so anschaue, wo ich schon die Details verringern muss (Schatten/Physik Medium), frage ich mich wie meine Kiste Very High schaffen soll. Laut Crytek soll ja eine 8800GTS reichen für Very High. Dann müsste die Full aber noch mal 50% besser performen.

http://www.pcgameshardware.de/?article_id=610089

Zitat" Laut Benchmarks von Nvidia soll die DX10-Engine nun bis zu 17 Prozent schneller arbeiten als die DX9-Engine, die zudem weniger Effekte bietet.

Ein Update mit unseren eigenen Messungen folgt.

tombman
2007-10-08, 21:53:23
Jap, warten wir erst mal Crysis ab und beurteilen dann DX10.
.
Ganz genau.

Die bisherigen DX10 Versuche waren doch alles nur patches, bzw "Ich versuchs auch mal"-Aktionen der Devs ;)

Crytek wird zeigen müssen was Dx10 kann ;)
(sitzen ja nicht umsonst 2 Leute von Nvidia direkt dort ;D)

Spasstiger
2007-10-08, 22:03:41
Crytek wird zeigen müssen was Dx10 kann ;)
(sitzen ja nicht umsonst 2 Leute von Nvidia direkt dort ;D)
Bei Crysis scheint mir der DX10-Renderer auch nur aus Marketinggründen, vielleicht auf Drängen von EA, entwickelt worden zu sein. Die zusätzlichen Features wie Physik im MP und Parallax-Mapping gehen auch unter DX9, schließlich soll der DX9-Singleplayer ebenfalls zerstörbare Pflanzen etc. bieten und die Beta beherrscht Parallax-Mapping unter DX9.
Auch bessere Texturen sind sicherlich kein Zwangsgrund für eine neue API.
Und das ganze Lighting sowie das Shadowmapping scheint ebenfalls unter DX9 zu funktionieren

Aber natürlich ist es generell besser, auch einen DX10-Renderer zu haben, weil dieser unter Vista potentiell schneller läuft als der DX9-Renderer. Man hat auf jeden Fall die Wahl.

Id Software bietet mit der id tech 5 neben dem obligatorischen OGL-Renderer übrigens auch erstmals einen DX-Renderer, allerdings nur DX9. In einem Interview in der aktuellen PCGH wird von Todd Hollenshead und Matt Hooper auch recht deutlich Stellung zu DX10 bezogen mit versteckten Seitenhieben auf die Konkurrenz. Aber das ist ja jetzt nicht Thema hier.

Sentionline
2007-10-08, 22:25:40
Nenn du uns dochmal ein Spiel, in welchem sich DX9 und DX10 hinsichtlich der Optik nicht unterscheiden
:uconf2:
Gepatchte Titel wie BioShock, CoH oder Call of Juarez gelten hier nicht. Zumal ich nicht glaube das bei den Titeln hierbei die Adaption der D3D10 API zu 100% vollzogen ist und verwertbares & Praxistaugliches D3D10 Material ist. Und ich erwähne an dieser Stelle mal die nach wie vor nicht funktionierende AA und (wenn) den Performanceeinbruch. Mal sehen wie es um die Performance von "echten" D3D10 Titeln steht. Ich hoffe das der Performanceeinbruch nur die ausnahme der "zwangsimplementation" ist und unter Vista@DX10 die Bits besser durch die Karten flutschen.

Für nur wenig mehr an Optik muss man leider proportional immer tiefer in die GFLOP-Tasche greifen.
Also wer ein Rechnerupdate für eine neue Technik (das sich mitunter auf 800€ belaufen kann) für "tragbar" hält, das kaum (-erhoffte) Praxistaugliche (-DX10) Performance liefert, dem ist...:D

Auch wenn die Profis von Nvidia bei CryTec optimieren bis der Arzt kommt, werden die wohl kaum mehr als 20% Performancezuwachs erzielen. Und das macht den Braten nicht fätter wenn sich die leute AA wünschen (-werden)...

Und selbst wenn CrySis gut unter DX10 Performt heißt das noch lange nicht, das sich jetzt jeder Spieleentwickler 2 der "Profis" von Nvidia bestellen, um nur gut in DX10 dar zu stehen. Bisher sehe ich die Sache mit DX10 nach wie vor skeptisch, und ich freue mich auf das gejammer der G80 käufer, die in den Hype gefangen "waren"...

Ich bin mal gespannt ob die R600 mit seinen 320 Streamprozessoren sich besser für die neue API Qualifiziert.

FSX scheint so ein bißchen (eher prozentual, im einstelligen Fps-Bereich...) vom DX10-Pfad zu profitieren ->http://extreme.pcgameshardware.de/showpost.php?p=16643&postcount=7
Also ich sehe in den Screenshots nix das eine G80 rechtfertigt. Was ich erkannt habe ist die höhere Vegetation & die Lampe am Flieger (die Lampe kann man nicht unter DX9 anmachen?:|). An dem anderen Screenshots das Wasser, und die hervorstechende HDR beleuchtung am Flieger. Die Konzeptzeichnungen sehen nett aus, sind aber ein wenig alt. Bis wir solche Bilder aber in annehmbaren fps Zahlen am PC haben, landet die G80 aber längst aufm Trödelmarkt.

tombman
2007-10-08, 22:26:53
:uconf2:
Gepatchte Titel wie BioShock, CoH oder Call of Juarez gelten hier nicht. Zumal ich nicht glaube das bei den Titeln hierbei die Adaption der D3D10 API zu 100% vollzogen ist und verwertbares & Praxistaugliches D3D10 Material ist.


Also wer ein Rechnerupdate für eine neue Technik (das sich mitunter auf 800€ belaufen kann), das kaum Praxistaugliche Performance liefert, dem ist...:D

Auch wenn die Profis von Nvidia bei CryTec optimieren bis der Arzt kommt, werden die wohl kaum mehr als 20% Performancezuwachs erzielen. Und das macht den Braten nicht fetter wenn sich die leute AA wünschen (-werden)...

Ich bin mal gespannt ob die R600 mit seinen 320 Streamprozessoren sich besser für die neue API Qualifiziert.
ALso bis jetzt stinkt der R600 in DX10 mehr ab als in DX9...

Deathcrush
2007-10-08, 22:43:14
Bisher sehe ich die Sache mit DX10 nach wie vor skeptisch, und ich freue mich auf das gejammer der G80 käufer, die in den Hype gefangen "waren"...



Ich habe meine G80 bestimmt nicht wegen DX10 gekauft. Nein, ich bin sogar einer derjenigen der sagt, das die G80 für DX10 zu langsam ist. Aber unter DX9 ist die Karte eine WUCHT. Punkt.

tombman
2007-10-08, 22:52:43
Bisher sehe ich die Sache mit DX10 nach wie vor skeptisch, und ich freue mich auf das gejammer der G80 käufer, die in den Hype gefangen "waren"...

Jo, Don Vito, Blaire, ich und noch ein paar andere heulen eh schon den ganzen Tag, daß wir alle so dumm waren und dem Hype verfallen sind. Unsere G80 Karten sind ja echt der Dreck...:rolleyes:

p.s.: bis jetzt konnten unsere G80 Karten jedes DX10 Spiel mit maximalen Details spielen :cool:

Sentionline
2007-10-08, 22:59:12
Jo, Don Vito, Blaire, ich und noch ein paar andere heulen eh schon den ganzen Tag, daß wir alle so dumm waren und dem Hype verfallen sind. Unsere G80 Karten sind ja echt der Dreck...:rolleyes:
Das ihr alles auf die Goldwaage legen müsst.:| Die DX9 Performance der G80/R600 ist wirklich sehr gut. Aber viele haben sich ja jetzt eine GTS/GTX gekauft nur um für CrySis & andere DX10 Titel gerüstet zu sein. Und eben daraus wird wohl nix werden. Zuminderst nicht unter Vista@D3D10. Und viele der Effekte will CryTec ja auf den DX10 Part verlegen (Soft Particles/Physikspielereien & Co), *ironie*womit wir wieder in der DX9 Steinzeit angekommen sind, um vernünftig zu spielen*/ironie*

p.s.: bis jetzt konnten unsere G80 Karten jedes DX10 Spiel mit maximalen Details spielen :cool:
Die nur aufgebohrte DX9 Versionen sind. Sprich: Eine Schüppe DX10 effekte drauf:biggrin:

*edit*
Gott, ihr benehmt euch wie Kleinkinder, die nicht verstehen, dass D3D10 ein Schmackeln statt das Hauptfeature ist.
Die aber nicht als solches verkauft wird. Ein neues BS + neue Karte für ein "schmankerl"?:| Nach wie vor versprechen die meisten die D3D10 vermarkten (-möchten) aber ganz was anderes...

OT: Es ist nicht meine absicht zu nerven. Ich möchte hier in einem "Diskusionsforum" ganz normal diskutieren. Abgesehen davon reden wir hier ganz normal mit den vorliegenden Fakten. Wenn dies nicht erlaubt ist, kann ich auch meine klappe halten und :uban:

LovesuckZ
2007-10-08, 23:31:08
Leute wie du, gehen einen wirklich auf die Nerven.
Hätten die Leute ihre DX9 Spiele also auf einer 7900GTX bzw. 1950XT spielen sollen? :rolleyes:
Gott, ihr benehmt euch wie Kleinkinder, die nicht verstehen, dass D3D10 ein Schmackeln statt das Hauptfeature ist.

tombman
2007-10-09, 01:11:58
Das ihr alles auf die Goldwaage legen müsst.:| Die DX9 Performance der G80/R600 ist wirklich sehr gut. Aber viele haben sich ja jetzt eine GTS/GTX gekauft nur um für CrySis & andere DX10 Titel gerüstet zu sein. Und eben daraus wird wohl nix werden. Zuminderst nicht unter Vista@D3D10. Und viele der Effekte will CryTec ja auf den DX10 Part verlegen (Soft Particles/Physikspielereien & Co), *ironie*womit wir wieder in der DX9 Steinzeit angekommen sind, um vernünftig zu spielen*/ironie*
Und daraus wird nix werden, weil du bei Crytek arbeitest oder weißt, daß G80 zu schwach für die DX10 Version ist, oder wie? :rolleyes:
Natürlich wird es vernünftig mit allen DX10 Effekten auf G80 laufen, ansonsten hätten sie sich den DX10 Pfad gleich ganz sparen können...

Nur weil Leute wie du sich mit aller verzweifelten Macht wünscht, die G80 Käufer mögen sich zu irgendeinem Zeitpunkt über ihren Kauf ärgern, wird das nicht passieren. Ertrage ihre Freude wie ein Mann, und hoffe nicht auf fremde Verzeiflung, nur damit du dich besser fühlst.

pest
2007-10-09, 08:23:09
Ertrage ihre Freude wie ein Mann, und hoffe nicht auf fremde Verzeiflung, nur damit du dich besser fühlst.

Ich werd das Gefühl nicht los, manche Spielefanatiker sind einfach Autopimper mit weniger Geld ;D

dargo
2007-10-09, 09:02:00
Ich werd das Gefühl nicht los, manche Spielefanatiker sind einfach Autopimper mit weniger Geld ;D
Er hat aber in vielen Punkten recht. Dieses Gelabere vonwegen, die G80 User würden sich verarscht fühlen bei ersten DX10 Games nervt einfach nur noch. Kaum jemand hier in diesem Forum hat sich einen G80 gekauft damit er noch im Jahr 2008/2009 DX10 Games flüssig spielen kann. Ein G80 ist auch eine sehr gute DX9 Graka, die bei mir und vielen anderen bitter nötig war. Oder wie soll man bei max. Details in mindestens 1280x1024 4xAA/16xAF (wobei viele höhere Auflösungen nutzen) ohne einen/zwei G80 heute bzw. schon seit einem Jahr noch alles flüssig spielen können? Es gibt/gab keine andere Alternative.

pest
2007-10-09, 09:17:17
Ich glaube schon das sich ein paar die Dinger gekauft haben um auch in 1-2 Jahren noch flüssig spielen zu können.
Ich bin da glaube ich auch der falsche Ansprechpartner.
Erstens weil ich schon ein paar Jahre auf dem Buckel habe, und zweitens hat mein PC insgesammt soviel gekostet wie eine 8800GTS.
Wir sind zum großen Teil doch auch nur Sklaven einer Industrie, es merken bloß die Wenigsten.
Wer weiß denn wie Crysis architekturbedingt programmiert ist,
vielleicht ist es auch Absicht das ne 8800GTS geradeso ausreicht um die nächste Generation zu pushen. Ich hab Crysis vor 2 Jahren auf der GC gezockt und fand es ganz unterhaltsam, würde aber nie auf die Idee kommen, 600+Euro auszugeben nur damit alles ein bisschen bunter ist. Das Ganze bashOrn in jedwede Richtung ist doch albern und führt zu Nichts.

dargo
2007-10-09, 09:27:29
Wir sind zum großen Teil doch auch nur Sklaven einer Industrie, es merken bloß die Wenigsten.

Oh man, die böse Industrie wieder... :usad:


Wer weiß denn wie Crysis architekturbedingt programmiert ist,
vielleicht ist es auch Absicht das ne 8800GTS geradeso ausreicht um die nächste Generation zu pushen.

Jetzt geht das schon wieder los. :uhammer:
Da du ja auf der GC Crysis zocken durftest ist dir wohl der grafische Unterschied zu anderen Games aufgefallen. Wenn nicht, brauchen wir gar nicht weiter darüber zu diskutieren. Bessere Grafik erfordert eben schnellere Hardware. Wie soll es auch anders sein? :|


Ich hab Crysis vor 2 Jahren auf der GC gezockt und fand es ganz unterhaltsam, würde aber nie auf die Idee kommen, 600+Euro auszugeben nur damit alles ein bisschen bunter ist.
Ja und? Schon mal daran gedacht, dass andere es als Hobby betrachten und nicht auf jeden €uro achten müssen?

pest
2007-10-09, 09:39:59
Oh man, die böse Industrie wieder... :usad:


Das Wort "böse" hast Du reingebracht. Wer "mitspielen" will, muss eben die Konsequenzen tragen, so einfach ist das.



Da du ja auf der GC Crysis zocken durftest ist dir wohl der grafische Unterschied zu anderen Games aufgefallen. Wenn nicht, brauchen wir gar nicht weiter darüber zu diskutieren. Bessere Grafik erfordert eben schnellere Hardware. Wie soll es auch anders sein? :|


Hab ich was dagegen geschrieben? Na ja, vor 2 Jahren sah es noch nicht so geil aus. Andererseits ist eben der Faktor Zeit nicht ganz unwichtig.
Es gibt durchaus PC-Spiele (m.M. zb. Flatout 2) die grafisch gut aussehen
und doch auf einem 2 Jahre alten PC mit 80+ fps laufen.
Ich glaube kaum das Crysis eine Zeile Assembler enthält.


Ja und? Schon mal daran gedacht, dass andere es als Hobby betrachten und nicht auf jeden €uro achten müssen?

Naja, da kam mein Autopimper-Kommentar doch ganz recht.
Computer sind auch mein Hobby, hat aber eher was mit programmieren und co zu tun ;-)
Andererseits, hab ich nach 5Jahren das erste mal aufgerüstet. Klar die Grafik
ist mittlerweile krass im Verhältnis zu CS 1.5, aber die meistens dümmlichen Spielprinzipien sind dieselben geblieben.
Ich kann nicht so recht verstehen, wie man daran sein Ego so polieren kann. Muss ich auch nicht.

dargo
2007-10-09, 09:44:26
Es gibt durchaus PC-Spiele (m.M. zb. Flatout 2) die grafisch gut aussehen
und doch auf einem 2 Jahre alten PC mit 80+ fps laufen.
Ich glaube kaum das Crysis eine Zeile Assembler enthält.

Jo, jetzt wird schon Flatout 2 mit Crysis verglichen. :| Ich bin raus...

pest
2007-10-09, 09:57:45
Ich habe Crysis nicht mit Flatout 2 verglichen. Ich habe nur geschrieben das es auf 2 Jahren alten PCs sehr ordentlich performt. Aber wenn einem die Argumente ausgehen...:wink:

Tzunamik
2007-10-09, 10:11:24
Naja, Flatout sieht aber nicht auch nur ansatzweise so aus wie Crysis, das ist dir hoffentlich klar.

Und ich verlange das meine Hardware ausgereizt wird, wofür kauf ich sie mir den sonst?

Das 3 von 4 Cores sich langweilen und nur 60 von 320 Streamprozessoren nix zu tun haben is mir das alles net wert.

4Gb ram sollten auch gefüllt werden.

Klar, wenn mir mein Ram ausgeht und meine 4 Cores nicht mehr reichen, reg ich mich auf. Aber wenn mir dafür ein stück leistung geboten wird, die mir gefällt, ist die mir das mehr als wert.
Also... alle mal auf Crysis achten ;-) und wenns da is, geniessen :P

Sentionline
2007-10-09, 10:51:43
Bessere Grafik erfordert eben schnellere Hardware. Wie soll es auch anders sein? :|
Ließt ihr alle nur PCGH oder was?

[Nicht nur die Grafikkarte wird ausgetauscht, sondern auch ein neues Betriebssystem "erzwungen", die alles verschlimmbessert in vergleich zu seinem vorgänger, ganz davon ab das sich nicht jeder damit anfreunden kann und man keine andere wahl hat. Das ist aber jetzt OT.]

Besser Programmieren? Dann nenn ich mal als "gute" DX9 Spiele BioShock, Clive Barker Jericho, Oblivion und demnächst UT 3. Wie kommen denn Konsolen jahrelang mit der gleichen Hardware aus, wo die Grafik & effekte aufgebohrt werden ohne neue Hardware?

Und wie man es nicht machen sollte zeigen: Gothic 3 & Colin Dirt...

Mir isses schnutz piep egal wer sein Ego mit was poliert, aber man muss sich in einem Diskusionsforum auch als kritikfähig erweisen, und nicht nur sich durch seinen Rechner profilieren versuchen. Nich jeder hat ein überquillendes Konto. Und ich glaube nicht das jeder ab 18 [die potenziell als DX10 interessenten gelten und sich für CrySis interessieren] sich "mal eben" alle 2 Jahre eine GTX in die Kiste schraubt. Und wenn, sollte bei diesen immer der Preis/Leistungsfaktor stimmen. Und wir reden hier über ein Spiel, das glaube ich auch die Mid-Range leute:| interessiert, die eine 8600GT/S im Rechner haben und hoffen ein Stück vom Kuchen ab zu bekommen. Mal nebenbei angemerkt habe ich alle Effekte der ich bei DX10 Demos begegnet bin, und versuchen mir einzureden das ich unbedingt DX10 brauche, auch auf DX9 schonmal gesehen. Komisch komisch. Das Prinzip bei der aktuellen vermarktung ist, die DX9 Parts der Spiele zu beschneiden, und sie bei DX10 zu implementieren, nichts anderes ist "DX10 unterstützung per Patch" bei aktuellen Games. Wer ganz genau hinschaut erkennt sogar Parallelen. BioShock basiert auf UE3 (das offiziel Shader 2 zulässt), unterstützt aber kein Shader 2 Part bei BioShock, offiziell. Nur wie ist es dann möglich das UT3 Shader 2 unterstützt?:| Das möchte ich mal plausbibel erklärt haben.

D3D10 Part sollte meines erachtens eben nicht nur für leute sein, die meinen in der Chefetage zu sitzen...

Aber ihr habt recht; Bellende Hunde beißen nicht. Deswegen warten wir mal erste "offiziele" Benches ab.

*edit*
Ein G80 ist auch eine sehr gute DX9 Graka, die bei mir und vielen anderen bitter nötig war...Es gibt/gab keine andere Alternative.
Jetzt überleg mal ganz genau, was ich hier geschrieben habe, und warum man eine G80 für DX9 brauchen sollte:rolleyes:

Matrix316
2007-10-09, 11:45:11
[...]Mal nebenbei angemerkt habe ich alle Effekte der ich bei DX10 Demos begegnet bin, und versuchen mir eizureden das ich unbedingt DX10 brauche, auch auf DX9 schonmal gesehen. Komisch komisch. Das Prinzip bei der aktuellen vermarktung ist, die DX9 Parts der Spiele zu beschneiden, und sie bei DX10 zu implementieren, nichts anderes ist "DX10 unterstützung per Patch" bei aktuellen Games. [...]

Der Witz bei der Sache ist, dass, so wie ich das verstanden habe, Direct X 10 garkeine neuen Effekte bringt, sondern die gleichen wie DX 9 hat. Allerdings sollen mehr möglich sein, bei besserer Performance.

RoNsOn Xs
2007-10-09, 11:59:11
doch bringt neuere effekte

incM
2007-10-09, 12:19:04
Ließt ihr alle nur PCGH oder was?


nein aber ich kann deutsch.


Besser Programmieren? Dann nenn ich mal als "gute" DX9 Spiele BioShock, Clive Barker Jericho, Oblivion und demnächst UT 3.

oh gott das maerchen vom guten und schlechten code...
ich rate dir dringend dich mit dem grundgeruest von games erstmal vertraut zu machen ehe du den mund aufmachst und trollst.
es ist kein wunder das die meisten games keine echtzeitschatten haben sondern alles nur "baked",dh. vorberechnet ist und weshalb einige davon in schlaeuchen und lustigen kleinen raeumen spielen.
das sind dann auch gruende fuer hoehere frameszahlen.

Und wir reden hier über ein Spiel, das glaube ich auch die Mid-Range leute:| interessiert, die eine 8600GT/S im Rechner haben und hoffen ein Stück vom Kuchen ab zu bekommen.

ahem ich will dir ungern zunahe treten aber ich verstehe dein geheule nicht.
das game ist selbst auf uralter hardware spielbar. man muss halt mit midspec hardware einfach .... wer haette es gedacht .... auf midspec umschalten.

das ein trabant keine 300 faehrt ist kein grund alle porsche zu verbieten.
auf der selben autobahn duerfen doch beide fahren.

also wo ist dein problem?
neid?

Matrix316
2007-10-09, 12:19:44
Zumindest irgendwo stand das mal so. In der PCGH oder Gamestar. :redface::rolleyes:

dargo
2007-10-09, 12:53:29
Ließt ihr alle nur PCGH oder was?

Nein, ich habe Augen im Kopf.


Wie kommen denn Konsolen jahrelang mit der gleichen Hardware aus, wo die Grafik & effekte aufgebohrt werden ohne neue Hardware?

Sie sind auf lächerliche BQ von 1280x720 max. 2xAA/4xAF (wenn überhaupt) und 30fps begrenzt. Von miesen Texturen will ich erst gar nicht sprechen.

Um nochmal auf dein Konsolenthema zu kommen - nimm als Beispiel MoH:Airborne. Auf der XBox360 läuft das Game in 1280x720 mit 1xAA/1xAF (oder 2xAA, bin mir nicht sicher) mit 30fps. Bei mir rennt das Teil auf dem PC in 1280x1024 4xAA/16xAF mit 60-85fps, ganz selten mal ~50fps. Ohne AA sinds ~80-110fps. Wo ist also deiner Meinung nach die Konsolenhardware besser ausgenutzt? Ich sehe hier an der Hardware der Xbox und dem PC genau die Steigerung der Frames die durch die Hardware in meinem PC auch zu erwarten war.

Bei Bioshock ist es ähnlich, wobei die Frames etwas tiefer als bei MoH:A sind. Dafür kann die XBox360 bei Bioshock nicht in jeder Situation die 30fps halten.


Nich jeder hat ein überquillendes Konto.

Dann muss derjenige auf BQ verzichten, so einfach ist das. Das ist übrigens das dümmste Argument was ich je gehört habe. Ich kann mir auch keinen Ferrari leisten. Na und? Deswegen heule ich nicht rum. Wie alt bist du eigendlich. Gerade über 18 und eventuell am studieren? Dann wundern mich deine Argumente überhaupt nicht. Arbeite erstmal paar Jährchen und verdiene dein Geld dann können wir weiter darüber reden.


Jetzt überleg mal ganz genau, was ich hier geschrieben habe, und warum man eine G80 für DX9 brauchen sollte:rolleyes:
Was gibts denn da zu überlegen? Wer hohe BQ will (dabei spielt es keine Rolle ob es DX9 ist oder ob das Game paar DX10 Spielereien bietet) kommt um einen G80 oder auch R600 (mit "Einschränkungen") nicht herum, Punkt.

also wo ist dein problem?
neid?
Es hat einfach keinen Sinn darüber mit manchen zu diskutieren. Und ja, es scheint purer Neid zu sein.

Sentionline
2007-10-09, 13:36:47
Naja, wir kommen jetzt aber sehr vom Thema weg. Ich hoffe das mir die Mods vergeben.

Der Grund das ich mich so in das Thema hineinsteiger ist, das BioShock nicht auf meiner Hardware [C2D E6300, X850XT-PE] nicht laufen wollte [leider nur mit Mods]. Ich vermute das BioShock eine Portierung ist, wie sonst ist die "verzögerte" Steuerung und die XBox einträge in den Configs zu erklären? Von wegen 2 Entwicklerstudios. Aber UT3 hat das gleiche Gerüst, soll aber auf Shader 2 laufen. Das spiel interessiert mich aber nicht.:D

Sie sind auf lächerliche BQ von 1280x720 max. 2xAA/4xAF (wenn überhaupt) und 30fps begrenzt. Von miesen Texturen will ich erst gar nicht sprechen.
Beim PC DX9 vernünftig auszulasten fordert die Entwickler offensichtlich zu sehr, weshalb bei einem schlecht gecodetem Spiel offensichtlich höhere performance nur durch schnellere Hardware wohl zu machen ist. DX10 soll ja alles vereinfachen. Wobei ich das Marketing unfair finde, denn wir Kunden müssen das ausbaden, was die Programmierer nicht hinkriegen [wozu Arbeiten?]. Und Konsolenportierungen sehen nicht immer gut aus wenn du ehrlich zugibst. Von der aktuellen Shader 3 Pflicht bei diesen mal ganz abzusehen. Dazu sind PC`s aber nicht da, eine Konsole zu simulieren. Umgekehrt sollte es laufen. Das zuminderst meine ich.

Dann muss derjenige auf BQ verzichten, so einfach ist das. Das ist übrigens das dümmste Argument was ich je gehört habe. Ich kann mir auch keinen Ferrari leisten. Na und? Deswegen heule ich nicht rum.
Dir ist aber schon klar das wir hier über Spiele reden, die nicht nur von über ~30 Jährigen gespielt werden soll(t)en bzw. die einen festen Job haben, um die Marktwirtschaft anzukurbeln?

Wie alt bist du eigendlich. Gerade über 18 und eventuell am studieren? Dann wundern mich deine Argumente überhaupt nicht. Arbeite erstmal paar Jährchen und verdiene dein Geld dann können wir weiter darüber reden.
Ich bin Schweißer und 26. Dein argument wundert mich aber umso mehr. Wenn ich hart für mein Geld arbeite, möchte ich auch die Leistung dafür erwarten [sprich, die Programmierer die sich damit auskennen alles aus der Hardware rausholen]. Ist eigendlich egal was ich für ein Rechner habe, denn ich kenne viele die sich vom Rechner abwenden wenn ich denen von einer Grafikkarte ~200€ erzähle. Und die sind nicht weniger spielebegeistert. Wenn ich Arbeite und mein Job gut mache bekomme ich dafür Geld, aber ich bin nicht bereit die "faulen" Entwickler zu bezahlen.

Es hat einfach keinen Sinn darüber mit manchen zu diskutieren. Und ja, es scheint purer Neid zu sein.
Hab ich nicht nötig. Ich versuche für die allgemeinheit zu sprechen, die sich im übrigen nicht alle auf 3DCenter treiben. Aber hier (http://www.steampowered.com/status/survey.html) treffen sich "standard" Spieler oft.

*edit*
Hast du überhaupt Ahnung vom Programmieren oder wie kommst du zu der Annahme, dass die Entwickler "faul" wären?
Wie schon geschrieben kann ich mir nicht erklären warum BioShock auf meiner Hardware nicht läuft, obwohl ich [eigendlich] die Technischen anforderungen erfülle. Also kann es ja nur von der faulheit des Entwicklers kommen. Und man muss kein "Spieleprogramierer" sein um zu erkennen, das hier und da geschlampt wird.

Ich wollte mir letzten Monat eine GTS zulegen um für ~2 Jahre gerüstet zu sein, ohne auch vor Titeln wie CrySis in D3D10 angst haben zu müssen. Sollte es aber wirklich so sein das CrySis oder andere DX10 Titel so stark einbrechen, dann kann man denke ich sagen das in der Entwicklung irgendwas faul ist, und ich nicht alle 2 Jahre sondern jedes jahr eine neue Grafikkarte kaufen muss, um meine gewünschte 40 fps [in TFT Auflösung mit AA] zu erreichen. Eine ganz miese abzocke in der Entwicklung der Spiele fand ich [wie bereits oben erwähnt] Gothic 3, Colin Dirt & BioShock. Ist ja nach wie vor unfassbar, wie schlecht diese gecodet sind bzw. einfach portiert. Und dann werden diese auch noch von der Presse hochgelobt. Aber nicht von mir.

Nochmal - vergleiche die Hardware der Xbox360 und dann mein System (Sig.) und übertrage das auf die beiden "Portierungen" Bioshock und MoH:A. Ich sehe gar keinen Grund zum meckern wegen schlechter Performance. Im Gegenteil, der PC leistet genau das mehr was in der Hardware steckt.
Da hast du recht. Aber ich meine das eher vom PC auf die Konsole portiert werden sollte, zuminderst in Europa. Die ganzen hintergründe warum portiert wird ist mir schon klar. Aber es sollte nicht immer 08/15 ausfallen. Denn schließlich ist ein PC nicht dazu da, ein Emulator für Konsolen darzustellen. Ein PC glänzt nach wie vor mit hervorragender flexibilität, was aber bei einer Portierung stark auf der Strecke bleibt bzw. sich immer mit den modernsten Futures einer Konsole messen muss. *ironie*Deinen Rechner würd ich auf 750€ schätzen, ein High End Emulator für die XBox-360*/ironie*

Das liegt leider an den Entwicklern. Die UE3 ist zu SM2.0 abwärtskompatibel.
Aber leider nicht bei BioShock [warum auch immer]. Deswegen weiss ich ja auch warum es eine portierung ist und zwingend Shader 3 voraussetzt. Und für die Schlamperei wollen die von mir auch noch geld haben...

Ich weiss, ja dann sollte ich es eben nicht kaufen.:rolleyes: Was ich auch nicht getan hab. Später villeicht:D

Ich bin echt gespannt auf die Benches von CryTec. Kann ja sein das ich mich zu weit aus dem Fenster lehne. Eins sei jedoch gesagt, die Revolution wird Dx10 nicht werden, die erhofft wird. Und DX10 wird nicht automatisch "bessere" Spiele zum Tageslicht bringen, die aber von fast allen mit einer G80 erwartet wird.

Späterstens bei G90 muss ich aber umsteigen, meine Möhre macht nicht mehr lang mit:smile:

So, ich halte jetzt mal meine Klappe ein wenig, mal schauen was die anderen meinen...

dargo
2007-10-09, 13:51:46
Wenn ich hart für mein Geld arbeite, möchte ich auch die Leistung dafür erwarten [sprich, die Programmierer die sich damit auskennen alles aus der Hardware rausholen].


Wenn ich Arbeite und mein Job gut mache bekomme ich dafür Geld, aber ich bin nicht bereit die "faulen" Entwickler zu bezahlen.

Hast du überhaupt Ahnung vom Programmieren oder wie kommst du zu der Annahme, dass die Entwickler "faul" wären?

Nochmal - vergleiche die Hardware der Xbox360 und dann mein System (Sig.) und übertrage das auf die beiden "Portierungen" Bioshock und MoH:A. Ich sehe gar keinen Grund zum meckern wegen schlechter Performance. Im Gegenteil, der PC leistet genau das mehr was in der Hardware steckt.

Ich versuche für die allgemeinheit zu sprechen, die sich im übrigen nicht alle auf 3DCenter treiben. Aber hier (http://www.steampowered.com/status/survey.html) treffen sich "standard" Spieler oft.
Die Allgemeinheit sind mit Sicherheit keine Steam-User. Und selbst bei den Steam-Usern ist eine G8800 an vierter Stelle! So schwach können also die Rechner der "Allgemeinheit" gar nicht sein.

Der Grund das ich mich so in das Thema hineinsteiger ist, das BioShock nicht auf meiner Hardware [C2D E6300, X850XT-PE] nicht laufen wollte [leider nur mit Mods].
Das liegt leider an den Entwicklern. Die UE3 ist zu SM2.0 abwärtskompatibel.

Sternenkind
2007-10-09, 14:01:52
Stimme pest weitestgehend zu. Wie manche hier ihre teure Hardware verteidigen nach dem Motto "Tolle Grafik verlangt halt nach teurer Hardware" erinnert wirklich stark an Autopimper, nur mit weniger Geld. ;)

Schon erstaunlich wie bereitwillig manche hier hunderte Euros Nvidia/AMD in den Hals werfen nur um den neusten Sch**ß vermeintlich flüssig spielen zu können ohne dabei einen Gedanken daran zu verschwenden, dass der Softwarehersteller einfach seine Hausaufgaben nicht gemacht hat bzw. (aus welchen Gründen auch immer) nicht machen will.

Sorry für OT.

dargo
2007-10-09, 14:08:38
Schon erstaunlich wie bereitwillig manche hier hunderte Euros Nvidia/AMD in den Hals werfen nur um den neusten Sch**ß vermeintlich flüssig spielen zu können ohne dabei einen Gedanken daran zu verschwenden, dass der Softwarehersteller einfach seine Hausaufgaben nicht gemacht hat bzw. (aus welchen Gründen auch immer) nicht machen will.

Oh, der nächste Programmierkünstler hier. :ugly:
Es wäre wirklich besser diesen Thread zu schließen. Es wird eh nur noch getrollt.

Don Vito
2007-10-09, 14:27:03
Probleme habt ihr....
Es wird doch keiner gezwungen dich das Spiel zu kaufen...
Ausserdem bleibt doch jedem frei ob DX9 oder DX10...


Ja und die 88gtx läuft gut in DX10...
Was allerdings nicht der Kaufgrund war, sondern einfach mein privates Verlangen nach mehr Power....
Ich dachte selbst nicht daß die Karte mit DX10 so gut klar kommt....

Jo und wie Tomb es schon sagte heulen wir G80 Nutzer den ganzen Tag rum....
Ich werd wohl wieder mein Quad-SLI einbauen...da dies bedeutend besser lief:crazy2:

Sternenkind
2007-10-09, 14:28:01
Wieso getrolle? Nur weil man anderer Meinung als die "Pimper"-Fraktion ist? Nehm doch mal Stalker her, wie viel sich da in Sachen Performance nur durch Patches und Treiber-Updates getan hat seit dem Release. Nun sage mir mal wie das zustande gekommen ist? Durch Zauberei oder durch nachbessern? Wäre doch schon beim Release möglich gewesen, nicht?

dargo
2007-10-09, 14:40:03
Nehm doch mal Stalker her, wie viel sich da in Sachen Performance nur durch Patches und Treiber-Updates getan hat seit dem Release. Nun sage mir mal wie das zustande gekommen ist? Durch Zauberei oder durch nachbessern?

Der große Performanceschub (habe bis zu ~300% Plus gemessen) bei Stalker kam durch einen neuen Forcewaretreiber beim G80 zustande. Da hat NV wohl einige (große) Treiberblasen beseitigt.


Wäre doch schon beim Release möglich gewesen, nicht?
Nein, denn um Treiberblasen zu erkennen brauche ich erstmal die Software.

Sternenkind
2007-10-09, 14:48:56
:rolleyes: man kann sich auch jede Sache so zurecht drehen wie man es gern braucht. Stalker war nur ein Beispiel wie sich die Performance durch Patches und Treiberupdates verbessern lassen. Andere Spiele gibt es da sicher zu hauf. Allerdings würde ich doch stark bezweifeln, dass Nvidia/Amd keine Vorabversionen von Spielen bekommen. ;) Nunja, wayne.

Colin MacLaren
2007-10-09, 14:50:52
Die Allgemeinheit sind mit Sicherheit keine Steam-User. Und selbst bei den Steam-Usern ist eine G8800 an vierter Stelle! So schwach können also die Rechner der "Allgemeinheit" gar nicht sein.


Ich denke schon, dass die Steam Hardware Survey recht aussagekräftig ist wenn ich mich so umschau, was in meinem Umfeld für Rechner zur Verfügung stehen und welche Spiele darauf gespielt werden.

Meist ein Athlon XP mit Geforce 4, Radeon 9600 bis max. 9800 und 1GB RAM, oder ein etwas neueres Notebook mit Centrino Solo oder seltener Duo zwischen 1.6 bis 2.0 GHz und Radeon Mobility 9700 bis x700 oder gar einer Onboard-Möhre die sich den System-RAM teilt. Das ist im Groben der Bereich in dem sich die 16 Rechner der Leute auf den zwei Privatlans tummeln, an denen ich die letzten zwei Monate teilnahm. Und alle sind deutlich über 20 und zocken gern. Doch dann eben nur Age 2, Quake 3, Wolfenstein: ET, CS 1.6, BF1942, Flatout 1, Neverwinter Nights 1, Jedi Academy.

Mal etwas Neues zu versuchen konnte man vergessen. C&C3, World in Conflict, Titan Quest, BF2142, NWN2, Quake Wars? Alles Fehlanzeige. Lief fast immer äußerst grottig oder gar nicht. Kein Wunder, dass sich dann niemand mehr PC-Spiele kauft.

Wo die Performance hingeht ist mir ein Rätsel. Man schau sich mal Half-Life 2 an. Die Grafik ist völlig ausreichend und es performt 1a selbst auf Laptops mit Onboard-Grafik. Die Engines können von mir aus ja auf Highend-Hardware sonst wie toll aussehen, aber sie skalieren viel zu schlecht nach unten. Denn die Regel sind nun mal alte AGP-Systeme, die durch die Einführung von PCI-Express in eine Aufrüstfalle geraten waren und vom DAU bei ebay zu Wucherpreisen mit DDR1-RAM und den letzten Athlon-XPs aufgerüstet werden, oder eben Notebooks. Kaum einer bastelt sich noch einen richtigen Gamer-PC zusammen und rüstet den regelmäßig auf, schon gar nicht in den USA oder Japan. Und auch hierzulande sieht es langsam nicht mehr viel anders aus. Egal ob engerer oder weiterer Freundeskreis, ob Family oder Steam Hardware Survey, bei der installierten Basis liegt fast alles in dem oben umrissenen Bereich. Da ist der Markt!

Dann wundert es auch nicht, dass sich die Wii so gut verkauft oder ein WoW so gut läuft. Umsteiger vom PC bekommen dort genau die gleiche Grafik, die sie von ihren Athlon XPs bisher gewohnt waren und stören sich daher nicht daran. Und ich hab es auch langsam satt. Im Frühjahr noch ordentlich Geld in die Kiste gepumpt. Und was bekomme ich dafür? 12 fps in World in Conflict ohne AA. Da spiel ich lieber XBox.

Stormscud
2007-10-09, 15:19:02
Da kann ich dir nur zustimmen!
Bei meiner letzten 16 Mann Lan war mein Rechner auch der absolut Schnellste. Es gab dann noch 3 Rechner mit A64 á 2,2GHz und mit 7800GT / 7900GT ausgestattet.
Alle anderen Rechner waren teils deutlich schlechter ausgestattet. Auf einem lief sogar Flatout 2 nicht ganz flüssig. Und der hatte keine Qualitätssettings drin (AA + AF).
Ganz ehrlich: Nicht viele haben solche Mörder-High-End Rechner (auch wenn der G80 im Steam Survey einen beachtlichen Prozentsatz erreicht).
Und die Meisten haben auch nicht das Geld dafür bzw. wollen nicht so viel ausgeben. Ich habe damals für meine Grafikkarte ca. 450€ bezahlt inkl. dem Zalman. Sowas mache ich nie wieder :rolleyes:
Die Preis/Leistung ist im Vergleich zu Mittelklassekarten einfach zu schlecht.
Mehr als 250€ werden es das nächste Mal nicht.

Viele wollen auch einfach nur spielen und nicht jedes Quäntchen Bildqualität rausholen. So schön sie sein mag, aber wenn ich dran denke wie egal das vielen Leuten ist... nenene
Läuft so wie es eingestellt ist. Super dann wird nix geändert. Und wenn es ruckelt, dann ruckelts eben. Liegt aber auch daran, dass den Meisten einfach schier das Wissen fehlt sich in den Grafikoptionen zurecht zu finden. Oder dann kommt die Antwort: "Ach da kann man was ändern am Ruckeln?" So nach der Art "ich dachte das muss so sein" ;D (Achtung! leicht übertrieben)

Und mein Rechner für 1200DM damals (Athlon 900, Gf2 Pro) hat die wiederum damals aktuellsten Spiele genau so gut flüssig dargestellt wie mein Heutiger, in dem aber einige Hunder Mark mehr drin stecken (ich weiß wir haben Euro ;) aber zum Vergleich ist es so besser). In der selben Auflösung (1280*960 /1024, ohne AA und AF).


Naja, aber jeder muss selbst entscheiden, wie viel Geld er für einen PC ausgeben will.

Deathcrush
2007-10-09, 15:59:14
Nein, denn um Treiberblasen zu erkennen brauche ich erstmal die Software.

Dafür hat ja NV 2 Mitarbeiter vorort ;) oder glaubst du wirklich an ein 2es Stalker mit dem Treiber :D. Ich gehe jede Wette ein, das sich die Perfomance zur Beta-->Final nicht um 50% steigern wird.

dargo
2007-10-09, 17:06:46
:rolleyes: man kann sich auch jede Sache so zurecht drehen wie man es gern braucht.

Ich würde mal in Zukunft empfehlen sich mit den Sachen zu beschäftigen von denen man spricht und keine Vermutungen aufstellen.


Stalker war nur ein Beispiel wie sich die Performance durch Patches und Treiberupdates verbessern lassen.

Die Patches haben kaum was zur Perfomanceverbesserung beigetragen. Afaik waren das max. 30%, wenn überhaupt. Der größte Schub kam mit dem FW158.27 für WinXP, wenn mich nicht alles täuscht.


Andere Spiele gibt es da sicher zu hauf.
Welche? Ich kenne kein anderes Spiel, dass durch einen neuen Treiber so zugelegt hat wie Stalker.

Ich denke schon, dass die Steam Hardware Survey recht aussagekräftig ist wenn ich mich so umschau, was in meinem Umfeld für Rechner zur Verfügung stehen und welche Spiele darauf gespielt werden.

Meist ein Athlon XP mit Geforce 4, Radeon 9600 bis max. 9800 und 1GB RAM, oder ein etwas neueres Notebook mit Centrino Solo oder seltener Duo zwischen 1.6 bis 2.0 GHz und Radeon Mobility 9700 bis x700 oder gar einer Onboard-Möhre die sich den System-RAM teilt.

Drei bekannte von mir:

1. A64 3200+ mit X800XL (mehr geht momentan nicht da Haus gekauft)
2. A64 3200+ mit X1800XT (wartet bis Ende 2007 auf den G92 und wird vorraussichtlich einen E6750 als Basis bekommen)
3. E6420@3,2Ghz mit G8800GTS 640

Und nun?

Ist das jetzt repräsentativ? Sicherlich nicht. Ich frage mich nur wer die ganzen G80 seit November 2006 gekauft hat. :rolleyes:


Wo die Performance hingeht ist mir ein Rätsel. Man schau sich mal Half-Life 2 an. Die Grafik ist völlig ausreichend und es performt 1a selbst auf Laptops mit Onboard-Grafik.

Ausreichend für wen? Für dich vielleicht. Für mich sicherlich nicht. Und wenn ich mir so anschaue was 2007/2008 so kommt dann ist die Source Engine eher ein Witz dagegen. Ziemlich veraltet.


Dann wundert es auch nicht, dass sich die Wii so gut verkauft oder ein WoW so gut läuft. Umsteiger vom PC bekommen dort genau die gleiche Grafik, die sie von ihren Athlon XPs bisher gewohnt waren und stören sich daher nicht daran. Und ich hab es auch langsam satt. Im Frühjahr noch ordentlich Geld in die Kiste gepumpt. Und was bekomme ich dafür? 12 fps in World in Conflict ohne AA. Da spiel ich lieber XBox.
Mach das bitte. Dann gibts einen der rumheult weniger.

Dafür hat ja NV 2 Mitarbeiter vorort ;) oder glaubst du wirklich an ein 2es Stalker mit dem Treiber :D. Ich gehe jede Wette ein, das sich die Perfomance zur Beta-->Final nicht um 50% steigern wird.
Ich erwarte sicherlich nicht sowas wie bei Stalker, aber auf jedem Fall bessere Performance wie in der MP Beta.

Sentionline
2007-10-09, 17:38:27
Nein, ich habe Augen im Kopf.
Du beschwerst dich das andere hier rumtrollen, aber selber bist du kein Stück besser. Kannst du dir deine Postings nochmal ganz genau durchlesen und es dir mal durch den Kopf gehen lassen?

Viele schreiben hier Fakten rein, kommen mit statistiken und persönlichen erfahrungen und selbsteinschätzungen. Und du säbelst drüber, als würdest du alle anderen hier nicht ernst nehmen wollen.

Hast du überhaupt Ahnung vom Programmieren oder wie kommst du zu der Annahme, dass die Entwickler "faul" wären?
Bist wohl der selbsternannte "bessere" Programmierer hier. Mir scheint, das du eher der bist, der trollt. Zeig mal was du so im Ärmel hast.

Ich würde mal in Zukunft empfehlen sich mit den Sachen zu beschäftigen von denen man spricht und keine Vermutungen aufstellen.
Von dir kommt nähmlich auch nicht mehr als nur heiße Luft.

Fang erstmal an die Postings der anderen auch mal ernst zu nehmen, dann kann man sich villeicht konstruktiv in der Mitte treffen. Denn nicht alles was hier niedergeschrieben ist, ist Müll, wie du auch selber zugeben musst. Und alle anderen als trottel zu betiteln ist auch nicht besonnders nett. Auch in einem Forum sollte man einem gegenüber respekt erweisen. Und das tust du nicht.

Bisher lese ich hier nur ständig - bäh, die Spieleentwickler können eh nicht vernünftig programmieren und stecken bestimmt unter einer Decke mit den IHVs damit man sich möglichst bald wieder neue Hardware kaufen muss.
Ich denke, ich habe genug dazu geschrieben. Es bedarf nicht mehr Worte. Lies den Thread am besten komplett nochmal durch.

dargo
2007-10-09, 17:41:34
Bist wohl der selbsternannte "bessere" Programmierer hier.

Wo habe ich das behauptet? Also doch nur Rumgetrolle was die Programmierkunst der Spieleentwickler angeht. Dachte ich mir schon.

Viele schreiben hier Fakten rein, kommen mit statistiken und persönlichen erfahrungen und selbsteinschätzungen.
Was für Fakten? Bisher lese ich hier nur ständig - bäh, die Spieleentwickler können eh nicht vernünftig programmieren und stecken bestimmt unter einer Decke mit den IHVs damit man sich möglichst bald wieder neue Hardware kaufen muss. Ich würde euch empfehlen mit dem Gaming entweder komplett aufzuhören wenn man es sich nicht leisten kann oder auf die Konsolen umzuschwenken wenn ihr meint es wäre günstiger und euch alles von Microsoft und Co vorschreiben lassen wollt. Mein Gott, das ist ja hier nicht mehr auszuhalten!

pest
2007-10-09, 20:00:34
Die Sache ist die, du ließt nicht selten das was du lesen willst, zumindest
in den letzten Postings. Was ist so schwer daran die Sache ein wenig differenzierter zu betrachten.
Also
kurze Entwicklungszeit (Druck vom Publisher)->weniger Optimierungszeit
einhergenend mit den (Grafik)Ansprüchen der Käufer->Hardwareanforderungen

andere haben schon Recht das manche Engines mies skalieren.
Was nützt ein neues Spiel, wenn es auf mid schlechter aussieht wie Quake3,
womit wir wieder beim Anfang wären. Alles mit fetter Hardware wettzumachen ist zumindest mir zu trivial und absolut.
Es wäre nicht das Erste mal das z.b. neue Prozessoren mit tollen Features beworben werden, die die Entwickler eh erst 5 Jahre später implementieren.
Das hat nichts mit der Dummheit von Programmierern zu tun, sondern einzig und allein mit einer Kosten/Nutzen Rechnung.

dargo
2007-10-09, 20:04:00
andere haben schon Recht das manche Engines mies skalieren.

Crysis ist alles andere, aber keine Engine die schlecht skaliert.


Was nützt ein neues Spiel, wenn es auf mid schlechter aussieht wie Quake3,
womit wir wieder beim Anfang wären.
Was sieht schlechter auf Medium aus als Quake3? Crysis? :|

Sentionline
2007-10-09, 22:58:18
Crysis ist alles andere, aber keine Engine die schlecht skaliert.
Das wissen wir alle noch nicht so genau.


Was sieht schlechter auf Medium aus als Quake3? Crysis? :|
Ich denke das mit dem Quake 3 solltest du Symbolisch nehmen. Damit meint er sicherlich das man als Programierer mit etwas sorgfalt und fleiß mehr aus jeder Engine & Hardware rausholen kann. *ironie*Wie sonst ist zu erklären das wir erst jetzt BioShock grafik auf DX9 sehen, und nicht von anfang an von DX9*/ironie*

Bleib ma cool, wirkst so angespannt:wink:

Minimum System Requirements
OS – Windows XP or Windows Vista
Processor – 2.8 GHz or faster (XP) or 3.2 GHz or faster* (Vista)
Memory – 1.0 GB RAM (XP) or 1.5 GB RAM (Vista)
Video Card –256 MB**
Hard Drive – 12GB
Sound Card – DirectX 9.0c compatible

* Supported Processors: Intel Pentium 4 2.8 GHz (3.2 GHz for Vista) or faster, Intel Core 2.0 GHz (2.2 GHz for Vista) or faster, AMD Athlon 2800+ (3200+ for Vista) or faster.
** Supported chipsets: NVIDIA GeForce 6800 GT or greater; ATI Radeon 9800 Pro (Radeon X800 Pro for Vista) or greater. Laptop versions of these chipsets may work but are not supported. Integrated chipsets are not supported. Updates to your video and sound card drivers may be required.

Recommended System Requirements
OS – Windows XP / Vista
Processor – Intel Core 2 DUO @ 2.2GHz or AMD Athlon 64 X2 4400+
Memory – 2.0 GB RAM
GPU – NVIDIA GeForce 8800 GTS/640 or similar

Quelle (http://www.exp.de/shownews.php?id=25148)

dargo
2007-10-09, 23:01:12
Das wissen wir alle noch nicht so genau.

Ich weiß zumindest wie die MP Beta 3 bei Medium oder gar Low performt. :)

PCGH_Carsten
2007-10-10, 11:11:54
:uconf2:
Gepatchte Titel wie BioShock, CoH oder Call of Juarez gelten hier nicht. Zumal ich nicht glaube das bei den Titeln hierbei die Adaption der D3D10 API zu 100% vollzogen ist und verwertbares & Praxistaugliches D3D10 Material ist. Und ich erwähne an dieser Stelle mal die nach wie vor nicht funktionierende AA und (wenn) den Performanceeinbruch. Mal sehen wie es um die Performance von "echten" D3D10 Titeln steht. Ich hoffe das der Performanceeinbruch nur die ausnahme der "zwangsimplementation" ist und unter Vista@DX10 die Bits besser durch die Karten flutschen.
Darum ging's ja nicht. :) Es ging darum, dass die meisten "DX10-ist-langsam"-Leute einen effektreicheren DX10-Pfad mit einem effektärmeren DX9-Pfad vergleichen.


Also wer ein Rechnerupdate für eine neue Technik (das sich mitunter auf 800€ belaufen kann) für "tragbar" hält, das kaum (-erhoffte) Praxistaugliche (-DX10) Performance liefert, dem ist...:D
Darum ging's ja nicht. Es ging um das Gesetz des abnehmenden Grenzertrags. Vereinfacht gesagt: Je weiter man sich dem Fotorealismus annähert, desto aufwändiger werden auch sehr geringe Verbesserungen. Beispiel: Früher(tm) konnte man durch eine zweite Texturschicht (Detail- oder Lightmap) die Optik schon sehr günstig deutlich aufwerten. Heute will man ein realistisches, dynamisches Beleuchtungsmodell. Da reicht eben eine weitere Textur nicht, sondern man braucht erst einmal einen passenden Shader, der diese Beleuchtung physikalisch annähernd korrekt umsetzt. Das kostet mehr als ein Tex-Fetch.


Also ich sehe in den Screenshots nix das eine G80 rechtfertigt.
Darum ging's ja auch nicht. Es ging darum, dass behauptet wurde, DX9 wäre immer schneller als DX10.

_DrillSarge]I[
2007-10-10, 11:29:04
Darum ging's ja auch nicht. Es ging darum, dass behauptet wurde, DX9 wäre immer schneller als DX10.
die leute beurteilen einfach das was sie sehen. dx10-pfade werden (momentan) ja nur genutzt um neue effekte (oder vermeintlich neue) / höhere effektdichte darzustellen.
überall gibt es daher wenig sinnvolle vergleiche dx9 vs. dx10.

dargo
2007-10-10, 11:49:49
Hier gibt es paar Bilder von Crysis:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5918072&postcount=1282

Ich würde sogar behaupten, dass Crysis @Medium mindestens genauso gut aussieht wie Farcry auf max., wenn nicht sogar etwas besser.

Und hier paar angebliche DX9 vs. DX10 Vergleiche:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5918499&postcount=1294

Darum ging's ja nicht. Es ging um das Gesetz des abnehmenden Grenzertrags. Vereinfacht gesagt: Je weiter man sich dem Fotorealismus annähert, desto aufwändiger werden auch sehr geringe Verbesserungen. Beispiel: Früher(tm) konnte man durch eine zweite Texturschicht (Detail- oder Lightmap) die Optik schon sehr günstig deutlich aufwerten. Heute will man ein realistisches, dynamisches Beleuchtungsmodell. Da reicht eben eine weitere Textur nicht, sondern man braucht erst einmal einen passenden Shader, der diese Beleuchtung physikalisch annähernd korrekt umsetzt. Das kostet mehr als ein Tex-Fetch.

Das ist eben das was viele nicht begreifen. Je näher man sich dem "Fotorealismus" nähert umso teurer ist jeder Effekt der dafür nötig ist. Dementprechend fällt der visuelle Unterschied geringer aus.

_DrillSarge]I[
2007-10-10, 12:30:56
Das ist eben das was viele nicht begreifen. Je näher man sich dem "Fotorealismus" nähert umso teurer ist jeder Effekt der dafür nötig ist. Dementprechend fällt der visuelle Unterschied geringer aus.
fotorealismus ist relativ billig zu erreichen. teuer wird es das ganze dynamisch hinzukriegen.

Matrix316
2007-10-10, 13:31:40
Darum ging's ja nicht. :) Es ging darum, dass die meisten "DX10-ist-langsam"-Leute einen effektreicheren DX10-Pfad mit einem effektärmeren DX9-Pfad vergleichen.

In einer der letzten PCGH Ausgaben war doch mal ein großes DX10 Special und sagte da nicht einer der Entwickler, dass die Performance mit mehr Effekten und DX10 auf SM4 Hardware besser sein sollte?

[dzp]Viper
2007-10-10, 14:20:54
I[;5918701']fotorealismus ist relativ billig zu erreichen. teuer wird es das ganze dynamisch hinzukriegen.

komisch, dass das nicht mal Renderprogramme bisher richtig hinbekommen.. und das, obwohl die nur Bilder rendern X-D (okay krasser Vergleich...)

Fotorealismus ist selbst bei Bildern die am PC hergestellt werden aktuell noch sehr schwer erreichbar.

Was heißt bei dir Dynamisch? In Bewegung? Das schafft bisher kein Rechner. Und auch nicht in den nächsten 10 Jahren...

Wir nähern uns dem Fotorealismus, aber je näher wir diesem Ziel kommen, umso langsamer wird der Fortschritt und umso weniger sieht man das, was sich gegenüber der "Vorversion" geändert hat.

[dzp]Viper
2007-10-10, 14:23:54
In einer der letzten PCGH Ausgaben war doch mal ein großes DX10 Special und sagte da nicht einer der Entwickler, dass die Performance mit mehr Effekten und DX10 auf SM4 Hardware besser sein sollte?


Richtig

DX10 mit neuen Effekten unwesentlich schneller oder gleichschnell wie DX9

DX10 ohne neue Effekte wesentlich schneller als DX9

Es ist sogut wie jeder DX10 Effekt auch auf DX9 Hardware realisierbar, aber die Performanceeinbußen unter DX9 wären wesentlich höher als bei DX10.
Deswegen sind die DX10 Karten mit den neuen Effekten schneller als DX9 Karten (wenn diese die Effekte auch rendern müssten).

dargo
2007-10-10, 14:54:48
Schaut mal hier:
http://www.deezygn.com/images/external/crysis-comparison/index.html

Da sieht man die Unterschiede erst recht deutlich.

Mr.Soapdown
2007-10-10, 21:37:31
naja, ein bischen übertrieben oder nicht?

Plötzlich mehr palmen, sträucher und bessere texturen.....hm - mal so im Groben. Klar die beleuchtung und die spiegelungen machen auch was her.

Sentionline
2007-10-11, 01:27:56
Ich will erstmal Benchmarks sehen. Vollmundige Versprechungen mit Screenshots haben wir nicht erst seid gestern. Und ich spiele bestimmt, wie auch alle anderen hier, lieber mit 40fps(DX9-4xAA) anstatt mit 25fps(DX10-noAA).

*ironie*DiaShows sind ja recht aus der Mode gekommen in der letzten Zeit, obwohl die Kameras immer besser wurden und LCD Fernseher In sind*/ironie*:D