Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Luna und Mad mod mike demos now released


collapse
2005-07-13, 12:54:23
hier gibts die demos = ) (http://www.nzone.com/object/nzone_downloads_nvidia.html)

Sotman
2005-07-13, 13:02:53
kann man sich jetzt die demos auch ohne 7800GTX anschaun?

DrFreaK666
2005-07-13, 13:03:08
Laufen die auch auf einer NV40?

BUG
2005-07-13, 13:03:28
*saug* :) ..aber wieso steht da 7800GTX, ich dachte die sollten auch auf dem NV40 "laufen"?!

cu
BUG

misterh
2005-07-13, 13:03:36
Hier der anfang bei LUNA mit 6600GT

http://img333.imageshack.us/img333/6784/luna7ty.jpg

Dauerunreg
2005-07-13, 13:06:54
Super thx, in etwa 25 min weiss ich ob luna auf der asus 128mb gt läuft.

Raff
2005-07-13, 13:11:50
Wenn's mit der 6600GT rennt, dann auch mit einer 6800GT 128 MiB. :D

Ich lade auch mal beide, bin gespannt.

Aber (leicht OT): Seit wann gibt es GF4 MX Demos? :|

MfG,
Raff

Mr. Lolman
2005-07-13, 13:30:26
Ganz check ich ja nicht warum da Hände aus dem Auge kommen, und was die ganze Sache überhaupt soll, aber nettes Subsurface Scattering kommt in der Luna Demo vor (Ruby find ich trotzdem fescher).

/edit: Und Mad Mod Mike ist voll der Koffer X-D

Dauerunreg
2005-07-13, 13:46:07
Ja, läuft etwas hakelig aber man erkennt worum es geht. :biggrin:


http://img315.imageshack.us/img315/4161/luna9pb.jpg

Thanks to ImageShack for Free Image Hosting (http://www.imageshack.us)

Edit: *wegeditier*

Hellfire-Torrod
2005-07-13, 14:02:09
Läuft auf meiner 6600gt erstaunlich gut

Bubba2k3
2005-07-13, 14:12:11
Habe mir mal die Luna-Demo angeschaut.

Für mich sieht das schon ziemlich stark aus. Werde mir die andere Demo auch noch mal besorgen.

Übernimmt die Demo eigentlich die Einstellungen aus dem Treiber-Menü, oder hat die Demo eigene Einstellungen und ist vom Treiber-Menü völlig unabhängig ??

Dauerunreg
2005-07-13, 14:21:32
Mad mod mike erst als dia show, dann flüssig während die errungenschaften präsentiert werden.

http://img339.imageshack.us/img339/714/madmodmike0ri.jpg

Ok, neustart und es wurde flüssiger. :biggrin:
Die sicht aus der helmkamera ist zum schiessen.

http://img325.imageshack.us/img325/1796/madmodmike23gq.jpg

Thanks to ImageShack for Free Image Hosting (http://www.imageshack.us)

Bubba2k3
2005-07-13, 14:50:49
Die 'Mad Mod Mike' Demo rockt !! :biggrin:

Loomes
2005-07-13, 15:37:37
Also das Mad Mod Mike Dingen ist ja echt geil :eek:

Und läuft auf 1280x1024 erstaunlich gut muss ich sagen...sind zwar stellenweise mal leicht weniger wie 25 Frames schätze ich, aber grobe Hänger oder Ruckler sind keine aufgetreten.

r@w
2005-07-13, 16:43:11
Aber (leicht OT): Seit wann gibt es GF4 MX Demos? :|Also Bugs und Twister gibt's doch schon eeeeewig!
Dass diese allerdings für 'ne gf4mx released wurden, ist mir auch neu...
(damals gab es auch noch kein nZone ;-)

Razor

r@w
2005-07-13, 16:44:41
Ach ja... die Demos saug ich grad' mit 250kB/s.
Firmenanschluß und nVidias Servern sei dank!
:D

Razor

r@w
2005-07-13, 16:46:21
(Ruby find ich trotzdem fescher).War ja klar...
X-D

Razor

Mr. Lolman
2005-07-13, 16:50:59
War ja klar...
X-D

Razor

Ja irgendwie sind mir die alle zu kindlich. Dawn war noch sehr geil. Dusk muss ich mir mal näher ansehen, aber Nalu fand ich schon nicht mehr so toll. Nur zw. Dawn und Ruby kann ich mich nicht ganz entscheiden X-D

Hellfire-Torrod
2005-07-13, 16:55:31
Ja irgendwie sind mir die alle zu kindlich. Dawn war noch sehr geil. Dusk muss ich mir mal näher ansehen, aber Nalu fand ich schon nicht mehr so toll. Nur zw. Dawn und Ruby kann ich mich nicht ganz entscheiden X-D

Dawn wird wiederkommen. Aufgemöbelt versteht sich. Wenn nicht für die angebliche Ultra, dann bestimmt für einer der kleineren versionen. ;)

Ich hoffe es zumindest ;D

(del676)
2005-07-13, 17:00:39
Dawn wird wiederkommen. Aufgemöbelt versteht sich. Wenn nicht für die angebliche Ultra, dann bestimmt für einer der kleineren versionen. ;)

Ich hoffe es zumindest ;D

ja mit weniger stoff und mehr "oily skin" effect X-D

Mark
2005-07-13, 17:15:18
gibt es auch den gleichen trick bei nalu mit dne texturen die man umbennen kann? :rolleyes:

Raff
2005-07-13, 17:29:48
Ein Wort: Wow. :O

Sieht echt verdammt gut aus, beide.
Die Dinger scheinen übrigens perfekt dazu geeignet zu sein, seiner Grafkkarte mal so richtig derbe Feuer unterm nicht existenten Hintern zu machen. So übel heiß wurde meine 6800nU - auf der alles ziemlich weich läuft - noch nie, so wie ich das sehe. Da wird wirklich alles voll ausgelastet ...

MfG,
Raff

tombman
2005-07-13, 18:10:47
die werd ich gleich mit 1600x1200 quälen ;)

Ice =A=
2005-07-13, 18:16:36
Ja, ich will auch Dawn zurück!!!!! Die hatte noch Charakter!!!

Außerdem is der eigentlich Inhalt (von der Grafik abgesehn) des Luna-Demos ja dermaßen bescheuert, da könnte ich mich schon wieder drüber aufregen!!! Vergleicht das mal mit ATI, die machen sogar (mehr oder weniger) spannende Agentengeschichten aus Ihren Demos!!!

Akira20
2005-07-13, 18:25:36
Dafür ist aber "Mad Mike" echt funny :D

MfG
Akira20

Ice =A=
2005-07-13, 18:26:21
Mag sein, aber da fehlt mir das Sex-Appeal!!! :)

tombman
2005-07-13, 18:43:45
so lol, LUNA rennt sogar noch in 1920x1200, also mehr als HDTV (!) noch annehmbar mit ca 23fps Minimum und so ca 20 bis 30 fps :D (7800 SLI)

Und das auf default clock, wenn ich da meine 490/1380 reinhaue wäre das absolut flüssig (!)..- aber bei dieser demo werden die Karten dermaßen heiß, daß ich das lieber lasse ;) (obwohl rivatuner genau 80° Maximum anzeigt, wie immer- aber heute is so heiß draußen :D)

Naja, screenshots kommen später :)

Und jetzt nehm ich mir Mad Mod Mike vor :)

Blaire
2005-07-13, 18:45:10
Wo stell ich die Auflösung ein?

tombman
2005-07-13, 18:50:28
args.txt editieren, aber vorher schreibschutz entfernen. is eh gut beschrieben.

btw, so sieht meine Zeile aus

1920 1200 1920 1200 1.0 true

die ersten beiden sind die Windows-GAME-Auflösung, die beiden dahinter die Bildauflösung (wenn die kleiner ist, gibts schwarze Ränder), dann die Verzerrung, was bei mir 1.0 ist, weil die Auflösung eh schon widescreen ist, und danach true für fullscreen.

tombman
2005-07-13, 19:24:15
Oh Mann, MMM frißt noch viel mehr fps als Luna.

Da hab ich 1600x1024 als höchstes fahren können sodaß es noch akzeptabel lief.
(7800 SLI)

Ohne SLI sollte man überhaupt nicht über 1024 gehen bei MMM. 6800er Karten werden sogar sicher noch weiter runter gehen müssen...

Razor
2005-07-13, 20:36:43
Ein Wort: Wow. :O
Sieht echt verdammt gut aus, beide. Geniale Optik, keine Frage!
Dürfte derzeit schlicht einzigartig sein...
:up::up:

Die Dinger scheinen übrigens perfekt dazu geeignet zu sein, seiner Grafkkarte mal so richtig derbe Feuer unterm nicht existenten Hintern zu machen. So übel heiß wurde meine 6800nU - auf der alles ziemlich weich läuft - noch nie, so wie ich das sehe. Da wird wirklich alles voll ausgelastet ...Nö... kann ich nicht bestätigen.

Des meinige wird gerade mal 45°/64° heiß (amb/core), welches vom guten alten Murks01-Nature lockerst getoppt wird. Ganz offenbar sind hier tatsächlich noch immer einige der Meinung, mit irgendwelchem modernen Firlefanz seine Karte 'auszulasten'... aber sei's drum.

Aber klar, ich kann lockerst 2xAA oder 4xAA dazu schalten (vorausgesetzt man deaktivert die Default 4xAA erst einmal ;-), ohne dass sich irgend etwas gravierendes in den frames verändert...

Razor

P.S.: und dass sich tombman 'mal wieder' über 23fps 'freut' ist ja wirklich äusserst niedlich zu lesen!
:D

tombman
2005-07-13, 21:09:48
P.S.: und dass sich tombman 'mal wieder' über 23fps 'freut' ist ja wirklich äusserst niedlich zu lesen!
:D

[ ] du weißt, daß ich hier von 1920x1200 rede :rolleyes:

Auf default hab ich 70fps, vielleicht freut dich das ja mehr ;)

Loomes
2005-07-13, 21:16:52
[ ] du weißt, daß ich hier von 1920x1200 rede :rolleyes:

Auf default hab ich 70fps, vielleicht freut dich das ja mehr ;)

Jungejunge ab und an mal mit dem prollen was man hat kann ich ja gut verstehen, aber wenn ich dich hier so schreiben sehe...mann könnte denken es läuft dir dabei am Bein runter.

Quasar
2005-07-13, 21:19:46
Aber (leicht OT): Seit wann gibt es GF4 MX Demos? :|

Seit etwa 2002. Twister und Bugs, IIRC.
edit: Ooops, das wurde ja schon geschrieben. :(

Hellfire-Torrod
2005-07-13, 21:26:07
[ ] du weißt, daß ich hier von 1920x1200 rede :rolleyes:

Auf default hab ich 70fps, vielleicht freut dich das ja mehr ;)

Laut Nvidia müsste eine karte doch 60 FPS ereichen?!
Wegen dem HD Film/games @ 60fps marketing gerede.

Gast
2005-07-13, 21:29:55
Ach ja... die Demos saug ich grad' mit 250kB/s.
Firmenanschluß und nVidias Servern sei dank!
:D

Razor


Was ist da so besonders dran? Das schafft man auch mit einem schnellen DSL Anschluss.

misterh
2005-07-13, 21:39:21
6600GT geht 1600*1200 erst wenn AA aus ist bei MMM.

tombman
2005-07-13, 21:46:08
Laut Nvidia müsste eine karte doch 60 FPS ereichen?!
Wegen dem HD Film/games @ 60fps marketing gerede.

Techdemos werden immer so geproggt, daß man 20 bis 30fps auf EINER Karte hat--- war immer so und wird immer so sein. Is bei ATI ned anders.

tombman
2005-07-13, 21:46:56
Jungejunge ab und an mal mit dem prollen was man hat kann ich ja gut verstehen, aber wenn ich dich hier so schreiben sehe...mann könnte denken es läuft dir dabei am Bein runter.

Ich weiß welchem User ich in welcher Art antworte- der "braucht das einfach" ;D;D

Raff
2005-07-13, 21:50:04
Seit etwa 2002. Twister und Bugs, IIRC.
edit: Ooops, das wurde ja schon geschrieben. :(

Ja, schon klar. Ich fragte mich nur, was die GF4 MX für neue Features haben soll, die man bewerben könnte. ;)

Razor,

ich habe meine Karte noch nie so heizen sehen, ernsthaft ... Das war sowohl sicht- als auch fühlbar an der Luft.

MfG,
Raff

Mosjoe
2005-07-13, 21:53:27
Razor,

ich habe meine Karte noch nie so heizen sehen, ernsthaft ... Das war sowohl sicht- als auch fühlbar an der Luft.

MfG,
Raff

Das kann ich bestätigen, 75/54 Core/Amb bei meiner 6800GT :eek: *schwitz*

tombman
2005-07-13, 21:56:41
Und hier mal ein Schub Bilder, 1920x1200, Maximum, 7800GTX SLI @ 490/1380

http://img60.imageshack.us/img60/5272/luna15lq.jpg
http://img28.imageshack.us/img28/3989/luna29ij.jpg
http://img28.imageshack.us/img28/8676/luna32pg.jpg
http://img28.imageshack.us/img28/1700/luna42vr.jpg
http://img28.imageshack.us/img28/3308/luna52bg.jpg
http://img281.imageshack.us/img281/6250/luna60rt.jpg
http://img281.imageshack.us/img281/848/luna85ga.jpg

tombman
2005-07-13, 21:56:50
http://img281.imageshack.us/img281/2615/luna100wz.jpg
http://img281.imageshack.us/img281/7200/luna94mi.jpg
http://img137.imageshack.us/img137/3527/luna119yy.jpg
http://img137.imageshack.us/img137/3876/luna121jc.jpg
http://img137.imageshack.us/img137/5716/luna136hw.jpg
http://img137.imageshack.us/img137/5421/luna149to.jpg

Razor
2005-07-13, 21:57:20
Was ist da so besonders dran?Nix...
Wollte es einfach nur mal so gesagt haben.
(und zu hause hab' ich 'nur' T-DSL 1000 ;-)

Razor

The_Invisible
2005-07-13, 21:57:32
Das kann ich bestätigen, 75/54 Core/Amb bei meiner 6800GT :eek: *schwitz*

das ist ja garnix :biggrin:

bzw
schön, dann habe ich morgen wieder was um unsere firmenleitung bisschen zu quälen, mit ISDN hol ich mir das sicher nicht

mfg

Razor
2005-07-13, 21:59:06
...der "braucht das einfach"Sagte ich schon, dass ich so etwas einfach nur bemitleidenswert finde?
Nein?

Dann wiederhole ich es hiermit.

Und das mit dem Bildchen ist doch hoffentlich nicht Dein ernst, oder?
@Mods: kann das nicht mal jemand editieren?
(muss das alles direkt verlinkt werden?)

Razor

Raff
2005-07-13, 22:03:02
tombman, schicke Shots, aber nimm doch bitte Rücksicht auf die armen Modem- und ISDN-User. ;)

MfG,
Raff

Razor
2005-07-13, 22:04:06
Ja, schon klar. Ich fragte mich nur, was die GF4 MX für neue Features haben soll, die man bewerben könnte. ;)Kann ich Dir sagen...

"The only things more disgusting than being swarmed by alien bugs is to render without NVidia's accelerated AntiAliasing hardware. NVidia's Lightspeed Memory Architecture(2) is highlighted by the depth complexity viewer and illustrates the dismissal of undrawn rolling terrain and occluded swarming bugs."

Steht in der ReadMe von "Bugs".
Lustig, nicht?
:D

Und ja, des Teil ist noch immer bei mir auf der Platte...
(und funktioniert mit den schrottigen Treibern noch immer hervorragend X-D)

ich habe meine Karte noch nie so heizen sehen, ernsthaft ... Das war sowohl sicht- als auch fühlbar an der Luft.Wie gesagt... kann ich nicht bestätigen.

Kann es vielleicht bei Dir an den derzeitigen Aussentemperaturen liegen?
Teste doch einfach mal Murks01-Nature ohne unterlaß (also keine Zwischenscene und am laufenden Band) mit fett AA (4x sollte reichen ;-) und gutem 8xAF... in HQ selbstredend. DAS sind Temperaturen! 'Innen' wie 'aussen'... ;)

Razor

tombman
2005-07-13, 22:10:17
tombman, schicke Shots, aber nimm doch bitte Rücksicht auf die armen Modem- und ISDN-User. ;)

MfG,
Raff

Naja, die haben wahrscheinlich eh alle pics deaktiviert, weil sonst wird man ja wahnsinnig allein beim Warten auf das Laden der Avatarbilder. :O

-Andy-
2005-07-13, 22:36:42
Bei mir läuft Nalu und Mad Mod Mike nicht. Es wird angezeigt das man eine Geforce 6800 braucht. :confused: Hat jemand ne Ahnung was das sein könnte? System steht in der Sig.

misterh
2005-07-13, 22:50:38
Bei mir läuft Nalu und Mad Mod Mike nicht. Es wird angezeigt das man eine Geforce 6800 braucht. :confused: Hat jemand ne Ahnung was das sein könnte? System steht in der Sig.

Ist bei dir so?

Bei LUNA args.txt

32 24 0 // color / z / stencil depth
4 // number of samples per pixel (0 == 1)

und MMM

32 0 0 // color / z / stencil depth
3 // number of samples per pixel for FAR render pass (blurrier)
4 // number of samples per pixel for NEAR render pass

Dann sollte mit 6600GT gehn, wie bei mir.

Edit:

ja hast 6800, dümm von mir, das zu übersehen. :redface:

-Andy-
2005-07-13, 22:56:49
Ist bei dir so?

Bei LUNA args.txt

32 24 0 // color / z / stencil depth
4 // number of samples per pixel (0 == 1)

und MMM

32 0 0 // color / z / stencil depth
3 // number of samples per pixel for FAR render pass (blurrier)
4 // number of samples per pixel for NEAR render pass

Dann sollte mit 6600GT gehn, wie bei mir.

Ich habe eine 6800. Ich lade Nalu noch mal herunter. Bei MMM sieht es genauso aus wie du es geschrieben hast. Er sagt mir immer als Fehlermeldung das man eine 6800 braucht.

Quasar
2005-07-13, 23:06:01
Ja, schon klar. Ich fragte mich nur, was die GF4 MX für neue Features haben soll, die man bewerben könnte. ;)

EarlyZ. Und zwar nicht zu knapp.

-Andy-
2005-07-13, 23:09:37
32 24 0 // color / z / stencil depth
4 // number of samples per pixel (0 == 1)

Das steht bei Luna auch und trotzden startets nicht. :confused:

misterh
2005-07-13, 23:13:24
komisch

weil bei LUNA zb

wenn ich da 32 24 0 auf 32 32 0 ändere, kommt bei mir auch meldung dass ich 6800U brauche

wenn 24 24 0 oder 16 24 0, kommt meldung, dass ich 6800 brauche.

Deswegen dachte ich sofort an sowas.

Echt komisch :|

Edit:

Ach ja, ich nutze 80.40

Hellfire-Torrod
2005-07-13, 23:13:44
32 24 0 // color / z / stencil depth
4 // number of samples per pixel (0 == 1)

Das steht bei Luna auch und trotzden startets nicht. :confused:


Treiberproblem?

Atma
2005-07-13, 23:16:05
Echt fett das die demos so gut auf der 6800GT laufen :eek: . Hier 2 pics von mir und vorallem 56K freundlich als link :D :

Mad Mod Mike @ 1280x1024 (http://www.unlimitedanime.de/madmodmax.PNG)

Luna @ 1280x1024 (http://www.unlimitedanime.de/luna.PNG)

ich habe meine Karte noch nie so heizen sehen, ernsthaft ...

Kann ich vorallem bei Mad Mod Mike bestätigen :O

-Andy-
2005-07-13, 23:23:42
Treiberproblem?

Hm, Treiber ist der 77.72. Brauch ich den 80.40?? Eigentlich doch nicht, oder?

Raberduck
2005-07-13, 23:23:52
Hi,

die Video´s muß ich mir auch mal Saugen :biggrin:

Gruß Raberduck

TobiWahnKenobi
2005-07-13, 23:28:13
sehr fein.

da soll mich nochmal einer fragen, warum ich mich so auf die nächsten konsolen freue. endlich wird es spiele geben, die aussehen wie zwischen-sequenzen.

schade dass man auf PC immer nichts von der potenziellen power hat.. aber trotzdem nett zu sehen, was möglich wäre.

auf meiner GT läuft's auch annehmbar - ich guck mir das morgen nochmal genauer an.

(..)

mfg
tobi

Hellfire-Torrod
2005-07-13, 23:39:16
Hm, Treiber ist der 77.72. Brauch ich den 80.40?? Eigentlich doch nicht, oder?

Nein, braucht man eigendlich nicht.

tombman
2005-07-13, 23:56:29
Echt fett das die demos so gut auf der 6800GT laufen :O

Wo is die fps Anzeige?

Atma
2005-07-14, 00:24:33
Wo is die fps Anzeige?

Für die gebotenen fps kommt es noch sehr flüssig rüber:

Mad Mod Mike - FPS (http://www.unlimitedanime.de/madmodmax_fps.PNG)

tombman
2005-07-14, 00:26:07
Für die gebotenen fps kommt es noch sehr flüssig rüber:

Mad Mod Mike - FPS (http://www.unlimitedanime.de/madmodmax_fps.PNG)

danke, wollte nur wissen ob meine Schätzung stimmt, und anscheinend tut sie das.

Probier mal 800x600 oder 640x480 --> sollte dann flüssig sein.

GeForce 6600GT
2005-07-14, 02:06:35
Hi!
Ich habe mal ein paar Fragen zu den Demos:

1. Berechnet die GeForce 6X00Serie eigentlich genau dasselbe wie die GeForce 7800Serie?
Oder kann die 7800er mehr? (Shader, usw.)
2. Werden die Augen von der Luna-Demo, im Hintergrund, auch von den GeForce 6er Karten berechnet?
Es wurde nämlich in der Gamestar geschrieben: "Die Augen berechnet die GeForce 7800GTX über ein rund 1.000 Befehle langes Shader-Programm auf Raytracing-Basis - bis vor kurzem undenkbar!
Kann das die GeForce 6X00Serie auch?
3. Wo kann man die Auflösung und AA/AF einstellen?

Grüße
GeForce 6600GT

Gast
2005-07-14, 02:50:16
*saug* :) ..aber wieso steht da 7800GTX, ich dachte die sollten auch auf dem NV40 "laufen"?!

cu
BUG

weil das die techdemos der 7800 serie sind

Gast
2005-07-14, 02:50:50
der download bricht laufend ab

Gast
2005-07-14, 03:15:09
hab luna jetzt auf der 7800gtx gesehn und muß sagen super atmo,sound und optik
beste techdemo die es gibt aber es ist halt ne techdemo die realität schaut viel mieser asu. die optik bekommen wir erst in oh oh min 6 jahren

-Andy-
2005-07-14, 07:33:22
Morgen, hat jetzt vielleicht jemand ne Ahnung wie ich die Demos am laufen bekomme?

misterh
2005-07-14, 07:38:19
Morgen, hat jetzt vielleicht jemand ne Ahnung wie ich die Demos am laufen bekomme?

teste mal andere Treiber. Kann ja sein,aber wer weiss.

-Andy-
2005-07-14, 07:50:37
Ne daran liegts glaube ich nicht. Die Demo erkennt meine Asus nicht als 6800er. Vielleicht liegts daran das es nur eine mit 128 MB ist.

Bandit666
2005-07-14, 08:43:20
Hat jemand ein SLI-Profil für 2x6800u?

Weil 11FPS ist ja echt mager in 1280er Auflösung! Oder muss das so? :frown:

mfg

S3NS3
2005-07-14, 09:11:18
Wow ! Die Demos sind ja mal der Hammer!
Das Luna find ich am besten. Direkt 3 mal geguckt, auch der Sound ist geil.
Und das SSS kommt ja ultranice!

Endlich mal fette Techdemos von NV. Fand die alten ziemlich pipi. Da war ATI aber meilen vorraus (das FarcryEngineDemo da, auch der Wahnsinn).

Werds heute mal meinen Bruder zeigen. Dann hatte wieder kein bock auf 3DRendering wenn das in Echtzeit schon viel besser und aufwendiger kommt :D

PS: Very nice von NV die nicht auf 7800ér zu begrenzen! Echt nett!

Dauerunreg
2005-07-14, 09:23:28
Ne daran liegts glaube ich nicht. Die Demo erkennt meine Asus nicht als 6800er. Vielleicht liegts daran das es nur eine mit 128 MB ist.


Also meine asus 128 mb gt wird erkannt und es lüppt ohne murren.

James Ryan
2005-07-14, 10:12:02
Ich hab mir die Demos auch mal angeguckt und verstehe nicht was alle daran so toll finden. :|
ATi's Chimp Demo bspw. hat mich damals viel mehr beeindruckt!
Die neuen Techdemos bieten irgendwie kaum Besonderheiten, und wirklich realistisch sieht das auch nicht aus.

MfG :cool:

Dauerunreg
2005-07-14, 10:41:25
Ich hab mir die Demos auch mal angeguckt und verstehe nicht was alle daran so toll finden. :|
ATi's Chimp Demo bspw. hat mich damals viel mehr beeindruckt!
Die neuen Techdemos bieten irgendwie kaum Besonderheiten, und wirklich realistisch sieht das auch nicht aus.

MfG :cool:

In mmm wird doch ganz klar im 2. part darauf hingewiesen worum es geht.

Hab auch nicht den eindruck, das realität angestrebt werden sollte.

Ist eben einfach eine techdemo, so wie chimp, was auch nicht sehr real wirkt.

Aber der möglichen realität einfach ein stück näher rücken kann mit neuen features.

S3NS3
2005-07-14, 12:10:17
Finde Displacement, Indirect Illumination, SubSurfaceScatter, DephtOfField und HDR-Rendering mit dem Detail und Quali in Echtzeit schon sehr beeindruckend.
Hier gehts ja nicht um den inhaltlichen Sinn der Sequenzen sondern um die Effekte, Effektdichte und Qualität UND FPS !

Habe mir schon ein Bild vom Tombman als Background inne Firma gemacht. Glaube zuhause werd ich das auch machen.

Auch mal gespannt wie das in 1920 bei mir laufen wird :)
Denke sehr bescheiden ;)

Gast
2005-07-14, 20:28:13
wie sieht es eigentlich mit HDR aus?

ist das jetzt echtes HDR+FSAA?

Gast
2005-07-14, 20:44:22
wahnsinnm die qualität steht ja imo pixar-filmen wie monster-AG um nichts nach.

Mansen
2005-07-14, 22:29:20
gibts dafür nen sli profil? :redface:

EL_Mariachi
2005-07-14, 22:47:02
tjo die Demos laufen auf meiner GT gar nicht mal schlecht ...

Ich hätte jetzt erwartet, dass die ruckeln wie Harry, aber nö ... läuft echt gut das ganze :)

Bandit666
2005-07-14, 23:47:04
tjo die Demos laufen auf meiner GT gar nicht mal schlecht ...

Ich hätte jetzt erwartet, dass die ruckeln wie Harry, aber nö ... läuft echt gut das ganze :)

Du willst uns doch nicht erzählen das du die 8-9 FPS bei MadMike gut findest?


mfg

Atma
2005-07-15, 01:44:31
Hab mal ein bisschen mit den reglern gespielt :) :

Luna (http://www.unlimitedanime.de/luna_hdr.PNG)

tombman
2005-07-15, 03:18:19
Was redet ihr immer von SLI Profil? Das Ding nutzt stinknormales AFR, is sogar ein Nvidia Profil im 77.72.

Sollte also total problemlos rennen @ SLI.

Mansen
2005-07-15, 04:24:55
nö, bei mir net! hab immer meine 18-25fps bei mmm (6600gt sli), egal was ich mache :rolleyes:

Gast
2005-07-15, 05:40:52
Ich hab eine Geforce 6800 Ultra und bin total begeistert von der Luna-Demo. Das ist ja wohl das beste was es überhaupt gibt in Echtzeit 3D. Warum schlurft der wesentlich schlechter aussehende 3D Mark 05 dann so vor sich hin? Wohl nur auf Shader 2 optimiert oder garnicht optimiert :(

Das ist wirklich Grafik!

tombman
2005-07-15, 05:53:32
nö, bei mir net! hab immer meine 18-25fps bei mmm (6600gt sli), egal was ich mache :rolleyes:

Auch wenn du SLI im cp deaktivierst und neustartest?

Noch einfacher ist es nhancer zu nehmen, und dort das Profil per override einfach von AFR auf SINGLE zu stellen --> dann wirst 100% einen Unterschied merken.

Gast
2005-07-15, 08:58:44
Hi!
Ich habe mal ein paar Fragen zu den Demos:

1. Berechnet die GeForce 6X00Serie eigentlich genau dasselbe wie die GeForce 7800Serie?
Oder kann die 7800er mehr? (Shader, usw.)
2. Werden die Augen von der Luna-Demo, im Hintergrund, auch von den GeForce 6er Karten berechnet?
Es wurde nämlich in der Gamestar geschrieben: "Die Augen berechnet die GeForce 7800GTX über ein rund 1.000 Befehle langes Shader-Programm auf Raytracing-Basis - bis vor kurzem undenkbar!
Kann das die GeForce 6X00Serie auch?
3. Wo kann man die Auflösung und AA/AF einstellen?

Grüße
GeForce 6600GT

Also die Augen werden definitiv dargestellt auch die im Hintergrund. Läuft bei mir auf einer Geforce 6800 Ultra von Gainward erstaunlich flüssig! Lamerstar hackt manchmal in terms of knowledge.

AA/AF wohl im Treibermenü, auflösung in der config die im thread schon mehrfach namentlich genannt worden ist!

Gast
2005-07-15, 09:01:30
Ich hab mir die Demos auch mal angeguckt und verstehe nicht was alle daran so toll finden. :|
ATi's Chimp Demo bspw. hat mich damals viel mehr beeindruckt!
Die neuen Techdemos bieten irgendwie kaum Besonderheiten, und wirklich realistisch sieht das auch nicht aus.

MfG :cool:

Na dann Zoom doch mal an LUNA heran, am besten ins gesicht.

bedunet
2005-07-15, 09:35:34
Hab mir die Demos auch mal gezogen, bin aber noch nicht zum Ansehen gekommen. Aber die Bilder die hier gepostet wurden sehen nicht schlecht aus. Mal schauen wieviel FPS meine 6800GT macht.

The_Invisible
2005-07-15, 09:42:33
Ich hab mir die Demos auch mal angeguckt und verstehe nicht was alle daran so toll finden. :|
ATi's Chimp Demo bspw. hat mich damals viel mehr beeindruckt!
Die neuen Techdemos bieten irgendwie kaum Besonderheiten, und wirklich realistisch sieht das auch nicht aus.

MfG :cool:

lol, n witz oder?

so ne beeindruckende techdemo gabs schon lang nicht mehr (insbesondere von nvidia), und bei dir hört es sich an als wäre es standard-grafikkost...

mfg

Saw
2005-07-15, 10:54:12
Kurze Frage...ich weiß,es hat jetzt nix mit dem Thema hier zu tun,aber da ich gerade auf der Nividia Demo Seite bin,wollte ich wissen,ob es einen Unterschied zwischen Dusk und Dusk Ultra gibt? Ich meine,sind es zwei verschiedene Demos grafikmässig oder sind beide Demos auf die entsprechende Karte optimiert ?

Blackpitty
2005-07-15, 11:10:04
tjo die Demos laufen auf meiner GT gar nicht mal schlecht ...

Ich hätte jetzt erwartet, dass die ruckeln wie Harry, aber nö ... läuft echt gut das ganze :)

Bei mir auch, läuft echt supi :smile:

BUG
2005-07-15, 11:10:52
Dusk = für Karten mit ~128MB
Dusk Ultra = für Karten mit 256MB und mehr

Edit: ..also bei mir ruckelt Nalu & Mike (besonders Mike) auf meiner 128MB 6800GT. :| Werde es wohl mal mit niedriger Auflösung usw probieren müssen.

Naja, die haben wahrscheinlich eh alle pics deaktiviert, weil sonst wird man ja wahnsinnig allein beim Warten auf das Laden der Avatarbilder. :O..von wegen. :frown:

cu
BUG

EL_Mariachi
2005-07-15, 11:17:11
Du willst uns doch nicht erzählen das du die 8-9 FPS bei MadMike gut findest?


mfg

wie bitte kommst Du auf 8-9 FPS?

GeForce 6600GT
2005-07-15, 11:22:04
Also die Augen werden definitiv dargestellt auch die im Hintergrund. Läuft bei mir auf einer Geforce 6800 Ultra von Gainward erstaunlich flüssig! Lamerstar hackt manchmal in terms of knowledge.

AA/AF wohl im Treibermenü, auflösung in der config die im thread schon mehrfach namentlich genannt worden ist!

Danke!
Allerdings weiß ich jetzt immer noch nicht, ob die GeForce 7800er Serie mehr darstellen und berechnen kann als die GeForce 6x00er Serie.

Grüße
GeForce 6600GT

WitchBladePL
2005-07-15, 12:25:54
Hallo habe mir die Demos auch mal gesaugt, sind ja richtig klasse geworden und laufen auch noch flüssig.

Am besten iss der Mad Mod Mike, der Kunde iss ja voll der Hammer *lachwech*.
Als ich die demo zum ersten mal startete kamm ich aus dem lachen nicht mehr raus. Mit dem könnte man nen eigenen Pixar-Film drehen, würde sich bestimmt gut machen.

Gruß WBPL

Gast
2005-07-15, 12:59:28
Danke!
Allerdings weiß ich jetzt immer noch nicht, ob die GeForce 7800er Serie mehr darstellen und berechnen kann als die GeForce 6x00er Serie.

Grüße
GeForce 6600GT

Nun ja nach meiner einschätzung würde ich sagen das die 7800 dasselbe wie die 6800 berechnen kann (ultra) bloß schneller. naja und 24 pipes, somit mehr als die Ultra, hat die 7800 ja auch!

Kladderadatsch
2005-07-15, 14:28:44
wow. so langsam aber sicher kommen wir an final fantasy, nemo, ice age etc. -grafik ran:)

TobiWahnKenobi
2005-07-15, 14:40:56
wow. so langsam aber sicher kommen wir an final fantasy, nemo, ice age etc. -grafik ran

das gleiche hab' ich gestern zu meiner freundin gesagt.

--> schade nur, dass man die karte schon 3x wieder gewechselt hat, bis irgendein game sowas zeigt. das werde ich das erste mal auf der xbox360 sehen und dann 10-12 monate später, aufm PC.

(..)

mfg
tobi

Gast
2005-07-15, 21:27:09
ok LUNA ist auch dafür gut um zu sehen ob alle pipes sauber arbeiten. 3dMark05 und 03, Farcry, D3, Joint Oper. ,BF2 alles wurde sauber dargestellt bis auf LUNA

Ice =A=
2005-07-16, 01:21:06
@SAW:
Dusk Ultra ist (wenn ich mich recht erinnere) dasselbe wie Dusk, nur mit Schatten. Läuft auf meiner 6600GT mit 128MB RAM übrigens auch noch recht flüssig.

Hellfire-Torrod
2005-07-16, 01:45:59
das gleiche hab' ich gestern zu meiner freundin gesagt.

--> schade nur, dass man die karte schon 3x wieder gewechselt hat, bis irgendein game sowas zeigt. das werde ich das erste mal auf der xbox360 sehen und dann 10-12 monate später, aufm PC.

(..)

mfg
tobi

Eben. wir habe heute ha nichtmal grafik der NV3x generation Techdemos in games. wobei man bei vergleichen ganz vorsichtig sein muss!

Mansen
2005-07-16, 04:11:56
Auch wenn du SLI im cp deaktivierst und neustartest?

Noch einfacher ist es nhancer zu nehmen, und dort das Profil per override einfach von AFR auf SINGLE zu stellen --> dann wirst 100% einen Unterschied merken.

hmm nix zu machen, werd mal nen reinstall machen :)

tombman
2005-07-16, 05:03:17
hmm nix zu machen, werd mal nen reinstall machen :)

Ich weiß ganz sicher, daß Luna SLI nutzt, und wenn man es ausschaltet wird auch nur eine gpu genutzt und die fps sind entsprechend deutlich weniger.

Spasstiger
2005-07-16, 09:16:23
@SAW:
Dusk Ultra ist (wenn ich mich recht erinnere) dasselbe wie Dusk, nur mit Schatten. Läuft auf meiner 6600GT mit 128MB RAM übrigens auch noch recht flüssig.

Dawn Ultra läuft in 1024x768 mit 4xAA mit meiner Radeon 9700 konstant mit über 30 fps und sieht auch klasse aus. FÜr Dusk gibts leider keinen ATI-Patch.

Gast
2005-07-16, 09:19:21
Also luna läuft einwand frei auf meiner 6600gt.

The_Invisible
2005-07-16, 09:24:16
@SAW:
Dusk Ultra ist (wenn ich mich recht erinnere) dasselbe wie Dusk, nur mit Schatten. Läuft auf meiner 6600GT mit 128MB RAM übrigens auch noch recht flüssig.


naja, war auch ne Techdemo für ne FX5900

"last change gas" ist da schon anspruchsvoller, was den vram angeht, 128mb sind dort zu wenig, und das merkt man DEUTLICH

mfg

Kladderadatsch
2005-07-16, 09:34:39
kann der g70 nicht hdr mit aa? das hätten die wenigstens zeigen können...oder dieses tranparency aa...

TobiWahnKenobi
2005-07-16, 09:57:19
AFAIK kann er auch kein HDR mit AA. soviel neu-entwicklung, wie NV es uns gern glauben lassen möchte, ist der chip nicht. wieso haben die eigentlich die interne bezeichnung auf G70 geändert? NV47 würde doch viel weniger illosorisch klingen.

(..)

mfg
tobi

mapel110
2005-07-16, 10:03:10
AFAIK kann er auch kein HDR mit AA.
Ja! (wird auch R520 nicht können)

Aber die Entwickler basteln ja fleissig Pseudo HDR-Pfade per SM2. Serious Sam2, Unreal3 und Half life 2(wobei HL2 wohl zusätzlich echtes HDR bieten wird).

Spasstiger
2005-07-16, 10:12:26
wobei HL2 wohl zusätzlich echtes HDR bieten wird

Die Unreal Engine 3 nicht?

Blaze
2005-07-16, 10:23:34
Die Unreal Engine 3 nicht?

Die auch ganz gewiss ;)

Razor
2005-07-16, 10:55:07
1. Berechnet die GeForce 6X00Serie eigentlich genau dasselbe wie die GeForce 7800Serie?
Oder kann die 7800er mehr? (Shader, usw.)
2. Werden die Augen von der Luna-Demo, im Hintergrund, auch von den GeForce 6er Karten berechnet?
Es wurde nämlich in der Gamestar geschrieben: "Die Augen berechnet die GeForce 7800GTX über ein rund 1.000 Befehle langes Shader-Programm auf Raytracing-Basis - bis vor kurzem undenkbar!
Kann das die GeForce 6X00Serie auch?
3. Wo kann man die Auflösung und AA/AF einstellen?Ad1: Ja - Nein.
Ad2: Ja.
Ad3: In der args.txt (Luna), bzw. in den args1024(1280).txt (MMM)

Allerdings weiß ich jetzt immer noch nicht, ob die GeForce 7800er Serie mehr darstellen und berechnen kann als die GeForce 6x00er Serie.Nein, kann sie nicht.
Sie ist einfach nur schneller...
(und wird nicht ganz so heiß ;-)

Razor

Razor
2005-07-16, 10:59:28
Ne daran liegts glaube ich nicht. Die Demo erkennt meine Asus nicht als 6800er. Vielleicht liegts daran das es nur eine mit 128 MB ist.Treiber oder DirectX vermurkst (Murks-Treiber 'probiert'? ;-)...
Auch eine ASUS ist eine 6x00 und der Speicher ist für das Anlaufen des Demos uninteressant.

nö, bei mir net! hab immer meine 18-25fps bei mmm (6600gt sli), egal was ich mache :rolleyes:Guter Witz.
Was meinst Du denn, was Dein 6600GT-SLI hier reißen soll?
:confused:

Des Zeug ist meistens lahmer, als 'ne normale 6800GT.
Und die 128MB Speicher 'beschleunigen' das Ganze auch nicht gerade zusätzlich...

Freu' Dich einfach über die 18-25fps!
(die ganz sicher nicht durchgängig hast ;-)

Razor

Gast
2005-07-16, 15:24:28
Ad1: Ja - Nein.
Ad2: Ja.
Ad3: In der args.txt (Luna), bzw. in den args1024(1280).txt (MMM)

Nein, kann sie nicht.
Sie ist einfach nur schneller...
(und wird nicht ganz so heiß ;-)

Razor

Danke Razor!
Dann weiß ich jetzt ja bescheid.

Grüße
GeForce 6600GT

Narrenkönig
2005-07-16, 15:49:14
Eben. wir habe heute ha nichtmal grafik der NV3x generation Techdemos in games. wobei man bei vergleichen ganz vorsichtig sein muss!
Nicht mal das "Fell" von Wolfman (GF4ti) ist heutzutage zu sehen.

Riplex
2005-07-17, 01:04:47
Also die Demos sind schon toll gemacht. Hab in 1024 so 15 fps im Durchschnitt bei Luna :D

Hellfire-Torrod
2005-07-17, 01:23:30
Nicht mal das "Fell" von Wolfman (GF4ti) ist heutzutage zu sehen.

Naja, zumindest nicht in PC games! :wink:

Spasstiger
2005-07-17, 01:34:45
Nicht mal das "Fell" von Wolfman (GF4ti) ist heutzutage zu sehen.

Von ATI gabs sogar schon vorher eine Demo mit Fellsimulation (zu finden im Developers-Bereich unter Source Code):
http://www.ati.com/developer/samples/3rdparty/tomohide_fur.03.13.02.zip
War für die Radeon 8500 bestimmt (die ja vor der GF 4 Ti rauskam).

Einen solchen Felleffekt sieht man zwar augenscheinlich in keinem PC-Spiel (das Gras in Trackmania 1 war evtl. so ein Fur-Shader), aber z.b. in Starfox Adventures für den Gamecube wurde ein Fur-Shader definitiv verwendet.

TobiWahnKenobi
2005-07-17, 06:42:07
in Starfox Adventures für den Gamecube wurde ein Fur-Shader definitiv verwendet.

sowas sieht man auch in BLINX und CONKER für die xbox

(..)

mfg
tobi

The_Invisible
2005-07-17, 08:55:38
sowas sieht man auch in BLINX und CONKER für die xbox

(..)

mfg
tobi

und das ist sogar nur eine Pseudo-Geforce3

in naher Zukunft könnte ja mal wirklich mal sowas kommen für PC

mfg

Razor
2005-07-17, 11:11:35
Solange immer noch viele Leutz mit GeForce 2 und Onboard-Grafik 'spielen'... wohl kaum.

Razor

S3NS3
2005-07-18, 12:19:41
Sollen darauf keine Rücksicht nehmen.

Zackzack muss das gehen. Wer kein PS2.0 hat kanns halt nicht zocken, ende.
Und wer das noch nicht hat interessiert sich auch nicht sonderlich dafür und kanns verkraften.

Genau wie die Physikkarte die maybe dieses Jahr kommt. Sollten direkt auch Games bringen die das so ausnutzen das man halt ohne nicht mehr zocken kann. Oder in dem Fall halt krass degradierte Details.

Was alles möglich wäre wenn die nicht immer versuchen würden 5 jahre alte karten nicht auszuschließen. Und wenn doch, wie GF4 bei BF2, wird wieder gemoppert.

Wer ne über 3 Jahre alte Karte hat hat halt Pech.

Gast
2005-07-18, 22:17:54
Glaubt ihr könnten diese Demos noch auf ATI SM2.0 Hardware funktionieren, oder ist das gänzlich ausgeschlossen?

Super Grobi
2005-07-18, 22:19:57
Glaubt ihr könnten diese Demos noch auf ATI SM2.0 Hardware funktionieren, oder ist das gänzlich ausgeschlossen?

Hi,
saug dir doch einfach eine davon und teste. Aber ich denke NEIN.

SG

Edit: @S3NS3: JAWOHL :up: So muss der Hase laufen :up: Gebe dir wirklich recht! Wer eine 3 Jahre alte Kaarte hat und aktuelle Games nicht zocken kann, ist irgenwie selber schuld!

Gast
2005-07-18, 22:20:40
Hi,
saug dir doch einfach eine davon und teste. Aber ich denke NEIN.

SG

Nein schon klar das es so nicht geht, aber ich mein mit nem Wrapper oder so?

Raff
2005-07-18, 22:22:00
Glaubt ihr könnten diese Demos noch auf ATI SM2.0 Hardware funktionieren, oder ist das gänzlich ausgeschlossen?

Wenn überhaupt, dann nur mit massivem Einbußen in Sachen Bildqualität. Denn wenn man die SM3.0-Shader, die dort sicher haufenweise genutzt werden, nicht in eine der Radeon-Architektur verständlichen Sprache übersetzt, sieht man einfach garnichts.

MfG,
Raff

Kladderadatsch
2005-07-18, 22:23:53
Sollen darauf keine Rücksicht nehmen.

Zackzack muss das gehen. Wer kein PS2.0 hat kanns halt nicht zocken, ende.
Und wer das noch nicht hat interessiert sich auch nicht sonderlich dafür und kanns verkraften.

Genau wie die Physikkarte die maybe dieses Jahr kommt. Sollten direkt auch Games bringen die das so ausnutzen das man halt ohne nicht mehr zocken kann. Oder in dem Fall halt krass degradierte Details.

Was alles möglich wäre wenn die nicht immer versuchen würden 5 jahre alte karten nicht auszuschließen. Und wenn doch, wie GF4 bei BF2, wird wieder gemoppert.

Wer ne über 3 Jahre alte Karte hat hat halt Pech.
gib mir geld, aber zackzack:|

Gast
2005-07-18, 22:25:45
Wow in dem Shaders Directory sind echt böse Shader drinnen!

Super Grobi
2005-07-18, 22:26:43
gib mir geld, aber zackzack:|

Zwingt dich keiner aktuelle Games zu spielen. Die alte (für alte Karten) sind sehr preisgünstig *ggg*

SPASS!!! Nicht das jetzt hier ein geflame losgeht. ABer ich finde denoch das S3NS3 recht hat!

SG

Raff
2005-07-18, 22:27:10
Edit: @S3NS3: JAWOHL :up: So muss der Hase laufen :up: Gebe dir wirklich recht! Wer eine 3 Jahre alte Kaarte hat und aktuelle Games nicht zocken kann, ist irgenwie selber schuld!

Ich hoffe doch, dass die Ironie, die ich da herauszulesen vermag, auch so gemeint war. Die Einstellung "Wer nicht mindestens 1000€ pro Jahr für seinen Rechner ausgibt, der darf nicht spielen" ist nämlich meiner Meinung nach völliger Blödsinn. Das widerspricht meiner bescheidenen Meinung nach jedweder Ökonomie (und Vernunft).

Natürlich kann jeder so viel ausgeben wie er will, das ist sein gutes Recht. Da aber 90% der Leute nicht so handelt, muss man sich als gewinnorientierter Spielebauer danach richten ...

€dit: Ok, war wohl echt keine Ironie drin. X-D :|

MfG,
Raff

Super Grobi
2005-07-18, 22:29:50
@Raff
nö meinte das schon ernst. Wer eine 3 Jahre alte Graka hat (bitte überleg mal!) der sollte sich nicht wundern wenn nicht die allerneusten Games funktionieren. Das heute alt ist, was ich gestern gekauft habe, ist doch in der EDV nichts neues und wir sprechen hier von 3 Jahre!!!

Gruss
SG

Kladderadatsch
2005-07-18, 22:33:01
@Raff
nö meinte das schon ernst. Wer eine 3 Jahre alte Graka hat (bitte überleg mal!) der sollte sich nicht wundern wenn nicht die allerneusten Games funktionieren. Das heute alt ist, was ich gestern gekauft habe, ist doch in der EDV nichts neues und wir sprechen hier von 3 Jahre!!!

Gruss
SG
ich glaube, das 3dc hat dein weltbild in sachen pc-ausstattung etwas ver...prägt;)

Super Grobi
2005-07-18, 22:39:47
ich glaube, das 3dc hat dein weltbild in sachen pc-ausstattung etwas ver...prägt;)

Möchte ich in der Tat nicht verneinen. Wenn das 3DC nicht wäre, wäre ich wahrscheinlich noch mit dem alten XP2700+ und der 9800 Pro zufrieden. Aber wegen dem 3DC habe ich beides schon vor Zeiten verkauft. In der USA könnte ich bestimmt jetzt das 3DC verklagen deswegen... :biggrin:

SG

S3NS3
2005-07-19, 09:03:49
gib mir geld, aber zackzack:|

Hast doch ne "6800U" ...
Meine Leuts mit GF3/4 und sowas.

Mal ganz ernst... ne 9700Pro sollte ja wohl JEDER haben der aktuelle Games halbwegs zocken möchte.

Sagte ja nicht jeder SOLL ne 7800GTX haben, ne, aber jeder ne SM2.0 Karte sonst Pech.

S3NS3
2005-07-19, 09:09:42
Ich hoffe doch, dass die Ironie, die ich da herauszulesen vermag, auch so gemeint war. Die Einstellung "Wer nicht mindestens 1000€ pro Jahr für seinen Rechner ausgibt, der darf nicht spielen" ist nämlich meiner Meinung nach völliger Blödsinn. Das widerspricht meiner bescheidenen Meinung nach jedweder Ökonomie (und Vernunft).

Natürlich kann jeder so viel ausgeben wie er will, das ist sein gutes Recht. Da aber 90% der Leute nicht so handelt, muss man sich als gewinnorientierter Spielebauer danach richten ...

€dit: Ok, war wohl echt keine Ironie drin. X-D :|

MfG,
Raff

Ne, aber wer ne wirklich absolut veraltete Karte/PC hat sollte halt ausgeschlossen werden. Natürlich nur wenn dann aber auch entsprechende Grafik gezaubert wird. Ich meine weil sie dann ja z.B. SM2.0 voll nutzen könnten ohne rücksicht zu nehmen.

Was du schreibst würde eher zu "wer kein SM3.0 hat sollte nix zocken können" passen.

~ Soll nicht jeder NUR HighEnd haben. Es sollte jeder AKTUELLE HW haben wenn er aktuelle spitzentitel zocken möchte!

Kladderadatsch
2005-07-19, 09:33:28
Hast doch ne "6800U" ...
Meine Leuts mit GF3/4 und sowas.

tut nichts an der tatsache, dass 99% der bevölkerung mit dem wort ps2.0 absolut rein gar nichts anfangen können. wie willst du die dann davon überzeugen?

die geforce4 ist eine super karte; werde sie wohl heute mal wieder einbauen:)

super grobi hat das außerdem ganz anders ausgedrückt...

S3NS3
2005-07-19, 12:28:33
tut nichts an der tatsache, dass 99% der bevölkerung mit dem wort ps2.0 absolut rein gar nichts anfangen können. wie willst du die dann davon überzeugen?

die geforce4 ist eine super karte; werde sie wohl heute mal wieder einbauen:)

super grobi hat das außerdem ganz anders ausgedrückt...

Naja, drücke mich meisten bissel ... direkt ... aus ;)
Aber genau das meinte ich was du jetzt schreibst:

1. GF4 ist nicht mehr Toll sondern (meiner Ausdrucksweise nach ;) ) vollkommen unbrauchbar und
2. wer mit PS2.0 nichtmal was anfangen kann UND dazu keine solche Karte hat sollte nicht unbedingt berücksichtigt werden.

Habe jetzt einem bekannten einen Rechner fertig gemacht. Nen 1,6Ghz P4 mit ka-müll-Ati-Steinaltkarte. Aber ihn interessieren Games nicht. Will nur bissel Surfen und Excel klicken. Da ist das ok. Aber müssen die TOPTITEL heute rausbringen die notfalls auch noch bei ihm laufen würden? Nö !

Und überlege mal. Ne SM2.0 Karte, die 9700Pro z.B. habe ich vor ÜBER 2,5 Jahren gekauft und vor über einen halben Jahr verkauft weil so lahm das D3 nur in 800x600 zockbar war. Und selbst meine Ultra ist mir (ok.. MIR) nicht schnell genug. Und alle die ich kenne, auch teils kniepig wie sonst noch was haben sich seit diesem Jahr mindestens ne 6600GT zugelegt.

Das reicht ja auch. Rede ja nicht davon das jeder ne 78GTX haben muss. Aber ETWAS aktuell darfs doch schon sein, oder nicht?

Raff
2005-07-19, 14:43:36
Die beste Grafikkarte in meinem Freundeskreis ist eine Radeon 9800 Pro -- und die hat er sich auch nur gekauft, weil ich ihn von seiner FX-5200 weggeprügelt habe. ;) Der Rest hat eine GF4! Und die meisten haben null oder kaum Peilung, was genau Pixel-Shader sind ... Und das ist sicher keine Ausnahme: Die meisten Zocker wollen - genau - zocken, nicht die Technik dahinter bewundern. Ganz schlecht also mit SM2.0 als Grundlage ...

MfG,
Raff

storms18
2005-07-19, 14:48:57
Naja, drücke mich meisten bissel ... direkt ... aus ;)
Aber genau das meinte ich was du jetzt schreibst:

1. GF4 ist nicht mehr Toll sondern (meiner Ausdrucksweise nach ;) ) vollkommen unbrauchbar und
2. wer mit PS2.0 nichtmal was anfangen kann UND dazu keine solche Karte hat sollte nicht unbedingt berücksichtigt werden.

Habe jetzt einem bekannten einen Rechner fertig gemacht. Nen 1,6Ghz P4 mit ka-müll-Ati-Steinaltkarte. Aber ihn interessieren Games nicht. Will nur bissel Surfen und Excel klicken. Da ist das ok. Aber müssen die TOPTITEL heute rausbringen die notfalls auch noch bei ihm laufen würden? Nö !

Und überlege mal. Ne SM2.0 Karte, die 9700Pro z.B. habe ich vor ÜBER 2,5 Jahren gekauft und vor über einen halben Jahr verkauft weil so lahm das D3 nur in 800x600 zockbar war. Und selbst meine Ultra ist mir (ok.. MIR) nicht schnell genug. Und alle die ich kenne, auch teils kniepig wie sonst noch was haben sich seit diesem Jahr mindestens ne 6600GT zugelegt.

Das reicht ja auch. Rede ja nicht davon das jeder ne 78GTX haben muss. Aber ETWAS aktuell darfs doch schon sein, oder nicht?

Man kann mit einer GF4 heute noch sehr gut zocken!
D3 ging in 1024x768 alles ein auser aa&af auf mdd!
Und das mit 64mb!
Far Cry ging auf hohen det. in 1024x768.
Hl² auch auf hohen det.1024x768(da limitiert eindeutig der prozessor)
Und sonst ging sie auch super.
Ut03 schafft sie auf max. 1280x1024.

Nur weil ein paar wie du min. 100frames haben müssen damits nicht ruckelt heißts nicht das ne gf4 unbrauchbar ist.

The_Invisible
2005-07-19, 15:08:35
Naja, drücke mich meisten bissel ... direkt ... aus ;)
Aber genau das meinte ich was du jetzt schreibst:

1. GF4 ist nicht mehr Toll sondern (meiner Ausdrucksweise nach ;) ) vollkommen unbrauchbar und
2. wer mit PS2.0 nichtmal was anfangen kann UND dazu keine solche Karte hat sollte nicht unbedingt berücksichtigt werden.

Habe jetzt einem bekannten einen Rechner fertig gemacht. Nen 1,6Ghz P4 mit ka-müll-Ati-Steinaltkarte. Aber ihn interessieren Games nicht. Will nur bissel Surfen und Excel klicken. Da ist das ok. Aber müssen die TOPTITEL heute rausbringen die notfalls auch noch bei ihm laufen würden? Nö !

Und überlege mal. Ne SM2.0 Karte, die 9700Pro z.B. habe ich vor ÜBER 2,5 Jahren gekauft und vor über einen halben Jahr verkauft weil so lahm das D3 nur in 800x600 zockbar war. Und selbst meine Ultra ist mir (ok.. MIR) nicht schnell genug. Und alle die ich kenne, auch teils kniepig wie sonst noch was haben sich seit diesem Jahr mindestens ne 6600GT zugelegt.

Das reicht ja auch. Rede ja nicht davon das jeder ne 78GTX haben muss. Aber ETWAS aktuell darfs doch schon sein, oder nicht?

kauf dir halt einfach 2x7800GTX und ruhe ist :D

btw
finde es auch n bisschen krass das games als mindestanforderung schon 2.0 unterstützen sollen. es hat ja schon nen megaaufruhr gegeben das BF2 ne Karte mit PS1.4 verlangt (wo ja die ganzen Geforce4 user draußen sind), und dann gleich 2.0 ? :D

wie wärs den mal mit 1.1, da gibts ne sehr breite basis und kann man auch schönes hervorzaubern.

mfg

The_Invisible
2005-07-19, 15:16:52
Die beste Grafikkarte in meinem Freundeskreis ist eine Radeon 9800 Pro -- und die hat er sich auch nur gekauft, weil ich ihn von seiner FX-5200 weggeprügelt habe. ;) Der Rest hat eine GF4! Und die meisten haben null oder kaum Peilung, was genau Pixel-Shader sind ... Und das ist sicher keine Ausnahme: Die meisten Zocker wollen - genau - zocken, nicht die Technik dahinter bewundern. Ganz schlecht also mit SM2.0 als Grundlage ...

MfG,
Raff

jo, ist aber nun mal so

ottonormalverbraucher schaut entweder auf speicher, mhz oder aus/eingänge, das andere ist ihm (ziemlich) egal... was interessiert einem zocker auch was Pixelshader oder piplines sind, er will ein schnelles schönes bild... und was glaubt ihr wie blöd der schaut wenn da steht "ihre grafikkarte ist nicht PS2.0 fähig"

mfg

dildo4u
2005-07-19, 15:19:35
. es hat ja schon nen megaaufruhr gegeben das BF2 ne Karte mit PS1.4 verlangt (wo ja die ganzen Geforce4 user draußen sind), und dann gleich 2.0 ? :D

Klar Gleich SM2.0 wenn man 1.4 hat kann man auch Gleich sm2.0 als min setzen weils nur 1Karte Gibt die das überhaupt betrifft nämlich die 8500.

Narrenkönig
2005-07-19, 16:11:09
Klar Gleich SM2.0 wenn man 1.4 hat kann man auch Gleich sm2.0 als min setzen weils nur 1Karte Gibt die das überhaupt betrifft nämlich die 8500.
Nö, auch die 9000 & 9200.
Aber du hast natürlich recht. Ich bin auch der Meinung SM2.0 sollte Minimum sein. Ist aber unrealistisch. Immerhin T&L verschwindet langsam.

r@w
2005-07-19, 16:12:18
nö meinte das schon ernst. Wer eine 3 Jahre alte Graka hat (bitte überleg mal!) der sollte sich nicht wundern wenn nicht die allerneusten Games funktionieren. Das heute alt ist, was ich gestern gekauft habe, ist doch in der EDV nichts neues und wir sprechen hier von 3 Jahre!!!Darum geht es doch gar nocht...
Auch habe ich das mit folgendem Satz nicht gemeint:

"Solange immer noch viele Leutz mit GeForce 2 und Onboard-Grafik 'spielen'... wohl kaum."

Letztlich geht's hier einfach um die Spiele-Hersteller, die ihre teuren Titel auch gerne verkaufen würden. Einigen scheint das je herzlich egal, nur stellen diese die Ausnahme und nicht die Regel.

Ergo: wenn die Leutz keine alte Hardware mehr benutzen, dann müssen die Hersteller auch keine Rücksicht mehr darauf nehmen, um doch noch ein 'bissel' Kohle zu machen. Wer heute ein Spiel heraus bringt, welches z.Bsp. ausschließlich auf SM2-Hardware setzt, hat definitiv keinen Profit mehr im Sinn...

Razor

P.S.: Interessant ist auf jeden Fall so etwas wie SplinterCell CT. Da setzt der Hersteller schon einen recht geringen Level an (SM1.1) und bietet aber auch einen HighTech-Level an (SM3) und schon maulen alle ATI-Besitzer (interessanter Weise nicht mal die nVidia-FX-User!), dass 'Ihr' Kärtchen nicht voll unterstützt wird... und fühlten sich betrogen. Wirklich interessant...

Raff
2005-07-19, 16:25:13
P.S.: Interessant ist auf jeden Fall so etwas wie SplinterCell CT. Da setzt der Hersteller schon einen recht geringen Level an (SM1.1) und bietet aber auch einen HighTech-Level an (SM3) und schon maulen alle ATI-Besitzer (interessanter Weise nicht mal die nVidia-FX-User!), dass 'Ihr' Kärtchen nicht voll unterstützt wird... und fühlten sich betrogen. Wirklich interessant...

Wobei das IMHO genau der richtige Weg ist. Man bietet allen die Möglichkeit zu zocken und dazu noch einen Eye-Candy-Mode für die neueste Hardware. Dann kann jeder selbst entscheiden, ob er es braucht und was neues kauft.

Leider kostet dieser Weg mehr Zeit und Geld. Sollte es aber wert sein, da man auch mehr verkauft ...

MfG,
Raff

Cyv
2005-07-19, 16:37:59
Örks.
Wo gibts denn diese Leuchtringe bei MadmodMike?
das will ich mir mal anschaun plz

kthxplz

Raff
2005-07-19, 16:39:09
Einfach erst den normalen Spaß durchlaufen lassen, danach kommen die einzelnen Features, darunter auch das. :)

MfG,
Raff

Cyv
2005-07-19, 16:39:40
Dann startet das ganze bei mir von neu :confused:

habs, man drückt einfach auf effektmode und fertig :D

Nice ;)

S3NS3
2005-07-19, 16:45:49
@All: ( ;) )

Jo, mir sind die gründe der Entwickler klar. Aber es wäre vernünftig. Zumindest für die Quali der Grafik! Und sehe es nicht so ein steinalte Hardware unterstützen zu müssen. Habe teuer Geld für meine bezahlt und sehe teils aus diesen gründen keine HighEnd- Grafik die theoritisch möglich wäre !

Und ne GF4 kann nicht alles so gut darstellen. Belügt euch doch nicht ! Fand die schon damals vor 2,5 Jahren nicht so Top als ich die 9700Pro gekauft hatte.
Natürlich hatte die damals aber schon ihre Daseinsberechtigung ! Logisch! Aber...
In D3 fehlten Shader, wie das Glas. Und fehlen EINES Features ist schon das KO-Kriterium. Das selbe wie Farcry, habs gesehn bei Kumpels, sah ja schlimm aus. Sagten die auch und haben damals ne 9800Pro gekauft!
Gut, denke UT2k3 wird echt gut laufen, nur das ist ja nunmal auch sehr alt!

Für mich ist die einwandfrei felsenfest veraltet, lahm, kaum Features und heute nicht mehr Spieletauglich! Als notlösung schon (Graka kaputt und auf ersatz warten oder so), aber nicht so richtig!

Und mir 2 7800ér zu kaufen habe ich schon ernsthaft durchgerechnet..
aber für mich nicht bezahlbar, wäre ich ja panne !
Müsst ich meinen 6Monate alten PC verticken und ca 3000€ für neue komponenten ausgeben. Also wenn dann ja schon ein AMD4800x2 usw für solche Karten damit man die auch nutzen kann!
Also ne ! Lass mann, eine 6800U ist noch Ok bis nächstes Jahr.

Geplant ist nächstes Jahr nen SLI-System mit DualCore P-M ! Nice wäre auchn DualCore P-M Xeon im Dual ;D Soll ja sowas kommen. Aber denke unbezahlbar....
Aber noch ka, mal schaun wenn soweit ist....

Und die die ich kenne haben fast alle ne 6800Ultra. Drei ne GT und einer zwei 6600GT´s (Rollenspieler, hat 2PC´s, Synchrongaming... :ugly: ).

Ich meine... macht was ihr denkt ! Ich prangere das ja nicht an. Aber ich würds begrüssen! Und wenn jemand ne GF4 hat, so noob ist nichtmal zu wissen das es eine GF4 ist, geschweige denn was für PS die drauf hat hat mal echt Pech ! Solle mal aufrüsten oder halt alte Games zocken!
Ich sage ja nicht das ein PC max 1 Jahr neue Games darstellen können soll. Würd sagen.... Hmmmm ... 2- max 3 Jahre wenn bei Kauf HighEnd war. Aber ne 4-5 Jahre alte Karte gehört in den Müll (bei GAMERN!!).

Seh ich halt so....

Einen kenne ich auch Persönlich, blossssss keinen € für was bezahlen. Mich bekloppt nennen ABER dann dumm gucken das z.B. BF2 mehr hakt als ne Diashow und das bei Mitteldetail. Da sage ich dann nur: ACHNEEEEE, UIIIIIIIII, wasse nicht sagst... koooomischhhh. Hast wahnsinns 512Mb Ram und ne 9700Pro und lüppt nicht gut?? Aber ich übertreibe ja, bin ja bekloppt, lohnt ja alles nicht zu Kaufen... ;)

Dieser jenige hats dann aber auch eingesehen und sich nochn Gig RAM (Kost ja nix) dabei gekauft und ne 6800GT. Is doch schon was echt solides!Auch wenns gedauert hat...

storms18
2005-07-19, 17:29:36
@All: ( ;) )

Jo, mir sind die gründe der Entwickler klar. Aber es wäre vernünftig. Zumindest für die Quali der Grafik! Und sehe es nicht so ein steinalte Hardware unterstützen zu müssen. Habe teuer Geld für meine bezahlt und sehe teils aus diesen gründen keine HighEnd- Grafik die theoritisch möglich wäre !

Und ne GF4 kann nicht alles so gut darstellen. Belügt euch doch nicht ! Fand die schon damals vor 2,5 Jahren nicht so Top als ich die 9700Pro gekauft hatte.
Natürlich hatte die damals aber schon ihre Daseinsberechtigung ! Logisch! Aber...
In D3 fehlten Shader, wie das Glas. Und fehlen EINES Features ist schon das KO-Kriterium. Das selbe wie Farcry, habs gesehn bei Kumpels, sah ja schlimm aus. Sagten die auch und haben damals ne 9800Pro gekauft!
Gut, denke UT2k3 wird echt gut laufen, nur das ist ja nunmal auch sehr alt!

Für mich ist die einwandfrei felsenfest veraltet, lahm, kaum Features und heute nicht mehr Spieletauglich! Als notlösung schon (Graka kaputt und auf ersatz warten oder so), aber nicht so richtig!

Und mir 2 7800ér zu kaufen habe ich schon ernsthaft durchgerechnet..
aber für mich nicht bezahlbar, wäre ich ja panne !
Müsst ich meinen 6Monate alten PC verticken und ca 3000€ für neue komponenten ausgeben. Also wenn dann ja schon ein AMD4800x2 usw für solche Karten damit man die auch nutzen kann!
Also ne ! Lass mann, eine 6800U ist noch Ok bis nächstes Jahr.

Geplant ist nächstes Jahr nen SLI-System mit DualCore P-M ! Nice wäre auchn DualCore P-M Xeon im Dual ;D Soll ja sowas kommen. Aber denke unbezahlbar....
Aber noch ka, mal schaun wenn soweit ist....

Und die die ich kenne haben fast alle ne 6800Ultra. Drei ne GT und einer zwei 6600GT´s (Rollenspieler, hat 2PC´s, Synchrongaming... :ugly: ).

Ich meine... macht was ihr denkt ! Ich prangere das ja nicht an. Aber ich würds begrüssen! Und wenn jemand ne GF4 hat, so noob ist nichtmal zu wissen das es eine GF4 ist, geschweige denn was für PS die drauf hat hat mal echt Pech ! Solle mal aufrüsten oder halt alte Games zocken!
Ich sage ja nicht das ein PC max 1 Jahr neue Games darstellen können soll. Würd sagen.... Hmmmm ... 2- max 3 Jahre wenn bei Kauf HighEnd war. Aber ne 4-5 Jahre alte Karte gehört in den Müll (bei GAMERN!!).

Seh ich halt so....

Einen kenne ich auch Persönlich, blossssss keinen € für was bezahlen. Mich bekloppt nennen ABER dann dumm gucken das z.B. BF2 mehr hakt als ne Diashow und das bei Mitteldetail. Da sage ich dann nur: ACHNEEEEE, UIIIIIIIII, wasse nicht sagst... koooomischhhh. Hast wahnsinns 512Mb Ram und ne 9700Pro und lüppt nicht gut?? Aber ich übertreibe ja, bin ja bekloppt, lohnt ja alles nicht zu Kaufen... ;)

Dieser jenige hats dann aber auch eingesehen und sich nochn Gig RAM (Kost ja nix) dabei gekauft und ne 6800GT. Is doch schon was echt solides!Auch wenns gedauert hat...

Far Cry sieht bei mir kein bischen besser aus als auf der gf4.
Und das glas und der heat hize effekt fällt dir im kampf eh nicht auf.

Und nicht jeder hat das geld sich jedes jahr ne neue graka zu kaufen!

Und nicht zu vergessen die ganzen leute die sich deken ich kauf meinem sohn einen pc und dann so ein teil mit ner gf4mx(gibs noch!) nur weil der verkäufer sagt ja ganz top voll spiele tauglich.

Super Grobi
2005-07-19, 17:36:36
Far Cry sieht bei mir kein bischen besser aus als auf der gf4.
Und das glas und der heat hize effekt fällt dir im kampf eh nicht auf.

Und nicht jeder hat das geld sich jedes jahr ne neue graka zu kaufen!

Und nicht zu vergessen die ganzen leute die sich deken ich kauf meinem sohn einen pc und dann so ein teil mit ner gf4mx(gibs noch!) nur weil der verkäufer sagt ja ganz top voll spiele tauglich.

Doll, aber dewegen kann man eine Graka dann ruhig 5 Jahre nutzen und erwarten das alles funtzt, gelle?

SG

p.s.
von jedem Jahr hat keiner gesprochen, aber man sollte doch hin und wieder mal etwas am PC erneuern, oder sich damit abfinden das nicht alles funtzt

Michi02
2005-07-19, 19:28:48
Hi, wenn ich die Luna Demo starten will, dann kommt ne Fehlermeldung wo drin steht das ich eine 6800 mindestens brauche..

Aber hab ne Nvidia 6800 GT von Asus (128MB Version)

Super Grobi
2005-07-19, 19:31:02
Hi, wenn ich die Luna Demo starten will, dann kommt ne Fehlermeldung wo drin steht das ich eine 6800 mindestens brauche..

Aber hab ne Nvidia 6800 GT von Asus (128MB Version)

Steht da das du min. ne 6800 brauchst, oder das du eine 6800GT brauchst?

Was Asus dir da als GT verkauft hat ist nämlich eine Frechheit! Eine 68GT hat 256MB Ram und ich denke das es VIELEICHT dran liegen könnte.

SG

Michi02
2005-07-19, 19:34:10
Also ich brauch mindestens ne 6800 steht da.

Ich hab die Version mit DDR1 128Mb die bei Alternate im Angebot war... :rolleyes:

Spasstiger
2005-07-19, 19:34:38
Steht da das du min. ne 6800 brauchst, oder das du eine 6800GT brauchst?

Was Asus dir da als GT verkauft hat ist nämlich eine Frechheit! Eine 68GT hat 256MB Ram und ich denke das es VIELEICHT dran liegen könnte.

SG

Richtig, liegt mit Sicherheit am VRam-Mangel, weil die Demo eigentlich 256 MB VRam verlangt. Man kann aber einfach die AGP Aperture Size auf 256 MB stellen, dann funzt es auch mit 128 MB Karten.

Michi02
2005-07-19, 19:37:37
Daran hab ich auch schon gedacht.. weil diese Karte ja nicht wie ne Normale "6800 GT" ausgestattet ist..

Danke für die schnellen Antworten!

Dauerunreg
2005-07-19, 20:08:47
...
Was Asus dir da als GT verkauft hat ist nämlich eine Frechheit! Eine 68GT hat 256MB Ram und ich denke das es VIELEICHT dran liegen könnte.

SG

Sehr anmassend solch aussagen zu tätigen.

Ist eben eine günstigere gt, und als die 256mb gt's dermassen teuer angeboten wurden, wars eine günstige alternative.

Ich bin froh keine 500 EU hingeblättert zu haben, und dennoch die neuen features nutzen zu können.

Und hättest du den ganzen thread gelesen, wüsstest du dass beide techdemos auf der 128 mb asus v9999gt laufen.

Also nicht so herablassend, freu dich wenn du dir mehr ausstattung leisten kannst, aber lass andere auch in dem gefühl, für sich das richtige getan zu haben.

Raff
2005-07-19, 20:14:04
Sicher, billiger und langsamer -- macht Sinn. Aber wenn ich dauernd sehe, wie übel meine übertaktete non-Ultra an ihrem 128 MiB-VRAM verhungert, suche ich nach dem Sinn einer noch stärkeren GPU als Partner. Natürlich hat sie Vorteile, wenn man auf HQ-AF und/oder SSAA steht ... aber bei 4xAA bricht die Leistung oft mehr als übel ein (verglichen mit der 256 MiB-Schwester) ...

Was ich sagen will: Was GT heißt, soll auch 256 MiB bekommen. Einfach, um die starke GPU nicht zu bremsen. :) Sonst hat man weniger Spaß an der Karte und manche fühlen sich vielleicht wegen des Namens veräppelt.

MfG,
Raff

Gast
2005-07-19, 20:16:37
Sehr anmassend solch aussagen zu tätigen.

Ist eben eine günstigere gt, und als die 256mb gt's dermassen teuer angeboten wurden, wars eine günstige alternative.

Ich bin froh keine 500 EU hingeblättert zu haben, und dennoch die neuen features nutzen zu können.

Und hättest du den ganzen thread gelesen, wüsstest du dass beide techdemos auf der 128 mb asus v9999gt laufen.

Also nicht so herablassend, freu dich wenn du dir mehr ausstattung leisten kannst, aber lass andere auch in dem gefühl, für sich das richtige getan zu haben.

Willst damit sagen das, dass doch mit der Karte gehen soll!? Und das meine Schrott ist? Oder wie seh ich das? :P

Michi02
2005-07-19, 20:17:01
Willst damit sagen das, dass doch mit der Karte gehen soll!? Und das meine Schrott ist? Oder wie seh ich das?

Dauerunreg
2005-07-19, 20:19:20
Willst damit sagen das, dass doch mit der Karte gehen soll!? Und das meine Schrott ist? Oder wie seh ich das?

Ich will sagen das die demos mit der karte gehen , ja.

Warum das jetzt bei dir nicht läuft, kann ich von hier doch nicht sagen.

Vielleicht ein software prob, oder eine einstellung, was weiss ich, aber es ist möglich mit dieser karte die demos laufen zu lassen.

Michi02
2005-07-19, 20:23:02
Aber nen Hardwareproblem kanns net sein? Oder doch? Wenn ja dann weg mit der Karte... :P

Dauerunreg
2005-07-19, 20:24:40
Sicher, billiger und langsamer -- macht Sinn. Aber wenn ich dauernd sehe, wie übel meine übertaktete non-Ultra an ihrem 128 MiB-VRAM verhungert, suche ich nach dem Sinn einer noch stärkeren GPU als Partner. Natürlich hat sie Vorteile, wenn man auf HQ-AF und/oder SSAA steht ... aber bei 4xAA bricht die Leistung oft mehr als übel ein (verglichen mit der 256 MiB-Schwester) ...

Was ich sagen will: Was GT heißt, soll auch 256 MiB bekommen. Einfach, um die starke GPU nicht zu bremsen. :) Sonst hat man weniger Spaß an der Karte und manche fühlen sich vielleicht wegen des Namens veräppelt.

MfG,
Raff

Mit AA und AF mag sie ab einer gewissen auflösung langsamer sein.

Auch mit aktuellen titeln wird es vielleicht langsam eng, aber zum erscheinungstermin war sie vollends ausreichend.

Und spass habe ich auch mit 128 mb, sogar mehr weil einige eu's gespart habe damals.

Also lasst mir den spass.

Raff
2005-07-19, 20:25:49
Aber nen Hardwareproblem kanns net sein? Oder doch? Wenn ja dann weg mit der Karte... :P

Hast du denn die Aperture-Size auf 256 MiB (oder mehr ;)) gestellt? Das muss laufen, wenn hier sogar 6600GTs was auf den Schirm bringen. Ansonsten mal den neuesten Treiber (77.72 WHQL) probieren.

Mit AA und AF mag sie ab einer gewissen auflösung langsamer sein.

Auch mit aktuellen titeln wird es vielleicht langsam eng, aber zum erscheinungstermin war sie vollends ausreichend.

Und spass habe ich auch mit 128 mb, sogar mehr weil einige eu's gespart habe damals.

Also lasst mir den spass.

Klar. :) Ich wollte nur die Defizite aufzeigen, weil ich selbst mit der Kombination auf meiner Karte unzufrieden bin. Das ist fast wie ... wie ... eine 256 MiB-Karte mit einem Quad ... X-D

MfG,
Raff

Michi02
2005-07-19, 20:29:27
Wo kann ich das einstellen? Diesen Treiber benutz ich ja... ;)

Dauerunreg
2005-07-19, 20:29:40
Aber nen Hardwareproblem kanns net sein? Oder doch? Wenn ja dann weg mit der Karte... :P

Was läuft denn sonst noch alles nicht?

Sind die techdemos so wichtig?

Sicher ist es am besten du machst das mit dir selber aus, denn nur du weisst was für dich wichtig ist, und was dafür ausgeben willst.

Good luck.

Raff
2005-07-19, 20:30:23
Wo kann ich das einstellen? Diesen Treiber benutz ich ja... ;)

Im Mainboard-BIOS.

MfG,
Raff

Michi02
2005-07-19, 20:31:46
Naja war zufrieden mit der Leistung sonst läuft ja alles.. wollt ja auch ma die Techdemos selbst vor mir sehen.. (keine Movies) die F.E.A.R. Beta läuft jetzt auch ruckelfrei. Und dies hatte ich mit meiner 9800 Pro net.. :(

Dauerunreg
2005-07-19, 20:35:51
...
Klar. :) Ich wollte nur die Defizite aufzeigen, weil ich selbst mit der Kombination auf meiner Karte unzufrieden bin. Das ist fast wie ... wie ... eine 256 MiB-Karte mit einem Quad ... X-D

MfG,
Raff
Man könnte auf jeder karte was finden, was nicht so perfekt ist.

Es gab viel stirnruntzeln damals, aber für mich die gelegenheit bezahlbares high end zu ergattern.

Und diskussionen darüber gibt es doch sicher schon zu viele. :)

Be happy.

Gast
2005-07-19, 21:54:05
Hallo,
ich wollte fragen wie die Demos (wie viel FPS) mit einem:
Athlon64 3500+ @ 2600+
2Gb Ram
7800GTX @ 470/1300
Rechner laufen würden. Komme ich das über 20-25 frames bei 1.280x1.024?
Und, sind die Frames der Demos vergleichbar mit denen die man zB bei Ut2k7 auf der selben Auflösung rausholen wird?

Ice =A=
2005-07-20, 04:35:16
Nein, mit Deiner Billiggrafikkarte kommst Du nie in den zweistelligen Frame-Bereich!
Im Ernst: Du hast die schnellste Grafikkarte, die's zur Zeit gibt (und übertaktet) und das ungefähre Äquivalent eines Athlon 4100+. Was glaubst Du?!
Ich geh auch davon aus, daß das bei Ut2k7 reichen müßte!

Razor
2005-07-20, 05:47:11
Wobei das IMHO genau der richtige Weg ist. Man bietet allen die Möglichkeit zu zocken und dazu noch einen Eye-Candy-Mode für die neueste Hardware. Dann kann jeder selbst entscheiden, ob er es braucht und was neues kauft.

Leider kostet dieser Weg mehr Zeit und Geld. Sollte es aber wert sein, da man auch mehr verkauft ...

MfG,
Raff100% Ack!
:up:

Razor

Razor
2005-07-20, 05:58:45
@S3NS3

Sorry, aber Du bringst hier einfach viel zu viel durcheinander...

- nur weil Du "teuer Geld" für Deine GraKa ausgegeben hast, sollen andere auf Qualität (oder gar Spielbarkeit) verzichten?
(anders herum wird ein Shuh draus, wie Du ja weißt - Dein Problem, wenn Du "teuer Geld" raus tust ;-)

- als die R9700p heraus kam, war die gf4 schon alt
(die FX von nVidia verspätete sich massiv)

- Doom3 kam viiiiiiiel später als gf4/R300...
( das war zu Zeiten von FX5900/6800 und da war der R300 schon alt)

- eine 6800U ist schon jetzt - hinsichtlich der Performance - altes Eisen
(von fehlenden Features ganz zu schweigen)

Was würdest Du denn sagen, wenn plötzlich Games kommen würden, die die Rohpower einer 7800 und eine mit mind. 512MB ausgestattet GraKa benötigen? Dann wärst Du ziemlich in den Anus gekniffen, nicht wahr? Aber klar... man ist sich ja immer selbst der nächste, nicht wahr?

Also echt...

Doll, aber dewegen kann man eine Graka dann ruhig 5 Jahre nutzen und erwarten das alles funtzt, gelle?

von jedem Jahr hat keiner gesprochen, aber man sollte doch hin und wieder mal etwas am PC erneuern, oder sich damit abfinden das nicht alles funtztIch würde nicht erwarten, dass alles 'toll' läuft...
Aber laufen sollte es, ja!

Leute, Ihr quatscht hier echt völlig an der Realität vorbei.

Razor

Razor
2005-07-20, 06:02:26
.

Razor
2005-07-20, 06:12:41
Was ich sagen will: Was GT heißt, soll auch 256 MiB bekommen. Einfach, um die starke GPU nicht zu bremsen. :) Sonst hat man weniger Spaß an der Karte und manche fühlen sich vielleicht wegen des Namens veräppelt.Kommt auf die Auflösung an...
Bei 1024 schlicht falsch, 1280 ist ein Grenzfall und bei 1600 absolut richtig.

GT oder nicht ist ziemlich wurscht.
Die 256MB braucht's tatsächlich nur für hohe Auflösungen und/oder analog vieeel (SS)AA...
...und da geht auch einer GT oder U schon oft "die Luft aus".

Die Demos laufen auf meiner 128MB 6800LE @ 12x1,6vp 360/880 (für gerade mal 170 Tacken ;-) absolut zufriedenstellend!
Und als Treiber nutze ich derzeit den 77.30.
:up:

Razor

P.S.: Ohne oder mit nur wenig AA selbstredend... ;)

S3NS3
2005-07-20, 06:27:20
@S3NS3

Sorry, aber Du bringst hier einfach viel zu viel durcheinander...

- nur weil Du "teuer Geld" für Deine GraKa ausgegeben hast, sollen andere auf Qualität (oder gar Spielbarkeit) verzichten?
(anders herum wird ein Shuh draus, wie Du ja weißt - Dein Problem, wenn Du "teuer Geld" raus tust ;-)

- als die R9700p heraus kam, war die gf4 schon alt
(die FX von nVidia verspätete sich massiv)

- Doom3 kam viiiiiiiel später als gf4/R300...
( das war zu Zeiten von FX5900/6800 und da war der R300 schon alt)

- eine 6800U ist schon jetzt - hinsichtlich der Performance - altes Eisen
(von fehlenden Features ganz zu schweigen)

Was würdest Du denn sagen, wenn plötzlich Games kommen würden, die die Rohpower einer 7800 und eine mit mind. 512MB ausgestattet GraKa benötigen? Dann wärst Du ziemlich in den Anus gekniffen, nicht wahr? Aber klar... man ist sich ja immer selbst der nächste, nicht wahr?

Also echt...

Razor

Ich werfe nichts durcheinander ! Stimme dir in den meisten Punkten zu. Mit GF4/r300/D3 wusste ich auch. Hab maybe Zeitlich bissel durcheinander gelabert.

Und ich seh da was ;) Stimmst mir also zu das die GF4 schon vor über 2,5 Jahren alt war ;)

Und andere sollen bestimmt nicht superteuere Grakas kaufen das ich schön zocken kann.... löl, aber sollen ne vernünftige kaufen wennse was sehen wollen und nicht auf (nurn bsp.) einer GF4 verharren und absolut meinen das die Top ist. Also verzichten sollense nur wennse meinen das ne GF4 und auch ne r300 Top ist.

Und ja, meine "U" is schon wieder veraltet. Heizung, relativ lahm, relativ laut, kein TransparenzAA. Passt mir auch nicht ;)
Aber wie gesagt, müsste meinen Rechner verkloppen obwohl der für 3DRendering (wo er für gekauft war) Top ist und tausende € in den neuen Stecken. Achnööö, aber in ca 1 Jahr nomma umschaun!
Überspring ich die 78ér.

Ronin2k
2005-10-31, 11:09:37
welche zeile muss i ändern in der args.txt um meine eigene auflösung an start zu bekommen :redface: ich bekomms net gebacke

DrFreaK666
2007-05-16, 11:34:23
args.txt editieren, aber vorher schreibschutz entfernen. is eh gut beschrieben.

btw, so sieht meine Zeile aus

1920 1200 1920 1200 1.0 true

die ersten beiden sind die Windows-GAME-Auflösung, die beiden dahinter die Bildauflösung (wenn die kleiner ist, gibts schwarze Ränder), dann die Verzerrung, was bei mir 1.0 ist, weil die Auflösung eh schon widescreen ist, und danach true für fullscreen.

Also ich hab immer noch keine Ahnung wie das geht :-(

wo tip ich das ein?