PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : thema 3dfx: "gefühlte" und gemessene frames


Modemaus
2003-10-16, 22:50:00
hallo

im impressum steht man soll fragen und anregungen im forum posten.
eine sache geht mir seit jahren nicht aus dem sinn: wieso "fühlen" sich 20 frames auf einer v5-5500 so schnell an wie 50-60 frames zb einer gforce?

ich habe die frage hier schon mal gestellt, mit einigen erklärungsvorschlägen: http://www.voodooalert.de/wbb2/thread.php?threadid=4459&sid=

ich fände es prima wenn jemand vom 3d-center der frage mal nachgehen könnte :)

LOCHFRASS
2003-10-16, 22:56:59
UT? Wenn ja, da ist der Frame-Counter im Arsch, der misst auf einer Voodoo nur die Hälfte der FPS.

Modemaus
2003-10-16, 23:02:47
nich ut, prinzipiell. ich wollte jetzt nicht meinen ausgangspost von voodooalert komplett zitieren- mich interessiert nur warum sich die v5 so "smooth" anfühlt ohne dass sie -ganz allgemein- hohe frameraten liefert.

beim beispiel ut spielen sich die 70 frames der v5 wesentlich geschmeidiger als die 250 frames der g4, hab ich beide schon gehabt und spiele inzwischen wieder nur noch mit der voodoo.

auf voodooalert wurde bemerkt dass die voodoo die frames gleichmässig über die sekunde verteilt liefert, während ati oder nvidia karten "spitzen" liefern und so ein ruckeliges gefühl aufkommt.
wenn ich aber vsync anmyche dürfte das gar nicht sein.

im 3d-center gibts doch oft gute beiträge, ich fände das mal ne anspruchsvolle fragestellung :)

Piffan
2003-10-16, 23:08:33
Also ich habe das auf meiner Voodoo2- SLI auch gemerkt...aber die Erklärung ist recht simpel: ich wusste damals nicht, das vsync so einen gewaltigen Einfluss auf den "runden Lauf" eines Spieles hat....

Ist vsync ON, dann schwanken die FPS- Zahlen recht krass in Spielen zwischen voller und halber Monitorfrequenz, es wirkt holperig/ruckelig.

Ist vsync OFF, dann entsprechen die FPS- Schwankungen den normalen Schwankungen des Spieles, also je nach Sicht, Gegnerzahl und Objekten.......

Nun ist es ein schönes Feature der Voodoos gewesen, dass man Triple- Buffering erzwingen kann. Unter UT (Glide- Game) oder auch Unreal 1 (Glide) war die Performance dank Triple smooth....

Um auf anderer Hardware unter D3D eine ähnlich glatte Peformance zu erreichen, muss man halt vsync deaktivieren...(Unter OpenGl kann man Triple Buffering auf den Radeon erzwingen, rtool machts möglich)

PS: Hört endlich mit dem Jammern auf. 3Dfx war einmal und aus die Maus...

Mr. Lolman
2003-10-16, 23:14:51
Ist mir auch schon aufgefallen. Und zwar in der Richtung, dass auf der Voodoo 25fps sich ca. so wie 40 Radeon fps anfühlen. Warum das so ist weiss ich nicht.

Deswegen war ich auch unter Anderem vom Umstieg von der V5 zur Radeon 8500 nicht so sehr begeistert, wie ich es eigentlich erwartet hatte. (Dazu kam noch, dass das AA der 8500 zum vergessen war und 32bit ggü. 22bit nicht soviel besser aussah wie immer gepredigt wurde.)

Also rein vom Gefühl her, war meine Radeon 8500 - Q3a abgesehen - eine Voodoo5 mit ~200MHz Takt und AF for free. (Natürlich gabs T&L Aussreisser nach oben:))


edit: OK nach Piffans Post ist mir das etwas klarer. Aber das der Unterschied nur am V-Sync/Tripplebuffer liegt

Mr. Lolman
2003-10-16, 23:18:22
Original geschrieben von LOCHFRASS
UT? Wenn ja, da ist der Frame-Counter im Arsch, der misst auf einer Voodoo nur die Hälfte der FPS.

Tatsächlich ? Wenn das stimmt, dann geh ich an die Decke. Nachundnach kommen immermehr Sachen ans Tageslicht, die die allgemeine Akzeptanz der letzten Voodoo Reihen deutlich minderten. (256^2 Texturen, 22bit Grafik, kein T&L, u.s.w...)

LOCHFRASS
2003-10-16, 23:43:33
Original geschrieben von Mr. Lolman
Tatsächlich ? Wenn das stimmt, dann geh ich an die Decke. Nachundnach kommen immermehr Sachen ans Tageslicht, die die allgemeine Akzeptanz der letzten Voodoo Reihen deutlich minderten. (256^2 Texturen, 22bit Grafik, kein T&L, u.s.w...)

http://people.freenet.de/lochfrass/ut_v3_d3d.png

Der Screenshot sagt wohl alles, mit der GF4 sind die FPS in Ordnung.

(Nicht über die niedrigen FPS wundern, ich hab gerade nur einen K6-2 450 zur Verfügung)

LOCHFRASS
2003-10-16, 23:55:31
Irgendwie ist das Forum verbuggt, zeigt es meinen letzten Post doch gar nicht in der Board-Übersicht an...

Quasar
2003-10-17, 00:29:20
GLide oder D3D/oGL?

LOCHFRASS
2003-10-17, 00:34:20
D3D, in Glide und OGL besteht das Problem aber auch.

Modemaus
2003-10-17, 00:35:26
Original geschrieben von Quasar
GLide oder D3D/oGL?

egal, morrowind, gothic, ut - überall das selbe

zum vergleich der ansätze vielleicht auch mal in den genannten link klicken, die vorschläge dort sind ganz andere als hier

wrdaniel
2003-10-17, 01:36:29
spiele immer noch UT/Mods mit meiner Voodoo5k5 und die Frameanzeige ist in Ordnung.

aths
2003-10-17, 01:37:01
Original geschrieben von Piffan
PS: Hört endlich mit dem Jammern auf. 3Dfx war einmal und aus die Maus... Wahrer Kult stirbt nie. (Bete heute und morgen je zehn Rosenkränze, und dir mag vergeben werden.)

Original geschrieben von Modemaus
hallo

im impressum steht man soll fragen und anregungen im forum posten.
eine sache geht mir seit jahren nicht aus dem sinn: wieso "fühlen" sich 20 frames auf einer v5-5500 so schnell an wie 50-60 frames zb einer gforce? Ich habe Shooter seit Banshee-Zeiten vorwiegend mit 60+ fps gespielt. Bei Shootern wären mir, Voodoo hin, 3dfx her, 20 oder 30 fps viel zu wenig.

Ailuros
2003-10-17, 03:52:22
Ich habe Shooter seit Banshee-Zeiten vorwiegend mit 60+ fps gespielt. Bei Shootern wären mir, Voodoo hin, 3dfx her, 20 oder 30 fps viel zu wenig.

Genau. Als Unreal Tournament es damals auf die Regale schaffte war 1024*768 mit einem Mendocino Celeron @500MHz nicht spielbar IMO mit einer V3 3k. Mit einem 933MHz P3 spaeter dann schon.

Muss man hier ueberhaupt noch hinzufuegen dass UT sehr CPU abhaengig war?

aths
2003-10-17, 05:56:11
Ergänzung: Für die 60 fps spielte ich mit der Banshee UT in 640x480, ohne Detail Textures. Mit der Voodoo4 waren 60-75 fps in 1024x768 mit Detail Textures möglich. Gelegentlich ließ ich die Detail Textures weg, und schaltete 2x FSAA dazu — der "HSR-Treiber" hat's möglich gemacht. (War so ziemlich das einzige Spiel, wo dieses Software-HSR nicht zu massiven Grafikfehlern führte.) (60 fps konnte man so natürlich, HSR hin oder her, vergessen.)

Modemaus
2003-10-17, 08:39:38
hmmm...
hab das gefühl mein anliegen kommt nicht ganz rüber...

es geht nicht darum dass die v5 total veraltet ist und nur wenig frames liefert, das ist doch eh klar.

ich frage mich warum diese subjektive differenz da ist (smoothness) die sich nicht messen lässt und die bisher auch keine beachtung fand. um das ganze ein wenig von 3dfx zu lösen: mit der parhelia sollen sich angeblich weniger frames auch "smoother" anfühlen. ich hab leider keine um das zu testen.

3d-center hab ich in meinen favoriten ua. wegen der genialen hardware reviews, weil ich auch zu den leuten gehöre die max qualität vor max frames stellen.

meine persönliche beobachtung war nun, und die deckt sich mit der von anderen, dass die gemessene frame zahl, auf die sich verständlicherweise jeder artikel beruft, nicht so aussagekräftig zu sein scheint wie sie eigentlich sein müsste.

und dafür muss es einen grund geben, einen grund auf der hardwareseite. deswegen hab ich das hier ins 3d-center forum gestellt, weil mich einfach interessiert warum das so ist- dass es so ist ziehe ich nicht mehr in zweifel weil viele andere leute den selben eindruck haben. dieser beobachtung wurde bisher noch in keinem mir bekannten review beachtung geschenkt, ausser dem hier in einem nebensatz:
http://www.worldofff.com/hardware-news/index.php?inhalt=hardware/tests/voodoo5.woff

die entscheidende passage:

"
Laut den Benchmarkwerten kann man hier mit der Voodoo 5 nur noch eingeschränkt flüssig spielen, [...]

Die Werte der Voodoo 5 konnten wir während des Spielens an sich nicht nachvollziehen. Das Spiel lief komplett flüssig.
"

den erklärungsansatz hier im thread mit vsync konnte ich nicht verifizieren, das gefühl eines "mikroruckelns" hab ich bei der g4 auch mit 250 frames und vsync on oder off.

schliesslich ist "ruckelfrei" eines der hauptkriterien für qualität- was nützen mir 300 frames wenn ich dauernd das gefühl eines winzigen ruckelns habe?

vielleicht muss ich dazu sagen, dass ich 80hz immer noch flimmern sehe, also zu den besonders empfindlichen personen gehöre- vielleicht ist es ja auch einfach so dass dieser effekt von vielen leuten gar nicht wahrgenommen wird?

dass die frage hochaktuell ist möchte ich dadurch illustrieren dass ich mir überlege eine radeon 9800 zu kaufen- wird es mir da so gehen wie mr. lolman mit seiner 8500? oder mir selber mit meiner g4-4200?
im nachhinein war die karte ein kompletter fehlkauf, die v5 hätte es bis auf die neuen spiele mit u2 engine auch getan- das hat nun wirklich nichts mit gejammere zu tun.

grüsse modemaus

Gast
2003-10-17, 09:30:04
Das kann daran liegen das z.B. in UT oft ein Stuttering Problem bestand (mit vielen Karten) und dieses sich auch in vielen anderen Spielen wiederspiegelt.

Vielleicht hatten die Voodoo Karten auch das Bild anders "gesendet" . Sprich natürlich einmal durch triple buffer (es werden somit mehrere Frames vorberechnet und dann das Signal an den Monitor gesendet) , geht afaik auf so ziemlich jeder Karte einzustellen und vielleicht gab es eine Art Frame Backbuffer ?

Zusammengafasst vermute ich eine andere Bildsignal vor und Verarbeitung

Ailuros
2003-10-17, 10:44:23
Also nochmal mit dem Museums-material von Anfang an:

Unreal Tournament Entwicklung begann mit software rendering als Plan und durch den Prozess wurde fuer Glide optimiert. Spaeter kam noch D3D und OGL als Kompatibilitaet-Unterstuetzung.

Bis zum Zeitpunkt wo Vogel einen eigenen OGL renderer entwickelte und dann auch noch die Benutzung von den S3TC high resolution Texturen auf der zweiten CD erlaubte sah es eher grau aus fuer TNT/GeForce Karten.

Im Direct3D mode von TNT bis zur GF4Ti die ich probiert hat war UT eigentlich eine schlechte Idee; es ist heute noch eine schlechte Idee UT auf einer NV2x oder was immer auch in D3D zu spielen, nur weil diese sich optimal in openGL verhalten.

UT lief optimal:

V2/3/4/5 = Glide
Radeon/KYRO = D3D
TNT/GeForce/GF2/3/4 = OpenGL

Und wenn man ab GF2 die S3TC Texturen bei spielbaren Frameraten dazurechnet ist der Rest wohl gnadenlos verloren. Genauso natuerlich auch Karten danach.

meine persönliche beobachtung war nun, und die deckt sich mit der von anderen, dass die gemessene frame zahl, auf die sich verständlicherweise jeder artikel beruft, nicht so aussagekräftig zu sein scheint wie sie eigentlich sein müsste.

Ja weil Du hoechstwahrscheinlich die falschen Vergleichsmethoden benutzt hast. Jede Karte hat nur in einem API einen Vorteil da IHVs immer nur auf ein API optimiert haben.

dass die frage hochaktuell ist möchte ich dadurch illustrieren dass ich mir überlege eine radeon 9800 zu kaufen- wird es mir da so gehen wie mr. lolman mit seiner 8500? oder mir selber mit meiner g4-4200?
im nachhinein war die karte ein kompletter fehlkauf, die v5 hätte es bis auf die neuen spiele mit u2 engine auch getan- das hat nun wirklich nichts mit gejammere zu tun.

Ich wuerde liebend gerne mal wissen wieso eine 4200 und mit welchen settings in UT1 problematisch sein soll. Welches API, welche settings und noch wichtiger was fuer ein CPU und wieviel Speicher?

V5 auf Spielen mit der U2 engine? Also bitte....

Tesseract
2003-10-17, 11:00:29
Original geschrieben von Modemaus
vielleicht muss ich dazu sagen, dass ich 80hz immer noch flimmern sehe

das liegt vor allem am monitor

wenn er (für einen CRT) relativ lange nachleuchtet hast du schon bei 60Hz kaum flimmern

bei ganz kurzen nachleuchtern würdest du wahrscheinlich sogar noch 120Hz als flimmern wahrnehmen

@parhelia: vielleicht verhält sich die parhelia bei 3d so wie die G550 im 2d-bereich
wenn hier zB scrollen nicht mehr weich dagestellt werden kann läuft es einfach etwas langsamer ab (dadurch werden die sprünge von bild zu bild kleiner gelahten und wirken dadurch weicher)

Hellspawn
2003-10-17, 13:02:43
Original geschrieben von Modemaus
hmmm...
hab das gefühl mein anliegen kommt nicht ganz rüber...

es geht nicht darum dass die v5 total veraltet ist und nur wenig frames liefert, das ist doch eh klar.

ich frage mich warum diese subjektive differenz da ist (smoothness) die sich nicht messen lässt und die bisher auch keine beachtung fand. um das ganze ein wenig von 3dfx zu lösen: mit der parhelia sollen sich angeblich weniger frames auch "smoother" anfühlen. ich hab leider keine um das zu testen.

3d-center hab ich in meinen favoriten ua. wegen der genialen hardware reviews, weil ich auch zu den leuten gehöre die max qualität vor max frames stellen.

meine persönliche beobachtung war nun, und die deckt sich mit der von anderen, dass die gemessene frame zahl, auf die sich verständlicherweise jeder artikel beruft, nicht so aussagekräftig zu sein scheint wie sie eigentlich sein müsste.

und dafür muss es einen grund geben, einen grund auf der hardwareseite. deswegen hab ich das hier ins 3d-center forum gestellt, weil mich einfach interessiert warum das so ist- dass es so ist ziehe ich nicht mehr in zweifel weil viele andere leute den selben eindruck haben. dieser beobachtung wurde bisher noch in keinem mir bekannten review beachtung geschenkt, ausser dem hier in einem nebensatz:
http://www.worldofff.com/hardware-news/index.php?inhalt=hardware/tests/voodoo5.woff

die entscheidende passage:

"
Laut den Benchmarkwerten kann man hier mit der Voodoo 5 nur noch eingeschränkt flüssig spielen, [...]

Die Werte der Voodoo 5 konnten wir während des Spielens an sich nicht nachvollziehen. Das Spiel lief komplett flüssig.
"

den erklärungsansatz hier im thread mit vsync konnte ich nicht verifizieren, das gefühl eines "mikroruckelns" hab ich bei der g4 auch mit 250 frames und vsync on oder off.

schliesslich ist "ruckelfrei" eines der hauptkriterien für qualität- was nützen mir 300 frames wenn ich dauernd das gefühl eines winzigen ruckelns habe?

vielleicht muss ich dazu sagen, dass ich 80hz immer noch flimmern sehe, also zu den besonders empfindlichen personen gehöre- vielleicht ist es ja auch einfach so dass dieser effekt von vielen leuten gar nicht wahrgenommen wird?

dass die frage hochaktuell ist möchte ich dadurch illustrieren dass ich mir überlege eine radeon 9800 zu kaufen- wird es mir da so gehen wie mr. lolman mit seiner 8500? oder mir selber mit meiner g4-4200?
im nachhinein war die karte ein kompletter fehlkauf, die v5 hätte es bis auf die neuen spiele mit u2 engine auch getan- das hat nun wirklich nichts mit gejammere zu tun.

grüsse modemaus

Also ich kann dein Empfinden 100%ig nachvollziehen!! Mir gehts genauso, überall super fps mit 9800pro aber immer das gefühl des mikroruckelns.. wenn du willst schick ich dir mal ein kleines video(wenn du mir sagst wie das geht) aus dem menue von EF2, wo mans meiner meinung nach super sieht wenn sich die Enterprise dreht! Hatte vorher ne Parhelia und auch das stimmt.. hatte zwar natürlich überall weniger frames als jetzt, trotzdem fühlte sie sich grossteils smoother an! Auch fällt mir das Mirkoruckeln oft beim video schaun am Fernseher auf.. obs das gleiche Problem ist weiß ich aber ned!

mfg

Roadkill
2003-10-17, 13:40:13
VSync aus?
EF2 ist ja OpenGL game oder? Macht mal dreifache Bufferung an, aber ich kann euch verstehen. Selbst mein damaliger Pentium3 450 mit Voodoo3, hat sich "smoother" angefühlt als mein späterer Pentium3 650 mit GF2GTS....

Hellspawn
2003-10-17, 13:47:24
Original geschrieben von Roadkill
VSync aus?
EF2 ist ja OpenGL game oder? Macht mal dreifache Bufferung an, aber ich kann euch verstehen. Selbst mein damaliger Pentium3 450 mit Voodoo3, hat sich "smoother" angefühlt als mein späterer Pentium3 650 mit GF2GTS....

nope ich hab immer vsync an.. mit tearing kann ich ned spielen! Triple Buffering hab ich auch schonmal angeschaltet aber hat absolut nix gebracht.. aber es gab ja mal einen Bug der in einfach deaktiviert gelassen hat.. ich werds wenn ich heimkomm auf jeden fall nochmal probieren!

Tesseract
2003-10-17, 14:05:53
v-sync an mit konstanten FPS entsprechend der Hz frequenz des monitors is im übrigen viel weicher als das selbe(bzw, sogar mehr FPS als Hz) mit v-sync off weil die bewegung konstanter ist

das mit der "absoluten weichheit" wie ihr es von den 3dfx/matrox marten beschreibt gibts übrigenz auf den radeon/geforce karten auch

nämlich dann wenn, wie gesagt, die FPS konstant mit der monitorrefreshrate übereinstimmen
also 60FPS @ 60Hz
75FPS @ 75Hz
100FPS@100Hz
und in dem fall auf einer streifenmaske auch besser als auf einer lochmaske

so sind meine erfahrungen

Hellspawn
2003-10-17, 14:12:37
Original geschrieben von Tesseract
v-sync an mit konstanten FPS entsprechend der Hz frequenz des monitors is im übrigen viel weicher als das selbe(bzw, sogar mehr FPS als Hz) mit v-sync off weil die bewegung konstanter ist

es sollte im optimalfall(also vsync an und konstante fps) natürlich smooth laufen(smoother gibts dann nimmer) aber das tut es eben nicht.. das sind sicher irgendwelche chip internen cheatereien die bis jetzt noch nicht aufgeflogen sind, aber da sind sie auf jeden fall! Nur glaub ich gerne dass wahrscheinlich viele nichtmal sehen was wir meinen, und das is traurig ;( weil vielleicht deswegen nicht daran gearbeitet wird, es zu beseitigen!

Hellspawn
2003-10-17, 14:15:58
Original geschrieben von Tesseract
das mit der "absoluten weichheit" wie ihr es von den 3dfx/matrox marten beschreibt gibts übrigenz auf den radeon/geforce karten auch

nämlich dann wenn, wie gesagt, die FPS konstant mit der monitorrefreshrate übereinstimmen
also 60FPS @ 60Hz
75FPS @ 75Hz
100FPS@100Hz
und in dem fall auf einer streifenmaske auch besser als auf einer lochmaske

so sind meine erfahrungen

ich weiss schon was du meinst, nur ist es eben leider nicht so..
bsp: Tactical Ops läuft bei mir mit KONSTANTEN 85fps mit vsync an, also sollte man vermuten dass es super-smooth läuft.. clankollege sitzt 5min an meinem rechner beim spielen und fragt: Kanns sein dass TO bei dir ruckelt?!
Und das ist für mich nunmal Fakt! Ich hab echt schon alles probiert und bin echt kein Nap aber dieses Mikroruckeln bekomm ich ned weg, weder mit verschiedenen Treibern noch mit frischem Win und frischen Treibern etc..

R300
2003-10-17, 14:22:46
Das Mikroruckeln kann ich auch (bei hohen Frameraten) sehen und es geht mir gewaltig auf den Geist.
Egal was ich bei Vsync und Tripple puffering anstelle es ist immer da.
Schade, dass die Leistung meiner Kyro2 nicht mehr ausreicht.
Die hatte dieses Mikroruckeln auch nicht.

Tesseract
2003-10-17, 14:37:46
Original geschrieben von Hellspawn
ich weiss schon was du meinst, nur ist es eben leider nicht so..
bsp: Tactical Ops läuft bei mir mit KONSTANTEN 85fps mit vsync an, also sollte man vermuten dass es super-smooth läuft..

bei einem game kann es natürlich sein das hier die mausrate miteinspielt wenn die bewegung mit der maus ausgeführt wird

ich seh es sofort wenn man mal vergessen habe die rate auf 200 zu stellen (beswegen bin ich auch ein feind von USB mäusen die mit 125Hz laufen)

schau mal ob das auch bei kamerafahrten etc. auftritt wo der störfaktor maus wegfällt

Hellspawn
2003-10-17, 14:40:05
@Mods, Wisser und Herrscher in diesem Forum(Leonidas, Demirug und Co.)

Könntet ihr dieses Problem bitte mal behandeln und nachforschen? Mit eurem Wissen, euren Connections und Quellen könnt ihr sicher mehr rausfinden, als wir die nur drunter leiden ;(

Auch interessieren würde mich ob das vielleicht bei GeforceFX und CO. auch auftritt.. Ein richtiger Bericht drüber wär ein Hit! Und wer weiß vielleicht lässt es sich ja wirklich beseitigen? *hoff* *beten*

Hellspawn
2003-10-17, 14:42:01
Original geschrieben von Tesseract
bei einem game kann es natürlich sein das hier die mausrate miteinspielt wenn die bewegung mit der maus ausgeführt wird

ich seh es sofort wenn man mal vergessen habe die rate auf 200 zu stellen (beswegen bin ich auch ein feind von USB mäusen die mit 125Hz laufen)

schau mal ob das auch bei kamerafahrten etc. auftritt wo der störfaktor maus wegfällt

Wie gesagt, wenn ich heimkomm werd ich natürlich alle Ratschläge etc. versuchen, bin nur grade in der Arbeit und kann dir leider im Moment keine Antworten liefern.. Am Abend dann!

mfg

Modemaus
2003-10-17, 14:46:52
ah wunderbar: thread topic erreicht!
es geht ums mikroruckeln bei grafikkarten allgemein! die symptome wurden ja eindeutig beschrieben, egal ob vsync an oder aus, egal ob glide, d3d oder ogl, egal ob triple buffer an oder nicht, egal wieviele frames: es gibt dieses mikroruckeln bei manchen grafikkarten und bei anderen, oft älteren eben nicht.

noch zur frage meiner systeme:
1.): g4-4200 auf barton 3200+ mit 1gig ddr ram,
2.): v5 auf tb 2000+ mit 512mb ddr ram.
damit sollte eigentlich alles ohne probleme funzen. tuts eigentlich auch. aber darum gehts mir ja gar nicht.
die voodookarte war nur ein beispiel für eine karte die trotz weniger frames dieses mikroruckeln nicht zeigt, weil ich sie selber besitze!

wäre noch zu klären (von der hardwareseite her):
welcher faktor oder welche faktoren bewirken dieses mikroruckeln? wie bekommt man es ggf. weg falls es NICHT an der grafikkarte liegen sollte (obwohl inzwischen einige indizien aus diesem thread dafür sprechen dass das phänomen auf bestimmte grafikchips beschränkt ist)?

und daran anknüpfend: welche neuen grafikkarten sind zum kauf zu empfehlen?

edit: hellspawn, wenn du ein video hast wo man den effekt gut sehen kann mach es doch öffentlich zugänglich damit jeder sieht was wir meinen :)

LOCHFRASS
2003-10-17, 14:55:37
Original geschrieben von Hellspawn
ich weiss schon was du meinst, nur ist es eben leider nicht so..
bsp: Tactical Ops läuft bei mir mit KONSTANTEN 85fps mit vsync an, also sollte man vermuten dass es super-smooth läuft.. clankollege sitzt 5min an meinem rechner beim spielen und fragt: Kanns sein dass TO bei dir ruckelt?!
Und das ist für mich nunmal Fakt! Ich hab echt schon alles probiert und bin echt kein Nap aber dieses Mikroruckeln bekomm ich ned weg, weder mit verschiedenen Treibern noch mit frischem Win und frischen Treibern etc..

Bei TO bzw. UT Engine Games hab ich das auch auf der GF4 bemerkt, aber nur an meinem (toten) 17" CRT. Beim 15" ist das nicht so, liegt wohl am Nachleuchten, da seh ich auch ab 70 Hz kein Flimmern mehr. Am TFT merk ich diese Ruckler erst recht nicht.

Hellspawn
2003-10-17, 14:58:17
Original geschrieben von Modemaus
ah wunderbar: thread topic erreicht!
es geht ums mikroruckeln bei grafikkarten allgemein! die symptome wurden ja eindeutig beschrieben, egal ob vsync an oder aus, egal ob glide, d3d oder ogl, egal ob triple buffer an oder nicht, egal wieviele frames: es gibt dieses mikroruckeln bei manchen grafikkarten und bei anderen, oft älteren eben nicht.

noch zur frage meiner systeme:
1.): g4-4200 auf barton 3200+ mit 1gig ddr ram,
2.): v5 auf tb 2000+ mit 512mb ddr ram.
damit sollte eigentlich alles ohne probleme funzen. tuts eigentlich auch. aber darum gehts mir ja gar nicht.
die voodookarte war nur ein beispiel für eine karte die trotz weniger frames dieses mikroruckeln nicht zeigt, weil ich sie selber besitze!

wäre noch zu klären (von der hardwareseite her):
welcher faktor oder welche faktoren bewirken dieses mikroruckeln? wie bekommt man es ggf. weg falls es NICHT an der grafikkarte liegen sollte (obwohl inzwischen einige indizien aus diesem thread dafür sprechen dass das phänomen auf bestimmte grafikchips beschränkt ist)?

und daran anknüpfend: welche neuen grafikkarten sind zum kauf zu empfehlen?

edit: hellspawn, wenn du ein video hast wo man den effekt gut sehen kann mach es doch öffentlich zugänglich damit jeder sieht was wir meinen :)

Die Frage ist nur, ob die Leute dies so schon nicht merken, dann im Video was sehen.. Muss jetzt auf jeden Fall weg, bin am Abend wieder zuhause, wär toll wenn du mir per PN oder so schreiben könntest, welches Freeware tool ich zum Aufzeichnen des Videos benutzen kann!

mfg

Xmas
2003-10-17, 18:52:57
Wenn ihr meint, "Mikro-Ruckeln" wahrzunehmen und eine GeForce habt, ändert doch mal (z.B. mit aTuner) das sog. "Prerender-Limit" auf den niedrigstmöglichen Wert.

Piffan
2003-10-17, 19:08:14
Aber vorher vsync deaktivieren!

Irgendwie habe ich den Eindruck, dass die Sache etwas überzogen ist :bonk:

BadFred
2003-10-17, 19:46:03
Möchte hier anfügen, dass ich dieses "smoothe" Verhalten der Voodoo5 ggü. aktuelleren Karten nachvollziehen kann.

Als meine GeForce3 in Reklamation befindlich war, musste ich mit einer Ersatzkarte Vorlieb nehmen. Namentlich und abwechselnd Voodoo5 5500 PCI und GeForce2 MX 64 MB AGP. Letztere lieferte oftmals marginal bis signifikant höhere Leistungswerte als die 3dfx, doch besonders bei Dungeon Siege (natürlich auch bei anderen Spielen, bspw. Mafia, Grand Prix Legends) waren die 30 fps der MX deutlich hakeliger als die 20 bis 25 fps (!!!) der 3dfx. Beides mit identischen Einstellung (von D3D7 T&L-HAL abgesehen) und mit internem Framecounter verifiziert. Wohlgemerkt alles ausnahmslos unter Direct3D.

Edit: Alles auf TFT, 75 Hz (<= ohnehin egal), Vsync off. Also identische Anfangsbedingungen für beide Probanden.

Rhönpaulus
2003-10-17, 21:29:28
ich habe bis ende 2002 noch mit einer voodoo3 gespielt,kenne auch die v5500 und meiner bescheidenen meinung nach waren die 3dfx-karten wirklich besonders"smooth".
das konnte mann bei jedem game erkennen,egal ob glide,gl oder d3d.
wenn mann es nüchtern betrachtet hat 3dfx hocheffiziente grafikkarten mit sehr fortschrittlichen technologien entwickelt.
3dfx ist ein beispiel für die tatsache,das qualität und know how nicht automatisch zum komerziellen erfolg führt.
noch heute gilt die von 3dfx entwickelte texturkomprimierung als bisher beste und das aa ist ebenfalls noch unerreicht.
3dfx-karten haben die mit abstand geringste cpu/arbeitsspeicherauslastung.

der grund für den smooth-effekt liegt meiner meinung nach bei den langen renderpipelines moderner karten und der art ihrer parallelisierten arbeitsweise.

die framerate wird üblicherweise in bildern/s angegeben.
das zeitintervall von einer sekunde taugt aber nicht um auf eine flüssige grafikausgabe schließen zu können.
ein bsp.:

karte#1 gibt konstannt alle 40 msec ein bild aus.
1000ms/40ms x 1bild = 25fps

karte#2 gibt in intervallen von 150 msec immer 4 bilder hintereinander aus.
1000ms/150ms x 4bilder = 26,7fps.

karte #2 hat die etwas höhere framerate.
trotzdem wirkt die grafik ruckeliger und nicht smooth da sie fortwärend pausen von 0,15s im bildfluß einlegt.
karte#1 wäre der idealfall.

ich denke nun das die architektur der 3dfx-karten viel eher karte#1 nahekommt als es die heutigen grafikkarten tun.
deshalb kann mann von der framerate nicht auf den flüssigen spielablauf schließen.
auch benchmarks muß mann mal aus diesem blickwinkel betrachten.
eigendlich müßte mann nicht die anzahl der berechnetten bilder pro sekunde zur beurteilung heranziehen sondern die minimalen und maximalen zeituntervalle zwischen den einzelbildern.

Aquaschaf
2003-10-17, 22:34:33
Das klingt nicht besonders logisch.
Bei konstantem Aufwand zur Berechnung eines Frames gibt jede Karte in konstanten Zeitintervallen Frames aus. Schwankt der Aufwand, schwanken natürlich auch die Abstände zwischen der Ausgabe einzelner Frames, und das betrifft zwangsläufig auch Voodoo-Karten.
Was hier wiedergegeben wurde ist doch alles äußerst subjektiv und ich glaube nicht, dass man überhaupt einen Unterschied feststellen kann - angenommen er bestünde - wenn man nicht 2 bis auf die Grafikkarte exakt gleich konfigurierte Rechner nebeneinander stellt und direkt vergleicht.
Was heißt hier effizient und fortschrittlich? Die Voodoo-Karten haben, genau wie andere Karten zu ihrer Zeit Bruteforce-Rendering betrieben. Und fortschrittlich würde ich auch nicht so direkt sagen, FSAA und Texturkompression schön und gut - aber in Bezug z.b. auf 32bit oder HW T&L sieht die Sache anders aus.
CPU-Belastung des Treibers halte ich doch für absolut nebensächlich, es bewegt sich immer im einstelligen Prozentbereich - wo kann man da von "mit Abstand" sprechen?
Paralelisierung der "Pipelines" und Länge der Pipeline hat doch, vor allem bei Taktraten im MHZ Bereich, überhaupt nichts mit der "Smoothness" zu tun.

LOCHFRASS
2003-10-17, 23:20:40
Original geschrieben von Aquaschaf
Und fortschrittlich würde ich auch nicht so direkt sagen, FSAA und Texturkompression schön und gut - aber in Bezug z.b. auf 32bit oder HW T&L sieht die Sache anders aus.

Fängt der Unsinn schon wieder an, 32 Bit und T&L waren zu Voodoo 3 Zeiten genau so sinnvoll wie die DX 9 Features einer 64 Bit FX 5200. Kommt mir jetzt nicht mit der Verbreitung neuer Features, wozu die 5200 da ist. Da 3dfx keine OEM/Mainstream Linie hatte, wäre das sinnlos gewesen.

Aquaschaf
2003-10-17, 23:27:53
Original geschrieben von LOCHFRASS
Fängt der Unsinn schon wieder an, 32 Bit und T&L waren zu Voodoo 3 Zeiten genau so sinnvoll wie die DX 9 Features einer 64 Bit FX 5200. Kommt mir jetzt nicht mit der Verbreitung neuer Features, wozu die 5200 da ist. Da 3dfx keine OEM/Mainstream Linie hatte, wäre das sinnlos gewesen.

Es ist aber genauso Unsinn zu behaupten 3DFX sei besonders fortschrittlich gewesen.

Hellspawn
2003-10-17, 23:28:51
So Leute ich bin wieder zuhause und werd jetzt mal versuchen vom st:ef 2 menue ein video zu machen.. werd mal fraps ausprobieren.. falls einer ein besseres freeware tool kennt bitte sagen ;)

LOCHFRASS
2003-10-17, 23:55:04
Original geschrieben von Aquaschaf
Es ist aber genauso Unsinn zu behaupten 3DFX sei besonders fortschrittlich gewesen.

Der T-Buffer war wohl eindeutig sinnvoller als T&L, leider gabs halt keine Billigkarten, mit denen 3dfx diese Features durchsetzen konnte...

Modemaus
2003-10-18, 01:06:30
bitte bitte- 3dfx ruhe in frieden! ist doch egal wer anno 2000 die bessere technologie hatte, mich interessiert ob die radeon 9800 stottert und wie man das stottern evtl. wegkriegt. und wie der thread hier zeigt nicht nur mich.

so ähnlich wie von rhönpaulus wurde es mir schon auf voodoo alert beschrieben. macht in meinen augen auch sinn, weil die v5 verschiedene linien jeden bildes durch beide grafikprozessoren gleichzeitig berechnen lässt (sli). weil beide denselben frame bearbeiten müssen beide aufeinander warten und geben so in konstanten intervallen aus.
aber warum ist das bei anderen karten anders? wieso soll eine karte zwischen frame "chunks" kurze pausen einlegen, also weswegen könnte sie "stottern"? der begriff stottern kommt dem ebenfalls neu kreiierten begriff "mikroruckeln" von der anschaulichkeit am nächsten, mit flimmern hat das nichts zu tun.

da der effekt bei tfts und crts gleichermassen auftritt scheiden die wiederholfrequenz und vsync an/aus als ursache schon mal eh ganz aus.

(auf das "hochsubjektiv" und "überzogen" brauch ich wohl nicht mehr eingehen, dazu bemerken das "mikroruckeln" zu viele allein in diesem forum ;) )

Hellspawn
2003-10-18, 03:20:06
es tut mir leid, ich schaffs mit fraps einfach nicht.. sobald ich zum aufnehmen anfange, fallen die fps auf unter 20 und da is es ja klar dass es ruckelt lol... weiß wer ne lösung?

Piffan
2003-10-18, 11:40:30
Ehrlich gesagt ist diese Diskussion ein Witz! Ich kenne auch andere Rechner, bei dem einen läuft smooth, beim anderen hakelig. Mit modernen Grakas....

@ modemaus: kannst erzählen was du willst. Die These von den "Kunstpausen" halte ich für herbeigezogen. Wie Aqua schon sagte: Egal wie der Treiber die Taten sammelt, wie und wann auf die Pipelines verteilt, welche Prozessor- Optimierungen der Treiber nutzt (SSE, 3dNow), das ist alles vollkommen Latte, da jedes Bild auf die gleiche Art und Weise berechnet wird, somit die Zeitintervalle stets gleich sind....

Vor allem kannste Deiner Oma erzählen, dass vsync, prerenderlimit und die API keine Rolle spielen soll.

Meine These ist eher folgende: Wenn ich auf unterem Niveua Schwankungen in den Frames habe, sagen wir mal 20 %, dann mancht das bei 25 FPS einen Unterschied von 20 zu 25 FPS. DAs ist schon recht niedrig, da ist die Performance so tief, dass das vorhandene Ruckeln lediglich etwas zunimmt...

Habe ich die Schwankungen auf hohem Niveua im Bereich der Monitorfrequenzen, dann schlägt die Vsync- Falle zu: Bei FPS- Zahlen oberhalb der Monifrequenz habe ich ein extrem smoothes Bild, nämlich syncron zur Refreshrate, da schwankt nix... Nun fallen die FPS ganz knapp unter die Monifrequenz: Jetzt lässt der Monitor jedes zweite Bild wegfallen, ergo habe ich mit einem Schlage nur noch die halbe Monifrequenz......

Eigentlich sollten alle Leser dieser Seiten diesen Zusammenhang langsam mal geschnallt haben....Vielleicht sollte mal einer der Mods einen Extra- Artikel zu Vsync, Triple Buffer, prerender limit und dergl schreiben. Offensichtlich sind zu viele unterwegs, die nicht mächtig sind, die Potenz ihre guten Hardware auszureizen...:@#$!%:

So, jetzt trinke ich erstmal nen Tee und beruhige mich wieder

Modemaus
2003-10-18, 12:24:48
piffan, wenn du für "herbeigezogen" hältst was ich und andere erzählen, uns für daus hältst die ihre hardware nicht bedienen können, oder nicht in der lage sind die schalter im treiberpanel umzulegen um zu kucken obs was hilft und pauschal anzweifelst was wir vorbringen hast du deinen hoffentlich erschöpfenden beitrag zum thread geleistet. so diskutiert man nicht.

dein vorschlag der sache mal nachzugehen ist sicher prima.
vielleicht findet sich jemand der unvoreingenommen an die sache rangeht und nicht schon vorher weiss wie das ergebnis ausfällt bzw. den beobachteten effekt in frage stellt. genau das ist der zweck dieses threads.
ich habe mir inzwischen angewöhnt meinen augen zu vetrauen und nicht irgendwelchen marketingabteilungen.

nochmal zum vsync: wenn deine these stimmen würde, müsste der effekt auch bei der voodoo auftreten - tut er aber nicht.

Quasar
2003-10-18, 12:34:21
Gab es bei den Voodoos in den letzten Treiber nicht eine Möglichkeit, sog. 'pending buffers' einzustellen?

Damit könnte man das Prerender-Limit (ist dasselbe) nachstellen und schauen, ob es hier auch auftritt. Natürlich müsste das bei einem Game geschehen, wo auch die Voodoo in der Lage ist, genügend viele Frames im voraus zu rendern. Vielleicht Quake3 in niedriger Auflösung?

Piffan
2003-10-18, 12:59:21
Genau das ist der springende Punkt: Es muss ein Spiel sein, dass auf der Voodoo in VERGLEICHBARER FPS- Zahl auftritt und dass unter der gleichen API läuft.....

Außerdem muß beachtet werden, welche Limitierung bei der Farbtiefe und Texturauflösung vorliegen.....Auf meiner Voodoo2 (und demanch auch auf ner Voodoo 3) lief Need for Speed 5 wesentlich runder als auf ner TNT 2, dafür war die grafische Qualität in keiner Weise vergleichbar (unscharfe Texturen, 32 bit sowieso nicht und dann der extra Renderpfad, der damals zur Blütezeit von 3DFX noch üblich war)....

Piffan
2003-10-18, 13:11:49
Original geschrieben von Modemaus
piffan, wenn du für "herbeigezogen" hältst was ich und andere erzählen, uns für daus hältst die ihre hardware nicht bedienen können, oder nicht in der lage sind die schalter im treiberpanel umzulegen um zu kucken obs was hilft und pauschal anzweifelst was wir vorbringen hast du deinen hoffentlich erschöpfenden beitrag zum thread geleistet. so diskutiert man nicht.

dein vorschlag der sache mal nachzugehen ist sicher prima.
vielleicht findet sich jemand der unvoreingenommen an die sache rangeht und nicht schon vorher weiss wie das ergebnis ausfällt bzw. den beobachteten effekt in frage stellt. genau das ist der zweck dieses threads.
ich habe mir inzwischen angewöhnt meinen augen zu vetrauen und nicht irgendwelchen marketingabteilungen.

nochmal zum vsync: wenn deine these stimmen würde, müsste der effekt auch bei der voodoo auftreten - tut er aber nicht.

Ich bin nicht voreingenommen! Ich habe die Effekte ja schon selbst oft genug erlebt. Ich hatte mal eine Zeit ne Voodoo 2- SLI und ne Geforce 2- Ultra im selben Rechner. Da ist mir unter UT, Wheel of Time, Deux ex (nur angzockt), Ultima 9 aber auch unter Gothic 1 (kein Glide- Game) natürlich aufgefallen, dass die Spiele mit den Voodoos ein "rundes" Gefühl gabe, es bei der Geforce hakeliger erschien....Aber mit Geduld und allerlei Tweaks (auch und vor allem in den Inis der Spiele) war es möglich, die Performance zu optimieren und auf das gleiche Niveau der Voodoos zu bringen, bei besserer Bildqualität versteht sich (Ultima 9 sieht mit den 8bit- Texturen auf der Voodoo doch erheblich schlecher aus als mit 16bit- Texturen, läuft mit 16bit- Texturen logischerweise dann auch hakeliger, weil die Texturen bei Ultima 9 stets nachgeladen werden und 16bit Texturen nun mal unhandlicher sind, von 32bit gar nicht zu reden).

Wenn ich jetzt ein neueres Spiel zocke und da irgendwo was hakelt, also beim Laufen die Umgebung nicht weich zoomt, sondern ruckt, die Sache irgendwie "unruhig" erscheint, dann liegts bei mir an Vsync oder krassen Qualitätseinstellungen.....

Piffan
2003-10-18, 13:33:54
Original geschrieben von Modemaus
nochmal zum vsync: wenn deine these stimmen würde, müsste der effekt auch bei der voodoo auftreten - tut er aber nicht.

Absoluter Unfug! Wenn das Aktivieren des Vsyncs keinen Einfluss auf die "gefühlte" Performance hat, dann ist das wider aller Logik!

Noch mal: Der Schalter wirkt sich am heftigsten aus, wenn die Graka überhaupt in der Lage ist, FPS_ Zahlen in der Nähe der Monitorfrequenz zu bilden, also knapp drüber oder knapp drunter! Wenn ich bei 20- 30 FPS rumeiere (und da von smooth zu reden, ist schon sehr wohlwollend), da ist der Effekt des Schalters logischerweise geringer.....

Also: 80 Hz macht der Moni

wenn die Graka mindestens diese FPS- Zahl liefert, dann ist alles in Butter, die FPS-Zahl wird durch vsync auf Monitorfrequenz fixiert

Nun schafft die Graka leider nur 70 Bilder: Jetzt wird jedes zweite Bild ausgelassen, es kommen nur noch 40 FPS beim Zusschauer an.....

Nun nehmen wir mal an, dass die Graka noch nicht mal 40 FPS schafft, also vielleicht 35 FPS: jetzt fällt die FPS- Zahl auf ein Drittel von 80, also 26,666 Bilder. Nun könnte ja auch mal die FPS - Zahl sogar noch tiefer liegen (soll bei Kyro und Voodoo bei neueren Spielen gar nicht so selten sein ;), dann wird nur noch eine FPS- Zahl von 20 Bildern ausgespuckt......

Man kann das Spiel so weitertreiben und kommt zu folgendem Ergebnis: Je tiefer ich unterhalb der Monitorfrequenz rumeiere, um so geringer ist die Auswirkung des Vsync- Schalters....

Darum: Wenn man die Auswirkung des Vsync- Schalters erfahren will, dann muss man möglichst auch in der Nähe der Monitorfreuquenz "untersuchen"

Das Triple- Buffering dient dazu, die heftigen FPS- Sprünge zu lindern......aber auch nur erkennbar, wenn die Performance der Graka überhaupt für eine FPS- Zahl reicht, die mindestens an die halbe Monitorfrequenz ranreicht, weil darunter werden die Sprünge ja kleiner und darum wird der Effekt des Triple immer weniger auffällig...

Neulich habe ich den Effekt bei Jedi 3 festgestellt: Der Framecounter zeigte mir beim Stillstand (nicht laufen,nicht umsehen) entweder die 75 FPS oder 37 an. Nun erst fiel mir auf, dass Vsync aktiv war. Nach dem Deaktiviern war die gefühlte Performance plötzlich wesentlich besser, dafür war dann die Stückelung des Bildes (Tearing) zu sehen. Mit dem rtool kann man ja das Triple- Buffering auf den Radeon speziell unter OpenGl einschalten, damit ist dann das Tearing weg, die Performance dennoch rund....

So, Schluss zu dem Thema, jetzt sind die DFXler mal dran, Beweise zu liefern...Video her! (Wobei das Unsinn ist, man kann es nur feststellen, wenn man die Karten alternierend betreibt). Wer ist wohl so blöd, ein stabiles System aus Übermut zu verhunzen? Ich bin ja mit der Performance meiner Rad bestens zufrieden, auch ohne Marketingeinfluss :D

Nachtrag: Ich würde es sehr begrüßen, wenn die "modernen"- Chiphersteller einen Schalter in den Treiber einbauen, der das Triple- Buffering auch unter D3D erlaubt...Habe aber keine Ahnung, ob das geht. Wie war das bei den Voodoos; galt da der Schalter nur für Glide/OpenGl oder gibts die Option auf für D3D?

Modemaus
2003-10-18, 13:56:27
also zum kern:
die pending buffer kann man bei den v5 zwischen 0 und 6 einstellen. hab nie einen unterschied zwischen den einstellungen bemerken können.
triple buffer kann man bei der v5 für d3d und ogl/glide anstellen. auch dort ist es egal, läuft so oder so ohne dieses mikroruckeln.
ich kenn mich aber mit sowas wirklich nicht aus um sagen zu können ob triple buffering bei modernen grakas auch gehen würde.

das mit dem alternierenden betrieb stimmt. ich kann zwischen meinen beiden rechnern per monitorswitch umschalten, da sieht man den effekt sehr gut. deswegen fände ich eine untersuchung zu dem thema von leuten die 1.) das nötige tiefgehende hardwarewissen und 2.) die versuchsanordnung sinnvoll gestalten und 3.) sich für 3d- hardware interessieren ja so sinnvoll.
ein video kann vielleicht helfen den effekt eindeutig sichtbar zu machen, damit man weiss was überhaupt gemeint ist. das normale "tearing" oder monitorflimmern ist es wie gesagt jedenfalls nicht, auch nicht das ruckeln wegen zuwenig frames weil die hardware am ende ist nicht mehr liefern kann.

für so einen test würde ich auch gern leihweise meine v5 zur verfügung stellen, falls 3d-center keine mehr hat.

BadFred
2003-10-18, 14:08:30
Original geschrieben von Piffan
Genau das ist der springende Punkt: Es muss ein Spiel sein, dass auf der Voodoo in VERGLEICHBARER FPS- Zahl auftritt und dass unter der gleichen API läuft.....

Möglicherweise ist ein erneutes Lesen meines Beitrages hier hilfreich, um deinem Kurzzeitgedächtnis und deinem Beitrag zu entgegnen. :D

Piffan
2003-10-18, 16:25:16
Original geschrieben von BadFred
Möglicherweise ist ein erneutes Lesen meines Beitrages hier hilfreich, um deinem Kurzzeitgedächtnis und deinem Beitrag zu entgegnen. :D

Habe den Beitrag noch mal gelesen. Dazu mal folgende Sache: Als ich damals von der Gf4- Ti auf die Radeon 9700 umstieg, da lief vieles hakeliger, "unsanft" auf der Radeon. Beim 3d-Mark 2001 hatte ich vom Fleck weg einen üblichen Score auf der Radeon, dennoch war es nicht zu übersehen, dass es gelegentlich Stopper, "Rucks" gab....Dieses und andere Merkwürdigkeiten haben mich damals in Rage gebracht...Lange Rede kurzer Sinn: Nachdem ich mein System platt gemacht und neu aufgespielt habe, habe ich diese Ruckelein nur noch bei Unreal 2, aber da bin ich wohl nicht alleine.....Ich spiele da dezent auf Treiberreste an...


Übrigens kann es ja sein, dass bestimmte Spiele auf dieser oder jener Karte nicht so wollen, hats ja immer schon gegeben. Nur die These dieses Threads ist ja folgende: Obwohl die Boliden von Heute enorme FPS Zahlen aufweisen (um nicht zu sagen "vorgaukeln", diesen Unterton höre ich aus manche Aussagen vom Threadstarter recht deutlich raus), da sollen die "guten Alten" trotz nominell DEUTLICH geringerer FPS- Zahl die bessere Figur abgeben...Und diese Aussage ist für mich durch nix begründet außer durch subjektive Eindrücke......die ich übrigens ja auch hatte und lange Zeit dachte: Kack auf die Geforces, mit der Voodoo spiele ich doch viel lieber.....

Piffan
2003-10-18, 16:27:23
Original geschrieben von LOCHFRASS
Der T-Buffer war wohl eindeutig sinnvoller als T&L, leider gabs halt keine Billigkarten, mit denen 3dfx diese Features durchsetzen konnte...

Wenn du das gute FSAA meinst, welche afaik an den Buffer gekoppelt ist, dann gebe ich dir voll recht. Wenn es allerdings um die T-Buffer Effekte geht, da bin ich anderer Meinung.....

Piffan
2003-10-18, 16:34:22
Original geschrieben von Modemaus

für so einen test würde ich auch gern leihweise meine v5 zur verfügung stellen, falls 3d-center keine mehr hat.

Schick doch mal ne PM direkt an Leo, vielleicht lässt er ja mal die Voodoo 5 mitlaufen beim nächsten Roundup....Würde mich auch interessieren. Aber das Problem könnte sein, dass Leo aufgrund der Vielzahl der Benches und Karten nicht unbedingt Zeit hat, auf die "Gefühle" beim Spielen zu achten ;)

Nee, im Ernst, wenn was dran ist und die Sache so deutlich ist, sollte es eigentlich auffallen...

Ailuros
2003-10-18, 19:33:17
Der T-Buffer war wohl eindeutig sinnvoller als T&L, leider gabs halt keine Billigkarten, mit denen 3dfx diese Features durchsetzen konnte...

Antialiasing gewann seit damals genau etwa die gleiche Wichtigkeit wie Transform & Lighting und so sollte es auch sein.

Nur weil 3dfx's offiziell empfand dass es noch keine Notwendigkeit fuer PC graphics und T&L damals gab, heisst es auch nicht dass es nutzlos war (es wurde uebrigens eine dritte Firma fuer einen Geometrie chip beauftragt aber das Resultat war so langsam dass es nur den Preis unnoetig erhoeht haette fuer VSA-XXX).

Ach ja es war ja auch nur ein Zufall dass selbst fruehe Rampage designs (nicht der erste) mit einem externen Geometrie chip geplant wurden.

Was den Rest betrifft ich hab in den letzten 2 Jahren mit 7 oder 8 verschiedenen Graphikkarten herumgespielt die V5 5k5 mitinbegriffen und mir persoenlich ist nichts dergleichen aufgefallen. Alte Glide basierenden Spiele sind sowieso ein Kapitel fuer sich.

Genauso was jeder mit seiner Hard- oder Software anstellt.

ernesto.che
2003-10-18, 21:48:44
Original geschrieben von Ailuros
Antialiasing gewann seit damals genau etwa die gleiche Wichtigkeit wie Transform & Lighting und so sollte es auch sein.

Nur weil 3dfx's offiziell empfand dass es noch keine Notwendigkeit fuer PC graphics und T&L damals gab, heisst es auch nicht dass es nutzlos war (es wurde uebrigens eine dritte Firma fuer einen Geometrie chip beauftragt aber das Resultat war so langsam dass es nur den Preis unnoetig erhoeht haette fuer VSA-XXX).

Ach ja es war ja auch nur ein Zufall dass selbst fruehe Rampage designs (nicht der erste) mit einem externen Geometrie chip geplant wurden.

Was den Rest betrifft ich hab in den letzten 2 Jahren mit 7 oder 8 verschiedenen Graphikkarten herumgespielt die V5 5k5 mitinbegriffen und mir persoenlich ist nichts dergleichen aufgefallen. Alte Glide basierenden Spiele sind sowieso ein Kapitel fuer sich.

Genauso was jeder mit seiner Hard- oder Software anstellt.

Da seh ich was anders Ailuros. Es war natürlich kein Zufall, dass Rampage eine externe T&L Einheit bekommen sollte. Allerdings keine unsinnige nach DX7, die die Pefomance teilweise sogar bremsen können. Zum Release des Rampages hätte T&L auch wirklich Sinn gemacht. Es macht doch heute auch keinen Sinn, eine Grafikkarte mit 64bit externer Farbtiefe herzustellen, wenn es das Umfeld gar nicht hergibt.

Aber sollten wir nicht wieder zum Topic zurückkehren?

Ailuros
2003-10-19, 07:06:14
Original geschrieben von ernesto.che
Da seh ich was anders Ailuros. Es war natürlich kein Zufall, dass Rampage eine externe T&L Einheit bekommen sollte. Allerdings keine unsinnige nach DX7, die die Pefomance teilweise sogar bremsen können. Zum Release des Rampages hätte T&L auch wirklich Sinn gemacht. Es macht doch heute auch keinen Sinn, eine Grafikkarte mit 64bit externer Farbtiefe herzustellen, wenn es das Umfeld gar nicht hergibt.

Aber sollten wir nicht wieder zum Topic zurückkehren?

R1 war als Nachfolger von V2 geplant. Nur der finale R4 war dx8.0 kompliant. Wie sah R2 und R3 aus?

DX7 T&L bremst Leistung wo genau? Du hast heute UT2k3 das dx7 T&L optimiert ist. Schalt T&L und die VS einfach mal ab und renn botmatch und dann sehen wir wo und wie T&L das Spiel "bremst". Natuerlich sollte man keine Wunder von T&L erwarten, aber es entladet zweifellos die CPU, wenn auf einer Graphikkarte nicht die Fuellrate z.B. bremst. Auf einer GF2MX war T&L natuerlich absoluter Schwachsinn.

Die Unkosten fuer eine single chip V5 mit DDR und T&L auf einem kleineren Prozess und hoeherer Taktung waeren kleiner gewesen als mit dual chip V5 und auch der finale Strassenpreis. Noch dazu waere eine solche V5 heute noch viel mehr brauchbar als das was sie heute ist. Du kannst mir locker die Spiele aufzaehlen wo eine GTS auch heute noch fehlerfrei mithalten kann und diese Liste dann mit einer V5 oder jeder non-T&L Karte vergleichen.

Zum letzten Mal 3dfx hat sich ihr Grab selber gebuddelt und das durch falsche und kurzsichtige Management-Entscheidungen. Was die PR/marketing Abteilungen nach aussen plappern ist eine andere Geschichte als die Unfaehigkeit zu verfolgen was der Markt wirklich fordert.

aths
2003-10-19, 07:32:11
Original geschrieben von Piffan
Nachdem ich mein System platt gemacht und neu aufgespielt habe, habe ich diese Ruckelein nur noch bei Unreal 2, aber da bin ich wohl nicht alleine.....Ich spiele da dezent auf Treiberreste an...Darf man fragen, wie das funktionieren soll? Fremde Treiber-Dateien werden ja kaum geladen. Unbenutzte Datei-Leichen auf der Platte dürften aber nicht zu Ruckeleien führen.

Gast
2003-10-19, 08:01:18
Ich habe keinerlei Ahnung, wie das funktioniert. Aber es war halt so...

Frage: Können reg- Einträge vorhanden sein, die auf die alte Graka hinweisen?

Kann ja auch sein, dass sich Settings im Directx an Grakas anpassen.....

Ich bin auch nicht besonders zimperlich, wenn ich einen neuen Treiber aufspiele, haue einfach den neuen drauf und fertig. Habe ich schon mit den Detos so gemacht und bisher auch mit den Cats...Aber es gab ein einziges Mal Stress beim Detonator, da war die vollständige Deinstallation des Vorgängers Pflicht (k. A. welche Version das war, es waren in den Jahren einfach zu viele Detos)

Piffan
2003-10-19, 08:05:17
Der Gast war ich. Also wie ist das, "prägt" eine Graka ein System durch Einstellungen, die über die bloßen Treiberdateien hinausgehen? Ist das Gerede von Treiberleichen Unfug oder nicht? Das sind die Fragen, die den experimentierfreudigen Spieler beschäftigen.. ;)

aths
2003-10-19, 09:28:24
Ich halte die Erklärung mit "Treiberresten" jedenfalls für ziemlich esoterisch.

ow
2003-10-19, 10:27:08
Original geschrieben von Piffan
Ist das Gerede von Treiberleichen Unfug oder nicht?

Definitiv ja, das ist Unfug.

Ernie
2003-10-19, 10:38:15
Glide fühlt sich einfach "smoother" an. Warum das so ist, weiß ich nicht. Aber Wer "GPL" einmal mit einer Banshee o.ä. gespielt hat, weiß das: Selbst mit 22 fps lässt sich das Spiel noch super zocken, während auf einer Geforce, Radeon etc. (unter D3D oder OpenGL) die Wagen selbst bei 32 fps noch vor sich hin zuckeln und das Game unspielbar wird.

Aquaschaf
2003-10-19, 10:41:04
Original geschrieben von Ernie
Glide fühlt sich einfach "smoother" an. Warum das so ist, weiß ich nicht. Aber Wer "GPL" einmal mit einer Banshee o.ä. gespielt hat, weiß das: Selbst mit 22 fps lässt sich das Spiel noch super zocken, während auf einer Geforce, Radeon etc. (unter D3D oder OpenGL) die Wagen selbst bei 32 fps noch vor sich hin zuckeln und das Game unspielbar wird.

Dafür hätte ich gerne mal eine rationale :bonk:, nicht subjektive Begründung.

aths
2003-10-19, 10:48:40
Original geschrieben von Aquaschaf
Dafür hätte ich gerne mal eine rationelle, nicht subjektive Begründung. Du meinst, eine rationale Begründung.

Glide ist eine Schicht, eine Schnittstelle zur Graka. Lt. 3dfx bedeutet Glide gegenüber direkter Register-Programmierung, nur 10% Overhead.

Mit Glide zu proggen, heißt, die CPU nur wenig zu beanspruchen. Ich meine mich dunkel an einen Artikel auf 3dconcept zu erinnern, wo in Unreal (oder Unreal Tournament) die Framerate im zeitlichen Verlauf dargestellt wurde. Wenn ich mich recht erinnere, wiesen GeForce-Karten da recht große Schwankungen auf.

Dass 32 fps im Schnitt als weniger "smooth" als 22 fps im Schnitt wahrgenommen werden könnten, wäre mit einer mehr oder minder konstanten Framerate rational erklärbar.

Ernie
2003-10-19, 11:05:01
Original geschrieben von Aquaschaf
Dafür hätte ich gerne mal eine rationale( :bonk: ), nicht subjektive Begründung.

Kein "GPL" -Zocker, hmm? Mit den max. erreichbaren 36 fps (GPL besitzt einen Frame-Limiter) läuft es übrigens auch auf einer Geforce/ Radeon "rund". Eine rationale Erklärung (wie in meinem Posting bereits angedeutet)für den "Smoothness"-faktor habe ich im übrigen nicht.

Was aths vorbringt, dass es an einer mehr oder weniger konstanten Framerate liegt, hat natürlich grds. Bestandskraft. Nur: Die Geforce/Radeon produzieren DEUTLICH WAHRNEHMBAR selbst bei (sofern man den angezeigten fps vertraut) nahezu konstanten 32 fps ein deutlich ruckeligeres Bild als die Voodoo bei 22 fps.

Ich bin kein Grafikexperte, aber meinen Augen vertraue ich. Als Laie tippe ich einfach auf den einzigen handfesten Unterschied zwischen den Radeons/ Geforces und Voodoo im Phänomen oben: Die Glide-API.

Liszca
2003-10-19, 11:15:52
Original geschrieben von Ailuros
Genau. Als Unreal Tournament es damals auf die Regale schaffte war 1024*768 mit einem Mendocino Celeron @500MHz nicht spielbar IMO mit einer V3 3k. Mit einem 933MHz P3 spaeter dann schon.

Muss man hier ueberhaupt noch hinzufuegen dass UT sehr CPU abhaengig war?

dass ja wohlgarnicht,lehrtastegehtnichtrichtigsorry

Ailuros
2003-10-19, 12:27:23
Original geschrieben von aths
Du meinst, eine rationale Begründung.

Glide ist eine Schicht, eine Schnittstelle zur Graka. Lt. 3dfx bedeutet Glide gegenüber direkter Register-Programmierung, nur 10% Overhead.

Mit Glide zu proggen, heißt, die CPU nur wenig zu beanspruchen. Ich meine mich dunkel an einen Artikel auf 3dconcept zu erinnern, wo in Unreal (oder Unreal Tournament) die Framerate im zeitlichen Verlauf dargestellt wurde. Wenn ich mich recht erinnere, wiesen GeForce-Karten da recht große Schwankungen auf.

Dass 32 fps im Schnitt als weniger "smooth" als 22 fps im Schnitt wahrgenommen werden könnten, wäre mit einer mehr oder minder konstanten Framerate rational erklärbar.

Genau und aehnliches wurde schon von anderen vor Seiten gesagt. Wenn ein Spiel von Anfang an auf ein spezifisches API zugeschnitten ist, ist es selten dass das gleiche Spiel genauso gut auf einem anderem API laeuft.

Im gegebenen Fall von UT jedoch und dem sehr klugen OGL support von Vogel, konnte ich nichts dergleichen fuer das bestimmte Spiel auf anderen Karten wahrnehmen.

Mal ein bisschen OT aber immer noch relevant zu UT:

aths,

Hast Du ne Ahnung ob der Version9 OGL renderer von Vogel auf der 3DCenter download Seite Unterstuetzung fuer "SmoothAlpha" hat oder sollte ich lieber Leo fragen?

***edit:

Wenn ich mich recht erinnere, wiesen GeForce-Karten da recht große Schwankungen auf.

Da muessten wir ram nochmal fragen aber irgendwie hab ich das Gefuehl dass es D3D und nicht OGL war. Auf jeden Fall mit den letzten paar OGL renderern schwankte die Framerate beim UTbench von ~90-95 max auf ~30-35, mit einem ~60fps Durchschnitt in 1280*960*32. Pro Sekunde mit FRAPS die Framerate loggen hilft da wohl auch nicht viel oder?

Die GF4Ti wahr langsamer mit D3D auf meinem System als die K2, ob Du's glaubst oder nicht. Mit OGL war es gar keine Debatte mehr.

Piffan
2003-10-19, 13:17:34
Was man bedenken sollte: Wie träge ist so ein Framecounter eigentlich? Wie verlässlich ist es denn, dass die FPS- Zahl wirklich den aktuell angezeigten Wert aufweist? Bei Jedi 3 ist der Counter recht träge, beim Wechsel von voller Monitorfrequenz auf die halbe sinken die Werte recht langsam, so dass man die Sprünge, die durch Vsync hervorgerufen werden, in Bewegung gar nicht sieht. Nur beim Stillstand beruhigt sich auch die FPS- Anzeige auf den vollen bzw. halben Wert (4x FSAA, 16x AF, 1280x1024x32 auf der Radeon).....

So kann es doch sein, dass bei GPL tatsächlich Peaks und Slowdowns auftreten, die der Counter durch seine Trägheit unterschlägt....

Also wenn man das Phänomen wirklich ergründen will, dann bräuchte man ein Programm, welches die FPS in Abhängigkeit von der Zeit darstellt (bei einer Probezock), es müsste ein Graph mit hoher zeitlicher Auflösung sein, die im Millisekundenbereich liegt...

Der Threadstarter sagt aber aus, dass es API- unabhängig sei, also auch bei NONglide- Spielen......

Modemaus
2003-10-19, 13:20:53
Original geschrieben von aths
[...] die Framerate im zeitlichen Verlauf dargestellt wurde. Wenn ich mich recht erinnere, wiesen GeForce-Karten da recht große Schwankungen auf.

Dass 32 fps im Schnitt als weniger "smooth" als 22 fps im Schnitt wahrgenommen werden könnten, wäre mit einer mehr oder minder konstanten Framerate rational erklärbar.

ich hab zwar keine moderne ati karte, aber hier wurde vom gleichen effekt mit ati karten auch bei sehr hohen fps raten berichtet. die matrox parhelia dagegen soll "smooth" laufen.
ich sags nochmal, nach meiner (subjektiven, da lass ich mich nicht von abbringen, weil ich kann es selbst sehen) beobachtung spielt die schnittstelle (d3d, ogl, glide) keine rolle.
nun stellen sich mir als laien und spieler zwei fragen: 1.) warum verhalten sich manche grafikarten so und andere nicht, bzw. warum - (wenn die hypozhese denn stimmt, und inzwischen gibt es ja einen überhang der meinungen dass es so sein könnte, auch im voodooalert forum) - gibt es framehäufungen in kurzen zeitintevallen und framearmut in kurzen zeitintervallen? wie ist das technisch zu erklären? soweit zur theorie.
und
2.) praktisch: gibt es eine möglichkeit die garfikkarten dazu zu zwingen ihre frames in gleichmässigen zeitabständen auszugeben? wenn ja, prima, falls nicht: welche grakas zeigen dieses verhalten, welche nicht? wieviele user bemerken das phänomen überhaupt , bzw. ist das so eine sache analog zum monitorflimmeern, die über einem schwellwert auch nur besonders empfindliche leute wahrnehmen?

Piffan
2003-10-19, 13:22:25
Original geschrieben von Ailuros


Da muessten wir ram nochmal fragen aber irgendwie hab ich das Gefuehl dass es D3D und nicht OGL war. Auf jeden Fall mit den letzten paar OGL renderern schwankte die Framerate beim UTbench von ~90-95 max auf ~30-35, mit einem ~60fps Durchschnitt in 1280*960*32. Pro Sekunde mit FRAPS die Framerate loggen hilft da wohl auch nicht viel oder?

Die GF4Ti wahr langsamer mit D3D auf meinem System als die K2, ob Du's glaubst oder nicht. Mit OGL war es gar keine Debatte mehr.

Bei mir lief UT unter D3D am besten, allerdings bin ich erst recht spät von der Voodoo umgestiegen, da war schon die xte Überarbeitung raus....

OGL fühlte sich zunächst mal toll an, aber dafür konnte ich im Netz nicht zocken (Sekundenstopper) oder es gab immer mal wieder heftige Nachladeruckler (Festplatte nüddelte)

Piffan
2003-10-19, 13:25:46
Original geschrieben von Modemaus
2.) praktisch: gibt es eine möglichkeit die garfikkarten dazu zu zwingen ihre frames in gleichmässigen zeitabständen auszugeben? wenn ja, prima, falls nicht: welche grakas zeigen dieses verhalten, welche nicht? wieviele user bemerken das phänomen überhaupt , bzw. ist das so eine sache analog zum monitorflimmeern, die über einem schwellwert auch nur besonders empfindliche leute wahrnehmen?

Ob es "Spinnerei" ist oder stimmt, ließe sich wohl klären....


Also wenn man das Phänomen wirklich ergründen will, dann bräuchte man ein Programm, welches die FPS in Abhängigkeit von der Zeit darstellt (bei einer Probezock), es müsste ein Graph mit hoher zeitlicher Auflösung sein, die im Millisekundenbereich liegt...

Piffan
2003-10-19, 13:35:01
Mal so ein paar Gedanken eines Laien:

WEnn man als gegeben nimmt, dass der Counter richtig rechnet, außerdem unterstellt, dass die Bilder ungleichmäßig fließen, also es Zeiten gibt, wo kein Bild gezeichnet wird, dann aber wieder sehr viele gezeichnet werden, so dass im Schnitt dann doch ein hoher Wert entsteht, dann frage ich mich: Kann dass denn sein? Dann müsste die Karte ja zwischendurch enorm viel bringen. Das Minimum müsste ja spiegelbilich durch ein Maximum kompensiert werden....

Also folgende Idee: Ich beschäftige meine Graka durch AF, FSAA und hohe Auflösung so stark, dass sie am Füllratenmaximum rumkreucht...Nach der Theorie vom Modemaus sollte dann der Output durch die "Kunstpausen" ja dann kräftig unter den theoretischen Leistungen liegen....

Oder anders gedacht: Die Karte kann ja nicht mehr leisten, als sie an Rohleistung auf der Pfanne hat, ergo sollte der Output durch diese Schwankungen ja um einiges niedriger liegen, als man erwarten dürfte.....

Demirug
2003-10-19, 13:41:53
Original geschrieben von Piffan
Ob es "Spinnerei" ist oder stimmt, ließe sich wohl klären....

VSync Ein und eine eistellung wählen welche die FPS niemals unter die Wiederholfrequenz fallen lässt.


Also wenn man das Phänomen wirklich ergründen will, dann bräuchte man ein Programm, welches die FPS in Abhängigkeit von der Zeit darstellt (bei einer Probezock), es müsste ein Graph mit hoher zeitlicher Auflösung sein, die im Millisekundenbereich liegt...

Selbst das bringt nur begrenzt etwas. Damit misst man nur die Zeit welche die CPU jeweils für einen Frame braucht. Die GPU arbeitet aber etwas ayncron dazu. Mit einem Prerender limit ist die syncronität sogar komplett dahin.

nVidia hat da ein nettes Tool. Das zeigt an wie viel CPU-Zeit ein Frame im Treiber beantsprucht wie lange die Grafikkarte rendert und wie lange am Ende die CPU auf die Grafikkarte wartet. Das Tool ist aber leider nicht öffentlich verfügbar.

Ailuros
2003-10-19, 13:42:14
Ich hab JK3 nicht also hat es auch keinen Sinn da drauf zu kommentieren.

Im grossen und Ganzen stimme ich Dir zu nur hab ich persoenlich bis jetzt nichts dergleichen bemerkt ausser Faellen wo ein Spiel streng Glide optimiert war und die alternativen APIs die zur Verfuegung standen nicht effizient genug waren.

Der Threadstarter sagt aber aus, dass es API- unabhängig sei, also auch bei NONglide- Spielen......

Ja aber welche Spiele? Ich befuerchte dass es hier nur um ein Gefuehl handelt.

Piffan
2003-10-19, 13:53:51
Original geschrieben von Demirug
VSync Ein und eine eistellung wählen welche die FPS niemals unter die Wiederholfrequenz fallen lässt.




Selbst das bringt nur begrenzt etwas. Damit misst man nur die Zeit welche die CPU jeweils für einen Frame braucht. Die GPU arbeitet aber etwas ayncron dazu. Mit einem Prerender limit ist die syncronität sogar komplett dahin.

nVidia hat da ein nettes Tool. Das zeigt an wie viel CPU-Zeit ein Frame im Treiber beantsprucht wie lange die Grafikkarte rendert und wie lange am Ende die CPU auf die Grafikkarte wartet. Das Tool ist aber leider nicht öffentlich verfügbar.

Und wenn ich die Auflösung nun auf 1/10 einer Sekunde verringere? DAnn könnte ich doch erkennen, ob die FPS über die Sekunde verteilt sehr schwanken....Ob es da Bursts gibt oder jedes einzelene Bild die gleiche Zeitspanne braucht.....

Selbst bei vsync on und einer FPS- Zahl, die mindestens der Monitorfrequenz entspricht, könnte es doch sein, dass hin und wieder mal ein Bild rausfällt, falls Modemaus mit seiner These recht hätte (Falls! ;) )

Modemaus
2003-10-19, 14:01:42
Original geschrieben von Ailuros
Ja aber welche Spiele?

ich kann natürlich nur spiele angeben die ich auch habe, jk habe ich zb nicht, an aktuellen titeln sind das (mit dem beschriebenen effekt: rtcw, gta3 vice city, gothic2/dndr, morrowind und etwas älter ut.

edit: wie siehts bei den leuten aus die den effekt auch bemerken? ´sind auch alle spiele betroffen oder nur wenige bestimmte?

und wozu sind 3 posts hintereinander gut?

Demirug
2003-10-19, 14:02:21
Original geschrieben von Piffan
Und wenn ich die Auflösung nun auf 1/10 einer Sekunde verringere? DAnn könnte ich doch erkennen, ob die FPS über die Sekunde verteilt sehr schwanken....Ob es da Bursts gibt oder jedes einzelene Bild die gleiche Zeitspanne braucht.....

Es verbessert die Sache aber perfekt wird es eben nur wenn man Rückmeldungen direkt von der Grafikkarte nutzen kann.

Selbst bei vsync on und einer FPS- Zahl, die mindestens der Monitorfrequenz entspricht, könnte es doch sein, dass hin und wieder mal ein Bild rausfällt, falls Modemaus mit seiner These recht hätte (Falls! ;) )

hehe ich schrieb ja extra "niemals".

Hellspawn
2003-10-19, 16:17:33
Am Dienstag hab ich wieder Zeit dann werd ich mal alle Spiele testen die ich auf der Platte hab(und das sind einige hehe) um nachher zu berichten wo diese Ruckler auftreten.. Q3 engine aber schonmal ganz sicher, wenn RTCW, EF2 und JK3 bis jetzt genannt wurden oder? UT auch 100%ig weil ich TO täglich spiele und es bis jetzt mit der R9800pro NIE ruckelfrei ging(Treibereinstellungen hin oder her)..

@Piffan: Hi Du! Vielleicht kannst du mir erklären was dein Problem ist.. du hast diese "Stottern" anscheinend nicht(wahrscheinlich wegen deiner l33tness und deinem überragendem wissen über ini einträge :bonk: ) also wieso kommst du dann hier rein und versuchst uns als spinner ab zu tun!? Wenn du a)das Prob nicht hast und b)auch nix dazu beitragen willst, um es bei uns zu lösen, halt dich bitte raus... ich meine das absolut nicht böse, nur versteh ich dein verhalten einfach nicht.. ein, zwar extrem krasses, vergleichbares beispiel sind die alt- und neonazis die Konzentrationslager noch immer leugnen, obwohl es sie eindeutig gab! Du machst hier im Prinzip das gleiche, indem du einfach deine Meinung über die Erfahrungen von Usern stellst, die darunter "leiden"! Ich würde echt nur gern wissen wieso sowas auftritt und ob das auf zB. auf "Treiberoptimierungen" zurückzuführen ist, oder GPU interne Fehler etc.. NUR deswegen schreibe ich hier, und nicht weil ich irgendwelche Firmen runtermachen und andere in den Himmel loben will, sondern weil ich als Spieler, der viel Geld für seine Hardware ausgegeben hat, über solche Phänomene in Spielen einfach entsetzt bin! Wem bringen 1000fps bei 16xaa und 256xaf was, wenn das spiel TROTZDEM ruckelt?? Und deswegen hätte ich gerne, dass sich Leute damit auseinandersetzen, die Ahnung haben und evtl. auf den Grund des Problems stossen können..

mfg

PS: Ich habe definitiv keine Treiberreste weil ich bei jedem Update erst die Treiber und Hardware deinstalliere, dann den Drivercleaner nutze und dann erst update'e! Auch sonst ist mein Sys wirklich schön straff und aufgeräumt! Ich finds ziemlich komisch von dir, gleich zu behaupten, dass keiner ausser dir Ahnung von seinem Sys hat....

Cadmus
2003-10-19, 16:27:35
Vielleicht sollte man die Glide-Schnittstelle reaktivieren :lol:
Was ich noch gerne wissen möchte, ist, was aus Khronos OpenML-Schnittstelle geworden ist, die mal als Alternative zu D3D gedacht war. Kennen mich da nicht allzu gut aus, kurze Aufklärung?

Piffan
2003-10-19, 17:00:00
Original geschrieben von Hellspawn
Am Dienstag hab ich wieder Zeit dann werd ich mal alle Spiele testen die ich auf der Platte hab(und das sind einige hehe) um nachher zu berichten wo diese Ruckler auftreten.. Q3 engine aber schonmal ganz sicher, wenn RTCW, EF2 und JK3 bis jetzt genannt wurden oder? UT auch 100%ig weil ich TO täglich spiele und es bis jetzt mit der R9800pro NIE ruckelfrei ging(Treibereinstellungen hin oder her)..

@Piffan: Hi Du! Vielleicht kannst du mir erklären was dein Problem ist.. du hast diese "Stottern" anscheinend nicht(wahrscheinlich wegen deiner l33tness und deinem überragendem wissen über ini einträge :bonk: ) also wieso kommst du dann hier rein und versuchst uns als spinner ab zu tun!? Wenn du a)das Prob nicht hast und b)auch nix dazu beitragen willst, um es bei uns zu lösen, halt dich bitte raus... ich meine das absolut nicht böse, nur versteh ich dein verhalten einfach nicht.. ein, zwar extrem krasses, vergleichbares beispiel sind die alt- und neonazis die Konzentrationslager noch immer leugnen, obwohl es sie eindeutig gab! Du machst hier im Prinzip das gleiche, indem du einfach deine Meinung über die Erfahrungen von Usern stellst, die darunter "leiden"! Ich würde echt nur gern wissen wieso sowas auftritt und ob das auf zB. auf "Treiberoptimierungen" zurückzuführen ist, oder GPU interne Fehler etc.. NUR deswegen schreibe ich hier, und nicht weil ich irgendwelche Firmen runtermachen und andere in den Himmel loben will, sondern weil ich als Spieler, der viel Geld für seine Hardware ausgegeben hat, über solche Phänomene in Spielen einfach entsetzt bin! Wem bringen 1000fps bei 16xaa und 256xaf was, wenn das spiel TROTZDEM ruckelt?? Und deswegen hätte ich gerne, dass sich Leute damit auseinandersetzen, die Ahnung haben und evtl. auf den Grund des Problems stossen können..

mfg

PS: Ich habe definitiv keine Treiberreste weil ich bei jedem Update erst die Treiber und Hardware deinstalliere, dann den Drivercleaner nutze und dann erst update'e! Auch sonst ist mein Sys wirklich schön straff und aufgeräumt! Ich finds ziemlich komisch von dir, gleich zu behaupten, dass keiner ausser dir Ahnung von seinem Sys hat....

Ich leugne ja nicht, dass es bei einigen ruckelt...darum ist der Nazivergleich eher peinlich als stichhaltig....kann mich auch dunkel erinnern, dass ich anfangs UT auch sehr ungern mit der Geforce spielte, weil sie im Vergleich zur aalten Voodoo 2- SLI viel schlechter performte....dieses Hacken, unrunde Laufen oder auch "Mikroruckeln" kenne ich auch zur Genüge......

Ich habe vielleicht selbst etwas überzogen, wenn sich jetzt alle "Anhänger des Mikroruckeln" als DAU bezeichnet fühlen...so habe ich es nicht gemeint. Ich war der vielleicht irrigen Meinung, dass es vom Vsync, prerender und dergl kommen müsste und fühlte mich bemüßig, den Sachverhalt noch mal auf Tapet zu bringen....das sind Dinge, die objektiv vorhanden sind und die jeder prüfen kann, wer Lust dazu hat....

Aber was auch keine Art und Weise ist und darum Widerspruch bis hin zur Polemik herausfordert: WEnn man eigene Beobachungen zur Regel erklärt und dann meint, dass pauschal die neuen Karten nix taugen und die böse Graka- Mafia eine renommierte Firme wie 3DFX systematisch kaputtgemacht hat, obwohl deren Hardware viel schlechter ist......

Darum geht im Kern: Kyro, Parhelia und die 3dfx- Karten sind wahre Qualität, die machen den Boliden von Heute noch vor, wie ein Spiel laufen muss.....Sorry für die Polemik, aber genau dieser Eindruck entsteht bei mir...

Vor allem lasse ich mir nicht den Mund verbieten. Ein Forum ist ja dazu da, um auszutauschen. WEnn ihr meint, dass meine Beiträge nerven, dann lest sie nicht und gut iss...

@ Modemaus: 3 Posts hintereinander, weil ich zu doof bin, mit der Quote- Funktion elegant umzugehen und weil ich gern schreibe. :P

Piffan
2003-10-19, 17:09:39
Original geschrieben von Modemaus
auf voodooalert wurde bemerkt dass die voodoo die frames gleichmässig über die sekunde verteilt liefert, während ati oder nvidia karten "spitzen" liefern und so ein ruckeliges gefühl aufkommt.
wenn ich aber vsync anmyche dürfte das gar nicht sein.

im 3d-center gibts doch oft gute beiträge, ich fände das mal ne anspruchsvolle fragestellung :)

Genau hier steht doch der Fehler! GERADE wenn vsync aktiv ist, gibts die unsägliche Ruckelei! GEnau darum habe ich auch 3! den Sachverhalt angesprochen.....

Zum vierten Mal : WEnn vsync AUS ist und das Prerenderlimit auf 1 steht, wird die Performance glatt. Alternativ: Vsync ist an, dann muss man aber konstant mehr FPS haben als Refreshrate...

Wer hat sich denn nun dem Problem in sachlicher Form genähert? Jetzt mit dem Nazispruch zu kommen ist das Letzte :bonk:

Der Eingangspost war für mich nun leider der Ausgangspunkt für die Besserwisser- Tour....

Hellspawn
2003-10-19, 17:20:24
ja sry piffan ich hab doch geschrieben ein extremes beispiel als vergleich.. aber lassen wir das doch. Wenn wir alle auf der gleichen Seite sind, und das sollten wir ja, weil wir alle Spieler sind, kanns nicht so schwer sein zum Ziel, der Beseitigung des Ruckelns, näher zu kommen ;)
Und ich meine persönlich auch nicht dass meine älteren Karten wie Voodoo2 oder TnT2 Ultra "besser" sind als aktuelle Grakas, sondern dass es mir früher einfach nicht aufgefallen wäre, dass es solche stocker gibt.. naja da hatte ich auch nicht konstante 85fps @1024x32 4xaa 16xaf hehe.. von der Bildqualität ist die Radeon wirklich wunderbar aber trotzdem bringts mir nichts, wenn ich bei TO einen Gang entlang laufe und dabei das Gefühl hab, der Typ den ich steuere stolpert alle 2 Schritte.. und das is mein Prob ;(

Edit: Genau meine ich zB den Gang auf der Map Trooper2 oder der hohen Brücke auf Rapidwaters bei AoT:Tactical Ops...

PS: Wie schalt ich das Prerenderlimit ein? Ich würd gern testen ob ich bei TO ohne Vsync aber mit diesem "PRL" spielen kann ohne a)ruckeln(stottern) und b)ohne Tearing

Piffan
2003-10-19, 17:24:59
Original geschrieben von Hellspawn
ja sry piffan ich hab doch geschrieben ein extremes beispiel als vergleich.. aber lassen wir das doch. Wenn wir alle auf der gleichen Seite sind, und das sollten wir ja, weil wir alle Spieler sind, kanns nicht so schwer sein zum Ziel, der Beseitigung des Ruckelns, näher zu kommen ;)
Und ich meine persönlich auch nicht dass meine älteren Karten wie Voodoo2 oder TnT2 Ultra "besser" sind als aktuelle Grakas, sondern dass es mir früher einfach nicht aufgefallen wäre, dass es solche stocker gibt.. naja da hatte ich auch nicht konstante 85fps @1024x32 4xaa 16xaf hehe.. von der Bildqualität ist die Radeon wirklich wunderbar aber trotzdem bringts mir nichts, wenn ich bei TO einen Gang entlang laufe und dabei das Gefühl hab, der Typ den ich steuere stolpert alle 2 Schritte..

:bier:


Solche Zuckler würden mich auch nerven..

Ernie
2003-10-19, 17:30:03
Original geschrieben von Demirug


nVidia hat da ein nettes Tool. Das zeigt an wie viel CPU-Zeit ein Frame im Treiber beantsprucht wie lange die Grafikkarte rendert und wie lange am Ende die CPU auf die Grafikkarte wartet. Das Tool ist aber leider nicht öffentlich verfügbar.

MDK 2 zeigt entsprechende Daten ebenfalls an. Unter OpenGL übrigens. Wäre eigentlich ein ganz passender Vergleichstest...

Piffan
2003-10-19, 17:41:15
Original geschrieben von Ernie
MDK 2 zeigt entsprechende Daten ebenfalls an. Unter OpenGL übrigens. Wäre eigentlich ein ganz passender Vergleichstest...

Dann nenne doch bitte auch die Konsolenbefehle......Oder ist es der integrierte Benchmark? Wie wurde der doch gleich gestartet? 'schon mal nach der Cd such'

danse
2003-10-19, 17:49:05
kleine idee die mir grad beim durchlesen und testen in quake3 eingefallen ist. wenn ich per getright und limit rate etwas downloade, dann erscheint das downloadstream histogram als zickzack kurve. diese eigenschaft im hinterkopf auf ein spiel übertragen.. meine system schaft in quake3 konstant 125frames (maxfps 125) wenn ich vsync ausstelle und den monitor auf 60hz laufen lasse. stelle ich vsync on, so kann ich ein deutliches ruckeln feststellen. das dürfte nicht an der raw leistung der graka liegen, da sie zu wesentlich mehr fähig ist als 60frames pro sekunde. das bringt mich jetzt zur verknüpfung mit der zick-zack-kurve beim downloaden. wie wird der vsync limitiert? rechnet die karte langsamer und gibt dann ein bild aus? rechnet die karte genauso schnell als würde es kein vsync geben und wartet nur auf den monitor? wenn zweiteres, was passiert mit den bildern die zuviel berehcnet wurden? was passiert wenn die grafikkarte genau zu dem zeitpunkt, wo der monitor ein neues bild aufbauen kann, das bild noch nicht berehcnet hat und die älteren schon verfallen sind, da zu alt?

ich finde, der framecounter in quake arbeitet sehr genau. scheinbar für jeden frame errechnet das spiel den wert und gibt ihn aus. bei maxfps 125 und 100hz monitor, bleibt der counter exakt auf 125fps stehen und schwankt nicht. bei 60hz und vsync on, schwankt er dagegen heftig .. 50-70, soweit ich das mitbekommen kann.

Ernie
2003-10-19, 17:56:45
Original geschrieben von Piffan
Dann nenne doch bitte auch die Konsolenbefehle......Oder ist es der integrierte Benchmark? Wie wurde der doch gleich gestartet? 'schon mal nach der Cd such'

Yep, der integrierte Benchmark. Unbedingt auf 1.02 patchen! Er zeigt simultan die Graka- und CPU- Auslastung an. Also nicht so komplex wie oben beim Nvidia-Tool beschrieben, aber vielleicht hilft der schonmal weiter. Zumal Voodoo-Karten noch eine angemessene Performance bieten dürften.

Piffan
2003-10-19, 18:10:57
Original geschrieben von danse
kleine idee die mir grad beim durchlesen und testen in quake3 eingefallen ist. wenn ich per getright und limit rate etwas downloade, dann erscheint das downloadstream histogram als zickzack kurve. diese eigenschaft im hinterkopf auf ein spiel übertragen.. meine system schaft in quake3 konstant 125frames (maxfps 125) wenn ich vsync ausstelle und den monitor auf 60hz laufen lasse. stelle ich vsync on, so kann ich ein deutliches ruckeln feststellen. das dürfte nicht an der raw leistung der graka liegen, da sie zu wesentlich mehr fähig ist als 60frames pro sekunde. das bringt mich jetzt zur verknüpfung mit der zick-zack-kurve beim downloaden. wie wird der vsync limitiert? rechnet die karte langsamer und gibt dann ein bild aus? rechnet die karte genauso schnell als würde es kein vsync geben und wartet nur auf den monitor? wenn zweiteres, was passiert mit den bildern die zuviel berehcnet wurden? was passiert wenn die grafikkarte genau zu dem zeitpunkt, wo der monitor ein neues bild aufbauen kann, das bild noch nicht berehcnet hat und die älteren schon verfallen sind, da zu alt?

ich finde, der framecounter in quake arbeitet sehr genau. scheinbar für jeden frame errechnet das spiel den wert und gibt ihn aus. bei maxfps 125 und 100hz monitor, bleibt der counter exakt auf 125fps stehen und schwankt nicht. bei 60hz und vsync on, schwankt er dagegen heftig .. 50-70, soweit ich das mitbekommen kann.


Genau solche Fragen sind spannend....letztlich ist es die Frage: Wie funktioniert ne 3D- Engine...Wahrscheinlich so komplex, dass man mir der Feuerzangenbowle- Methode "Also da stellen wir uns doch mal ganz dumm....." auch nicht weiterkommt....

Fürchte, dass ich in diesem Leben wohl keine Möglichkeit/Energie hätte, genug zu diesem Thema zu lernen, um zu verstehen.....aber staunen ist doch auch schon mal was..

danse
2003-10-19, 18:19:18
Gut mein geek, dann helf mir bei der Beantwortung der Fragen.

id ist ja bekanntlich eine softwareschmiede die sehr guten und poerformanten code erzeugen kann. wieso dann dieses problem mit den schwankungen bei vsync on, wo man doch erwarten sollte, das genau 60frames pro sekunde rauskommen.

teile uns doch dein wissen mit, dein halbwissen, deine wahrheiten. vielleicht versteht es auch jemand anderes und lernt davon. Aufklärung sollte deine oberste Maxime sein, wenn du keine dummen Fragen/Posts mehr sehen willst.

Leonidas
2003-10-19, 18:42:20
Original geschrieben von Piffan
Mal so ein paar Gedanken eines Laien:

WEnn man als gegeben nimmt, dass der Counter richtig rechnet, außerdem unterstellt, dass die Bilder ungleichmäßig fließen, also es Zeiten gibt, wo kein Bild gezeichnet wird, dann aber wieder sehr viele gezeichnet werden, so dass im Schnitt dann doch ein hoher Wert entsteht, dann frage ich mich:



[Verschwörungs-Mode on]
Technisch gesehen reicht es somit aus, in einer Sekunde 10 Bilder zu produzieren (10 fps) und dann diese einfach mehrfach an den Bildschirm zu liefern, so daß alle Meßprogramme 60 fps oder so anzeigen. Womöglich ist das ja eine schon längst gängige Cheat-Methoder der gfx-Hersteller :-))))))))))))))))
[Verschwörungs-Mode off]

Aquaschaf
2003-10-19, 18:44:56
Genau :D

Und bei populären Spielen werden ab und zu vorberechnete Bilder zwischengeschoben, um ein paar fps zusätzlich zu ergattern...

Hellspawn
2003-10-19, 20:04:35
Original geschrieben von Leonidas
[Verschwörungs-Mode on]
Technisch gesehen reicht es somit aus, in einer Sekunde 10 Bilder zu produzieren (10 fps) und dann diese einfach mehrfach an den Bildschirm zu liefern, so daß alle Meßprogramme 60 fps oder so anzeigen. Womöglich ist das ja eine schon längst gängige Cheat-Methoder der gfx-Hersteller :-))))))))))))))))
[Verschwörungs-Mode off]

Wirst du dich mit diesem Problem, vielleicht durch einen artikel, auseinandersetzen und nach der Lösung suchen? BITTE.. wäre schade wenn du nur kurz reingeschaut hättest um einen "Witz" zu reissen und dann wieder verschwindest, weil die Probleme der Spieler lösts leider auch ned...

mfg

PS: Cya @ Red Orchestra du Sniper-Camper hehehe

Aquaschaf
2003-10-19, 20:19:03
Ich finde das Ganze etwas überzogen, bis zu diesem Thread habe ich von solchen Problemen ehrlich gesagt noch nie etwas gehört oder bemerkt.

Piffan
2003-10-19, 20:27:39
Original geschrieben von danse
Gut mein geek, dann helf mir bei der Beantwortung der Fragen.

id ist ja bekanntlich eine softwareschmiede die sehr guten und poerformanten code erzeugen kann. wieso dann dieses problem mit den schwankungen bei vsync on, wo man doch erwarten sollte, das genau 60frames pro sekunde rauskommen.

teile uns doch dein wissen mit, dein halbwissen, deine wahrheiten. vielleicht versteht es auch jemand anderes und lernt davon. Aufklärung sollte deine oberste Maxime sein, wenn du keine dummen Fragen/Posts mehr sehen willst.

Es gibt keine Schwankungen, wenn die Graka/Engine/System die Monitorfrequenz schafft. Da ist die FPS- Zahl gleich der Monitorfrequenz. Dies ist der Zustand, wo es recht rund läuft. AFAIK

Nun schafft die Graka/Engine/System angenommenermaßen ganz knapp weniger als die Monitorfrequenz: Weil vsync on dafür sorgt, dass keine unfertigen Bilder auf den Monitor geschickt werden, wird das selbe, schon mal gesehene Bild, ein zweites Mal gezeigt. Hat zur Folge, dass die Zahl der gezeigten Bilder mit verschiedenem Inhalt auf die Hälfte der Monitorfrequenz fällt......

Die heftigsten Schwankungen treten auf, wenn die Engine so in der Nähe der Monitorfrequenz rumeiert.....die nächste Stufe wäre 1/3, dann 1/4 usw...nach unten hin werden die Sprünge dann kleiner......

Dies ist kein Halbwissen oder meine Wahrheit, das ist einfach so....;)

DAs Problem kommt wohl daher, dass die meisten Spieler nichts vom Front, Back- oder Triple- Buffer gehört haben. Ist dabei so simpel wie einfach zu verstehen.

Ein Speicher (Buffer) enthält das Bild, welches aktuell an den Monitor geschickt wird und von diesem Zeilenweise angezeigt wird. Der zweite Buffer enthält das unfertige Bild, welches von der Graka gerade gezeichnet wird, es ist ein Teilbild. Irgendwann ist der Monitor fertig mit der Anzeige des Bildes, die Zeitintervalle sind konstant, es ist die Monitorfrequenz (z.B. 100 Hz/Bilder pro Sek). Ist die Graka noch nicht fertig mit ihrem Bild, dann wird im Falle von Vsync ON das fertige Bild noch ein zweites Mal an den Monitor gesendet. Dabei ist es unerheblich, ob die Graka FAST fertig war oder erst die Hälfte geschafft hat, gestückelte Bilder werden nicht übersendet. Daher kommt es, dass bei knapper Unterschreitung der der Monitorfrquenz die Bilderrate halbiert wird...

Also kann es beim Gamen vorkommen, dass das System überwiegend oberhalb der Schwelle liegt und alles wunderbar rund läuft, gelegentlich aber die FPS- Zahlen geringfügig unter die Schwelle fallen --> heftiger Einbruch der Bilderrate auf 50 %! Wenn der Framecounter etwas schleppend hinter den aktuellen Werten hertrödelt, dann sieht man es an den Zahlen vielleicht gar nicht, spürt es dennoch deutlich...




Blödsinn gestrichen, könnte auch das ganze streichen....ich raff nix mehr....

Piffan
2003-10-19, 20:49:44
Original geschrieben von Hellspawn
ja sry piffan ich hab doch geschrieben ein extremes beispiel als vergleich.. aber lassen wir das doch. Wenn wir alle auf der gleichen Seite sind, und das sollten wir ja, weil wir alle Spieler sind, kanns nicht so schwer sein zum Ziel, der Beseitigung des Ruckelns, näher zu kommen ;)
Und ich meine persönlich auch nicht dass meine älteren Karten wie Voodoo2 oder TnT2 Ultra "besser" sind als aktuelle Grakas, sondern dass es mir früher einfach nicht aufgefallen wäre, dass es solche stocker gibt.. naja da hatte ich auch nicht konstante 85fps @1024x32 4xaa 16xaf hehe.. von der Bildqualität ist die Radeon wirklich wunderbar aber trotzdem bringts mir nichts, wenn ich bei TO einen Gang entlang laufe und dabei das Gefühl hab, der Typ den ich steuere stolpert alle 2 Schritte.. und das is mein Prob ;(

Edit: Genau meine ich zB den Gang auf der Map Trooper2 oder der hohen Brücke auf Rapidwaters bei AoT:Tactical Ops...

PS: Wie schalt ich das Prerenderlimit ein? Ich würd gern testen ob ich bei TO ohne Vsync aber mit diesem "PRL" spielen kann ohne a)ruckeln(stottern) und b)ohne Tearing

Dein Prob scheint anders gelagert zu sein. Du hast keine Mikroruckler im Sinne von Modemaus, du hast Stottern.......Wenn es so heftig ist, dass dein Alter Ego fast stolpert, dann überprüfe doch mal die laufenden Prozesse im Hintergrund. Wie groß ist die Aperture- Size? Schon mal mit Dxdiag geguckt, ob alle Funktionen da sind?

Asche auf mein Haupt: Bei der Radeon gibts die Option "Prerender- Limit" gar nicht. Das war mir noch von der Geforce im Gedächtnis geblieben.....Bei der Radeon gibts nur Vsync ON oder OFF.

brutaLIzer
2003-10-19, 22:55:28
ähm, hat hier mal einer bemerkt, daß die meisten konsolen-spiele super flüssig laufen? oder auch die alten automaten-racer (die neuen kenn ich nicht mehr).

es hat bestimmt mit konstanter frame-rate, die der monitor auch darstellen kann, zu tun.

ich sehe auch sehr selten pc-games, die mir absolut flüssig vorkommen, egal mit wieviel fps die laufen.
wenn ich aber an meine u1/ut sessions auf der voodoo2 zurückdenke... ich glaube die waren tatsächlich sehr flüssig... wo das hier mal so angesprochen wurde... <denk>

nggalai
2003-10-19, 23:38:53
Original geschrieben von brutaLIzer
ähm, hat hier mal einer bemerkt, daß die meisten konsolen-spiele super flüssig laufen? oder auch die alten automaten-racer (die neuen kenn ich nicht mehr).

es hat bestimmt mit konstanter frame-rate, die der monitor auch darstellen kann, zu tun.Eben. Die Konsole muss da einfach 50 Halbbilder pro Sekunde Rendern (60 für USA). Und das schaffen die (meistens) angesichts der niedrigen Halbbildauflösung auch, ergo hast Du den von Piffan so eindringlich beschworenen VSync-Effekt: mit jedem Bildschirm-Refresh hast Du ein neues Bild -> kein Mikro-Ruckeln möglich.

Ist bei meinem TFT übrigens auch ähnlich--der hat 60Hz, und plötzlich fühlen sich viele Spiele wie z.B. Morrowind oder Max Payne 1 deutlich flüssiger mit VSync an als noch mitm 85Hz CRT, obwohl sie eigentlich weniger fps liefern müssten. Grund: wenn die Framerate so um die 40-45fps liegt wird mitm TFT einfach durchgehend bei 30fps gekappt (auf über 60 komme ich selten bis nie), aufm CRT wird da immer "schön" schwankend zwischen 42.5fps / 28fps umgeschaltet (stottern / slow-downs), ohne VSync hatte ich das Mikro-Ruckeln. Und Spiele, wo ich wirklich mehr als 30fps haben will, kriege ich einfacher auf konstante 60fps als auf konstante 85fps . . .

93,
-Sascha.rb

Haarmann
2003-10-19, 23:55:40
Leonidas

Darauf würde ich sogar wetten, dass einige Hersteller, NVidia ohnehin, das als "Optimierung" einsetzen, falls die FPS Zahl hoch genug liegen würde ...
Lässt sich im Grenzbereich immer gut nachweisen, falls man danach sucht.

Hellspawn
2003-10-20, 00:09:05
Original geschrieben von Piffan
Dein Prob scheint anders gelagert zu sein. Du hast keine Mikroruckler im Sinne von Modemaus, du hast Stottern.......Wenn es so heftig ist, dass dein Alter Ego fast stolpert, dann überprüfe doch mal die laufenden Prozesse im Hintergrund. Wie groß ist die Aperture- Size? Schon mal mit Dxdiag geguckt, ob alle Funktionen da sind?

Asche auf mein Haupt: Bei der Radeon gibts die Option "Prerender- Limit" gar nicht. Das war mir noch von der Geforce im Gedächtnis geblieben.....Bei der Radeon gibts nur Vsync ON oder OFF.

nein nein piffan ich weiss schon was der unterschied ist.. hatte dieses berüchtige stuttering problem auf meiner 8500er.. das was ich meine ist mikroruckeln-->in to sind 2 schritte schnell gemacht ;).. es is fast so als würde man wissen dass alles ruckelfrei läuft, nur dass aug sieht eben dieses zuckeln ganze zeit! Wenn du EF2 hast, vielleicht lässt es sich ja bei dir reproduzieren: Bleib einfach im Menue, und schau bei der rotierenden Enterprise auf die Ecken, da sieht mans wirklich leicht!

Leonidas
2003-10-20, 00:51:00
Original geschrieben von Hellspawn
Wirst du dich mit diesem Problem, vielleicht durch einen artikel, auseinandersetzen und nach der Lösung suchen? BITTE.. wäre schade wenn du nur kurz reingeschaut hättest um einen "Witz" zu reissen und dann wieder verschwindest, weil die Probleme der Spieler lösts leider auch ned...




Leider wüsste ich nicht, wie ich das nachweisen sollte.

Ailuros
2003-10-20, 03:45:02
VSync Ein und eine eistellung wählen welche die FPS niemals unter die Wiederholfrequenz fallen lässt.

Hab's probiert und es aendert sich auch nichts. Obwohl FRAPS nur jede sec logt, hier ist das aufgenommene Resultat (und nein ich hab AA/AF nicht ausgeschaltet):

83
85
83
85
69
84
84
84
84
67
83
69
44
85
82
85
81
85
84
84
84
84
84
84
83
84
84
84
84
43
85
77
82
84
85
84
83
84
85
83
84
83
84
84
84
84
83
84
85
83
84
84
82
85
84
84
84
85
83
84
85
83
84
83
84
85
83
84
82
85
85
83
84
84
84
85
83
85
84
84
83
84
85
83
80
77
84
82
83
85
83
84
85
83
85
85
83
84
84
84
83
84
85
84
84
83
80
85
83
85
84
84
83
81
85
84
83
78
83
84
84
85
83
84
76
75
77
81
84
84
83
72
74
85
76
74
84
84
84
84
84
84
84
83
85
83
85
78
83
82
84
84
84
80
81
84
84
84
81
81
85
84
76
70
84
84
84
85
83
84
84
84
84
84
83
84
84
82
81
84
85
83
84
84
84
84
84
76
74
84
84
84
85
84
84
84
84
84
84
82
84
84
84
79
85
73
76
84
84
84
85
66
85
83
84
84

Ailuros
2003-10-20, 04:08:31
Darum geht im Kern: Kyro, Parhelia und die 3dfx- Karten sind wahre Qualität, die machen den Boliden von Heute noch vor, wie ein Spiel laufen muss.....Sorry für die Polemik, aber genau dieser Eindruck entsteht bei mir...

Zu stark generalisiert und ein bisschen unfair zu anderen Karten.

Zwei Beispiele:

a) V5 hatte tatsaechlich hoehere minimum framerates als eine KYRO2 in SeriousSam, obwohl der Durchschnitt wenn nicht gleich, leicht hoeher unter Situationen bei der letzten war. Overdraw hin oder her, K2 hatte immer nur 350MTexels/sec verfuegbar. Der besagte Unterschied trat aber nur auf wenn die CPU gleich oder unter 1GHz lag. Sobald man einen 1.2 oder 1.4GHz CPU einsetzte rannte die K2 der V5 selbst in den minimalen Frameraten davon (hatte ich auch in RtCW bestaetigt).

b) Parhelia ist ein ganz anderes Tier. Deren OGL Treiber kann mich auch heute noch nicht ueberzeugen und alles das kein quad texturing benutzt ist meistens eine schlechte Idee. Im Checkpoint demo von RtCW konnte die Parhelia nur magere 30fps brechen, wobei selbst eine KYRO2 doppelt so viel geliefert hat. Selbst wenn die Parhelia nie ueber oder unter den 30fps schwanken wuerde, sah das besagte Spiel nie so fluessig aus wie auf anderen Karten.

***edit:

Wichtiger Nachtrag: mit neueren Treibern wurde das ganze natuerlich korrigiert:

http://www.beyond3d.com/reviews/matrox/parhelia/index.php?p=9

***

Parhelia hat uebrigens auch ein sehr merkwuerdiges Bandbreiten-Problemen sobald zu viele kleine Dreiecke vorkommen. Mir wurde mal gesagt dass in solchen Faellen ihre Bandbreite bis zu 84% nach unten sinkt, weiss aber nicht ob es stimmt. IMHO eher ein Aussenseiter der schlecht zum vergleichen ist. Dabei ist uebrigens auch eine KYRO mehr GF2MX Material, waehrend V5/Radeon/GTS dann schon eher in der gleichen Region liegen; zumindest IMO.

Gast
2003-10-20, 08:54:18
Original geschrieben von Leonidas
Leider wüsste ich nicht, wie ich das nachweisen sollte.

;( ich weiß.. hast du vielleicht ähnliches selber erlebt? Du dürftest ja die neuen Karten alle selber testen können oder? Mich würde schon interessieren was du von der Sache hältst..

PS: Hellspawn hier

Xmas
2003-10-21, 02:44:11
Original geschrieben von Haarmann
Leonidas

Darauf würde ich sogar wetten, dass einige Hersteller, NVidia ohnehin, das als "Optimierung" einsetzen, falls die FPS Zahl hoch genug liegen würde ...
Lässt sich im Grenzbereich immer gut nachweisen, falls man danach sucht.
Das ist aufgrund des üblichen Aufbaus einer Spiel-Engine praktisch nicht möglich.

Piffan
2003-10-21, 13:25:45
Bei der Demo von Halo ist mir folgendes aufgefallen: Wenn ich da eine feste FPS- Zahl von 30 vorgebe (bei einem Refresh von 60 Hz), dann ist die Performance wesentlich angenehmer, als wenn ich ohne diese Beschränkung spiele. Es wirkt alles weicher und geschmeidiger, stärkere Rucks treten nach meinem Gefühl gar nicht mehr auf.....

Dieses Beispiel einer Konsolenportierung zeigt mir, woran die Idee krankt, ein Konsolenspiel für den Pc umzusetzen: Die Entwickler gehen von einer niedrigen FPS- Zahl aus, die ja nur der Bildwiederholrate des Fernsehers entsprechen muss, und von einer recht niedrigen Auflösung. Die Folge bei Halo(Demo) ist: Da wird auf Teufel komm raus mit Effekten verschwenderisch umgegangen, die Grafikhardware schafft das ja mit links...Nun wird das ganze auf den Pc konvertiert und nun gelten andere Rahmenbedingungen: Abenteuerliche ;) Auflösungen und füllraten-killende Mätzchen wie AF, obwohl die Texturen ja so dolle gar nicht sind.... Es kommt wie es kommen muss: Halo ist eigentlich nur vernünftig zu zocken, indem man auf AF ganz verzichtet oder aber in 640x480 gaymt.....

Was aber nix mehr bringt auf einer Graka vom Schlage einer Rad 9700: Noch weiter runter zu gehen mit der Auflösung, die Performance hat auf meinem Sys ihr Optimum bei 640x480...

Ich hoffe, dass solche Ausrutsche der Entwickler in Zukunft ausbleiben - obwohl, man gewöhnt sich schnell an konstante 30 FPS. Immerhin haben die Entwickler so weit mitgedacht, diese Option anzubieten. Die Spieletester in den Mags kritisieren dagegen diesen "FPS- Lock"... :bonk: