PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G2 MX gegen Kyro2?


Unregistered
2001-11-05, 19:30:00
Ich bin seit 1 1/2 Monaten Besitzer eines Athlon 1400c. Habe aber nur (vom alten Rechner) ein Geforce2 MX. Diese bremst auffallend den Computer. Lohnt sich nun ein Kauf der Kyro2? Ich möchte ungern mehr als 300 DM für eine Grafikkarte ausgeben.
Wie ist das den nun mit dem T&L? Ist software T&L schneller (Athlon1400) als bei der G2 MX (Hardware)?

Über eine brauchbare Antwort würde ich mich freuen.

Doomtrain
2001-11-05, 19:34:03
Originally posted by Unregistered
Ich bin seit 1 1/2 Monaten Besitzer eines Athlon 1400c. Habe aber nur (vom alten Rechner) ein Geforce2 MX. Diese bremst auffallend den Computer. Lohnt sich nun ein Kauf der Kyro2? Ich möchte ungern mehr als 300 DM für eine Grafikkarte ausgeben.
Wie ist das den nun mit dem T&L? Ist software T&L schneller (Athlon1400) als bei der G2 MX (Hardware)?

Über eine brauchbare Antwort würde ich mich freuen.

Kyro lohnt sich natürlich, da die Bildqualität um längen besser ist, un díe Speed auch. Bei 1400Mhz brauchst du kein T&L in Hardware. KyroII Karten skalieren auch sehr gut mit dem Prozessor. Eine KyroII kannst du schon für 250DM bekommen, und das ist dann kein NoName Produkt. Immer noch das beste Preis-leistungverhältnis in diese Klasse. Die Treiber sind nun auch optimal. Kaufen!

MadManniMan
2001-11-05, 19:36:53
du würdest nen unterschied merken, der rechtfertigt aber niemals 200,-(innovision 64mb + tvo)

b0wle`
2001-11-05, 19:43:05
naja wenigstens kann er dann alles in 32Bit zocken ;)

Unregistered
2001-11-05, 19:48:19
Hallo!
Ich habe hier 2 PCs, einen mit Typhoon Matrix (Geforce 2 MX) und einen mit Hercules Prophet 4500 (Kyro 2). Beide Rechner arbeiteten bis vor kurzem mit einem Athlon 700, einer der beiden Rechner hat nun einen Athlon 1400 drin. Da die Rechenleistung bei der Kyro mehr bringt, baute ich in den 1400er die Kyro2 Karte.

Meine Einschätzung:

2D Signalqualität:
Die Hercules Karte hat hier klar die Nase vorn, das Bild ist selbst unter 1024*768 deutlich schärfer.

3D Performance:
Bei 700MHz waren sie gleichschnell, bei 1400 ist die Kyro II deutlich fixer.

Kompatibilität:
Mit der Geforce 2 MX hatte ich mehr Probleme. Dies hängt aber wohl je nach Spiel etc. ab. Also schwer zu sagen.

Ob es sich lohnt eine Kyro2 als Upgrade zu einer MX zu kaufen:
Ich denke nicht. Der Leistungsunterschied rechtfertigt eine Investition von 250DM nicht. Warte lieber noch ein bischen und kauf dir in 1-2 Monaten eine Geforce 3 Ti 200. Ist zwar etwas teurer, dafür aber auch gut übertaktbar und dadurch sehr viel schneller. Falls ATI es schafft vernünftige Treiber für die Radeon 8500 rauszubringen, ist sie evt. auch eine Wahl wert.

Doomtrain
2001-11-05, 19:57:28
@Unregistered

Er will aber nicht mehr als 300DM ausgeben! Und in ein paar Monaten werden die von dir genannten Karte wohl kaum auf dieses Preislevel fallen.

Unregistered
2001-11-05, 20:09:26
Stimmt, hab ich übersehen mit den 300DM. Dann würde ich an seiner Stelle noch länger warten. Was nützt der Speed einer Kyro 2, wenn ich z.B. antialiasing nicht sinnvoll nutzen kann? Ist bei mir so, beim Counterstrike zocken hab ich zwar immer noch knapp 50fps mit 4fach AA auf der Kyro2, aber die Maus ist total träge, es ist unspielbar. Ob das bei anderen Games auch so ist weiß ich nicht. Außerdem ist IMO anisotropisches Filtern noch wichtiger, und hier macht die Kyro richtig schlapp.

ow
2001-11-05, 20:31:40
Originally posted by Unregistered
Ich bin seit 1 1/2 Monaten Besitzer eines Athlon 1400c. Habe aber nur (vom alten Rechner) ein Geforce2 MX. Diese bremst auffallend den Computer. Lohnt sich nun ein Kauf der Kyro2? Ich möchte ungern mehr als 300 DM für eine Grafikkarte ausgeben.
Wie ist das den nun mit dem T&L? Ist software T&L schneller (Athlon1400) als bei der G2 MX (Hardware)?

Über eine brauchbare Antwort würde ich mich freuen.



Software T&L ist wesentlich langsamer als HW T&L, das ist ja einer der Unterschiede zwischen Software und Hardware.

aths
2001-11-05, 21:08:37
"Software T&L ist wesentlich langsamer als HW T&L, das ist ja einer der Unterschiede zwischen Software und Hardware."

In normalen Games ist der Unterschied bei 1400 MHz SW T&L und 166 MHz HW T&L nicht mehr relevant.

Die MX skaliert bis ungefähr 700-800 MHz, die Kyro2 bis 1400 MHz und weiter. Für Zocker würde sich ein Update auf alle Fälle lohnen.

Eine Ti200 einer Markenfirma wird nicht in einem Monat bei 300 Mark sein.

Quasar
2001-11-05, 22:47:18
"In normalen Games ist der Unterschied bei 1400 MHz SW T&L und 166 MHz HW T&L nicht mehr relevant."

In deinem anderen Thread hast du Max Payne als normales Game angeführt...gilt das hier auch noch?
Wenn ja, dann ist deine Behauptung absoluter Quatsch. Auf ner K2 und nem 1,5GHz Athlon schafft man mit guter BQ grad mal die Hälfte der GF2pro Frameraten (und hier reden wir nicht über den Unterschied zwischen 120 und 180 fps sondern eher über 20 und 30....)

Auch die schon sagenhafte Skalierfähigkeit der K2 ist irgendwie nicht wirklich nachzuvollziehen. Bei mir hat sich die Q3-Framerate z.B. nicht groß verändert, wenn man ein Grafikintensives Szenario getestet hat, zwischen 1000 und 1400 MHZ....entgegen aller landläufigen Meinungen hat sogar die K2 ein Füllratenlimit!


@Threadstarter (unreg.):
Wenn du nicht mehr als dreihundert Mark ausgeben willst, wird die Wahl wirklich eng. ATI hat die alten Radeons quasi abgesägt, die MX haste schon und sie langt nicht, die GTS ist überholt, die pro auch aufm absteigenden Ast, und die K2 hat zwar ne gute BQ, aber leider nicht so viel potential, wie manch einer gern sehen würde.

Das vernünftigste wären trotz allem entweder die K2, die schon deutlich schneller als die MX ist, ne gf2ti, was aber auch nicht so dolle wär, oder doch in den sauren Apfel beißen, zwei bis drei monate warten und dann ne GF3 ti200 kaufen, die sich allem Anschein nach recht gut übertakten lassen, und dann wenigstens auch für DX8 spiele halbwegs gerüstet zu sein.

Unregistered
2001-11-05, 23:09:34
Danke für die fixen Infos.
Wann kommt denn die Kyro3? Vielleicht ist die ja nicht so teuer.
Christoph

Thowe
2001-11-05, 23:50:50
wird definitiv keine Billigkarte werden, mom würde ich auf 600,- - 700,- DM tippen.

aths
2001-11-06, 07:45:54
"In deinem anderen Thread hast du Max Payne als normales Game angeführt...gilt das hier auch noch?"

Max Payne ist meiner Theorie nach mit Absicht wenig SW T&L optimiert und würde von HW T&L profitieren.

"Wenn ja, dann ist deine Behauptung absoluter Quatsch. Auf ner K2 und nem 1,5GHz Athlon schafft man mit guter BQ grad mal die Hälfte der GF2pro Frameraten (und hier reden wir nicht über den Unterschied zwischen 120 und 180 fps sondern eher über 20 und 30....)"

Wir reden nicht von GFPro vs. Kyro2, sondern MX vs Kyro2 :) Die Pro hat ja deutlich mehr Bandbreite. Die Kyro2 kann in 32 Bit die MX eigentlich immer schlagen. Die Ausnahme mag die Regel bestätigen. Kyro2 ist etwa auf GTS/Pro-Niveau, bei passender CPU.

"entgegen aller landläufigen Meinungen hat sogar die K2 ein Füllratenlimit!"

Sicher. Wobei Q3 auch recht CPU-lastig ist. Ich habe das so mitbekommen, dass das Kyro2-Füllratenlimit ungefähr mit einer Voodoo5 zu vergleichen ist, und jene skaliert mindestens bis 1333 MHz.

mirp
2001-11-06, 08:25:49
Denke Kyro III wird vielleicht 100 DM (51 €...hehe) teurer als K2 bei dessen Einführung, aber das dauert bestimmt noch ein halbes Jahr bis man die hier auch bekommt.

Holger
2001-11-06, 10:55:23
Originally posted by Thowe
wird definitiv keine Billigkarte werden, mom würde ich auf 600,- - 700,- DM tippen.

bitte verschrecke doch net die leute,
der nachfolger wird keinesfalls die 400dm
überschreiten, (jedenfalls eine version davon)
und ein halbes jahr wird es wohl net mehr dauern :)

Thowe
2001-11-06, 22:39:37
Das man hier auch immer die Antworten erpressen muss ... :D :D

Kosh
2001-11-06, 22:45:58
Wer Max Payne nimmt um die Leistung der Kyro2 zu messen (wobei die Kyro2 immer noch deutlich schneller als die MX ist) der soll zB Ultima 9 mit der Geforce3 testen.

Max Payne ist auf NVIDIA (und T&L) optimiert wie blöd.Das ist aber das enzige Spiel wo das so extrem ist.
Optimiere ein game auf die Kyro und eine TI500 verliert gegen die Kyro1.

Verkaufe deine MX bei E-Pay und kaufe dir eine Kyro2. Gibt es schon für 200 DM.

Razor
2001-11-07, 02:19:33
U9 ?
*kopf gegen die wand schlag*
*lauf amok*
*kreisch*
:bonk:
Besser...
;-)

Schau Dir das hier mal an:
http://www.3dconcepts.de/reviews/asusv8200/12.htm

Und dann sage mir, daß selbst eine Kyro oder V5 hier wirklich gut aussieht...
Bitte NICHT Uß für irgendwelche Vergleiche nutzen, dann schon lieber UT oder diesen DorfMurks...
Aber BITTE nicht U9 !

In diesem Sinne

Razor

Razor
2001-11-07, 02:22:52
Ups, hab' ja gar nichts zum Thema gesagt...

Athlon 1,4 ?
KyroII, eindeutig !
(im Vergleich zu 'ner MX ;-)

Razor

aths
2001-11-07, 09:58:03
"U9 ?
*kopf gegen die wand schlag*
*lauf amok*
*kreisch*

Vielleicht hilfts ja: U9 U9 U9 U9

U l t i m a N e u n.

Und noch mal:

Ultima XI.

Ein fantastisches Spiel. Mit Voodoo5 inkl. Anti-Aliasing übrigens ein wirkliches Erlebnis.

Die Voodoo wurde bei Raphael wegen der "Vergleichbarkeit" wohl kaum unter Glide getestet, wo sie noch mal deutlich zulegt. Zumal aber sogar 30 fps für ein SOLO-ROLLENSPIEL durchaus ausreichend ist. Es zeigt sich allerdings auch in anderen Games, dass eine Kyro2 bei einer starken CPU (und 1400 MHz sind recht stark) einer MX deutlich überlegen ist.

Andre
2001-11-07, 11:02:42
Originally posted by aths
Und noch mal:

Ultima XI.


Wie jetzt ?
Ultima 11 gibts schon ? :D

MadManniMan
2001-11-07, 14:00:07
ultima 11... das wär maln erlebnis! dafür würde ich wohl sogar mein sys aufrüsten... na egal!

@razor: was äußerst du dich eigentlich zu ultima9? du hast doch selbst gesagt, daß du es nur einmal bei nem kumpel KURZ angespielt hast. und ist dir denn immernoch nicht aufgefallen, daß JEDER, der das spiel kennt, sagt, daß bei diesem 25+fps völlig ausreichen? u9 ist kein q3!

bei letzterem spiel ich nie unter 60fps, sonst wirds mir zuwider, bei ersterem reichen mir meine 30+(kyro2)

Razor
2001-11-07, 15:05:39
Originally posted by MadManniMan der Rula
ultima 11... das wär maln erlebnis! dafür würde ich wohl sogar mein sys aufrüsten... na egal!

@razor: was äußerst du dich eigentlich zu ultima9? du hast doch selbst gesagt, daß du es nur einmal bei nem kumpel KURZ angespielt hast. und ist dir denn immernoch nicht aufgefallen, daß JEDER, der das spiel kennt, sagt, daß bei diesem 25+fps völlig ausreichen? u9 ist kein q3!

bei letzterem spiel ich nie unter 60fps, sonst wirds mir zuwider, bei ersterem reichen mir meine 30+(kyro2)
Ich habe nichts über den Inhalt von <ich sach's net> gesagt !
Aber dieses 'Ding' ist ein Paradebeispiel, wie man NICHT programmieren sollte !

Mein Bekannter ist hochgradig von diesem Game begeistert !
(und richtig von dieser scheiß -sorry- Programmierung geschockt ;-)

Wie schon gesagt, die Spielidee ist hervorragend.
Wenn man da jetzt noch 'richtige' Engine-Programmierer dran' gesetzt hätte, wär's DER Hit !
(hoffe, mich nun klar ausgedrückt zu haben ;-)

In diesem Sinne

Razor

P.S.: Als Bench ist das 'Ding' nun wirklich nicht geeignet !

ow
2001-11-07, 17:13:39
Originally posted by Razor


P.S.: Als Bench ist das 'Ding' nun wirklich nicht geeignet !


Doch, irgendwas kann man sicher auch damit benchen, nur keine Grakas;)

Quasar
2001-11-07, 17:31:16
Originally posted by aths
"In deinem anderen Thread hast du Max Payne als normales Game angeführt...gilt das hier auch noch?"

Max Payne ist meiner Theorie nach mit Absicht wenig SW T&L optimiert und würde von HW T&L profitieren.

"Wenn ja, dann ist deine Behauptung absoluter Quatsch. Auf ner K2 und nem 1,5GHz Athlon schafft man mit guter BQ grad mal die Hälfte der GF2pro Frameraten (und hier reden wir nicht über den Unterschied zwischen 120 und 180 fps sondern eher über 20 und 30....)"

Wir reden nicht von GFPro vs. Kyro2, sondern MX vs Kyro2 :) Die Pro hat ja deutlich mehr Bandbreite. Die Kyro2 kann in 32 Bit die MX eigentlich immer schlagen. Die Ausnahme mag die Regel bestätigen. Kyro2 ist etwa auf GTS/Pro-Niveau, bei passender CPU.

"entgegen aller landläufigen Meinungen hat sogar die K2 ein Füllratenlimit!"

Sicher. Wobei Q3 auch recht CPU-lastig ist. Ich habe das so mitbekommen, dass das Kyro2-Füllratenlimit ungefähr mit einer Voodoo5 zu vergleichen ist, und jene skaliert mindestens bis 1333 MHz.

Wie du sicher bemerkt hast, aths, habe ich am anfang meines Postings ein Zitat von dir eingefügt. Darauf war meine Argumentation bezogen.

Und die Kyro hat bei mir zumindest, ebenso wie die Voodoo5 ab ca. 1GHz quasi aufgehört zu skalieren.

Eine Frage noch: Wie kann man eine Engine "absichtlich wenig" auf etwas optimieren? Gut, man kann eine HW TnL optimierung machen indem man die strips usw. an die Eingangspuffer des Chips anpasst. Eine CPU ist aber eigentlich viel zu flexibel um ggü. einer Optimierung auf ein anderes Hardware-Produkt dermaßen ablehnend zu reagieren, wie du es implizierst.

Ich glaube eher, daß die K2 bei Max Payne nicht so gut mit dem AF zurechtkommt (bekanntermaßen ein Schwachpunkt des Designs, das ansonsten für die gute BQ bekannt ist).... vielleicht wird ja auch eine Version der DXTC genutzt, die die K2 auch nicht unterstützt (à la 3DMark2k1), das würde zumindest erklären, warum die Leistung wieder erträglich wird, wenn man (Texture World Detail war's glaube ich) wieder auf low setzt....

Razor
2001-11-07, 17:45:42
@Quasar

Max Payne (nicht Du Max ;-) setzt in einigen Scenen eben auf sehr viele Polygone (Partikel-Effekte, wie beim Schnee z.Bsp.). Und da kommt eben der Schwachpunkt einer Kyro zum tragen, die in diesem Fall auf die CPU baut. Die CPU kann aber nur bis zu einem bestimmten Punkt mit einer HW T&L Implementierung mithalten. Irgendwann stößt sie selber auf Limits, die nicht mal eben mit roher Leistung angegangen werden können, zumal sie ja auch noch so einiges anderes zu tun hat...

Na ja, aber das Thema ist ja nun wirklich mehr als nur einmal bis ins letzte druchgekaut worden...

Auf's Thema bezogen:
Wenn man mal von Max Payne absieht, ist für'n Athlon 1,4GHz z.Zt. die KyroII (!) noch immer erste Wahl !
(im Vergleich zu 'ner MX ;-)

In diesem Sinne

Razor

P.S.: Die engine-spezifische AF-Implementierung ist IMHO bei MP tatsächlich nicht sonderlich doll gelungen. Wer schon mal das AF der gf3 dagegen gesetzt hat, weiß, was ich meine...

MadManniMan
2001-11-07, 20:21:24
"Ich habe nichts über den Inhalt von <ich sach's net> gesagt !
Aber dieses 'Ding' ist ein Paradebeispiel, wie man NICHT programmieren sollte !"

Mein Bekannter ist hochgradig von diesem Game begeistert !
(und richtig von dieser scheiß -sorry- Programmierung geschockt ;-)

Wie schon gesagt, die Spielidee ist hervorragend.
Wenn man da jetzt noch 'richtige' Engine-Programmierer dran' gesetzt hätte, wär's DER Hit !
(hoffe, mich nun klar ausgedrückt zu haben ;-)

In diesem Sinne

Razor

P.S.: Als Bench ist das 'Ding' nun wirklich nicht geeignet !"

hm... so hört isch das schon viel besser an! nun gut, schön aussehen tut die grafik aber trotzdem... müßt halt nur ein wenig schneller sein ;D

und als bench ist es sogar sehr gut zu gebrauchen! es geht zwar ein wenig in richtung synthetisch, weil kein mir bekanntes spiel ähnlich langsam programmiert ist(absichtlich? ;) ), aber es stellt böse anforderungen an hsr und texturmanagment -> guter bench, was hälst du davon, ow?

achja @razor: glaubst du mir/uns jetzt endlich, daß 25 fps reichen ?

Razor
2001-11-07, 20:24:28
IMHO nein, nicht als Bench geeignet.

Alle Firmen mußten ihre Treiber wegen dieser unglücklichen Engine-Programmierung anpassen (3dfx nicht, da's ja dafür geproggt wurde). nVidia tat das nicht. Klar, wenn es zur Mode werden sollte, daß zukünftig die GraKa-Hersteller die Fehler der Programmierer ausbügeln, dann würde ein solcher Bench Sinn machen.

So bleibt's hoffentlich eine Ausnahme !
;-)

In diesem Sinne

Razor

P.S.: Wie soll denn eine Auswertung dieses Benches aussehen ?
"Wer hat die Fehler der Programmierer besser korrigiert ?"
;-)

P.S.2: Wenn das Spiel gut genug ist, dann reichen auch 10fps !
(na ja, 30fps müssen schon sein ;-)
;-)

MadManniMan
2001-11-07, 21:36:16
moment! wo hast du her, daß alle bis auf nva ihre treiber auf ultima9 optimiert ham?

Razor
2001-11-07, 21:56:45
Die D3D-Implementierung von <ich sach's net> ist, sagen wir mal, wieder der entsprechenden Vorgaben geschehen...

Um diese dabei entstehende Probleme zu umgehen, muß man den Treiber so anpassen, daß Dinge anders verarbeitet werden, als es D3D vorgibt. Das kommt nicht von ungefähr und muß absichtlich implementiert werden.

nVidia's Treiber sind konsequent auf D3D ausgelegt und es hat Presseberichte von nVidia gegeben, in denen es abgelehnt wurde, wegen einer einzigen vermursten Engine davon abzugehen.
(auch weil damit zukünftig so etwas vermieden wird)

Entweder konsequent D3D/OpenGL oder eben rumgemurkse...

Es kann nicht Aufgabe der GraKa-Hersteller sein, die Fehler von Engine-Programmierern auszubügeln !

In diesem Sinne

Razor

MadManniMan
2001-11-07, 22:50:09
hm... weiß irgendwer GENAUERES darüber? nix gegen deine info razor, aber irgendwie kann ich das nich so ganz glauben, wie siehts mit links zu beweise und co aus?

Thowe
2001-11-07, 23:29:57
Originally posted by Razor
Die D3D-Implementierung von <ich sach's net> ist, sagen wir mal, wieder der entsprechenden Vorgaben geschehen...

Um diese dabei entstehende Probleme zu umgehen, muß man den Treiber so anpassen, daß Dinge anders verarbeitet werden, als es D3D vorgibt. Das kommt nicht von ungefähr und muß absichtlich implementiert werden.

nVidia's Treiber sind konsequent auf D3D ausgelegt und es hat Presseberichte von nVidia gegeben, in denen es abgelehnt wurde, wegen einer einzigen vermursten Engine davon abzugehen.
(auch weil damit zukünftig so etwas vermieden wird)

Entweder konsequent D3D/OpenGL oder eben rumgemurkse...

Es kann nicht Aufgabe der GraKa-Hersteller sein, die Fehler von Engine-Programmierern auszubügeln !

In diesem Sinne

Razor

Na da möchte ich auch ein Link mit fundierten Beweisen sehen.

Razor
2001-11-07, 23:58:59
Tja, wer dokumentiert schon alles, was er liest ?
;-)

Hier habe ich etwas über das 'Texture-Managemet' von <ich sach's net> gefunden:
(gefunden auf dieser Seite (http://homepage.powerup.com.au/~gjdanger/Terilem/december.htm).)
5 December 1999

CapnBill has been quite vocal now that the game has been released. He recently posted two messages at the Official U9 Boards (http://boards.owo.com/), first updating us on D3D issues and bugs (note: this post was made before the patch was released):

...

nVidia feedback: Spent over an hour with them in a conference call. Lots of useful info! Some short-term things to try, but we all suspect the real problems are in our texture management. Direct3D works a lot better with apps the load all their textures for a "level" up-front, then don't mess with them any more. Our continuous changing & swapping of textures, combined with the way we're having DX6 manage our textures, has D3D pretty harried. The "fix" may involve changing how we manage textures, or relying more on DX7, or both. Those are not quick changes...

...
In diesem Sinne

Razor

MadManniMan
2001-11-08, 00:19:18
und was steht da jetz großartig bis auf die tatsache, daß ein dauernder textur-load besteht?

wenn du meinst, das wäre nur bei nvidia-boards so extrem, weil die das nicht extra angepaßt hätten, dann liegst du falsch! ALLE karten in ALLEN APIs haben diese nachlader, sogar meine alte v3 in glide und 8bit texturen!

Gohan
2001-11-08, 15:10:38
Wenn man WinXP hat ist eine Kyro Karte pflicht :D
Also ich sag mal so...ca. 2653 3D Mark 2001 Punkte mir einer Kyro 2(175/175 Mhz) sind doch nicht schlecht oder?

Pengo
2001-11-08, 15:54:14
[QUOTE]Originally posted by MadManniMan der Rula
[B]ultima 11... das wär maln erlebnis! dafür würde ich wohl sogar mein sys aufrüsten... na egal!

Ich habe U9 länger gespielt und 20 fps mitte reichen auf keinem Fall aus, auch wenn man die Sichtweite zurückstellt ruckelt es noch heftigst in Britain - ich habe das Spiel auf mehrereren Systemen gesehen (v3,v5,tnt und gf1) und überall hat es geruckelt, die Festplatte ist ständig am rödeln, kein Wunder bei bis zu 600MB Speicherverbrauch. Als das Game aktuell war, waren 60% aller Mails in den U9-Foren beschwerden.

MadManniMan
2001-11-08, 20:18:00
@pengo: recht hast du und bestätigst aber auch gleichzeitig meine aussage: überall hats geruckelt -> nvidia hat nicht als einziger den treiber auf u9 zurechtgebastelt

Xmas
2001-11-09, 01:10:55
??? Wie jetzt?
NVidia hat den Treiber nicht auf U9 zurechtgebastelt, sondern stattdessen die "Standardmethode" der Texturverwaltung in DX hochgradig optimiert, wodurch abweichende Methoden deutlich langsamer werden können.

MadManniMan
2001-11-09, 12:13:22
hupps... sollte nvidia hat nicht als einziger den treiber nicht auf u9 zurechtgebastelt heißen... ;D

betrifft das eigetnlich noch andere spiele außer u9, daß das texturmanagment auf die konventionelle weise zurechtgeschnipselt ist

aber trotzdem ruckelt es nicht mehr als bei anderen karten...

Razor
2001-11-09, 12:22:45
Das Texturmanagement von <ich sach's net> ist eben NICHT konventionell...
(zumindest das sollte o.g. Statement belegt haben)
"Our continuous changing & swapping of textures, combined with the way we're having DX6 manage our textures, has D3D pretty harried."
Dürfte doch wohl aussagefähig genug sein, oder ?

In diesem Sinne

Razor

MadManniMan
2001-11-09, 14:23:52
wer lesen kann i... nein! ich sags nicht! ;D razor, lies dir doch nochmal meinen letzten post genau durch, dann wirst du merken, daß du da etwas doch anscheinend leicht misverstanden hast.

Razor
2001-11-09, 14:32:58
Du wirst das 'verbiegen' von D3D-Vorgaben gemeint haben, oder ?
;-)

Es gibt in der Entwickler-Doku zu D3D entsprechende Empfehlungen, wie man etwas machen sollte...
Wer sich nicht daran hält, muß halt in Kauf nehmen, daß optimierte D3D-Beschleuniger eben nicht damit zurecht kommen.

Das Problem von <ich sach's net> ist eben, daß dieses für eine Schnittstelle entwicklet wurde, die dies eben anders handhabt (bzw. handhaben kann), als es D3D tut. Die Programmierer haben schlicht auf's falsche Pferd gesetzt und erst zu spät gemerkt, daß ihre Art des Texturmangements eben nicht für D3D geeignet ist und plötzlich große Probleme hatten, weil die Voodoo's eben nicht die Masse an verbreiteter Hardware ausmachten, als ursprünglich vermutet wurde.

Und da nVidia ihre Treiber konsequent auf D3D und OpenGL auslegt und auch dahingehend optimiert, haben sie die größten Prob's, wenn's um 'verbogene' D3D-Techniken geht.

That's it !
;-)

In diesem Sinne

Razor

Thowe
2001-11-09, 19:22:38
Originally posted by Xmas
??? Wie jetzt?
NVidia hat den Treiber nicht auf U9 zurechtgebastelt, sondern stattdessen die "Standardmethode" der Texturverwaltung in DX hochgradig optimiert, wodurch abweichende Methoden deutlich langsamer werden können.

Klar, ist doch auch viel Sinn drin. ;)


Originally posted by Razor
Es gibt in der Entwickler-Doku zu D3D entsprechende Empfehlungen, wie man etwas machen sollte...
Wer sich nicht daran hält, muß halt in Kauf nehmen, daß optimierte D3D-Beschleuniger eben nicht damit zurecht kommen.


Zufälligerweise habe ich die gerade zur Hand, aber ich kann die entsprechende Passage nicht finden. Wo finde ich die?


BTW: Komisch ich hatte immer das Gefühl das U9 am massiven Overdraw und damit auch am Texturemanagment haperte, einfach weil es keine Standard-FPS Engine war.

aths
2001-11-09, 21:23:52
Quasar: "Und die Kyro hat bei mir zumindest, ebenso wie die Voodoo5 ab ca. 1GHz quasi aufgehört zu skalieren."

Welche Spiele? Ich habe jetzt keine Tabellen zur Hand. Meine Erfahrungen: Die Voodoo4 skaliert in UT mindestens bis 900 MHz (800x600, allerdings ohne Detailtexturen), allgemein (D3D) eher bis 800 MHz. (Wenn man Anandtechs Ergebnisse zu Grunde legt.) Raphael auf der Maur sah das Truecolor-Limit der V5 in UT erst bei 2000 MHz. ("Deutlich profitieren Descent3, Test Drive 6, Unreal und Quake III Arena von der schnelleren CPU. Für Unreal Tournament muss wohl eine 2GHz CPU her, um nur annähernd das TrueColor - Limit der Voodoo 5 5500 zu erreichen.")

"Eine Frage noch: Wie kann man eine Engine "absichtlich wenig" auf etwas optimieren? Gut, man kann eine HW TnL optimierung machen indem man die strips usw. an die Eingangspuffer des Chips anpasst. Eine CPU ist aber eigentlich viel zu flexibel um ggü. einer Optimierung auf ein anderes Hardware-Produkt dermaßen ablehnend zu reagieren, wie du es implizierst. "

MP bietet keine explizite 3Dnow! bzw. SSE-Optimierung, die im 3DMark2000 noch vorhanden war. Sie haben DX7 HW T&L offenbar stark optimiert, und sich bei SW T&L weniger Mühe gegeben. Vermutlich wird 3DNow! oder SSE weiterhin unterstützt, sofern vorhanden. Ich zweifle aber an, dass sie die gleiche Effizienz wie beim HW T&L erreichen.

"Ich glaube eher, daß die K2 bei Max Payne nicht so gut mit dem AF zurechtkommt (bekanntermaßen ein Schwachpunkt des Designs, das ansonsten für die gute BQ bekannt ist).... vielleicht wird ja auch eine Version der DXTC genutzt, die die K2 auch nicht unterstützt (à la 3DMark2k1), das würde zumindest erklären, warum die Leistung wieder erträglich wird, wenn man (Texture World Detail war's glaube ich) wieder auf low setzt...."

So wie ich das sehe, wird DXTC in MP gar nicht unterstützt. Ich glaube, Kyro unterstützt generell nur DXTC1, was für mich indiskutabel ist. BTW glaube ich nicht, dass Kyro-Besitzer MP mit AF spielen.

Razor: "Es kann nicht Aufgabe der GraKa-Hersteller sein, die Fehler von Engine-Programmierern auszubügeln !"

Von dem Marktführer würde ich schon erwarten, dass er die Treiber anpasst. Es kann ja gerne ein U9-Check gemacht werden. Vielleicht könnte nVidia hier diesbezüglich die Spiel-Erkennungs-Technologie von ATI lizensieren...

Pengo: In Britain und anderen Städten ruckelt es in der Tat heftig. In Dungeons ist es jedoch schon mit Banshee spielbar, mit Voodoo3 oder 4 ein Genuss und mit Voodoo5 ein (fast) treppenfreier Genuss.

Es gibt auch in anderen Games Framedrop-Situationen. Mir macht das Geruckel in Britain auch kein Spass. Doch unter'm Strich habe ich es in Glide als vernünftig spielbar erlebt. (8-Bit-Texturen und handoptimierte INI-Datei)

Thowe: Ich bin froh, dass U9 nicht auf einer Standard-Engine basiert. Wer mal in der Morgendämmerung in Bucceneer's Den rumgelaufen ist, wird verstehen, was ich meine! Von Hand lässt sich in der INI ein hoch aufgelöster Himmel und schimmerndes Wasser aktivieren, was U9 zu einem tollen Erlebnis macht. Gerade die Grafik ist es, die mich in U9 über einige spielerische Schwächen hinweg sehen lässt. Zum Topic: U9 wäre mit einer Kyro2 vergleichbar spielbar, im Gegensatz zur MX :))

Quasar
2001-11-09, 21:44:44
Ich habs mit Quake3, UT (als negativ-beispiel), Max Payne, Incoming, Turok und Evolva versucht....da schien bei ca 1GHz, meinetwegen auch 1,1GHz, irgendwie die Graka am Ende zu sein. Klar, bei Spielen, die CPU limitert sind, nützen auch noch P4-2GHz was, z.B. bei Simulationen oder ähnlichen...


zu MP:
Ich denke sie werden bei einem Spiel eine automatische Erkennung des CPU-spezifischen Befehlssatzes veranlassen, da es hier, im Gegensatz zu Benchmarks, eigentlich keinen Grund gibt, eine suboptimale Einstellung zu wählen. Das in HW gegossene Schaltkreise dabei effizienter zu werke gehen, als die EMulation über die flexibleren SIMD-Befehle der CPUs dürfte auch klar sein (schon mal Final Reality in Software versucht? jede Voodoo2 ist schneller...). BTW, seit dem AthlonXP steht für mich auch fest, daß beim 3DMark2000 die SSE-Optimierung wesentlich besser implementiert worden ist, als das hastig nachgepatchte 3Dnow! Beweis: Mit nem AthlonXP hab ich bei SSE-opt. 700 Punkte mehr als bei 3Dnow, und das, obwohl die meisten SSE-Befehle mit 3DNow emuliert werden....

Wenn Kyro-Besitzer nicht mit DXTC und AF spielen (können/wollen), dann ist das nur ein weiteres Argument gegen die K2. Gerade AF hebt merklich die BQ an, IMHO.

zu U9: Mit 8Bit-Texturen will ich es mir nicht antun müssen, lieber warte ich noch eine Generation (Grakas) bevor ich das Teil mit maximalen Details (und evtl. FSAA) vernünftig spielen kann.

aths
2001-11-09, 22:01:28
Quasar: In welchem Grafikmodus hast du das getestet?

Wenn bei MP einfach original DX7 SW T&L genommen wird, kommt so ja auch schon 3dnow oder sse-Support zum Zuge. Ich habe keine Informationen, dass sie die Engine ernsthaft darüber hinaus optimiert haben.

AF ist für mich persönlich auch ein Argument. Da die R8500 nur bilineares AF bietet, kommt sie für mich nicht infrage. Gut, es sieht nur wenig schlechter aus, es ist dafür deutlich schneller und besser als herkömmliche trilineare Filterung. Doch ich würde, dann schon "vollständiges" anisotrope Filterung haben wollen.

Allerdings bemängele ich das FSAA beim GF3. Die 2x-Qualität kommt nicht ganz an das 3dfx-Verfahren heran, die 4x-Qualiät ist nur geringfügig besser als 3dfx-2x. Quincunx ist Quatsch, da feine Strukturen verwischt werden und zur Eliminierung des texture shimmering ja AF gedacht ist. Zudem zieht Qincunx je nach Situation gehörig an der Leistung, weil 5 Werte pro Pixel gemischt werden. Wie auch immer, die GF3 kommt beim FSAA von der Kantenglättungsqualität auf keinen Fall an die Voodoo5 heran. Hier punktet der R8500.

Die 8-Bit-Texturen bei U9 sind ja keine 3-3-2-, sondern Paletten-Texturen. Die Qualität ist in den meisten Situationen kaum schlechter (es lassen sich natürlich auch Ausnahmen finden!) - doch die Geschwindigkeit auf meinem System deutlich besser. Ich spiele mit 8-Bit-Texturen, um mir bei 800x600 noch FSAA leisten zu können. Denn bei meinen Sichtweiten- und Lichteinstellungen ist U9 eh ziemlich CPU-Limitiert.

Quasar
2001-11-09, 22:09:18
In 1024x32 mit maximalen Details....wenn das jeweilige Game das erlaubt hat (turok z.B. nicht)

zu MP:
Aber wie du ja schon bemerkt hast, gab es beim 3DMark2000 schon getrennte SSE und 3DNow optimierungen. warum sollte man die wieder fallenlassen, wenn man sie schon entwickelt hat? Man braucht ihnen ja keine getrennten Namen mehr zu geben, die Engine wählt einfach die passende Möglichkeit aus.

AF ist momentan eigentlich das einzige Argument, ansonsten würde man auch mit nem Produkt aus der Vorgängergeneration noch glücklich.

Das FSAA beim GF3 ist vielleicht nicht so gut wie das der V5, aber mich persönlich stören die Kanten eigentlich eher wenig, mal abgesehen davon, daß die bei hohen Auflösungen eh immer kleiner werden (à la OGSS).

Der Radeon8500 würde vielleicht punkten, wenn denn seine HW-fähigkeiten auch in Software umgesetzt würden. Hier kann allerdings nur ATi selber Abhilfe schaffen, und endlich mal Smoothvision aktivieren. Was das adaptive FSAA angeht würde mir für den Anfang schon mal ein Techdemo (eigentlich lieber ein hochaufgelöstes Video, da ich ja sonst die Karte erst kaufen müsste, bevor ich von ihr überzeugt bin) reichen :)

MadManniMan
2001-11-09, 23:37:17
@aths: ich wär dir unendlich dankbar, wenn du die ini-sachens für die hochauflösenden texturen und das reflektierende wasser posten würdest!

aths
2001-11-10, 00:17:38
Quasar: "In 1024x32 mit maximalen Details....wenn das jeweilige Game das erlaubt hat"

Ok, ich spiele bei 1024x768 traditionell eher in 16 Bit.

"Aber wie du ja schon bemerkt hast, gab es beim 3DMark2000 schon getrennte SSE und 3DNow optimierungen. warum sollte man die wieder fallenlassen, wenn man sie schon entwickelt hat? Man braucht ihnen ja keine getrennten Namen mehr zu geben, die Engine wählt einfach die passende Möglichkeit aus."

Die 3Dmark2000-Engine (wobei es wohl nicht "die" 3DMark2000-Engine gibt) ist ja nicht mit MP identisch, sie basieren lediglich auf dem gleichen Vorgänger. Ich weiss nicht, was intern genau abläuft. Eine spezielle Optimierung wäre von Remedy vermutlich speziell angepriesen worden.

"AF ist momentan eigentlich das einzige Argument, ansonsten würde man auch mit nem Produkt aus der Vorgängergeneration noch glücklich."

Naja, und MSAA.

"Das FSAA beim GF3 ist vielleicht nicht so gut wie das der V5, aber mich persönlich stören die Kanten eigentlich eher wenig, mal abgesehen davon, daß die bei hohen Auflösungen eh immer kleiner werden (à la OGSS)."

Ich spiele der Ergonomie auf 16 sichtbaren Zoll maximal mit 768 Zeilen. Hier ist 2xAA á la GF3 schon ganz gut - aber eben nicht perfekt.

Bei "Smoothvision" lasse ich mich auch überraschen, wie das nun wirklich aussieht.

MadManniMan: Nicht reflektierendes Wasser, aber man sieht so einen schimmernden Effekt... Siehe hier: http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=6594

Razor
2001-11-10, 08:27:15
@Thowe

Zum DX6/7 TextureManagement gibt's kaum noch was zu finden...

Zumindest hab' ich hier was über das D3D-TextureManagement von einem nVidia-Mitarbeiter gefunden:
http://pinguino.dyndns.org/down/doc/OpenGL/NVidia/Presentations/General/GDC-Texture.ppt
Hier dann noch mal unter 'Texture Considerations' was von ATI (bezogen auf Rage128SDK):
http://www.ati.com/na/pages/resource_centre/dev_rel/sdk/Rage128sdk/Design.html

Letztendlich scheint's darauf hinaus zu laufen, daß eben nicht das automatische Texturen Management von DX6 benutzt wird, sondern eben ein eigener Weg gegangen wird, der weit weniger effizient zu sein scheint...

Schlußendlich noch 'ne Anmerkung von J.Carmack:
"DirectX 3.0 was horrible," says id Software's John Carmack. "I spent longer doing an unfinished port of the GLQuake code to Direct3D than it took me to do the original port to GL from software rendering. "DirectX 5.0 has improved things quite a bit," Carmack says, "and DirectX 6.0 will simplify yet more things with automatic texture management."
Hatte keine Lust, weiter zu suchern, aber ev konnte ich Dir in diesem Punkt ja helfen !
(auch wenn ich in Sachen 3D-Programmierung nun wirklich keine Leuchte bin)
;-)

In diesem Sinne

Razor

Pengo
2001-11-10, 09:31:33
Originally posted by aths
[b]Pengo: In Britain und anderen Städten ruckelt es in der Tat heftig. In Dungeons ist es jedoch schon mit Banshee spielbar, mit Voodoo3 oder 4 ein Genuss und mit Voodoo5 ein (fast) treppenfreier Genuss.

Es gibt auch in anderen Games Framedrop-Situationen. Mir macht das Geruckel in Britain auch kein Spass. Doch unter'm Strich habe ich es in Glide als vernünftig spielbar erlebt. (8-Bit-Texturen und handoptimierte INI-Datei)


In Dungeons ist es mit jeder Grafikkarte gut spielbar, aber diese machen nun mal den kleineren Teil des Spiels aus. Als U9 bei mir drauf kam hat mir die Grafik sehr gut gefallen, was mich gestört hat waren unzählige Bugs, die Unfertigkeit Spiel (U9 Welt ist ein Friedhof), die Linearität wie in einem Adventure und natürlich die miese Performance. Nach langen probieren konnte ich durch einen Trick die Framerate fast verdoppeln (Soundcache in der ini deutlich erhöht).

nggalai
2001-11-10, 11:52:48
Hi there,

Zum texture management hat Razor ja schon einige Sachen gepostet. Eines der Hauptprobleme mit GF und U9 scheint zu sein, dass die U9 Engine bei einer fixen Distanz vom Avatar von texturierten Polygonen auf solid color Polygone umschaltet. Dieser state change hat bei einer GF jedoch zur Folge, dass die texture caches komplett gespühlt werden. In gewissen unglücklichen Situationen kann sich sogar dein ganzer Textur-Buffer im VMEM verabschieden. Kurz gesagt: U9 lädt im schimmsten Fall auf GF ununterbrochen Texturen von der HD / RAM via AGP oder PCI auf die Grafikkarte, im besten Fall produziert die Engine auf GF ununterbrochen cache misses und halbiert so praktisch die Performance. Toll. IIRC wurde in der DX6 SDK/Help ausdrücklich von state changes beim Texturieren abgeraten, ich muss mal nachschlagen, ob dies heute immernoch der Fall ist. Thowe, wo hattest Du nach Razors Info gesucht (dann kann ich mir das Wühlen vielleicht sparen ;) )?

Die sauberere D3D Lösung wäre gewesen, einfach das kleinste MIP-map für die weit weit entfernten Polygone zu verwenden--aber Origin wollte halt Textur-Speicher sparen, und unter Glide funktioniert ja das so toll und viel schneller als zu texturieren, also wurde dieses "Feature" wie so vieles andere bei dieser Engine von Glide in die D3D-Version übernommen.

Weshalb reagieren Radeon und Kyro-II (erst Recht Voodoo) da weniger empfindlich drauf? Könnte u.a. 2 Gründe haben:

- das Reinitialisieren der texture caches bei state changes wird im Treiber selektiv für U9 disabled (um die Stabilität und Kompatibilität mit anderen Applikationen nicht zu gefärden kommt ein generelles Ausschalten dieses DX-TM features wohl kaum in Frage)

- die genannten Karten erfahren bei U9, aus welchen Gründen auch immer, nur sehr begrenzt Verbesserungen durch die internen texture caches, so dass die cache misses nicht so schwer ins Gewicht fallen wie bei einer GF3. Vielleicht sind die texture caches der genannten Karten einfach zu klein?

hope this helps,
-Sascha.rb

P.S. Zum Ursprungsposting: ich würde bzw. habe zur Kyro-II gegriffen. Anisotropes Filtering kannst Du zwar aus Performance-Gründen vergessen, aber die MX macht das ja sowieso auch ned richtig, so dass dies kaum als Argument zählt.rb

Thowe
2001-11-10, 12:25:26
@nggalai

Wie kommst du darauf das bei der GF andauernd Texturen nachgeladen werden, state changes bei Texturen betreffen doch nur die internen Caches des Grafikchips.

Kyro Karten reagieren deshalb nicht auf state changes, da die Reihenfolge in der die Polygone dann gezeichnet werden eh nicht die selbe ist wie sie an die Karte übergeben wurden. Deshalb muss die Kyro damit zurechtkommen das sich die Texturen andauernd ändern.

nggalai
2001-11-10, 12:39:32
Hi Thowe,

> Wie kommst du darauf das bei der GF andauernd Texturen nachgeladen werden, state changes bei Texturen betreffen doch nur die internen Caches des Grafikchips.

Das ist korrekt, deshalb habe ich auch "im schlimmsten Fall" geschrieben. Einige NVIDIA-Treiber reagierten auf die andauernden cache misses bei U9 mit komplettem Leeren des Textur-Buffers im VMEM in regelmässigen Abständen. Hatte warscheinlich mit einem Speicherleck in den Treibern zu tun.

Wie schon gesagt, im "Normalfall" kommt's bei der GF "nur" zu cache misses. Aber das reicht auch schon. :)

Kyro Karten reagieren deshalb nicht auf state changes, da die Reihenfolge in der die Polygone dann gezeichnet werden eh nicht die selbe ist wie sie an die Karte übergeben wurden. Deshalb muss die Kyro damit zurechtkommen das sich die Texturen andauernd ändern.Ja, das macht Sinn. Aber wie cached die Kyro dann Texturen, on-chip?

ta,
.rb

Quasar
2001-11-10, 12:51:06
Originally posted by nggalai
Die sauberere D3D Lösung wäre gewesen, einfach das kleinste MIP-map für die weit weit entfernten Polygone zu verwenden--aber Origin wollte halt Textur-Speicher sparen, und unter Glide funktioniert ja das so toll und viel schneller als zu texturieren, also wurde dieses "Feature" wie so vieles andere bei dieser Engine von Glide in die D3D-Version übernommen.
[/B]

Daran erkennt man einmal mehr, wie lieblos der Port auf D3D gewesen ist....
Noch eine Anmerkung zum Texturspeicher: die voodoo-Serie war schon immer (und das gilt auch für die V5) ziemlich geizig mit Texturspeicher (Die V3 war die einzige Karte der 3.Generation, die nur 16MB Speicher unterstützte.."mehr braucht man ja eh nicht bei 16bit") ....und wenn man ne Engine auf so eine API wie GLide und damit auf die Voodoo-Chips optimiert, gehört das eben mit dazu, auf die "baulichen Charakteristika" einzugehen...

@nggalai:
Respekt, was entweder deine Fachkenntnisse für DX-Coding, oder deine Ausdauer beim Suchen solcher Infos angeht!!!

Thowe
2001-11-10, 12:59:34
Originally posted by nggalai


Ja, das macht Sinn. Aber wie cached die Kyro dann Texturen, on-chip?



Kurz, ja.

Andre
2001-11-10, 13:00:22
Originally posted by Quasar
@nggalai:
Respekt, was entweder deine Fachkenntnisse für DX-Coding, oder deine Ausdauer beim Suchen solcher Infos angeht!!!

Bei Sascha, äh, nggalai vermute ich ersteres *verneig*

aths
2001-11-10, 17:11:22
Pengo: Also brauche in den Dungeons immer recht lange. Obwohl die Aussenwelten natürlich viel beeindruckender sind. Das einzige was mich an der U9-Aussenwelt stört ist die extreme Kleinheit. Man läuft - na klar! - in wenigen Minuten durch ganz Britain...

Im Dungeon hätte mir eine Automap sehr gut gefallen.

In den Semesterferien werd ichs wohl noch mal erneut spielen - denn ich habs ja noch nichtmal durchgespielt!

MadManniMan
2001-11-10, 18:57:00
@aths: der link spuckt irgendwie nichts aus