PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HiPoly-Bug auch bei nVidia?


Quasar
2002-04-27, 17:27:31
Moin allerseits.

Ich dachte mir vorhin, ich geb' mir mal die vollen Dröhnung an runden Kurven bei Quake3 und hab die subdivisions auf 0 gesetzt.
Ist das nur bei nV so, oder gibt's sowas auch bei anderen zu bestaunen? Sprich, Treiberbug, oder PointRelease-Bug?

Q3 v1.30, GF3/4, Det28.90.
Folgendes kam dabei raus:

Quasar
2002-04-27, 17:28:11
Es sieht irgendwie so aus, als würden alle zur Verfügung stehenden Polys schon für die linke Seite aufgebraucht...

Dunkeltier
2002-04-27, 17:32:16
Vielleicht vom Leveldesigner so vorgesehen? ??? Sieht komisch aus. Habe ich das auch mit meiner Karte? Mal ausprobieren... ;(

Micron
2002-04-27, 17:32:19
Ich kann da nix aussergewöhnliches sehen nur das das Tor nicht rund ist.

Dunkeltier
2002-04-27, 17:33:26
Originally posted by Blackmagic
Ich kann da nix aussergewöhnliches sehen nur das das Tor nicht rund ist.


*lol* Schau dir die RECHTE Hälfte oben von Bogen an!!!

Exxtreme
2002-04-27, 17:35:11
Hmm, ich denke, daß es ein Problem der Q3-Engine ist. AFAIK werden die Splines per Software generiert.

Gruß
Alex

Quasar
2002-04-27, 17:45:43
Hab's grad mal mit 'ner Voodoo ausprobiert, selbes Resultat.

Schade, doch kein nV-Treiberbug ;)

Doomtrain
2002-04-27, 18:15:33
Originally posted by Quasar


Schade, doch kein nV-Treiberbug ;)

Sieht ja echt übel aus!!!! Also bei mir ist dat nicht.

PS: Such du mal nach Bugs in NV Treibern *eg* Kann den NVlern nur nutzen.

Dunkeltier
2002-04-27, 18:22:53
Ok, ich weise mal auf mein Midtown Madness 1 hin. Welches, wenn ich Menschen auf den Straßen in den Optionen aktiviert hatte, nur noch einen Riesenbrei voller bunter Linien die von den Menschen sich entfernten erzeugte.

Oder POD, Planet of Death. Die Schrift der Optionen im Spiel war...zum kotzen.

Mir würden noch mehr inkompatibelitäten mit meinen 320 Spielen einfallen. Aber mir jedes Spiel anzuschauen und noch einmal darüber nachzudenken, lohnt nicht. :D

Birdman
2002-04-27, 18:34:11
ähm, Subdiv auf 0 setzen ist bei q3 ned clever.
das gibt dann eben solche fehler, aber bei allen grakas...irgendwie mag q3 ned mit dieser 0 leben...die ist irgendwie nen teiler oder sowas....und durch 0 teilen iss nie gut.

das führt dann dazu dass die engine einige entities mit der höchsten anzahl subdivs darstelle und andere mit der niedrigsten.
dieses "prob" gibts aber eben bei eigentlich allen karten und jeder q3 version...

Quasar
2002-04-27, 18:43:22
Ich hab nochmal ein bißchen mit dem "subdivisions"-Setting rumgespielt. Der Fehler tritt zwischen "0.3" (ok)und "0.2" (s.o.) auf.

@Birdman:
afaik war das doch aber möglich, das Setting auf Null zu setzen, oder?

Unregistered
2002-04-27, 18:44:17
Originally posted by Quasar
Moin allerseits.

Ich dachte mir vorhin, ich geb' mir mal die vollen Dröhnung an runden Kurven bei Quake3 und hab die subdivisions auf 0 gesetzt.
Ist das nur bei nV so, oder gibt's sowas auch bei anderen zu bestaunen? Sprich, Treiberbug, oder PointRelease-Bug?

Q3 v1.30, GF3/4, Det28.90.
Folgendes kam dabei raus:

LOL.Gutes Thema.;)

Birdman
2002-04-27, 18:51:04
@Quasar

also möglich war das schon immer, aber Darstellungsprobleme hatte ich damit auch schon immer...d.h. mit der Gf256DDR, kyro2, voodoo5, sowie nun gf4.
bei der 8500er kanns ich ned bestätigen, mit der habe ich das nie getestet, denke aber auch dass es da ned klappt, da es imho eben völlig grakaunabhängig ist...halt einfach die q3-engine die bei diesen tiefen subdivision werten nimmer korrekt rechnen kann. (ich verwende immer subdiv 1 oder 4 ... 4 weils standard ist und ichs vergesse auf 1 umzustellen :)

Razor
2002-04-27, 19:27:06
Ich weiß gar net, was Ihr hab't, liebe Leutz...

ICH spiel IMMER mit subdiv auf 99 !!!
:D

Razor

P.S.: Tritt bei meiner gf3 auch (wie wohl bei allen anderen Karten auch)...

Und hier mal mein "Quality" Part:

Unregistered
2002-04-27, 20:27:13
Razor: Genau.
reTRUFORM™ : Fügt in Rundungen Ecken ein oder glättet sie völlig. Genial!

:D

Quasar
2002-04-27, 23:40:18
Tja, nur leider kannste das nicht so einfach einschalten, sondern musst ein wenig die Engine Patchen. nV hat genaus HOS, die dazu noch deutlich flexibler und AGP-schonender sind. Nur leider müssen die Models und die Geometrie eines Games auch darauf ausgelegt sein.

Ganon
2002-04-27, 23:48:31
Habs grad mal mit meiner GeForce1DDR unter Linux probiert! Genau das selbe wie oben! Scheint echt an der Engine zu liegen!

Quasar
2002-04-28, 00:10:10
Muß wohl....wenn's sogar unter Linux auftritt. Ansonsten kann man das meiste ja noch Windows in die Schuhe schieben ;)

Razor
2002-04-28, 00:18:08
@Unreg.

;D

@Quasar

Ich glaub', Du hast da Unreg etwas falsch verstanden, Quasar...
Er schrieb:

reTRUFORM™
oder auch Anti-Truform

***

Klar, das Prob' hat sicher nichts mit unseren lieben GraKa's zu tun, denn die Subdivisions von Q3 sind ja softwarebasiert. Hmmm... wäre wirklich 'nett', wenn nVidia die RT-Ptches für D3D wieder frei geben würde und wir dann mal 'nen paar Demos dazu sehen würden (was in OpenGL ja schon jetzt machbar wäre).

Na ja, man wird ja noch mal träumen dürfen, oder ?
:D

Bis denne

Razor

aths
2002-04-28, 00:19:20
Quasi stellares Objekt:

Welches Level ist das?

Ok, hab andere Level getestet und ebenfalls Probleme mit 0. Spiele selbst mit 0.5.

Quasar
2002-04-28, 00:39:52
@aths
Nur falls es noch interessant ist: Q3DM7...der Standard-Level, auf dem Punkt des Quad-Damage.

@Razor:
Dafür kannste doch das RT-Patch Fix im Rivatuner benutzen. Funzt wunderbar und ein paar Demos (ok,ok, es sind nur Teepötte ;)) gibt's auch.

Razor
2002-04-28, 00:58:34
@Quasar

Mir ist schon klar, daß ich mir die D3D RT-Patches wieder holen kann (und die Teepöttel kenn ich gut ;-), aber es nützt mir nichts, wenn es nur bei mir läuft...

nVidia soll dieses 'Feature' wieder voll unterstützen und damit die polynominalen Flächen dann auch salonfähig machen. Schließlich will ATI dies dann mit dem R300 auch tun und damit würden die beiden größten GraKa-Hersteller im Mainstream ein Zeichen setzen, was die Programmierer nicht ignorieren dürften...

Aber jetzt ?
Noch müssen sie es fast zwangsläufig ignorieren...
Aber das wird schon noch kommen !
(irgendwann, zumindest hoffe ich das stark ;-)

Bis dahin muß ich mich halt mit 'nem Potterl begnügen.
:D

Bis denne

Razor

aths
2002-04-28, 05:08:49
Razor,

offenbar wurde der HOS-Support bei der GF4 auch in der HW entfernt (soweit er denn in der GF3-HW vorhanden war) - ich glaube nicht, dass Besitzer einer Pre-NV30-Karte in hardwarebeschleunigten HOS-Genuss kommen.

edit: Im DX8 SDK sollte es Demos für RT-Patches geben.

edit2: Du meinst den Quad-Damage, der in Wahrheit nur Triple Damage macht? Ich hole mir lieber die Railgun als den Quad Damage Power-Up :) (Es sollte Mods geben, mit denen man nach einem Railgun-Treffer sofort wieder feuern kann. Die Pause nervt gewaltig.)

Haarmann
2002-04-28, 09:39:21
Hab eben noch mit der Radeon und meinem alten Quack geguckt... gleicher Bug - ergo isses wohl die glorreiche Engine ;)

Quasar
2002-04-28, 12:33:19
Originally posted by aths
Razor,

offenbar wurde der HOS-Support bei der GF4 auch in der HW entfernt (soweit er denn in der GF3-HW vorhanden war) - ich glaube nicht, dass Besitzer einer Pre-NV30-Karte in hardwarebeschleunigten HOS-Genuss kommen.

edit: Im DX8 SDK sollte es Demos für RT-Patches geben.

edit2: Du meinst den Quad-Damage, der in Wahrheit nur Triple Damage macht? Ich hole mir lieber die Railgun als den Quad Damage Power-Up :) (Es sollte Mods geben, mit denen man nach einem Railgun-Treffer sofort wieder feuern kann. Die Pause nervt gewaltig.)

:) Er heißt aber trotzdem Quad-Damage ;)


Auch auf der GF4 sind die RT-Patches verfügbar, sie werden nur nirgends mehr beworben!

Razor
2002-04-28, 14:03:49
@aths

"offenbar wurde der HOS-Support bei der GF4 auch in der HW entfernt (soweit er denn in der GF3-HW vorhanden war) - ich glaube nicht, dass Besitzer einer Pre-NV30-Karte in hardwarebeschleunigten HOS-Genuss kommen.

edit: Im DX8 SDK sollte es Demos für RT-Patches geben. "

Eher nicht, aths.
Warum sollten sie ein schon implementiertes Feature wieder ent-implementieren (ein 'Unwort', ich weiß ;-) ?

Der NV25 Core wurde lediglich ergänzt, nicht aber beschnitten. Und wenn ich jetzt gehässig sein wollte, dann stand schon bei Konstruktion des NV20 fest, wie der NV25 aussehen sollte, bzw. ist der NV20 lediglich ein abgespeckter NV25 (von den 'Verbesserungen' des NV25 mal abgesehen ;-). Denn schließlich ist der NV2A (XBox) ja zeitgleich zum NV20 gekommen und von den Specs eher dem NV25 verwandt, als dem NV20...

Sicher wird es (HOS) nicht mehr beworben, bzw. ist ja auch damals nur vor Erscheinen der gf3 diskutiert worden. Aber da ist es und wohl auch in Hardware (was nur nVidia schlüssig beantworten kann). Und klar, im SDK finden sich die einzig verfügbaren Demos (von einer einzigen mir bekannten Ausnahme mal abgesehen ;-), was ich persönlich eben sehr schade finde. Und wenn Du auch mal HOS 'erleben' möchtest, dann benutze die Patch-Skripte vom RivaTuner, die selbst die 28.90 noch patchen können sollten.

Bis denne

Razor

Quasar
2002-04-28, 14:15:53
Hab' ich doch grade gesagt, Razorle :)

Sie sind drin! Auch in den 28.90ern aktivierbar.

aths
2002-04-28, 15:22:08
Razor: Um Transistoren zu sparen. Dass NV25 HOS "in HW" kann, wusste ich bislang nicht. Jedenfalls frage ich mich, wie ein 2. Ramdac, ein 2. VertexShader und die neuen Befehle beim Pixelshader, der Quadcache und die LMAII-Verbesserungen in insgesamt nur 6 Millionen Transistoren Platz fanden.

Ich glaube btw nicht, dass der NV25 schon fertig designt war, als der NV20 in Serie ging. Lt. David Kirk flossen Erfahrungen mit der NV2A-GPU ein, um den NV25 weiter zu optimieren.

Razor
2002-04-28, 16:49:02
Tja aths, da hast Du mich wohl etwas falsch verstanden..
;-)

"Um Transistoren zu sparen."

Sehr witzig !
Oder hast Du das tatsächlich ernst gemeint ?
???

"Dass NV25 HOS "in HW" kann, wusste ich bislang nicht. Jedenfalls frage ich mich, wie ein 2. Ramdac, ein 2. VertexShader und die neuen Befehle beim Pixelshader, der Quadcache und die LMAII-Verbesserungen in insgesamt nur 6 Millionen Transistoren Platz fanden."

Wie gesagt kann dies nur nVidia selbst beantworten. Und wieder 'ne Spekulation: auch der NV20 hat 2 Vertex-Shader, nur wurde eben der 2. Hardwareseitig deaktiviert. Das würde tatsächlich Produktionskosten sparen, da man so keine unterschiedlichen Produkte (NV2A/NV20) hätte fahren müssen (besser Produktionsauslastung, optimiertere Infrastruktur). Ist aber wie gesagt nur eine Spekulation...

"Ich glaube btw nicht, dass der NV25 schon fertig designt war, als der NV20 in Serie ging. Lt. David Kirk flossen Erfahrungen mit der NV2A-GPU ein, um den NV25 weiter zu optimieren."

Der NV25 unterscheidet sich so gut wir gar nicht vom NV20, bzw. dem NV2A. Ein paar kleine Verbesserungen (Accuview, LMA2) und schon war das Produkt fertig (siehe Revision A2).

-

Es ist leider eine Tatsache in unserer Marktwirtschaft (den anderen Begriff benutze ich hier absichtlich nicht ;-), daß Dinge (insbesondere die Forschung und Entwicklung) nur dann wirtschaftlich sind, wenn alle Zwischenschritte zum Entprodukt dann auch vermarktet werden. Und ganau das wird wohl auch beim NV2A (von M$ mitgesponsort ;-) so gewesen sein und beim NV30 erwartet uns dann wieder was Neues, was aber auch in seiner eigentlichen (End-)Form nocht ein wenig auf sich warten lassen wird...

Schaun' wir mal !
Ich finde auf jeden Fall das Endprodukt NV25 sehr gelungen...
Auch wird es sicherlich (wie auch der NV20) HOS dabei haben.

Give it a try !
(wie ja auch schon im NV-Forum geschehen ;-)

Bis denne

Razor

RAL
2002-04-28, 17:06:23
Originally posted by aths
[..](Es sollte Mods geben, mit denen man nach einem Railgun-Treffer sofort wieder feuern kann. Die Pause nervt gewaltig.)

Gibts schon lange, aber das ist ja gerade das gute an Q3, dass keine Waffe übermächtig oder besonders schwach ist.

Razor
2002-04-28, 17:30:12
Originally posted by Quasar
Hab' ich doch grade gesagt, Razorle :)

Sie sind drin! Auch in den 28.90ern aktivierbar.
Ups !
Sorry !!!
;-)

Aber doppelt genäht hält besser, gell ?
;-)

Razor

aths
2002-04-28, 21:52:46
Razor,

ich glaube nicht, dass sie beim NV20 einen 2. VS eingebaut, aber deaktiviert haben. NV20 und NV2A sind offensichtlich unterschiedliche Chips. Da würde nVidia nichts sparen, wenn sie dem NV20 einen deaktivierten VS spendieren.

Die Verbesserungen bei Accuview sind ggü. HRAA tatsächlich marginal. LMA2, Quadcache, PixelShader 1.3 mit ggü. NV20 Laufzeit optimierter Pipeline, der 2. RAMDAC - das alles zusammen sind für mich nicht nur ein "paar kleine Verbesserungen", ein Text auf 3dwin ergab z.B., dass eine GF4 auch mit GF3-Takt spürbar besser performt.


RAL,

das wusste ich noch nicht. Allerdings finde ich die Waffenausgeglichenheit bei UT deutlich stärker. In Q3 kann ich mit einigen Waffen wenig anfangen. BTW, Quad Damage rockt natürlich doch - vor allem in Kombination mit der Lightning Gun. Hehehe...

Quasar
2002-04-28, 23:44:47
Es heißt "Lightning Gun". Das andere wäre eine Beleuchtungs-Kanone.

aths
2002-04-29, 00:08:52
Da geht mir glatt ein Licht auf :)

Richthofen
2002-04-29, 13:06:56
Tommy-Systems hat doch auch eine GF4 auf GF3 Takt gebracht und die GF4 hat da deutlich gewonnen.

Razor
2002-04-29, 19:34:56
@aths

Hast Du mal den Link zu dem Text (?) bei 3DWin ?
(Hab' da so gar nichts gefunden)
Würde mich wirklich mal interessieren...
UPDATE: Im NV-Thread gefunden !

Und es heißt nicht Lighnting, sondern Lightning !
;-)

@Richthofen

Habe bei Tommti nur einen Artikel zur gf4Ti4600 gefunden, bei der die ti4600 mit der R200 verglichen wurde (auch im selben Takt und dem maximal möglichen). Nicht aber einen Vergleich von gf4@200/230 mit gf3.

Meinetwegen würde mir ja auch ein Vergleich zwischen gf3ti500 und gf4ti reichen...
UPDATE: Den ich nun gefunden habe

Bis denne

Razor

siehe 'Updates' ;-)

aths
2002-04-30, 01:07:37
Razor,

bist du von den internen Verbesserungen der GF4 nun überzeugt?

Razor
2002-04-30, 20:52:59
Inwiefern aths ?

Überzeugt davon, daß sich das Umsteigen von gf3 auf gf4 lohnen würde ?
Nein !

Genauso wenig, wie sich IMHO ein Umstieg von gfddr auf gf2(ultra) gelohnt hätte (bzw. hat !)...
Wer allerdings keine DX8-Karte besitzt, kann bedenkenlos zu einer gf4ti greifen. Abraten würde ich allerdings von einer GraKa ala gf4ti4600, denn diese wird nicht allzu lange aktuell bleiben, da sie (wie damals auch die gf2ultra) das Ende der Fahnenstange darstellt und dafür einfach zu teuer ist.

Die gf4ti4200 ist dar absolut beste Kompromiß (für nicht DX8-Karten-Besitzer), da sie aktuellste Technologie zum Preis einer Midrange-Karte bietet, es somit auch verschmerzbar ist, wenn diese Technologie dann in 'nem halben Jahr 'abgelöst' wird...

Habe ich Dir nun einigermaßen direkt geantwortet ?

Bis denne

Razor

aths
2002-05-01, 00:15:06
Razor,

Die Leistung der aktuellen DX8-Einsteigerkarte (GF3Ti200) halte ich für heutige Spiele voll ausreichend, so dass man auch noch mit FSAA und AF spielen kann. Nur wer einen guten 19-Zöller hat und bedingungsloser Grafikfetischist ist, dem könnte man trotz GF3 das Upgrade zur GF4 immerhin vorschlagen.

Dass die Ti4200 nun "aktuellste" Technologie bietet, würde ich nicht sagen, das trifft ja auch nicht auf die Ti4600 zu. Ich sehe allerdings keine "Ablösung" der DX8 Technologie. Nur weil DX9 bald verfügbar sein wird, ist DX8 noch lange nicht veraltet. Im Gegenteil, es ist ja bislang noch nicht einmal richtig in Fahrt gekommen.

Mit "bist du von den internen Verbesserungen der GF4 nun überzeugt?" meinte ich ob du die geraden Nummern (TNT2, GF2, GF4) ebenfalls für generell erfolgreicher hälst, da sie jeweils dann auf den Markt kamen und kommen, wenn sich eine Spieleunterstützung der entsprechenden Technologie abzeichnet.

Razor
2002-05-01, 09:14:18
@aths
Die Leistung der aktuellen DX8-Einsteigerkarte (GF3Ti200) halte ich für heutige Spiele voll ausreichend, so dass man auch noch mit FSAA und AF spielen kann. Nur wer einen guten 19-Zöller hat und bedingungsloser Grafikfetischist ist, dem könnte man trotz GF3 das Upgrade zur GF4 immerhin vorschlagen.
Bei einem 21-Zöller und einer (Spiele-)Auflösung jenseits der 1280x1024 würde ich Dir recht geben...
Dass die Ti4200 nun "aktuellste" Technologie bietet, würde ich nicht sagen, das trifft ja auch nicht auf die Ti4600 zu.
Was verstehst Du unter Technologie ?
Etwa den PixelShader 1.4 von ATI ?
Ist eine Eigenentwicklung eines Herstellers, also KEIN Technologie-Vorteil...
...aber das hatten wir ja schon mal !
;-)
Ich sehe allerdings keine "Ablösung" der DX8 Technologie. Nur weil DX9 bald verfügbar sein wird, ist DX8 noch lange nicht veraltet. Im Gegenteil, es ist ja bislang noch nicht einmal richtig in Fahrt gekommen.
Ich glaube, daß Du mich hier falsch verstanden hast...

Nicht DX8, sondern die DX7+ GraKa-Generation (R200,gf3/4) wird gegen 'echte' DX8-Hardware ausgetauscht, die zudem auch ein 'bischen' DX9 versteht (wie damals bei Erscheinen der gf3 und später der R8500).

Insofern gebe ich Dir in diesem Punkt absolut recht, denn 'echte' DX9-Titel werden wir (wie immer, wenn überhaupt ;-) dann 2004/5 sehen...

Aber ob eine gf4i (auch 4600) in der Lage sein wird, Titel in einer vernünftigen Performance (alle Effekte aktiviert vorausgesetzt !) wiedergeben kann, die auf Basis von Engines ala CodeCreatures laufen, wage ich stark zu bezweifeln.

Die Frage lautet also: Sind gf4ti's (natürlich auch R200+) in der Lage auch Titel mit maximalen Details laufen zu lassen, die in 1-1,5 Jahren erscheinen werden ?

Bei der gf3 war bzw. ist dem so, und bei der gf4ti ?
???
Mit "bist du von den internen Verbesserungen der GF4 nun überzeugt?" meinte ich ob du die geraden Nummern (TNT2, GF2, GF4) ebenfalls für generell erfolgreicher hälst, da sie jeweils dann auf den Markt kamen und kommen, wenn sich eine Spieleunterstützung der entsprechenden Technologie abzeichnet.
Schwierige Frage...

Also, als Technik-Freak wiederstrebt es mir, immer auf einen 'Aufguß' einer neuen Technologie zu warten, nur weil diese dann leistungsfähiger zu sein scheint.

Um Deine Frage direkt zu beantworten:

Nein !

Ich hole mir neue Technologie, wenn sie verfügbar ist und nicht erst dann, wenn sie im Prinzip schon fast 'veraltet' ist. Natürlich muß sie meinen Ansprüchen genügen (der Preis ist mir dabei realtiv wurscht), sie muß halten, was ich von ihr erwarte. So habe ich auch bei der gf3 (wir vorher bei der gfddr und der TNT) auch das tatsächliche Release der Technologie abgewartet (so ca. 1 Monat), bis ich sie mir dann selber angeeignet habe.

Ich kann, wie bereits bemerkt, schon seit mehr als einem Jahr mit meiner gf3 'herumspielen' und werde das auch noch die nächsten 6-9 Monate tun können (ev auch länger, wenn R300/NV30 nicht halten, was sich bis dato abzeichnet). Hätte ich darauf nun verzichten sollen, nur damit dann meine 500€+ GraKa dann gerade mal 6 Monate aktuell (oder besser 'UpToDate') bleibt ?

Sicher nicht, oder ?

Um es noch einmal ganz klar zu sagen:

Wer heute noch keine DX8-Karte sein eigen nennt, oder mit seiner bestehenden Lösung nicht zufrieden ist (ich sage einfach mal nicht-NV ;-) sollte bedenkenlos zur gf4ti greifen !

Von 'ultra'-Karten rate ich GENERELL ab, weil deren Preis-Leistungs-Verhältnis einfach absolut mies ist !
(und zudem nicht lange aktuell bleiben)

Wenn ich mir (privat ;-) eine GraKa (oder sonstige Komponenten) zulege, dann soll sie möglichst lange meinen Anforderungen genügen. Auch möchte ich technologisch nichts 'versäumen', will sagen: wenn es nun OGL2 oder DX9 Techdemo's gibt, dann will ich sie auch auf meinem Rechner sehen (egal, wie langsam sie sind). So war ich ja auch erstaunt (und zudem enttäuscht), daß die gf4ti-Techdemos problemlos auf meiner gf3 laufen. Das selbst 'Advanced Pixel Shader'-Tests auf einer gf3 nicht schlechter aussehen, als auf einer R8500...

Wie gesagt, für mich hat sich die gf3 schon lange bezahlt gemacht und wen nun etwas kommt, was mir einen 'echten' Mehrwert bringt (was die gf4ti NICHT tut !), dann wird sie ersetzt und in den Ruhestand geschickt (Zweit-Spiele-Rechner ;-).

Einen echten Mehrwert gegenüber ihrer Vorgänger-Genereation bringen Karten ala RV250/NV25 NICHT !

Ob es sich allerdings 'lohnt', heute noch eine gf3ti200 (von der ti500 halte ich nicht so viel, siehe 'ultra'-Bemerkung) zu kaufen, steht ebenso in den Sternen.

Insofern sage ich:

Wenn man heute eine DX8-Karte kaufen möchte, dann auf jeden Fall eine, deren Preis-/Leistungsverhältnis OK ist !

Und da bleibt eigentlich nur eine gf4ti4200...

Bis denne

Razor

aths
2002-05-01, 13:09:41
Razor,

Ich weiss noch immer nicht, was du mit deiner "Eigenentwicklung" hast. PS.1.1 und 1.3 sind auch "Eigenentwicklungen" - nur halt von NV. Sowohl NVs als auch ATIs "Eigenentwicklungen" wurden von Microsoft lizensiert. Und natürlich stellt der PS.1.4 aufgrund gewisser Verbesserungen einen technologischen Vorteil dar.

Tipp: Wenn du (was du öfters tust) schreibst, der Leser hätte dich falsch verstanden, erweckt das den Eindruck dass du glaubst, dieser sei ein bisschen dumm (da er dich nicht richtig verstanden hat.)

Die CodeCreatures-Engine wurde soweit ich weiß noch nicht lizensiert. Und wenn sie das wird, wird es vermutlich mindestens 12 Monate dauern, ehe ein (kaufenswertes) Spiel mit dieser Engine entwickelt wurde. Ich meine, wenn man sich TNT2 und GTS ansieht, dass eine GF4 sogar etwas länger "halten" wird als ihr direkter Vorgänger.

Deine Meinung mit "veraltet" kann ich nicht nachvollziehen. Mich jedenfalls interessiert nicht, welche Technik zu kaufen ist, sondern welche zu kaufen ist und unterstützt wird. Ich meine auch, dass du den "echten Mehrwert" nicht generell ausmachen, sondern nur für dich bestimmen kannst. GF4 bietet z.B. standardmäßig Anschlussmöglichkeiten für 2 Monitore. Das werde ich vermutlich in einigen Wochen nutzen. Mein "Mehrwert" besteht darin, mit der 4-er höhere AF-Stufen und später höhere Auflösungen nutzen zu können. Wie schon gesagt meine ich auch, dass GF3-Besitzer kaum Grund haben, zu "upgraden" - daher verstehe ich nicht ganz, wieso du diesen Punkt noch einmal so ausgebreitet hast; hier sind wir uns doch einig.

Liszca
2002-05-01, 18:38:49
meine ich das, oder gibt es diesen fehler in der ur-version nicht ???