PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF3 Titanium - neue Features gar nicht 'neu'?


Unregistered
2001-10-07, 10:14:04
Auf dieser Website wird geschrieben, daß die beiden Features (Shadow Buffer/3D Texturen) der Titanium-Reihe schon von der Standard-GF3 beherscht werden. Ist das so richtig?
In älteren Artikeln zur GF3 wurde schon darauf hingewiesen, daß Vertex-/Pixel-Shader Schatten und 3D-Texturen produzieren/benutzen können. Also hat NVidia nur in die schmutzige PR-Trickkiste gegriffen und hebt zwei vermeindlich "neue" Features besonders hervor, die eigentlich nur zum Sortiment der GF3-Möglichkeiten gehören, aber keineswegs hardwaremäßig neu und eigenständig implementiert wurden?
Desweiteren heißt es, daß die beiden Features per Treiber akitiviert werden - was imho aber schon einer wirklich miesen Manipulation gleichkommt, da Standard-GF3s, die sie längst beherrschen, so künstlich(!!) eingeschränkt werden, weil sie nicht mit "Ti" gelabelt sind.

Das ist doch Verarschung par excellance!

Eviljoe
2001-10-07, 10:24:38
Fast!
Die Revisionen A3 der originalen Geforce3, die ja zum Teil wohl doch in den Handel gelangt sind, koennen die 'neuen' Features nicht. Alle Revisionen A5 koennen das aber.
Daher gibt es auch keine Demos zu den neuen Features, damit könnte man nämlich wunderbar testen, welche Revision man hat.

Iceman346
2001-10-07, 10:41:22
Originally posted by Unregistered
Auf dieser Website wird geschrieben, daß die beiden Features (Shadow Buffer/3D Texturen) der Titanium-Reihe schon von der Standard-GF3 beherscht werden. Ist das so richtig?
In älteren Artikeln zur GF3 wurde schon darauf hingewiesen, daß Vertex-/Pixel-Shader Schatten und 3D-Texturen produzieren/benutzen können. Also hat NVidia nur in die schmutzige PR-Trickkiste gegriffen und hebt zwei vermeindlich "neue" Features besonders hervor, die eigentlich nur zum Sortiment der GF3-Möglichkeiten gehören, aber keineswegs hardwaremäßig neu und eigenständig implementiert wurden?
Desweiteren heißt es, daß die beiden Features per Treiber akitiviert werden - was imho aber schon einer wirklich miesen Manipulation gleichkommt, da Standard-GF3s, die sie längst beherrschen, so künstlich(!!) eingeschränkt werden, weil sie nicht mit "Ti" gelabelt sind.

Das ist doch Verarschung par excellance!

Afaik sind die Features ab dem Detonator XP auch bei GF3 Karten aktiviert. Trotzdem ist das ganze eigentlich Verarsche von Nvidia.

ow
2001-10-07, 10:50:09
Originally posted by Iceman346


Afaik sind die Features ab dem Detonator XP auch bei GF3 Karten aktiviert. Trotzdem ist das ganze eigentlich Verarsche von Nvidia.



Sag mal, was willst du eigentlich mit diesen Features??

Die werden derzeit niergends eingesetzt und deshalb ist das schei..egal, ob die bisher unterstützt wurden oder nicht.
Da haben andere Sachen Vorrang bei der Treiberprogrammierung. NIX mit Verarsche.

StefanV
2001-10-07, 11:00:29
Wobei anzumerken ist, daß man die Chiprevision des GF3 nur auf dem Chip richtig steht...

Unregistered
2001-10-07, 11:03:25
@EvilJoe

PowerStrip stellt es fest, d.h. jedenfalls wird bei "Adapter Information" meine Karte als Rev. A5 identifiziert.

@OW
Keine Peilung, was? Warum postest du dann überhaupt?
Es geht darum, daß NVidia etwas als völlig neu verkauft, was gar nicht neu ist und deshalb vielleicht Standard-GF3-Karten künstlich per Treiber einschränkt.
Was aber hoffentlich nicht passiert, auch wenn das erst in Zukunft zum Tragen kommt.
Kapiert? Nicht? Dann kann ich dir auch nicht helfen.

nggalai
2001-10-07, 11:50:53
Wobei anzumerken ist, daß man die Chiprevision des GF3 nur auf dem Chip richtig steht...Jupp. Bei der Ti500 eines Kollegen ist das auch tatsächlich "A5", gleicher geforce3 Schriftzug etc. wie bei den regulären GF3.

War nicht auch in einem deutschen Hardware-Magazin (PC Player oder sowas) ein Photo einer Ti500 drin, mitm A5 lesbar? *wundert*

ta,
.rb

Razor
2001-10-07, 13:10:25
Hier wird überhaupt nichts per Treiber eingeschränkt...

Die A3-Revision der GeForce3 soll nie in den Handel gekommen sein (Final Release A5), lediglich die vergebenen Test-Boards waren A3.

Erst mit dem neuen DetonatorXP wurden die beiden 'neuen' Features unterstützt, die mit der Ur-gf3 ausgelieferten Treiber (11.01) taten das nicht.

Somit ist der einzige Unterschied zur Ti-Linie immer noch der 'besondere' 0,15 Fertigungsprozeß und die 'geänderte' Spannungsversorgung. Natürlich werden die Chips nun nach Qualität selektiert und dann jeweils der Ti200 oder der Ti500 zugeordnet (wie man das den Prozessoren ja auch macht).

That's it.

Wer tatsächlich galubt daß hier 2 'neue' Produkte gekommen sind ist wohl auf dem Holzweg. Lediglich die Ti200 ist 'neu', da es nun erstmals (wie damals bei der MX) eine Mainstream-Karte geben wird (und ich vermute mal, deß sich der Preis so um 400DM einpendeln wird), die eben auch DirectX8 unterstützt. Die Ti500 ist eine 'abgewandelte' gf3, die sich mit der Radeon8500 schlagen soll und die ur-gf3 wird jetzt auslaufen.

Also Leute, nicht aufregen...
;-)

Zwischen den zeilen lesen und nicht rum maulsen, denn schließlich wird ja keiner gezwungen irgenetwas zu kaufen.

In diesem Sinne

Razor

Unregistered
2001-10-07, 13:24:04
>>Zwischen den zeilen lesen und nicht rum maulsen, denn schließlich wird ja keiner gezwungen irgenetwas zu kaufen.<<

Moment. Von 'rum maulsen' war hier keine Spur, nur davon, daß es schien, als drohten künstliche Beschränkungen. 1000DM für ein Produkt auszugeben, welches dann per Treiber kastriert wird, ist eine andere Sache.

"Zwischen den Zeilen" ist eine hohle Phrase, wenn es um klare FAKTEN geht. Und da herrschte bei mir nicht unbedingt Klarheit. Whatever - es hat sich ja dank deinem Post geklärt. Die Sache hätte sicher auch zuviel Stunk verbreitet.

Razor
2001-10-07, 13:40:45
@Unreg.

Ich wollte Dir ja auch nicht vorwerfen, hier 'rum zu maulsen'...
;-)

Die Verwirrung ist ja durchaus verständlich, aber diesem ganzen Marketing-Gehype kann ich sowieso nichts abgewinnen, also sammle ich erst einmal Info's und mach mir dann mein eigenes Bild. Deswegen kann ich auch überhaupt nicht verstehen, daß es tatsächlich Leute gibt, die alleine aufgrund von Marketing-Aussagen lockere 650 Märker für eine Radeon8500 ausgeben, ohne zu wissen, wie sich das mit der Karte tatsächlich verhalten wird. Bei den Ti-Karten ist da kein besonders großes Risiko, da der einzige Unterschied die geänderten Takte sind, der Chip in seiner Funktionalität nun aber schon 'nen halbes Jahr am Markt ist.

In diesem Sinne

Razor

Joe
2001-10-07, 13:48:53
Wie is eigentlich der genaue Technoligische Unterschied zwischen RV200 und dem Ti 500 Chip?
Ich weis das der RV200 Pixekl Shader 1.4 unterstützt (was immer das auch birngt...)
Aber ich denke mal bis die Jetzt (evtl) neuen Feattures der Ti ma genutzt werden ham wir alle schon ne GF4 bzw5 oder ne ati 8800 ;)

------------------
Edit Upsi :) meinem Nahmen ma alle Ehre gemacht ;)

Razor
2001-10-07, 13:51:55
Was ist ein RV250 ?
Wenn Du den R200 (Radeon8500) meinst, dann unterstützt dieser Pixel-Shader 1.4...

Und bis die Features einer Gf4/5 unterstützt werden, gibt's dann schon die gf6/7, ned wahr ?
(warum sollte das auch anders sein ?)
;-)

Razor

Kellwolf
2001-10-07, 14:12:48
Es gibt demos,

einmal auf der Nvidia Homepage im Demo download der
Programmierer,

oder man nehme die ATI demos für 3d Texturen und Shadow
Buffer....auf meiner Leadtek (a5 chip gekauft am 9 Mai
ist eine der ersten Karten die ausgeliefert wurden)
laufen sie ohne fehler.................

MFG
Kellwolf

Unregistered
2001-10-07, 14:14:30
Wobei die GF(x)-Generation die Features der vorangegangenen Generation erst mit wirklich brauchbarer Geschwindigkeit realisiert(?).
Ich frage mich gerade, ob der Pixelshader nur für den ein und anderen Effekt taugt, oder ob man z.B. die Texturierung einer ganze Umgebung damit effektiv verbessern kann, z.B. massiver Bumpmapping-Einsatz, aufgeraute, reflektierende Flächen und was sonst noch möglich ist. Das würde endlich den Tapetenlook abschaffen. Und wenn man dazu noch S3TC dafür einsetzt, wozu es gedacht war, nämlich für hochauflösende Texturen, wird mir schon warm um's Herz ;-)
Aber selbst davon sind wir noch entfernt, von Max Payne war ich z.B. richtig enttäuscht, die Texturen sind tlw. so mies, daß das Spiel mich an Half-Life erinnert.
Blurry Textures sollten wenigstens endlich mal verschwinden, dazu brauch man auch keine Shader, dazu reicht schon eine G2MX etc.

nggalai
2001-10-07, 14:35:43
Ich frage mich gerade, ob der Pixelshader nur für den ein und anderen Effekt taugt, oder ob man z.B. die Texturierung einer ganze Umgebung damit effektiv verbessern kann, z.B. massiver Bumpmapping-Einsatz, aufgeraute, reflektierende Flächen und was sonst noch möglich ist. Das würde endlich den Tapetenlook abschaffen. Und wenn man dazu noch S3TC dafür einsetzt, wozu es gedacht war, nämlich für hochauflösende Texturen, wird mir schon warm um's Herz ;-)Die Vorteile von Pixel Shadern gegenüber "alten" Ansätzen ist einfach die relativ freie Programmierbarkeit der Rasterizer-Effekte; e.g. anstelle eines Standard DOT3-Produktes kann man, falls man will, das Bumpmapping freier konfigurieren; "echte" Reflektionen könnten pro Pixel berechnet werden, und die ganzen "Oberflächen" können dynamisch an die Situation angepasst werden (e.g. eine Bump Map, welche sich je nach Geschwindikeit, mit der sich ein Objekt dreht, mehr oder weniger verzieht etc.). Aber gebraucht werden die PS wohl auch in Zukunft für Effekte, wie sie mit DOT3 und Cube Maps erziehlt werden könnten.

Der Tapetenlook wird wohl bald endlich vorbei sein. Oberflächeneigenschaften können auf die eine Art oder die Andere auf praktisch allen modernen Grafikkarten bei annehmbarer Geschwindigkeit realisiert werden.

ta,
.rb

aths
2001-10-07, 16:38:27
Wobei mich Xmas schon vor langer Zeit von den Vorteilen des Displacement Mappings überzeugte.

Das bislang keine Karte bietet. Schade, eigentlich!

nggalai
2001-10-07, 18:04:25
Von Matrox soll da ja was kommen *gerüchteverbreiten* ;) ... m.M. nach macht displacement mapping auch echt viel her. Wäre echt mal ein wirklich nützliches Feature.

ta,
.rb