PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was mich ärgert....


Mr Lolman
2002-04-19, 06:55:33
Ist doch irgendwie seltsam...

Jetzt reden alle über Antialiasing, so wie wenn sie's selbst erfunden hätten, die Hardware Magazine benchen mit aktiviertem Antialiasing, aber als 3dfx mit der Voodoo5 den Stein ins Rollen gebracht hatte, gab es nur eine grosse Aufregung über dass fehlende Trilineare/Aniso... Filtering und über die mässige Performance des 4x AA. Ich mein, mal ehrlich:

Abgesehen von Nvidias 4xs, müssten ALLE jetzigen Karten 16x AA !!! bieten um die Qualität von 3dfx 4x AA zu erreichen da bei 2xAA je nach Karte und Treibereinstellung nur die horizontalen oder die vertikalen Linien geglättet werden.
Erst bei 4x AA erreicht man die Qualität des 2x AA von 3dfx.

Ich habe jetzt eine R8500 und muss sagen dass die BQ bei 1024x768x32 ,4x Aniso, 4x Quality AA, fast nicht anders ist als die BQ bei meiner V5 mit 1024x768x16(22), Mipmap dithering, 2x AA, und das bei ähnlicher Geschwindigkeit.


P.S.: ich würde gerne wissen welche Geschwindigkeit die Karten mit 16x Antialiasing erreichen würden - vgl. m. 3dfx 4x AA

StefanV
2002-04-19, 10:37:16
Da muß ich dir leider Recht geben...

Das 3DFX AA ist leider immer noch unerreicht...

Sowohl vom Leistungsverlust, als auch von der Qualität...

Ceiser Söze
2002-04-19, 13:20:43
Könnte sich bald ändern. Natürlich nicht über FSAA allein, sondern über eine qualitativ höchstwertige und zudem schnelle Kombination aus FSAA und AF.
Wird aber auch langsam Zeit. Ist ja bald 2 Jahre her seit der Voodoo5...

Argo Zero
2002-04-19, 14:08:15
die nächste giefurtz wird paar sachen von 3dfx inplentiert haben
vieleicht is bei der grakka ja dann nen besseres FSAA zu sehen

ati hat ja trueform das schön glatt macht :D

ernesto.che
2002-04-19, 14:57:43
Ich finde die ganzen Hardwaretester ziemlich verlogen. Bei 3dfx wurde immer nur geschrieben, die Voodoo4/5 hat kein T&L und kein AGP 4x und beim FSAA wäre Schrift kaum noch lesbar.
Und jetzt? Das Voodoo 5 FSAA ist immer noch das optisch "schönst", aber bei den aktuellen Karten wird wie blöd mit FSAA gebencht und auf einmal sieht das eigentlich schlechtere FSAA auch noch besser aus als bei der Voodoo 5.
Sind die gekauft oder einfach nur dumm?

Mr Lolman
2002-04-19, 15:19:05
...gekauft oder nur dumm...

Ich habe mir da auch schon meine Gedanken gemacht...
Ich denke da an ein bestimmtes Spielemagazin in Deutschland, welches die Ehre hatte als erstes in Deutschland einen Test der Geforce 4 zu präsentieren.

1. Die Geforce 4 wird trotz des hohen Preises selbst Gerforce 3 Ti500 Besitzern, die Wert auf "höchste Qualität und Geschwindigkeit" legen, uneingeschränkt empfohlen.

2. In der Kaufberatung ist eine ATI 8500 DV zu finden, neben 5 Geforce Karten.

3. Voodoo4 wird gleichgesetzt mit Voodoo5, Voodoo2 ist schlechter als TNT, und somit als Voodoo1, welche einer TNT gleichgesetzt wird.

4. Ein Screenshot von Q3A mit 4x AA der Geforce 4 soll die Grafikqualität zeigen - Bei genauem hinsachauen sieht man das V5 2x AA
die selbe Qualität schon vor 2 Jahren erreicht hatte.

5. Dieses Spielemagazin hat nicht die meisten Leser in Deutschland (an 2. oder 3. Stelle)- somit stellt sich die Frage: Warum durften die als erstes einen Test der Geforce 4 präsentieren ??


Das wars vorerst einmal...

Exxtreme
2002-04-19, 15:26:40
Originally posted by ernesto.che
Ich finde die ganzen Hardwaretester ziemlich verlogen. Bei 3dfx wurde immer nur geschrieben, die Voodoo4/5 hat kein T&L und kein AGP 4x und beim FSAA wäre Schrift kaum noch lesbar.
Und jetzt? Das Voodoo 5 FSAA ist immer noch das optisch "schönst", aber bei den aktuellen Karten wird wie blöd mit FSAA gebencht und auf einmal sieht das eigentlich schlechtere FSAA auch noch besser aus als bei der Voodoo 5.
Sind die gekauft oder einfach nur dumm?
Das ist sicherlich richtig. Wer die 08/15-Reviewsites (THG, RivaStation, Anandtech usw.) liest, ist sich IMHO selbst schuld. Diese Sites waren nie in der Lage, die richtig guten Features der GraKas richtig einzuschätzen. T&L der GF1 wurde zum Himmel gelobt weil es "bald" viele Spiele geben sollte, die es intensiv nutzen. Nur leider fallen mir 2 Games (Giants und Max Payne) ein, welche davon richtig profitieren. Vom AA der V5 hatte man sofort in jedem Game was. Nur ist AA ein Feature, welches sehr viel Rohpower fordert und darum erst bei der GF4Ti in brauchbarer Qualität mit kaum Einschränkungen zu gebrauchen. Die V5 ist einfach zu langsam, genauso wie die R8500. Bei diesen GraKas ist nur der 2x-Modus zu gebrauchen. Doch auch das AA der GF4Ti hat einen Nachteil. Sie kann keine Texturen glätten, was bei einigen Games doch zu Nachteilen ggü. SuperSampling führt.
Alles in Allem denke ich, daß die Reviewer der GraKas eine Mitschuld am untergang der V5 tragen.

Gruß
Alex

Birdman
2002-04-19, 15:43:41
jep, da kann ich Extreeme nur zustimmen.
Auf der Voodoo5 ist 2x FSAA das höchste der Gefühle, alles andre ist zu langsam, ausser bei Uralt games die nur in 640x480x16bit laufen.

imho war damals "dieses" Feature daher gar nicht so wirklich der Überflieger, einfach weil die performance dazu gefehlt hat. Dies hätte sich lediglich mit der Voodoo6 gebessert, welche wohl 2x FSAA "for free" gemacht hätte, und auch bei 4x noch bis und mit 1024x768x32bit brauchbar gewesen wäre.
Also ich hab bei meiner V5 das FSAA jedenfalls selten bis nie benutzt...eigentlich nur zum testen, und solche "testfeatures" sind für mich eigentlich ned zu gebrauchen...schon kaum erwähnenswert.

skampi
2002-04-19, 15:47:01
Durch die Shader (z.B dyn. Beleuchtung) wird die Bedeutung von AA für die Bildqualität eher abnehmen, da kaum noch homogene Flächen aneinander grenzen, so daß der Treppcheneffekt weniger ins Gewicht fällt.
Ein gutes Beispiel ist die Kreed-Demo.

gruß
skampi

ernesto.che
2002-04-19, 16:28:07
Originally posted by Birdman
jep, da kann ich Extreeme nur zustimmen.
Auf der Voodoo5 ist 2x FSAA das höchste der Gefühle, alles andre ist zu langsam, ausser bei Uralt games die nur in 640x480x16bit laufen.

imho war damals "dieses" Feature daher gar nicht so wirklich der Überflieger, einfach weil die performance dazu gefehlt hat. Dies hätte sich lediglich mit der Voodoo6 gebessert, welche wohl 2x FSAA "for free" gemacht hätte, und auch bei 4x noch bis und mit 1024x768x32bit brauchbar gewesen wäre.
Also ich hab bei meiner V5 das FSAA jedenfalls selten bis nie benutzt...eigentlich nur zum testen, und solche "testfeatures" sind für mich eigentlich ned zu gebrauchen...schon kaum erwähnenswert.

Ich glaube nicht, das der Nachfolger der Voodoo 5500/6000 Voodoo 6 genannt worden wäre. Der hätte anders heißen sollen.
Aber zum FSAA: Also u.a Unreal (wirklich schon uralt? Das schaut besser aus als so manches aktuelles Spiel) spiele ich noch immer in 1024*768 und 4xFSAA. Und das bei "gerade mal" 850 Mhz.


@ Exxtreme :

Sehr fair war auch immer, das bei Spielen, in denen es Glide Unterstützubng gab, fast überall die Voodoos in D3D oder OpenGL antreten mussten. Wurde dann am Rande mal erwähnt, das sie mit Glide wesentlich schneller waren, wurde das auch noch als Manko ausgelegt.

zeckensack
2002-04-19, 16:28:56
Originally posted by skampi
Durch die Shader (z.B dyn. Beleuchtung) wird die Bedeutung von AA für die Bildqualität eher abnehmen, da kaum noch homogene Flächen aneinander grenzen, so daß der Treppcheneffekt weniger ins Gewicht fällt.
Nein

Exxtreme
2002-04-19, 16:44:56
Originally posted by skampi
Durch die Shader (z.B dyn. Beleuchtung) wird die Bedeutung von AA für die Bildqualität eher abnehmen, da kaum noch homogene Flächen aneinander grenzen, so daß der Treppcheneffekt weniger ins Gewicht fällt.
Ein gutes Beispiel ist die Kreed-Demo.

gruß
skampi
Nicht wirklich.
Kanten wird es in absehbarer Zeit genug geben, auch mit Pixel- und Vertexshadern.

Gruß
Alex

MadManniMan
2002-04-19, 17:02:30
so ein schmarrn @skampi. wo hast du nur den avator her :D

nee, aber auch die aussage zum aa is nich so. hab mir mal die ganzen hübschen sachen bei nem kumpel angeguckt und muß sagen, daß das pixelgeshade ordentlich auf die artefakt-tube drückt -> aa wollte ich, bekam ich, wurde glücklich. zwar wars dann arschlahm (ti500 und 2xms in 800), aber kreed sah erst dann "komplett" aus

skampi
2002-04-19, 17:02:44
Sicher werden die Kanten nicht weniger, aber sie fallen bei der Wahrnehmung weniger ins Gewicht.

gruß
skampi

skampi
2002-04-19, 17:16:58
@MadManniMan

Das ist so ein Cafeteria-Postkärtchen. Hab sie zum Geburtstag von einem guten Kumpel bekommen, verziert mit einem ATI-Sticker:). Ist ein eingeschworener Nvidianer, da seine erste richtige Graka eine TNT2 war, davor wars eine RageTurbo. Tja, da weiß man zumindest woher's kommt, er kauft nichts anderes mehr...

gruß
skampi

Richthofen
2002-04-19, 17:46:36
Was habt ihr gegen Anandtech. Ich find die Seite gut. Rivastation eigentlich auch aber man merkt das Borsti immer weniger Zeit hat - wohl durch seine THG Beschäftigung :)

THG mag ich nicht besonders und auch die Fanseiten NVnews, rage3d und CO nicht.

digit-life, hardocp, simhq, beyond3d und 3dconcept sind immer meine Seiten gewesen und bis auf 3dconcept immer noch.

Xmas
2002-04-19, 18:12:13
Originally posted by skampi
Durch die Shader (z.B dyn. Beleuchtung) wird die Bedeutung von AA für die Bildqualität eher abnehmen, da kaum noch homogene Flächen aneinander grenzen, so daß der Treppcheneffekt weniger ins Gewicht fällt.
Erst mal, du wolltest doch wohl "kaum noch inhomogene Flächen" schreiben, oder?

Aber auch das ist Lötzinn. Treppen sind dort gut zu erkennen, wo an Polygonkanten Kontraste sind. Kontraste kommen im Real Life überall vor, also auch in einem Spiel mit realistischer Grafik. Ob mit oder ohne Shader ist völlig egal.

StefanV
2002-04-19, 18:19:55
Originally posted by Xmas
Aber auch das ist Lötzinn. Treppen sind dort gut zu erkennen, wo an Polygonkanten Kontraste sind. Kontraste kommen im Real Life überall vor, also auch in einem Spiel mit realistischer Grafik. Ob mit oder ohne Shader ist völlig egal.

Und je stärker der Kontrast zwischen 2 Poligonen ist, umso deutlicher sieht man, wie 'Pixelig' die Kanten sind.

Bei EGO Shootern sind die Kontraste meist nicht soo groß, aber bei Weltraumspielen sind sie teilweise doch recht groß...

Insbesondere in Star Track Spielen, da da weiß auf schwarz ist.

Wer da kein Aliasing sieht, der sollte sich mal bei Fiehlmann melden...

skampi
2002-04-19, 18:41:27
Originally posted by Xmas

Erst mal, du wolltest doch wohl "kaum noch inhomogene Flächen" schreiben, oder?

nein


Aber auch das ist Lötzinn. Treppen sind dort gut zu erkennen, wo an Polygonkanten Kontraste sind. Kontraste kommen im Real Life überall vor, also auch in einem Spiel mit realistischer Grafik. Ob mit oder ohne Shader ist völlig egal.

Eben nicht. Schon mal zum Horizont geschaut?

Ich habe das Beispiel der Kreed-Demo gebracht, weil mir dort fehlendes AA nicht so auffiel. Wer es nicht so sieht, hat halt visuell andere Präferenzen. War nur eine subjektive Einschätzung.

gruß
skampi

Xmas
2002-04-19, 19:21:06
Originally posted by skampi
nein
Könntest du dann mal genauer erklären was du meinst?

Eben nicht. Schon mal zum Horizont geschaut?
:lol::rofl::lol:
Da hauts mich glatt vom Stuhl...

Ich habe das Beispiel der Kreed-Demo gebracht, weil mir dort fehlendes AA nicht so auffiel. Wer es nicht so sieht, hat halt visuell andere Präferenzen. War nur eine subjektive Einschätzung.
Wie kommst du dann darauf, dass es an den Shadern liegt, und nicht an der generellen Farbgebung/"Stimmung" des Spiels?

Birdman
2002-04-19, 19:28:46
Originally posted by ernesto.che

Ich glaube nicht, das der Nachfolger der Voodoo 5500/6000 Voodoo 6 genannt worden wäre. Der hätte anders heißen sollen.
Aber zum FSAA: Also u.a Unreal (wirklich schon uralt? Das schaut besser aus als so manches aktuelles Spiel) spiele ich noch immer in 1024*768 und 4xFSAA. Und das bei "gerade mal" 850 Mhz.


argl, meinte natürlich die V5 6000

btw. Unreal iss nu schon 4 oder 5 jahre alt...ut glaub 3 oder so.
ausserdem, mag sein dass Du mit 4x FSAA zocken konntest, aber mir war das immer zu langsam...

Haarmann
2002-04-19, 19:32:40
Birdi aber aber...

Q3 is langsam... das hat nen Problem bei über 500fps... da kannste nedmals mehr ein Demo lokal angucken ohne Netzstecker *g*

MadManniMan
2002-04-20, 00:09:11
sooo. und jetzt noch mal für nicht schweizer.

Mr Lolman
2002-04-24, 15:34:14
Dieses Spielemagazin von dem ich geschrieben habe nennt sich übrigens "Gamestar" und war lange Zeit meine Lieblingszeitschrift, bis ich gemerkt habe das eine Firma names "Nvidia" anscheinend einen Sonderstatus bei den Readakteuren von Gamestar hat... :(

PC Games Hardware ist da eigentlich ein bisschen neutraler, mal abgesehen davon, dass für Benchmarkvergleiche der langsamste Treiber von ATI zum Einsatz kommt, während für Nvidia Karten doch einen der schnelleren Detonator Treiber verwendet wird.
Das bringt die ATI unter das Niveau einer Geforce3 ti200.

Ein Review bei Anandtech zeigt , dass die Radeon um ca. 15 % schneller als eine Geforce 3 ti500, und mehr als 50% (!!!) schneller als eine Geforce 3 Ti200 ist (beim Unreal 2 Performance Test). Bei höheren Auflösungen ist sie "nur" mehr so schnell wie eine Geforce 3 Ti500 (1280x1024) aber mehr als 25% schneller als eine ti200, welche laut PC Games Hardware besser eingestuft wird als eine Radeon 8500.


Benchmarks:

http://www.anandtech.com/video/showdoc.html?i=1580&p=5

Mr Lolman
2002-04-24, 15:37:11
..aehh blättert beim link doch mal eine Seite vorwärts, dann seht ihr wie ich dass mit den Geschwidigkeitsunterschieden gemeint habe...

Birdman
2002-04-24, 21:53:35
Originally posted by Mr Lolman
..aehh blättert beim link doch mal eine Seite vorwärts, dann seht ihr wie ich dass mit den Geschwidigkeitsunterschieden gemeint habe...

ähm, will dir ja ned auf den schlimps treten, aber es gibt schon benches von der aktuelleren Version des UT2003 "demos" und da sieht es leicht anders aus....:

http://www.anandtech.com/video/showdoc.html?i=1608&p=5

Quasar
2002-04-24, 21:56:43
Neenee, Birdman. Das ist doch nur auf die Optimierung des Demos auf nV-Karten zurückzuführen....alles Teil des Plans.

Birdman
2002-04-24, 22:25:26
jo stimmt, und imho hat Anand dabei auch etxra die neuesten inoffiziellen NV Treiber verwendet, bei Ati aber auf die originalen von der CD zurückgegriffen...

MadManniMan
2002-04-24, 22:40:56
...was leider eine weitverbreitete tradition im netz ist...

entweder, man bencht NUR mit den mitgelieferten oder NUR mit den neuesten treibern. wenn ich das richtig mitbekommen habe, ist der deto 28.20 recht fehlerbehaftet, ergo sollte wirklich mal auf die treibers geschaut werden tun!

Birdman
2002-04-25, 12:35:05
Also wenn ich jeweils die Reviews ankukke, dann wird da fast immer mit den jeweils aktuellen OFFIZIELLEN Treibern gebencht.
Trotzdem modern die ATi leute wieder rum, weil ja anscheinend die allerneusten leaked beta treiber, oder irgendwelche ominösen Omega treiber sooo viel besser wären....

na ja, hauptsache man hat immer was zu meckern...

zeckensack
2002-04-25, 12:42:44
Anand hat im Januar den total veralteten 3286er für ATI benutzt, für NV die damals neuesten offiziellen 23.11er.

Aber beim neuesten Test ist alles in Ordnung, offizieller 28.32er für NV, offizieller 6043er für ATI. Er macht diesen Unsinn also neuerdings nicht mehr.

Birdman
2002-04-25, 18:59:12
echt war das so? habe mich ned so genau geachtet, bzw. komme ich bei den Ati treiberversionen eh ned so draus...die haben ja für jedes OS ne andre Nummer und imho das selbe nochmals für alle alten Grakageneration.

hehe iss aber komisch...beim test mit den alten schlechten treibern schnitt die Ati besser ab als mit nen neuen guten... :|

turboschlumpf
2002-04-25, 20:30:58
ich würde mal behaupten dass alle internetseiten bzw. hefte vor allem beim thema grafikkarten nur müll schreiben.

die einzige person die die es wirklich gecheckt und verstanden hat mit 3dfx (z.b. fsaa vs. t&l; 24bit postfilter vs. 32bit etc.) und was darüber geschrieben hat war...
na...
aths.

korrigiert mich wenn ich falsch liege.

und wenn ich so lese was alles geschrieben wird: sind die WIRKLICH SO DUMM? oder sind sie bezahlt?? oder tun sie nur so damit sie nicht als ausreisser gelten wenn sie was anderes schreiben? oder schreiben sie es einfach damit die leser zufrieden sind?

übrigens, 3dconcept war die beste seite aller zeiten.

anfangs als in meinen internetzugang erst wenige wochen hatte bin ich durch suchergebnisse auf google darauf aufmerksam geworden.
und von da an war ich JEDEN tag mindestens 2 mal auf der seite.
bis sie eben dicht gemacht hat.

naja, und rampage wäre der hammer geworden.
hier mal die mehr oder weniger offiziellen specs von 3dconcept.

RAMPAGE:
- 0.18
- 200 Mhz Chiptakt
- 200 Mhz DDR SD-RAM 6,4 GB
- 800 Millionen Pixel/Texel pro Sekunde
- kein Lighting, aber gewisse Transformationsfähigkeiten
- 25 Millionen Transistoren
- Texture Computer (dessen Flexibilität wäre durch DX8 nicht ausgeschöpft worden)
- 4 Rendering Pipelines mit je einer Textureinheit (8x Loopback)
- 128fach anisotropisches Filtering ohne Performanceverlus
- M-Buffer (erweiterter T-Buffer) Effekte z.B. RGMSFSAA, Depth of Field Blur, Bewegungsunschärfe, Photoshopfilter in Hardware (z.B. Impressionismus) etc.
- 8x Rotated Grid Multi Sampling Full Scene Anti Aliasing
- DXT1...5; FXT1 Texturkompression
- Overbright Lighting, d.h. internes 52bit Rendering

SAGE:
- 0.18
- 200 Mhz Chiptakt
- 125 Millionen Eckpunkte pro Sekunde
- 15 Millionen Transistoren
- 40 FMACS (zur Berechnung der Licheinflüsse auf Eckpunkte)
- Vertex Shader 1.0 (keine relative Adressierung)
- reale Leistung ca. 50-60 Mio Dreiecke pro Sekunde (mit mehreren Lichtern beleuchtet)
- Perlin Noise ermöglicht echte Zufallswerte, z.B. für sich stetig ändernde Wolkenformationen
- integrierte, extrem flexible, High Order Surfaces Einheit
- Dreiecke nur über HOS oder AGP
- fungiert als AGP/AGP Bridge

ROADMAP

Frühling:
- Specter xxxx (1x Rampage)
- Specter xxxx (1x Rampage; 1x Sage)
- Specter xxxx (2x Rampage; 1x sage)

Herbst:
-Fear xxxx (verschiedene versionen)

Fear = Fusion (Hydra bzw. Rampage 2 + Gigapixel Kern) + Sage2
Sage hätte die doppelte Leistung, Vertex Shader 1.1 und Zugriff auf den Grafikspeicher geboten.

Frühling (also normal JETZT):
Mojo, Verschmelzung in einem einzigen Chip.

zeckensack
2002-04-25, 20:39:27
Interessant. Perlin Noise gehört aber definitiv ins Reich der Pixel-Operationen und hat in einer Geometrieeinheit nichts verloren.

Xmas
2002-04-26, 03:15:37
Originally posted by zeckensack
Interessant. Perlin Noise gehört aber definitiv ins Reich der Pixel-Operationen und hat in einer Geometrieeinheit nichts verloren.
Nein. Perlin Noise würde bei heutigen Pixel Pipelines recht viele Passes erfordern (macht dort aber mehr Sinn als bei der Geometrie). NVidia hat für den NVEffectsBrowser eine Demo mit Perlin Noise per Vertex Shader, obwohl der Nutzen recht eingeschränkt ist.

Perlin Noise ist allerdings so gesehen kein spezielles Feature des Sage, es lässt sich einfach per VS realisieren.
Und ob der Rampage so ein Hammer geworden wäre... ich wage es zu bezweifeln.

Salvee
2002-04-27, 13:38:49
Originally posted by Xmas

Und ob der Rampage so ein Hammer geworden wäre... ich wage es zu bezweifeln.

Ich denke schon, dass Rampage/Sage einiges an Potenzial hatte, warum hätte nV sonst die ganze Firma aufkaufen sollen?
3dfx wurde schon als ernsthafter Contender angesehen, mit einer Menge Erfahrung und einiges (nicht soviel wie "früher")
an Einfluss. Gut, es gab da noch ein paar Multitexturing-Patentstreitigkeiten, aber die die waren wohl kaum der Grund
fürs Buyout. Man wollte einen Konkurrenten vom Hals/Markt haben, dessen nächstes Produkt die eigenen Umsätze gefährdet hätte.

Bloss schade, dass ATI nicht zugeschlagen hat ... :(

zeckensack
2002-04-27, 20:11:03
Originally posted by Xmas
Nein. Perlin Noise würde bei heutigen Pixel Pipelines recht viele Passes erfordern (macht dort aber mehr Sinn als bei der Geometrie). NVidia hat für den NVEffectsBrowser eine Demo mit Perlin Noise per Vertex Shader, obwohl der Nutzen recht eingeschränkt ist.

Perlin Noise ist allerdings so gesehen kein spezielles Feature des Sage, es lässt sich einfach per VS realisieren.
Und ob der Rampage so ein Hammer geworden wäre... ich wage es zu bezweifeln. Hö? Perlin Noise ist doch nix anderes als ein Spezialfall einer prozeduralen Textur. Wie watt wo, Vertex Shader? Das einzige, was ein Vertex Shader kann, ist doch an den Geometriekoordinaten, den Texturkoordinaten, diversen Farben und Normalen rumspielen. Struktur in die erzeugte Fläche bringen können die doch wohl eher weniger, hm? Da muß man mit Texturen und/oder Pixel-Ops ran.
Wenn ich jetzt Multipass-Krempel machen muß, weil meine Pixel-Ops nicht flexibel genug sind, dann kann so'n Vertex-Shader mir vielleicht auf die Sprünge helfen. Aber mehr auch nicht.

Xmas
2002-04-27, 20:19:14
Die NV-Demo erzeugt einfach eine Fläche, auf der die Eckpunkte verschoben sind, eine Noise-Landschaft sozusagen (wenn auch etwas klein)
http://developer.nvidia.com/view.asp?IO=perlin_noise

DR.DEATH
2002-04-28, 16:56:32
also das 2x fsaa der V5 5500 ist echt zu gebrauchen
beim 4x fsaa brichts schon ganz schoen ein aber das is bei ner gf3 nich anders

also ein Clanmate von mir spielt Unreal ( erschienen August/September 98, UT September/Oktober 99 ) immer mit 2xfsaa udn 800*660 und hat schon so 100 bis 130 fps ingame im Inet, fix isses schon und sieht super aus

also ich haette es gerne erlebt das der Rampage gekommen waere :(

btw. wieviel TMUs hat ne normale GF3 ??

Xmas
2002-04-29, 00:07:14
Originally posted by DR.DEATH
btw. wieviel TMUs hat ne normale GF3 ??
4 Pipelines mit je 2 TMUs.

Richthofen
2002-04-29, 13:18:53
@Salvee

"Ich denke schon, dass Rampage/Sage einiges an Potenzial hatte, warum hätte nV sonst die ganze Firma aufkaufen sollen?
3dfx wurde schon als ernsthafter Contender angesehen, mit einer Menge Erfahrung und einiges (nicht soviel wie "früher")
an Einfluss. Gut, es gab da noch ein paar Multitexturing-Patentstreitigkeiten, aber die die waren wohl kaum der Grund
fürs Buyout. Man wollte einen Konkurrenten vom Hals/Markt haben, dessen nächstes Produkt die eigenen Umsätze gefährdet hätte.
"

Also für den Kauf gabs mehere Gründe mit uterschiedlicher Gewichtung.
Der Rampage im einzelnen war eher kein Grund dafür.
Nvidia war bis dahin im Markt so sattelfest, das hätte 3dfx nicht mal eben aufgeholt. Außerdem glaube ich das die Leute im Netz viel zu sehr davon überzugt waren das der schon fast fertig ist.
Ich glaub der hätte schon noch ne Weile gebraucht.

3dfx hat Nvidia insgesamt 120 Mio $ gekostet - für Nvidia peanuts.
Für mich ist die Reihenfolge der Gründe in etwa so:

1. Multitexturing Klage
2. Patente, Ingineure, Gigapixel
3. ein Konkurent weniger.

Punkt 1 belief sich auf sage und schreibe 450 Mio$, wenn 3dfx gewonnen hätte.
Selbst ein Vergleich wäre noch bei ca 100 bis 200 Mio$ gelandet.
Vergleiche also 450 Mio Schadenersatz vs 120 Mio $ Kaufpreis.
Der Deal war für Nvidia doch eine Prima Sache. Die Klage aus dem Weg geräumt, dazu Massen an Patente, Gigapixel Know How und etwa 100 Beschäftigte. Dazu Quantum3D als neuer Partner für 3D im Bereich der Simulationen (Militär usw...)

Der Rampage an sich war eher kein Grund. 3dfx hätte selbst mit einem sehr guten Produkt diesen Rückstand am Markt nicht aufholen können.
Schon alleine nicht von den Kapazitäten trotz eigener Grakafabrik.
TNT2 Chips haben den gesamten Markt geradezu überflutet und den 6 Monaterythmus von Nvidia hätte 3dfx eh nicht mitgehen können. Dazu fehlten einfach die Ressourcen und vor allem das Geld.

Der Deal war für Nvidia doch ne prima Sache.
Bissl Konsolidierung am Markt ist nie verkehrt :)
Momentan isses wieder umgedreht, da die Preise oben sind und damit die Markteintrittsbarierren sinken aber spätestens in 2 Jahren sind von den 5 bis 6 Herstellern wieder maximal 3 übrig und der Rest ausgestiegen. Nur wer den Rythmus annähernd mitgeht den Nvidia vorlegt wird überleben können. Für 6 Hersteller ist in dem Geschäft kein Platz.

Mr Lolman
2002-04-29, 16:30:02
@ Richthofen.

Ja ich denke, du hast recht.
Doch muss man sich erst einmal überlegen warum nvidia überhaupt so eine Präsenz im Grafikkartenmarkt erreichen konnte.

Die bessere Hardware. (ist man fast versucht zu sagen)

Doch was an der Hardware war wirklich besser?
Die Features?
Die Geschwindigkeit?
Der Preis?


Zu den Features muss ich sagen dass nvidia in gewisser Hinsicht schon eine Vorreiterrolle angenommen hat.

Doch was bringen die seit Jahren gefeierten Technologien (wie div. Arten des Bumpmappings) wenn man Spiele die Bumpmapping verwenden an einer Hand abzählen kann (da meine ich jetzt nicht Bumpmapping wie es zB. bei Giants verwendet wird - mit einer statischen Lichtquelle, weil man das mit einer normalen Textur genauso zustande bringen könnte.


Bei der Geschwindigkeit ist es so dass nvidia hauptsächlicherst mit schnlleren Prozessoren so richtig zum Zuge kam (P200/TNT vgl P133/Voodoo,....)
Das heisst von hausaus einmal mehr Geld ausgeben - teurere Grafikkarte, besserer Prozi um höhere Speed zu erreichen !!

Als dann der Hype vonwegen Hardware T&L begann war es doch so dass eine Geforce 1 ab einer gewissen Prozessorgeschwindigkeit doch eher zu bremsen begann.

Die Voodoo 5 hatte kein HW T&L. Wie schlimm war das doch damals für die ganzen Hardware Tester. - IST ES NICHT SELTSAM DASS NACH 3 JAHREN HARDWARE T&L EINE SOFTWARE T&L KARTE DIE MEISTEN SPIELE IMMER NOCH FLÜSSIG DARSTELLEN KANN (Ja, ich habe das directx8 Spiel Aquanox(vom T-Online Server) mit meiner Voodoo5 PCI in 1024x768x32 FLÜSSSIG (!!!)gespielt. Das heisst: kein AGP, kein Hardware T&L, keine directx8 HW Fähigkeiten.


Der Preis: Also bitte, welcher Mensch gibt über 500 Euro für eine Grafikkarte aus?: nvidio... aehh nvidealisten.

Tut mir leid, soll kein persönlicher Angriff an irgendjemanden sein.
Aber was ich damit meine, ist dass es meiner Ansicht nach keine Kunst is irgendso ein überzüchtetes Ding auf die Beine zu stellen und dann fast 10000.- Schillings zu verlangen. - Wäre eigendlich immer noch kein Problem wenn dann die lieben Hardware Tester, natürlich total beeindruckt von ihrem Geforce Vorserien Exemplar, welches als einziges den Nature Benchmark darstellen kann, völlig ungeachtet des Preises eine Auszeichnung für innovative Hardware vergeben (oder so)

Ich kann VW jetzt auch nicht besser leiden als BMW nur weil die als erstes einen Zwölfzylinder Sportwagen vorgestellt haben.
Was zählt ist doch der praktische Nutzen, und der ist wohl kaum gegeben bei einer Grafikkarte die über 500 Euro kostet, und die sich somit eh keiner leisten kann.

Und das die ganzen Graka Features von den Hardware Testern vielleicht doch ein bisschen überbewertet worden sind, konnten die im vorhinein nicht wissen, aber doch ahnen.

Ums auf den Punkt zu bringen: Es ist mir durchaus bewußt dass nvidia die Grafikkartenentwicklung vorantreibt, und das ist gut, damit wir schneller schönere Spiele bekommen, aber das der Pionier der 3D Beschleuniger - 3dfx - (unterschied Quake-GlQuake) deswegen gerade vom grössten Konkurrenten aufgekauft werden muss ist selbst nach 1 1/2 Jahren immer noch eine traurige Tatsache. - gelle liebe Hardware Tester -

P.S.: eigentlich würde ich doch viel lieber Spiele mit Motion Blur und Tiefenunschärfe spielen als welche mit geshadeten Pixeln

Xmas
2002-04-29, 17:19:17
Originally posted by Mr Lolman
da meine ich jetzt nicht Bumpmapping wie es zB. bei Giants verwendet wird - mit einer statischen Lichtquelle, weil man das mit einer normalen Textur genauso zustande bringen könnte.
Damit hier jetzt keine Missverständnisse aufkommen: Bumpmapping kann auch bei statischen Lichtquellen Sinn machen, sofern der Blickwinkel beachtet wird (Specular Bumpmapping).

P.S.: eigentlich würde ich doch viel lieber Spiele mit Motion Blur und Tiefenunschärfe spielen als welche mit geshadeten Pixeln
Dann frag mal bei den Spieleentwicklern an... und fang schon an zu sparen, denn für qualitativ hochwertiges und fehlerfreies Motion Blur bei hoher Auflösung brauchst du noch ne ganze Ecke mehr Füllrate, als heutige Karten liefern können.

Richthofen
2002-04-29, 17:22:37
Also dann musst du dich irgendwie bei 3dfx beschweren.
Sie haben es nicht geschafft aus ihrem Vorsprung eine gescheite Marktposition aufzubauen.
Als Nvidia anfing waren sie ein NIEMAND und 3dfx hatte bereits einige Marktanteile. Sie haben allerdings mehr als fahrlässig versäumt diese auszubauen. Am Anfangserfolg hat man sich quasi ausgeruht und nichts vorangetrieben.
Wie lange hat 3dfx gebraucht, bis sie endlich eine halbwegs gescheite 2D/3D Kombi gebracht haben. Der erste Versuch ging voll in die Hosen. Der 2. klappte zu Beginn auch nur sehr bescheiden und war langsamer als das Teil ohne 2D.
Die V2 war eigentlich schon noch nen kleinen Tick schneller als die TNT aber trozdem haben sehr viel eine TNT gekauft unter anderem auch ich. Ich hatte nämlich einfach keine Lust mehr 2 Karten im PC zu betreiben wenns auch mit einer geht und vor allem hatte ich keine Lust dieses Loop Through Mist zu benutzen.
Die hätten doch einfach nur eine V2 mit 2D Teil direkt nach der V1 bringen brauchen. Statt dessen ne V2 die auch nicht viel mehr als ne V1 war und nochmals mit Loop Through Scheiss.
Und so gings weiter. Irgendwann war der 2D Teil da, dafür wurde bei 3D gepennt. Die V5 kam dann total verspätet, tja und dann wars aus.
Sowas wird halt aufs schärfste bestraft vom Markt. Ohne den Kauf von Nvidia, wäre 3dfx binnen weniger Wochen zahlungsunfähig gewesen. Einen Rampage hätte es so oder so nie gegeben.
Nvidia hatte guten Grund zu kaufen und haben die Gunst der Stunde genutzt. Das nenn ich gutes Management und vor allem Vision was man erreichen will.

Mr Lolman
2002-04-29, 17:32:27
...und dabei patentierte Multitexturing Technologie fladern muß...

Mr Lolman
2002-04-29, 17:34:58
@ Xmas:

Für gutes Motionblur würde die doppelte Füllrate einer V5 6000 schon reichen

ernesto.che
2002-04-29, 17:39:58
Die Banshee war nur minimal langsamer als eine TNT, das so sagenumwobene 32bit Rendering einer TNT/MGA G200 oder Savage 3D war komplett unbrauchbar.
Somit ist entweder die TNT auch nur halbwegs brauchbar oder beide sind vollwertige 2D/3D Kombikarten.
Ohne den Voodoo 2 Scheiß, würden wir heute noch nicht so weit sein. Vergiss nicht, das Nvidia sich erst durch den Kauf vor einer möglichen Verurteilung wegen Patentrechtsverletzung bezüglich trilinearem dithering und Multitexturing in den TNT- und TNT2-Chips retten konnte. Das hätte ca 420 Millionen USD gekostet. Wäre nicht gerade lässig für Nvidia gewesen. Das Nvidia die 3dfx Patente verletzt hat, ist mittlerweile unumstritten. Nvidia ist also durch Diebstahl zu Erfolg gekommen. Im Nachhinein ist mir das schnuppe. Aber vielleicht verdeutlicht das ja, das es Nvidia eines Tages mal genauso gehen könnte.

turboschlumpf
2002-04-29, 20:51:55
nvidia und vorreiterrolle *lol*
dass ich nicht lache.
ich nenne daas eher kundenverarsche mit sinnlosen grafikfeatures.

weiterhin wäre specter mit an sicherheit grenzender wahrscheinlichkeit noch im 1. quartal ausgeliefert worden.

sage war revolutionär. das ding hat selbst nvidia aus den latschen gehauen, auch wenn sie es nicht direkt zugaben.
und nicht ohne grund kursieren gerade gerüchte im internet dass nv30 ne externe t&l einheit besitzen soll. na denkt mal scharf nach woher die technik dann kommt.

warum in ne gf4 habe??
leider gottes baut nvidia im moment einfach die schnellsten grafikkarten.

und ihr glaubt nicht wie sehr ich mir wünsche dass die mal wieder tichtig derb auf die fresse bekommen.
sei es von 3d kabs (jaaaa, macht sie feeeertig),
den bitboys, matrox oder von mir aus auch ati (radeon2 hat mich allerdings etwas enttäuscht).

turboschlumpf
2002-04-29, 21:34:07
hier nochmal ein paar meiner gedanken zu 3dfx welche ich schon einmal in einem anderen forum gepostet hatte:



3dfx war NIE eine innovationsbremse. wenn es so etwas gibt, dass ist es jetzt nvidia.
3dfx/gigapixel war und bleibt die beste grafikchip schmiede aller zeiten.
das einzige was ihr das genick brach waren die dauernden verspätungen.
voodoo graphics und voodoo 2 haben das 3d rendering revolutioniert.
voodoo 3/4/5 waren nie geplant, wurden dann aber eingeschoben weil die entwicklung des rampage viel zu lange gedauert hat.
selbst mit diesen chips waren sie der konkurrenz aber um einiges voraus. der 24bit postfilter, t-buffer kantenglättung (bis jetzt unerreicht, nichtmal vom 16x msaa der wildcat) etc. etc. waren SINVOLLE erweiterungen die dem käufer auch etwas brachten. nicht so ein unspielbarer 32bit murx und t&l das vom prozessor sogar noch schneller berechnet werden kann. 3dfx hat ihre chips immer rein auf das spielen ausgelegt.
allerdings fielen sie der presse zum opfer, denn ich würde meinen 95% aller zocker sowie die presse haben null komma null ahnung. sie sind auf der welle der geforce euphorie mitgeschwommen und trieben 3dfx in den ruin. einige artikel auf 3dcenter.de (ich glaube von aths) haben es genau auf den punkt gebracht.
jetzt muss man sich nur mal anschauen was 3dfx noch so alles in planung hatte:
sage war und ist nvidia ja wohl um mindestens 18 monate voraus.
sli ist sowieso tausend mal sinvoller als irgendwelche unbedeutenden takterhöhungen.
die mosaic tiling technik von gigapixel ist wohl die beste auf dem markt.
und die kantenglättung sowie die vielen anderen features waren wohl auch der hammer schlechthin.
hätte es die vielen verspätungen nicht gegeben wäre 3dfx noch immer der souveräne marktführer wie zu zeiten des voodoo graphics/voodoo 2.

tja, nun ist es aber leider so gekommen und wir müssen uns damit abfinden.
hoffen wir dass wenigstens ein bischen der sensationellen technik in die nächsten generationen der geforce mit einfliessen wird.



und noch was. 3dfx wollte immer das beste für den kunden. beste qualität bei bestmöglicher performance, sowie eine klare produktstrategie. bei nvidia gibt es dies nicht. der markt wird mit tausenden verschiedenen chips und karten überschwemmt und keiner blickt mehr durch. tausende fsaa modi, aber bringen tuts nicht eine (2x gedrehtes raster, quincux, 4x normales raster, 4xS). tja, und dann noch irgend welche gehypeten neuerungen die fast nichts bringen und erst nach 18+ monaten unterstützt werden.
dies alles und der aufguss alter chips spülen zwar geld in die kasse, aber profitieren tut nur die firma, nicht der kunde.



voodoo3-5 waren wirklich nicht der hammer. allerdings hätte ne voodoo 5 6k ner ultra sicherlich paroli geboten. und ich finde den t-buffer 1000x sinvoller als dx7 t&l.
soweit ich weiss sollte glide (beruht auf 16bit) später garnicht mehr unterstützt oder zumindest der quellcode offengelegt werden.

Richthofen
2002-04-29, 21:35:27
"
Das Nvidia die 3dfx Patente verletzt hat, ist mittlerweile unumstritten. Nvidia ist also durch Diebstahl zu Erfolg gekommen. Im Nachhinein ist mir das schnuppe. Aber vielleicht verdeutlicht das ja, das es Nvidia eines Tages mal genauso gehen könnte.
"

Bewiesen ist es auch nicht.
Im Gegenzug hat auch Nvidia 3dfx auf Verletzung von Patenten verklagt.
Auch das ist nicht bewiesen. Also ist der Satz oben ziemlicher Müll.
Es ist in dieser Branche ziemlich schwierig mit den Patenten.
Man schaue sich nur mal Intel vs VIA
oder RAMBUS vs Infineon und CO an.
So einfach Diebstahl sagen ist mir bissl zu einfach.

"Ohne den Voodoo 2 Scheiß, würden wir heute noch nicht so weit sein."

Wenn sich 3dfx cleverer und besser angestellt hätte wären wir vielleicht sogar weiter. Dein Argument kann ich genauso gut auf Nvidia auslegen.
Ohne den GF256 und ohne den GF2 hätten wir heute keinen Vertex und Pixelshader.
Ohne Nvidia hätten wir kein 32 Bit in Spielen.
Jeder Hersteller hat seinen Teil zur Entwicklung beigetragen aber mancher eben mehr und mancher weniger wobei weniger eher in die ATI und PowerVR Richtung geht und Matrox (ausser EBM).
Trozdem weine ich einem Hersteller der unfähig ist zu überleben keine Träne nach. Wer auf Dauer keinen Gewinn macht und einen Quartalsverlust bilanziert der doppelt soch hoch ist wie der Umsatz, dem wein ich keine Träne nach. Für Verlierer gibts in dieser Gesellschaft nix. Wer hier 2. ist ist schon Verlierer.
Deswegen bin ich auch froh das Hynix verschwindet. Auch so eine Pleitebude die nun endlich weg vom Markt ist und diesen ruinösen Preiskampf beendet.


@turboschlumpf
"weiterhin wäre specter mit an sicherheit grenzender wahrscheinlichkeit noch im 1. quartal ausgeliefert worden."

Belege, Beweise? Ich halte dagegen und sage für die Befriedigung eines großen Marktes hatte 3dfx keine Ressourcen übrig, kein Geld und auch gar nicht vorgeplant. Um einen dicken Coup zu landen brauch man mehr als nur ein Produkt und einen Marktanteil der mittlerweile eher unbedeutend war. Dafür brauch man Marketing, Kapazitäten und Infrastruktur.

"
sage war revolutionär. das ding hat selbst nvidia aus den latschen gehauen, auch wenn sie es nicht direkt zugaben.
und nicht ohne grund kursieren gerade gerüchte im internet dass nv30 ne externe t&l einheit besitzen soll. na denkt mal scharf nach woher die technik dann kommt.
"

Wieder nur Vermutungen und nix handfestes. Nvidia haut so schnell nix ausn Latschen. Meinst du die Pennen? Das tun sie ganz bestimmt nicht und wenn sie wissen wollen was andere machen dann bekommen die das raus und wenns durch Abwerben von Fachkräften ist siehe Matrox und Aureal.
Und wenn diese Idee mit dem externen T&L Chip gut war, dann ist doch prima wenn Nvidia das aufgreift.
Warum kam denn 3dfx überhaupt auf die Idee nen T&L Chip im Consumerbereich zu machen?
Wer hat das dort eingeführt? Na klingelts..... :)

Xmas
2002-04-29, 22:09:10
Originally posted by Mr Lolman
@ Xmas:

Für gutes Motionblur würde die doppelte Füllrate einer V5 6000 schon reichen
"Schon"? Sind ja gerade mal 2,66 GPixel/s...

Liszca
2002-04-30, 00:50:48
Originally posted by Mr Lolman
Ist doch irgendwie seltsam...

Jetzt reden alle über Antialiasing, so wie wenn sie's selbst erfunden hätten, die Hardware Magazine benchen mit aktiviertem Antialiasing, aber als 3dfx mit der Voodoo5 den Stein ins Rollen gebracht hatte, gab es nur eine grosse Aufregung über dass fehlende Trilineare/Aniso... Filtering und über die mässige Performance des 4x AA. Ich mein, mal ehrlich:

Abgesehen von Nvidias 4xs, müssten ALLE jetzigen Karten 16x AA !!! bieten um die Qualität von 3dfx 4x AA zu erreichen da bei 2xAA je nach Karte und Treibereinstellung nur die horizontalen oder die vertikalen Linien geglättet werden.
Erst bei 4x AA erreicht man die Qualität des 2x AA von 3dfx.

Ich habe jetzt eine R8500 und muss sagen dass die BQ bei 1024x768x32 ,4x Aniso, 4x Quality AA, fast nicht anders ist als die BQ bei meiner V5 mit 1024x768x16(22), Mipmap dithering, 2x AA, und das bei ähnlicher Geschwindigkeit.


P.S.: ich würde gerne wissen welche Geschwindigkeit die Karten mit 16x Antialiasing erreichen würden - vgl. m. 3dfx 4x AA

das ist dein empfinden!

ow
2002-04-30, 10:55:04
Originally posted by ernesto.che
Die Banshee war nur minimal langsamer als eine TNT, das so sagenumwobene 32bit Rendering einer TNT/MGA G200 oder Savage 3D war komplett unbrauchbar.



Nein, 32Bit ist brauchbar auf der TNT. Da ich selbst noch so eine Karte betreiber weiss ich das.


Somit ist entweder die TNT auch nur halbwegs brauchbar oder beide sind vollwertige 2D/3D Kombikarten.



*LOL*. Seit wann entscheidest DU, was brauchbar ist und was nicht.


Ohne den Voodoo 2 Scheiß, würden wir heute noch nicht so weit sein. Vergiss nicht, das Nvidia sich erst durch den Kauf vor einer möglichen Verurteilung wegen Patentrechtsverletzung bezüglich trilinearem dithering und Multitexturing in den TNT- und TNT2-Chips retten konnte.



Der Ausgang der Klage war sehr ungewiss, interessiert also keinen.


Das hätte ca 420 Millionen USD gekostet. Wäre nicht gerade lässig für Nvidia gewesen.



Die hätte NV locker so aus dem Ärmel geschüttelt bei ihrer damaligen Marktposition.


Das Nvidia die 3dfx Patente verletzt hat, ist mittlerweile unumstritten. Nvidia ist also durch Diebstahl zu Erfolg gekommen. Im Nachhinein ist mir das schnuppe. Aber vielleicht verdeutlicht das ja, das es Nvidia eines Tages mal genauso gehen könnte.


Falsch. S.o. Gar nichts ist da unumstritten, es ist sogar eher zweifelhaft, dass das 3dfx Patent gültig war. Ist ja lächerlich, um was es da geht. Glaubst du NV hätte ohne mipmap dithering nicht so weit gebracht?

aths
2002-04-30, 15:37:14
ow,

wäre nv wirklich so fortschrittlich gewesen wie einige zu glauben scheinen, hätten sie "MIP Map Dithering" schon deshalb nicht kopieren brauchen, weil sie gleich nur noch echtes trilineares Filtering geboten hätten.

edit: Wieso "Zweifel" an der Gültigkeit? Wenn ein Patent patentiert ist, ist es gesetzlich geschützt. Oder irre ich hier?

ow
2002-04-30, 17:33:41
aths

Auf das mipmap dithering meines TNT kann ich gut verzichten, es sieht oft nicht so toll aus (ist natürlich stark von den Texturen usw. abhängig).

Immerhin beherrscht der TNT aber echtes Trilinear, wenn man Multitexturing abschaltet.
AFAIK ist das bei 3dfx nie im Treiber implementiert gewesen, bin mir nicht sicher und bitte um Korrektur falls ich da falsch liege.

Texturfilter-mässig liegt selbst der VSA100 nur auf Riva TNT Niveau.
Wenn ich FSAA und TC beim VSA100 streiche, dann ist er von den Features weitaus rückständiger als ein TNT.

Ist DAS Fortdschritt?


Zu Patenten:

Man kann auch Patente löschen, also für ungültig erklären lassen. Gerade Patente auf Software sind oft sehr umstritten....

Richthofen
2002-04-30, 19:09:23
nicht nur da sondern auch auf Hardware wie man bei RAMBUS sieht.

Ob 3dfx ein Patent hatte oder nicht ist doch völlig latte. Wenn Nvidia der Meinung war, das dieses Patent ungültig ist dann muss das ein Gericht klären. Dazu kams zwar wegen der genialen Entwicklung bei 3dfx nicht mehr aber bei RAMBUS vs restliche DRAM Hersteller isses genau das selbe.
RAMBUS sagt Patente verletzt, Infineon sagt Patent ist nicht gültig und hätte nie anerkannt werden dürfen.
Bis jetzt liegt Infineon gut im Rennen und RAMBUS nicht.
Wenn das endgültig geklärt ist und RAMBUS das Patent aberkannt bekommt sind sie im Arsch, weil alle die bisher Lizenzgebühren gezahlt haben X-fache Schadensersatzsummen fordern werden.
Das ist das coole in den USA :)
Nix mit popliger Entschädigung wie hier in DT. Dort gehts tief in den Geldbeutel.

Dunkeltier
2002-04-30, 19:28:48
Ich hatte selber die Diamond Viper V550 (Riva TNT mit 16 MB SDRAM), und 32 Bit bei 800x600 (in z.B. Need for Speed III, Half-Life, usw.) war unspielbar.

ernesto.che
2002-04-30, 19:50:36
Originally posted by Black Cow
Ich hatte selber die Diamond Viper V550 (Riva TNT mit 16 MB SDRAM), und 32 Bit bei 800x600 (in z.B. Need for Speed III, Half-Life, usw.) war unspielbar.

man wird dir erzählen, DU hast nicht zu entscheiden, ob es spielbar war oder nicht...

Exxtreme
2002-04-30, 19:59:10
@ Richthofen
So wie es aussieht, hat RAMBUS nie die Patente an SDRAM und DDR-SDRAM gehabt. Die SDRAM-Specs wurden AFAIK anfang der 90'er im OECD-Standarisierungsgremium besprochen und RAMBUS war damals ein Mitglied dessen. Sie sind aber später aus dem Gremium ausgestiegen und wollten eben diese Specs patentieren, was aber nicht geht da die OECD-Specs AFAIK nicht patentierbar sind und eigentlich jedem zur Verfügung stehen. Es sind aber anscheinend Teile der jetzigen SDRAM-Specs doch von RAMBUS patentiert worden. Diese gelten aber wiederum anscheinend nur in Verbindung mit einem Multiplex-Bus, welchen SDRAM aber nicht hat. Und deswegen streiten die sich gerade vor Gericht. So wie es aussieht, verliert RAMBUS sämtliche Prozesse. Und da hast du recht, es wird nicht billig da z.B. Toschiba AFAIK schon Lizenzgebühren für DDR-SDRAM geblecht hat. Diese werden garantiert zurückgefordert werden. Und ausserdem sind AFAIK ca. 40% des Gewinns von RAMBUS für Prozesskosten draufgegangen.

Gruß
Alex

aths
2002-04-30, 20:07:59
Originally posted by ow
Wenn ich FSAA und TC beim VSA100 streiche, dann ist er von den Features weitaus rückständiger als ein TNT.
Welche Features hat der TNT denn gegenüber dem VSA-100 noch?

VSA-100 bietet noch internes 40-Bit-Rendering, nativen Support von 8-Bit-Paletten-Texturen, TC via Narrow Channel Compression und Support von Color Keying, sowie HW-Support von Fog mit Fog-Tabellen bis 14 Einträgen.

Dunkeltier
2002-04-30, 20:16:31
Originally posted by ernesto.che


man wird dir erzählen, DU hast nicht zu entscheiden, ob es spielbar war oder nicht...

Äh, tschuldigung. :lol: Ich hatte die Karte längere Zeit mit meinen AMD K6 200 Mhz betrieben, und zum zocken habe ich lieber die Voodoo 2 genommen, die eine ganze Ecke schneller war.

Und auch nach einem Systemwechsel auf einen AMD K6-2 350 Mhz ließ sich die Riva TNT noch immer nicht zum zocken unter 32 Bit benutzen, da schlicht und einfach zu langsam. Ich hatte mir deshalb kurz darauf eine Voodoo 3 3500 gekauft gehabt, da diese einfach schneller war und der 22 Bit Filter sehr gut aussah und spielbar war. Ist halt eine gute Karte zu jener dunklen Zeit der 3D Beschleunigung gewesen.

Bis heute ärgere ich mich noch, das ich von der Voodoo 3 3500 (habe ich für 180-250 DM oder an ´nem WG-Kumpel damals vertickt) auf die Geforce 256 DDR vorschnell gewechselt habe. (T&L Gehirnwäsche). Genauso sinnlos wie das 32 Bit damals zu TNT Zeiten.

Dunkeltier
2002-04-30, 20:17:04
*Sorry*

ernesto.che
2002-04-30, 20:31:12
Originally posted by aths

Welche Features hat der TNT denn gegenüber dem VSA-100 noch?

VSA-100 bietet noch internes 40-Bit-Rendering, nativen Support von 8-Bit-Paletten-Texturen, TC via Narrow Channel Compression und Support von Color Keying, sowie HW-Support von Fog mit Fog-Tabellen bis 14 Einträgen.
der TNT hatte auch zuerst einen T-Buffer!;)

Bemo
2002-04-30, 22:21:51
Der RivaTNT war in der Praxis (viele Glide-Games damals) langsamer als eine billigere Banshee. Ausserdem hatte der Chip viele Kompatibilitätsprobleme mit Spielen (z.B. wegen fehlenden 8bit palletized Textures). 32bit war in jeder Auflösung unspielbar. Ich hatte beide Karten, die TNT war einfach die zweite Wahl.

Und ja, Nvidia hätte es ohne den Technologie-Klau (3Dfx MIP Map Dithering) nie so weit gebracht. Ohne Mipmap Dithering hätte Nvidia auf echtes trilineares Filtering setzen müssen, womit der TNT (90 MHz, angekündigt und gehypt 125 MHz) noch langsamer gewesen wäre.

StefanV
2002-04-30, 23:28:45
Originally posted by Black Cow
Ich hatte selber die Diamond Viper V550 (Riva TNT mit 16 MB SDRAM), und 32 Bit bei 800x600 (in z.B. Need for Speed III, Half-Life, usw.) war unspielbar.

Ist die TNT1 nicht um 50% weggebrochen, wenn auf 32bit gewechselt wurde??

Hat die G200 nicht 10-20% verloren??

Mr Lolman
2002-04-30, 23:31:10
Das Traurige ist doch nur, dass sich Leute, und damit meine ich jetzt nicht nur die Endkunden, sondern genauso die diversen Hardware Tester, von vielen unnötigen Features beeindrucken lassen.

Mal ehrlich:

32 bit Rendering klingt doch gleich mal viel besser als 22 bit Post Filtering.
Dass zur damaligen Zeit, ich wage zu behaupten, überhaupt kein Unterschied, oder nur ein Unterschied bei speziellen Benchmarks oder Grafikdemos zu erkennen war den lieben HW Testern doch egal.

Die Geschichte mit den 32 bit Textures ist doch genau das Gleiche.
Wie schlimm war es doch damals, dass die Texturgrösse bei der Voodoo3 immer noch auf 256^2 Pixel beschränkt war.

256^2 Pixel Texturgrösse waren bis vor 1 1/2 Jahren Standard.
...und 32 bit Textures...
überlegt doch mal: 256x256 Pixel = 65536 Pixel
16 bit Farben = 65536 Farben
das heisst: selbst wenn jedes Pixel eine andere Farbe hätte, würden 16 bit Farben doch total ausreichen.




Wie sehr habe ich mich gefreut als ich die Ankündigung des T-Buffers gehört habe....

-Tiefenunschärfe, Antialiasing, Motion Blur.

Da hätten Rennsimulation endlich einmal "echt" gewirkt. Gut, wenn man jetzt mit dem Argument kommt: "Das war doch alles viel zu langsam auf der Voodoo5" - war doch mit HW T&L bei der Geforce 1 genau das Gleiche, nur das man bis auf eine zu einem beschränktem Masse höhere Geschwindigkeit hat, dafür aber keinerlei optische Verbesserungen. Die nächste Grafikkartengeneration hatte schon leistungsfähigeres HW T&L - wäre bei 3dfx und T-Buffer warscheinlich genauso gewesen.

Was ich sagen will ist, dass die Hardwaretester zumindest eine Teilschuld am Untergang von 3dfx haben.



Noch etwas:

Warum benötigen wir plötzlich alle aufeinmal mindestens 50 fps damit ein D3D Spiel spielbar wird ???

-Weil es ein D3D Spiel ist. 20-30 fps sind keineswgs ruckelig (weder in d3d noch in opengl oder glide) Das Problem von d3d ist, dass die Mausreaktion bei 20-30 fps träge wird, was bei Glide und opengl nicht der Fall ist.

Dass heisst: ein Spiel welches d3d und glide unterstützt und mit einer d3d karte 30fps erreicht, und mit einer VoodooX nur 25 war es in Glide trotzdem noch spielbarer als in d3d. (Ausserdem hatten ja alle Voodookarten das "Problem" einer schlechten d3d,opengl Unterstützung (Achtung:Sarkasmus) weil ja glide sowieso immer schneller war (oder die besser BQ bot (Undying)))



Why I always have to lol so much ?

ow
2002-05-01, 00:31:26
Originally posted by Stefan Payne


Ist die TNT1 nicht um 50% weggebrochen, wenn auf 32bit gewechselt wurde??

Hat die G200 nicht 10-20% verloren??


Nein Stefan, ist die TNT nicht.

ow
2002-05-01, 00:33:12
Originally posted by Mr Lolman
überlegt doch mal: 256x256 Pixel = 65536 Pixel
16 bit Farben = 65536 Farben
das heisst: selbst wenn jedes Pixel eine andere Farbe hätte, würden 16 bit Farben doch total ausreichen.




:lol::lol::lol::lol:

Dunkeltier
2002-05-01, 00:48:30
Originally posted by ow



Nein Stefan, ist die TNT nicht.

IST SIE DOCH, LABER KEINEN MÜLL! Ich hatte diese Karte, und ich weiß wovon ich rede! Jedenfalls ist sie bis zum unspielbaren eingebrochen. :madman: ich ---> :chainsaw: <--- du

ernesto.che
2002-05-01, 01:58:00
Originally posted by ow



Nein Stefan, ist die TNT nicht.

Es sind 40%. Das sind übrigens die offiziellen Zahlen aus dem 3dconcept Archiv. Du musst diesmal nicht nur arrogant Smilies druntersetzten oder mit einem kleinkinder Trotz-Nein antworten. Nur nein ist irre produktiv!

aths
2002-05-01, 12:59:25
ow, unten auf Seite 3 befindet sich noch ein Posting von mir. Auf eine Antwort würde ich mich freuen.

StefanV
2002-05-01, 14:22:49
Originally posted by ow
Nein Stefan, ist die TNT nicht.

Ach wirklich??

Zeig mir doch mal den Benchmark!!!!!

Bei einer G200 war es fast egal, ob sie in 16bit oder 32bit gerendert hat, sooo groß war der Verlust nicht...

Gleiches gilt für die ATI Karten, bei denen der Verlust von 16 auf 32bit auch nicht sooo groß ins Gewicht fällt.

ALSO:

ALLE NV Karten sind 16bit Karten, mit angebasteltem 32bit Modus (ein 'richtiger' 32bit Modus würde nicht so stark wegbrechen).

MGA und ATI sind 32bit Karten, die auch 16bit können, die Kyro kann erst gar kein 16bit mehr 'richtig'.

Birdman
2002-05-01, 14:49:41
Originally posted by Stefan Payne

ALLE NV Karten sind 16bit Karten, mit angebasteltem 32bit Modus (ein 'richtiger' 32bit Modus würde nicht so stark wegbrechen).

Also mit dieser Aussage habe ich ein wenig mühe, denn 32bit erzeugt nun mal in vielen Anspekten des Rendering die doppelte Last gegenüber 16bit.

Ich würde es daher eher so formulieren, dass NV und 3dfx diesen leistunsgschub ausnutzen, da deren Chip nicht auf reinen 32bit Rendering ausgelegt ist.
Bei Matrox und vor allem bei ATi ist es so dass hier seit der Radeon die ganze architektur auf 32bit getrimmt ist, daher gewinnt dieser karte auch fast keine fps beim benutzen vn 16bit.
Bei der Kyro ist es so, dass diese ja gar kein richtiges 16bit Rendering unterstützt...diese läuft daher anyway ausser Konkurenz bei diesem Vergleich.

Haarmann
2002-05-01, 15:08:37
NVidia baute mindestens bis/mit zur GF2 absolut 16 Bit Chips. Keiner dieser Chips kam auch nur annähernd an die Leistungen der direkten Konkurrenz unter 32Bit heran. Aber jeder Reviewer mass sowieso nur in 16 Bit, also wars auch scheissegal, dass die Karten unter 32 Bit nur noch schlichen. Ne GF DDR z.B. macht fast 480 MPix Single Tex in 16 Bit - bei 32 sinds dann noch ca 240 - Nicht wirklich ne Konstruktion, die für 32 Bit gedacht ist...

aths
2002-05-01, 15:35:31
Haarmann,

bei der GTS ist die Ausnutzung der reinen Füllrate in 32 Bit unter 50%, soweit ich weiß, als noch "schlimmer".

ow
2002-05-01, 15:50:30
Originally posted by Black Cow


IST SIE DOCH, LABER KEINEN MÜLL! Ich hatte diese Karte, und ich weiß wovon ich rede! Jedenfalls ist sie bis zum unspielbaren eingebrochen. :madman: ich ---> :chainsaw: <--- du



Laber selber keinen Müll;)

Ich habe die Karte immer noch und gestern mal ein bisschen RTCW in 640x32Bit gezockt. Null Probleme. Selten unter 20fps. Alles auf max. ausser Texturdetails (picmip 1).

ow
2002-05-01, 15:54:47
Originally posted by ernesto.che


Es sind 40%. Das sind übrigens die offiziellen Zahlen aus dem 3dconcept Archiv. Du musst diesmal nicht nur arrogant Smilies druntersetzten oder mit einem kleinkinder Trotz-Nein antworten. Nur nein ist irre produktiv!


Pauschale Prozentzahlen kannst du da überhaupt nicht angeben. Hängt nämlich stark von vielen Faktoren ab, zB Polygonlast.

Q3, 640, normal quality

nv15demo

16bit: 19,8fps
32bit: 16,7fps

demo001

16: 49,9fps
32: 37,4fps

ow
2002-05-01, 15:59:56
Originally posted by Stefan Payne

Ach wirklich??

Zeig mir doch mal den Benchmark!!!!!



S.o.


Bei einer G200 war es fast egal, ob sie in 16bit oder 32bit gerendert hat, sooo groß war der Verlust nicht...


Gleiches gilt für die ATI Karten, bei denen der Verlust von 16 auf 32bit auch nicht sooo groß ins Gewicht fällt.




Du meinst, die Leitungssteigerung beim Umschalten auf 16Bit kann man vergessen bei ATi und Matrox, da hast du recht.
Aber zeig mir die Nenches, wo eine G200 unter 32Bit schenller als eien TNT ist.



ALSO:

ALLE NV Karten sind 16bit Karten, mit angebasteltem 32bit Modus (ein 'richtiger' 32bit Modus würde nicht so stark wegbrechen).

MGA und ATI sind 32bit Karten, die auch 16bit können, die Kyro kann erst gar kein 16bit mehr 'richtig'.


*LOL*
Du meinst wohl den angebastelten 16Bit Modus bei ATi und Matrox, während NVidfia beide Farbtiefen VOLL untertützt.

ow
2002-05-01, 16:02:34
Originally posted by Haarmann
NVidia baute mindestens bis/mit zur GF2 absolut 16 Bit Chips. Keiner dieser Chips kam auch nur annähernd an die Leistungen der direkten Konkurrenz unter 32Bit heran.


???

Aber sicher doch. Die NV Chips waren auch immer unter 32bit die schnellsten.

Frank
2002-05-01, 16:17:45
Originally posted by ow
Aber sicher doch. Die NV Chips waren auch immer unter 32bit die schnellsten.
na jaa
so kann man das auch nich im Raum stehen lassen Architektur bedingt waren die G400 Karten ihren TNT2 Brüdern da doch vorraus und in der Geschwindigkeit mindestens! gleichwertig (32bit) (oder besser :) )

Xmas
2002-05-01, 16:32:35
Originally posted by Mr Lolman
überlegt doch mal: 256x256 Pixel = 65536 Pixel
16 bit Farben = 65536 Farben
das heisst: selbst wenn jedes Pixel eine andere Farbe hätte, würden 16 bit Farben doch total ausreichen.
Wenn es so einfach wäre... ist es aber nicht. Du verwechselst die Anzahl der Farben mit der Auflösung des Farbraumes. 16 Bit RGB-565 reicht nicht aus, um Farbverläufe korrekt wiederzugeben.

Warum benötigen wir plötzlich alle aufeinmal mindestens 50 fps damit ein D3D Spiel spielbar wird ???

-Weil es ein D3D Spiel ist. 20-30 fps sind keineswgs ruckelig (weder in d3d noch in opengl oder glide) Das Problem von d3d ist, dass die Mausreaktion bei 20-30 fps träge wird, was bei Glide und opengl nicht der Fall ist.
20-30 fps sind nicht flüssig, außer mit sehr gutem Motion Blur. Dazu kommt dass mit kleiner Framerate immer die Reaktionszeit länger wird.
Wenn D3D im Vergleich zu den anderen APIs "träger" wirkt, dann sind die Treibereinstellungen nicht identisch. Das ist kein Problem von D3D.


Originally posted by Stefan Payne
ALSO:

ALLE NV Karten sind 16bit Karten, mit angebasteltem 32bit Modus (ein 'richtiger' 32bit Modus würde nicht so stark wegbrechen).

MGA und ATI sind 32bit Karten, die auch 16bit können, die Kyro kann erst gar kein 16bit mehr 'richtig'.
Stefan, ich kann dich echt nicht mehr ernst nehmen.


Originally posted by Haarmann
NVidia baute mindestens bis/mit zur GF2 absolut 16 Bit Chips. Keiner dieser Chips kam auch nur annähernd an die Leistungen der direkten Konkurrenz unter 32Bit heran.
Welche Chips siehst du denn als direkte Konkurrenz zu GF1 und GF2?
GF2 war sicher nicht mehr zum 16-Bit-Spielen gedacht.

aths
2002-05-01, 16:51:05
ow,

ich verstehe deine Argumentationsrichtung nicht. Wenn du der Meinung bist, beide Modi sollten gut unterstützt, nunja - wenn der 32-Bit-Modus schnell genug ist, interessiert der 16-Bit-Modus praktisch nicht. Insofern ist es auch egal, ob eine Karte bei 16 Bit zugewinnt (trifft auf GF3/4 z.B. kaum zu.) wenn denn die 32-Bit-Geschwindigkeit ausreichend ist. Ist sie das nicht, wäre ein besserer 16-Bit-Modus gut. Hier waren die Voodoos Spitzenreiter, nicht nV-Karten.

Darf ich noch auf eine Antwort meiner Frage auf Seite 3 rechnen?

Exxtreme
2002-05-01, 17:03:49
Originally posted by Stefan Payne


Gleiches gilt für die ATI Karten, bei denen der Verlust von 16 auf 32bit auch nicht sooo groß ins Gewicht fällt.
Kann man so nicht sagen. Die R100 mit DDR-RAM ist bei 16 Bit füllratenlimitiert, weil sie nur 2 Renderpipes hat. Wenn man den Chiptakt erhöht, skaliert sie sehr gut mit dem Chiptakt. Die früher angekreidete "16 Bit-Schwäche" ist aber keine, da die R100 trotzdem schnell genug war.
Originally posted by Stefan Payne


ALSO:

ALLE NV Karten sind 16bit Karten, mit angebasteltem 32bit Modus (ein 'richtiger' 32bit Modus würde nicht so stark wegbrechen).

Kann man so auch nicht sagen. Die NV-Chips waren bis zur GF3 sehr stark bandbreitenlimitiert. Der Speicher konnte die 4 Renderpipes der GF2GTS in 32 Bit nicht schnell genug versorgen weil er einfach zu langsam war. Gib der GF2GTS genug Speicherbandbreite und sie performt auch unter 32 Bit sehr gut. ATi hat das schnell erkannt und hat der R100 HyperZ spendiert. Damit war die R100 ab der 1280'er Auflösung meist schneller als die GF2GTS bei 32 Bit.

Gruß
Alex

StefanV
2002-05-01, 17:31:25
Originally posted by Exxtreme
Kann man so auch nicht sagen. Die NV-Chips waren bis zur GF3 sehr stark bandbreitenlimitiert. Der Speicher konnte die 4 Renderpipes der GF2GTS in 32 Bit nicht schnell genug versorgen weil er einfach zu langsam war. Gib der GF2GTS genug Speicherbandbreite und sie performt auch unter 32 Bit sehr gut. ATi hat das schnell erkannt und hat der R100 HyperZ spendiert. Damit war die R100 ab der 1280'er Auflösung meist schneller als die GF2GTS bei 32 Bit.

Ähm, ich hab jetzt ehrlichgesagt an die TNT2, Rage 128 PRO und G400 gedacht und nicht an GF gegen Radeon...

DAMALS gabs keine Bandbreitenschonenden Maßnahmen (außer Fast Z Clear bei S3)...

Andre
2002-05-01, 17:35:26
Originally posted by Stefan Payne
Ähm, ich hab jetzt ehrlichgesagt an die TNT2, Rage 128 PRO und G400 gedacht und nicht an GF gegen Radeon...

Stefan,

wo geht das aus folgender Aussage von Dir hervor:

"ALSO:

ALLE NV Karten sind 16bit Karten, mit angebasteltem 32bit Modus (ein 'richtiger' 32bit Modus würde nicht so stark wegbrechen). "

Ich sehe da nur, dass Du alle NV-Karten meinst.
Wenn Du es aber anders meinst, warum sagst Du es dann nicht?

Du wirst ja nicht im Ernst behaupten wollen, dass bei der Geforce 3 oder 4 der 32 Bit-Modus angebastelt ist, oder?

Exxtreme
2002-05-01, 17:39:22
Originally posted by Stefan Payne


Ähm, ich hab jetzt ehrlichgesagt an die TNT2, Rage 128 PRO und G400 gedacht und nicht an GF gegen Radeon...

DAMALS gabs keine Bandbreitenschonenden Maßnahmen (außer Fast Z Clear bei S3)...
Die TNT(2) war trotzdem gnadenlos bandbreitenlimitiert. Bei 3DConcept gab es mal einen Artikel, bei dem eine TNT2U untertaktet wurde, der Speicher aber nicht. Und trotzdem wurde die GraKa nicht viel langsamer als eine normale TNT2U. ATi hat seit dem Rage128 wiederum mehr auf Caches gesetzt und so die Bandbreitenproblematik etwas entschärft. Trotzdem verlor die Rage128 gehörig an Leistung, wenn man auf 32 Bit schaltete.

Gruß
Alex

StefanV
2002-05-01, 17:39:49
Originally posted by ow

Du meinst, die Leitungssteigerung beim Umschalten auf 16Bit kann man vergessen bei ATi und Matrox, da hast du recht.
Aber zeig mir die Nenches, wo eine G200 unter 32Bit schenller als eien TNT ist.




*LOL*
Du meinst wohl den angebastelten 16Bit Modus bei ATi und Matrox, während NVidfia beide Farbtiefen VOLL untertützt.

1. nein, den Verlust beim Umschalten auf 32bit!!


1b. hab niemals behauptet, daß eine G200 schneller ist als eine TNT, hab nur gesagt, daß der VERLUST von 16 auf 32bit geringer ist als bei der TNT :P

2.DU hast absolut GARNIX verstanden!!

Wenn eine Karte bei 16->32bit wenig Performance verliert (G400 dürfte das beste Beispiel sein), dann heißt das NICHT unbedingt, daß der 16bit Modus mies ist, sondern einfach, daß der 32bit Modus besser ist.

Auch scheinst du hier die GF3 und 4 zu vergessen, bei der die 32bit und 16bit Performance mehr oder weniger identisch ist.

StefanV
2002-05-01, 17:42:02
Originally posted by Xmas
Stefan, ich kann dich echt nicht mehr ernst nehmen.

1. dieser Kommantar war überflüssig.

2. hast du meine Aussage nicht weiter 'analysiert'.

3. NV Chips bis GF2 brechen von 16bit auf 32bit mehr ein, als andere GLEICHWERTIGE Karten.

Beispiele:
TNT/2
Rage 128 (PRO)
Matrox G200/G400
S3 Savage 3D/4 (nur Performance verlust)

ernesto.che
2002-05-01, 17:42:44
Originally posted by Andre


Stefan,

wo geht das aus folgender Aussage von Dir hervor:

"ALSO:

ALLE NV Karten sind 16bit Karten, mit angebasteltem 32bit Modus (ein 'richtiger' 32bit Modus würde nicht so stark wegbrechen). "

Ich sehe da nur, dass Du alle NV-Karten meinst.
Wenn Du es aber anders meinst, warum sagst Du es dann nicht?

Du wirst ja nicht im Ernst behaupten wollen, dass bei der Geforce 3 oder 4 der 32 Bit-Modus angebastelt ist, oder?


Doch - und er hat recht! Per Regestry Hack können ALLE, und zwar alle NvidiaChips ab NV 1 - 64 bit Rendering. ow spielt auf seiner TNT RtCW in 1024*768*64, 32xFSAA etc!

Frank
2002-05-01, 17:55:30
Originally posted by Stefan Payne
DAMALS gabs keine Bandbreitenschonenden Maßnahmen (außer Fast Z Clear bei S3)...
na der Dualbus von Matrox hats aber auch versucht gegenzuwirken

Andre
2002-05-01, 18:02:01
Originally posted by ernesto.che
Doch - und er hat recht! Per Regestry Hack können ALLE, und zwar alle NvidiaChips ab NV 1 - 64 bit Rendering. ow spielt auf seiner TNT RtCW in 1024*768*64, 32xFSAA etc!

Ich raff nicht, was Du mir sagen willst.

ernesto.che
2002-05-01, 18:06:40
Originally posted by Andre


Ich raff nicht, was Du mir sagen willst. *gg* wundert mich nicht ;)
Es zielte in Richtung Stefan. Er hat zwar recht, das der 32bit Modus bis hoch zur Geforce 2 im Vergleich zum 16bit Modus zu langsam ist, "rangeflickt" war es von Nvidia aber wohl nicht. Ich denke eher, Nvidia konnte es bis dahin nicht besser, Bandbreiten schonende Technik waren aber nicht so Nvidias Stärke. Heute schauts da schon besser aus.

Frank
2002-05-01, 18:08:33
Originally posted by ow
Laber selber keinen Müll;)

Ich habe die Karte immer noch und gestern mal ein bisschen RTCW in 640x32Bit gezockt. Null Probleme. Selten unter 20fps. Alles auf max. ausser Texturdetails (picmip 1).
exactement

Hab selber noch eine (onBoard)TNT im Einsatz. Packen tut die schon noch was - auch in 32bit - und wenns in 640x480 ist wie bei ow oder dann in älteren Spielen 800x600

Thowe
2002-05-01, 18:15:45
Originally posted by Stefan Payne


1. dieser Kommantar war überflüssig.

2. hast du meine Aussage nicht weiter 'analysiert'.

3. NV Chips bis GF2 brechen von 16bit auf 32bit mehr ein, als andere GLEICHWERTIGE Karten.

Beispiele:
TNT/2
Rage 128 (PRO)
Matrox G200/G400
S3 Savage 3D/4 (nur Performance verlust)

zu 1. Denke nicht, bezog sich wohl darauf, das es so wie es da Stand eben "Hirnrissig" war.

zu 2. Wie willst du etwas analysieren wenn dir wichtige Informationen fehlen. Denke Xmas ist nicht besonders gut in Gedankenlesen.

zu 3. Ach was, so gravierend ist das gar nicht.



Ganz ab davon das eine Diskussion über Grafikkarten die selbst auf Ebay kaum einer haben will, eigentlich nichts bringt. Da kann man über "bessere" Dinge diskutieren.

Thowe
2002-05-01, 18:17:39
Originally posted by Stefan Payne
2.DU hast absolut GARNIX verstanden!!

Na dann formulier doch besser was du sagen willst.

Mr Lolman
2002-05-01, 20:14:10
@ XMAS

Das ist mir schon klar dass RGB 565 nicht ausreicht den vollen Farbraum darzustellen. Ich meinte doch nur, dass die theoretische Farbanzahl total ausreichen würde.

BTW: Unreal und UT, und alle Spiele die auf der UT Engine basieren haben 8 bit Textures (256 Farben)- so sind noch weitere 8 bit für den alpha kanal vorhanden - was völlig ausreichend ist. Oder findest du das auf der UT Engine basierende Spiele eine schlechte Texturqualität haben??

ow
2002-05-01, 20:17:37
Originally posted by ernesto.che



Doch - und er hat recht! Per Regestry Hack können ALLE, und zwar alle NvidiaChips ab NV 1 - 64 bit Rendering. ow spielt auf seiner TNT RtCW in 1024*768*64, 32xFSAA etc!

*LOL*

Du bist echt witzig.:D

ow
2002-05-01, 20:20:37
Originally posted by Stefan Payne


Wenn eine Karte bei 16->32bit wenig Performance verliert (G400 dürfte das beste Beispiel sein), dann heißt das NICHT unbedingt, daß der 16bit Modus mies ist, sondern einfach, daß der 32bit Modus besser ist.



*LOL*


Verrat mir mal, wieso bei viel geringerem Bandbreitenbedarf die Leistung bei 16Bit nicht steigen sollte. Aber bestimt nicht, weil der 32Bit Modus besser ist. Sondern weil der 16Bit Modus schlecht ist.

StefanV
2002-05-01, 20:23:39
Originally posted by ow
Verrat mir mal, wieso bei viel geringerem Bandbreitenbedarf die Leistung bei 16Bit nicht steigen sollte. Aber bestimt nicht, weil der 32Bit Modus besser ist. Sondern weil der 16Bit Modus schlecht ist.

Vielleicht, weil ein Chip 'intelligenter' mit der Bandbreite umgeht??

ow
2002-05-01, 20:26:40
Originally posted by Mr Lolman
@ XMAS

BTW: Unreal und UT, und alle Spiele die auf der UT Engine basieren haben 8 bit Textures (256 Farben)- so sind noch weitere 8 bit für den alpha kanal vorhanden - was völlig ausreichend ist. Oder findest du das auf der UT Engine basierende Spiele eine schlechte Texturqualität haben??


Das kannst du nicht vergleichen. Bei 8bit paletted textures hat jede Textur ihre eigene Farbpalette aus 256 Farben, die Gesamtzahl der Farben aller Texturen liegt aber VIEL höher.

aths
2002-05-01, 21:42:06
ow,

ich erlaube mir (ein 3. mal) nachzufragen, ob ich mit einer Antwort auf mein Posting von Seite 3 noch rechnen kann.

Quasar
2002-05-01, 21:45:05
aths, vielleicht solltest du die Frage wiederholen. Nicht jeder hat die Forumseinstellungen auf default. Ich bsw. habe dies hier als "unten auf Seite 3":
Haarmann,

bei der GTS ist die Ausnutzung der reinen Füllrate in 32 Bit unter 50%, soweit ich weiß, als noch "schlimmer".

turboschlumpf
2002-05-01, 22:15:58
ich glaube aher nicht dass das der grund hierfür ist.

Liszca
2002-05-01, 23:10:55
Originally posted by Ceiser Söze
Könnte sich bald ändern. Natürlich nicht über FSAA allein, sondern über eine qualitativ höchstwertige und zudem schnelle Kombination aus FSAA und AF.
Wird aber auch langsam Zeit. Ist ja bald 2 Jahre her seit der Voodoo5...

3dfx hatte immer langlebige produkte auf irgend eine weisse, erinnert sich noch jemand an die voodoo2 wie die in den charts nicht tot zu kriegen war <zensiert>

mapel110
2002-05-01, 23:18:25
yup. meine voodoo3 3000 ist auch erst im september 01 aus dem 3ddigest auf digit-life rausgeflogen :)

Liszca
2002-05-01, 23:23:06
Originally posted by Mr Lolman
Das Traurige ist doch nur, dass sich Leute, und damit meine ich jetzt nicht nur die Endkunden, sondern genauso die diversen Hardware Tester, von vielen unnötigen Features beeindrucken lassen.

Mal ehrlich:

32 bit Rendering klingt doch gleich mal viel besser als 22 bit Post Filtering.
Dass zur damaligen Zeit, ich wage zu behaupten, überhaupt kein Unterschied, oder nur ein Unterschied bei speziellen Benchmarks oder Grafikdemos zu erkennen war den lieben HW Testern doch egal.

Die Geschichte mit den 32 bit Textures ist doch genau das Gleiche.
Wie schlimm war es doch damals, dass die Texturgrösse bei der Voodoo3 immer noch auf 256^2 Pixel beschränkt war.

256^2 Pixel Texturgrösse waren bis vor 1 1/2 Jahren Standard.
...und 32 bit Textures...
überlegt doch mal: 256x256 Pixel = 65536 Pixel
16 bit Farben = 65536 Farben
das heisst: selbst wenn jedes Pixel eine andere Farbe hätte, würden 16 bit Farben doch total ausreichen.

Ich weiss noch wie ich damals vor der wahl stand ne v3 oder tnt2 pro, tnt2 war ein wenig billiger, habe mir aber ne v3 geholt, war einfach von 3dfx begeistert, un die probleme das requiem demo nicht spielen zu können blieb aus *g* die 32 bit haben mir nie wirklich gefehlt und das mit den 256x256 pixel verstehe ich heute noch nicht, die texturen in ut , quake 3 sehen genau gleich aus vom detailreichtum wie bei ner kyro! und ich halte die kyros abgesehen vom fehlenden anisotrpischen filter als die karten mit der besten bildqualität an, gerade unter 16 bit!

aths
2002-05-01, 23:33:02
Also, im Juni wird ein Spiel rauskommen, welches 4 Grafik-Schnittstellen bietet: Software, DirectDraw, Direct3D und - Glide. Ich werde dieses Spiel kaufen - und es nicht in Glide spielen können (schaluchzel)


Auf Quasars Vorschlag hin:

---

quote:
--------------------------------------------------------------------------------
Originally posted by ow
Wenn ich FSAA und TC beim VSA100 streiche, dann ist er von den Features weitaus rückständiger als ein TNT.
--------------------------------------------------------------------------------


Welche Features hat der TNT denn gegenüber dem VSA-100 noch?

VSA-100 bietet noch internes 40-Bit-Rendering, nativen Support von 8-Bit-Paletten-Texturen, TC via Narrow Channel Compression und Support von Color Keying, sowie HW-Support von Fog mit Fog-Tabellen bis 14 Einträgen.

Quasar
2002-05-01, 23:38:21
Ich habe zwar keinen kompletten Überblick über diese alten Chips, aber ich denke, aths liegt richtig: was kann denn der TNT was ein VSA-100 nicht kann??

Auf Anhieb fällt mir nicht wirklich etwas ein....

Liszca
2002-05-01, 23:44:57
Originally posted by Quasar
Ich habe zwar keinen kompletten Überblick über diese alten Chips, aber ich denke, aths liegt richtig: was kann denn der TNT was ein VSA-100 nicht kann??

Auf Anhieb fällt mir nicht wirklich etwas ein....


er kann/ist langsamer
leiser (passive kühlung) <zensiert>

BigBen
2002-05-01, 23:48:25
Originally posted by Liszca
er kann/ist langsamer
leiser (passive kühlung) <zensiert>

Les lieber Quasar`s Posting nochmal genauer durch :eyes:

ernesto.che
2002-05-01, 23:56:32
Originally posted by aths
Also, im Juni wird ein Spiel rauskommen, welches 4 Grafik-Schnittstellen bietet: Software, DirectDraw, Direct3D und - Glide. Ich werde dieses Spiel kaufen - und es nicht in Glide spielen können (schaluchzel)


Auf Quasars Vorschlag hin:

---

quote:
--------------------------------------------------------------------------------
Originally posted by ow
Wenn ich FSAA und TC beim VSA100 streiche, dann ist er von den Features weitaus rückständiger als ein TNT.
--------------------------------------------------------------------------------


Welche Features hat der TNT denn gegenüber dem VSA-100 noch?

VSA-100 bietet noch internes 40-Bit-Rendering, nativen Support von 8-Bit-Paletten-Texturen, TC via Narrow Channel Compression und Support von Color Keying, sowie HW-Support von Fog mit Fog-Tabellen bis 14 Einträgen.


welches Spiel soll das denn sein?

Liszca
2002-05-02, 00:05:24
Originally posted by BigBen


Les lieber Quasar`s Posting nochmal genauer durch :eyes:

ja, genau tu das, oder willst du mir sagen das ne v5 6000 mit 4 lüftern leiser ist als ne tnt ???

Quasar
2002-05-02, 00:06:33
Es geht um den Chip und seine Fähigkeiten....

BTW, wäre eine Voodoo5 6000 auf 100MHz wohl die schnellste passiv gekühlte Graka weit und breit :)

Andre
2002-05-02, 00:15:22
Originally posted by ernesto.che
*gg* wundert mich nicht ;)
Es zielte in Richtung Stefan. Er hat zwar recht, das der 32bit Modus bis hoch zur Geforce 2 im Vergleich zum 16bit Modus zu langsam ist, "rangeflickt" war es von Nvidia aber wohl nicht. Ich denke eher, Nvidia konnte es bis dahin nicht besser, Bandbreiten schonende Technik waren aber nicht so Nvidias Stärke. Heute schauts da schon besser aus.

Danke für das Kompliment.

Und ja, ich habe Dich jetzt verstanden.

ernesto.che
2002-05-02, 00:17:24
Originally posted by Andre


Danke für das Kompliment.

Und ja, ich habe Dich jetzt verstandn.

*quengel* Mensch Andre, das ging nicht gegen dich!

Liszca
2002-05-02, 00:19:10
Originally posted by Quasar
Es geht um den Chip und seine Fähigkeiten....

BTW, wäre eine Voodoo5 6000 auf 100MHz wohl die schnellste passiv gekühlte Graka weit und breit :)

ok ok ihr habt ja recht eine tnt ist nur scheisse, obwohl sie ist kleiner... ...voodoo4 4000 (nicht 4500) auch <zensiert>

Liszca
2002-05-02, 00:22:54
Originally posted by Andre


Danke für das Kompliment.

Und ja, ich habe Dich jetzt verstanden.

so neben bei, kann es sein das du sehr nachtragend bist <zensiert>

ernesto.che
2002-05-02, 00:27:23
Originally posted by Liszca


so neben bei, kann es sein das du sehr nachtragend bist <zensiert>

nichts gegen dich - aber was soll dieses ewige <zensiert> ???

aths
2002-05-02, 00:32:59
ernesto:

http://www.divinedivinity.com/deutsch/index1.htm

StefanV
2002-05-02, 00:53:59
Originally posted by Quasar
Ich habe zwar keinen kompletten Überblick über diese alten Chips, aber ich denke, aths liegt richtig: was kann denn der TNT was ein VSA-100 nicht kann??

Auf Anhieb fällt mir nicht wirklich etwas ein....

Wie wäre es mit FSAA??

Dunkeltier
2002-05-02, 00:58:19
blubb

Quasar
2002-05-02, 00:58:27
Doch, Stefan, der VSA-100 kann FSAA.

edit:
@Black Cow:
"blubb" ;)

tEd
2002-05-02, 01:09:22
Originally posted by aths
Also, im Juni wird ein Spiel rauskommen, welches 4 Grafik-Schnittstellen bietet: Software, DirectDraw, Direct3D und - Glide. Ich werde dieses Spiel kaufen - und es nicht in Glide spielen können (schaluchzel)


Auf Quasars Vorschlag hin:

---

quote:
--------------------------------------------------------------------------------
Originally posted by ow
Wenn ich FSAA und TC beim VSA100 streiche, dann ist er von den Features weitaus rückständiger als ein TNT.
--------------------------------------------------------------------------------


Welche Features hat der TNT denn gegenüber dem VSA-100 noch?

VSA-100 bietet noch internes 40-Bit-Rendering, nativen Support von 8-Bit-Paletten-Texturen, TC via Narrow Channel Compression und Support von Color Keying, sowie HW-Support von Fog mit Fog-Tabellen bis 14 Einträgen.

und natürlich motion blur,soft shadows,22bit postfilter,multichipfähig(SLI) bis zu 32chips,glide unterstützung ;)

Dunkeltier
2002-05-02, 01:26:04
Originally posted by Quasar
Doch, Stefan, der VSA-100 kann FSAA.

edit:
@Black Cow:
"blubb" ;)

Hatte mir die Frage nicht genau durchgelesen und dadurch falsch interpretiert. Und bevor ich noch mehr Schwachsinn in die Welt setze, habe ich es zu einem "blubb" umeditiert. Sorry. ;)

Andre
2002-05-02, 01:36:19
Originally posted by ernesto.che


*quengel* Mensch Andre, das ging nicht gegen dich!

Hehe, keine Sorge, ich versteh Dich schon richtig :)

Xmas
2002-05-02, 03:32:34
Originally posted by Mr Lolman
Das ist mir schon klar dass RGB 565 nicht ausreicht den vollen Farbraum darzustellen. Ich meinte doch nur, dass die theoretische Farbanzahl total ausreichen würde.
Klar reichen 2^16 verschiedene Farben für 2^16 Pixel aus, aber um eben immer die "richtigen" Farben zu erwischen bräuchtest du eine Palette mit 2^16 Einträgen, die dann letztlich genauso groß wie eine entsprechende 32Bit-Textur wäre (angenommen man betrachtet 32 (24) Bit Farbauflösung als ausreichend).
Es gibt also keinen Vorteil, nur Nachteile. Eine Palette bringt nur dann etwas wenn sie deutlich kleiner als das darzustellende Bild ist.

BTW: Unreal und UT, und alle Spiele die auf der UT Engine basieren haben 8 bit Textures (256 Farben)- so sind noch weitere 8 bit für den alpha kanal vorhanden - was völlig ausreichend ist. Oder findest du das auf der UT Engine basierende Spiele eine schlechte Texturqualität haben??
256 verschiedene Farben reichen bei einfachen Texturen oft aus, aber nicht immer. Viele Oberflächen sind einfach eintönig, da braucht man nicht mehr. Allerdings werden diese 256 Farben dann IIRC aus einem RGB-888 Farbraum ausgewählt, so dass Farbübergänge gut darstellbar sind.

Dennoch sind 256 Farben pro Textur arg wenig. Für dynamische Texturen kommt ein Palettenformat sowieso nicht in Frage.

ow
2002-05-02, 09:51:30
Originally posted by aths

Welche Features hat der TNT denn gegenüber dem VSA-100 noch?

VSA-100 bietet noch internes 40-Bit-Rendering, nativen Support von 8-Bit-Paletten-Texturen, TC via Narrow Channel Compression und Support von Color Keying, sowie HW-Support von Fog mit Fog-Tabellen bis 14 Einträgen.


Der TNT bietet ein komplettes Set an Textur Blending&Mapping-Operationen (ausgenommen die neueren Varianten Dot3&EMBM).
Dazu perspektivische Korrektur nicht nur fuer Texturen, sondern auch fuer fog, specular highlights, colors, alpha.

Die persp. Korrektur fuer 'ALLES' bietet mir zB. der Kyro an, mein Radeon1 tut's nicht. Die Voodoos koennen's auch nicht, da bin ich mir sicher (ohne dass ich nen VSA100 habe).

Und ich bezweifele einfach mal, dass der VSA100 ein Modulate4x oder AddSigned2x Texture mapping beherrscht.

StefanV
2002-05-02, 15:04:09
Originally posted by Quasar
Doch, Stefan, der VSA-100 kann FSAA.

Jetzt sind wir quit *eg*

Habs doch tatsächlich 'falschrum' gelesen ;)

aths
2002-05-03, 13:47:38
ow,

in welchen Spielen ließen sich denn die Vorzüge des TNT ggü. dem VSA-100 bestaunen?

ow
2002-05-03, 13:55:03
aths

in welchen Spielen kann ich denn die Vorzuege der Radeon1 gegenueber der GF2 oder der R8k5 gegenueber der GF3/4 bestaunen??

Fangen wir jetzt schon an, die Features eines Chips anhand von Spielen zu beurteilen??
Oder wie waere es mit Spiele-spezifischen Chips, fuer jedes Spiel ne eigene Graka, die NUR die Funktionen dieses Spiels unterstuetzt??

aths
2002-05-03, 14:09:33
ow,

natürlich beurteile ich für den Kauf einer Karte die Features, die Spiele nutzen. Wie hätte ich sonst eine GF4 statt Radeon8500 nehmen können?

Wenn du mit deiner Antwort aussagen willst, dass der TNT nichts bietet, womit er gegenüber einem VSA-100 in Spielen bessere Darstellung bietet, so meine ich dass der VSA-100 einige neckische Verbesserungen bietet die vom Spiel gar nicht direkt unterstützt werden müssen. (In OpenGL FXT1, und in allen APIs internes 40-Bit-Rendering, in 16 Bit Postfiltering, auf Wunsch Anti-Aliasing...)

ow
2002-05-03, 14:38:04
Originally posted by aths
ow,

natürlich beurteile ich für den Kauf einer Karte die Features, die Spiele nutzen.


Ich nicht, aths. Ich habe schon mermals erwaehnt, dass ich KEIN Gamer bin und dass 3D primaer zunaechst mal garnichts mit Gamen zu tun hat.

btw: falls ein Game zB. specular highlights nutzt, dann werden die auf NV und PVR Karten perspektivisch korrekt dargestellt, auf 3dfx und ATi nicht. Viel Unterschied wirst du da aber nicht sehen.


btw2: es stellt sich mir dann auch die Frage, warum der Radeon1 dem GF1/2 als technisch ueberlegen angesehen wird, wenn doch eh kein Game diese Funktionen nutzt. Damals hiess es: "der Radeon kann 'mehr DX8'.

aths
2002-05-03, 15:12:02
ow,

so wie ich das verstanden habe ging es ursprünglich in unserer Diskussion um die Frage, ob TNT oder VSA-100 der modernere Chip ist. Du hast geschrieben: "Wenn ich FSAA und TC beim VSA100 streiche, dann ist er von den Features weitaus rückständiger als ein TNT."

Ich denke, wir sind uns nun einig, dass dem doch nicht so ist. Zumal es unfair ist, dass du beim VSA-100 ausgerechnet jene Features streichen willst, die in Spielen auch was bringen, außerdem hat der VSA-100 wie erwähnt noch einige andere Features die was bringen.

Radeon1 ist GTS schon wegen den Bumpmapping-Fähigkeiten überlegen. Dem Raden8500 wird in Doom3 ein eigener Codepath spendiert. Die Vorteile können durchaus in Spielen (wenn auch nur wenigen) etwas bringen.

Wer 3D-Karten für professionelle Anwendungen kauft, wird eine (semi-)professionelle OpenGL-Karte erwerben. In diesem Bereich war 3dfx nie vertreten. Da ist es müßig zu diskutieren, inwieweit ihre Chips dafür geeignet sind. (Die Aalchemys bieten allerdings auch vernünftigen OpenGL-Support.)