PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Fachsimpeln über 3dfx-Chips (Split aus vsa100/vsa101)


Blacksoul
2004-08-21, 09:38:04
Hmmm DDR Speicher, gepaart mit 2 VSA 101 die dank Shrink höher getaktet sind, hätten damals doch der GeForce2 GTS mächtig eingeheizt...

hätte, hätte, hätte... ;)


Man stelle sich die V5 6000 mit 4 VSA-101 und DDR-Ram vor ;)
Sie wäre noch teurer geworden.
Aber na ja, wunschdenken, wenn man bedenkt, dass nach der Voodoo 3 Spectre schon kommen sollte. VSA-100 wäre ja ein toller überbrückungschip geworden, aber naja. Pleite...


t.blacksoul.d

LOCHFRASS
2004-08-21, 10:28:45
Wobei auch der V3 nur ne Ueberbrueckung war (wenn auch ne gute, im Vergleich zum TNT2).

VooDoo7mx
2004-08-21, 11:46:24
Was war denn am TNT2 jetzt so schlecht? :uconf2:

Raff
2004-08-21, 13:02:26
Was war denn am TNT2 jetzt so schlecht? :uconf2:

Nichts. Eigentlich nur der Hype, der um 32Bit gemacht wurde ... nVidia hat dermaßen mit 32Bit-3D geworben, dass alle dachten, man bräuchte es. Dass das Kärtchen allerdings in Spielen, wo man den Unterschied überhaupt erkennen kann - Quake III Arena war das erste und erschien ein halbes Jahr nach dem TNT2 - in brauchbaren Auflösungen keine spielbaren FPS liefern konnte, sah allerdings keine Sau. ;) Dadurch fing es an, dass man die Voodoo3 schon zum Erscheinen verdammte, nur 16 bzw "22"Bit zu können. Auch hier unbeachtet: Zu Lebzeiten bot eine solche Karte Top-Frameraten und genug Qualität.

MfG,
Raff

Gast
2004-08-21, 13:27:54
Nichts. Eigentlich nur der Hype, der um 32Bit gemacht wurde ... nVidia hat dermaßen mit 32Bit-3D geworben,


Du würdest auch jetzt lieber noch in 16 Bit spielen, gelle?

Coda
2004-08-21, 13:37:48
@Gast: Vielleicht würdest du seine Ausführung mal komplett durchlesen, bevor du postest. Danke.

StefanV
2004-08-21, 13:39:21
Du würdest auch jetzt lieber noch in 16 Bit spielen, gelle?
Nein, aber damals war 32bit Sinnlos, da die Karten zu lahm waren und es kaum besser ausschaute als 16bit...

Endorphine
2004-08-21, 14:00:17
Nein, aber damals war 32bit Sinnlos, da die Karten zu lahm waren und es kaum besser ausschaute als 16bit... Das halte ich für ein Gerüst.
http://www.museum.speyer.de/images/ueberdachung/geruest.jpg


Natürlich bringt es wenig, wenn man 16-Bit Texturen nur auf 32-Bit aufbläht. Ich konnte mit meinem NV5-Ultra aber sehr gut Q3A in 32-Bit und hoher Auflösung spielen. Wenn kein Hersteller sich traut, neue Features einzuführen hätten wir heute noch nicht einmal T&L-Hardwarebeschleunigung, geschweige denn überhaupt 3D-Beschleunigung in Hardware.

Damit die ISVs ein Feature unterstützen muss es erst einmal nennenswert in der installierten Hardwarebasis der Kunden verbreitet sein. Sonst lohnt es sich sich aus Sicht der Profitmaximierung nicht, die Features einzusetzen. 32-Bit Rendering war noch nie sinnlos, auch bei der TNT1 nicht. 3dfx hat einfach die Entwicklung verschlafen.

StefanV
2004-08-21, 14:06:22
(...) auch bei der TNT1 nicht. 3dfx hat einfach die Entwicklung verschlafen.

Doch, gerade bei der TNT, denn irgendwie hat nV bei der TNT Serie Mist gebaut.
Die können zwar 32bit Rendering, nur sind sie dabei verhältnismäßig lahm, wenn mans mal mit der Konkurenz (Matrox G400, Rage 128, Savage 4) vergleicht...

Dennoch, 3DFX für etwas zu 'bestrafen', was man damals nicht gebraucht hat, war irgendwie schwachsinnig, sei es nun TnL oder 32bit Rendering...

Wenn eine G200 den Abstand zur TNT unter 32bit verkürzen konnte, dann ist wohl irgendwas schief gelaufen...

Endorphine
2004-08-21, 14:26:06
Doch, gerade bei der TNT, denn irgendwie hat nV bei der TNT Serie Mist gebaut. Wieso? Der NV4 hat praktisch alle Nachteile des NV3 ausgemerzt. Das ganze verkorkste Design des NV3 wurde begraben, zwei TMUs erblickten das Licht der Welt, das Konstrukt bekam einen OpenGL-ICD, der bis heute weiterentwickelt wurde und 32-Bit Texturen konnten Einzug in die 3D-Hardwarebeschleunigung halten. Wäre es nach 3dfx gegangen würden wir wahrscheinlich erst heute T&L-Beschleunigung bekommen und 32-Bit Rendering hätte es frühestens 2002 gegeben, auf Karten mit 32 VSA-100 und 300 Watt Leistungsaufnahme. :bonk:

Der BGA-NV4 war bereits eine integrierte 2D/3D AGP-Grafikkarte mit OpenGL-ICD und 16 MB 128-Bit unified SDRAM, als 3dfx noch mit analogen Loopback-Kabeln, PCI add-on Karten, proprietärem GLIDE und mini-GL, fehlender nicht-Vollbild Beschleunigung, mehreren niedrig integrierten teuren ICs in altertümlichen ineffizienten Verpackungen und EDO-DRAM herumkrebste. Genau genommen war der Rückstand und die folgende Pleite schon damals vorprogrammiert, da hilft ein Heer von fanatischen Anhängern wenig weiter. Den Rückstand hat 3dfx nie aufholen können. Fehlende neue Features wie 32-Bit Rendering sind nur die Spitze des 3dfx-Rückständigkeitseisberges.

Immer wieder zu wiederholen, dass neue Features erst später richtig genutzt worden ändert auch nichts an den Fakten. Doch, gerade bei der TNT, denn irgendwie hat nV bei der TNT Serie Mist gebaut.
Die können zwar 32bit Rendering, nur sind sie dabei verhältnismäßig lahm, wenn mans mal mit der Konkurenz (Matrox G400, Rage 128, Savage 4) vergleicht... Als der NV4 herauskam war er sehr konkurrenzfähig, auch in der Leistung. Nur eben nicht im Vergleich zu einer Voodoo² mit 12 MiB, oder gar im SLI. Dennoch, 3DFX für etwas zu 'bestrafen', was man damals nicht gebraucht hat, war irgendwie schwachsinnig, sei es nun TnL oder 32bit Rendering... Du spielst also heute noch mit abgeschalteter T&L/Shaderbeschleunigung, in 16-Bit, nur GLIDE-Spiele und ausschliesslich mit VGA-Out? Wenn eine G200 den Abstand zur TNT unter 32bit verkürzen konnte, dann ist wohl irgendwas schief gelaufen... Ich hatte damals als Untersatz für meine Diamond Monster 3D-II 12 MiB auch eine Millennium G200. Ich weiss ausser der guten VGA-Signalqualität und den 2D-Eigenschaften nicht, was man an der Karte loben könnte. Irgendwelche nicht vernünftig nutzbaren 3D-Beschleunigungsfeatures imho eher nicht. Schon allein die fehlende Gammakorrektur des "OpenGL-Treibers" war unschön (gelinde gesagt).

Quasar
2004-08-21, 14:40:12
Dennoch, 3DFX für etwas zu 'bestrafen', was man damals nicht gebraucht hat, war irgendwie schwachsinnig, sei es nun TnL oder 32bit Rendering.....

Könntest du mal erläutern, wie und wann du dir etwas als "benötigt" vorstellst und wie dann die Markteinführung vonstatten gehen soll?

Henne oder Ei - eines von beiden muss zuerst da sein, oder?

Blacksoul
2004-08-21, 15:37:42
Wäre es nach 3dfx gegangen würden wir wahrscheinlich erst heute T&L-Beschleunigung bekommen und 32-Bit Rendering hätte es frühestens 2002 gegeben, auf Karten mit 32 VSA-100 und 300 Watt Leistungsaufnahme. :bonk:


Das denke ich nicht. Deine Ansicht ist wohl ein wenig überspitzt.
Die Spectre wäre mit sicherheit sehr interessant geworden.
Sie wäre die erste neue Generation bei 3dfx gewesen und hätte wohl das gehabt, was das Marketingverseuchte Volk haben wollte:
AGP 4x (richtiges), TnL (sogar per Geometire-CPU), PixelShader und VertexShader (Version 1.0).

Manko:
Je nach Modell wieder MultiGPU-Graka.
Aber ich bin mir das du das alles schon wusstest, andere vieleicht aber nicht
:)


t.blacksoul.d

VooDoo7mx
2004-08-21, 15:56:24
Diese Diskussion ist abolut OT und sinnlos.

Stefan Payne mag einfach nicht NV Hardware, wie man an mindestens 27000 seiner Postings nachlesen kann.
Das kann man jetzt stundenlang ausdiskutieren, es bringt einfach nichts.

Ich hab sogar mal Spaßeshalber im Forum gegraben, so Diskussionen aus dem Jahre 2001.
Da kann man genau das selbe wie heute 2004 lesen... Stefan Payne wettert fleißig gegen nVidia und OW,Quasar,Endorphine und Razor halten dagegen.

Same shit, different day. ;)

Das denke ich nicht. Deine Ansicht ist wohl ein wenig überspitzt.
Die Spectre wäre mit sicherheit sehr interessant geworden.
Sie wäre die erste neue Generation bei 3dfx gewesen und hätte wohl das gehabt, was das Marketingverseuchte Volk haben wollte:
AGP 4x (richtiges), TnL (sogar per Geometire-CPU), PixelShader und VertexShader (Version 1.0).

Manko:
Je nach Modell wieder MultiGPU-Graka.
Aber ich bin mir das du das alles schon wusstest, andere vieleicht aber nicht
:)


Du hast es ja selbst geschrieben...


hätte,hätte,hätte... ;)

Am Ende zählt was wirklich zu kaufen war. Und da sah es bei 3dfx, vom technischen Standpunkt aus gesehen schon seit mehreren Generationen ziemlich düster aus.

StefanV
2004-08-21, 16:05:32
Könntest du mal erläutern, wie und wann du dir etwas als "benötigt" vorstellst und wie dann die Markteinführung vonstatten gehen soll?

Henne oder Ei - eines von beiden muss zuerst da sein, oder?
Siehs mal anders, Quasar, ein Feature ist nutzlos, wenns zu viel Leistung kostet.

Auf ein Feature ohne Speed kann man ebenso verzichten wie auf Speed ohne Features, etwas zu Hypen, was zwar in der Theorie schön ist, in der Praxis aber nichts bringt bzw nicht in absehbarer Zeit, ist äußerst dämlich...

Dummerweise hat man damals aber genau das getan...

Wann kamen die ersten 'echten' TnL Games raus?!
Richtig, das ist gerademal ein halbes bis ganzes Jahr her, macht also mal eben etwa 4 Jahre seit der Einführung der GF256, wenn ich mich nicht irre...

Bei 32bit gings zwar etwas schneller, wirklich brauchbar wurde das aber erst etwa 3 Generationen nach der TNT (TNT2, GF256, GF2)...
Tolle Features, die man sofort braucht :up:

@Voodoo7mx

Ich will ja nicht stören, aber ich denke nicht, daß du jemand bist, der sich so weit aus dem Fenster lehnen sollte!!
Denn bevor man andere kritisiert sollte man erstmal vor der eigenen Haustür kehren und es selbst mal besser machen, um demjenigen, den man kritisiert, zu zeigen, wie mans besser macht!
Aber meine Meinung dazu hab ich schon in einigen Threads im 3DCenter Forum dargelegt...

Endorphine
2004-08-21, 16:08:07
Das denke ich nicht. Deine Ansicht ist wohl ein wenig überspitzt.
Die Spectre wäre mit sicherheit sehr interessant geworden. Ich habe bewusst etwas übertrieben, um's anschaulich zu machen. Ich glaube aber auch, dass du das auch erkannt hast. :)

StefanV
2004-08-21, 16:10:42
Ich hatte damals als Untersatz für meine Diamond Monster 3D-II 12 MiB auch eine Millennium G200. Ich weiss ausser der guten VGA-Signalqualität und den 2D-Eigenschaften nicht, was man an der Karte loben könnte. Irgendwelche nicht vernünftig nutzbaren 3D-Beschleunigungsfeatures imho eher nicht. Schon allein die fehlende Gammakorrektur des "OpenGL-Treibers" war unschön (gelinde gesagt).
Den Fortschrittlichen Speichercontroller könnte man z.B. loben oder aber den relativ geringen Einbruch von 16bit -> 32bit, nur mal so als Beispiel...

Mit Bandbreiten schonenden Maßnahmen war auch S3 schon damals recht weit (fast Z-Clear), das alles wurde erst in der GF3 implementiert...

LovesuckZ
2004-08-21, 16:23:51
Siehs mal anders, Quasar, ein Feature ist nutzlos, wenns zu viel Leistung kostet.


Yeah, 90% aller Features waeren nutzlos. :up:

Quasar
2004-08-21, 16:29:59
Siehs mal anders, Quasar, ein Feature ist nutzlos, wenns zu viel Leistung kostet. [Beispiele aus der Vergangenheit]
Irgendwie beantwortet das meine Frage nicht wirklich.
Ich wiederhole sie nochmal:

Könntest du mal erläutern, wie und wann du dir etwas als "benötigt" vorstellst und wie dann die Markteinführung vonstatten gehen soll?

robbitop
2004-08-21, 17:07:27
ich sehe das wie Endo.
Erst muss die HW da sein, dann kommts in die SW.
Hätte NV3x kein SM2 geboten hätte sich SM2 so schnell nicht verbreitet.
Selbiges mit TnL oder 32bit Rendering.
NV40 bringt viel neue Technologie. Sind deswegen rund 60Mio Transistoren verschwendet?
Beim R300 kamen die neuen Features sogar noch zu Lebzeiten zum Zuge. Wer weiss ob NV40 FP16 Texturfilterung noch miterleben darf oder massives HDR.

3dfx war selbst schuld. Man muss sich nunmal möglichst gut dem Markt anpassen, wer das nicht tut, hat so gut wie verloren.

StefanV
2004-08-21, 18:48:00
ich sehe das wie Endo.
Erst muss die HW da sein, dann kommts in die SW.
Hätte NV3x kein SM2 geboten hätte sich SM2 so schnell nicht verbreitet.
Selbiges mit TnL oder 32bit Rendering.

Tschuldigung, aber wie lang hats gedauert, bis Spiele erschienen sind, die wirklich von TnL profitiert haben?!

2 Jahre??
3 Jahre??
4 Jahre??
5 Jahre??

Selbiges für 32bit...

Sicher, gab es damals schon ein paar Spiele, die 32bit Farbtiefe unterstützt haben, nur sehe ich das nicht wirklich als 32bit Games an, 'echte' 32bit Games gibts auch erst seit ein oder 2 Jahren...

Quasar
2004-08-21, 18:54:04
Wieviele Spiele wären in dem von dir angebenen Zeitraum entwickelt worden, wenn die ISV nicht auf eine große installierte Basis von HW-TnL fähigen Grafikkarten hätten bauen können?

Henne-Ei Problem: Wie stellst du dir konkret die Adaption neuer Technologien im HW/SW-Bereich vor (zum dritten Mal)?

StefanV
2004-08-21, 18:54:48
Könntest du mal erläutern, wie und wann du dir etwas als "benötigt" vorstellst und wie dann die Markteinführung vonstatten gehen soll?[/i]

Ersteinmal entsprechende Geschwindigkeit des Features, dann sollte dieses Feature auch sichtbar sein.


Um in der damaligen Zeit zu bleiben:

EMBM war damals deutlich sinniger als TnL, da man ersteres in Spielen sehen konnte, TnL konnte man damals weder sehen noch fühlen, man hatte es einfach nur...

Wenn man etwas hat ists schön, hat aber eigentlich nur eine beruhigende Wirkung, wenn man etwas hat und es nutzen kann ists was anderes, daran kann man sich dann erfreuen...

StefanV
2004-08-21, 18:56:33
Wieviele Spiele wären in dem von dir angebenen Zeitraum entwickelt worden, wenn die ISV nicht auf eine große installierte Basis von HW-TnL fähigen Grafikkarten hätten bauen können?

Henne-Ei Problem: Wie stellst du dir konkret die Adaption neuer Technologien im HW/SW-Bereich vor (zum dritten Mal)?
TnL kann man notfalls per SW Emulation nutzen, wenn man wirklich gewollt hätte, daß man es einsetzt, dann hätte man es 'zwischendurch' einbauen können (z.B. für 'High Detail' Settings).

Aber anscheinend wars nicht wirklich nötig bzw man sah keinen wirklichen Nutzen, zur Zeit der ersten TnL Karten...

Quasar
2004-08-21, 19:04:59
Da widerspricht sich doch was - einerseits willst du Features erst auf die Masse loslassen, wenn es dieses Feature mit genügender Geschwindigkeit gibt, andererseits willst du einen Software-Fallback haben? Meinst du nicht, daß CPU-Emulation (probier doch mal UT2003/4 mit ganz ohne HW-TnL auf einer aktuellen CPU) dafür nicht ein bissel langsam ist?

EMBM führte in Expendable auf der G400 IIRC zu 30% Geschwindigkeitseinbruch - und wurde dadurch 'etwas' langsam....

Dazu bekommst du das Problem, daß ohne reale Hardware kaum wirklich gute Optimierungstipps für die ISVs gegeben werden können (ja, ich weiß, es gibt Simulationen...), deren Software dann nicht mit optimaler Geschwindigkeit läuft - hier beißt sich der Hund wieder in den Schwanz, denn Speed war doch eine deiner Grundvoraussetzungen.

Sorry, aber einer muss den Anfang machen - du verschiebst nur den schwarzen Peter von den IHVs zu den ISVs - denn wenn UT2003 dicke Werbung mit "HW TnL ready" gemacht hätte, dies aber nach deiner Definition nur auf High-Details, ergo High-End Karten ordentlich gelaufen wäre, würde man dieselbe Kritik üben können. Nur mit S, statt mit H in "IxV"...

tokugawa
2004-08-21, 19:19:32
Das halte ich für ein Gerüst.
http://www.museum.speyer.de/images/ueberdachung/geruest.jpg


Natürlich bringt es wenig, wenn man 16-Bit Texturen nur auf 32-Bit aufbläht. Ich konnte mit meinem NV5-Ultra aber sehr gut Q3A in 32-Bit und hoher Auflösung spielen. Wenn kein Hersteller sich traut, neue Features einzuführen hätten wir heute noch nicht einmal T&L-Hardwarebeschleunigung, geschweige denn überhaupt 3D-Beschleunigung in Hardware.

Damit die ISVs ein Feature unterstützen muss es erst einmal nennenswert in der installierten Hardwarebasis der Kunden verbreitet sein. Sonst lohnt es sich sich aus Sicht der Profitmaximierung nicht, die Features einzusetzen. 32-Bit Rendering war noch nie sinnlos, auch bei der TNT1 nicht. 3dfx hat einfach die Entwicklung verschlafen.

Stimme voll zu.

Irgendwann müssen Features kommen. Und damit das in die Gänge kommt, gehören die halt beworben (wie jetzt Shader Model 3.0).

Auch wenn die Features neu sind und teilweise Hacker drin haben (auch das NV40 SM 3.0 hat ja einige Schnitzer, oder Besonderheiten, die man beachten muß wenn man Shader entwickelt), ohne Henne kein Ei.

Natürlich auch ohne Ei keine Henne, aber man muß halt beides sehen: Die Henne (Hersteller) baut ein Feature ein, aber es gibt noch keine Spiele (Eier). Die Eier können aber erst mit der Henne kommen. Die Kritiker der neuen Features sehen aber nur das Ei-Henne-Problem, und meinen, solange es kein Ei gibt, ist die Henne auch "nutzlos" und nur gehypt.

In Wirklichkeit benötigt es aber den endlosen Zyklus Henne-Ei-Henne-Ei-usw. damit was weitergeht. Mit den Features einer Karte kommen auch Spiele die es nutzen, damit gibt es wiederum wieder mehr Karten mit den Features, und die müssen wiederum neue Features haben um neue Eier zu produzieren. Ansonsten könnten Hennen verpuffen ohne irgendwelche Eier zu legen (Truform?).

robbitop
2004-08-21, 20:31:08
Stefan erst muss die HW breit verfügbar sein, dann kommt auch irgendwann die Performance. Gut dass die IHVs nicht so eine technologiebremsende Sicht haben wie du.
Ich jedenfalls sehe die 60Mio Transistoren die der NV40 mehr hat als der R420 sehr gut investiert (da hätte man auch mehr Rechenleistung draus machen können ;) )

StefanV
2004-08-21, 21:08:51
Stefan erst muss die HW breit verfügbar sein, dann kommt auch irgendwann die Performance. Gut dass die IHVs nicht so eine technologiebremsende Sicht haben wie du.


Ja, und?

Dennoch ists falsch einen Hersteller niederzumachen und irgendwas hochzujubeln, wenn man keinen Schimmer hat, wanns denn eingesetzt wird.

Bei aktuellen Shadern schauts anders aus, nur liegt das daran, daß Hochsprachen verwendet werden, damals gabs sowas noch nicht, damals wurd alles mit der Hand gemacht.

Woher wollten die Herrschaften wissen, wann TnL nötig war?!

Sorry, aber damals wurd einfach nur irgendein tolles Feature gehypt, was zwar auf dem Papier toll ist, zur damaligen Zeit aber absolut nutzlos war...

Anstatt TnL zu hypen hätten sie lieber mal die GFs niedermachen sollen, weil die z.B. kein EMBM konnten...

Und das TnL auch auf einer GF256 nutzlos ist, wissen wir ja jetzt auch alle...

robbitop
2004-08-22, 02:24:35
da magst du teilweise Recht haben und dennoch muss man sich an die Bedürfnisse des Marktes anpassen und 32bit wäre ja wohl nicht so ein großes Problem geworden.
AFAIK konnten die VSA nur Embos Bumpmapping.

sunnyboy
2004-08-22, 08:40:52
Hier ein interessanter mehrseitiger Artikel: http://www.hardware-hq.de/html/special/aktenvidia01.htm
nVidia-Geschichte pur ->die Wahrheit für alle!
Meine Voodoo5 http://www.forumdeluxx.de/gallery/showgallery.php?cat=3049 behalte ich für immer, und der nVidia-Rotz wird rausgeschmiessen.
Viel Spass beim Lesen.
sunnyboy

Gast
2004-08-22, 09:22:58
Hier ein interessanter mehrseitiger Artikel: http://www.hardware-hq.de/html/special/aktenvidia01.htm
nVidia-Geschichte pur ->die Wahrheit für alle!
Meine Voodoo5 http://www.forumdeluxx.de/gallery/showgallery.php?cat=3049 behalte ich für immer, und der nVidia-Rotz wird rausgeschmiessen.
Viel Spass beim Lesen.
sunnyboy

hui das ist natürlich einieges o_O NVidia hats doch echt gewagt sich wie eine ganz normale Firma zu benehmen. PURE EVIL!!!!!!!!!111 Am Rande diese Seite ist ja mal wirklich extremst beschissen gemacht. Wer auch immer die verbrochen hat sollte anstatt solche arktikel zu verfassen mal coden lernen O_o

Gast
2004-08-22, 19:32:19
Ja, und?

Und das TnL auch auf einer GF256 nutzlos ist, wissen wir ja jetzt auch alle...

Nein, dass weiss keiner, weil es nicht so ist.

Gast
2004-08-22, 19:33:30
da magst du teilweise Recht haben und dennoch muss man sich an die Bedürfnisse des Marktes anpassen und 32bit wäre ja wohl nicht so ein großes Problem geworden.
AFAIK konnten die VSA ebenfalls kein EMBM sondern nur Dot3 Bumpmapping.


Noch nicht einmal Dot3 kann ein VSA100.
VSA100 ist technologisch immer noch Voodoo1 Niveau.

reunion
2004-08-22, 19:39:24
Noch nicht einmal Dot3 kann ein VSA100.
VSA100 ist technologisch immer noch Voodoo1 Niveau.

Man kanns auch übertreiben. Leider hat 3dfx ab der V2 technologisch kaum noch etwas erreicht, was sich allerdings mit dem Rampage geändert hätte.

sunnyboy
2004-08-22, 19:50:48
Nein, dass weiss keiner, weil es nicht so ist.
Toller Beitrag!
Argumente fallen dir nicht ein?
<Wieso sind es immer wieder Gäste....>
sunnyboy

sunnyboy
2004-08-22, 19:52:23
Noch nicht einmal Dot3 kann ein VSA100.
VSA100 ist technologisch immer noch Voodoo1 Niveau.
Und du scheinst genau zu wissen, was alles im VSA100 Chip steckt bzw. was ihm fehlt....
Immer diese schlauen Klugscheisser.
<Gäste raus>
sunnyboy

Endorphine
2004-08-22, 19:53:15
Man kanns auch übertreiben. Leider hat 3dfx ab der V2 technologisch kaum noch etwas erreicht, [...] hätte. Hätte, könnte, würde wenn, wollte? ;)

p.s. T&L im NV10 konnte man schon mit RtCW, Q3A und anderer OpenGL-Software einer sinnvollen Verwendung zuführen. Sinnlos war T&L zu keinem Zeitpunkt. Dass die Bedeutung von T&L im Marketing übertrieben dargestellt wurde kann man ATI/NV imo nicht anlasten. Hier ist wieder die Mündigkeit des Kunden gefragt, sich zu informieren.

StefanV
2004-08-22, 19:58:31
Mündigkeit des Kunden gefragt, sich zu informieren.
Jo und Mercedes ist zuverlässig...

robbitop
2004-08-22, 20:19:59
Noch nicht einmal Dot3 kann ein VSA100.
VSA100 ist technologisch immer noch Voodoo1 Niveau.

halte ich für starken Tobak.
Richtig man hat Teile der Voodoo Architektur immer weiter übernommen. Aber hey, das machen NV/ATi auch. NV30 basiert zum Großteil auf NV10 und der widerum auf dem NV5 usw usf.

VSA100 beherrschte als erste PC Karte echtes Anti Aliasing. Und man kann nicht mal eben so 2xRGSS pro Chip implementieren. Da muss schon eine Menge Aufwand im TriangleSetup ran. Weiterhin sind tiefe Eingriffe in die Pipeline notwendig. Weiterhin ist auch der T-Buffer (etwas komplexerer Multisampling Buffer) technologisch vorreitend. Hier waren schon recht ansehliche Fullscreeneffekte möglich. Bumpmapping: immerhin Embos BM ;) (dot3 natürlich nicht ..mein Fehler)
Weiterhin hatte man brauchbare Combiner gehabt (relativ zu den Combinern bei NV waren diese allerdings sehr einfach). Dann kommt noch die Genauigkeit von 9bit pro Farbkanal dazu.

In so mancher Hinsicht war man technologisch recht weit vorn.

Endorphine
2004-08-22, 20:41:10
Jo und Mercedes ist zuverlässig... Nicht unbedingt, aber das weisst du sicher. ;) Den Zusammenhang zu T&L verstehe ich jetzt aber nicht so recht...

StefanV
2004-08-22, 21:20:55
Mündigkeit des Kunden gefragt, sich zu informieren.
Jo und Mercedes ist zuverlässig...Nicht unbedingt, aber das weisst du sicher. ;) Den Zusammenhang zu T&L verstehe ich jetzt aber nicht so recht...

Natürlich weiß ich, daß Mercedes momentan 'ne mittlere Katastrophe ist.

Ich glaub, so wie es jetzt hier oben steht, machts sinn, hoffe ich ;)

aths
2004-08-22, 21:31:36
da magst du teilweise Recht haben und dennoch muss man sich an die Bedürfnisse des Marktes anpassen und 32bit wäre ja wohl nicht so ein großes Problem geworden.
AFAIK konnten die VSA ebenfalls kein EMBM sondern nur Dot3 Bumpmapping.Nee. VSA-100 kann Enviroment Mapping :) und Emboss Bumpmapping (beides stellt allerdings, abgesehen von Multitexturing, keine besonderen Ansprüche.)


Dann kommt noch die Genauigkeit von 9bit pro Farbkanal dazu. 10 Bit.

Noch nicht einmal Dot3 kann ein VSA100.
VSA100 ist technologisch immer noch Voodoo1 Niveau.Das stimmt natürlich nicht.

aths
2004-08-22, 21:43:39
Siehs mal anders, Quasar, ein Feature ist nutzlos, wenns zu viel Leistung kostet.

Auf ein Feature ohne Speed kann man ebenso verzichten wie auf Speed ohne Features, etwas zu Hypen, was zwar in der Theorie schön ist, in der Praxis aber nichts bringt bzw nicht in absehbarer Zeit, ist äußerst dämlich...Bei 32 vs. 16 Bit sieht es so aus, dass ohne 32-Bit-Hardware keiner Spiele entwickelt hätte, welche die neue Präzision auch ausnutzen. Da NV natürlich bestrebt war, das neue Feature in möglichst gutem Licht dastehen zu lassen, hat man sich nicht angestrengt, die 16-Bit-Qualität noch zu verbessern (während 3dfx von Anfang an versucht hat, die 16-Bit-Qualität aufzumöbeln.) In der Übergangsphase hatte man (mit der TNT/TNT2) also die Wahl, entweder "schön aber langsam", oder "schnell aber qualitativ unter Voodoo-Niveau" zu spielen.

Übrigens, interessante Tatsache: 32 Bit vs. 16 Bit ist ja pro Farbkanal "nur" 8x genauer (grün sogar nur 4x genauer.) Bei 64 Bit vs 32 Bit ist jeder Farbkanal wieder "nur" 8x genauer (außer bei Farben deren Helligkeit <50% ist, die sind gegenüber 32 Bit teilweise sehr, sehr viel genauer.) NV40 wird mit 64-Bit-Rendering natürlich arschlahm. Dennoch halte ich das Feature für sehr nützlich: Auf lange Zeit keine Banding-Artefakte, Overbright-Lighting bis zum Abwinken, sehr feine Auflösung gerade auch der dunklen Farben (so dass man z. B. die Gamma-Korrektur aufdrehen kann und man trotzdem vom Banding verschont bleibt.)

Gast
2004-08-22, 21:51:37
Toller Beitrag!
Argumente fallen dir nicht ein?
<Wieso sind es immer wieder Gäste....>
sunnyboy


Was ist denn das hier:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2162984&postcount=38

Argumente? Ich lach mich gleich weg.

Gast
2004-08-22, 21:54:36
Nee. VSA-100 kann Enviroment Mapping :) und Emboss

Das stimmt natürlich nicht.

Voodoo1 und VSA100 kann man beide als DX6 Chips klassifizieren (wobei der V1 nicht multitexturing-fähig ist).

robbitop
2004-08-22, 21:59:18
Nee. VSA-100 kann Enviroment Mapping :) und Emboss Bumpmapping (beides stellt allerdings, abgesehen von Multitexturing, keine besonderen Ansprüche.)



tja vieleicht solltest du mal Postings lesen statt zu überfliegen. Ich habe das bereits in einem Folgepost richtiggestellt.

Voodoo1 und VSA100 kann man beide als DX6 Chips klassifizieren (wobei der V1 nicht multitexturing-fähig ist).

Und du meinst so eine Klassifizierung sagt etwas aus?
naja.

aths
2004-08-22, 22:07:00
Woher wollten die Herrschaften wissen, wann TnL nötig war?!Für die Quadros auf jeden Fall. Gleichzeitig wurde es für die GeForce mitvermarktet. NV hatte Glück, dass das bereitwillig gefressen wurde – mit dem Erfolg des Hypes haben die sicher nicht gerechnet.

Sorry, aber damals wurd einfach nur irgendein tolles Feature gehypt, was zwar auf dem Papier toll ist, zur damaligen Zeit aber absolut nutzlos war...Wenn man zwei gleiche Chips hätte, einer mit, einer ohne HW-T&L, ist natürlich der mit T&L besser. Wer wegen der "Zukunftssicherheit" zur GF256 DDR griff, hatte damit lange Zeit ausgesorgt (auch wenn es nicht an der T&L-Einheit lag.)
Anstatt TnL zu hypen hätten sie lieber mal die GFs niedermachen sollen, weil die z.B. kein EMBM konnten...Voodoos hatten weder T&L noch EMBM ...

robbitop
2004-08-22, 22:18:33
EMBM konnte seinerzeit nur Matrox (ab G400) und PVR (ab Serie3 +Dot3).
Später dann auch ATi mit dem R100. NV erst ab dem NV20 (wobei Dot 3 schon früher verfügbar war).

aths
2004-08-22, 22:20:10
Voodoo1 und VSA100 kann man beide als DX6 Chips klassifizieren (wobei der V1 nicht multitexturing-fähig ist).Während Voodoo2 neben 3 TMUs auch SLI unterstützte (macht 6 TMUs insgesamt :)) Kyro könnte man auch als DX6-Chip klassifizieren – in bestimmten Belangen (Texturen pro Pass) ist Kyro aber selbst der GeForce4 Ti überlegen. Der GeForce2 hat Kyro z. B. EMBM voraus. DX-Klassifizierung ist nur ein sehr grober Anhaltspunkt.

StefanV
2004-08-22, 22:20:50
EMBM und Dot3 konnte seinerzeit nur Matrox (ab G200) und PVR (ab Serie3).
...

NEIN, EMBM konnte die G400, Radeon und Kyro, Dot3 konnte die G400 nicht und schon garnicht die G200.

robbitop
2004-08-22, 22:23:56
Während Voodoo2 neben 3 TMUs auch SLI unterstützte
3 TMUs? waren es nicht 2? [1x2]


Der GeForce2 hat Kyro z. B. EMBM voraus.


unglücklich formuliert.
Kyro kann EMBM - GF2 nicht.
hätte man auch missverstehen können :)

robbitop
2004-08-22, 22:25:40
...

NEIN, EMBM konnte die G400, Radeon und Kyro, Dot3 konnte die G400 nicht und schon garnicht die G200.

richtig, sehe gerade, dass mein Errinnerungsvermögen an der Stelle nachließ ;)

StefanV
2004-08-22, 22:28:24
3 TMUs? waren es nicht 2? [1x2]
Nein, 3 stimmt schon, aber das konnte eigentlich schon die V1.

Verbaut wurde aber meist nur eine TMU bei der V1 und 2 bei der V2.

Endorphine
2004-08-22, 23:05:06
aths hat Recht, die Voodoo² unterstützt maximal drei TexelFX-Prozessoren (ich glaub so hiessen die Dinger damals offiziell). Siehe angehängtes Bild. Three Bruce ASICs can also be chained together to provide single-pass, full-speed rendering of all supported advanced texture mapping features including projected texture mapping. The diagram below illustrates the three Bruce Voodoo2 Graphics graphics architecture:

tokugawa
2004-08-22, 23:10:22
Auf ein Feature ohne Speed kann man ebenso verzichten wie auf Speed ohne Features, etwas zu Hypen, was zwar in der Theorie schön ist, in der Praxis aber nichts bringt bzw nicht in absehbarer Zeit, ist äußerst dämlich...

Dummerweise hat man damals aber genau das getan...

Wann kamen die ersten 'echten' TnL Games raus?!
Richtig, das ist gerademal ein halbes bis ganzes Jahr her, macht also mal eben etwa 4 Jahre seit der Einführung der GF256, wenn ich mich nicht irre...


Mit OpenGL hatte man sofort Hardware T&L. Wie eigentlich man immer unter OpenGL die neuesten Features sofort nutzen kann, aber bei HW T&L war's halt sowieso schon drin (vorher halt in der OpenGL-Implementation softwareseitig gelöst, und mit HW T&L dann halt per Hardware). Nicht mal neukompilieren war nötig bei HW T&L.

Übrigens, aufpassen, wer nur "T&L" sagt, verwendet den falschen Begriff. Jedes Spiel verwendet auf irgendeine Weise T&L (oder zumindest das T davon). Der Unterschied war jetzt nur ob das in Hardware geschieht.

Ob es viel gebracht hat, hing vom Spiel ab. Aber in der Forschung (also bei der Forschung in Bezug auf Computergrafikalgorithmen) hat es hundertprozentig etwas gebracht (da hat man auch lieber und öfters etwa das reguläre OpenGL-Lighting verwendet). Dort werden Features mit offenen Armen immer früher umgesetzt, weil die entwickelte Software dort recht akademischer Natur ist (und es um Machbarkeit geht). Zum Beispiel wird SM 3.0, bzw die NV40-CineFX3-Shader unter OpenGL, jetzt schon in konkreter Software genutzt, ich kenne einige Leute, die bereits damit arbeiten.

Und rat mal, genau diese Entwicklungen, die dann in Papers veröffentlicht werden, werden dann auch in Spielen direkt übernommen. Spiele-Grafikengine-Entwickler sind schon seit Jahren hungrig auf die Papers die auf eher wissenschaftlichem Gebiet (etwa über die SIGGRAPH) veröffentlicht werden.

Wenn man sich dann den Informationsfluß ansieht:

1) Hardware-Hersteller gibt Feature raus
2) Forscher nutzen die Features von Stunde null an - da viele ja sogar Samples bekommen, z.B. hat das Computergrafik-Institut meiner Uni damals schon eine NV30 gehabt, wie sie noch nicht Retail zu haben war. Übrigens eine echt super Karte in der Forschung (ich weiß dass du, Stefan Payne, immer gegen die FX Karten wetterst, aber von dieser Warte ausgesehen war die NV30 echt gut).
3) Die Ergebnisse dieser Forschung (neue Algorithmen, neue Methoden im Echtzeitrendering) werden in Papers vorgestellt.
4) Kurze Zeit später sieht man genau diese Entwicklungen in Spielen.

Ein Beispiel genau dieser Pipeline dass ich kenne sind etwa Lightspace-Perspective-Shadowmaps (siehe http://www.cg.tuwien.ac.at/research/vr/lispsm/), die ein Bekannter von mir als Praktikum entwickelt hat (unter Mithilfe seines betreuenden Assistenten). Wurden als Paper veröffentlicht, und einige Spieleentwickler haben sich schon draufgestürzt, und implementieren diese Technik in ihren Engines. In der zweiten Volume eines recht bekannten GPU Programmierbuches wird es auch vermutlich aufscheinen.


Bei 32bit gings zwar etwas schneller, wirklich brauchbar wurde das aber erst etwa 3 Generationen nach der TNT (TNT2, GF256, GF2)...
Tolle Features, die man sofort braucht :up:


Hätte man sie nicht so früh implementiert, wären die passenden Spiele auch erst später gekommen, und alles hätte sich verschoben.

Also ist es gut wenn Features hinzugefügt werden, selbst wenn es noch keine Software dafür gibt. Denn in der Forschung, wie gesagt, werden solche Features immer sofort genutzt, was den Dominostein ins Rollen bringt, dass es mal auch in Spielen verwendet wird.


Auf ein Feature ohne Speed kann man ebenso verzichten wie auf Speed ohne Features, etwas zu Hypen, was zwar in der Theorie schön ist, in der Praxis aber nichts bringt bzw nicht in absehbarer Zeit, ist äußerst dämlich...

Wie erwähnt, ist es wichtig, dass etwas einmal funktioniert, auch wenn es langsam funktioniert. Denn wenn es in der Forschung einmal entwickelt wurde, ist der Weg frei für die Benutzung in anderer Software.

Vielleicht solltest du, Stefan Payne, ein bisschen aus deinem "Kastendenken" heraustreten, und dir einmal ansehen, für wen eigentlich Grafikkarten gemacht werden, woher Spiele kommen, woher die TECHNIKEN in Spielen kommen.

Dann kommst du drauf, dass viele Features oft von Entwicklern (Entwickler in der Forschung und Spieleentwickler) gewollt wurden, dazu gehören viele deiner als "erstmal nutzlos" klassifizierten Features. Dass NVIDIA sich im Allgemeinen sehr daran hält, was die Entwickler wollen, sieht man am NV40, der aus Entwicklersicht (trotz einige Hacker drin, selbst bei SM3.0) eine überaus reizvolle Karte ist. Und auch die vorigen Generationen waren bei Entwicklern und Forschern sehr beliebt. Da hat ATI leider einiges aufzuholen, mit ihrer reinen "Gamer-Schiene" sind sie eher schmarotzend unterwegs. Denn wenn man die Forschung und Entwicklung in der Computergrafik nicht so aktiv unterstützt in dem Maß wie es NVIDIA tut (ATI tut's auch, aber nicht in dem Ausmaß wie NVIDIA, tut leid, ist so), und zwar in beiden Richtungen (Softwareentwickler zu Hardwareentwickler und umgekehrt, also mit Feedback), und dann halt nur Karten macht, die auf aktuelle bekannte Algorithmen und Techniken ausgelegt sind, dann ist man in meinen Augen kein Innovator.

Was nicht heißt, dass ATI schlecht ist, für Gamer absolut toll, keine Frage. Aber selbst als Gamer muß man sich manchmal fragen, woher eigentlich unser Genußmittel "Spiel" besteht. Richtig, aus Algorithmen und Techniken. Wo werden diese Techniken entwickelt? Von wem? Und welche Hardwarehersteller hören auf jene Leute und unterstützen diese aktiv, schon vom Hardwaredesign aus?

Gamer-Features, die aktuell genutzt werden, sind eine Sache, aber genauso wichtig sind in Spielen noch unbenutzte Features, die einmal in Spielen benutzt werden. Auch wenn eine Karte, die aktuell rauskommt, in späteren Spielen bei diesem Feature zu langsam ist, genau diese Karte wird sofort in der Forschung benutzt, um diese zukünftigen Features zu erfinden und zu entwickeln.

Man könnte jetzt argumentieren "dann sollte man halt einen seperaten Chip für die Spiele und einen seperaten für die Forschung/Entwicklung" verwenden. Das zerstört aber das Ziel der Forschung/Entwicklung: Machbarkeit der neu entwickelten Techniken auf aktueller Standard-Consumer-Hardware (übrigens eins der Paradigmen etwa der VrVis www.vrvis.at, eben auf Standard-PC-Hardware, wie sie jeder hat, zu entwickeln).

StefanV
2004-08-22, 23:21:25
(ich weiß dass du, Stefan Payne, immer gegen die FX Karten wetterst, aber von dieser Warte ausgesehen war die NV30 echt gut).
...was wohl daran liegt, das ich in erster Linie ein Gamer bin und die Dinge halt aus den Augen eines Gamers sehe...

Was Wissenschaftkler mit deren GraKas machen ist mir ehrlich gesagt egal, da ich die Anwendungen, die die benutzen werden, niemals benutzen werde...

Sicher mag die FX Serie für einige Spezialbereiche brauchbar gewesen sein, nur, wie ich schon erwähnte, aus Sicht eines Gamers, ist die nV3x Serie ein Schuss in den Ofen...

€dit:

Sicher sind TnL und 32bit ganz nett, nur sind das mitnichten Features, die man 'last minute' implementieren könnte (unter D3D), EMBM passt eher in diese Kategorie, das hätte man öfter gesehen, wenns denn die G-Forces unterstützt hätten...

Endorphine
2004-08-22, 23:21:28
Danke tokugawa für dieses Posting. (y) Deckt sich genau mit meiner Sichtweise. Leider schließt sich damit auch der Kreis zu alten NV vs. 3dfx Flamewars, wo es prinzipiell um die gleichen Dinge ging.

Das ist die Seite von NV, die unter den Spielern immer kaum jemand sehen will. So wie 3dfx-Grafikkarten früher besser zu den Anforderungen von Spielern passten sind heute ATI 3D-Beschleuniger meist besser auf die Anforderungen von Spielern zugeschnitten. Mit allen negativen Begleiterscheinungen, die dieser Fokus auf die profitträchtigste Käuferschicht mit sich bringt.

Coda
2004-08-22, 23:31:29
Was Wissenschaftkler mit deren GraKas machen ist mir ehrlich gesagt egal, da ich die Anwendungen, die die benutzen werden, niemals benutzen werde...
Ließ seinen Post mal nochmal genau durch. Du wirst die Algorithmen sehr wohl in Spielen sehen.

LovesuckZ
2004-08-22, 23:35:30
Sicher sind TnL und 32bit ganz nett, nur sind das mitnichten Features, die man 'last minute' implementieren könnte (unter D3D), EMBM passt eher in diese Kategorie, das hätte man öfter gesehen, wenns denn die G-Forces unterstützt hätten...

DX9, Truform, 3dc, Pixelshader 1.4.
Und da das SM2.0 wohl zu den Features gehoert, welche "man [nicht] 'last minute' implementieren könnte (unter D3D)", laesst diesen Satz "aus Sicht eines Gamers, ist die nV3x Serie ein Schuss in den Ofen..." sehr komisch erscheinen.

tokugawa
2004-08-22, 23:41:16
...was wohl daran liegt, das ich in erster Linie ein Gamer bin und die Dinge halt aus den Augen eines Gamers sehe...

Was Wissenschaftkler mit deren GraKas machen ist mir ehrlich gesagt egal, da ich die Anwendungen, die die benutzen werden, niemals benutzen werde...


Oh doch. Du spielst ja. So ziemlich alle besseren Algorithmen darin wurden eben auf diese Weise in der Forschung entwickelt. Denk mal drüber nach.


Sicher mag die FX Serie für einige Spezialbereiche brauchbar gewesen sein, nur, wie ich schon erwähnte, aus Sicht eines Gamers, ist die nV3x Serie ein Schuss in den Ofen...

€dit:

Sicher sind TnL und 32bit ganz nett, nur sind das mitnichten Features, die man 'last minute' implementieren könnte (unter D3D), EMBM passt eher in diese Kategorie, das hätte man öfter gesehen, wenns denn die G-Forces unterstützt hätten...

Lies meinen Post noch einmal!

Das was Wissenschaftler machen, ist relevant für Gamer, das war das gesamte Fazit meines Postings!

Vor kurzem war ja die SIGGRAPH, eine wissenschaftliche Messe. Ich besorg mir ein Listing von den Papers, und in 1-2 Jahren vergleichen wir mal, welche dieser Features in den Spielen dann benutzt werden, ok?

Beziehungsweise kann ich dir dafür auch einige Beispiele der Gegenwart (und vergangenen SIGGRAPHs) zeigen, prominentes Beispiel, Stencil Shadow Volumes, sowie die ZFail Technik. Die waren auch mal auf der SIGGRAPH, früher zwar schon etwa test/demoweise auf GeForce 256 (oder halt was damals aktuell war, das weiß ich nicht mehr so) entwickelt, aber natürlich im Spieleszenario noch zu langsam oder undenkbar. Heutzutage eine in Spielen genutzte nette Technik (siehe Doom 3, Deus Ex 2, Thief 3).

PS: Also ich bin AUCH Gamer, und meine FX 5900XT ist alles andere als ein Schuss in den Ofen. Meine 9500 Pro ist auch kein Schuss in den Ofen, und durchschnittlich langsamer als die FX 5900 XT. Das ist vielleicht kein fairer Vergleich, aber die gesamte FX Linie zu bashen ist doch unvernünftig. Ich mein, selbst die Radeon 9600 Pro ist eine ganz brauchbare Karte, und es gibt ja FX Karten, die die Radeon 9600 schlagen in einigen Bereichen. FSAA-Qualität (was ja dein Fetisch ist) ist nicht das einzige Feature das es gibt. Für dich mag es das wichtigste sein, für andere Gamer nicht, bzw. sind für andere Gamer andere Dinge relevanter.

tokugawa
2004-08-22, 23:51:03
Danke tokugawa für dieses Posting. (y) Deckt sich genau mit meiner Sichtweise. Leider schließt sich damit auch der Kreis zu alten NV vs. 3dfx Flamewars, wo es prinzipiell um die gleichen Dinge ging.

Das ist die Seite von NV, die unter den Spielern immer kaum jemand sehen will. So wie 3dfx-Grafikkarten früher besser zu den Anforderungen von Spielern passten sind heute ATI 3D-Beschleuniger meist besser auf die Anforderungen von Spielern zugeschnitten. Mit allen negativen Begleiterscheinungen, die dieser Fokus auf die profitträchtigste Käuferschicht mit sich bringt.

Genau.

Ich finde ja auch nichts falsch daran, "spieler-optimierte" Karten zu machen.

Nur finde ich es von den "Gamern" vermessen, dann Hersteller zu kritisieren, die aktiv auf jeder möglichen Ebene die Technik vorantreiben, und Forscher unterstützen.

"Gamer" vergessen allzu oft, wer eigentlich die interessanten Effekte erfindet! Und genau diese Forscher benutzen neue Features in Grafikchips quasi von Stunde Null an.

tokugawa
2004-08-23, 00:54:14
Hier ein interessanter mehrseitiger Artikel: http://www.hardware-hq.de/html/special/aktenvidia01.htm
nVidia-Geschichte pur ->die Wahrheit für alle!
Meine Voodoo5 http://www.forumdeluxx.de/gallery/showgallery.php?cat=3049 behalte ich für immer, und der nVidia-Rotz wird rausgeschmiessen.
Viel Spass beim Lesen.
sunnyboy

Scheint mir sehr unsachlich zu sein, die Seite. Die zitieren eigentlich nur wiederum unreflektiert andere Seiten. Die Behauptung sie würden "kein NV-Bashing" betreiben, kann ich nicht nachvollziehen, dafür war der Artikel zu einseitig. Sicher, man kann den "Heiligenschein" (den es bei NV IMO nicht wirklich gibt, derzeit bekommt von der Masse her eher ATI den Heiligenschein aufgesetzt - ist mir aber persönlich sowas von egal, wer jetzt gerade bei den Massen populär ist oder nicht. Nur fanboys macht es etwas aus, wenn deren Product-of-Choice unpopulär ist oder wenn Konkurrenzprodukte dazu gelobt werden) auch damit beseitigen, einseitig zu bashen, aber damit ist niemand geholfen. Mit Sachlichkeit dann schon eher. Manche Argumentationspfade von denen erscheinen mir auch eher mau.

Gast
2004-08-23, 07:47:15
...was wohl daran liegt, das ich in erster Linie ein Gamer bin und die Dinge halt aus den Augen eines Gamers sehe...

hätte man öfter gesehen, wenns denn die G-Forces unterstützt hätten...


->

Mit OpenGL hatte man sofort Hardware T&L. Wie

Vielleicht solltest du, Stefan Payne, ein bisschen aus deinem "Kastendenken" heraustreten, und dir einmal ansehen, für wen eigentlich Grafikkarten gemacht werden, woher Spiele kommen, woher die TECHNIKEN in Spielen kommen.

robbitop
2004-08-23, 09:08:25
interessant, warum hat man denn nie 3 Texelprozessoren verbaut?

Stefan, ohne die NV3x hättest du jetzt nicht die Möglichkeit deine Spiele mit SM2 zu spielen. Und ohne die TnL Einheit würden die Prozessoren stärker belastet werden usw.
Sicher bringen die Pionierprodukte die neuen Features den Spielern nicht direkt etwas. Jedoch können nur so in Zukunft Features von den Spielen genutzt werden (die dann auch in der Nachfolgegeneration performanter umgesetzt werden).
Ist IMO ein ziemlich engstirniges Denken deinerseits.
Ohne Pionierprodukte gäbe es keine/kaum eine Weiterentwicklung.
"Wer das eine will, der muss das andere mögen" ;)

Gast
2004-08-23, 09:54:53
[QUOTE=robbitop]interessant, warum hat man denn nie 3 Texelprozessoren verbaut?

[QUOTE]

Zu teuer? Kein Bedarf?
Ein 3. TexelFX haette auch wieder seinen eigenen RAM gebraucht und waere ausser bei triple-texturing zu nichts nutzbar gewesen.

StefanV
2004-08-23, 10:12:31
interessant, warum hat man denn nie 3 Texelprozessoren verbaut?

Stefan, ohne die NV3x hättest du jetzt nicht die Möglichkeit deine Spiele mit SM2 zu spielen. Und ohne die TnL Einheit würden die Prozessoren stärker belastet werden usw.
Sicher bringen die Pionierprodukte die neuen Features den Spielern nicht direkt etwas. Jedoch können nur so in Zukunft Features von den Spielen genutzt werden (die dann auch in der Nachfolgegeneration performanter umgesetzt werden).
Ist IMO ein ziemlich engstirniges Denken deinerseits.
Ohne Pionierprodukte gäbe es keine/kaum eine Weiterentwicklung.
"Wer das eine will, der muss das andere mögen" ;)
1. schonmal dran gedacht, wie das PCB der V2 aussah?
Wo hätte man ihn deiner Meinung nach unterbringen sollen??

2. Das glaube ich kaum, auch ohne nV3x hätten wir jetzt SM3 spiele.
Denk auch dran, daßa die nV3x sau lahm sind, sobald mal PS2.0 einsetzt, einige Games deaktivieren das sogar bei einigen nV3x Karten...

3. ja, sicher, _HEUTE_ macht TnL sinn, nur damals wars nicht unbedingt so, daß es Sinn gemacht hat, da die Polygon mengen zu gering waren, um wirklich was zu bringen...

Gast
2004-08-23, 10:29:29
1. schonmal dran gedacht, wie das PCB der V2 aussah?
Wo hätte man ihn deiner Meinung nach unterbringen sollen??

2. Das glaube ich kaum, auch ohne nV3x hätten wir jetzt SM3 spiele.
Denk auch dran, daßa die nV3x sau lahm sind, sobald mal PS2.0 einsetzt, einige Games deaktivieren das sogar bei einigen nV3x Karten...

3. ja, sicher, _HEUTE_ macht TnL sinn, nur damals wars nicht unbedingt so, daß es Sinn gemacht hat, da die Polygon mengen zu gering waren, um wirklich was zu bringen...


Lesen! :

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2165643&postcount=64

robbitop
2004-08-23, 10:34:59
Stefan, das PCB wird nach Bedarf gefertigt ;)

Die NV3x Karten (besonders die NV31/34) haben SM2 in die Massen gebracht. Gerade die 5200er. Ohne diese wäre die SM2 Verbreitung nicht da und weniger Publisher hätten sich für SM2 entschieden.

eine 3.TMU hätte trilineare Filterung beschleunigt ;) (ja ich weiss das war unpopulär)

StefanV
2004-08-23, 10:39:50
Stefan, das PCB wird nach Bedarf gefertigt ;)

Die NV3x Karten (besonders die NV31/34) haben SM2 in die Massen gebracht. Gerade die 5200er. Ohne diese wäre die SM2 Verbreitung nicht da und weniger Publisher hätten sich für SM2 entschieden.
1. ja, und mit wieviel Lagen?
Wo willst du die 3. TMU und den dazugehörigen Speicher unterbringen??
Auf dem PCB der V2 ist jedenfalls nicht wirklich Platz dafür, zumindest nicht mit 512k EDO-DRAM Chips.

2. genau, deswegen deaktivieren ja auch einige Spiele SM2 für die FX5200 aka nV34, der Rest deaktivierts eh, da zu lahm (für Max Details)...
Sorry, aber das ist nur Marketinggeblubber...

q@w
2004-08-23, 10:42:41
3. ja, sicher, _HEUTE_ macht TnL sinn, nur damals wars nicht unbedingt so, daß es Sinn gemacht hat, da die Polygon mengen zu gering waren, um wirklich was zu bringen...
Zum vierten Mal die Frage, vielleicht magst du ja jetzt mal drauf antworten:
Was für einen Anreiz hätten Entwickler gehabt, ohne verfügbare Hardware auf ein Feature hin zu entwickeln, daß jetzt möglicherweise in der aktuellen High-End Generation mit "ausreichender Leistung" (wie auch immer du die definieren willst) eingeführt würde?

Siehe dazu auch mein Posting von vor zwei Seiten..... :eyes:

robbitop
2004-08-23, 11:00:46
@stefan

schön zu sehen wie du abblockst.

Gast
2004-08-23, 11:20:30
@stefan

schön zu sehen wie du abblockst.


Sollte doch langsam klar sein, dass SP stur nur seine Meinung vertritt, die da heisst: NV muss gebasht werden wo immer es geht.

*Ich werde mich jetzt zusammenreißen und den Thread nicht in den Keller ziehen, Amen.

reunion
2004-08-23, 11:20:45
Hätte, könnte, würde wenn, wollte? ;)


Jaja, schon klar. Trozdem finde ich es sehr bedauerlich das es der Rampage nichtmehr bis zur Serienreife geschafft hat. Immerhin gab es schon funktionsfähige Samples. Damit hätte man zumindest wieder mit der Konkurrenz gleichziehen können, denn immerhin unterstützte der Rampage bis zu 4x RGMSAA (das NV erst jetzt mit dem NV40(!) bereitstellt), bis zu 16xAF, PS/VS 1.0 usw. Was zusammen mit einer 4x1 (Pixel x Texel) Architektur keine schlechten Leistungswerte vermuten ließe. Und natürlich war auch der Rampage Multichipfähig.

seahawk
2004-08-23, 11:21:25
@SP

Erklär mir mal, warum ein ISV ein Feature einbauen soll, wenn es noch gar keine Hardwarebasis gibt, die das Feature beherrscht.

BubbleBoy
2004-08-23, 11:48:51
.

Demirug
2004-08-23, 11:50:46
Jaja, schon klar. Trozdem finde ich es sehr bedauerlich das es der Rampage nichtmehr bis zur Serienreife geschafft hat. Immerhin gab es schon funktionsfähige Samples. Damit hätte man zumindest wieder mit der Konkurrenz gleichziehen können, denn immerhin unterstützte der Rampage bis zu 4x RGMSAA (das NV erst jetzt mit dem NV40(!) bereitstellt), bis zu 16xAF, PS/VS 1.0 usw. Was zusammen mit einer 4x1 (Pixel x Texel) Architektur keine schlechten Leistungswerte vermuten ließe. Und natürlich war auch der Rampage Multichipfähig.

Ja, wäre ein schöner Chip geworden der unter DX allerdings zu einem etwas merkwürdigen Nutzungsprofil geführt hätte. Als Programmierer bekomme ich da immer noch einen leichten Horror wenn ich daran denke.

Blacksoul
2004-08-23, 11:52:25
Jaja, schon klar. Trozdem finde ich es sehr bedauerlich das es der Rampage nichtmehr bis zur Serienreife geschafft hat. Immerhin gab es schon funktionsfähige Samples. Damit hätte man zumindest wieder mit der Konkurrenz gleichziehen können, denn immerhin unterstützte der Rampage bis zu 4x RGMSAA (das NV erst jetzt mit dem NV40(!) bereitstellt), bis zu 16xAF, PS/VS 1.0 usw. Was zusammen mit einer 4x1 (Pixel x Texel) Architektur keine schlechten Leistungswerte vermuten ließe. Und natürlich war auch der Rampage Multichipfähig.


Ich glaube aber, dass die Specre die ganzen features wie PS/VS und (das auf jedenfall) T&L nur mit Sage gebracht hätte. Nur mit dem Chip alleine nicht, muss mich aber noch mal die tech. Details ansehen.
Ausserdem hat Sage es bei der Schliessung nicht einmal aufs PCB geschafft.


t.blacksoul.d

Demirug
2004-08-23, 11:55:00
Ich glaube aber, dass die SPecre die ganzen features wie PS/VS und (das uaf jedenfall) T&L nur mit Sage gebracht hätte. Nur mit dem Chip alleine nicht, muss mich aber noch mal die tech. Details ansehen.
Ausserdem hat Sage es bei der Schliessung nicht einmal aufs PCB geschafft.


t.blacksoul.d

Ab dem Trisetup war alles im Rampage. Die Vertexshader welche auch das T&L übernommen hätten lagen in Sage. Bei der kleinsten Version hätte das aber die CPU machen sollen.

Gast
2004-08-23, 12:04:22
Jaja, schon klar. Trozdem finde ich es sehr bedauerlich das es der Rampage nichtmehr bis zur Serienreife geschafft hat. Immerhin gab es schon funktionsfähige Samples. Damit hätte man zumindest wieder mit der Konkurrenz gleichziehen können,

Aber nur in deinen Traeumen. Als Multichip haette der Sage/Rampage das doppelte einer GF3 gekostet. Und das bei weniger Features und geringerer Performance.

Blacksoul
2004-08-23, 12:08:27
Aber nur in deinen Traeumen. Als Multichip haette der Sage/Rampage das doppelte einer GF3 gekostet. Und das bei weniger Features und geringerer Performance.


Welche features? o.O

aths
2004-08-23, 12:44:21
Aber nur in deinen Traeumen. Als Multichip haette der Sage/Rampage das doppelte einer GF3 gekostet. Und das bei weniger Features und geringerer Performance.Woher kennst du den Preis? Der Dual-Rampage böte 8x1 Pipelines mit bis zu 8 Texturen pro Pass (GF3: 4 Texturen) sowie 52 Bit Rechengenauigkeit (GF3: 36 Bit, GF 6800 bietet für DX8 auch nur 48 Bit) ferner 4x RGMSAA, und 16x AF.

Raff
2004-08-23, 12:54:50
Woher kennst du den Preis? Der Dual-Rampage böte 8x1 Pipelines mit bis zu 8 Texturen pro Pass (GF3: 4 Texturen) sowie 52 Bit Rechengenauigkeit (GF3: 36 Bit, GF 6800 bietet für DX8 auch nur 48 Bit) ferner 4x RGMSAA, und 16x AF.

Also von der Rawpower mit einer 9500 Pro vergleichbar?! Verdammt, die Karte wäre ihrer Zeit einen riesen Schritt voraus gewesen ... Vorausgesetzt, man hatte einen brauchbaren Speichercontroller. Ist zu letzterem etwas bekannt?

MfG,
Raff

Exxtreme
2004-08-23, 13:13:34
Aber nur in deinen Traeumen. Als Multichip haette der Sage/Rampage das doppelte einer GF3 gekostet. Und das bei weniger Features und geringerer Performance.
Mit AA + AF wohl eher nicht. :) Man muss bedenken, daß 3dfx die Kombination 2x Rampage + 1x Sage geplannt hat. Das wäre dann ein 8x1 Setup mit einem 2x 128 Bit-Interface.

Bei den Features gebe ich dir aber recht.

StefanV
2004-08-23, 13:15:02
Woher kennst du den Preis? Der Dual-Rampage böte 8x1 Pipelines mit bis zu 8 Texturen pro Pass (GF3: 4 Texturen) sowie 52 Bit Rechengenauigkeit (GF3: 36 Bit, GF 6800 bietet für DX8 auch nur 48 Bit) ferner 4x RGMSAA, und 16x AF.
also von der Rohpower und FSAA Quali etwa auf Radeon 9700 Niveau :biggrin:
Wäre nicht schlecht gewesen, zur damaligen Zeit...

Gast
2004-08-23, 13:16:25
Mit AA + AF wohl eher nicht. :) Man muss bedenken, daß 3dfx die Kombination 2x Rampage + 1x Sage geplannt hat. Das wäre dann ein 8x1 Setup mit einem 2x 128 Bit-Interface.

Bei den Features gebe ich dir aber recht.


Zu welchem Preis??
Ich kann mich nicht erinnern, dass 3dfx HW jemals besonders guenstig war.

StefanV
2004-08-23, 13:17:32
Zu welchem Preis??
Ich kann mich nicht erinnern, dass 3dfx HW jemals besonders guenstig war.
War das High End Hardware von einem anderen Hersteller denn jemals?!

Blacksoul
2004-08-23, 13:18:14
Welche tollen freatures hatte denn NV20 ggü. dem Rampage?


Weiß einer zufällig, wo man die Geometriedaten gespeichert hätte?
Ein eigener Buffer wäre zu verschwenderisch.
Laut meinen letzten Informationen hat man ihn im Systemspeicher gelagert und dann wurde per "AGP-Brücke" drauf zugegriffen.
Ich weiß aber leider nicht genau wie der Cache organisiert war.


t.blacksoul.d

Raff
2004-08-23, 13:19:22
Da fällt mir gerade ein ... Haben nicht die Jungs von Amigamerlin den Rampage-Prototypen ergattern und diesen sogar zum Laufen bringen können? Vor einiger Zeit ging diese Aussage herum, garniert mit der Info, dass man intensiv an einem Treiber für das Kärtchen schraube. Klar, das Teil hat keinen Sage an Bord, aber es wäre sicher trotzdem nett, zu sehen, wie die einzige Karte ihrer Art mit einer starken CPU an ihrer Seite performt.

Hat da jemand mehr Infos?

MfG,
Raff

Exxtreme
2004-08-23, 13:19:32
Zu welchem Preis??
Ich kann mich nicht erinnern, dass 3dfx HW jemals besonders guenstig war.
Naja, es gab GF3-Karten, die bis zu 1600 DM gekostet haben. Und wenn der Rampage + Sage genauso teuer geworden wäre bei mehr Leistung dann wäre es IMHO nicht verkehrt gewesen. Für High-End zahlt man immer mehr.

Exxtreme
2004-08-23, 13:21:12
Also von der Rawpower mit einer 9500 Pro vergleichbar?! Verdammt, die Karte wäre ihrer Zeit einen riesen Schritt voraus gewesen ... Vorausgesetzt, man hatte einen brauchbaren Speichercontroller. Ist zu letzterem etwas bekannt?

MfG,
Raff
Von der Roh-Power wäre die Karte tatsächlich eher mit der R9700 vergleichbar gewesen. Mit AA + AF wäre sie aber mit hoher Wahrscheinlichkeit deutlich langsamer gewesen da IIRC keine Color Compression.

Raff
2004-08-23, 13:22:09
Welche tollen freatures hatte denn NV20 ggü. dem Rampage? [...]

Mir fällt da spontan nur PS1.1 ein. Der Rampage konnte "nur" 1.0, was aber sicher kein großer Nachteil gewesen wäre. Ich habe die genauen Daten nicht im Kopf, aber die beiden scheinen sich nicht mehr zu unterscheiden als z.B. 1.1 von 1.3. Die Gurus wissen da sicher mehr. :)

MfG,
Raff

Blacksoul
2004-08-23, 13:23:48
Da fällt mir gerade ein ... Haben nicht die Jungs von Amigamerlin den Rampage-Prototypen ergattern und diesen sogar zum Laufen bringen können? Vor einiger Zeit ging diese Aussage herum, garniert mit der Info, dass man intensiv an einem Treiber für das Kärtchen schraube. Klar, das Teil hat keinen Sage an Bord, aber es wäre sicher trotzdem nett, zu sehen, wie die einzige Karte ihrer Art mit einer starken CPU an ihrer Seite performt.

Hat da jemand mehr Infos?

MfG,
Raff


Die Karte wäre langsamer als eine Voodoo 5 6000.
Ohne Adapter (welchen sie glücklicherweise da haben) gibt die Karte das Bild auf dem Kopf aus.
Sonst, na ja. Ist über ein Jahr her. Warscheinlich ist das Experiment eingestellt worden.
Zzt. finden sich bei ebay ein paar IBM-Daytona, welche alle aus IBM-Server/Rechner kommen. Warum auch immer...


t.blacksoul.d

Demirug
2004-08-23, 13:47:53
Wenn ihr einen VSA-200 mit einer R3XX Karte vergleicht denkt ihr aber auch daran das Rampage nur für 200 MHZ (Rev A) bzw 225 MHz (Rev B) vorgesehen war, oder?

@aths: Wieder mal vergessen das der NV2X hybride Rechenwerke hat? Was das 16xAF angeht so bin ich skeptisch ob das auch noch in Verbinung mit Tri der Fall war oder ob dort dann nur maximal 8xAF möglich war.

@Raff: Der Hauptunterschied zwischen 1.0 und 1.1 war das man bei 1.1 immer 4 texture + 8 Rechenops hat. Bei 1.0 ist das zwar auch der fall allerdings wurden dort bestimme Textureops auch bei den rechenops abgezogen. Ist auch klar wenn man weiss wie Rampage arbeitet. In Summe konnte man also mit 1.1 aufwendigere (= längere) Shader schreiben als mit 1.0.

Gast
2004-08-23, 14:04:28
Naja, es gab GF3-Karten, die bis zu 1600 DM gekostet haben. Und wenn der Rampage + Sage genauso teuer geworden wäre bei mehr Leistung dann wäre es IMHO nicht verkehrt gewesen. Für High-End zahlt man immer mehr.


GF3 ~ 1000DM
Rampage+ Sage ~ 2000 DM

Gast
2004-08-23, 14:05:04
Naja, es gab GF3-Karten, die bis zu 1600 DM gekostet haben. Und wenn der Rampage + Sage genauso teuer geworden wäre bei mehr Leistung dann wäre es IMHO nicht verkehrt gewesen. Für High-End zahlt man immer mehr.


GF3 ~ 1000 DM
Rampage ~ 1000 DM
Ramp.+Sage ~1700-2000 DM

StefanV
2004-08-23, 14:05:12
GF3 ~ 1000DM
Rampage+ Sage ~ 2000 DM
Quelle??
Belege?

Gast
2004-08-23, 14:06:04
Von der Roh-Power wäre die Karte tatsächlich eher mit der R9700 vergleichbar gewesen. Mit AA + AF wäre sie aber mit hoher Wahrscheinlichkeit deutlich langsamer gewesen da IIRC keine Color Compression.


...und kein Memory Crossbar und kein EarlyZ ....

Blacksoul
2004-08-23, 14:09:31
GF3 ~ 1000 DM
Rampage ~ 1000 DM
Ramp.+Sage ~1700-2000 DM

Klar. Wenn die Voodoo 5 mit 2 GPUs schon 700DM kostete und die 5 6000 mit 4 GPUs um die 1200DM gekostet hätte...


t.blacksoul.d

edit: Ausserdem gab es Rampage, Rampage + Sage, 2x Rampage + Sage. Letztes hätte dann wohl 2500DM gekostet oder was?
Mit Fear und Mojo wäre die ganze Sache auch billiger geworden.l
Die TapeOut haben einen Takt von 143Mhz und 6ns DDR-Speicher drauf.

Gast
2004-08-23, 14:10:38
Quelle??
Belege?


Hallo SP, hast du nicht noch eine Frage von Quasar zu beantworten?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2166630&postcount=69

StefanV
2004-08-23, 14:11:27
...und kein Memory Crossbar und kein EarlyZ ....
ohweh...

Hast dafür auch noch ein paar Belege??

Denn die Effizienzsteigernden Maßnahmen der GF3 waren auch nicht soo hoch entwickelt, als das man unbedingt einen Chip bräuchte, der ähnliche Features besitzt...

Exxtreme
2004-08-23, 14:13:36
...und kein Memory Crossbar und kein EarlyZ ....
Also die getrennten Speicherinterfaces der Rampage-Chips wären so eine Art Crossbar. ;)

Das fehlende EarlyZ ist aber tatsächlich eher ein Manko. Andererseits war es
damals noch nicht soooo wichtig. Die GF3 war auch nur marginal schneller als die GF2U als sie rauskam.

Blacksoul
2004-08-23, 14:19:12
Ich habe da noch eine Frage zum SpeicherLayout der letzten 3dfx-Karten (Spectre und Daytona):
Welchen sinn hatte die andere Art von Anordnung des Speichers? Dieser war nicht mehr in der üblichen L-Form.
Weiß da jmd zufällig was?


t.blacksoul.d

StefanV
2004-08-23, 14:21:15
Hm, das würd irgendwie nur Sinn machen, wenn der Chip 2 Speichercontroller hätte und die Pins entsprechend ausgeführt sind...

Gast
2004-08-23, 14:25:30
Hallo SP, hast du nicht noch eine Frage von Quasar zu beantworten?

[url]http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2166630&postcount=69

Blacksoul
2004-08-23, 14:29:51
Hallo SP, hast du nicht noch eine Frage von Quasar zu beantworten?

[url]http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2166630&postcount=69

Hast du nichts anderes zu tun?

Hier noch ein Pic einer Voodoo4-2 4200, damit auch einige wissen, wie ich das meine:
http://www.voodooalert.de/graphics/galerie/daytona/full/daytona5.jpg

Wo lag der Sinn darin, den SPeicher so anzuordnen?


t.blacksoul.d

StefanV
2004-08-23, 14:31:47
Hallo, Gast, hast du nicht noch eine (oder 2) Frage(n) von mir zu beantworten?

http://forum-3dcenter.de/vbulletin/showpost.php?p=2167292&postcount=95
http://forum-3dcenter.de/vbulletin/showpost.php?p=2167321&postcount=99

StefanV
2004-08-23, 14:34:31
Hast du nichts anderes zu tun?
Anscheinend nicht...
Anscheinend mag er auch nicht auf meine Postings antworten, irgendwie :|
Den Gast also am besten garnicht weiter beachten, scheint nicht so, als ob er wirklich diskutieren wolle...


Hier noch ein Pic einer Voodoo4-2 4200, damit auch einige wissen, wie ich das meine:
http://www.voodooalert.de/graphics/galerie/daytona/full/daytona5.jpg

Wo lag der Sinn darin, den SPeicher so anzuordnen?


t.blacksoul.d
Ja, sowas in der Art hatte ich noch im Sinn ;)
Der SInn davon liegt darin, wenn man 'oben' noch ein anderes Interface (für SAGE) verbaut, das man dann keine Probleme mit dem SPeicher bekommt.

Man könnte ev. sogar damit ein paar Lagen auf dem PCB sparen, bei Mulltichip Karten.

Demirug
2004-08-23, 14:34:33
Hast du nichts anderes zu tun?

Hier noch ein Pic einer Voodoo4-2 4200, damit auch einige wissen, wie ich das meine:
http://www.voodooalert.de/graphics/galerie/daytona/full/daytona5.jpg

Wo lag der Sinn darin, den SPeicher so anzuordnen?


t.blacksoul.d

Könnte unter umständen damit zu tun haben das die entsprechenden Pins am Chip so angeordent wurden das man auch beim Multi-Rampage Design den Speicher nocht einigermassen auf das PCB bekommt.

Blacksoul
2004-08-23, 14:36:14
Na, ok. Das war aber die Daytona, also VSA-101.
Das hat man bei der Spectre auch so übernommen.

Sage lag definitiv über dem AGP-Port, zwischen Port und GPUs.

@ Demirug

Dann wären es aber sehr lange Karten geworden, weil allein schon die Specre 1000 mit einem Chip recht lang war:

http://213.92.76.242/3dfxzone/public/uploaded/200343084950_rampy.JPG

t.blacksoul.d

Gast
2004-08-23, 14:44:30
Stefan Payne also am besten garnicht weiter beachten, scheint nicht so, als ob er wirklich diskutieren wolle...


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2166630&postcount=69

reunion
2004-08-23, 14:45:00
Aber nur in deinen Traeumen. Als Multichip haette der Sage/Rampage das doppelte einer GF3 gekostet. Und das bei weniger Features und geringerer Performance.

:lol:

Der Rampage konnte als Multichipversion auf eine 8x1 Architektur mit imaginären 256-bit DDR Speicherinface zurückgreifen, davon konnte NV nur träumen. Also zumindest die Performace wäre sicherlich kein problem gewesen, featuremäßig wäre der Rampage dank überlegenen AA/AF und 52-bit Rechengenauigkeit sicherlich auch besser dagestanden als eine GF3 mit PS1.1. Einzig der Preis wäre bestimmt saftig ausgefallen...

Gast
2004-08-23, 14:46:40
:lol:

Der Rampage konnte als Multichipversion auf eine 8x1 Architektur mit imaginären 256-bit DDR Speicherinface zurückgreifen, davon konnte NV nur träumen. Also zumindest die Performace wäre sicherlich kein problem gewesen, featuremäßig wäre der Rampage dank überlegenen AA/AF und 52-bit Rechengenauigkeit sicherlich auch besser dagestanden als eine GF3 mit PS1.1. Einzig der Preis wäre bestimmt saftig ausgefallen...


Jaja, die Legendenbildung.....

Raff
2004-08-23, 14:50:53
Jaja, die Legendenbildung.....

Wenn in diesem Design kein riesiger Fehler gesteckt und das Teil es auch wirklich zum gleichzeitigen Markteintritt wie nVidias GeForce3 geschafft hätte, hätte nVidia sicher ganz arge Probleme gehabt.

MfG,
Raff

Blacksoul
2004-08-23, 14:50:54
Jaja, die Legendenbildung.....

Ja ja, die Specs...

http://people.freenet.de/Mew2/specs.JPG

reunion
2004-08-23, 14:51:41
Jaja, die Legendenbildung.....

Wenn man nichts zum Thema beizutragen hat => :sneak:

Gast
2004-08-23, 14:52:48
Wenn man nichts zum Thema beizutragen hat => :sneak:


UNd wieso haeltst du dich nicht an das was du schreibst??

Gast
2004-08-23, 14:55:24
Wenn in diesem Design kein riesiger Fehler gesteckt und das Teil es auch wirklich zum gleichzeitigen Markteintritt wie nVidias GeForce3 geschafft hätte, hätte nVidia sicher ganz arge Probleme gehabt.

MfG,
Raff


Da ist mal wieder das "haette, waere, wenn" drin.

Rampage und Sage waren extrem buggy und waeren fruehestens 6-9 Monate nach der GF3 erschienen. Kein Wunder also, dass niemand 3dfx kaufen wollte.

Blacksoul
2004-08-23, 14:58:43
Da ist mal wieder das "haette, waere, wenn" drin.

Rampage und Sage waren extrem buggy und waeren fruehestens 6-9 Monate nach der GF3 erschienen. Kein Wunder also, dass niemand 3dfx kaufen wollte.

Rampage hätte noch 1-2 MOnate gebraucht, bis zur Massenfertigung...
Das extrem Buggy is wohl ein wenig extrem übertrieben.
Auf der noch nicht gefixten Karte (siehe pic, dass ich gepostet habe) war sogar Quake 3 mit ein paar Fehlern spielbar.
Sage war auch schon A0.


t.blacksoul.d

BadFred
2004-08-23, 14:58:55
Da ist mal wieder das "haette, waere, wenn" drin.

Rampage und Sage waren extrem buggy und waeren fruehestens 6-9 Monate nach der GF3 erschienen. Kein Wunder also, dass niemand 3dfx kaufen wollte.
Wenn du deine Aussagen belegen würdest, dann könntest du den ersten Stein aus dem Glashaus werfen... :rolleyes:

seahawk
2004-08-23, 14:59:59
Wenn in diesem Design kein riesiger Fehler gesteckt und das Teil es auch wirklich zum gleichzeitigen Markteintritt wie nVidias GeForce3 geschafft hätte, hätte nVidia sicher ganz arge Probleme gehabt.

MfG,
Raff

Nö, sie hätten gar keins gehabt. Weil die 3dfx KArte für den OEM Markt maximal ungeeignet gewesen wäre. Und von Retail High-End alleine hätten die das Geld für die Entwicklung niemals reingeholt.

Man muss einfach sagen, dass die Multichiplösungen einfach der falsche Weg waren um damit dauerhaft eine breite Marktbasis zu schaffen.

Blacksoul
2004-08-23, 15:01:10
Nö, sie hätten gar keins gehabt. Weil die 3dfx KArte für den OEM Markt maximal ungeeignet gewesen wäre. Und von Retail High-End alleine hätten die das Geld für die Entwicklung niemals reingeholt.

Man muss einfach sagen, dass die Multichiplösungen einfach der falsche Weg waren um damit dauerhaft eine breite Marktbasis zu schaffen.


Daytona = OEM.

MeLLe
2004-08-23, 15:02:09
Da ist mal wieder das "haette, waere, wenn" drin.
Siehe Thread-Titel ...


Rampage und Sage waren extrem buggy und waeren fruehestens 6-9 Monate nach der GF3 erschienen. Kein Wunder also, dass niemand 3dfx kaufen wollte.
Woher weisst du das soooo genau?
Ganz davon abgesehen, dasss, wenn es Spectre-Boards auf den Markt geschafft hätten, sie sicher performance- als auch featuremäßig der NV20 sehr wohl überlegen und damit ein gutes Produkt gewesen wären. Auch noch mit 6-9 Monaten Verspätung.

Xmas
2004-08-23, 15:04:32
sowie 52 Bit Rechengenauigkeit (GF3: 36 Bit, GF 6800 bietet für DX8 auch nur 48 Bit)
GF3: 36 Bit + 128 Bit. Und seit wann unterstützt NV40 denn noch FX12?

seahawk
2004-08-23, 15:10:11
Daytona = OEM.


Und den hätten sie gebraucht und nicht eine neue Ultra-High-End Mulitchip Lösung. Dann wäre es evtl. unter Nutzung des beinahe Kultstatus der Firma noch möglich gewesen sie zu retten. Rampage war nur ein neuer Schritt in den Abgrund.

Juerg
2004-08-23, 15:19:41
Abgesehen vom ganzen Sinn und Unsinn solcher Diskussionen...

3dfx ist Kult, was man von ATI ode nVidia nicht behaupten könnte, würden sie heute Konkurs anmelden...

Jeder der hier rumpro..t ähh rumpostet wäre glücklich gewesen bzw. war glücklich 1996/97 eine Matrox Millenium I 8MB und eine Voodoo 1 mit 6MB z.B. mit einem PPro 200Mhz sein eigen nennen zu können...

edit: Rechtschreibung ähem...

Demirug
2004-08-23, 15:20:34
Siehe Thread-Titel ...
Ganz davon abgesehen, dasss, wenn es Spectre-Boards auf den Markt geschafft hätten, sie sicher performance- als auch featuremäßig der NV20 sehr wohl überlegen und damit ein gutes Produkt gewesen wären. Auch noch mit 6-9 Monaten Verspätung.

Es gab Bereiche da war ein NV20 besser und es gab Bereiche da wäre ein Rampage besser gewesen.

Um es mal ganz extrem zu forumulieren.

NV20 war der bessere DX8 Chip.
Rampage wäre der bessere DX7 Chip gewesen.

Crushinator
2004-08-23, 15:30:01
Der liebe Gast möchte bitte aufhören den Thread kaputt zu spammen, und die verehrte Userschaft möchte bitte weiterhin darauf verzichten, auf Provokationen ähnlich provokativ einzugehen. Vielleicht schaffen wir's ausnahmsweise ja einmal einen für Viele interessanten Thread nicht untergehen zu lassen.

Gast
2004-08-23, 15:34:16
Rampage hätte noch 1-2 MOnate gebraucht, bis zur Massenfertigung...
Das extrem Buggy is wohl ein wenig extrem übertrieben.
Auf der noch nicht gefixten Karte (siehe pic, dass ich gepostet habe) war sogar Quake 3 mit ein paar Fehlern spielbar.
Sage war auch schon A0.


t.blacksoul.d


Soweit ich weiss, haben die Chips noch nichts getaugt weil keine hohen Takte damit zu erreichen waren.
von 200MHz hat 3dfx vielleicht getraeumt, die Samples haben kaum mehr als 100Mhz geschafft.

StefanV
2004-08-23, 15:36:01
Soweit ich weiss, haben die Chips noch nichts getaugt weil keine hohen Takte damit zu erreichen waren.
von 200MHz hat 3dfx vielleicht getraeumt, die Samples haben kaum mehr als 100Mhz geschafft.
Deswegen warens ja auch Samples und keine Serien Chips :rolleyes:

Hm, wie hoch war die A0 NV20 oder NV30 getaktet?!

seahawk
2004-08-23, 15:39:16
Deswegen warens ja auch Samples und keine Serien Chips :rolleyes:

Hm, wie hoch war die A0 NV20 oder NV30 getaktet?!

Und wie lange hat es bei denen gedauert bis die Karten danach verfügbar waren ??

Ich denken die Frage ist nicht ob es 3dfx geschafft hätte die Chips zu bauen, sondern wann.

Auf Dauer wäre allerdings 3dfx durch das Geschäftskonzept mit den eigenen Fabriken gescheitert. Man stelle sich vor sie hätten jeden Schritt in der Prizessentwicklung vollständig selbstfinazieren müssen.

Gast
2004-08-23, 15:43:30
Der liebe Gast möchte bitte aufhören den Thread kaputt zu spammen, und die verehrte Userschaft möchte bitte weiterhin darauf verzichten, auf Provokationen ähnlich provokativ einzugehen. Vielleicht schaffen wir's ausnahmsweise ja einmal einen für Viele interessanten Thread nicht untergehen zu lassen.



Der liebe Moderator moechte dann doch den Thread schliessen, denn wirklich interessantes gibt es hier nicht zu sehen. Legendenbildung durch ein paar Fanboys (oft gepaart mit NV-Bashing), das war's auch schon.
Aber gott sei dank gibt es hier noch ein paar echte 3D-Gurus wie xmas oder demirug. Da kommt dann wenigstens noch etwas wahrheit ans Licht.

Blacksoul
2004-08-23, 15:47:59
Soweit ich weiss, haben die Chips noch nichts getaugt weil keine hohen Takte damit zu erreichen waren.
von 200MHz hat 3dfx vielleicht getraeumt, die Samples haben kaum mehr als 100Mhz geschafft.


Die Sampel waren schon mit 143MHz getaktet :rolleyes:


t.blacksoul.d

Crushinator
2004-08-23, 15:58:37
Der liebe Moderator moechte dann doch den Thread schliessen, denn wirklich interessantes gibt es hier nicht zu sehen. Legendenbildung durch ein paar Fanboys (oft gepaart mit NV-Bashing), das war's auch schon. Der liebe Moderator wüßte aber nicht, daß es a) den Forumsregeln nicht entspräche, daß Leute ihre Meinung zum Thema äußern können, auch wenn sie mal Irrtümern aufgessen seien, und b) wüßte er gern welches bashing schlimmer sei. Jenes gegen nV oder gegen <insert any other IHV name here>? Objektivität kennt nämlich kein Bias.

Aber gott sei dank gibt es hier noch ein paar echte 3D-Gurus wie xmas oder demirug. Da kommt dann wenigstens noch etwas wahrheit ans Licht. Meinst Du nicht, daß u.A. deshalb auch dieser Thread interessant sei, weil sich eben unsere Gurus fundiert dazu äußern und ggf. Irrtümer aus dem Weg räumen würden?

So, jetzt Schluß mit OT. :)

Tigerchen
2004-08-23, 16:23:27
halte ich für starken Tobak.
Richtig man hat Teile der Voodoo Architektur immer weiter übernommen. Aber hey, das machen NV/ATi auch. NV30 basiert zum Großteil auf NV10 und der widerum auf dem NV5 usw usf.

VSA100 beherrschte als erste PC Karte echtes Anti Aliasing. Und man kann nicht mal eben so 2xRGSS pro Chip implementieren. Da muss schon eine Menge Aufwand im TriangleSetup ran. Weiterhin sind tiefe Eingriffe in die Pipeline notwendig. Weiterhin ist auch der T-Buffer (etwas komplexerer Multisampling Buffer) technologisch vorreitend. Hier waren schon recht ansehliche Fullscreeneffekte möglich. Bumpmapping: immerhin Embos BM ;) (dot3 natürlich nicht ..mein Fehler)
Weiterhin hatte man brauchbare Combiner gehabt (relativ zu den Combinern bei NV waren diese allerdings sehr einfach). Dann kommt noch die Genauigkeit von 9bit pro Farbkanal dazu.

In so mancher Hinsicht war man technologisch recht weit vorn.

Nein. Eine mit der Hand (!) designte Notlösung weil der Rampage nicht fertig wurde. Und selbst der VSA100 mußte mehrfach redesignt werden.

Juerg
2004-08-23, 16:24:00
Übrigens gabs anscheinend VSA101 (Napalm) basierende Karten im Retail Markt. Sieht so aus mit DVI-Ausgang und DDR-SDRAM:

IBM MODEL# ? GXT140P (MAYBE HELPFUL IN FINDING DRIVERS)
3DFX SERIES VOODOO 4 4200

POST SCREEN SHOWS THIS CARD EXACTLY LIKE THIS:
3DFX VOODOO4-2 4200

3DFX CHIPSET INFO:
F60783.6 AS
0045 20008
TAIWAN 1501

E-bay Link mit Bilder:
http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=5117393945&category=40157&sspagename=rvi:1:1

Tigerchen
2004-08-23, 16:29:38
Stefan, das PCB wird nach Bedarf gefertigt ;)

Die NV3x Karten (besonders die NV31/34) haben SM2 in die Massen gebracht. Gerade die 5200er. Ohne diese wäre die SM2 Verbreitung nicht da und weniger Publisher hätten sich für SM2 entschieden.


Wunschdenken. Jeder Publisher sorgt dafür daß eine 5200er kein SM2 verwendet.

Raff
2004-08-23, 16:33:04
Übrigens gabs anscheinend VSA101 (Napalm) basierende Karten im Retail Markt. Sieht so aus mit DVI-Ausgang und DDR-SDRAM:

IBM MODEL# ? GXT140P (MAYBE HELPFUL IN FINDING DRIVERS)
3DFX SERIES VOODOO 4 4200

POST SCREEN SHOWS THIS CARD EXACTLY LIKE THIS:
3DFX VOODOO4-2 4200

3DFX CHIPSET INFO:
F60783.6 AS
0045 20008
TAIWAN 1501

E-bay Link mit Bilder:
http://cgi.ebay.com/ws/eBayISAPI.dll?ViewItem&item=5117393945&category=40157&sspagename=rvi:1:1

Yep. Und abgesehen davon wurden auch einige VSA-101 für Voodoo5 5500's genutzt, da ein paar User in der Vergangenheit davon berichteten. Scheinbar gingen 3dfx die 100er aus und da nahm man sich mal eben von den schon weit fortgeschrittenen 101ern, um noch möglichst viele V5's abzusetzen.

Letztere sollten übrigens theoretisch sehr gut übertaktbar sein, praktisch allerdings weniger. Grund: Der RAM limitiert in den meisten Fällen (6ns = 166 MHz), asynchroner Betrieb ist nicht möglich. Dafür werden sie aber wahrscheinlich nicht so heiß wie die Vorgänger.

MfG,
Raff

Tigerchen
2004-08-23, 16:34:40
also von der Rohpower und FSAA Quali etwa auf Radeon 9700 Niveau :biggrin:
Wäre nicht schlecht gewesen, zur damaligen Zeit...

Nur sind sie niemals fertig geworden. Auf dem Papier waren schon andere Tiger gut. Matrox Parhelia zum Beispiel.

Sag mal konnte der V5 überhaupt echtes trilineares Filtern bei Multitexturierung?

Gast
2004-08-23, 16:37:25
Nein. Eine mit der Hand (!) designte Notlösung weil der Rampage nicht fertig wurde. Und selbst der VSA100 mußte mehrfach redesignt werden.



Nicht von Hand designed.
Sondern nur von Hand gefixt, weil 3dfx sich die (teuren) Tools zum Chiplayout/-simulation einsparen wollte und ihre alten Tools nur fuer fehlerhafte VSA100 gut waren.

StefanV
2004-08-23, 16:40:36
Letztere sollten übrigens theoretisch sehr gut übertaktbar sein, praktisch allerdings weniger. Grund: Der RAM limitiert in den meisten Fällen (6ns = 166 MHz), asynchroner Betrieb ist nicht möglich. Dafür werden sie aber wahrscheinlich nicht so heiß wie die Vorgänger.

MfG,
Raff

Nicht nur wahrscheinlich, die waren in der Tat kühler.

Gohan hatte doch mal eine davon :biggrin: :biggrin:

Gast
2004-08-23, 16:40:55
Übrigens gabs anscheinend VSA101 (Napalm) basierende Karten im Retail Markt. Sieht so aus mit DVI-Ausgang und DDR-SDRAM:

IBM MODEL# ? GXT140P (MAYBE HELPFUL IN FINDING DRIVERS)


Wenn's von IBM ist, dann ist es definitiv KEIN Retail.

Gast
2004-08-23, 16:42:25
Sag mal konnte der V5 überhaupt echtes trilineares Filtern bei Multitexturierung?


Nein, er nutzt dazu mipmap-dithering wie auch die TNTs von NVidia (gab da mal sogar eine Patentklage deswegen, LOL).

Raff
2004-08-23, 16:44:39
Nicht nur wahrscheinlich, die waren in der Tat kühler.

Gohan hatte doch mal eine davon :biggrin: :biggrin:

Stimmt ja. :)
In meiner Sig steht sogar der Beweis. Mehr als 200/200 war bei ihm - wohl wegen dem RAM - allerdings nicht drin.

€dit:

@ Tigerchen / Gast:

Der VSA-100 konnte mittels T-Buffer und angepassten Anwendungen sogar eine Art AF darstellen. Es ging mal ein Bild von Serious Sam rum, wo die Texturen verdammt gut aussahen und angeblich mit "64tap"-AF geschärft wurden. Wo der Treiber ist? Gute Frage.

MfG,
Raff

LovesuckZ
2004-08-23, 17:54:29
Wunschdenken. Jeder Publisher sorgt dafür daß eine 5200er kein SM2 verwendet.


Es reicht, dass sich die Grafikhersteller durch ihre Treiber schon anmaßen, den Spieler zu bevormunden, da sollte sich der Publisher schoen raushalten (:wave2: an Crytek und Valve!).

StefanV
2004-08-23, 17:58:55
Es reicht, dass sich die Grafikhersteller durch ihre Treiber schon anmaßen, den Spieler zu bevormunden, da sollte sich der Publisher schoen raushalten (:wave2: an Crytek und Valve!).
Wieso??

Besonders wenns bei denen um Bares geht?!

Und ja, mit dieser Maßnahme könnte man Geld sparen -> Geld von der Support Abteilung.

tokugawa
2004-08-23, 18:00:52
1. schonmal dran gedacht, wie das PCB der V2 aussah?
Wo hätte man ihn deiner Meinung nach unterbringen sollen??

2. Das glaube ich kaum, auch ohne nV3x hätten wir jetzt SM3 spiele.
Denk auch dran, daßa die nV3x sau lahm sind, sobald mal PS2.0 einsetzt, einige Games deaktivieren das sogar bei einigen nV3x Karten...

3. ja, sicher, _HEUTE_ macht TnL sinn, nur damals wars nicht unbedingt so, daß es Sinn gemacht hat, da die Polygon mengen zu gering waren, um wirklich was zu bringen...

Ad 2. Nö. Schau mal aus der Perspektive von Entwicklern (damit mein ich nicht nur Spieleentwickler, sondern auch reine Shader-Entwickler, die dann ihre Shader der Allgemeinheit zur Verfügung stellen): sagen wir du bist ein Grafikinteressierter Entwickler, der noch keine PS2.0 Hardware hat. Du willst nur für's Shader-Entwickeln eine Hardware. Für's Shader-Entwickeln selbst braucht man kein High-End, und da füllt die FX 5200 es genau richtig. Da kann man Shader testen, da es die Features hat, für einen günstigen Preis. Nicht alle Entwickler sind Millionäre.

Auch gilt die Überlegung aus seiten der Entwickler, wie groß die installierte SM2-unterstützende Basis ist. Dass man SM2 auf FX5200 dann deaktiviert, ist eine nachträgliche Entscheidung. Dass man SM2.0 unterstützt, ist hingegen eine Überlegung, die sehr wohl darauf basiert, dass es dank der FX Serie eine breit installierte SM 2.0 Basis gibt. So Entscheidung wie Profiling und Optimierung je nach Hardware geschieht meist erst, wenn die Engine schon steht. Folglich ist die Entscheidung, dass man eben SM2.0 auf FX 5200 nicht benutzt, eine, die erst nach der Entscheidung, überhaupt SM2.0 einzubauen geschieht.

Im Übrigen reicht selbst ein einzelner SM2.0 Shader, der mit älteren Shadern nicht umsetzbar wäre, um es zu rechtfertigen. Die gesamte Szene zwangweise mit SM 2.0 zu rendern, wenn auch ältere Shaderversionen reichen würden, macht nicht viel Sinn. Dasselbe gilt eigentlich auch für SM3.0. Man sollte die Shaderversion benutzen, die reicht.

Ad 3. Auch damals machte TnL Sinn. Mit TnL ließen sich erst einige theoretische Dinge in der Forschung umsetzen. Damals noch in wenig spieletauglichen Demonstrationen. Aber wie in meinem Forschungs-Posting (das du anscheinend komplett ignoriert hast) erwähnt, bringt JETZT TnL was, weil man damals schon in der Forschung davon profitiert hat. Das gilt für viele Techniken. Spiele kriegen ihre Technologie nun mal großteils aus der Forschung.

Bei TnL kann man noch zusätzlich dazusagen, wäre es nicht damals schon implementiert gewesen (wenn auch spielemäßig nicht sooo nützlich außer in OpenGL), dann hätte sich die TnL-Entwicklung insgesamt verschoben. Es ist also GUT, dass es so früh implementiert wurde.

Erstgenerationsfeatures haben immer ein paar Schnitzer drin, das ist halt so. Nichtsdestotrotz sind diese gut, weil sie eben die Konkurrenz-Hersteller dazu forcieren, es ebenfalls zu implementieren, sowie generell das Vorhandensein dann erstens passende Software generiert, sowie Refreshes dann auf dem Erstgenerationsfeature basierend optimieren können.

Die CineFX3-Shader z.B. sind zwar nett, aber ein Bekannter von mir, der es schon in der Praxis einsetzt, hat doch einige Dinge beobachtet, auf die man achten sollte, wenn die Performance nicht einbrechen soll - in der Forschung wohlgemerkt; und zwar in einem Projekt, das sehr anspruchsvolle Techniken einsetzt, die wie ich glaube auch mal in Spielen benutzt werden. Aber dass die CineFX3-Shader hier und da noch "Eigenheiten" besitzen, macht diese nicht redundant, sondern sie verlieren trotzdem nichts von ihrer Existenzberechtigung - genau wie TnL auf der GeForce 256.

aths
2004-08-23, 18:34:48
GF3: 36 Bit + 128 Bit. Und seit wann unterstützt NV40 denn noch FX12?Seit es ihn gibt?

robbitop
2004-08-23, 18:36:02
Nein. Eine mit der Hand (!) designte Notlösung weil der Rampage nicht fertig wurde. Und selbst der VSA100 mußte mehrfach redesignt werden.
Ist mir alles bekannt und dennoch ist VSA100 technologisch nicht so zu verkennen, wie es hier heute einige tun. Erst der S3 Deltrachrome hat es tatsächlich geschafft, ein schöneres AA zu bieten. Der T-Buffer war seiner Zeit auch voraus. So schlecht wie er geredet wurde, war VSA100 nicht.


Sage war auch schon A0.

AFAIK stand er noch einige Wochen/Monate vor seinem Tapeout.
Und ohne Tapeout sollte es keine A0 geben oder irre ich mich?

---
der Rampage wäre pro Chip deutlich langsamer gewesen als die GF3. (man beachte, dass dieser nur 2 ROPs gehabt haben sollte. Bei MSAA teilt sich dann die Füllrate). Und die Dual Variante mit Sage wäre noch deutlich später gekommen als die Geforce3 (Sage war eben noch ein Stück von der Produktion entfernt). Somit wäre wohl eher die GF4 mit dem Spectre ins Gehäge gekommen, welcher seinerzeit ja auch recht viel Geometrieleistung besaß. Außerdem konnte AFAIK der Rampage auch noch kein vernünftiges AF. Eher eine Art Pseudo AF.
Hinzu kommt der Takt, die höheren Kosten durch 3 Chips, fehlendes HSR (ich habe noch nirgends etwas von einem unterteilten Speichercontroller beim Rampage gelesen) fehlende Colorcompression usw.
Mit einer GF3/4 vergleichbar aber ein R300? IMO Träumerei.


Auch gilt die Überlegung aus seiten der Entwickler, wie groß die installierte SM2-unterstützende Basis ist. Dass man SM2 auf FX5200 dann deaktiviert, ist eine nachträgliche Entscheidung. Dass man SM2.0 unterstützt, ist hingegen eine Überlegung, die sehr wohl darauf basiert, dass es dank der FX Serie eine breit installierte SM 2.0 Basis gibt.

schön zusammengefasst. so sieht es aus.

Xmas
2004-08-23, 18:56:56
Seit es ihn gibt?
Nö, NV40 rechnet alles mit mindestens FP16.

aths
2004-08-23, 19:15:03
Zu welchem Preis??
Ich kann mich nicht erinnern, dass 3dfx HW jemals besonders guenstig war.Ich aber.
...und kein Memory Crossbar und kein EarlyZ ....Early-Z bringt der GeForce3 nur was, wenn kein MSAA aktiv ist (ansonsten funzt es dort nicht) und dann in der Praxis auch nur ~ 10%.

aths
2004-08-23, 19:15:26
Nö, NV40 rechnet alles mit mindestens FP16.Das hätte durchaus seinen Sinn. Da frage ich noch mal nach, iirc kann NV40 noch echtes FX12.

aths
2004-08-23, 19:20:55
@aths: Wieder mal vergessen das der NV2X hybride Rechenwerke hat?Wie meinst du das jetzt?

Was das 16xAF angeht so bin ich skeptisch ob das auch noch in Verbinung mit Tri der Fall war oder ob dort dann nur maximal 8xAF möglich war.Ich erinnere mich an was von 128 tap. Das hieße 16x tri.

Raff
2004-08-23, 19:34:16
Jetzt muss ich doch auch mal meinen Senf zum Thema "Integration neuer Technologien und deren Sinn" abgeben.

Vorweg: Natürlich, neue Features braucht das Land der Grafik immer. Allerdings stellt sich dabei die Frage, wer welche davon wann braucht! Wie von tokugawa sehr überzeugend formuliert, haben vorrangig Entwickler einen Nutzen für jede neue Technologie. Sie sind die ersten, die sich die Teile anschauen und auf Praxistauglichkeit hin prüfen. Soweit, so gut. Dummerweise ist das eher nicht die Zielgruppe der IHVs! Diese Unternehmen sind natürlich auf Profit aus - und dieser lässt sich nicht (nur) mit einer Hand voll Entwicklern machen, sondern braucht die Kaufkraft des restlichen Planeten. Mir kann keiner erzählen, dass nVidia und vor allem ATi die Features einbauen, nur damit die Progger ihren Spaß dran haben, weil sie so gerne basteln. Nein, die meiste Kohle wird im OEM- bzw. Mainstream-Bereich gemacht. Dort hocken einerseits die Otto-Normal-PC-Käufer, die einfach das kaufen, was billig ist und ihnen empfohlen wird, und andererseits die Leute, die so denken wie die meisten hier im Forum. Erstere sind die, die einfach kaufen, was dem Geldbeutel am wenigsten schadet, und die sich von der buntesten und reißerischsten Werbung blenden lassen. Diese Leute denken bei "SM3.0" eher an eine neue Abart der unter einigen beliebten Sexspielchen, als an komplexe Techniken, um Spielegrafik schöner zu machen. Aber sie bekommen es von allen Seiten reingedrückt, dass es ja sooo toll ist und man es unbedingt braucht. Marketing rulez.

Und hier beginnt das Problem! Zu Zeiten des erbitterten Kampfes zwischen 3dfx und nVidia waren letztere technologisch im 2. Abschnitt ihres bis dorthin kurzen Lebens stets führend. Man hatte zuerst 2048x2048er-Texturen, 32Bit, 32MB-RAM sowie T&L. Nehmen wir uns also mal den IMHO beliebtesten Vergleich heraus: TNT2 vs. Voodoo3. Beide waren Top-Karten mit Speed im Überfluss. Dennoch hagelte es von allen Seiten her Kritik für die Voodoo3. Gerade Redakteure bestimmter Zeitschriften und Websites sollten sich jetzt angesprochen fühlen! Überall gab es die allseits bekannten Balken, bei denen mal nVidia, mal 3dfx führte. Im Fazit allerdings hörte man vermehrt, dass das 3dfx-Produkt nicht "zukunftstauglich" ist. Die Karten können nur 256x256 Pixel große Texturen und 16Bit in 3D ausgeben und haben nur 16MB VRAM. Ach wirklich? Und wen stört das Mitte 1999? Zum Zeitpunkt des Erscheinens von TNT2 und Voodoo3 gab es bis auf Expendable kein Spiel, das auch nur annähernd von 32Bit profitieren konnte. Und größere Texturen fanden auch erst anno 2000 Verwendung. Zum VRAM: Wo bitte sind die 16MB zu wenig? 2048x1536x16, also eine utopische Auflösung, die mit den damaligen Karten nur im einstelligen FPS-Bereich darstellbar war, hätte so viel RAM benötigt. Da 32Bit und dicke Texturen kein Thema waren, war die RAM-Menge also völlig ausreichend. Trotzdem kreidete man das 3dfx an, obwohl sie offensichtlich genau wussten, was sie taten.

Was ich eigentlich sagen will: Neue Features sind für Gamer toll, ja ganz schrecklich sinnvoll -- aber (meistens) nicht in der Urversion! Was damals oft für ein Müll in den Reviews stand (siehe oben), ist einfach nicht fair! Meiner Meinung nach sollte man, gerade in einer Info-Position wie HW-Redakteur, in der Gegenwart bleiben und die Stärken und Schwächen der jeweiligen HW zum gegebenen Zeitpunkt aufzeigen. Dann, in einem Nebensatz ohne große Gewichtung, sollte man erwähnen, dass Karte X (hier die V3) eventuell in 5 Jahren nicht mehr alle Effekte darstellen und das Spiel so mit maximalen Details zeigen kann. Denn - und das ist der Punkt - das kann Karte Y (=> TNT2) ebenfalls nicht! Man bekommt lediglich eine ultra-schicke Diashow zu sehen. Optisch hui, aber praxisfremd.
So war es doch auch bei T&L. Die GeForce256 führte es mein, aber erst UT2003 - also schlappe 4 Jahre Zeitabstand - bot die Grafik, mit der damals gehyp ... äh, geworben wurde. Wieder blöd: Die GF war dafür zu langsam ...

Übrigens wiederholte sich das Spiel ähnlich zu GeForce2 vs. Voodoo5-Zeiten: Das verdammt gutaussehende RGSAA der Voodoos wurde mal eben am Rande erwähnt, obwohl es damals im hier und jetzt jedes Spiel optisch deutlich aufwerten konnte. Das interessierte aber keine Sau (siehe weiter oben). Man schaute lieber auf die GeForce, die hatte ja T&L ... :bonk:

Danke für Aufmerksamkeit.

MfG,
Raff

Demirug
2004-08-23, 19:48:44
Wie meinst du das jetzt?

Textureops mit FP32 ; Colorops mit FX9/10

Ich erinnere mich an was von 128 tap. Das hieße 16x tri.

Sage wir mal so. Ich habe hier Datenblätter (über 200 Zeichnungen und eine Menge Text) in denen zu diesem Punkt zwei Angaben zu finden sind. Max AF wird über das ta_mode register gesteuert. In diesem 24 Bit breiten Register (eins pro Texture) sind 4 Bit (ta_max_ani_ratio) dafür reserviert. Die Filter Einheit (3dfx hat die TMU schön aufgesplitet) hat nun einen Output von einem Sample in 1 bis 16 Takte. Da sie pro Takt 4 Texel pro Pixel vom Texturecache bekommt ergibt das ein Maximum von 64 Texel pro Pixel.

LovesuckZ
2004-08-23, 19:51:34
Raff,
das Problem schildert genau die Frage von Quasar:
Henne-Ei Problem: Wie stellst du dir konkret die Adaption neuer Technologien im HW/SW-Bereich vor (zum dritten Mal)?

Du sprichst es auch an:
Zum Zeitpunkt des Erscheinens von TNT2 und Voodoo3 gab es bis auf Expendable kein Spiel, das auch nur annähernd von 32Bit profitieren konnte. Und größere Texturen fanden auch erst anno 2000 Verwendung.
So war es doch auch bei T&L. Die GeForce256 führte es mein, aber erst UT2003 - also schlappe 4 Jahre Zeitabstand - bot die Grafik, mit der damals gehyp ... äh, geworben wurde. Wieder blöd: Die GF war dafür zu langsam ...


Du kritisiert das nicht zeitliche Vorhanden der Features. Wie aber verkuerzt sich dies, wenn es keine Consumerhardware mit eben diesen gibt?
Wenn kein Hardwarehersteller den Schritt macht, wird sich auch nichts aendern. Und das schlimmste ist, dass die "Faulpelze" immer gelobt werden, nur das notwendigste zu tun und Features erst einzusetzen, wenn diese beneotigt werden. Leider kann aber niemand die Frage beantworten, wann dann der richtige Zeitpunkt fuer dies waere.

tokugawa
2004-08-23, 20:02:39
Jetzt muss ich doch auch mal meinen Senf zum Thema "Integration neuer Technologien und deren Sinn" abgeben.

Vorweg: Natürlich, neue Features braucht das Land der Grafik immer. Allerdings stellt sich dabei die Frage, wer welche davon wann braucht! Wie von tokugawa sehr überzeugend formuliert, haben vorrangig Entwickler einen Nutzen für jede neue Technologie. Sie sind die ersten, die sich die Teile anschauen und auf Praxistauglichkeit hin prüfen. Soweit, so gut. Dummerweise ist das eher nicht die Zielgruppe der IHVs! Diese Unternehmen sind natürlich auf Profit aus - und dieser lässt sich nicht (nur) mit einer Hand voll Entwicklern machen, sondern braucht die Kaufkraft des restlichen Planeten. Mir kann keiner erzählen, dass nVidia und vor allem ATi die Features einbauen, nur damit die Progger ihren Spaß dran haben, weil sie so gerne basteln. Nein, die meiste Kohle wird im OEM- bzw. Mainstream-Bereich gemacht. Dort hocken einerseits die Otto-Normal-PC-Käufer, die einfach das kaufen, was billig ist und ihnen empfohlen wird, und andererseits die Leute, die so denken wie die meisten hier im Forum. Erstere sind die, die einfach kaufen, was dem Geldbeutel am wenigsten schadet, und die sich von der buntesten und reißerischsten Werbung blenden lassen. Diese Leute denken bei "SM3.0" eher an eine neue Abart der unter einigen beliebten Sexspielchen, als an komplexe Techniken, um Spielegrafik schöner zu machen. Aber sie bekommen es von allen Seiten reingedrückt, dass es ja sooo toll ist und man es unbedingt braucht. Marketing rulez.

Und hier beginnt das Problem! Zu Zeiten des erbitterten Kampfes zwischen 3dfx und nVidia waren letztere technologisch im 2. Abschnitt ihres bis dorthin kurzen Lebens stets führend. Man hatte zuerst 2048x2048er-Texturen, 32Bit, 32MB-RAM sowie T&L. Nehmen wir uns also mal den IMHO beliebtesten Vergleich heraus: TNT2 vs. Voodoo3. Beide waren Top-Karten mit Speed im Überfluss. Dennoch hagelte es von allen Seiten her Kritik für die Voodoo3. Gerade Redakteure bestimmter Zeitschriften und Websites sollten sich jetzt angesprochen fühlen! Überall gab es die allseits bekannten Balken, bei denen mal nVidia, mal 3dfx führte. Im Fazit allerdings hörte man vermehrt, dass das 3dfx-Produkt nicht "zukunftstauglich" ist. Die Karten können nur 256x256 Pixel große Texturen und 16Bit in 3D ausgeben und haben nur 16MB VRAM. Ach wirklich? Und wen stört das Mitte 1999? Zum Zeitpunkt des Erscheinens von TNT2 und Voodoo3 gab es bis auf Expendable kein Spiel, das auch nur annähernd von 32Bit profitieren konnte. Und größere Texturen fanden auch erst anno 2000 Verwendung. Zum VRAM: Wo bitte sind die 16MB zu wenig? 2048x1536x16, also eine utopische Auflösung, die mit den damaligen Karten nur im einstelligen FPS-Bereich darstellbar war, hätte so viel RAM benötigt. Da 32Bit und dicke Texturen kein Thema waren, war die RAM-Menge also völlig ausreichend. Trotzdem kreidete man das 3dfx an, obwohl sie offensichtlich genau wussten, was sie taten.

Was ich eigentlich sagen will: Neue Features sind für Gamer toll, ja ganz schrecklich sinnvoll -- aber (meistens) nicht in der Urversion! Was damals oft für ein Müll in den Reviews stand (siehe oben), ist einfach nicht fair! Meiner Meinung nach sollte man, gerade in einer Info-Position wie HW-Redakteur, in der Gegenwart bleiben und die Stärken und Schwächen der jeweiligen HW zum gegebenen Zeitpunkt aufzeigen. Dann, in einem Nebensatz ohne große Gewichtung, sollte man erwähnen, dass Karte X (hier die V3) eventuell in 5 Jahren nicht mehr alle Effekte darstellen und das Spiel so mit maximalen Details zeigen kann. Denn - und das ist der Punkt - das kann Karte Y (=> TNT2) ebenfalls nicht! Man bekommt lediglich eine ultra-schicke Diashow zu sehen. Optisch hui, aber praxisfremd.
So war es doch auch bei T&L. Die GeForce256 führte es mein, aber erst UT2003 - also schlappe 4 Jahre Zeitabstand - bot die Grafik, mit der damals gehyp ... äh, geworben wurde. Wieder blöd: Die GF war dafür zu langsam ...

Übrigens wiederholte sich das Spiel ähnlich zu GeForce2 vs. Voodoo5-Zeiten: Das verdammt gutaussehende RGSAA der Voodoos wurde mal eben am Rande erwähnt, obwohl es damals im hier und jetzt jedes Spiel optisch deutlich aufwerten konnte. Das interessierte aber keine Sau (siehe weiter oben). Man schaute lieber auf die GeForce, die hatte ja T&L ... :bonk:

Danke für Aufmerksamkeit.

MfG,
Raff

Das stimmt schon, aber du vergißt die Verbindung zwischen Entwicklern und Endspielern, was ich eigentlich herausarbeiten wollte.

Für den Spieler bringt's nix in der Erstgeneration, aber für den Entwickler (in der Forschung erstmal), der das dann mal in Machbarkeitsdemos implementiert, oder neue Dinge entwickelt, die dadurch erst möglich sind, aber auf der aktuellen Erstgenerationsfeature-Hardware zu langsam wäre, wenn man es in einem Spiel verwenden würde (wie Stencil Shadow Volumes damals). Dennoch müssen solche Techniken erstmal erfunden werden.

Erst dadurch ist der Weg offen zu Spielen. Sonst sieht man sie nie in Spielen, denn dass Spieleprogrammierer ohne die zugehörige Echtzeitgrafikforschung in der Wissenschaft relativ... sagen wir mal "primitiv" dastehen würde, sieht man an einigen frühen Engines (etwa die Jedi Knight 1 engine, die hat irgendwelche Schnitzer mit vertex lighting gehabt, die aus Augen von Computergrafik-Forschern sehr schlecht ausgesehen haben).

NVIDIA bringt ja Chips "für alle Bereiche" raus. Sicher, sie machen ihren Hype und ihren Gewinn mit Spielern. Und die NVIDIA PR Abteilung ist so ziemlich das schrecklichste Werbe-Blabla, das ich kenne.

Aber das widerspricht trotzdem nicht meinen Argumenten. Entwickler und Forscher benutzen heutzutage trotzdem eben gerade wegen der "Praxisnähe" handelsübliche "Consumerhardware" statt Profi-Chips/Karten (die sind eher nur für die Content-Creation interessant, nicht so sehr für heutige Echtzeitgrafik- und VR-forschung).

Neue Features sind für Gamer vielleicht nicht so toll in der Urversion, aber die Urversion ermöglicht es, dass Gamer sie bald auf Refreshes oder Nachfolgern genießen können.

Die Urversion wird hauptsächlich von Entwicklern und Forschung verwendet. Das ist nötig, denn sonst würden ebendiese Features nie ihren Weg in Spiele finden.

Generell darf man also beide Seiten (Gamer und Entwickler/Forscher) nicht voneinander getrennt sehen. Man darf ein Feature, das neu ist, nicht deswegen bashen nur weil es noch nicht in Spielen benutzt wird oder nur weil es in Spielen, die das Feature nutzen, zu langsam wäre. Ohne diese Urversion-Features würde es nämlich erst gar nicht irgendwann passende Spiele oder verbesserte Hardware mit diesem Feature geben. Irgendwo und irgendwann muß man beginnen.

Natürlich ist ein Bash gegen eher auf Gamer ausgelegte Hardware wie damals die Voodoo3 oder eben jetzt die X800 nur aufgrund dieser fehlenden Features auch nicht gut. Aber zumindest der Begriff "Technologiebremse", den halte ich für angemessen. In meinen Augen schmarotzen eben diese Gamer-optimierten Karten daran, was andere vor Jahren als Pioniere eingeführt haben, damals noch in nicht spieletauglicher (aber forschungstauglicher) Performance.

Nur heutzutage scheint es mir eher so zu sein, dass nur Balken zählen. Nur Speed zählt. Aber ob ein Chip jetzt technologisch fortschrittlich ist, und durch die reine Existenz (und durch deren Benutzung durch Forscher) in Bälde den Durchbruch dieses oder jenen Features bewirkt (in meinen Augen relativ direkt), wird heutzutage eher gebasht, wenn dieser Chip um die 5-10% langsamer ist als die Gamer-optimierte Hardware. Und genau das ist auch nicht richtig.

Raff
2004-08-23, 20:02:46
Dann formuliere ich es mal so:

Es ist toll, wenn ein IHV (ein Vertipper und schon wird daraus ein tödlicher Virus :| ;)) neue Features implementiert, keine Frage. Wie schon ein paar Seiten vorher erwähnt, forciert dies den Hauptkonkurrenten, mindestens gleichzuziehen. Dennoch ist es meiner Meinung nach (Stefan sieht das offensichtlich genauso) völlig schwachsinnig, den Hersteller ohne Feature X niederzumachen, da besagtes Feature zu Lebzeiten der Konkurrenzkarte nicht genutzt wird. Man sollte IMHO es als für Spieler zu diesem Zeitpunkt irrelevante Tatsache darstellen. Die Krone des Technologieführers inbegriffen -- dennoch, ohne Nutzen für den Gamer in dieser Zeit. Erst der Nach-(Nach)folger wird das vorher eingeführte Feature schnell genug in den bis dahin erschienenen Spielen nutzen können -- und die Konkurrenz hat es mittlerweile auch, wahrscheinlich mit einem weiteren Feature, mit dem dann genauso verfahren wird.

€dit:

Huch, garnicht gesehen. :)
Im Großen und Ganzen stimmen wir doch mit unseren Ansichten überein.

Zusammengefasst: Neue Features machen Sinn, damit sie in Zukunft breitflächig eingesetzt werden können. Dennoch macht es keinen Sinn, den zu dem Zeitpunkt technologisch hinterher hinkenden IHV dafür zu bestrafen.

MfG,
Raff

tokugawa
2004-08-23, 20:10:19
Dann formuliere ich es mal so:

Es ist toll, wenn ein IHV (ein Vertipper und schon wird daraus ein tödlicher Virus :| ;)) neue Features implementiert, keine Frage. Wie schon ein paar Seiten vorher erwähnt, forciert dies den Hauptkonkurrenten, mindestens gleichzuziehen. Dennoch ist es meiner Meinung nach (Stefan sieht das offensichtlich genauso) völlig schwachsinnig, den Hersteller ohne Feature X niederzumachen, da besagtes Feature zu Lebzeiten der Konkurrenzkarte nicht genutzt wird.


Stimmt, Bashen sollte man nicht (das Wort "Technologiebremse" sehe ich sachlich, und nicht als Bashing :D).

Aber das umgekehrte, Bashing wegen neuer Features, ist genauso "populär" (Stefan Payne machte dies ja). Das sollte genauso wenig sein.


Man sollte IMHO es als für Spieler zu diesem Zeitpunkt irrelevante Tatsache darstellen. Die Krone des Technologieführers inbegriffen -- dennoch, ohne Nutzen für den Gamer in dieser Zeit. Erst der Nach-(Nach)folger wird das vorher eingeführte Feature schnell genug in den bis dahin erschienenen Spielen nutzen können -- und die Konkurrenz hat es mittlerweile auch, wahrscheinlich mit einem weiteren Feature, mit dem dann genauso verfahren wird.


Darüber läßt sich diskutieren. Ist es wirklich irrelevant für den Spieler, wenn durch ein neues Feature die Forscher an Techniken und Algorithmen arbeiten, die direkt dem Spieler dann in Zukunft nützen? Techniken, die ohne diese Features eher nicht entstehen würden?

Es _nützt_ indirekt dem Spieler, nur nicht direkt in der Form, dass man als Spieler davon profitiert, wenn man die Karte mit neuem Feature X kauft.

Es nützt dem Spieler über den Umweg, dass dadurch mehr neue Techniken möglich sind, neue Techniken erfunden werden, und diese, sobald sie existieren (wofür das reine Vorhandensein nötig ist), dann eben existieren, und in naher Zukunft dann sowohl in Spielen vorhanden sein werden als auch Hardware mit Feature X weiter verbreitet und in diesem Feature X auch schnell genug sind.

So irrelevant würde ich das nicht nennen!

Was mir wichtig war, war eben dieses "größere Bild" (bigger Picture) darzustellen. Denn ein Feature X, was für den Spieler nicht direkt nützlich ist (durch Kauf der Hardware mit Feature X), nützt ihm trotzdem indirekt, kann also nicht komplett irrelevant sein.

StefanV
2004-08-23, 20:11:36
Aber das umgekehrte, Bashing wegen neuer Features, ist genauso "populär" (Stefan Payne machte dies ja). Das sollte genauso wenig sein.

Lass mal die Kirche im Dorf und zeig mir, wo ich das gemacht hab!!

Raff
2004-08-23, 20:14:50
Dem will ich garnicht widersprechen, denn genauso meinte ich es auch. Das "irrelevant" war anders gemeint.:Das neue Feature ist anfangs, in der Urversion, kein Kaufgrund für die Karte, die es beherrscht, also irrelevant. Dass die Technologie in der Karte ist, bringt einem Spieler zum Zeitpunkt des Kaufes der Karte mit der Urversion eines bestimmten Features nichts.

So, jetzt aber. :)

MfG,
Raff

tokugawa
2004-08-23, 20:15:06
Lass mal die Kirche im Dorf und zeig mir, wo ich das gemacht hab!!

Du hast HW T&L bei der GeForce 256 als unnötig gebasht. Ich habe argumentiert, warum es trotzdem schon in der GeForce 256 eine gute Sache war (auch wenn zugegebenermaßen es dem Spieler zu der Zeit nicht so viel gebracht hat, wie es der Hype glauben lassen wollte)

Ähnlich gibt's ja heutzutage auch das SM 3.0 Bashing, so auf "kein Spiel nutzt es, und die Spiele die es tun, werden auf der NV40 zu langsam sein!". Meine Argumentation zeigt, dass dies eine etwas limitierte Sichtweise ist.

tokugawa
2004-08-23, 20:16:50
Dem will ich garnicht widersprechen, denn genauso meinte ich es auch. Das "irrelevant" war anders gemeint.:Das neue Feature ist anfangs, in der Urversion, kein Kaufgrund für die Karte, die es beherrscht, also irrelevant. Dass die Technologie in der Karte ist, bringt einem Spieler zum Zeitpunkt des Kaufes der Karte mit der Urversion eines bestimmten Features nichts.

So, jetzt aber. :)

MfG,
Raff

Yep, dem kann ich jetzt voll zustimmen :D

Ich finde, wir als technisch versiertere Menschen sollten eben genau zwei Tendenzen entgegenwirken:

- Hype eines Features, das dem Spieler beim Kauf der Karte noch nichts oder wenig bringt

- Anti-Hype eines Features, und Bashing jeglichen Fortschritts, nur weil diese Karte dafür dann um 5-10% hinterherhinkt (Speed ist nicht alles, selbst für Spieler auf indirekte Weise nicht).

StefanV
2004-08-23, 20:18:14
Du hast HW T&L bei der GeForce 256 als unnötig gebasht. Ich habe argumentiert, warum es trotzdem schon in der GeForce 256 eine gute Sache war (auch wenn zugegebenermaßen es dem Spieler zu der Zeit nicht so viel gebracht hat, wie es der Hype glauben lassen wollte)

Ja, und??
Wenn ich mich nicht irre, dann hab ich auch noch irgendwo ein D3D in klammern gesetzt, oder?

Und ja, TnL auf der GF256 ist unnötig, unter anderem weil die TnL Einheit zu lahm ist, ganz zu schweigen vom damaligen nutzen...

Als der Verkauf der GF256 in Schwung kam (mit DDR-SGRAM), da gabs schon CPUs, die schnell genug waren, um TnL schneller zu erledigen als die GF256...

Demirug
2004-08-23, 20:20:51
Zusammengefasst: Neue Features machen Sinn, damit sie in Zukunft breitflächig eingesetzt werden können. Dennoch macht es keinen Sinn, den zu dem Zeitpunkt technologisch hinterher hinkenden IHV dafür zu bestrafen.

MfG,
Raff

Im Prinzip richtig. Allerdings möchte ich dabei noch zwei Dinge zu bedenken geben.

1. Es ist sehr schwer vorherzusagen wie lange es dauert bis Feature X wirklich von einem Spiel genutzt wird.
2. Ein Reviewer steht vor dem Problem das wenn er einen Empfehlung aussprechen will/muss nicht sicher weiss wie lange der Käufer die Karte behalten wird.

tokugawa
2004-08-23, 20:21:41
Ja, und??
Wenn ich mich nicht irre, dann hab ich auch noch irgendwo ein D3D in klammern gesetzt, oder?

Und ja, TnL auf der GF256 ist unnötig, unter anderem weil die TnL Einheit zu lahm ist, ganz zu schweigen vom damaligen nutzen...

Als der Verkauf der GF256 in Schwung kam (mit DDR-SGRAM), da gabs schon CPUs, die schnell genug waren, um TnL schneller zu erledigen als die GF256...

Nochmal mein Argumentationsweg: in der Forschung hat dieses TnL direkt etwas gebracht (gut, war OpenGL). Dadurch waren unter "Laborbedingungen" (also wie ich gesagt habe, in Nicht-Spielsituationen) neue Techniken möglich.

In Spielsituationen war dieses Feature zu langsam, ja.

Aber versteh bitte endlich meinen Hauptpunkt: nur weil es in Spielen nicht viel gebracht hat, sondern nur in der Forschung, heißt das nicht, dass es für Spieler irrelevant war! Denn erst durch das Vorhandensein im GeForce 256 wurden einige Dinge möglich, die erst auf den schnelleren T&L Einheiten der zukünftigen Chips dann auch in der Spielepraxis möglich waren (statt nur in Demos).

Insofern war es nicht nutzlos auf der GeForce 256. Es hat dem Spieler wenig bis nichts gebracht, wenn er/sie die Karte gekauft hat. Aber das bedeutet eben nicht, dass es irrelevant war. Es hat dem Spieler trotzdem genutzt, wenn auch nicht über den direkten Weg des Kaufes.

Klar?

EDIT: Ach ja, und bei TnL kann man sagen, hätte sie die GF 256 nicht gehabt, dann hätte sie irgendein anderer Chip später gehabt. Und ich bin mir sicher, dass dann die TnL-Einheit dieses "anderen Chips" auch nicht schneller gewesen wäre. Der Unterschied wäre nur gewesen, dass die gesamte TnL Entwicklung sich verschoben hätte nach hinten. Insofern war es auch wichtig, dass die GF256 HW TnL hatte. Mir persönlich lieber wäre noch früher gewesen (HW TnL war ja keine wirklich neue Sache eigentlich).

Quasar
2004-08-23, 20:27:53
Als der Verkauf der GF256 in Schwung kam (mit DDR-SGRAM), da gabs schon CPUs, die schnell genug waren, um TnL schneller zu erledigen als die GF256...

Welche wären das bitte (gern auch Zeitrahmen) und welche TnL-Aufgaben konnten diese schneller erledigen?

Darf ich darüber hinaus noch an meine Frage von vor ein paar Seiten erinnern?

robbitop
2004-08-23, 20:28:12
@Raff
was ist mit dem R300?
Dessen SM2 konnte sogar zu Lebzeiten (sogar sehr gut) genutzt werden.
Somit kann man nie vorraussagen: Feature X ist irrelevant.
Hätte man sich zur R300 Zeit eine SM1.x Karte (mit R300 Speed[gabs nicht..aber mal eine fiktive])geholt, wäre sie heut veraltet und man müsste eine Neue kaufen.

LovesuckZ
2004-08-23, 20:29:20
Dennoch ist es meiner Meinung nach (Stefan sieht das offensichtlich genauso) völlig schwachsinnig, den Hersteller ohne Feature X niederzumachen, da besagtes Feature zu Lebzeiten der Konkurrenzkarte nicht genutzt wird.

Daher auch an dich die Frage, wann Features sinn machen, unterstuetzt zu werden?
Deiner Meinung nach würde man keine neuen Features benoetigen, da sie zu "Lebzeiten [...] nicht genutzt [werden]".
Errinnert mich an die Diskussion bezueglich der Evolution in der Biologie, wo einige meinen, Tiere wuerden von einem hoheren Wesen erschaffen. Das Heißt, sie waeren ploetzlich da.

Raff
2004-08-23, 20:36:44
Daher auch an dich die Frage, wann Features sinn machen, unterstuetzt zu werden?
Deiner Meinung nach würde man keine neuen Features benoetigen, da sie zu "Lebzeiten [...] nicht genutzt [werden]".
Errinnert mich an die Diskussion bezueglich der Evolution in der Biologie, wo einige meinen, Tiere wuerden von einem hoheren Wesen erschaffen. Das Heißt, sie waeren ploetzlich da.

Nein, so habe ich das nicht gemeint. Ich wollte in meinen Postings zum Ausdruck bringen, dass ich auf jeden Fall für neue Features bin. Ganz einfach, weil sie im Laufe der Zeit die gesamte Grafikwelt verbessern. Die Einschränkung, die ich mache, besteht darin, dass man sich IMHO keine Grafikkarte mit einem noch nie in der Form dagewesenen Feature holen soll -- vorausgesetzt das Feature ist nicht dafür ausgelegt, im Hier und Jetzt zu wirken. Natürlich kann man sowas kaufen, aber dann sollte man sich darüber im Klaren sein, dass man mit dieser Karte noch nichts von den neuen Funktionen haben wird. Bringt eine Karte etwas wie Pixel-Shading (Gruß an die GeForce3), dann ist das etwas völlig neues, das nicht schnell in Spiele implementiert wird. Der Sprung von 1.1/1.3 auf 2.0 war lange nicht so groß, daher auch die schnellere Verbreitung (dies war auch Robbi gewidmet :)).

Verständlich? :)

MfG,
Raff

StefanV
2004-08-23, 20:37:40
Welche wären das bitte (gern auch Zeitrahmen) und welche TnL-Aufgaben konnten diese schneller erledigen?

Darf ich darüber hinaus noch an meine Frage von vor ein paar Seiten erinnern?
1. Athlon
2. nö, warum auch.

aths
2004-08-23, 20:38:35
Ja, und??
Wenn ich mich nicht irre, dann hab ich auch noch irgendwo ein D3D in klammern gesetzt, oder?

Und ja, TnL auf der GF256 ist unnötig, unter anderem weil die TnL Einheit zu lahm ist, ganz zu schweigen vom damaligen nutzen...

Als der Verkauf der GF256 in Schwung kam (mit DDR-SGRAM), da gabs schon CPUs, die schnell genug waren, um TnL schneller zu erledigen als die GF256...... wobei CPUs auch noch anderes zu erledigen haben. Für Spiele bringt die T&L-Einheit der GF256 mit SDRAM keine Beschleunigung, sofern man 32-Bit-Rendering mag (da einfach die Bandbreite limitiert, und nicht mehr die CPU.) In der Forschung und Entwicklung rendert man öfters Gouraud-geshadete Objekte (ohne Texturen), hier bringt T&L (bei statischen Objekten) durchaus was. Da NV10 auch für den professionellen OpenGL-Markt gedacht war, wäre es sinnlos gewesen, T&L für die Consumer-Versionen abzuschalten.

Persönlich halte ich nicht viel von T&L à la DX7, doch ohne diese T&L kein Vertexshader in der GF3. Es bestand für den Spieler kein Grund, wegen T&L zur GF256 zu greifen, aber ohne HW keine Spiele.

StefanV
2004-08-23, 20:39:53
@Raff
was ist mit dem R300?
Dessen SM2 konnte sogar zu Lebzeiten (sogar sehr gut) genutzt werden.
Somit kann man nie vorraussagen: Feature X ist irrelevant.
Hätte man sich zur R300 Zeit eine SM1.x Karte (mit R300 Speed[gabs nicht..aber mal eine fiktive])geholt, wäre sie heut veraltet und man müsste eine Neue kaufen.
Die R300 ist doch ein perfektes Beispiel =)

Bei erscheinen war sie nur eine gute DX8 Karte, die vorhandenen Features konnten erst etwa ein halbes Jahr später genutzt werden....

Die R300 war also bei erscheinen nur eine Karte mit PS1.4 und VS1.1 :rolleyes:

Man hat sich damals auch keine R300 gekauft, weil sie unglaublich fortschrittlich ist, sondern weil sie a) unglaublich schnell ist b) unglaublich gutes FSAA bot und c) das auch nutzbar war.

robbitop
2004-08-23, 20:40:30
Die NV10 hatte eine Geometrieleistung von 20Mio Vert/sek. Das ist schon recht ordentlich. CPUs haben in aktuellen Spielen schon genug zu tun, als wenn sie noch Licht und Schattenberechnung erledigen könnten.
Und bei damaligen CPUs erst recht. Vieleicht limitiert ein NV10 bei heutigen CPUs, bei damaligen jedoch eher nicht.

Ailuros
2004-08-23, 20:41:20
Ich hab den Thread zwar nicht mitvervolgt, aber ich kann schon herausfuehlen um was es geht in den letzten zwei Seiten.

Die Mehrzahl dachte/denkt sich dass eine T&L Einheit absolut nutzlos ist in nicht T&L optimierten Applikationen und dass die Einheiten einfach nur bloed herumhocken in der Vergangenheit.

Die Andeutung oben ist schon viel zu viel gesagt, aber ich denke so manche koennen daraus die Antwort selber ohne weitere Hilfe entziffern.

Quasar
2004-08-23, 20:42:54
Als der Verkauf der GF256 in Schwung kam (mit DDR-SGRAM), da gabs schon CPUs, die schnell genug waren, um TnL schneller zu erledigen als die GF256...

Welche wären das bitte (gern auch Zeitrahmen) und welche TnL-Aufgaben konnten diese schneller erledigen?

1. Athlon64


Ist das dein Ernst? Ein Athlon64 als CPU, die zu der Zeit verkauft wurde, als der Verkauf der GeForceDDR in Schwung kam???


edit:
Ich sehe grade, du hast's mittlerweile geändert. =)
Darf ich dann fragen, welche Taktfrequenz dieser Athlon gehabt haben soll und was genau er schneller berechnen konnte, als eine GF256?
BTW, nicht gerade eine feine Art von dir, erst groß herumzutönen und dann auf eine diesbezügliche Nachfrage mit einem "Nö, warum auch?" zu reagieren - Diskussion ist etwas anderes.

StefanV
2004-08-23, 20:43:48
... wobei CPUs auch noch anderes zu erledigen haben. Für Spiele bringt die T&L-Einheit der GF256 mit SDRAM keine Beschleunigung, sofern man 32-Bit-Rendering mag (da einfach die Bandbreite limitiert, und nicht mehr die CPU.) In der Forschung und Entwicklung rendert man öfters Gouraud-geshadete Objekte (ohne Texturen), hier bringt T&L (bei statischen Objekten) durchaus was.
Richtig, in Forschung/Entwicklung und CAD/CAM/CAE/Schießmichtot war TnL durchaus sinnvoll, nur gehts hier eher um TnL aus Sicht eines Spielers und das war damals eigentlich recht witzlos...

Sicher gabs damals noch nicht so schnelle CPUs, nur hats sich das damals in rasender Geschwindigkeit geändert (Gigahertz Rennen ahoi)...

aths
2004-08-23, 20:44:19
Die NV10 hatte eine Geometrieleistung von 20Mio Vert/sek.Eckpunkte, nicht Vertices. Imo auch deutlich unter 20 Mio beim NV10. Allerdings konnte das schon aufgrund des Bandbreiten-Engpasses nicht ausgenutzt werden.

StefanV
2004-08-23, 20:45:10
Ist das dein Ernst? Ein Athlon64 als CPU, die zu der Zeit verkauft wurde, als der Verkauf der GeForceDDR in Schwung kam???
Lies nochmal :P

Ailuros
2004-08-23, 20:45:48
Richtig, in Forschung/Entwicklung und CAD/CAM/CAE/Schießmichtot war TnL durchaus sinnvoll, nur gehts hier eher um TnL aus Sicht eines Spielers und das war damals eigentlich recht witzlos...

Sicher gabs damals noch nicht so schnelle CPUs, nur hats sich das damals in rasender Geschwindigkeit geändert (Gigahertz Rennen ahoi)...

*hust*sichaufdenRueckenklopf*hust*

Exxtreme
2004-08-23, 20:45:54
Danke für Aufmerksamkeit.

MfG,
Raff
Sehe ich auch so. Die Reviewer haben irgendwie angefangen die Whitepapers abzuschreiben und diese als Tatsachen hinzustellen. Und Nvidia hat damals schöne whitepapers geschrieben. :D Ich kann mich auch noch an die Fazits erinnern, daß "bald" Spiele erscheinen werden, die man ohne T&L vergessen kann. :D Das 3dfx'sche Antialiasing wurde als "nett" betitelt obwohl es sofort und ohne Softwareanpassung die BQ sichtbar verbesserte. Naja, wie die Geschichte ausgegangen ist, wissen wir ja. Und nein, ich möchte Nvidias Leistungen hier nicht schmälern. Und ja, auf den T&L-Hype bin ich auch reingefallen. ;(

seahawk
2004-08-23, 20:46:43
Also für den User, der nicht dauern neue Karten kauft lohnt sich die neue Technik schon.

Mein TNT2 Ultra hat bis Anfang 2002 gehalten. Danach wurde sie von einer kurz von einer GeForce 2MX abgelöst, da ein nSpiel (irgendwin B-17 Simulator von Microprose T&L verlangte). Die MX wurde dann bald von einer GeForce 4 abgelöst, die wiederrum Anfang 2003 von einer Radeon 9700pro angelöst wurde. Diese wird wahrscheinlich bis Ende 2004 halten und dann von einer GeForce 6800 GT/Ultra abgelöst. Die sollte dann wieder bus Mitte 2005 locker reichen.

Quasar
2004-08-23, 20:47:05
Lies nochmal :P

Ja, habe ich. Du hast diesen BS also noch schnell gelöscht... ;D

StefanV
2004-08-23, 20:50:02
Ja, habe ich. Du hast diesen BS also noch schnell gelöscht... ;D
Jop, wobei mich bisher nur 2 CPUs wirklich umgehauen haben:

Athlon500 und Athlon 64 3000+, in letzter Zeit hab ich natürlich eher mit letzterem zu tun...

Quasar
2004-08-23, 20:51:16
Und welcher Athlon, der zur Hoch-Zeit der GeForceDDR verkauft wurde, war nun deiner Meinung nach nun in der Lage, welche Arten von TnL-Berechnungen schneller durchzuführen, als eine GF256?

aths
2004-08-23, 20:52:25
Richtig, in Forschung/Entwicklung und CAD/CAM/CAE/Schießmichtot war TnL durchaus sinnvoll, nur gehts hier eher um TnL aus Sicht eines Spielers und das war damals eigentlich recht witzlos...Eingebaut wurde es primär wegen der Quadro. Natürlich wurde es dann auch für Spieler vermarktet – und NV hatte einfach Glück, dass alle tierisch drauf abgefahren sind.
Sicher gabs damals noch nicht so schnelle CPUs, nur hats sich das damals in rasender Geschwindigkeit geändert (Gigahertz Rennen ahoi)... Als NV10 entwickelt wurde, war noch nicht abzusehen, dass AMD eine ernsthafte Konkurrenz zu Intel kam, und mit dem Athlon eine sehr Gleitkomma-rechenstarke CPU erschwinglich wurde. Mit der Entwicklung des NV10 stand imo folgendes schon fest:

- NV15 wird deutlich höher takten (womit T&L sinniger wird, vor allem falls L genutzt würde)

- NV20 wird eine tatsächlich programmierbare T&L-Einheit bekommen.

Der T&L-Hype bei der GF256 war sicherlich völlig überzogen. Doch im großen Bild betrachtet – jede erste Implementierung hat ihre Schwächen. Beispielsweise nützt der GF2 MX die T&L-Einheit recht wenig. Immerhin wird DX7-HWT&L direkt unterstützt. Werden Entwickler dadurch ermutigt, nützt das späteren Käufern z. B. von NV20 oder NV25.

StefanV
2004-08-23, 20:52:46
Und welcher Athlon, der zur Hoch-Zeit der GeForceDDR verkauft wurde, war nun deiner Meinung nach nun in der Lage, welche Arten von TnL-Berechnungen schneller durchzuführen, als eine GF256?
Nehmen wir mal die Goldene MItte -> Athlon 650 sollte reichen, um das T der GF256 in Spielen ähnlich schnell zu berechnen, L kam ja eigentlich selten bis garnicht vor, n garnicht...

tokugawa
2004-08-23, 20:52:54
Die R300 ist doch ein perfektes Beispiel =)

Bei erscheinen war sie nur eine gute DX8 Karte, die vorhandenen Features konnten erst etwa ein halbes Jahr später genutzt werden....

Die R300 war also bei erscheinen nur eine Karte mit PS1.4 und VS1.1 :rolleyes:

Man hat sich damals auch keine R300 gekauft, weil sie unglaublich fortschrittlich ist, sondern weil sie a) unglaublich schnell ist b) unglaublich gutes FSAA bot und c) das auch nutzbar war.

Kann man dasselbe nicht auch für die GeForce 256 damals sagen?

seahawk
2004-08-23, 20:55:05
Richtig, in Forschung/Entwicklung und CAD/CAM/CAE/Schießmichtot war TnL durchaus sinnvoll, nur gehts hier eher um TnL aus Sicht eines Spielers und das war damals eigentlich recht witzlos...

Sicher gabs damals noch nicht so schnelle CPUs, nur hats sich das damals in rasender Geschwindigkeit geändert (Gigahertz Rennen ahoi)...

Also verlagert man den Entwicklungsdruck auf die CPU ?? Oder anders gesagt, um die Geschwindigkeit einer Grafikkarte mit neuen Features und eines, zu dem Zeitpunkt der breiten Anwendung dieser Features verfügbaren, Prozessors zu erreichen, bräuchte man einen stärkeren Prozessor. Also ständen diese Features auch erst später in dieser Geschwindigkeit zur Verfügung. - oder nicht.

tokugawa
2004-08-23, 20:55:18
Eckpunkte, nicht Vertices. Imo auch deutlich unter 20 Mio beim NV10. Allerdings konnte das schon aufgrund des Bandbreiten-Engpasses nicht ausgenutzt werden.

Was ist jetzt der Unterschied zwischen Ecktpunkt und Vertex?

Oder mußte bei einem Triangle Strip etwa jeder Eckpunkt (und damit einige Vertizes doppelt und dreifach) transformiert werden?

EDIT: das bezweifle ich allerdings, Triangle Strips werden normalerweise ja als der schnellste Primitive Type gesehen.

aths
2004-08-23, 20:55:50
Sehe ich auch so. Die Reviewer haben irgendwie angefangen die Whitepapers abzuschreiben und diese als Tatsachen hinzustellen.Genau. Jeder wollte nach außen technisch versiert wirken und schluckte ohne Reflektion das Gesabbel aus NVs Marketing-Abteilung.
Und Nvidia hat damals schöne whitepapers geschrieben. :D Ich kann mich auch noch an die Fazits erinnern, daß "bald" Spiele erscheinen werden, die man ohne T&L vergessen kann. :DEiner der ganz wenigen die durchsahen war bekanntlich ram, der aufschlüsselte, wie T&L die Bandbreitenlast erhöht, und warum (damals aktuelle) Karten trotz (noch so toller T&L-Leistung) mit HW T&L in der Praxis nur wenig profitieren können.

Quasar
2004-08-23, 20:56:42
Nehmen wir mal die Goldene MItte -> Athlon 650 sollte reichen, um das T der GF256 in Spielen ähnlich schnell zu berechnen, L kam ja eigentlich selten bis garnicht vor, n garnicht...

Wie praktisch *bookmark*, einen Athlon600 habe ich noch, passendes Board und RAM ebenfalls und per BIOS sind 110MHz FSB drin.
Eine GF256 ist natürlich auch noch vorhanden. ;)

Hoffentlich finde ich demnächst mal ein wenig Zeit....

aths
2004-08-23, 20:57:59
Was ist jetzt der Unterschied zwischen Ecktpunkt und Vertex?Sorry für meinen bescheuerten Einwand. Nach einem anstrengenden Tag sollte ich mich aus solchen Diskussionen fern halten :schleich: Ich übersetzte innerlich Vertice mit Triangle, was natürlich nicht stimmt; NV warb damals mit Triangles/s, obwohl die Zahl sich auf (theoretische) Vertices/s bezog.

robbitop
2004-08-23, 20:58:05
Nehmen wir mal die Goldene MItte -> Athlon 650 sollte reichen, um das T der GF256 in Spielen ähnlich schnell zu berechnen
Beleg??

tokugawa
2004-08-23, 20:58:19
Nehmen wir mal die Goldene MItte -> Athlon 650 sollte reichen, um das T der GF256 in Spielen ähnlich schnell zu berechnen, L kam ja eigentlich selten bis garnicht vor, n garnicht...


n = 'n' = and?

Du meinst also dass Transformationen UND Lighting nie gleichzeitig vorkommen?

Das halte ich doch eher für ein Gerücht.

Ailuros
2004-08-23, 20:59:57
Man kann sich drehen oder wenden wie man will, aber die komplette GF2-Linie (von oben bis unten) war um ein gesundes Stueck schneller als konkurrierende 3dfx-Produkte damals und natuerlich ueberhaupt in allem OpenGL.

Ich hab zwar weiter oben nicht das damit gemeint aber das von 3dfx damals betitelte "software-FSAA" (OGSS) der GF2-Linie, wurde teilweise durch die T&L Einheit realisiert, deshalb war 3dfx's Behauptung damals auch Bloedsinn.

Von dem abgesehen der gesamte VSA-100 Plan war absolut ein Verzweiflungszug fuer mich damals und heute (und ich weiss auch noch genau wie sehr ich damals gemeckert habe). Die nie veroeffentlichte geplante Antwort auf eine GF2 Ultra, war ein 4-chip Monstrum dass 600$ haette kosten sollen, einen externen Power-connector brauchte und dazu sich auch noch rundum lahmer als das erste haette bewiesen (ausser natuerlich uralten Glide Applikationen, was aber nun wirklich kein Punkt mehr fuer diese Zeit war).

3dfx warb damals vor Veroeffentlichung (ja offiziell) dass man mit FSAA durchaus die 60fps Grenze haette erreichen koennen. Nur machte natuerlich kein Mensch klar dass man damit nur post-filtered 16bpp und nur 2xRGSS meinte. Rampage haette schon seit 2000 erscheinen sollen (da der originale R1 wohl doch zu lahm war).

3dfx war nach dem Avenger (was auch nur quasi eine Notloesung war) praktisch schon nahe am Ende ihrer Kraefte von vielen Sichtpunkten angesehen. Und es spiegelte sich auch in ihren Produkten wieder. Keine fortschrittlichen Tools, ungenuegend Inginieure (siehe GP Aufkauf mit den 40+ Inginieuren) usw usw.

Viele liebe Gruesse an Herrn Ballard und seine fetten Hosentaschen :P

tokugawa
2004-08-23, 21:00:50
Der T&L-Hype bei der GF256 war sicherlich völlig überzogen. Doch im großen Bild betrachtet – jede erste Implementierung hat ihre Schwächen. Beispielsweise nützt der GF2 MX die T&L-Einheit recht wenig. Immerhin wird DX7-HWT&L direkt unterstützt. Werden Entwickler dadurch ermutigt, nützt das späteren Käufern z. B. von NV20 oder NV25.

Ganz genau. Hype ist leider ein Zeichen unserer Zeit.

Aber man sollte trotzdem nicht die Tatsache schmälern, dass ein Feature erst mal da sein muß, bevor man es verbessern kann. Und dass Erstgenerationsfeatures immer Schnitzer drin haben (hat ja das SM3.0/CineFX3 der NV40 ja auch).

Aber trotzdem bringt es auch dem Gamer was (nämlich dass Spiele und Hardware vorangetrieben werden), nur halt nicht direkt durch den Kauf.

StefanV
2004-08-23, 21:01:17
n = 'n' = and?

Du meinst also dass Transformationen UND Lighting nie gleichzeitig vorkommen?

Das halte ich doch eher für ein Gerücht.


Den Spruch:

"Was ist tiefer, Teller ODER Tasse?"

Kennst du sicher, oder? ;)

Ailuros
2004-08-23, 21:03:55
Uebrigens der Geschichte zu Liebe: Napalm haette eine T&L unit anfangs haben sollen. Es wurde eine dritte Firma fuer die Entwicklung dieser beauftragt, aber das Resultat war komplett nutzlos und haette nur den Preis der boards erhoeht.

Quasar
2004-08-23, 21:06:39
Sorry für meinen bescheuerten Einwand. Nach einem anstrengenden Tag sollte ich mich aus solchen Diskussionen fern halten :schleich: Ich übersetzte innerlich Vertice mit Triangle, was natürlich nicht stimmt; NV warb damals mit Triangles/s, obwohl die Zahl sich auf (theoretische) Vertices/s bezog.
Dann zieh' zwei von der beworbenen Zahl ab. ;)

"Konstruierter Best-Case" läßt grüßen.

Raff
2004-08-23, 21:07:57
[...]
Von dem abgesehen der gesamte VSA-100 Plan war absolut ein Verzweiflungszug fuer mich damals und heute (und ich weiss auch noch genau wie sehr ich damals gemeckert habe). Die nie veroeffentlichte geplante Antwort auf eine GF2 Ultra, war ein 4-chip Monstrum dass 600$ haette kosten sollen, einen externen Power-connector brauchte und dazu sich auch noch rundum lahmer als das erste haette bewiesen (ausser natuerlich uralten Glide Applikationen, was aber nun wirklich kein Punkt mehr fuer diese Zeit war).
[...]

Wieder sowas (siehe oben). ;)
Was juckt es einen Enthusiasten, dass die Karte viel Saft schluckt? Hauptsache schnell. Jemand, der das Monster gekauft hätte, schert sich nicht um seine Stromrechnung. 2 Jahre später wurde das übrigens zum Standard und kein Mensch regt sich jetzt drüber auf. :|

Dass die Karte wirklich so aussieht, dass jemand verzweifelt versucht, seine "langsamen" Chips hintereinander zu schalten um mitzukommen, stimmt allerdings. Nichtsdestotrotz ist diese Karte Kult. :D

MfG,
Raff

tokugawa
2004-08-23, 21:10:26
Den Spruch:

"Was ist tiefer, Teller ODER Tasse?"

Kennst du sicher, oder? ;)

Nö. In Österreich gibt's den anscheinend nicht. Also bitte erklären :)

StefanV
2004-08-23, 21:12:02
Nö. In Österreich gibt's den anscheinend nicht. Also bitte erklären :)
Na, die Oder ist tiefer ;)

Demirug
2004-08-23, 21:15:41
Einer der ganz wenigen die durchsahen war bekanntlich ram, der aufschlüsselte, wie T&L die Bandbreitenlast erhöht, und warum (damals aktuelle) Karten trotz (noch so toller T&L-Leistung) mit HW T&L in der Praxis nur wenig profitieren können.

Leider ist der Artikel nicht mehr vorhanden so das ich die Beweissführung nicht mehr nachlesen kann.

Der Grund warum HW T&L damals kaum was gebracht hat ist allerdings primär eine andere Ursache.

1. Der L Anteil wurde kaum genutzt wobei man damit die überschüssige Rechenleistung aber gut hätte verheizen können.

2. HT&L steigert nicht die Anzahl der pro Sekunde darstellbaren Objekte sondern lediglich die darstellbare Anzahl der Polys pro Objekt. Bei den für Low-Poly ausgelegten Objekten wurden die HT&L Einheiten gar nicht mit genügend Daten versorgt.

Blacksoul
2004-08-23, 21:26:27
Noch ne interessante .pdf welche heute aber nicht mehr so ganz aktuell ist und alles entspricht auch nicht mehr den tatsachen:

http://www.voodooalert.de/files/downs/specs/rampage.pdf

Sage war definitiv schon A0. Ich hab mich da ein wenig "Informiert".
Diese Herren müssen es ja wissen ;)

Kann noch jemand anders was mit der "neuen" Speicheranordnung anfangen?
Wirklich zufriedenstellend waren die Antworten nicht wirklich und näher ist auch keine drauf eingegangen :(

edit:
btw war VSA-100 ja auch nur ein aufgebohrter Voodoo3 Chip, denn selbst dieser war SLI-Fähig (was Quantum 3D schon gezeigt hat).

t.blacksoul.d


ps:
Vieleicht merkt man es ja, aber ich selbst bin/war begeistert von 3dfx
(auch, wenn meine Signatur es nicht so zeigt *g).
Das ist auch mal so btw meine erste Diskussion wo ich mal so mehr oder weniger aktiv bin. Sonst habe ich nicht genug Plan oder der Stoff gibt keine Motivation. Kann hier doch mal richtig schön sein. :)

Demirug
2004-08-23, 21:54:24
Noch ne interessante .pdf welche heute aber nicht mehr so ganz aktuell ist und alles entspricht auch nicht mehr den tatsachen:

http://www.voodooalert.de/files/downs/specs/rampage.pdf

Ja, da ist immer noch das lange Zeit im Umlauf befindliche Gerücht drin das der Rampage trilinear in einem Takt könnte.

IVN
2004-08-23, 22:11:35
@Demirug

I know this is OT,but when is DirectX Tweaker going to be finished?
And is it going to be similar to NVPerfHud(in some way)?
Is it possible to analyse the bottlenecks in an aplication??

Gast
2004-08-23, 22:31:45
Die NV10 hatte eine Geometrieleistung von 20Mio Vert/sek. Das ist schon recht ordentlich. CPUs haben in aktuellen Spielen schon genug zu tun, als wenn sie noch Licht und Schattenberechnung erledigen könnten.
Und bei damaligen CPUs erst recht. Vieleicht limitiert ein NV10 bei heutigen CPUs, bei damaligen jedoch eher nicht.


Richtig. Als die GF Ende 1999 erschien waren die CPUS mal so bei 600-700MHz angelangt. Keine Cance, da in TL leistungsmässig gegen die GF was auszurichten. Zumal CPUs ohnehin zu schade sind, um für sowas missbraucht zu werden.;)

Gast
2004-08-23, 22:34:20
Eckpunkte, nicht Vertices. Imo auch deutlich unter 20 Mio beim NV10. Allerdings konnte das schon aufgrund des Bandbreiten-Engpasses nicht ausgenutzt werden.


Ich glaube 15Mio Vert./s hat NV angegeben.

Demirug
2004-08-23, 22:41:55
@Demirug

I know this is OT,but when is DirectX Tweaker going to be finished?
And is it going to be similar to NVPerfHud(in some way)?
Is it possible to analyse the bottlenecks in an aplication??

You have a PM.

aths
2004-08-23, 22:43:55
Ich glaube 15Mio Vert./s hat NV angegeben.Das käme ganz gut hin (14-15 Mio.)
Richtig. Als die GF Ende 1999 erschien waren die CPUS mal so bei 600-700MHz angelangt. Keine Cance, da in TL leistungsmässig gegen die GF was auszurichten. Zumal CPUs ohnehin zu schade sind, um für sowas missbraucht zu werden.;)Richtig. Andererseits ist starres T&L nur bei starrer Geometrie eine echte CPU-Entlastung. So ein Drawcall kostet viele CPU-Takte, mit T&L kann man (wie Demirug schon schrieb) höchstens einzelne Objekte höher auflösen.

Allerdings sind kleine Dreiecke ineffizienter zu rendern, somit wird auch der Pixelteil stärker belastet. So richtig sinnig war T&L imo erst mit der GF3, weil der Vertexshader auf vernünftigem Level programmierbar ist, und die GF3 effizient genug mit der Bandbreite umgeht, dass die Karte mit der neuen Geometrielast (und daraus resultierendem ineffizienterem Rendering) nicht gleich überfordert wird. GF4 Ti hatte dann den Dual-VS, was schöne T&L-Power brachte. Schritt für Schritt wird das Feature immer "sinniger" gemacht.

DasToem
2004-08-23, 22:44:04
Wieder sowas (siehe oben). ;)
Was juckt es einen Enthusiasten, dass die Karte viel Saft schluckt? Hauptsache schnell. Jemand, der das Monster gekauft hätte, schert sich nicht um seine Stromrechnung. 2 Jahre später wurde das übrigens zum Standard und kein Mensch regt sich jetzt drüber auf. :|



Ailuros redet von dem extern an die Grafikkarte anzuschließenden Netzteil. Eine zusätzliche Stromversorgung per Molexstecker hatte die 5500 schon.

IVN
2004-08-23, 22:49:02
@Demirug


Thx for your info.It looks like a nice tool.
Keep up the good work.

StefanV
2004-08-23, 22:58:58
Ailuros redet von dem extern an die Grafikkarte anzuschließenden Netzteil. Eine zusätzliche Stromversorgung per Molexstecker hatte die 5500 schon.
Ja, weil die Netzteile damals nicht wirklich pralle waren.

Ein 300W NT hatte damals etwa 135W Combined Power (HEC-300GR), heutige 300W NTs haben 180-220W Combined Power...

Heutzutage wäre ein 120W Heizofen kein Problem, wie man ja am Beispiel des Presskopps sieht...

Blacksoul
2004-08-23, 23:01:22
Ailuros redet von dem extern an die Grafikkarte anzuschließenden Netzteil. Eine zusätzliche Stromversorgung per Molexstecker hatte die 5500 schon.

Lag daran das die NTs damals nicht so zu gebrauchen waren?
Ich meine das die Voodoo 5 6000 auch "nur" 60W zieht.

Die heutigen Boards haben auch alle eine interne Versorgung über einen Stecker.

http://www.voodooalert.de/graphics/galerie/voodoo56k/full/v56k_8.jpg
(das schwarz/gelbe Kabel)


t.blacksoul.d

Ailuros
2004-08-24, 02:25:18
Wieder sowas (siehe oben). ;)
Was juckt es einen Enthusiasten, dass die Karte viel Saft schluckt? Hauptsache schnell. Jemand, der das Monster gekauft hätte, schert sich nicht um seine Stromrechnung. 2 Jahre später wurde das übrigens zum Standard und kein Mensch regt sich jetzt drüber auf. :|

Ein doppelter so hoher Preis (nahmlich 599$ MSRP) wie bei einer V5 5k5, fuer nur doppelt so hohe FSAA Leistung juckte schon.
Und wie schon gesagt wurde die retail-Karten waren mit einem 50W externen Adaptor geplant. Colourless hat z.B. fuer seinen trilinearen Trick eine V5 6k von Quantum3d geschenkt bekommen, die keinen externen Adaptor brauchte. Fuer 600$ war das Feature-set viel zu mittelmaessig und die rohe Leistung liess wohl auch zu Wuenschen uebrig.

Ich weiss gar nicht mehr wie lange die Kerle an dem verdammten Ding herumfuchtelten, weil es das eine Motherboard nach dem anderen verbrannte, bis man den bridge chip ersetzte.

Dass die Karte wirklich so aussieht, dass jemand verzweifelt versucht, seine "langsamen" Chips hintereinander zu schalten um mitzukommen, stimmt allerdings. Nichtsdestotrotz ist diese Karte Kult. :D

MfG,
Raff

Eines der Gruende warum man sie nicht veroeffentlichte waren nicht nur die zu grossen Unkosten, sondern auch dass die Konkurrenz doch schneller war mit einem billigerem single-chip Produkt.
-----------------------------------------------------------------------

Von dem abgesehen was die Mehrheit hier mit Absicht uebersehen will, ist dass man heutzutage vergleichsmaessig viel mehr Spiele mit einer GF2 immer noch spielen kann, was aber eine VSA-100 ausgeruestete Karte nicht zum gleichen Grad schaffen wuerde.

Ich persoenlich glaube auch nicht dass nur IHVs in gewisse Richtungen den Markt treiben. Entwickler und ihre Wuensche spielen da auch eine wichtige Rolle. Es gab Geometrie-Einheiten und Antialiasing schon lange zuvor in anderen Maerkten und es war nur eine Frage der Zeit bis beide ihren Eintritt in den PC-Markt gemacht haetten.

Der originale 3dfx Plan fuer Antialiasing war uebrigens Multisampling seit dem ersten Rampage, wobei der T-buffer ein Nachgedanke auf dem originalen M-buffer basierend fuer VSA-100 war.

Blacksoul
2004-08-24, 03:45:41
Mag ja alles stimmen, aber gebts mal zu:
Sieht das nicht ein wenig "woha" aus?

http://www.3dfx-voodoo.de/pic/Iwellius%20mit%20den%20Kindern.jpg


Ich persönlich hab einen eher "umwerfenden" Eindruck von der Voodoo 5 6000.
Vom 8x FSAA auch ;)
Klingt jetzt nach Fanboygehabe.. mag irgendwo auch stimmen, aber es gibt ja selbst welche, die ihre 5800Ultra vergöttern :)


t.blacksoul.d

ps:

Wer schon immer einma den VSA-200 sehen wollte:
http://www.3dfx-voodoo.de/pic/Kartensammlung15.jpg

Aquaschaf
2004-08-24, 04:14:12
Bei einer Komponente, die man normalerweise nicht sieht ist für mich das Aussehen doch relativ egal ;)

Ailuros
2004-08-24, 05:22:29
Bei einer Komponente, die man normalerweise nicht sieht ist für mich das Aussehen doch relativ egal ;)

Eben.

Vom 8x FSAA auch.

8x Supersampling waere auch heute ein Fuellraten-Killer. Ich hab nen screenshot von Colourless´ V5 6k mit 8xRGSS in 1024*768*32 in DM11/Q3a. Der Framecounter zeigt glaube ich an die 15fps an und dabei zeigt der shot nur einen leeren Gang ;)

Alle folgenden geplanten Generationen (Spectre, Fear, Mojo) waren fuer Multisampling optimiert aus einem Grund.

Eine 6800U liefert heute bis zu 6.4GPixels/s bilinear oder 3.2GPixels/s trilinear. Mit 8x SSAA wuerde die maximale verfuegbare trilineare Fuellrate gleich auf 400MPixels/s purzeln. Quad texturing oder hoeher moechte ich schon gar nicht mehr erwaehnen....nein danke.

seahawk
2004-08-24, 07:37:17
Sehe ich auch so. Man stelle sich heute ein 3 GPU-Board vor. Die Multichiplösungen (über 2 hinaus) waren ein Weg der dauerhaft nicht funktionieren konnte.

Tigerchen
2004-08-24, 15:51:11
Auch gilt die Überlegung aus seiten der Entwickler, wie groß die installierte SM2-unterstützende Basis ist. Dass man SM2 auf FX5200 dann deaktiviert, ist eine nachträgliche Entscheidung. Dass man SM2.0 unterstützt, ist hingegen eine Überlegung, die sehr wohl darauf basiert, dass es dank der FX Serie eine breit installierte SM 2.0 Basis gibt. So Entscheidung wie Profiling und Optimierung je nach Hardware geschieht meist erst, wenn die Engine schon steht. Folglich ist die Entscheidung, dass man eben SM2.0 auf FX 5200 nicht benutzt, eine, die erst nach der Entscheidung, überhaupt SM2.0 einzubauen geschieht.



Hab selten so eine wilde Argumentationskette gesehen. Woher weißt du denn so genau daß die Entscheidung zum Nichteinsatz von SM 2.0 im Nachhinein erfolgte?

Welcher Entwickler setzt denn sowas wie FX5200 ein? Vorher gabs schon R9500. Jedem der danach auch nur 5 Minuten vor der FX5200 saß dürfte klar sein daß SM2.0 auf der FX5200 wohl eher S/M als ein brauchbares Feature darstellt.

aths
2004-08-24, 18:23:57
[COLOR="#000088"]
Hab selten so eine wilde Argumentationskette gesehen. Woher weißt du denn so genau daß die Entscheidung zum Nichteinsatz von SM 2.0 im Nachhinein erfolgte?

Welcher Entwickler setzt denn sowas wie FX5200 ein? Vorher gabs schon R9500. Jedem der danach auch nur 5 Minuten vor der FX5200 saß dürfte klar sein daß SM2.0 auf der FX5200 wohl eher S/M als ein brauchbares Feature darstellt. Dir sind die Unterschiede in den Shader-Features bekannt? Sowie dass selbst die dumme 64-Bit-FX 5200 ca. 100x schneller ist, als der REF?

Ailuros
2004-08-24, 18:28:23
Sehe ich auch so. Man stelle sich heute ein 3 GPU-Board vor. Die Multichiplösungen (über 2 hinaus) waren ein Weg der dauerhaft nicht funktionieren konnte.

Momentan wird ja quasi Skalierung (nach oben oder unten) durch quads geloest. Billig ist das Resultat durch die hohe Komplexitaet der chips nun auch wirklich nicht, aber ein 4 quad single chip board ist theoretisch immer noch billiger als ein hypothetisches dual chip board mit 2 quads pro chip und ist natuerlich auch effizienter da es keine besonderen load balancing Kopfschmerzen gibt.

Nachdem was ich gelesen habe soll ja das load balancing auf den multi-board Loesungen von NV40 sehr gut sein. Selbst da bezweifle ich dass sich die Leistung verdoppelt unter allen Situationen. Im idealen Fall muesste als Beispiel ein dual 6800nonU setup in Analogie zum hoeheren Preis auch schneller sein als eine 6800GT. Momentan (ausser dem PCI-E motherboard) sieht es so aus als ob 2*6800= ~500$ vs GT= ~400$. Ob die erste Loesung wirklich um 100$ schneller ist?

Exxtreme
2004-08-24, 18:37:26
Welcher Entwickler setzt denn sowas wie FX5200 ein? Vorher gabs schon R9500. Jedem der danach auch nur 5 Minuten vor der FX5200 saß dürfte klar sein daß SM2.0 auf der FX5200 wohl eher S/M als ein brauchbares Feature darstellt.

Das Problem ist, daß selbst die popelige GFFX5200 shadermässig mehr kann als der R420. Mit der GFFX-Serie hatte man schon einen kleinen Ausblick auf SM3.0. Der GFFX-Serie fehlt nicht viel für SM3.0-Compliance.

tokugawa
2004-08-26, 01:16:33
Hab selten so eine wilde Argumentationskette gesehen. Woher weißt du denn so genau daß die Entscheidung zum Nichteinsatz von SM 2.0 im Nachhinein erfolgte?


Weil Profiling und Performance-Testing erst dann stattfindet, wenn der Großteil der Engine steht. Also wenn bereits SM 2.0 drin ist. Dann testet man's, man kommt drauf, hoppla, es ist nicht schnell genug auf einer FX 5200, und macht für eine FX 5200 spezielle Einstellungen, damit's dort noch spielbar bleibt. Bei den langen Entwicklungszeiten ist das auch nötig, erst gegen Ende des Projekts auf konkreter Hardware zu profilen und individuelle Einstellungen zu testen.

Siehst, ist gar nicht so wild, die Argumentationskette. Vor allem nicht wenn man ein bisschen was von Software-Engineering und auch Spieleentwicklung/Grafikentwicklung versteht.

Unter Umständen kann man aber selbst auf einer FX 5200 einen seltenen 2.0er Shader, der nicht soo viele Pixel im Bild rendert, laufen lassen.


Welcher Entwickler setzt denn sowas wie FX5200 ein? Vorher gabs schon R9500. Jedem der danach auch nur 5 Minuten vor der FX5200 saß dürfte klar sein daß SM2.0 auf der FX5200 wohl eher S/M als ein brauchbares Feature darstellt.


Ich kenn zwar keinen der eine FX 5200, aber zumindest eine die eine FX 5700 einsetzt zum Entwickeln in OpenGL (ist übrigens eine Frau).

Ich sehe in der FX 5200 eine billige Möglichkeit, deren langsame, aber mächtige Shader zu benutzen.

Bevor ich eine FX 5900 XT hatte, spielte ich schon mit dem Gedanken, in meiner alten ausrangierten Athlon 800 MHz Kiste eine FX 5200 (statt der GeForce2 GTS drin) einzubauen, damit ich 2.0er und 2.Xer Shader entwickeln kann. Und zu dem Zeitpunkt hatte ich bereits eine Radeon 9500 Pro, die Shader-mäßig halt wirklich bei 2.0 aufhört und nicht weiter.

Jetzt hab ich halt in einer Kiste die FX 5900 XT, und in der anderen eine Radeon 9500 Pro. Damit ich auch gegentesten kann, denn grad unter OpenGL scheinen sich beide Karten (bzw deren OpenGL Treiber) sich manchmal komplett anders zu verhalten... (was nicht sein sollte übrigens)

Bei der Shader-Programmierung ist ja Speed übrigens nicht sooo ausschlaggebend. Und für FX Composer oder ähnliche Tools reicht die Leistung einer FX 5200. Für 50 Euro definitiv ihr Geld wert.

Tigerchen
2004-08-26, 15:03:30
Weil Profiling und Performance-Testing erst dann stattfindet, wenn der Großteil der Engine steht. Also wenn bereits SM 2.0 drin ist. Dann testet man's, man kommt drauf, hoppla, es ist nicht schnell genug auf einer FX 5200, und macht für eine FX 5200 spezielle Einstellungen, damit's dort noch spielbar bleibt. Bei den langen Entwicklungszeiten ist das auch nötig, erst gegen Ende des Projekts auf konkreter Hardware zu profilen und individuelle Einstellungen zu testen.

Siehst, ist gar nicht so wild, die Argumentationskette. Vor allem nicht wenn man ein bisschen was von Software-Engineering und auch Spieleentwicklung/Grafikentwicklung versteht.

Unter Umständen kann man aber selbst auf einer FX 5200 einen seltenen 2.0er Shader, der nicht soo viele Pixel im Bild rendert, laufen lassen.


Deine Argumentation beweist haarklein warum die FX5200 gar nicht der Auslöser zur Entwicklung von SM 2.0 Spielen gewesen sein kann. Danke.

Tigerchen
2004-08-26, 15:05:34
Dir sind die Unterschiede in den Shader-Features bekannt? Sowie dass selbst die dumme 64-Bit-FX 5200 ca. 100x schneller ist, als der REF?

Was tut das zur Sache. Ein Trabi ist auch erheblich schneller als ein Ochsenkarren. Trotzdem weiß doch wohl jeder die Geschwidigkeit eines Trabis einzuordnen.

(del)
2004-08-26, 16:41:16
Sorry wenns OT ist,
aber die abstrusen Voodoo-Konstruktionen kommen mir wie die V2-Raketen aus dem Dritten Reich vor. Fast fertiggestellt und doch nur ein Mythos...

Ich persönlich habe eine V2, eine V3 und eine V4 und hätte die Entwicklung gerne weiterverfolgt...

aths
2004-08-26, 17:03:07
Was tut das zur Sache. Ein Trabi ist auch erheblich schneller als ein Ochsenkarren. Trotzdem weiß doch wohl jeder die Geschwidigkeit eines Trabis einzuordnen. Der Vergleich passt nicht. Die 5200 kann leistungsmäßig bei weitem nicht mit einer Radeon 9600 (oder 9700, 9800, ...) mithalten, aber hat viel mehr Shader-Features. Damit sind Dinge (wenn auch nur langsam) berechenbar, die sich auf der Radeon gar nicht mehr hardwarebeschleunigen lassen.

tokugawa
2004-08-26, 17:10:38
Deine Argumentation beweist haarklein warum die FX5200 gar nicht der Auslöser zur Entwicklung von SM 2.0 Spielen gewesen sein kann. Danke.


Bis du Entwickler? Nein? Danke, setzen.

Wie wärst wenn du dich Standard-Logik anwenden würdest, und meinen Beweispfad widerlegen würdest?

Hier nochmal meine Schlußfolgerung:

- Der typische Ablauf bei einem Spieleprojekt beginnt damit, die MAXIMAL-Features der Engine festzulegen. Dabei bedient man sich Analysen der Marktsituation

- Da FX5200 sehr verbreitet ist, nimmt man halt an, "unterstützen wir halt SM 2.0!"

- Dann wird programmiert.

- Monate, sogar JAHRE später: Gegen Ende des Engineprogrammierens wird dann auch Profiling und Optimierung angewandt. Erst hier merkt man, "hoppla, für die FX 5200 ist der SM 2.0 Pfad doch zu langsam" -> es wird getweakt. Mit dem Resultat, dass die FX 5200 eventuell nur einen DX8-Pfad abbekommt.

- Folglich fällt die Entscheidung zu SM2.0 natürlich aufgrund der Marktsituation, die Entscheidung, SM2.0 auf FX5200 nicht zu verwenden, jedoch viel später, da man vorher nicht wissen kann, dass die FX 5200 den SM2.0 Pfad nicht zufriedenstellend schafft.

D.h., die weite Verbreitung der FX 5200 hat sehr wohl beigetragen dazu, dass SM 2.0 schnell verbreitet wurde. Dass die FX 5200 keinen wirklichen Nutzen davon ziehen kann, ist schade, aber irrelevant. Q.E.D.

Bitte, wenn du sagst, dass ich hier falsch liege, dann widerlege es doch bitte. Nicht einfach nur sagen "aha, du liegst falsch", und keine Gegenargumente liefern.

Zu Punkt zwei: dass die FX 5200 für Shader-Entwicklung sehr nett ist, da es dort nicht auf Geschwindigkeit ankommt (und die FX 5200 noch immer 100x schneller ist als der REF), hast du nicht widerlegen können.

tokugawa
2004-08-26, 17:12:06
Was tut das zur Sache. Ein Trabi ist auch erheblich schneller als ein Ochsenkarren. Trotzdem weiß doch wohl jeder die Geschwidigkeit eines Trabis einzuordnen.


Und wie gesagt, hat die Geschwindigkeit nicht sehr viel zu tun damit. Dass es schneller ist als der Ochsenkarren reicht; schneller muß es nicht sein, wenn es billig ist (Entwickler sind nicht immer steinreich).

robbitop
2004-08-26, 19:42:34
Sorry wenns OT ist,
aber die abstrusen Voodoo-Konstruktionen kommen mir wie die V2-Raketen aus dem Dritten Reich vor. Fast fertiggestellt und doch nur ein Mythos...


Mythos?
Die V2 zerstörte große Teile der Londoner Innenstadt.

(del)
2004-08-26, 19:51:26
Ja sorry (ist geschmacklos), aber du weisst worauf ich hinaus will.

Viele der 3dfx-Konstruktionen wirken echt abenteuerlustig, was ich gut finde. Heutige Konstruktionen gehen alle denselben Weg - Null Abwechslung...

tokugawa
2004-08-26, 20:03:31
Ja sorry (ist geschmacklos), aber du weisst worauf ich hinaus will.

Viele der 3dfx-Konstruktionen wirken echt abenteuerlustig, was ich gut finde. Heutige Konstruktionen gehen alle denselben Weg - Null Abwechslung...

Also die FX 5800 Ultra Kühllösung war irgendwie schon abenteuerlich :D

Und hast du schon mal eine dieser neueren 3DLabs Karten gesehen? Ich glaub an Wuchtigkeit sind diese kaum zu übertreffen...

Gast
2004-08-26, 20:12:58
Vom NV4x wird es genau so wieder extrem abgerüstete Versionen geben wie vom NV3x. Auch diese werden SM3 zur schnellen Marktdurchdringung verhelfen und es damit überhaupt erst ermöglichen, dass es in absehbarer Zeit Spiele geben wird, die SM3 nutzen.

Wieso kann niemand zusätzliche Features einfach mal positiv sehen? Es stört doch nicht, wenn man die bei einer value-Karte dazubekommt. Und die Entwicklung schreitet deutlich schneller voran, als wenn neue Features ausschliesslich in den enthusiast-Karten kommen. Zudem kann man dann bei Interesse als Entwickler mit geringem finanziellen Einsatz trotzdem ganz oben auf der Welle des technisch möglichen mitschwimmen. Wie schon mehrmals gesagt: Hardwarebeschleunigung ist praktisch immer deutlich schneller als CPU-Rendering.

Ailuros
2004-08-27, 02:17:03
Viele der 3dfx-Konstruktionen wirken echt abenteuerlustig, was ich gut finde. Heutige Konstruktionen gehen alle denselben Weg - Null Abwechslung...

Ein Geldbeutel wird mehr stoenen in ein paar Monaten mit den NV4x multi-board Loesungen. Derartige Abenteuer sind nicht gerade billig.

Liszca
2004-08-28, 17:11:01
Was war denn am TNT2 jetzt so schlecht? :uconf2:


die 32 bit waren bei der performance unbrauchbar, und "16 bit" sahen auf der voodoo 3 besser aus!

Liszca
2004-08-28, 17:20:47
Tschuldigung, aber wie lang hats gedauert, bis Spiele erschienen sind, die wirklich von TnL profitiert haben?!

2 Jahre??
3 Jahre??
4 Jahre??
5 Jahre??

Selbiges für 32bit...

Sicher, gab es damals schon ein paar Spiele, die 32bit Farbtiefe unterstützt haben, nur sehe ich das nicht wirklich als 32bit Games an, 'echte' 32bit Games gibts auch erst seit ein oder 2 Jahren...


traurig, aber so sit es, wie oft hatte ich nach bildunterschieden bei 32 bit zu 16 bit gesucht?

und so wie das angepriessen wurde hatte ich richtig grosse hoffnung in quake 3 gesetzt, und was muss ich dann mit der gf2 gts in quake 3 sehen?

richtig der himmel sah aus wie duke nukem 3d, bei der voodoo3 war alles perfekt.

es kommt also auf das gesammt bild an nicht auf irgendeine stelle im spiel die mit 32 bit etwas besser aussieht.

Ailuros
2004-08-28, 17:40:53
traurig, aber so sit es, wie oft hatte ich nach bildunterschieden bei 32 bit zu 16 bit gesucht?

und so wie das angepriessen wurde hatte ich richtig grosse hoffnung in quake 3 gesetzt, und was muss ich dann mit der gf2 gts in quake 3 sehen?

richtig der himmel sah aus wie duke nukem 3d, bei der voodoo3 war alles perfekt.

es kommt also auf das gesammt bild an nicht auf irgendeine stelle im spiel die mit 32 bit etwas besser aussieht.

Texturkompression war und ist abstellbar in Q3a. Selbst in diesem Fall mit 512*512 Texturen und 32bpp und wahrem trilinear sah die GTS nicht nur um einiges besser aus als eine V3 sondern war auch um einiges schneller.

Gast
2004-08-29, 12:30:45
Besser oder nicht. Ich persönlich finde es auf jeden Fall schade, dass es 3dfx nicht mehr gibt.
Dass diese Firma nicht so schlecht gewesen sein kann, zeigt die Schaar treuer Anhänger, die auch jetzt noch versuchen, die 3dfx-Fahne hochzuhalten.
Und zu behaupten, dass 3dfx nie etwas wirklich brauchbares hervorgebracht hatte, halte ich für absoluten Schwachsinn. Um diese Behauptung zu untermauern, möchte ich hier nur mal eine kleine Auswahl der Leistungen von 3dfx nennen:

1. Voodoo Graphics
Dieser Chipsatz hatte seinerzeit den gesamten Weltmarkt über Nacht auf den Kopf gestellt. Für den aus heutiger Sicht lächerlichen Preis von 499,- DM bot dieser Chipsatz eine 3D-Power, bei der sich selbst die Grafik-Workstations von SGI nur verstecken konnten (sicher, die sahen besser aus - aber schneller waren sie auf keinen Fall).

2. Voodoo 2
Dieser Chipsatz war schon bei seinem Erscheinen als technologisch veraltet verschrieen. Was aber zu diesem Zeitpunkt keiner wirklich abzuschätzen vermochte war die brutale Rohpower, die diesem Chipsatz innewohnte. Es gab damals keine Desktop-CPU die in der Lage war, diesen Chip an sein Limit zu führen. Geschweige denn 2 davon im SLI.
Sicher: SLI war teuer, aber dennoch war ein Voodoo2-Duo seiner Zeit mehr als doppelt so schnell, wie alle andern Consumer-Karten. Diese Tatsache konnte erst viel später mit dem erscheinen deutlich schnellerer CPU's und bewiesen werden.
Die erste Grafikkarte, die schneller war, war eine Voodoo3 - 3000
btw. 3dfx-SLI es mag zwar teuer sein aber
- es bot eine exakte Verdoppelung der Leistung
- es war die einzige Möglichkeit, um mit der damaligen Speichertechnologie diese Leistung zu erzielen

3. VSA-100
Erster Chip mit echtem FSAA. Das war aus meiner Sicht ein Meilenstein in Richtung höhere Bildqualität. Und vor allen Dingen war dieses Feature sofort verfügbar und sogar noch abwärtskompatibel zu allen älteren Spielen.
Vernünftige (von vielen belächelte) Entscheidung, die Grafikkarte direkt aus dem Netzteil mit Strom zu versorgen - und nicht aus dem AGP-Bus.

Abschliessend noch eine kleine Anmerkung zur Qualität:
Ich habe es mittlerweile echt satt, zu hören, was ein Grafikkarte in der Theorie alles kann. Was mich wirklich interessiert, ist was davon auch praktisch nutzbar ist. 3dfx-Karten konnten (mal abgesehen vom Voodoo Graphics) zwar nie sonderlich viel. Aber das was sie konnten, konnten sie nahezu perfekt.
Im Gegensatz dazu bekomme ich bei den GeForce Karten hier im Haushalt mit jedem neuen Spiel wieder eine Tritt in den Hintern.
Mich persönlich stinkt es nämlich tierisch an, dass ich mir zu jedem Zweiten Spiel, dass ich mir kaufe erst noch nen Grafiktreiber besorgen muss, damit dieses auch richtig läuft!!!

Dann philosophiert mal schön weiter nach dem Motto "Was wäre wenn ..."

Leider werden wir wohl nie erfahren, wozu der letzte 3dfx-Chip wirklich in der Lage war. Die Marketingabteilung von NVIDIA wird schon wissen, warum sie das letzte Werk von 3dfx über all die Jahre totgeschwiegen haben.

Momentan kann ich jedem nur raten, sich ne ATI-Karte zu kaufen. Denn die haben es bisher noch nicht nötig gehabt, so wie NVIDIA mit Schlamm um sich zu werfen, um den Kontrahenten zu diskreditieren.

Ailuros
2004-08-29, 13:20:29
Ich habe es mittlerweile echt satt, zu hören, was ein Grafikkarte in der Theorie alles kann. Was mich wirklich interessiert, ist was davon auch praktisch nutzbar ist. 3dfx-Karten konnten (mal abgesehen vom Voodoo Graphics) zwar nie sonderlich viel. Aber das was sie konnten, konnten sie nahezu perfekt.

Mit den ganzen verbalen Turnereien oben, hast Du wohl vergessen einzusehen dass der Vergleich zwischen einer GTS und einer V3 in Q3a ein Apfel zu Orangen Vergleich ist. Wenn dann bitte schoen GF2 vs VSA-100.

Im gegebenen Fall war eine V3 mit den maximal moeglichen Details der Karte ueber ungefaehr ~45fps in 1024*768*22 faehig und danach war es auch aus. Und es wahr auch nicht so dass es gerade spielbar war. 800*600 dann wohl eher. Dass mit einer GTS zu vergleichen ist von vielen Aspekten Schwachsinn und ja auch weil man verschiedene Farbtiefen, Texturgroessen, Texturfilterung ergo ungleiche Basiswerte miteinander vergleicht.

Ja Voodoos konnten gut mit Glide umgehen, was sonst ist neu?


Im Gegensatz dazu bekomme ich bei den GeForce Karten hier im Haushalt mit jedem neuen Spiel wieder eine Tritt in den Hintern.
Mich persönlich stinkt es nämlich tierisch an, dass ich mir zu jedem Zweiten Spiel, dass ich mir kaufe erst noch nen Grafiktreiber besorgen muss, damit dieses auch richtig läuft!!!

Ach ja die 3dfx-Wundertreiber die nie ein einziges Problem aufzeigten *seufz* Muss eben der Grund sein weil deren Treiber so stark mit bugs vollgepackt waren. Treiber sollte man generell oefters erneuern und nicht auf dem gleichen Treiber ein Jahr lang herum hocken.


Besser oder nicht. Ich persönlich finde es auf jeden Fall schade, dass es 3dfx nicht mehr gibt.
Dass diese Firma nicht so schlecht gewesen sein kann, zeigt die Schaar treuer Anhänger, die auch jetzt noch versuchen, die 3dfx-Fahne hochzuhalten.
Und zu behaupten, dass 3dfx nie etwas wirklich brauchbares hervorgebracht hatte, halte ich für absoluten Schwachsinn. Um diese Behauptung zu untermauern, möchte ich hier nur mal eine kleine Auswahl der Leistungen von 3dfx nennen:

Was fuer eine Fahne und was soll der Quatsch? Als ich und viele andere mit 3dfx eng zusammen arbeiteten, wussten viele dieser angeblichen "Anhaenger" wo's langgeht weil sie einfach noch zu jung waren.

Und die Bezeichnung "Schaar" ist die wildeste Uebertreibung ueberhaupt. Ein paar hoffnungslose Romantiker die sich bis vor einiger Zeit von einer Gruppe von 17-jaehrigen selbsbetitelten HW-engineers an der Nase herumziehen liessen?

Natuerlich war 3dfx ein Pioneer im 3D-Markt und natuerlich war deren Beitrag ansehenswert und wertvoll. Leider ging es aber nach der V2 durch u.a. Ballard's fette Hosentaschen den Berg ab. Wir alle wussten es, die vorigen 3dfx-Kerle wussten es und da Hoffnung als letzte stirbt, starb diese effektiv im Dezember 2000 mit 3dfx. Nicht mehr und nicht weniger.

3. VSA-100
Erster Chip mit echtem FSAA. Das war aus meiner Sicht ein Meilenstein in Richtung höhere Bildqualität. Und vor allen Dingen war dieses Feature sofort verfügbar und sogar noch abwärtskompatibel zu allen älteren Spielen.

Nein. Erster chip auf dem PC Markt mit rotated grid Supersampling Unterstuetzung. Supersampling in ordered grid Form wurde schon von der Neon250 zu V3 Zeiten geliefert und auch von den damals konkurrierenden GeForces, ebenso wie Radeon1. Supersampling ist supersampling, wird durch die Hardware generiert und da gibt es kein echt und falsch. Der sampling Grid ist ein total anderes Bier.

Exxtreme
2004-08-29, 13:47:36
3. VSA-100
Erster Chip mit echtem FSAA. Das war aus meiner Sicht ein Meilenstein in Richtung höhere Bildqualität. Und vor allen Dingen war dieses Feature sofort verfügbar und sogar noch abwärtskompatibel zu allen älteren Spielen.
Vernünftige (von vielen belächelte) Entscheidung, die Grafikkarte direkt aus dem Netzteil mit Strom zu versorgen - und nicht aus dem AGP-Bus.

Echtes FSAA bot auch die Radeon und die GF2. =)

Abschliessend noch eine kleine Anmerkung zur Qualität:
Ich habe es mittlerweile echt satt, zu hören, was ein Grafikkarte in der Theorie alles kann. Was mich wirklich interessiert, ist was davon auch praktisch nutzbar ist. 3dfx-Karten konnten (mal abgesehen vom Voodoo Graphics) zwar nie sonderlich viel. Aber das was sie konnten, konnten sie nahezu perfekt.

Das spielt keine Rolle. Spätestens mit der TNT2 ist Nvidia vorbeigezogen an 3dfx. Sie waren vom Speed her etwa genauso schnell, hatten aber deutlich mehr Features zu bieten. Und Glide hat damals keinen mehr interessiert. Und das letzte Produkt von 3dfx, die Voodoo 5 war halt 2 Generationen hinten dran bezüglich Features. Da ist dann auch noch ATi, damals als Bürokarten-Hersteller verschrieen, auch vorbeigezogen. Die Voodoo 5 konnte nicht viel mehr als die TNT2.

Im Gegensatz dazu bekomme ich bei den GeForce Karten hier im Haushalt mit jedem neuen Spiel wieder eine Tritt in den Hintern.
Mich persönlich stinkt es nämlich tierisch an, dass ich mir zu jedem Zweiten Spiel, dass ich mir kaufe erst noch nen Grafiktreiber besorgen muss, damit dieses auch richtig läuft!!!

Regelmässige Treiberupdates sind immer wieder empfehlenswert. Vor allem wenn die Hersteller noch ältere Produkte pflegen.

Leider werden wir wohl nie erfahren, wozu der letzte 3dfx-Chip wirklich in der Lage war. Die Marketingabteilung von NVIDIA wird schon wissen, warum sie das letzte Werk von 3dfx über all die Jahre totgeschwiegen haben.

Der Rampage hätte voraussichtlich featuremässig nichts gegen den NV20 geschweige denn R200 ausrichten können. PS/VS1.0 war aller Voraussicht nach für 3dfx-Chips reserviert. Da hatte Nvidia schon PS/VS1.1.

Und wäre 3dfx so toll gewesen dann würde es sie immer noch geben.

Momentan kann ich jedem nur raten, sich ne ATI-Karte zu kaufen. Denn die haben es bisher noch nicht nötig gehabt, so wie NVIDIA mit Schlamm um sich zu werfen, um den Kontrahenten zu diskreditieren.

Blubb
~~~~~~~~~~~~~
O

o

<°|||><|


Ich bin gespannt, wer sich da ausgeloggt hat. X-D

Demirug
2004-08-29, 14:03:27
Der Rampage hätte voraussichtlich featuremässig nichts gegen den NV20 geschweige denn R200 ausrichten können. PS/VS1.0 war aller Voraussicht nach für 3dfx-Chips reserviert. Da hatte Nvidia schon PS/VS1.1.

Ja, PS/VS 1.0 war für den Rampage weil 3dfx an der einen oder anderen Stelle gespart hat. Nimmt man aber alles zusammen hätte der Rampage featuretechnisch einen R200 nass gemacht. Wobei er ein Horror für DX Entwickler geworden wäre.

Quasar
2004-08-29, 14:11:13
Welche Art von Features?
Hätte er somit nicht auch einen nV2x genauso nass gemacht?

Xmas
2004-08-29, 14:55:26
Leider werden wir wohl nie erfahren, wozu der letzte 3dfx-Chip wirklich in der Lage war. Die Marketingabteilung von NVIDIA wird schon wissen, warum sie das letzte Werk von 3dfx über all die Jahre totgeschwiegen haben.
Wozu er praktisch in der Lage war, werden wir nicht erfahren ;)

Demirug
2004-08-29, 15:04:21
Welche Art von Features?
Hätte er somit nicht auch einen nV2x genauso nass gemacht?

8 Texture pro Pass bei 16 Rechenoperationen ((a+b)*c+d) und 4 Dependent Read-Levels. Im Bezug auf die Rechenops war er aber im Detail etwas unflexible was dann zu einer 1.0 Version der PS führte.

reunion
2004-08-29, 17:05:43
Wobei er ein Horror für DX Entwickler geworden wäre.

Wieso das?

Demirug
2004-08-29, 17:24:44
Wieso das?

Weil man den Chip um in einigermassen gut zu nutzen auf zwei arten hätte programmieren müssen. Wenn man mehr als 4 Texturen pro Pass benutzten wollte wäre die Multitextur Schnittstelle besser gewesen. Ansonsten aber eher die Pixelshader schnittstelle. Dummerweise hätte man aber bei der Multitextureschnittstelle weitgehend auf die Dependet Read Fähigkeiten verzichten müssen.

In Summe wäre es aber wohl drauf hinausgelaufen das PS 1.0 die Basis geworden wäre und der Chip keinen Vorteil aus seinen 8 Texturen pro Pass ziehen hätte können.

Ailuros
2004-08-30, 07:30:20
Und wäre 3dfx so toll gewesen dann würde es sie immer noch geben.

Haette 3dfx oder jegliche andere Firma die bergab geht ca. 1999 einen David Orton ans Lenkrad gesteckt haette vieles nicht passiert. Soll ich nochmal genau daran erinnern wie genau es bei ATI vor der R300 aussah? Dabei war aber ATI wiederrum eines der groessten OEM-Spieler in der Vergangenheit; das sollte man schon notieren und man schoepft auch viel mehr Geld vom OEM als vom retail Markt ein. Die OEM deals von 3dfx nach dem Avenger waren fast gleich 0.

Die Leitung einer Firma ist hoechstwichtig; schon in 1998 sind viel zu viele damalige 3dfx engineers nach NVIDIA umgewandert. Gigapixel wurde nicht primaer wegen den Patenten gekauft, es gab Verhandlungen zu der Zeit deren IP einfach zu lizenzieren; sie wurde gekauft weil die ~40 engineers absolut notwendig waren fuer die Firma.

Nur war es dann leider schon zu viel zu spaet. Erst beim finalen Rampage (R4) wurden neueste Tools zur Entwicklung benutzt. Bis dahin benutzte man das primitivste Zeug dass man sich nur vorstellen kann. Vor dem VSA-100 hiess es dass Tarolli und sein Mannschaft es schaffen wird in 6 Monaten den M- in den T-buffer umzuwandeln, was aber doch fast ein Jahr am Ende wurde.

Der Rampage hätte voraussichtlich featuremässig nichts gegen den NV20 geschweige denn R200 ausrichten können. PS/VS1.0 war aller Voraussicht nach für 3dfx-Chips reserviert. Da hatte Nvidia schon PS/VS1.1.

Uhmmm 2x/4x RGMS. Zum AF gibts bei R200 und Spectre sowieso nicht viel zu sagen, also lassen wir das lieber mal weg.

Welche Art von Features?
Hätte er somit nicht auch einen nV2x genauso nass gemacht?

Spectre 9600 (dual chip dann wohl schon) aber auch fuer pfiffige 500$.

1.6GPixels/sec bilineare Fuellrate und 12.8GB/sec Bandbreite.

Die Geometrie-einheit (SAGE) sah auf Papier eigentlich ziemlich stark aus, aber ich bezweifle dass sie als getrennte Einheit einen sehr grossen Unterschied gemacht haette.

Mal noch mehr OT: vor ein paar Monaten schickte mir ein Freund ein paar alte Unterlagen von Gigapixel zu, die ich bei bestem Willen auf meinen alten CDs nicht mehr finden konnte. Also der Hype bei denen war ja mehr als nur uebermaessig LOL