Archiv verlassen und diese Seite im Standarddesign anzeigen : 3dfx 22bit und anderes (Split aus: GeForce 6-Reihe: 16 Bit-Qualität ...)
Ailuros
2005-04-10, 15:15:03
Du machst es dir da etwas einfach. Denn jede der Einstellmöglichkeit des 16bit Outputs bringt auf der V5 ein deutlichst besseres Ergebnis als NV 16bit:
Was genau hab ich anderes gesagt :confused:
Von dem abgesehen, 16bit sind 16bit egal ob jetzt post-gefiltert auf 22bit oder intern berechnet auf 32bpp und heruntergerechnet auf 16bpp.
Ich finds nur zum kotzen, dass entweder damals allle Leute mit der Lupe gesucht haben, oder noch schlimmer, einfach Markentinggeschwätz abgeschrieben haben - denn eigentlich hätte es eher nen 22bit Hype als nen 32bit Hype geben müssen.
Gegen das fettgedruckte wehrte ich mich eben schon in meinem vorigen Post, weil es nicht schwer war es vorauszusehen, das sowas doch nocht kommt.
22bit sind nicht 32bpp und darueber sollte es keine weitere Debatte geben. Nicht mal in einem zu stark verdrehtem Marketing-Gelaber. Irgendwo in den alten KYRO whitepapers stand auch damals drin, dass man eigentlich ihr Zeug mit 16bpp und die Konkurrenz mit 32bpp vergleichen sollte. Dass selbst ein solcher Gedanke albern ist, brauch ich nicht zu betonen.
16bpp bzw. 22bit post-filtered Qualitaet auf VSA-100 war zweifellos um einiges besser als die der Konkurrenz (R100/NV1x) damals, aber es war aber auch nur eine Notwendigkeit fuer 3dfx, denn von 32bpp/RGSS in 1024 und in der Mehrzahl der Situationen, haette auch nie die Rede sonst sein koennen.
Mit 22bit/2xRGSS war das Ding zweimal so schnell als mit 32bit/2xRGSS (1024) in Q3a, und selbst da waren mir die ca. 50+fps nicht unbedingt im absolut spielbaren Bereich.
Was genau hab ich anderes gesagt :confused:
22bit sind nicht 32bpp und darueber sollte es keine weitere Debatte geben. Nicht mal in einem zu stark verdrehtem Marketing-Gelaber. Irgendwo in den alten KYRO whitepapers stand auch damals drin, dass man eigentlich ihr Zeug mit 16bpp und die Konkurrenz mit 32bpp vergleichen sollte. Dass selbst ein solcher Gedanke albern ist, brauch ich nicht zu betonen.
vor allem da die kyros bei 32bit eh fast gleich schnell als mit 16bit waren. dafür brachen sie aber mit trilinearer filterung heftig ein ;)
Die Voodoo 22 Bit-Qualität ist in Quake 3 (und nicht nur da natürlich) eindeutig mit der von 32 Bit bei nVidia vergleichbar. Rauch ist zwar nicht ganz so schick, aber eben deutlich schneller.
Aber: War das Thema hier nicht die Änderung der Qualität bei der GeForce6? ;)
MfG,
Raff
Eigentlich gehts ja um 16 bit Rendering, auf S3TC kamen wir ja nur, weil MarcWessels in Q3a auch beim 32bit Rendering Banding entdeckt hat...Über Banding in Q3 hab ich mich schon vor langer Zeit beschwert :)
Mr. Lolman
2005-04-10, 17:11:53
Was genau hab ich anderes gesagt :confused:
Von dem abgesehen, 16bit sind 16bit egal ob jetzt post-gefiltert auf 22bit oder intern berechnet auf 32bpp und heruntergerechnet auf 16bpp.
Stimmt so nicht. Der Screenshot von dem ich den 22bit-sharper Ausschnitt genommen hab, hat ~100000 Farben. Und das geht sich bei 16bit irgendwie nicht ganz aus...
/edit: Seltsam auch, dass der NV-32bit-Shot nur ~37k Farben hat, während es auf der Voodoo5 mit 22bit fast 3x soviel sind...
16bpp bzw. 22bit post-filtered Qualitaet auf VSA-100 war zweifellos um einiges besser als die der Konkurrenz (R100/NV1x) damals, aber es war aber auch nur eine Notwendigkeit fuer 3dfx, denn von 32bpp/RGSS in 1024 und in der Mehrzahl der Situationen, haette auch nie die Rede sonst sein koennen.
1. ist die 16bit Qualität immernoch besser als die der aktuellen Karten
2. Wars keine Notwendigkeit, da der Postfilter (4x1) schon bei der Voodoo1 implementiert war (2x2 dann ab der Banshee), zu einem Zeitpunkt wo die Spielewelt mit 32bit Rendering noch ganirx anfangen konnte
3. war RGSS damals nur ein unglaublich unterschätztes Goodie. Ohne AA war 32bit flott genug.
Mit 22bit/2xRGSS war das Ding zweimal so schnell als mit 32bit/2xRGSS (1024) in Q3a, und selbst da waren mir die ca. 50+fps nicht unbedingt im absolut spielbaren Bereich.
Also läufts darauf hinaus, dass man für Supersampling nur 22bit verwendete, damit die Speed stimmt, was aber qualitativ nur auf den Voodoos ok war. Wenn man auf ner GF2 die horizontalen und vertikalen Kanten vernünftig geglättet haben wollte brauchte man schon 4x(OG)SSAA und an 16bit war bei Q3a auch nicht zu denken, da Dithering statt Aliasing wohl ein schlechter Tausch gewesen wär. Um noch ein bisschen Speed zu erschummeln, forcierte irgendein NV treiber eh die kaputte S3TC Kompression, und schon sind wir bei dem von mir zuletzt geposteten Bild angelangt...
/edit: Außerdem stimmt der Satz im Quote nicht ganz. Der Einbruch beim Wechsel von 16 auf 32bit beträgt auf der V5 idR 20%-25%...
@Raff: Sry4OT...
Mr. Lolman
2005-04-10, 17:42:01
wie ich sehe, hätte ich mein test mit 3 graka und LFS nicht machen sollen. interessiert keinem :rolleyes:
1. ist LFS d3d. Und unter d3d lässt sich der 22bit Postfilter nur schwer einfangen (selbst HypersnapDX macht das nicht zufriedenstellend)
2. sind deine Screenshots so stark komprimiert, dass sich ein 16bit Dithering nur erahnen lässt.
Richtig - welche der Bilder mit streifigem Himmel sind denn mit und welche ohne TC entstanden?
TC war bei allen Q3DM1 Screenshots deaktiviert.
MarcWessels
2005-04-10, 22:10:39
Über Banding in Q3 hab ich mich schon vor langer Zeit beschwert :)
Yup und das hat mit S3TC nichts zu tun.
Irgendetwas spart ATI sich da und der Bandingfehler tritt ja auch in so gut wie jedem OGL-Spiel auf.
Ailuros
2005-04-12, 02:12:25
Stimmt so nicht. Der Screenshot von dem ich den 22bit-sharper Ausschnitt genommen hab, hat ~100000 Farben. Und das geht sich bei 16bit irgendwie nicht ganz aus...
/edit: Seltsam auch, dass der NV-32bit-Shot nur ~37k Farben hat, während es auf der Voodoo5 mit 22bit fast 3x soviel sind...
Sind aber immer noch lange keine 32bpp.
1. ist die 16bit Qualität immernoch besser als die der aktuellen Karten
Aktuelle Karten spielen Q3A mit welcher Geschwindigkeit genau in 32bpp (oder jegliches anderes Spiel). Klingt ~140fps mit 16xAF, trilinear, noTC in 2048*1536*32 nach irgend etwas?
2. Wars keine Notwendigkeit, da der Postfilter (4x1) schon bei der Voodoo1 implementiert war (2x2 dann ab der Banshee), zu einem Zeitpunkt wo die Spielewelt mit 32bit Rendering noch ganirx anfangen konnte.
Ich dachte wir reden ueber VSA-100. Dass man bei damaligen Marketing-Geblubber ueber spielbare FSAA-Raten redete hab ich zumindest nicht uebersehen.
3. war RGSS damals nur ein unglaublich unterschätztes Goodie. Ohne AA war 32bit flott genug.
Nur waren aber konkurrierende Loesungen damals mit 32bpp doch am Ende schneller.
Also läufts darauf hinaus, dass man für Supersampling nur 22bit verwendete, damit die Speed stimmt, was aber qualitativ nur auf den Voodoos ok war. Wenn man auf ner GF2 die horizontalen und vertikalen Kanten vernünftig geglättet haben wollte brauchte man schon 4x(OG)SSAA und an 16bit war bei Q3a auch nicht zu denken, da Dithering statt Aliasing wohl ein schlechter Tausch gewesen wär. Um noch ein bisschen Speed zu erschummeln, forcierte irgendein NV treiber eh die kaputte S3TC Kompression, und schon sind wir bei dem von mir zuletzt geposteten Bild angelangt...
Die S3TC Kompression wahr ein HW-bug der sich leider zu lange ueber verschiedene GPUs trug.
Der Rest ist das selbe uralte Zeug dass ich noch vor 5-6 Jahren lesen konnte. In der Zwischenzeit koennte man wohl aus dem Trance herausschnappen und sich mal zur Abwechslung fragen, warum doch 3dfx am Ende unterging. Mit einem uralten core der staendig eine neue Frisur abbekam, unter Umstaenden auch eine RGSS-Locke dank Tarolli's Zauberstab, hat wohl doch nicht ganz am Ende geholfen.
FPS Spiele wie Q3a waren zu der Zeit sowieso schwer mit FSAA zu benutzen, ausser man benutzte zu niedrige Aufloesungen. Und nein ca. 50fps waren mir selbst damals fuer das Spiel nicht gut genug.
Die erste brauchbare Alternative erschien mit NV20, wo zumindest 2xRGMS + 2xAF um einiges mehr brauchbar war. Haette 3dfx ihr Zeug nicht ueber endlose re-designs verschoben, dann hatte es auch um einiges frueher einen rampage mit Multisampling gegeben.
/edit: Außerdem stimmt der Satz im Quote nicht ganz. Der Einbruch beim Wechsel von 16 auf 32bit beträgt auf der V5 idR 20%-25%...
Von 2x auf 4x RGSS? In welchen CPU-limitierten Applikationen genau?
Mr. Lolman
2005-04-12, 03:11:06
Sind aber immer noch lange keine 32bpp.Hab ich auch nicht behauptet. Ich hab nur geschrieben, dass der 32bit NV Shot nur 37000 Farben besitzt, während der 22bit 3dfx Shot mehr als 100000 Farben aufweist, und dass es anscheinend doch gröbere Unterschiede zw. 16bit und 22bit Postfilter gibt; was du ja abgestritten hast.
Aktuelle Karten spielen Q3A mit welcher Geschwindigkeit genau in 32bpp (oder jegliches anderes Spiel). Klingt ~140fps mit 16xAF, trilinear, noTC in 2048*1536*32 nach irgend etwas?Klingt nach Penixkomplex (;)). Nein im Ernst, ich wollte nicht wissen wie toll schnell aktuelle Karten bei Q3a 32bit sind, sondern wie du zu der Annahme kommst, dass der VSA100 hinsichtlich 16bit nur mit den älteren Karten mithalten konnte...
Ich dachte wir reden ueber VSA-100. Dass man bei damaligen Marketing-Geblubber ueber spielbare FSAA-Raten redete hab ich zumindest nicht uebersehen.Ist ja auch der Fall. 1024x768 2xAA war so gut wie immer drinnen. Klar gerade bei High-fpsspielen wie Q3a hat man sich lange Zeit (imo bis inkl GF4) das AA gespart. Und deswegen nahm man aber auch kein hässliches GF2 AA nur weil das vll. ein paar Prozent schneller war. Genauso wars mit 32bit. Ich hab Q3a auf Voodos nie mit 32bit gespielt. Weils auch nicht notwendig ist. Bei störendem Dithering/Banding versuche ich natürlich diesem mit besseren BQ Settings beizukommen wie zB 32bit im Falle Q3a auf einer ATi/NV Karte.
Außerdem denke ich, du meinstest eher die Voodoo3s als du über 16/22bit abgelästert hast.
Nur waren aber konkurrierende Loesungen damals mit 32bpp doch am Ende schneller.Das streitet keiner ab. Ich hoffe allerdings auch, dass man genausowenig abstreitet, dass auf ATi/NV Karten eher die Notwendigkeit für 32bit bestand, um qualitativ ansprechendes Rendering zu bringen. 3dfx hatte halt den Vorteil, dass deren 22bit kaum langsamer als ihre 16bit war...
Die S3TC Kompression wahr ein HW-bug der sich leider zu lange ueber verschiedene GPUs trug. Schade gelle. Auch schade dass es jedem wurscht war, dass NV damit bewusst in Benchmarks gecheatet hat. Imo der erste wirklich bekannte Benchmarkcheat...
Der Rest ist das selbe uralte Zeug dass ich noch vor 5-6 Jahren lesen konnte. In der Zwischenzeit koennte man wohl aus dem Trance herausschnappen und sich mal zur Abwechslung fragen, warum doch 3dfx am Ende unterging. Mit einem uralten core der staendig eine neue Frisur abbekam, unter Umstaenden auch eine RGSS-Locke dank Tarolli's Zauberstab, hat wohl doch nicht ganz am Ende geholfen.Weil alle featuregeil sind!
Jetzt momentan wieder mit SM3/HDR ,obwohl die breite Spieleunterstützung auch bei der aktuellen GraKageneration wohl wieder mal ausbleiben wird. Ist ja mit fast jedem neu eingeführtem Feature so.
Damals wars nur noch schlimmer weil die meisten "Fach"zeitschriften unreflektiertes Marketingsgelaber druckten, und man noch weniger nachdachte, wann das Spiel vielleicht erscheinen wird, welches jetzt gerade die neuen technologien implementiert bekommt.
Die erste brauchbare Alternative erschien mit NV20, wo zumindest 2xRGMS + 2xAF um einiges mehr brauchbar war.2xAF ;D Das macht die Voodoo5 (und meinetwegen auch ne Radeon 8500) beim 2xAA übers LOD :biggrin:
Haette 3dfx ihr Zeug nicht ueber endlose re-designs verschoben, dann hatte es auch um einiges frueher einen rampage mit Multisampling gegeben.Böses 3dfx ist dafür jetzt tot!
Ich würde ein (min 4x) RGSSAA jedem noch so tollen MSAA vorziehen, aber leider - böses 3dfx ist jetzt tot ;(
Von 2x auf 4x RGSS? In welchen CPU-limitierten Applikationen genau?Häh? Von 16bit auf 32bit! Und das in Q3a, sowohl fastest als auch max BQ, und in Serious Sam auch...
Hab ich auch nicht behauptet. Ich hab nur geschrieben, dass der 32bit NV Shot nur 37000 Farben besitzt, während der 22bit 3dfx Shot mehr als 100000 Farben aufweist, und dass es anscheinend doch gröbere Unterschiede zw. 16bit und 22bit Postfilter gibt; was du ja abgestritten hast.Es gibt auch Unterschiede im 16-Bit-Dithering-Algorithmus ansich. Meiner Meinung nach ist der 3dfx-Algo besser, da er diese komische Blockbildung der GeForce-Karten nicht zeigt.
Klingt nach Penixkomplex (;)). Nein im Ernst, ich wollte nicht wissen wie toll schnell aktuelle Karten bei Q3a 32bit sind, sondern wie du zu der Annahme kommst, dass der VSA100 hinsichtlich 16bit nur mit den älteren Karten mithalten konnte...Ich kann nur für die 4500 sprechen – obwohl 32 Bit doch deutlich besser aussieht als 16 Bit (Ausnahme: Glide-Spiele, hier siehts mit 16 Bit oft besser aus als z. B. in D3D mit 32 Bit) musste ich wegen der Performance oft zum 16-Bit-Modus greifen. Der Postfilter war natürlich immer aktiv, und zwar in der qualitativ höherwertigen 2x2-Version.
Jetzt momentan wieder mit SM3/HDR ,obwohl die breite Spieleunterstützung auch bei der aktuellen GraKageneration wohl wieder mal ausbleiben wird. Ist ja mit fast jedem neu eingeführtem Feature so. Hrm? Es gibt doch schon SM3-Support, und sogar HDR-Rendering.
mapel110
2005-04-12, 04:52:45
Hrm? Es gibt doch schon SM3-Support, und sogar HDR-Rendering.
Er hat gesagt "Breite Spieleunterstützung". :)
Bei aktuellen Toptiteln sieht das anders aus, ja.
Er hat gesagt "Breite Spieleunterstützung". :)
Bei aktuellen Toptiteln sieht das anders aus, ja.Da ists dann das Henne-Ei-Problem.
Für vernünftiges HDR sollte eine Engine und der Content von Anfang an darauf ausgelegt sein. SM3 einzusetzen ist – auf Basis einer SM2-Engine – bekanntlich ein Kinderspiel. Wenn die ISV zu faul sind, ist das nicht die Schuld des IHV.
Wenn ich mir ansehe, was aus 3Dc geworden ist – zu ATIs 3Dc-Marketing wird es übrigens wohl doch noch einen Artikel geben. Einen kritischen.
2xAF ;D Das macht die Voodoo5 (und meinetwegen auch ne Radeon 8500) beim 2xAA übers LOD :biggrin:
Nein, dafür wäre eher 4xAA notwendig.
Ailuros
2005-04-12, 11:26:53
Hab ich auch nicht behauptet. Ich hab nur geschrieben, dass der 32bit NV Shot nur 37000 Farben besitzt, während der 22bit 3dfx Shot mehr als 100000 Farben aufweist, und dass es anscheinend doch gröbere Unterschiede zw. 16bit und 22bit Postfilter gibt; was du ja abgestritten hast.
Abgestritten hab ich es nicht. Wenn ich 16bpp einstelle dann bekomm ich auch 16bpp; 3dfx hatte eine bessere Loesung die zwar qualitativ zwischen dem NVIDIA/ATI 16 und 32bpp output lag, aber an fuer sich kam am Ende doch nie 32bpp am anderen Ende raus.
Klingt nach Penixkomplex (;)). Nein im Ernst, ich wollte nicht wissen wie toll schnell aktuelle Karten bei Q3a 32bit sind, sondern wie du zu der Annahme kommst, dass der VSA100 hinsichtlich 16bit nur mit den älteren Karten mithalten konnte...
Gib mir eher wenigstens einen guten Grund warum man (mit Aussnahme von 16bpp-only Applikationen) weniger als 32bpp benutzen sollte auf =/>NV2x GPUs.
Ist ja auch der Fall. 1024x768 2xAA war so gut wie immer drinnen.
Das "ja aber" hat aber damals auch keiner von 3dfx vor der Vorstellung erwaehnt.
Außerdem denke ich, du meinstest eher die Voodoo3s als du über 16/22bit abgelästert hast.
Eben nicht. Eine 64MB dual core GPU die 32bpp unterstuetzt haette auch theoretisch zumindest spielbares 32bpp/FSAA erlauben koennen. Haetten sie mit Rampage frueher herausruecken koennen dann haette es auch mit dem M-buffer geklappt; sonst kam eben der gleiche oede leicht modifizierte core mit SSAA/T-Buffer zum Vorschein.
Schade gelle. Auch schade dass es jedem wurscht war, dass NV damit bewusst in Benchmarks gecheatet hat. Imo der erste wirklich bekannte Benchmarkcheat...
3dfx war ja die Mutter aller Unschuld durch die Jahre ihrer Existenz. Ich war ja selber zu diesen Zeiten eigentlich ein "3dfx-Advokat" aber blindlings angebetet fuer den Mist den sie gebaut haben hab ich sie auch nie.
Weil alle featuregeil sind!
Jetzt momentan wieder mit SM3/HDR ,obwohl die breite Spieleunterstützung auch bei der aktuellen GraKageneration wohl wieder mal ausbleiben wird. Ist ja mit fast jedem neu eingeführtem Feature so.
Oder anders herum gesehen ein 3dfx dass durch die fehlenden Resources nichts konkurrenz-faehigeres praesentieren konnte. Rampage erfiel 4 fast totalen re-designs und der letzte core der es endlich zu Spectre geschafft haette hatte den Codenamen "R4". Ballard hatte ja das tolle Talent nach der V2 erstmal fast alle OEM-deals zu verballern und dass ein grosser Batzen von seinen besten engineers einfach damals nach NVIDIA umwanderten.
Als man erst zu anstaendigen Tools und den ~45 engineers von Gigapixel endlich kam und der mythische Rampage endlich mal ein tape-out sah, wurde die Firma verkauft.
Emmet Kilgariff war damals bei 3dfx und Rampage was David Kirk fuer NVIDIA schon seit Jahren ist; falls es helfen sollte Emmet war einer der "leading-engineers" fuer NV40 und der sogenannten "Feature-Geilheit".
2xAF ;D Das macht die Voodoo5 (und meinetwegen auch ne Radeon 8500) beim 2xAA übers LOD :biggrin:
Auch auf Xmas' Post folgend: ueber die gesamte Szene? Tip: jeglichen hybriden Modus auf NV40 einschalten und ihn in einem Filterungs-Tester genau anschauen.
Böses 3dfx ist dafür jetzt tot!
Ich würde ein (min 4x) RGSSAA jedem noch so tollen MSAA vorziehen, aber leider - böses 3dfx ist jetzt tot ;(
Tarolli's T-buffer war nie von Anfang an geplant; der T-buffer ist lediglich ein Abschlag aus dem Rampage M-buffer und ja 3dfx plante eigentlich von Anfang an her eher auf Multisampling + AF zu setzen. Verspaetung ueber Verspaetung und man revampte einfach Avenger auf Napalm + T-buffer. Entschuldige wenn ich jetzt nicht in Ohnmacht selbst damals gefallen bin von dem technologischen "Vorsprung".
Häh? Von 16bit auf 32bit! Und das in Q3a, sowohl fastest als auch max BQ, und in Serious Sam auch...
Ich dachte Du meintest von 2x auf 4xRGSS. Wie dem auch sei von ca. 50 fps auf 35-40fps? *gaehn*
Mr. Lolman
2005-04-12, 16:42:47
Abgestritten hab ich es nicht. Wenn ich 16bpp einstelle dann bekomm ich auch 16bpp; 3dfx hatte eine bessere Loesung die zwar qualitativ zwischen dem NVIDIA/ATI 16 und 32bpp output lag, aber an fuer sich kam am Ende doch nie 32bpp am anderen Ende raus.Schon, nur war es praktisch dass es zw. 16 und 32bit was gab, was mit der Geschwindigkeit von 16bit arbeitete (und somit eigentlich immer schneller als 32bit der Konkurrenz) und eine Lösung anbot die qualitativ zw. 16bit und 32bit Rendering einzuordnen ist, welche selbst bei 32bit Killerapps (wies Q3a damals war) ein quasi ditherfreies Bild an den Bildschirm bringt...
Gib mir eher wenigstens einen guten Grund warum man (mit Aussnahme von 16bpp-only Applikationen) weniger als 32bpp benutzen sollte auf =/>NV2x GPUs.Weil auch bei der GF3 der Einbruch zw. 16 und 32bit zw. 10-15% liegt? Andererseits: Wieso sollte man auf 32bit wechseln, wenn 16bit ausreicht?
Das "ja aber" hat aber damals auch keiner von 3dfx vor der Vorstellung erwaehnt.Ja komm. Hat denn irgendein NV Futzi ein "ja aber" erwähnt, als großmundig behauptet wurde, dass die GF3 7x schneller sei als die GF2?
Eben nicht. Eine 64MB dual core GPU die 32bpp unterstuetzt haette auch theoretisch zumindest spielbares 32bpp/FSAA erlauben koennen. Haetten sie mit Rampage frueher herausruecken koennen dann haette es auch mit dem M-buffer geklappt; sonst kam eben der gleiche oede leicht modifizierte core mit SSAA/T-Buffer zum Vorschein.
3dfx war ja die Mutter aller Unschuld durch die Jahre ihrer Existenz. Ich war ja selber zu diesen Zeiten eigentlich ein "3dfx-Advokat" aber blindlings angebetet fuer den Mist den sie gebaut haben hab ich sie auch nie.Also ist die Voodoo5 in deinen Augen Mist? Ich finds nur schade, dass die V5 6k nie großflächig verfügbar war, denn die LFS-S2 Demo rennt auf meiner 5500 PCI mit 1024x768 4xAA mit recht konstanten 20fps..
Oder anders herum gesehen ein 3dfx dass durch die fehlenden Resources nichts konkurrenz-faehigeres praesentieren konnte. Rampage erfiel 4 fast totalen re-designs und der letzte core der es endlich zu Spectre geschafft haette hatte den Codenamen "R4". Ballard hatte ja das tolle Talent nach der V2 erstmal fast alle OEM-deals zu verballern und dass ein grosser Batzen von seinen besten engineers einfach damals nach NVIDIA umwanderten.
Als man erst zu anstaendigen Tools und den ~45 engineers von Gigapixel endlich kam und der mythische Rampage endlich mal ein tape-out sah, wurde die Firma verkauft.Warum wohl? Weil 3dfx kein Bock mehr hatte, oder die Investoren alle absprangen? Das NV zuvor fleissig Patenrechtsverletzungen beging, ist ja auch nur ein Detail am Rande...
Emmet Kilgariff war damals bei 3dfx und Rampage was David Kirk fuer NVIDIA schon seit Jahren ist; falls es helfen sollte Emmet war einer der "leading-engineers" fuer NV40 und der sogenannten "Feature-Geilheit".Die hätten lieber das Overlay vernünftig implementieren sollen. Ein offener Browser mit bestimmten Webinhalten schiesst das Windows total ab, sofern ein Overlay aktiv ist (Bildschirm wird abwechselnd schwarz, System hängt in der Schwarzphase). Aber man kann ja nicht sagen, dass sie sich bemühen, den Schrott zu beheben. Denn vorige Treiber haben in dem Fall immer den Desktop aufgeblasen. Macht aber nix. Ich hab eh die Voodoo5 als 2. Karte drinnen. Die hat das Problem nicht...
Auch auf Xmas' Post folgend: ueber die gesamte Szene? Tip: jeglichen hybriden Modus auf NV40 einschalten und ihn in einem Filterungs-Tester genau anschauen.AA/AF sind ja Features um die BQ aufzubessern, in Form von Schärfung der Texturen bei gleichzeitiger Eliminierung von Bildflimmern. MSAA schafft das technikbedingt ja nur partiell, während AF im Vergleich zu ner simplen LOD Verschiebung die klar bessere BQ bringt. Worauf ich hinauswill: Ich find im Durchschnitt ein Bild mit 2xRGSSAA und LOD -1 insgesamt besser als eins mit 2xMSAA und 2xAF...
Ich hab mir das Ganze auch mit Xmas OpenGL Filtertester angesehen. Mit biAF reicht 3dfx ein LOd von -0.75 um die Mips auf gleicher Höher wie NV mit 2xAF zu haben. Beim Mipmapdithering vs. triAF brauchts ein LOD von -1.25. Im Praxistest (Q3a/Serious Sam) gibts bis inkl. -1.5 beim 3dfx 2xAA kein Geflimmere, wo -1.5 beim 2xAA + MipMapdithering das imo homogenste Bild liefert...
Tarolli's T-buffer war nie von Anfang an geplant; der T-buffer ist lediglich ein Abschlag aus dem Rampage M-buffer und ja 3dfx plante eigentlich von Anfang an her eher auf Multisampling + AF zu setzen. Verspaetung ueber Verspaetung und man revampte einfach Avenger auf Napalm + T-buffer. Entschuldige wenn ich jetzt nicht in Ohnmacht selbst damals gefallen bin von dem technologischen "Vorsprung".Ja bin ich froh, dass sie den eingebaut haben. Der Rampage wär größtenteils nur ein Zugeständnis an die NV/Feature-verrückte Community gewesen. Und technologischer Vorspung beduetet mir ausserdem garnix. Der breite Einsatz dieser Features geschieht meist eh erst eine Generation später. Die Features bezahl ich aber sofort. Ich hab einfach keinen Bock mit neuer Technologie "Pionierarbeit" zu leisten und die Featurespriale noch schneller drehen zu lassen. Das führt nur dazu, dass die Leute die sich das teure Highendmodell kaufen nach ein paar Monaten ärgern, dass ihre ganzen tollen Features in der Nachfolgegeneration viel schneller implementiert wurden, und die Karte zum Alteisen zählt.
Klar kann man heutzutage auf ner GF2GTs im Durchschnitt besser spielen. Jedoch liegt die Voodoo5 mit unoptimierten Treibern selbst bei Maxpayne garnicht mal so weit hinten, und das obwohl Mp1 die 3dfx-Genickbruchengine des 3dmark01 verwendet. Mit ner V5 6k (hätte wohl auch nicht viel mehr als ne Ultra gekostet, dies bei mir in Ö beim Birg um 14000 Schilling gab (~2000 Mark)), hätt ich in so gut wie allen Spielen immernoch nutzbares AA, bei LFS2 auch 4xAA - mit einem 4x4EER auf die Alpahatesttexturen. Das 4x4OGSSAA der NV40 ist zwar auch toll, bringt aber bei HL² ~18fps wo meine V5 5500 PCI selbst auf dem lahmen NForce2 14fps schafft (bei gleichem EER)
Ich vertrete einfach die These, dass die Vorteile (z.B. höhere Rohleistung, schöneres AA, mehr Schnittstellen) der featuremässig unterlegenen Konkurrenz im Normalfall einen größeren Nutzen bieten, wie neue Features, deren großflächige Implementation sich meistens bis zum Erscheinen der Nachfolgegeneration hinzieht
Ich dachte Du meintest von 2x auf 4xRGSS. Wie dem auch sei von ca. 50 fps auf 35-40fps? *gaehn*Oder von 280fps auf 240fps (Q3a fastest). Momentmal, dass sind ja nichteinmal 15% :eek:
Ich find im Durchschnitt ein Bild mit 2xRGSSAA und LOD -1 insgesamt besser als eins mit 2xMSAA und 2xAF...
ich bezweifle dass dir so ein bild gefällt, das ergäbe ein ziemliches geflimmere, je nach texturinhalt. um ein LOD von -1 flimmerfrei verwenden zu können braucht es schon 2x2OGSSAA. RGAA ist für die LOD-verschiebung nicht ideal, da es teilweise zu unterschiedlichen subpixelabständen kommt, dadurch kannst du bei 4xRGSSAA nur etwas weniger als -1 einstellen um flimmerfrei zu bleiben.
Quasar
2005-04-12, 21:20:10
TC war bei allen Q3DM1 Screenshots deaktiviert.
Thx. :)
BTW, schönes 3dfx-Palaver mal wieder. Wie wärs mit einem Sammelthread "Warum 3dfx GOTT ist!" - da kann dann jeder jederzeit alle tollen Dinge die 3dfx gemacht hat (wie z.B. aus 3Dfx 3dfx machen *SCNR*) reinschreiben und alle bösen Dinge, die alle anderen gemacht haben und die Schuld sind, daß es 3Dfx nicht mehr gibt und 3dfx auch nicht. ;)
Will sagen: Es nervt, das über alle möglichen Threads verteilt zu sehen.
Marscel
2005-04-12, 22:08:00
Ich dachte schon, ich schon das sei mal wieder ein Bug speziell meiner Grafikkarte, als ich sah, dass z.B. bei Indiana Jones 6 Indys Hose nicht schwarz-braun, sondern schwarz-grün war.
Bei meiner alten Geforce 2 MX war das nicht der Fall und bei den ATis im Hause auch nicht, zmd. nicht so, dass man es beobachten konnte.
Na immerhin ist das ein Feature, weniger ein Bug.
Ailuros
2005-04-13, 11:47:04
Schon, nur war es praktisch dass es zw. 16 und 32bit was gab, was mit der Geschwindigkeit von 16bit arbeitete (und somit eigentlich immer schneller als 32bit der Konkurrenz) und eine Lösung anbot die qualitativ zw. 16bit und 32bit Rendering einzuordnen ist, welche selbst bei 32bit Killerapps (wies Q3a damals war) ein quasi ditherfreies Bild an den Bildschirm bringt...
Ob post-gefiltered oder nicht, es sind immer noch keine 32bits.
Weil auch bei der GF3 der Einbruch zw. 16 und 32bit zw. 10-15% liegt? Andererseits: Wieso sollte man auf 32bit wechseln, wenn 16bit ausreicht?
Bingo zur ersten Frage; denn seither sind GPUs hauptsaechlich fuer 32bpp optimiert. Die zweite Frage brauch ich wohl nicht beantworten fuer das Jahr 2000 schon.
Ja komm. Hat denn irgendein NV Futzi ein "ja aber" erwähnt, als großmundig behauptet wurde, dass die GF3 7x schneller sei als die GF2?
Virtuellem NVIDIA-Hass und 3dfx-fanboyism konnte ich persoenlich nie folgen. 3dfx war NIE unschuldig weil sie genauso beschissen haben in der Vergangenheit, die Konkurrenz bei jeder Gelegenheit mit zwielichtigen internen Dokumenten niedergemacht haben und sich im guten Ganzen nie anders verhalten haben wie JEGLICHER IHV damals. Dementsprechend solltest Du Dir wohl eher die Rampage relativierten Leistungs-prognosen besser anschauen.
Also ist die Voodoo5 in deinen Augen Mist? Ich finds nur schade, dass die V5 6k nie großflächig verfügbar war, denn die LFS-S2 Demo rennt auf meiner 5500 PCI mit 1024x768 4xAA mit recht konstanten 20fps..
Fuer eine 300$ high end GPU fuer's Jahr 2000, erwartete ich vieles mehr und das auch nicht ungerechtfertigt. Wie sicher bist Du Dir ueberhaupt dass Dir ein Rampage+ Sage fuer 2000 doch nicht besser ausgefallen waere? Der originale Rampage war als V2 Nachfolger geplant; alles andere (Avenger/Napalm) waren nur aufgeraffte Revamps des gleichen oeden core.
V5 6000? 600$ fuer damals war nicht nur verrueckt uebertrieben, aber haette das Ding auch nicht so manches motherboard verbrannt, waere es vielleicht auch zeitig auf den Markt gekommen.
Warum wohl? Weil 3dfx kein Bock mehr hatte, oder die Investoren alle absprangen? Das NV zuvor fleissig Patenrechtsverletzungen beging, ist ja auch nur ein Detail am Rande...
Gut dass Du so gut bescheid ueber solche hintergruendliche Kleinigkeiten weisst. Lack of vision sollte Dir etwas einleuchten.
Die hätten lieber das Overlay vernünftig implementieren sollen. Ein offener Browser mit bestimmten Webinhalten schiesst das Windows total ab, sofern ein Overlay aktiv ist (Bildschirm wird abwechselnd schwarz, System hängt in der Schwarzphase). Aber man kann ja nicht sagen, dass sie sich bemühen, den Schrott zu beheben. Denn vorige Treiber haben in dem Fall immer den Desktop aufgeblasen. Macht aber nix. Ich hab eh die Voodoo5 als 2. Karte drinnen. Die hat das Problem nicht...
Hab mit den bisherigen Treibern nichtsdergleichen bemerken koennen, will aber nicht ausschliessen. Es gibt bugs in allen Treibern und das hat jetzt auch nichts mit dem Thema zu tun. Als der source code der 3dfx Treiber zur Oeffentlichkeit kam, konnte man ja sehen was genau das Gegenteil von Perfektion sein koennte.
AA/AF sind ja Features um die BQ aufzubessern, in Form von Schärfung der Texturen bei gleichzeitiger Eliminierung von Bildflimmern. MSAA schafft das technikbedingt ja nur partiell, während AF im Vergleich zu ner simplen LOD Verschiebung die klar bessere BQ bringt. Worauf ich hinauswill: Ich find im Durchschnitt ein Bild mit 2xRGSSAA und LOD -1 insgesamt besser als eins mit 2xMSAA und 2xAF...
Und nochmal und hoffentlich zum letzten Mal: der M-buffer war die originale Idee von 3dfx fuer PC desktop FSAA. Der T-buffer war ein Nachgedanke und wurde nur dann implementiert als man sah dass Rampage noch eine weitere Generation aussitzen muss. Multisampling sollte man sowieso mit AF kombinieren. Das mit dem -1.0 LOD ist auch nur VSA-100 spezifisch weil 3dfx den LOD generell zu konservativ ansetzte.
Ich hab mir das Ganze auch mit Xmas OpenGL Filtertester angesehen. Mit biAF reicht 3dfx ein LOd von -0.75 um die Mips auf gleicher Höher wie NV mit 2xAF zu haben. Beim Mipmapdithering vs. triAF brauchts ein LOD von -1.25. Im Praxistest (Q3a/Serious Sam) gibts bis inkl. -1.5 beim 3dfx 2xAA kein Geflimmere, wo -1.5 beim 2xAA + MipMapdithering das imo homogenste Bild liefert...
Siehe letzten Satz oben.
Ja bin ich froh, dass sie den eingebaut haben. Der Rampage wär größtenteils nur ein Zugeständnis an die NV/Feature-verrückte Community gewesen. Und technologischer Vorspung beduetet mir ausserdem garnix. Der breite Einsatz dieser Features geschieht meist eh erst eine Generation später.
So schoen kann man es natuerlich auch verdrehen.
1. Rampage war der core mit einigen Features die sich Entwickler wie Carmack damals gewuenscht haetten.
2. Features braucht man eben um OEM deals zu gewinnen.
Die Features bezahl ich aber sofort. Ich hab einfach keinen Bock mit neuer Technologie "Pionierarbeit" zu leisten und die Featurespriale noch schneller drehen zu lassen. Das führt nur dazu, dass die Leute die sich das teure Highendmodell kaufen nach ein paar Monaten ärgern, dass ihre ganzen tollen Features in der Nachfolgegeneration viel schneller implementiert wurden, und die Karte zum Alteisen zählt.
3dfx's GPUs nach V2 waren von Anfang an konstant "Alteisen" und dass eben weil man:
a) Resourcen verschwendet hat fuer SEGA einen V2-basierenden Consolen-core zu entwickeln (eine Console die fuer 5 Jahre halten soll mit 16bpp, 256*256 Texturen und bilinear? also bitte....).
b) Sowieso ohne die dementsprechenden Werkzeugen und mit nur ca. 40 engineers nicht viel anrichten kann.
c) Erlaubt hat dass Direktoren wie Ballard nicht nur konstant Bloedsinn gebaut haben sondern auch ihre eigenen Taschen heftig fuellen konnten.
Klar kann man heutzutage auf ner GF2GTs im Durchschnitt besser spielen. Jedoch liegt die Voodoo5 mit unoptimierten Treibern selbst bei Maxpayne garnicht mal so weit hinten, und das obwohl Mp1 die 3dfx-Genickbruchengine des 3dmark01 verwendet. Mit ner V5 6k (hätte wohl auch nicht viel mehr als ne Ultra gekostet, dies bei mir in Ö beim Birg um 14000 Schilling gab (~2000 Mark)), hätt ich in so gut wie allen Spielen immernoch nutzbares AA, bei LFS2 auch 4xAA - mit einem 4x4EER auf die Alpahatesttexturen. Das 4x4OGSSAA der NV40 ist zwar auch toll, bringt aber bei HL² ~18fps wo meine V5 5500 PCI selbst auf dem lahmen NForce2 14fps schafft (bei gleichem EER)
Sinnlose Antiquitaeten-Anbeterei nenn ich das Zeug. Falls Du unbedingt 4x Supersampling haben willst, dann waere wohl der hybride 16x modus eine bessere Loesung mit einem um einiges hoeheren EER als 4*4. Die Leistungsvergleiche in einem hybriden dx7/9 Spiel zwischen einem dx6.0 und einem dx9.0 core haettest Du Dir auch sparen koennen.
Uebrigens wuerde ich an Deiner Stelle die Texturenqualitaet von 16x sample SSAA und 4x sample SSAA, eher nicht vergleichen.
Ich vertrete einfach die These, dass die Vorteile (z.B. höhere Rohleistung, schöneres AA, mehr Schnittstellen) der featuremässig unterlegenen Konkurrenz im Normalfall einen größeren Nutzen bieten, wie neue Features, deren großflächige Implementation sich meistens bis zum Erscheinen der Nachfolgegeneration hinzieht.
Genau eben deswegen hat 3dfx auch den Zug verpasst und hat sich somit selber ihr eigenes Grabloch ausgebuddelt und das schon seit 1998. Haetten sie Rampage in 1999 vorgestellt, dann waere die Geschichte nicht nur anders verlaufen, sondern wuerden auch so manche mehr ueber MSAA+AF Kombinationen schwaermen, weil es eben vom angebetetem 3dfx praesentiert wurde. In dem Fall waere NVIDIA auch schoen bloed mit der GF2-Linie dagestanden, da die T&L Einheit zwar eine OGSS-Implementation erlaubt hat, aber Leistungs- und EER- maessig haette sie keine Chance gegen 4xRGMS bestehen koennen.
Oder von 280fps auf 240fps (Q3a fastest). Momentmal, dass sind ja nichteinmal 15% :eek:
Fastest? Ich hab schon bessere Witze als das obrige lesen koennen...*aechz*
DrumDub
2005-04-13, 15:10:43
Ja der thread koennte sterben und ich bin auch teilweise daran schuld dass es so weit gekommen ist. Der gleiche ueberkaute Kaugummi wie von der damaligen Devon Philips-Bande :D :|
hehe. vielleicht sollte mr. lolman mal diesen artikel über 3dfx lesen: http://www.firingsquad.com/hardware/3dfxdemise/default.asp
aber der ist wahrscheinlich zu objektiv und taugt nicht zur legendenbildung. ;)
Mr. Lolman
2005-04-13, 16:20:20
Ob post-gefiltered oder nicht, es sind immer noch keine 32bits.Hab ich auch nie behauptet....
Bingo zur ersten Frage; denn seither sind GPUs hauptsaechlich fuer 32bpp optimiert. Die zweite Frage brauch ich wohl nicht beantworten fuer das Jahr 2000 schon.Wär schon nicht schlecht gewesen, schon vorm Jahr 2000 sich mit dieser Frage näher auseinanderzusetzen.
Virtuellem NVIDIA-Hass und 3dfx-fanboyism konnte ich persoenlich nie folgen. 3dfx war NIE unschuldig weil sie genauso beschissen haben in der Vergangenheit, die Konkurrenz bei jeder Gelegenheit mit zwielichtigen internen Dokumenten niedergemacht haben und sich im guten Ganzen nie anders verhalten haben wie JEGLICHER IHV damals. Dementsprechend solltest Du Dir wohl eher die Rampage relativierten Leistungs-prognosen besser anschauen.Sry, aber die arschigen Marketingdokumente von NV (Kyro Paper) konnte ich in der Form noch bei keinem anderem IHV beobachten (auch wenn Ati da in letzter schon ordentlich aufgeholt hat ;))...
Fuer eine 300$ high end GPU fuer's Jahr 2000, erwartete ich vieles mehr und das auch nicht ungerechtfertigt. Wie sicher bist Du Dir ueberhaupt dass Dir ein Rampage+ Sage fuer 2000 doch nicht besser ausgefallen waere? Der originale Rampage war als V2 Nachfolger geplant; alles andere (Avenger/Napalm) waren nur aufgeraffte Revamps des gleichen oeden core.Der Öde Core hat einer GF2 GTS stw. ganz schön zugesetzt...
V5 6000? 600$ fuer damals war nicht nur verrueckt uebertrieben, aber haette das Ding auch nicht so manches motherboard verbrannt, waere es vielleicht auch zeitig auf den Markt gekommen. Die GF2 Ultra hat in Ö über 1000$ gekostet. Aber anscheinend muss man auch die Frechheit wie NV besitzen und abrauchende GraKas einfach auf den Markt werfen, wenn danach verlangt wird (6600GT)
Gut dass Du so gut bescheid ueber solche hintergruendliche Kleinigkeiten weisst. Lack of vision sollte Dir etwas einleuchten. Betrachte mal die Kehrseite. Jedes halbe Jahr ein neuer Chip mit unendlich vielen neuen Features. Irgendwann kackt der Highendkäufer auch seine Wurst drauf, wenn seine featurebepackte HW nach nem halben Jahr out ist. Schade dass dieser "Lack of Vision" in der Analystenwelt einem Genickbruch gleichkommt...
Hab mit den bisherigen Treibern nichtsdergleichen bemerken koennen, will aber nicht ausschliessen. Es gibt bugs in allen Treibern und das hat jetzt auch nichts mit dem Thema zu tun. Als der source code der 3dfx Treiber zur Oeffentlichkeit kam, konnte man ja sehen was genau das Gegenteil von Perfektion sein koennte.Weil du dir die so genau angesehen hast. Ich bitte darum, mir anhand eines praktischen Beispiels zu zeigen wie pfuschig die 3dfx Treiber programmiert sein sollen (Jedenfalls läuft das Teil insgesamt stabiler als meine 6800GT und das trotz 4 Jahre alten, schlecht optimierten Treibern)
Und nochmal und hoffentlich zum letzten Mal: der M-buffer war die originale Idee von 3dfx fuer PC desktop FSAA. Der T-buffer war ein Nachgedanke und wurde nur dann implementiert als man sah dass Rampage noch eine weitere Generation aussitzen muss. Multisampling sollte man sowieso mit AF kombinieren. Das mit dem -1.0 LOD ist auch nur VSA-100 spezifisch weil 3dfx den LOD generell zu konservativ ansetzte. Macht doch nix. Die Idee war nicht schlecht, und besser vermarkten hätte man sie auch können. Ich versteh nur nicht, warum du so auf 3dfx herumhackst. Ihnen fehlten kaum mehr als 10-20% auf die GTS (ok vll. gibts ausnahmen) hatte schönes nutzbares AA, Support für Depth of Field, Motionblur,...
Bezüglich LOD: Deswegen hab ich (beim 2xAA) auch -1.5 drinnen, wo -1.25 (bzw -0.75 beim biAF) sich schon mit 2xAF vergleichen lässt. (falls Interesse besteht post ich Screenshots vom Filtertest)
So schoen kann man es natuerlich auch verdrehen.
1. Rampage war der core mit einigen Features die sich Entwickler wie Carmack damals gewuenscht haetten.
2. Features braucht man eben um OEM deals zu gewinnen.1. Carmack war schon ab der Voodoo² nicht besonders amused darüber, was 3dfx da, unter konsequentem Ignorieren seiner Visionen, fabriziert. Und er liess sich auch nicht lang bitten, als der Oberspieleengineprogger, in div. Statements seinen Unmut über die aktuelle 3dfx Entwicklung zu äußern.
2. Stimmt auch. Leider...
3dfx's GPUs nach V2 waren von Anfang an konstant "Alteisen" und dass eben weil man:
a) Resourcen verschwendet hat fuer SEGA einen V2-basierenden Consolen-core zu entwickeln (eine Console die fuer 5 Jahre halten soll mit 16bpp, 256*256 Texturen und bilinear? also bitte....)Naja, der N64 schlägt sich auch mit 256kB Texturspeicher herum, und trotzdem gibts nette Spiele. Ob bilinear oder nicht war zu Zeiten einer PS1 auch egal. Und Mipmapdithering sieht man am TV sowieso nicht...
b) Sowieso ohne die dementsprechenden Werkzeugen und mit nur ca. 40 engineers nicht viel anrichten kann.Stimmt auch, leider. Blöderweise wird es als unwirtschaftlich betrachtet, das Personal aufzustocken, solang man keine schwarzen Zahlen schreibt. Und die Gunst der potentiellen 3dfx Käufer nahm spätestens mit der Voodoo3 stark ab. (auch wenns schon bei der V² fleissige Redakteure gab, die die Addon Boards in ihren GraKatests eisern ignorierten und der lahmen Konkurrenz die Kaufempfehlung aussprachen)
c) Erlaubt hat dass Direktoren wie Ballard nicht nur konstant Bloedsinn gebaut haben sondern auch ihre eigenen Taschen heftig fuellen konnten.Das find ich das beschissenste überhaupt. Leider geschieht das in jeder Branche. Macht korrumpiert eben. Da war 3dfx auch kein Unschuldslamm, leider...
Sinnlose Antiquitaeten-Anbeterei nenn ich das Zeug. Falls Du unbedingt 4x Supersampling haben willst, dann waere wohl der hybride 16x modus eine bessere Loesung mit einem um einiges hoeheren EER als 4*4. Die Leistungsvergleiche in einem hybriden dx7/9 Spiel zwischen einem dx6.0 und einem dx9.0 core haettest Du Dir auch sparen koennen. Der Hybridmodus hat aber nur ein 2x2EER auf die Alphatesttexturen. Und der Performancevergleich war zugegebenermaßen unfair - aber vll. überprüf ich das nochmal mit gleichen Renderingpfaden :)
Uebrigens wuerde ich an Deiner Stelle die Texturenqualitaet von 16x sample SSAA und 4x sample SSAA, eher nicht vergleichen. Wollt ich auch nicht. Das EER ist idF jedoch trotzdem gleich...
Genau eben deswegen hat 3dfx auch den Zug verpasst und hat sich somit selber ihr eigenes Grabloch ausgebuddelt und das schon seit 1998. Haetten sie Rampage in 1999 vorgestellt, dann waere die Geschichte nicht nur anders verlaufen, sondern wuerden auch so manche mehr ueber MSAA+AF Kombinationen schwaermen, weil es eben vom angebetetem 3dfx praesentiert wurde. In dem Fall waere NVIDIA auch schoen bloed mit der GF2-Linie dagestanden, da die T&L Einheit zwar eine OGSS-Implementation erlaubt hat, aber Leistungs- und EER- maessig haette sie keine Chance gegen 4xRGMS bestehen koennen. Hätte 3dfx damals schon nutzbares 4xRGMSAA+AF anbieten können, hätt ich heut wohl nix für ATi übrig. :) Jedoch ist aufgrund des Festhaltens an Alphatest, und der durch PS- bedingten, oftmals hochfrequenten Texturinhalte, eine MSAA+AF Lösung im Jahre 2005 fast noch suboptimaler als anno 2000. Imo bietet ein (min.) 4xRGSAA immernoch die beste Approximation eines perfekten Bildes...
Fastest? Ich hab schon bessere Witze als das obrige lesen koennen...*aechz*z.B.? Auf ner GF2 hat man als ernsthafter Q3a Spieler das Spiel auch nicht mit HQ gespielt...
BTW: Sry @ alle Anderen, besonders an Raff, dass ich diesen Thread geschreddert hab, aber 3dfx ist für mich immernoch nicht tot => denn die enorm gute Spielbarkeit der neuen LFS S2 Alpha Demo hat mich dazu bewegt (zum Leidwesen so mancher Forenkollages ;(), das imo tw. verschrobene Bild der letzten 3dfx HW erneut etwas zurechtrücken zu versuchen...
Mr. Lolman
2005-04-13, 17:05:37
hehe. vielleicht sollte mr. lolman mal diesen artikel über 3dfx lesen: http://www.firingsquad.com/hardware/3dfxdemise/default.asp
aber der ist wahrscheinlich zu objektiv und taugt nicht zur legendenbildung. ;)
Hab ihn gelesen. Vieles wusste ich, manches hat mich erschüttert, aber er ändert nichts an der Feststellung, dass 3dfx zwar viele Fehler gemacht hat, aber die letzten Boards von der Fachpresse trotzdem größtenteils (nur wegen ihrers Featuremangels?) unterbewertet wurden. Das fing schon damit an, dass man fleissig 32bit Benchmarks mit unspielbaren Framerates fuhr, scheinbar nur um 3dfx eins reinzuwixen und dem Dau zu zeigen, dass bei 3dfx der Balken auf 0 fps steht).
Oder dass man bei Spielen mit Glide/OpenGL/DX Support (bspw Descent 3) 3dfx-Karten nur mit DX/OpenGl testete, die 3dfx Treiber dort blöderweise Probs machten (aber auch nicht bei jedem Reviewer :|) und dass dann Spiele, in denen ne Voodoo3 (in Glide) ne GF256 weggeputzt hätte (bei absolut zufriedenstellender 22bit Qualität, ohne Dithering o.ä. - ich muss das immer wieder dauzschreiben, sry ;)) mit 0fps beim Voodoobalken abgedruckt wurden...
Eine seitens der Reviewer leicht objektivere Herangehensweise (z.B. versuchen die Relevanz der neuen Features am geschätzten Einsatzzeitraum festzumachen) hätte 3dfx wohl auch nicht geschadet. Stattdessen waren viele Features gleichbedeutend mit Zukunftssicherheit, und längst möglicher Einsatzdauer der Karte. In abgeschwächter Form wiederholt sich das Spiel ja jetzt gerade wieder. Beide IHVs haben ungefähr gleich schnelle Karten, der eine glänzt mit vielen Featurs, der andere schnellerer/schönerer AA/AF Implementierung. Nach den Standards von <2000 müssts eigentlich viele Balken mit 0fps für ATi HW bei SM3.0 spielen geben; mir sind jedenfalls bisher keine untergekommen! :|
DrumDub
2005-04-13, 17:40:00
mr. lolman
klar sind die reviewer auch nicht ganz unaschuldig an der situation damals gewesen. ich habe ja selbst nen voodoo graphics ne v2, v3 2000 und ne v5 5500 gehabt, aber dennoch ist es so, dass aus rein wirtschaftlicher sicht 3dfx selbst (bzw. das management) schuld war, dass sie den bach runtergegangen sind. und technologisch hat 3dfx nunmal von der voodoo graphics bis zur v4/v5 nix neues gebracht (abgesehen vom postfilter). daran ändern auch alle featuregeilen reviewer der welt nichts.
ich hab trotzdem aus alter verweigerungshaltung gegenüber nv mir ne x800xl gekauft, obwohl ich auch zur 6800gt hätte greifen können. wobei ich nicht konsequent war, da ich jetzt nen nf4-board hab... so ein mist, ich habe meine idelae verraten. X-D
ich hab trotzdem aus alter verweigerungshaltung gegenüber nv mir ne x800xl gekauft, obwohl ich auch zur 6800gt hätte greifen können. wobei ich nicht konsequent war, da ich jetzt nen nf4-board hab... so ein mist, ich habe meine idelae verraten. X-D
Fanboyismus hat aber nichts mit Idealismus zu tun, nur mal so am Rande.
Mr. Lolman
2005-04-13, 19:30:06
Fanboyismus hat aber nichts mit Idealismus zu tun, nur mal so am Rande.
Ich seh das imo auch eher idealistisch, als verbissen fanboyistisch. 3dfx haben ihre Fehler gemacht, die letztendlich zum Ruin geführt haben. Trotzdem waren die letzten 3dfx Karten nicht schlecht, zu langsam, oder ob ihrer Featuredefizite mit mangelnder Kompatibilität gezeichnet. Vll. hätten sie sich nocheinmal derfangen wär die Akzeptanz bei ihren letzten höher Karten gewesen, und hätten sich die Karten besser verkauft.
Das Managment war scheisse, sie haben sich durch Fehlinvestitionen und Schlampigkeit selbst das Grab geschaufelt, aber hineinbefördert wurden sie letztendlich durch die Kunden/Akionäre/Investoren/Journalisten. Man kann selbst einet marod wirkenden Firma einen gewissen Grad an Vertrauen entgegen bringen, oder man schwenkt um auf die Aktien der Konkurrenz, die ja ne höhere Rendite in Aussicht stellen. Man könnte als Kunde auch versuchen seine Kaufentscheidung ein bisschen genauer zu durchleuchten und div. Dinge zu hinterfragen. Diese Sichtweise wurde, wie von mir schon (mehrmals ;)) erwähnt von den Reviewern nicht unbedingt unterstützt, sei es aus mangelnder Fachkenntis, oder aus einer bewußten Entscheidung heraus.
Mir gehts nur darum, dass 3dfx 1. nicht nur in den Augen vieler, zum Schluss wirtschaftlich gesehen nur mehr Mist gebaut hat, sondern 2. die letzten Karten von ihnen nur mehr, nicht konkurrenzfähiger Schrott waren.
Und genau das stört mich, da an Punkt 2 weniger 3dfx ansich (durch ingeneurtechnische Inkompetenz), als die, ans gemeine Volk vermittelte Sichtweise einiger weniger einflußreicher Leute, daran Schuld ist...
/edit: Kann sein, dass es mir schwerfällt einzugestehen, dass im Falle eines weiteren Bestehen von 3dfx, die Mißwirtschaft nicht aufgehört hätte, und dementsprechend die Ressourcen für weitere Konkurrenzfähigkeit über kurz oder lang ohnehin zu gering gewesen wären. Ob daran der Rampage noch was geändert hätte? wohl eher unwahrscheinlich! ;(
Beide IHVs haben ungefähr gleich schnelle Karten, der eine glänzt mit vielen Featurs, der andere schnellerer/schönerer AA/AF
Implementierung.
da hab ich mich wohl hoffentlich verlesen oder?
Mr. Lolman
2005-04-13, 20:08:59
da hab ich mich wohl hoffentlich verlesen oder?
Das schöner/schneller war ausschliesslich auf AA/AF in Kombination eingesetzt, bezogen* ATis AA/AF implementation ist irgendwie stimmiger*. 8xS (vs. 6xMS) ist bei neuen Spielen in 1280 leider oft zu langsam, und 4xAA (vs 4xAA) schaut auf ner Ati im Durchschnitt etwas schöner aus. Bezügl. AF Qualität gibts momentan soviele unterschiedliche Aussagen, Ansätze und Irregularitäten, dass ich zu dem Schluss komme, dass ATi trotz scheinbar aggressiverer Optimierungen (und den damit verbundenem Geschwindigkeitsvorteil) bei der BQ zumindest gleichwertig einzustufen ist. Wobei sich die AF Qualität bei den schon mal je nach Treiber ändern kann...
*kann sich natürlich je nach Anforderungsprofil verschieben. In 1024 ist 8xS meist schnell genug, und mit nem SLI System auch in höheren Auflösungen. Daher bitte ich mich jetzt nicht an der einen Aussage aufhängen zu wollen...
robbitop
2005-04-13, 20:48:40
Ich würde ein (min 4x) RGSSAA jedem noch so tollen MSAA vorziehen, aber leider - böses 3dfx ist jetzt tot ;(
What about 5x sparsed SS @Gammachrome? ^^ (+16x oldschool AF)
@Topic
BTW: Dot3 Mapping, AF und TnL sehe ich bei der GF2 GTS schon als sinnvoll an.
Was den 22 Bit Postfilter betrift. Er holt die Alpha Komponente auch nicht rein. Somit ist er oft genug auch nutzlos.
robbitop
2005-04-13, 20:51:36
da die T&L Einheit zwar eine OGSS-Implementation erlaubt hat
hu? was hat TnL mit SSAA zu tun?
grakaman
2005-04-13, 20:58:39
ich hab trotzdem aus alter verweigerungshaltung gegenüber nv mir ne x800xl gekauft, obwohl ich auch zur 6800gt hätte greifen können. wobei ich nicht konsequent war, da ich jetzt nen nf4-board hab... so ein mist, ich habe meine idelae verraten. X-D
;D Aber da ich demnächst auch vor der Entscheidung stehe, welche von deinen beiden genannten Karten würdest du mir im Nachhinein empfehlen? (auch nf4 Plattform)
Gruß,
grakaman
robbitop
2005-04-13, 21:03:24
;D Aber da ich demnächst auch vor der Entscheidung stehe, welche von deinen beiden genannten Karten würdest du mir im Nachhinein empfehlen? (auch nf4 Plattform)
Gruß,
grakaman
Ich bin zwar nicht Drumdub aber: wenn dir SSAA hybriden und HDR (auch für die Zukunft) egal sind: die X800XL. Ansonsten die GT ;-)
grakaman
2005-04-13, 22:05:45
Ich bin zwar nicht Drumdub aber: wenn dir SSAA hybriden und HDR (auch für die Zukunft) egal sind: die X800XL. Ansonsten die GT ;-)
Jo, ich frag nur, weil mich hier die Äußerungen über die ATI Treiber etwas abschrecken. Sind die monatlichen Treiberupdates so essentiell oder ist das eher nur Geplänkel?
Gruß,
grakaman
robbitop
2005-04-13, 22:31:58
Jo, ich frag nur, weil mich hier die Äußerungen über die ATI Treiber etwas abschrecken. Sind die monatlichen Treiberupdates so essentiell oder ist das eher nur Geplänkel?
Gruß,
grakaman
Die ATI Treiber sind IMO sehr gut.
grakaman
2005-04-13, 22:46:01
Die ATI Treiber sind IMO sehr gut.
Beruhigt mich, denn vom Preis/Leistungs-Verhältnis scheint ja die X800 nicht schlecht zu sein. Was ist denn überhaupt der Unterschied zur X800Pro? Die Pro scheint ja so 50EUR teuerer als die XL zu sein, aber sackt laut Benchmarks gegenüber der XL trotzdem in manchen Games. Warum das?
Schon mal Sorry, weil ich OT werde. Aber bin momentaner Noob im Grafikkartenbereich, da ich seit langer Zeit mir wieder n Desktop Rechner hole (lange Zeit Notebook zuvor).
Gruß,
grakaman
Was den 22 Bit Postfilter betrift. Er holt die Alpha Komponente auch nicht rein. Somit ist er oft genug auch nutzlos.
Was hat denn Alpha beim Scanout verloren?
robbitop
2005-04-13, 23:01:00
Was hat denn Alpha beim Scanout verloren?
Deswegen sage ich es ja: er holt keinen Alphakanal zurück. Das fällt einem schon durch Artefakte auf.
16 Bit Texturing sieht doch letztendlich so aus: R-G-B-A : 5-6-5-0
Der Postfilter ändert daran nichts.
robbitop
2005-04-13, 23:02:55
Beruhigt mich, denn vom Preis/Leistungs-Verhältnis scheint ja die X800 nicht schlecht zu sein. Was ist denn überhaupt der Unterschied zur X800Pro? Die Pro scheint ja so 50EUR teuerer als die XL zu sein, aber sackt laut Benchmarks gegenüber der XL trotzdem in manchen Games. Warum das?
Schon mal Sorry, weil ich OT werde. Aber bin momentaner Noob im Grafikkartenbereich, da ich seit langer Zeit mir wieder n Desktop Rechner hole (lange Zeit Notebook zuvor).
Gruß,
grakaman
Die Pro hat 3 Quadpipes aber mehr Takt. Sie ist in 130nm hergestellt.
Die XL hat 4 Quadpipes und weniger Takt und ist in 110nm hergestellt.
-> günstiger, schneller besser ^^
Deswegen sage ich es ja: er holt keinen Alphakanal zurück. Das fällt einem schon durch Artefakte auf.
16 Bit Texturing sieht doch letztendlich so aus: R-G-B-A : 5-6-5-0
Der Postfilter ändert daran nichts.
Auch die Texturfarbtiefe hat mit dem Framebuffer nichts zu tun. Und Destination Alpha braucht es auch heute noch nur sehr selten.
Ailuros
2005-04-14, 00:46:42
hu? was hat TnL mit SSAA zu tun?
GeForce 2 OGSS Implentierung:
http://www.beyond3d.com/articles/nvidia_fsaa/index1.php
3dfx behauptete damals dass NVIDIA eine Software-FSAA Loesung hat; der mythos wurde natuerlich mit diesem und anderen Artikeln schnell zerbrochen.
Genauer:
The coordinates supplied by the API target a specific screen resolution. When the vertices are transformed and lit, they are provided with screen-space coordinates (unlike the world-coordinates used by the 3D application). These coordinates are thus linked to the final screen resolution. To reach our anti-aliasing goal, we need to up-sample (generate more related samples) these coordinates by at least a factor of two in both the horizontal and vertical direction to create a sufficient number of sub-samples for effective anti-aliasing. More sub-samples permit us to create more gradual transitions between the original pixel positions, thus reducing the jaggies and pixel-popping typical of "aliasing" problems. This up-sampling is a simple multiplication by two (in this example) of all screen coordinates. This, through NVIDIA's implementation, is done through the onboard T&L unit. Up-sampling by a factor of two increases the screen resolution of our example to 20-by-20 (10 multiplied by 2 in both the horizontal and vertical dimension). Our vertex positions will be up-sampled to (10,10), (20,20) and (20,0). Notice that the vertices and thus the triangle remain at the same relative position in screen-space.
http://www.beyond3d.com/articles/nvidia_fsaa/index2.php
Ailuros
2005-04-14, 02:03:26
Hab ich auch nie behauptet....
Ich hab aber behauptet dass 16bpp, 16bpp sind und das unter der einfachen Perspektive dass man in Spielen nur 16 oder 32bpp finden konnte. Nicht einmal hab ich verweigert dass NVIDIA's 16bpp Qualitaet mies war, das aendert aber am obrigen auch nicht unbedingt viel.
Wär schon nicht schlecht gewesen, schon vorm Jahr 2000 sich mit dieser Frage näher auseinanderzusetzen.
Bis zur V3 war der Punkt noch gueltig, obwohl es schon einige potentielle Applikationen damals so langsam gab mit 32bpp Unterstuetzung. Das Jahr 2000 sah Voodoo5, Radeon und GeForce2 u.a.
Sry, aber die arschigen Marketingdokumente von NV (Kyro Paper) konnte ich in der Form noch bei keinem anderem IHV beobachten (auch wenn Ati da in letzter schon ordentlich aufgeholt hat ;))...
Der PowerVR-Angriff der sogar weit verbreitet auf dem Netz kursierte von 3Dfx hasst Du dann entweder verpasst oder willst Dich einfach nicht daran erinnern. PowerVR war damals ihr direkter Konkurrent und hat ihnen auch regelrecht den Sega-deal aus den Haenden gerissen. Ich hab das Zeug leider nicht mehr, aber sei bitte vorsichtig mit dem Zeug, ueberhaupt wenn 3dfx um vieles mehr beschuldigt werden kann aber leider auch nicht alles zum Vorschein kam. Unschuldige Opfer waren sie auf jeden Fall nicht.
Der Öde Core hat einer GF2 GTS stw. ganz schön zugesetzt...
Zwei cores mein Herr, zwei. Intern wurde die Voodoo4 4500 als Looser bezeichnet, und das nicht wegen dem "L"-Format des PCBs, aber weil selbst die engineers wussten wie schlecht sich das arme Ding durchsetzen wird.
Die GF2 Ultra hat in Ö über 1000$ gekostet. Aber anscheinend muss man auch die Frechheit wie NV besitzen und abrauchende GraKas einfach auf den Markt werfen, wenn danach verlangt wird (6600GT)
1000$? Du meinst wohl ehemalige D-Mark oder? Von dem abgesehen kann man noch so manches Spiel heute mit so nem Ding spielen.
Betrachte mal die Kehrseite. Jedes halbe Jahr ein neuer Chip mit unendlich vielen neuen Features. Irgendwann kackt der Highendkäufer auch seine Wurst drauf, wenn seine featurebepackte HW nach nem halben Jahr out ist. Schade dass dieser "Lack of Vision" in der Analystenwelt einem Genickbruch gleichkommt...
Bullshit. Eine neue Generation kam selbst damals alle 1.5-2 Jahre. Stattdessen brauch ich nicht unbedingt einen zweiten Finger benutzen wenn ich die Generationen von Voodoo1 bis 5 zaehlen will. Und nochmal (und so lange bis Du es endlich einsiehst) der originale Rampage (R1) war als Nachfolger der V2 anfangs geplant, mit per pixel lighting u.a.
"Lack of vision" besteht darin dass ihnen so langsam der gesamte Markt den Ruecken zu kehren begann und auch potentielle Entwickler die genau wussten was sie wollten. Was genau war Avenger aka Voodoo3 genau im Vergleich zu Voodoo2? Der absolute feature-creep oder nur ein revamptes "etwas" mit 2D Unterstuetzung diesmal?
Weil du dir die so genau angesehen hast. Ich bitte darum, mir anhand eines praktischen Beispiels zu zeigen wie pfuschig die 3dfx Treiber programmiert sein sollen (Jedenfalls läuft das Teil insgesamt stabiler als meine 6800GT und das trotz 4 Jahre alten, schlecht optimierten Treibern).
Beim word processing ist sie sicher stabiler *seufz*.
Macht doch nix. Die Idee war nicht schlecht, und besser vermarkten hätte man sie auch können. Ich versteh nur nicht, warum du so auf 3dfx herumhackst.
Weil ich zu sehr an ihnen gehangen habe am Anfang und es mich verdammt stark schmerzte einen der besten 3D-Pioniere so miserabel eingehen zu sehen. Seit 98' bruellten so manche von uns wo zum Henker Rampage ist.
Ihnen fehlten kaum mehr als 10-20% auf die GTS (ok vll. gibts ausnahmen)
Dem Endverbraucher kann es wohl egal sein wieviele cores am Anfang eine GPU hat, aber je mehr Zeit vergeht desto schneller und einfacher skalieren die Preise der single-chip Loesungen nach unten. Multi-chip Loesungen sind erstens zu kompliziert, zu teuer und haben extrem schlechte Margen. Selbst Spectre waere in 2001 schon auch nicht mehr das absolut heisseste Eisen gewesen und auch da war multi-chip eine Notwendigkeit. Erst mit Fear wollte man endlich die multi-chip configs loswerden.
hatte schönes nutzbares AA
Schoen ohne Zweifel ja, nutzbar unter sehr bestimmten Umstaenden aber und das ist leider ein negativer Neben-effekt von Supersampling generell, weil selbst heutige Karten nicht genug Fuellrate uebrig bleibt.
, Support für Depth of Field, Motionblur,...
In eigenen demos vielleicht? Dabei war motion blur schneckenlangsam; waere aber auch heute genauso lahm im relativen Sinn.
1. Carmack war schon ab der Voodoo² nicht besonders amused darüber, was 3dfx da, unter konsequentem Ignorieren seiner Visionen, fabriziert. Und er liess sich auch nicht lang bitten, als der Oberspieleengineprogger, in div. Statements seinen Unmut über die aktuelle 3dfx Entwicklung zu äußern.
Weil eben genau wusste dass man doch noch nicht auf Rampage setzen kann. R4 hatte das meiste dass Entwickler wie Carmack eigentlich anforderten, kam aber ganze 2 "Generationen" spaeter. Ist ja auch egal, 3dfx hatte ja den bewiesenen Luxus sich auf ihren Voodoo1/2 Lorbeeren auszustrecken und zu denken dass sie aus purem Glueck auch weiterhin den Markt dominieren werden....
2. Stimmt auch. Leider...
Wieso leider? Nach dieser Logik muesste man bei jedem Mittel-klasse Auto heute auch fuer jede Ausstattung die in den letzten Jahren zum Standard wurde extra bezahlen. Der Vergleich ist nun wohl nicht unbedingt gut getroffen, aber die Relativierung sollte verstaendlich genug sein.
Naja, der N64 schlägt sich auch mit 256kB Texturspeicher herum, und trotzdem gibts nette Spiele. Ob bilinear oder nicht war zu Zeiten einer PS1 auch egal. Und Mipmapdithering sieht man am TV sowieso nicht...
Wegen eben der obrigen Features, liess SEGA 3dfx regelrecht im Stich und wendete sich fast im letzten Moment an Videologic. Zum Vergleich waren es da 32bpp, 1024*1024 Texturen und 2x Supersampling. Schon mal eine Dreamcast neben eine PS1 oder sogar PS2 fuer Bildqualitaets-Vergleiche gestellt?
Stimmt auch, leider. Blöderweise wird es als unwirtschaftlich betrachtet, das Personal aufzustocken, solang man keine schwarzen Zahlen schreibt. Und die Gunst der potentiellen 3dfx Käufer nahm spätestens mit der Voodoo3 stark ab. (auch wenns schon bei der V² fleissige Redakteure gab, die die Addon Boards in ihren GraKatests eisern ignorierten und der lahmen Konkurrenz die Kaufempfehlung aussprachen)
Der originale Plan war eigentlich nur IP von Gigapixel zu lizenzieren; man entschied sich aber etliche Millionen $ fuer den Aufkauf zu investieren (obwohl die Finanzen eigentlich schon schlecht waren), weil man eben die ~45 erfahrenen engineers von GP unbedingt brauchte. Sonst haette sich vielleicht Rampage wieder verschoben.
Das find ich das beschissenste überhaupt. Leider geschieht das in jeder Branche. Macht korrumpiert eben. Da war 3dfx auch kein Unschuldslamm, leider...
Man arbeitete auch viel zu wenig bei 3dfx vergleichsmaessig; waehrend man bei anderen IHVs wie ATI/NVIDIA wie verrueckt schuftete, ging es bei 3dfx stets etwas zu locker zu.
Der Hybridmodus hat aber nur ein 2x2EER auf die Alphatesttexturen. Und der Performancevergleich war zugegebenermaßen unfair - aber vll. überprüf ich das nochmal mit gleichen Renderingpfaden :)
Man kann auch nicht alles haben um Himmels Willen; nur fuer den Wert der ganzen Geschichte, Accuview oder genauer die hybriden modi und filter@scanout wurden von ex-3dfx Kerlen implementiert. Ein guter Batzen von Rampage-engineers arbeiten bei Quantum3D seit 2000 und die brauchen auch die Supersampling Unterstuetzung fuer ihren Clarity Algorithmus unter anderem.
Hätte 3dfx damals schon nutzbares 4xRGMSAA+AF anbieten können, hätt ich heut wohl nix für ATi übrig. :) Jedoch ist aufgrund des Festhaltens an Alphatest, und der durch PS- bedingten, oftmals hochfrequenten Texturinhalte, eine MSAA+AF Lösung im Jahre 2005 fast noch suboptimaler als anno 2000. Imo bietet ein (min.) 4xRGSAA immernoch die beste Approximation eines perfekten Bildes...
Ein perfektes Bild kommt fuer mich dann eher von offline Situationen wie von Pixar; 64x stochastic Supersampling mit 64x sample motion blur und das bitte schoen in HDTV Aufloesungen AFAIK.
Quantum3D's Clarity Algorithmus verwendet uebrigens auf den GeForce/multi-board Independence Systemen "nur" 16xRGSS.
Supersampling ist nicht nur Fuellraten-Verschwendung, sondern hat auch einen Grad von Redundanz wenn man es mit AF kombiniert. Denn von den ausgewaschenen Texturen nach dem was normalerweise 4xSSAA oder 2xAF behandeln koennen will ich auch nichts mehr wissen.
z.B.? Auf ner GF2 hat man als ernsthafter Q3a Spieler das Spiel auch nicht mit HQ gespielt...
Was genau verstehst Du unter ernsthaftem Spieler? Ich bezog mich natuerlich nicht auf die GF2 MX, bevor jetzt dass noch verdreht wird, aber HQ 1024*768 war durchaus spielbar damals auf der CLAPS2 :D
Das Managment war scheisse, sie haben sich durch Fehlinvestitionen und Schlampigkeit selbst das Grab geschaufelt, aber hineinbefördert wurden sie letztendlich durch die Kunden/Akionäre/Investoren/Journalisten.
Eben nicht. Und das ist eben genau der Punkt warum ich guten Grund haette den vorerwaehnten hypothetischen Idealismus ernsthaft zu bezweifeln. Der Kunde hat sich fuer das entschieden was ihm den besten Eindruck machte, und nur sehr wenige waren damals wirklich unzufrieden mit ihren Entscheidungen (nur eben mit Aussnahme der absoluten hardcore fans), Aktionaere hatte keine Lust sich zu verschulden fuer eine Firma die sich gerade noch daherschleppte am Ende, Investoren wurden konstant angepisst (es gab kurz vor dem Ende einen grossen Investor der ihnen auch gut geholfen haette; das die Firma damals fett enttaeuscht wurde mit dem was ihnen aufgetischt wurde ist auch Nebensache und auch nur ein einziges Beispiel) und zu guter letzt die ewig "verkauften" Journalisten oder weiss der Geier wer noch was fuer andere merkwuerdige Konspirations-theorien.
Anstatt einzusehen dass die OEM-deals vor dem Ende nahezu auf Null lagen und dass man doch viel zu viel Mist gebaut hat, ist es wohl dann eher leicht zu behaupten dass sich die gesamte Welt gegen 3dfx verschwoert hat.
Mir gehts nur darum, dass 3dfx 1. nicht nur in den Augen vieler, zum Schluss wirtschaftlich gesehen nur mehr Mist gebaut hat, sondern 2. die letzten Karten von ihnen nur mehr, nicht konkurrenzfähiger Schrott waren.
Und genau das stört mich, da an Punkt 2 weniger 3dfx ansich (durch ingeneurtechnische Inkompetenz), als die, ans gemeine Volk vermittelte Sichtweise einiger weniger einflußreicher Leute, daran Schuld ist...
Hast Du je mit einem engineer damals privat geplaudert? Nur mal so aus Neugierde. Dass sich die Kerle konstant beschwert hatten dass sie nicht die richtigen Werkzeuge haben oder auch zu wenig Personal hatten solltest Du nicht zum ersten Mal lesen. In dem Sinne ja war es tatsaechlich ein Wunder das sie nach V2 die folgenden Produkte auch so auf den Ladentisch gebracht haben. Miserabel waren sie keineswegs nicht, aber erst gar nicht die 8. Wunder Leistungs- und Feature-maessig und sie konnten von einem gewissen Punkt dann einfach nicht mehr ueberzeugen. Die Verkaufszahlen schrumpften schon bei Avenger und bei Napalm ging es dann erst recht bergab.
Kann sein, dass es mir schwerfällt einzugestehen, dass im Falle eines weiteren Bestehen von 3dfx, die Mißwirtschaft nicht aufgehört hätte, und dementsprechend die Ressourcen für weitere Konkurrenzfähigkeit über kurz oder lang ohnehin zu gering gewesen wären. Ob daran der Rampage noch was geändert hätte? wohl eher unwahrscheinlich!
Spaetestens Q1 2000 schon. In internen Treffen schwaermte man damals vom Gigapixel IP und ihren Plaenen den PDA/mobilen Markt mit TBDRs in Kleinformat zu dominieren. Eine Aufgabe die PowerVR/IMG bis jetzt ziemlich wuerdig aufgenommen hat. Mit >100M $ Schulden und keiner lebenden Seele die noch in sie investieren wollte war es mit Papier-roadmaps schwer zu ueberzeugen.
Die Viewport-Transformation gehört aber eigentlich nicht mehr zu dem, was man als T&L bezeichnet. Daher halte ich diesen Satz für eine unzulässige Vereinfachung.
edit: bezieht sich auf den vorletzten Beitrag.
Ob post-gefiltered oder nicht, es sind immer noch keine 32bits.Wobei 32 Bit auch nur 24 Bit sind.
Ailuros
2005-04-14, 02:29:07
Nur aus geschichtlichem Interesse:
<snip>
From every indication 'Rampage' in it's first design was supposed to be launched in the fall of 1998 around Comdex. It was going to be a revelutionary design based on the .25 die and contain API-independant FSAA and per-Pixel lighting. But as pointed out by other the project suffered tremendous delays and wasn't near taping-out for that fall.
<snip> off the record from 3dfx:
"At a product review meeting sometime at the end of Q4 1998, it became painfully obvious that the current Rampage design was woefully underpowered and it's features unimpressive. It was decided to redesign the product using .18 micron design rules and the product spec. was updated to include features not in the original product specification."
<snip>
It's my impression and belief that 3dfx, in 1998, saw that 'Rampage' would not make it out in time. So it was descided to extend the Voodoo architecture into 2 more products. While in the mean time 3dfx could design a truely revelutionary product.
Voodoo3 was a 'quick-fix' that was to hold 3dfx up untill real improvements could me made to the Voodoo architecture. 3dfx then released the Voodoo3 which is obviously a direct take off on the Voodoo2 + Voodoo: Banshee work.
<snip>
In the mean time, under the control of a new HW guy named Kurt... something :-) 'Rampage' was being redesigned. I heard it was a project not touched by Ballards money grubbing hands. It now was moved to .18 and took on enough features to make a designer 'cream in his pants'. It used the now standard 3dfx modularity, and would follow up the VSA....
<snip>
I believe now that it was 3dfx's attempt at designing Sega Dreamcast's hardware that diverted too much money/time/personnel away from the then in development 'Old school' Rampage. And what he says with Banshee just helps to further stretch the limited resources of the comapny that had ~75 engineers at the time.
Ailuros
2005-04-14, 02:58:45
Wobei 32 Bit auch nur 24 Bit sind.
Try multi-layer transparency effects with 22bit post-filtered.
3dfx Voodoo5 5500
2005-04-14, 06:23:09
Ailuros, warst du mal ein 3dfx engineer? umwerfend deine ausführungen.
Ich danke euch beiden, dir und mr.lolman für diese knapp 2h lesestoff, ich bin echt gerührt, danke euch für so viel interessante fakten, ich habe noch nie! in diesem forum eine derartige diskussion gelesen, ich kann nur nochmal danke sagen.
Danke! :smile:
Try multi-layer transparency effects with 22bit post-filtered.Ich weiß, wie das aussieht.
Aber wenn wir von 16 Bit und 22 Bit reden, sollten wir auch von 24 Bit und nicht 32 Bit reden. Die 8 Bit Destination Alpha siehst du ja nicht.
Demirug
2005-04-14, 16:59:48
Die Viewport-Transformation gehört aber eigentlich nicht mehr zu dem, was man als T&L bezeichnet. Daher halte ich diesen Satz für eine unzulässige Vereinfachung.
edit: bezieht sich auf den vorletzten Beitrag.
Es geht dabei um bereits transformierte Verticen. Dabei wird die Viewport Transformation ja normalerweise umgangen. Für SSAA muss man aber die Koordinaten anpassen. Das Problem musste ich für den DirectX Tweaker auch lösen. Im Moment mache ich das mit generischen Vertexshader.
Es geht dabei um bereits transformierte Verticen. Dabei wird die Viewport Transformation ja normalerweise umgangen. Für SSAA muss man aber die Koordinaten anpassen. Das Problem musste ich für den DirectX Tweaker auch lösen. Im Moment mache ich das mit generischen Vertexshader.
Hm, nun gut, mir war nicht bekannt dass man Vertices mit D3DFVF_XYZRHW(bzw. D3DDECLUSAGE_POSITIONT) tatsächlich in Screenspace-Koordinaten angibt. Ich hätte mit Clipspace gerechnet. In OpenGL gibt es sowas nicht, man kann die Viewport-Transformation nicht umgehen.
Wenn du TLVertex-Eingaben sowieso umleiten musst, wieso machst du es dann nicht per Viewport-Transformation, sondern per Vertexshader?
Demirug
2005-04-14, 20:07:46
Wenn du TLVertex-Eingaben sowieso umleiten musst, wieso machst du es dann nicht per Viewport-Transformation, sondern per Vertexshader?
Weil das nicht geht. Die Viewport Transformation wird durch die SetViewport Methode gesteuert. Die bekommt aber das Rechteck in Form von Integerwerten. Zudem wüsste ich auch nicht wie ich die W-Koordinate ohne Vertexshader durchgeschoben bekomme.
Ailuros, warst du mal ein 3dfx engineer? umwerfend deine ausführungen.
Ich danke euch beiden, dir und mr.lolman für diese knapp 2h lesestoff, ich bin echt gerührt, danke euch für so viel interessante fakten, ich habe noch nie! in diesem forum eine derartige diskussion gelesen, ich kann nur nochmal danke sagen.
Danke! :smile:
Dem schließe ich mich an.
Mr. Lolman spricht mir aus der Seele, in allem, und Ailuros vermittelte mir hier so manche Information, die mir nicht bekannt war. Dank an beide! :)
Trotz allem vertrete ich weiterhin die Einstellung eines 3dfx-Fans: Sie haben Mist gebaut, teils verschmerzbaren, teils richtig großen -- aber ihre Produkte waren stets wunderbar einsetzbar. Und mir geht es immer wieder aufs Neue auf die Weichteile, wenn jemand permanent 32 Bit und T&L hyped und dabei 22 Bit sowie das geniale RGSSAA vergisst. Für ein simples Rüberschieben einer Technik (die in anderer Form eigentlich schon längst mit dem Rampage hätte erscheinen sollen ...) war es genial.
Was BQ angeht lag 3dfx letzendlich vorne -- oder will mir jemand sagen, dass 4xRG (optional mit LOD -1) schlechter aussieht als das OGSSAA + AF der GF2? Nebenbei bemerkt war 3dfx in diesen Einstellungen dann relativ gesehen garnicht mal so langsam, dafür schicker. Ähnliches trifft auf 22 Bit zu: Nahezu 16 Bit-Speed und aus Qualitätssicht in Richtung 32 Bit.
Was viele anscheinend garnicht sahen, sehen oder sehen wollten: Glide. Bis zum Tode von 3dfx erschienen einige Spiele, die mit Glide nicht nur deutlich besser liefen, sondern auch noch um Welten besser aussahen oder gar erst damit starteten. Das war für mich damals ein gewichtiger Grund für eine Voodoo.
MfG,
Raff
Ailuros
2005-04-15, 02:16:35
Ailuros, warst du mal ein 3dfx engineer? umwerfend deine ausführungen.
Ich danke euch beiden, dir und mr.lolman für diese knapp 2h lesestoff, ich bin echt gerührt, danke euch für so viel interessante fakten, ich habe noch nie! in diesem forum eine derartige diskussion gelesen, ich kann nur nochmal danke sagen.
Danke! :smile:
Dass ich nur ein Laie bin sollte man schnell sehen koennen. Ich war eben damals ein 3dfx-fan, was mich aber nie davon abgehalten hat hinter den Kulissen zu meckern, als ich das ganze Missgeschick mitverfolgte.
Gut dass es wenigstens Dir gefallen hat, denn meistens stoert die Wiederkauerei von solchen Themen enorm und ich kann es auch verstehen.
***edit: links im Bild Emmet Killgariff:
http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=9#tex
Trotz allem vertrete ich weiterhin die Einstellung eines 3dfx-Fans: Sie haben Mist gebaut, teils verschmerzbaren, teils richtig großen -- aber ihre Produkte waren stets wunderbar einsetzbar. Und mir geht es immer wieder aufs Neue auf die Weichteile, wenn jemand permanent 32 Bit und T&L hyped und dabei 22 Bit sowie das geniale RGSSAA vergisst. Für ein simples Rüberschieben einer Technik (die in anderer Form eigentlich schon längst mit dem Rampage hätte erscheinen sollen ...) war es genial.
Fuer Napalm wurde eine dritte Firma beauftragt fuer eine selbststaendige Geometrie-Einheit; das Ding war so lahm dass es nur den finalen Preis wieder erhoeht haette. Fuer SAGE gab es nicht mehr genug Zeit, der uebrigens vor dem Untergang noch nicht sein finales tape-out hinter sich hatte. Falls das Ding aber tatsaechlich die reklamierten 50MVPS haette einhalten koennen, dann waere es alles andere als schwach gewesen. SAGE2 fuer Fear waere um etwa 2x mal so schnell gewesen. Das einzige negative waren da eben die getrennten Einheiten und Datenkommunikation zur CPU/GPU, aber dafuer hatte sie ein paar hierarchical-Z und Geometrie-Kompressions-Patente von GP parat. Erst mit Mojo (und das was man damals als "dx9.0" einschaetzte) waere es zu einem absoluten single-core gekommen.
Was viele anscheinend garnicht sahen, sehen oder sehen wollten: Glide. Bis zum Tode von 3dfx erschienen einige Spiele, die mit Glide nicht nur deutlich besser liefen, sondern auch noch um Welten besser aussahen oder gar erst damit starteten. Das war für mich damals ein gewichtiger Grund für eine Voodoo.
Proprietary APIs sind alles andere als positiv anzusehen, egal von wem sie kommen. Dass es solche nicht mehr gibt ist nur von Vorteil fuer den Verbraucher; erstens wird der Entwickler durch das API nicht so stark limitiert und zweitens muss ich als Verbraucher nicht GPU A fuer Spiel X oder GPU B fuer Spiel Y besorgen. Haette Epic von Anfang an Unreal Tournament einen anstaendigen OGL renderer verpasst, waere das Ganze um einiges weniger umstaendlich gewesen als einfaches Beispiel.
Mr. Lolman
2005-04-15, 13:26:38
Danke! :smile:Dem schließe ich mich an.
Mr. Lolman spricht mir aus der Seele, in allem, und Ailuros vermittelte mir hier so manche Information, die mir nicht bekannt war. Dank an beide! :)
Noch ists nicht vorbei. :biggrin:
22bit Q3a Bilder mit viel Blending hab ich auch schon nen ganzen Haufen (auch 1280), UT Worstcase Benchmarks gibts auch schon (mit teils interessanten Ergebnissen :eek:), ich will nur noch auch d3d und ein paar Tests mit der 6800GT benchen, dann Post ich das ganze auch.
Raff, hast du eigentlich noch deine GF2 GTS? Könnte man die nicht auch mal durch UT Worstcase jagen? :)
BTW @Ailuros: von wegem Dithering (in Form von Postfilterschwäche) bei massiven Alphablending, ists 1. so, dass dieses Dithering auch nur wirklich an diesen Stellen sichtbar ist, an denen eben massives Blending passiert (und nicht übers ganze Bild) und 2. wenn einem das stört, kann man ja den Filter von "sharper" auf "smoother" stellen :)
Mr. Lolman
2005-04-15, 13:31:28
Ich hab aber behauptet dass 16bpp, 16bpp sind und das unter der einfachen Perspektive dass man in Spielen nur 16 oder 32bpp finden konnte. Nicht einmal hab ich verweigert dass NVIDIA's 16bpp Qualitaet mies war, das aendert aber am obrigen auch nicht unbedingt viel.
Siehst und ich wollte das eben getrennt haben. Denn das Endergebnis unterscheidet sich enorm. Vom qualitativen Aspekt her ist 2xAA ja auch nicht gleich 2xAA...
Bis zur V3 war der Punkt noch gueltig, obwohl es schon einige potentielle Applikationen damals so langsam gab mit 32bpp Unterstuetzung. Das Jahr 2000 sah Voodoo5, Radeon und GeForce2 u.a.Radeon war in 32bpp flott. Die Geforce2 nicht unbedingt (zumindest nicht so flott, dass man sich nicht hinunweider überlegt hätte, zugungsten der Performance nicht doch 16bit zu fahren (und dafür halt 2xAF, oder ne höhere Auflösung)
Der PowerVR-Angriff der sogar weit verbreitet auf dem Netz kursierte von 3Dfx hasst Du dann entweder verpasst oder willst Dich einfach nicht daran erinnern. PowerVR war damals ihr direkter Konkurrent und hat ihnen auch regelrecht den Sega-deal aus den Haenden gerissen. Ich hab das Zeug leider nicht mehr, aber sei bitte vorsichtig mit dem Zeug, ueberhaupt wenn 3dfx um vieles mehr beschuldigt werden kann aber leider auch nicht alles zum Vorschein kam. Unschuldige Opfer waren sie auf jeden Fall nicht.
Ok hab ich wohl verpasst.
Zwei cores mein Herr, zwei. Intern wurde die Voodoo4 4500 als Looser bezeichnet, und das nicht wegen dem "L"-Format des PCBs, aber weil selbst die engineers wussten wie schlecht sich das arme Ding durchsetzen wird.2 Cores, ok :)
1000$? Du meinst wohl ehemalige D-Mark oder? Von dem abgesehen kann man noch so manches Spiel heute mit so nem Ding spielen.Nein, ich bin mir jetzt nur nicht mehr sicher ob 12000 oder 14000öS, also ob 1700Mark oder 2000Mark. Spiele sind mit der V5 genauso spielbar.
Bullshit. Eine neue Generation kam selbst damals alle 1.5-2 Jahre. Stattdessen brauch ich nicht unbedingt einen zweiten Finger benutzen wenn ich die Generationen von Voodoo1 bis 5 zaehlen will. Und nochmal (und so lange bis Du es endlich einsiehst) der originale Rampage (R1) war als Nachfolger der V2 anfangs geplant, mit per pixel lighting u.a.Du weisst wie ichs mein. Nicht ne komplett neue Architektur, sondern einfach ein Refresh, der die alten Karten lahm erschinenen liess. Und der kam bald alle halben Jahre. Fast jeder hier im Forum freut sich über seine flotte CPU, Ich bin mit meiner auch immernoch sehr zufrieden, obwohl sie aus dem Jahr 2002 stammt. Gut, dass sich zumindest die CPU Entwicklung etwas gebremst hat. Die Teile sind sehr schnell, und nicht jeder hat Lust Unmengen an Geld in sein Hobby/Beruf zu stecken, nur damit seine HW halbwegs aktuell ist. Mir ist Wurscht für wann der Rampage geplant war, weils keinen Grund gibt alle 0.5 Jahre Refreshs auf den Markt zu werfen, außer man will die Konkurrenz ausboten...
"Lack of vision" besteht darin dass ihnen so langsam der gesamte Markt den Ruecken zu kehren begann und auch potentielle Entwickler die genau wussten was sie wollten. Was genau war Avenger aka Voodoo3 genau im Vergleich zu Voodoo2? Der absolute feature-creep oder nur ein revamptes "etwas" mit 2D Unterstuetzung diesmal? Ist doch egal. Schneller als ne Voodoo2 SLI war er. Schneller als ne TNT2 sowieso, und außerdem würde man heut ne Firma achten wenn sie es schafft
2 Cores in einen zu pflanzen und das Teil dann doppelt so hoch wie vorher zu takten...
Beim word processing ist sie sicher stabiler *seufz*.Na immerhin ;)
Dem Endverbraucher kann es wohl egal sein wieviele cores am Anfang eine GPU hat, aber je mehr Zeit vergeht desto schneller und einfacher skalieren die Preise der single-chip Loesungen nach unten. Multi-chip Loesungen sind erstens zu kompliziert, zu teuer und haben extrem schlechte Margen. Selbst Spectre waere in 2001 schon auch nicht mehr das absolut heisseste Eisen gewesen und auch da war multi-chip eine Notwendigkeit. Erst mit Fear wollte man endlich die multi-chip configs loswerden.Wo wir wieder bei den wirtschaftlichen Aspekten wären. (BTW: Die Voodoo5 5500 war iirc in Ö im Durchschnitt günstiger als ne GF2 GTS)
Schoen ohne Zweifel ja, nutzbar unter sehr bestimmten Umstaenden aber und das ist leider ein negativer Neben-effekt von Supersampling generell, weil selbst heutige Karten nicht genug Fuellrate uebrig bleibt.Ja mit 4xSS wirds auch mit heutigen Karten knapp. War damals nicht anders, dafür war 2xSSAA nutzbar und bot das gleiche EER wie heutige 4xOGSSAA Lösungen.
In eigenen demos vielleicht? Dabei war motion blur schneckenlangsam; waere aber auch heute genauso lahm im relativen Sinn.Ja wirklich nutzbar wärs erst mit der Voodoo5 6000 gewesen. Dafür wars beim 4xAA 4free...
Weil eben genau wusste dass man doch noch nicht auf Rampage setzen kann. R4 hatte das meiste dass Entwickler wie Carmack eigentlich anforderten, kam aber ganze 2 "Generationen" spaeter. Ist ja auch egal, 3dfx hatte ja den bewiesenen Luxus sich auf ihren Voodoo1/2 Lorbeeren auszustrecken und zu denken dass sie aus purem Glueck auch weiterhin den Markt dominieren werden....Ja, weiss eh jeder dass sie Fehler gemacht hatten. Vll. weil sie der irrigen Annahme waren, dass der Mark für 3D HW noch jung ist, und in naher Zukunft so stark wachsen wird, dass für jedem ein Scheibchen vom Kuchen übrig bleibt...
Wieso leider? Nach dieser Logik muesste man bei jedem Mittel-klasse Auto heute auch fuer jede Ausstattung die in den letzten Jahren zum Standard wurde extra bezahlen. Der Vergleich ist nun wohl nicht unbedingt gut getroffen, aber die Relativierung sollte verstaendlich genug sein.Wenn ich nen 45 PS Polo fahr brauch ich keine Klimaanlage, Servo, elektrische Fensterheber und sonstiges Klumpat.
Wegen eben der obrigen Features, liess SEGA 3dfx regelrecht im Stich und wendete sich fast im letzten Moment an Videologic. Zum Vergleich waren es da 32bpp, 1024*1024 Texturen und 2x Supersampling. Schon mal eine Dreamcast neben eine PS1 oder sogar PS2 fuer Bildqualitaets-Vergleiche gestellt?Ja, und trotzem war dem Teil nie ein großer Erfolg beschehrt. Wie man sieht, sind viele Features und ein tolles Produkt nicht immer ausschlaggebend für die Akzeptanz am Markt, oder umgekehrt, kann man mit kann mit technisch unterlegener HW, trotzdem die Kunden auf seine Seite ziehen...
Man kann auch nicht alles haben um Himmels Willen; nur fuer den Wert der ganzen Geschichte, Accuview oder genauer die hybriden modi und filter@scanout wurden von ex-3dfx Kerlen implementiert. Ein guter Batzen von Rampage-engineers arbeiten bei Quantum3D seit 2000 und die brauchen auch die Supersampling Unterstuetzung fuer ihren Clarity Algorithmus unter anderem.Also waren manche Entwicklungen am Schluss doch nicht so für die Katz...
Ein perfektes Bild kommt fuer mich dann eher von offline Situationen wie von Pixar; 64x stochastic Supersampling mit 64x sample motion blur und das bitte schoen in HDTV Aufloesungen AFAIK.Bleiben wir realistisch. 4xRGSSAA war in bestimmten Spielen auch mit 1024 nutzbar. Deine Settings wird wohl selbst in 320x200 kaum eine aktuelle Karte flüssig darstellen können.
Supersampling ist nicht nur Fuellraten-Verschwendung, sondern hat auch einen Grad von Redundanz wenn man es mit AF kombiniert. Denn von den ausgewaschenen Texturen nach dem was normalerweise 4xSSAA oder 2xAF behandeln koennen will ich auch nichts mehr wissen.Ist der SS Anteil hoch genug, brauchts kein AF mehr :)
Was genau verstehst Du unter ernsthaftem Spieler? Ich bezog mich natuerlich nicht auf die GF2 MX, bevor jetzt dass noch verdreht wird, aber HQ 1024*768 war durchaus spielbar damals auf der CLAPS2 :DHoppla, da hab ich mich vertan. Aber das ändert auch nix an den 122fps meiner Voodoo5 5500 PCI beim demo001 (MaxQ, 1024x768x22 WickedGL), oder an die 136fps beim demo_four (gleiche Settings)...
Eben nicht. Und das ist eben genau der Punkt warum ich guten Grund haette den vorerwaehnten hypothetischen Idealismus ernsthaft zu bezweifeln. Der Kunde hat sich fuer das entschieden was ihm den besten Eindruck machte, und nur sehr wenige waren damals wirklich unzufrieden mit ihren Entscheidungen Und machts nen guten Eindruck wenn häufig 0fps bei den Balken stehen?
Anstatt einzusehen dass die OEM-deals vor dem Ende nahezu auf Null lagen und dass man doch viel zu viel Mist gebaut hat, ist es wohl dann eher leicht zu behaupten dass sich die gesamte Welt gegen 3dfx verschwoert hat.
Es passt ja auch perfekt ins Bild, die V5 als Crap zu betrachten, wenn sich die HW-Elite über 3dfx' wirtschaftliche Unfähigkeit auslässt.
Hast Du je mit einem engineer damals privat geplaudert? Nur mal so aus Neugierde. Dass sich die Kerle konstant beschwert hatten dass sie nicht die richtigen Werkzeuge haben oder auch zu wenig Personal hatten solltest Du nicht zum ersten Mal lesen. In dem Sinne ja war es tatsaechlich ein Wunder das sie nach V2 die folgenden Produkte auch so auf den Ladentisch gebracht haben. Miserabel waren sie keineswegs nicht, aber erst gar nicht die 8. Wunder Leistungs- und Feature-maessig und sie konnten von einem gewissen Punkt dann einfach nicht mehr ueberzeugen. Die Verkaufszahlen schrumpften schon bei Avenger und bei Napalm ging es dann erst recht bergab.Ich glaub die gerne, dass sich die Kerle beschwert haben. Nur glaubst du, dass sich bspw Leveldesigner nicht beschweren, wenn das Managment beschliesst, auf ne andere Engine zu wechseln? Heisst das aber jetzt auch gleichzeitig, dass das Spiel mies wird?
Spaetestens Q1 2000 schon. In internen Treffen schwaermte man damals vom Gigapixel IP und ihren Plaenen den PDA/mobilen Markt mit TBDRs in Kleinformat zu dominieren. Eine Aufgabe die PowerVR/IMG bis jetzt ziemlich wuerdig aufgenommen hat. Mit >100M $ Schulden und keiner lebenden Seele die noch in sie investieren wollte war es mit Papier-roadmaps schwer zu ueberzeugen.Mann, trotz der, durch Rampageverzögerungen bedingten, Trockenphase hätte man, die paar Features die man reingepflanzt hat, etwas mehr hypen können. Die Konkurrenz wegen ihrer kaputten S3TC Implementierung etwas ausstechen; ein bisschen mehr in WickedGL inverstieren und forcierbare Texturekompression unter d3d angeboten, und die V5 wär nochmal besser dargestanden (Ja selbst wenn Leo bei UT nur auf 10% Gewinn (ggü, Glide) durch WickedGL kam, sinds bei mir mit der Wortcase Timedemo, 1280x1024 2xAA fast 50%.)
Mr. Lolman
2005-04-15, 15:19:49
Ein mehr oder minder bekanntes, auf jeden Fall aber interessantes Detail bezüglich 22bit Screenshots:
Es ist ohne 4xAA unmöglich, mittels Screenshots die tatsächliche 22bit Qualität darzustellen, da selbst die treibereigene OpenGL/Glide Screenshotfunktion, nur das normale 16bit Rendering abbilden kann.
Das 3dfx 4xAA jedoch, eliminiert jegliches, unter noch so massivem Alphablending entstandenem Dithering; weswegen meine geposteten Screenshots (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2906320#post2906320) nicht falsch sind, sondern eben unter dem Vorbehalt betrachtet werden müssen, dass bei heftigem Alphablending und der "sharpest" Einstellung im Treiber, Dithering auftritt. Da das aber beim Q3a Himmel nicht der Fall ist, kann man die Screenshots trotzdem gelten lassen. :)
Jedenfalls machte sich es 3dfx damit nicht unbedingt einfacher, dass unter diesen Vorraussetzungen, praktisch kein einziger 22bit Screenshot im Netz die tatsächliche 22bit Qualität widerspiegelt. (HyperSnapDX taugt da genausowenig, schafft es aber zumindest die Qualität der treiberinternen Screenshotfunktion zu erreichen, was ja schon mal ein Vorteil ggü. dem fiesen 16bit Raster ist (welches entsteht wenn man bspw. über die Printtaste den Framebufferinhalt in Bildbearbeitungsprogramm einfügt, und welches definitiv nicht mit der ungefilterten 16bit Qualität vergleichbar ist...)
/edit: Entwarnung: Zumindest unter OpenGL/Glide kann HypersnapDX doch echte 22bit Screenshots erzeugen. Für Direct3D gilt das oben geschriebene jedoch weiterhin.
misterh
2005-04-15, 15:21:08
In eigenen demos vielleicht? Dabei war motion blur schneckenlangsam; waere aber auch heute genauso lahm im relativen Sinn. Ja wirklich nutzbar wärs erst mit der Voodoo5 6000 gewesen. Dafür wars beim 4xAA 4free...
Bei MotoGP2 Demo bietet auch diese Motion Blur an, und kann mit V5 5500 bei 1024*768*16 ohne ruckel spielen. Da war egal ob 0x oder 2xSSAA an war. Fast gleiche Performance. Bei 32bit war auch Spieltbar.
http://img12.echo.cx/img12/9686/3dfx015ni.th.jpg (http://img12.echo.cx/my.php?image=3dfx015ni.jpg)
Mr. Lolman
2005-04-15, 15:29:39
Bei MotoGP2 Demo bietet auch diese Motion Blur an, und kann mit V5 5500 bei 1024*768*16 ohne ruckel spielen. Da war egal ob 0x oder 2xSSAA an war. Fast gleiche Performance. Bei 32bit war auch Spieltbar.
[...]
Mit was für Treiber/Einstellungen? Ich bekomm das Teil bei mir nicht zum laufen...
misterh
2005-04-15, 15:31:51
Mit was für Treiber/Einstellungen? Ich bekomm das Teil bei mir nicht zum laufen...
war mit VoodooXtreme 1.07.01 und SFFT Alpha 26 ohne Probleme.
Edit:
Sorry einstellung war so.
http://img38.echo.cx/img38/938/3dfxmotogp29fh.jpg
Mr. Lolman
2005-04-15, 15:47:42
war mit VoodooXtreme 1.07.01 und SFFT Alpha 26 ohne Probleme.
Edit:
Sorry einstellung war so.
[...]
Danke vielmals :)
BTW: Besser verdeutlichen konnte man meine Ausführungen garnicht, als du gerade mit dem Motionblurscreenshot. Von dem Dithering auf dem Screenshot wird einem übel, und die tatsächliche Darstellungsqualität der Voodoo5 hat mit dem was am Screenshot zu sehen ist, wohl nicht viel zu tun...
misterh
2005-04-15, 15:58:46
Danke vielmals :)
BTW: Besser verdeutlichen konnte man meine Ausführungen garnicht, als du gerade mit dem Motionblurscreenshot. Von dem Dithering auf dem Screenshot wird einem übel, und die tatsächliche Darstellungsqualität der Voodoo5 hat mit dem was am Screenshot zu sehen ist, wohl nicht viel zu tun...
Edit: kurzverfassung, was man auf Bild sieht, stimmt nicht was ich auf Monitor gesehen habe. Zb Bodentexturen.
Mr. Lolman
2005-04-15, 19:07:50
komisch, ich kann gar kein TW T&L und keine Pixelshader auswählen (nicht dass mich das gross wundern würde, aber bei dir sind die ja auch nicht ausgegraut), mit Amigamerlin 3.1 R6 und SSFT Alpha 26.
Daran, dass ich die Voodoo als Secondary Device verwende (6800GT=primary) sollts nicht liegen. Vll. liegts daran, dass mein MotoGP die ungepatchte Vollversion ist.... Mal sehen :|
misterh
2005-04-15, 21:16:25
komisch, ich kann gar kein TW T&L und keine Pixelshader auswählen (nicht dass mich das gross wundern würde, aber bei dir sind die ja auch nicht ausgegraut), mit Amigamerlin 3.1 R6 und SSFT Alpha 26.
Daran, dass ich die Voodoo als Secondary Device verwende (6800GT=primary) sollts nicht liegen. Vll. liegts daran, dass mein MotoGP die ungepatchte Vollversion ist.... Mal sehen :|
war ein fehler zu dieser zeitpunkt, sonst zeigt es auch nicht an, dass ich hätte wählen können. Ach ja hab Demo diese Game.
Ailuros
2005-04-16, 12:53:44
Siehst und ich wollte das eben getrennt haben. Denn das Endergebnis unterscheidet sich enorm. Vom qualitativen Aspekt her ist 2xAA ja auch nicht gleich 2xAA...
Andere Methode (die natuerlich einen doppelt so hohen EER liefert) aber 2x samples sind 2x samples.
Nein, ich bin mir jetzt nur nicht mehr sicher ob 12000 oder 14000öS, also ob 1700Mark oder 2000Mark. Spiele sind mit der V5 genauso spielbar.
Wie hoch war der MSRP einer GF2 Ultra damals bei Vorstellung? Da es die V5 6000 es nie auf Ladentische schaffte, kannst Du es auch nur auf diesem Niveau vergleichen. Und nein bei T&L optimierten Spielen wie UT2003 als Anfang gilt das obrige nicht mehr, weil eben die T&L Einheit wohl doch um einiges entladen kann, ausser man ballert auf lehre Waende.
Du weisst wie ichs mein. Nicht ne komplett neue Architektur, sondern einfach ein Refresh, der die alten Karten lahm erschinenen liess. Und der kam bald alle halben Jahre. Fast jeder hier im Forum freut sich über seine flotte CPU, Ich bin mit meiner auch immernoch sehr zufrieden, obwohl sie aus dem Jahr 2002 stammt. Gut, dass sich zumindest die CPU Entwicklung etwas gebremst hat. Die Teile sind sehr schnell, und nicht jeder hat Lust Unmengen an Geld in sein Hobby/Beruf zu stecken, nur damit seine HW halbwegs aktuell ist. Mir ist Wurscht für wann der Rampage geplant war, weils keinen Grund gibt alle 0.5 Jahre Refreshs auf den Markt zu werfen, außer man will die Konkurrenz ausboten...
Es geht hier nicht um CPUs sondern Grafikkarten. Natuerlich ist es Dir wurscht fuer wann A oder B geplant war, da es eben nicht gerade hilft einzusehen dass es selbst 3dfx bewusst war dass sie zu lange am gleichen oeden Zeug herumgefuchtelt haben. Rampage waere kein Halbjahr-Refresh gewesen sondern eine wuerdige Nachfolger-Generation fuer V1 und V2 und auf dem core haetten sie so manche GPUs danach auch noch aufbauen koennen.
Ist doch egal. Schneller als ne Voodoo2 SLI war er. Schneller als ne TNT2 sowieso, und außerdem würde man heut ne Firma achten wenn sie es schafft
2 Cores in einen zu pflanzen und das Teil dann doppelt so hoch wie vorher zu takten...
Wie egal es war zeigten die Verkaufszahlen und das Anfang vom Ende. Ja ja ich weiss die Presse, Mutter Fortuna oder weiss der Geier was fuer Entschuldigungen noch aufkommen koennten, aber entweder passt man sich dem an was der Markt wirklich verlangt oder man geht ein (*** siehe weiter unten). So einfach ist das.
Na immerhin ;)
Und welche genau Probleme hat eine heutige (egal welche) high end GPU fuer word processing, wenn die 2D Fuellrate fuer 2038*1536*32@85Hz ausreicht? Das es sarkastisch gemeint war brauch ich Dir wohl nicht sagen.
Wo wir wieder bei den wirtschaftlichen Aspekten wären. (BTW: Die Voodoo5 5500 war iirc in Ö im Durchschnitt günstiger als ne GF2 GTS)
Wirtschaftliche Aspekte die aber der Firma bewusst waren; erstmal waren die Verkaufszahlen von der gesamten VSA-100 um einiges niedriger als sie erwartet haben und die >100M $ Schulden kamen wohl auch nur vom Himmel runter. Koennen wir das Ganze mal ausnahmsweise realistisch ansehen?
Keine Ahnung was Oesterreich damals betraf, auf jeden Fall ist die Preis-gebung Vendor-spezifisch und es ist auch heute noch so. Ich meinte aber eher die Preis-reduktionen nach gewisser Zeit; Preise skalieren bei multi-chip Loesungen schwerer nach unten als single-chip, ausser man verkauft im ersten Fall mit Verlust.
Ja wirklich nutzbar wärs erst mit der Voodoo5 6000 gewesen. Dafür wars beim 4xAA 4free...
4free? Inwiefern?
Wenn ich nen 45 PS Polo fahr brauch ich keine Klimaanlage, Servo, elektrische Fensterheber und sonstiges Klumpat.
Es gibt keine 45PS Polo's mehr AFAIK und zweitens wenn es Dir der Hersteller im Paket liefert dann kannst Du sowieso nichts daran aendern, egal ob Du jetzt den "Ideologen" spielen willst oder nicht. Solches "Klumpat" wird eben mit der Zeit Standard und die Hersteller passen sich den Forderungen des Markts bzw. der Verbraucher an (***siehe oben).
Von dem ganzen Quark abgesehen, versuch mal im Sommer in einem suedeuropaeischen Land mit einem sub-tropischen Klima bei gluehender Hitze ein Auto eines jeglichen Kalibers zu fahren und dann koennen wir nochmal sehen ob eine Klimaanlage als Beispiel eine Notwendigkeit ist oder nicht. Kleine Autos werden nicht weniger heiss, ueberhaupt wenn man sie ueber einige Stunden in der Sonne parkt.
Ja, und trotzem war dem Teil nie ein großer Erfolg beschehrt. Wie man sieht, sind viele Features und ein tolles Produkt nicht immer ausschlaggebend für die Akzeptanz am Markt, oder umgekehrt, kann man mit kann mit technisch unterlegener HW, trotzdem die Kunden auf seine Seite ziehen...
Und was genau sagt Dir dass sich 3dfx's Consolen-Idee besser verkauft haette? Mit hoechster Wahrscheinlichkeit eher schlechter.
Also waren manche Entwicklungen am Schluss doch nicht so für die Katz...
Das solltest Du eher sehen, wenn ein Grossteil der Entwicklung der NV40 von vorigen 3dfx-engineers stammt. Wo jemand frueher gearbeitet hat ist ja im Grunde egal, denn engineers werden stets auch ihr bestes tun wo immer sie auch arbeiten, was aber genauso der Fall war als mehr als die Haelfte der wertvollsten ASIIC enginners in 1998 freiwillig zu NVIDIA umwanderten.
Bleiben wir realistisch. 4xRGSSAA war in bestimmten Spielen auch mit 1024 nutzbar. Deine Settings wird wohl selbst in 320x200 kaum eine aktuelle Karte flüssig darstellen können.
Ich war nicht derjenige der ein perfektes Bild erwaehnt hat. Ich sagte uebrigens stochastic Supersampling. Aber wenn wir schon ueber EER reden teilweise, multiplizier doch einfach mal 320*200 mit 64*64 um den "bis zu" EER auszurechnen. Hallo EER ist wohl doch nicht alles oder?
Ist der SS Anteil hoch genug, brauchts kein AF mehr :)
4x SSAA = 2xAF. Theoretisch wuerde ich trotz allem einen zukuenftigen stochastischen Multisampling Algorithmus mit >16x sample AF bevorzugen. Eben weil ich hohe Aufloesungen bevorzuge und ich die Fuellrate lieber dort verplempere.
Hoppla, da hab ich mich vertan. Aber das ändert auch nix an den 122fps meiner Voodoo5 5500 PCI beim demo001 (MaxQ, 1024x768x22 WickedGL), oder an die 136fps beim demo_four (gleiche Settings)...
*kopfschuettel*....hoffnungslos....
Und machts nen guten Eindruck wenn häufig 0fps bei den Balken stehen?
Welche Balken jetzt genau? Wirf doch jetzt nicht einfach mit Feuerwerken herum wenn Du genau weisst was ich meine.
Es passt ja auch perfekt ins Bild, die V5 als Crap zu betrachten, wenn sich die HW-Elite über 3dfx' wirtschaftliche Unfähigkeit auslässt.
Wer genau sagte dass sie wertlos oder sogar "crap" war? Ist bei Dir alles nur schwarz/weiss oder faellt es Dir doch zu schwer mal ueber das was andere meinen koennten nachzudenken. Nein es ist nicht alles toll oder beschissen, es gibt eben auch Faelle wo gewisse Dinge zu wuenschen uebrig lassen und in genau in diese Kategorie viel auch die V5 IMO.
Ich mag ja als AA-fan die Ueberlegenheit von RGSS verstanden und eingesehen haben aber der Otto-Normalverbraucher dort draussen eben nicht. Und da es der V5 in zu vielen anderen Abteilungen fehlte konnte sie eben einfach nicht ueberzeugen. Man konnte damals die Gamer auch schwer dazu ueberreden ueberhaupt AA zu benutzen, egal was fuer eine GPU. Es gibt auch heute noch (leider, ist aber Geschmackssache) Benutzer die selbst nichts davon hoeren wollen.
Mal anders rum: angenommen die V5 waere eine single-core Loesung mit 200MHz, 4 pipes/2TMUs, DDR, T&L, dot3, EMBM, anisotropic etc. und 2x/4x RGSS gewesen mit ~GF2 GTS Leistung durchschnittlich, glaubst Du dann wirklich dass das sie nicht vielleicht doch viele mehr Karten damals verkauft haetten? Im Vergleich zur Konkurrenz haetten sich dann der RGSS-Vorteil voll ausgespielt, da es wohl dann keine "ja aber" Argumente gegeben haette.
Ich glaub die gerne, dass sich die Kerle beschwert haben. Nur glaubst du, dass sich bspw Leveldesigner nicht beschweren, wenn das Managment beschliesst, auf ne andere Engine zu wechseln? Heisst das aber jetzt auch gleichzeitig, dass das Spiel mies wird?
Entweder es ergibt ein Resultat dass in vielen Abteilungen zu wuenschen uebrig laesst oder es heisst dann eben Duke Nukem 4ever.
Kannst Du Dir denn nicht im geringsten vorstellen, was fuer eine Rolle bei jeglicher Entwicklung/Aufgabe die Menge und Qualitaet der Resourcen spielen koennen? Ich kann das groesste Talent der Welt sein, aber ohne die dementsprechenden Werkzeuge werde ich wohl nicht allzu weit kommen, ausser ich hocke 10 Jahre sagen wir mal an einem Projekt.
Mann, trotz der, durch Rampageverzögerungen bedingten, Trockenphase hätte man, die paar Features die man reingepflanzt hat, etwas mehr hypen können. Die Konkurrenz wegen ihrer kaputten S3TC Implementierung etwas ausstechen; ein bisschen mehr in WickedGL inverstieren und forcierbare Texturekompression unter d3d angeboten, und die V5 wär nochmal besser dargestanden (Ja selbst wenn Leo bei UT nur auf 10% Gewinn (ggü, Glide) durch WickedGL kam, sinds bei mir mit der Wortcase Timedemo, 1280x1024 2xAA fast 50%.)
Wie gesagt, hoffnungslos.
Ailuros
2005-04-16, 13:06:59
Bei MotoGP2 Demo bietet auch diese Motion Blur an, und kann mit V5 5500 bei 1024*768*16 ohne ruckel spielen. Da war egal ob 0x oder 2xSSAA an war. Fast gleiche Performance. Bei 32bit war auch Spieltbar.
http://img12.echo.cx/img12/9686/3dfx015ni.th.jpg (http://img12.echo.cx/my.php?image=3dfx015ni.jpg)
MotoGP2 benutzt motion trail und nicht motion blur.
Some computer games try to simulate motion blur by blending the current frame with the previous frames, so that previous frames are still visible for a moment. This makes moving objects smear across the screen. This is not real motion blur; it does not look good and is a waste of processor power.
http://freespace.virgin.net/hugo.elias/graphics/x_motion.htm
T-buffer motion blur war echtes temporal antialiasing; um 25fps mit 4x sample MB zu erreichen, braucht man aber 100fps Rohleistung.
Mr. Lolman
2005-04-16, 13:09:26
um 25fps mit 4x sample MB zu erreichen, braucht man aber 100fps Rohleistung.
Was beim 3dfx 4xAA genauso ist :naughty:
Ailuros
2005-04-16, 13:12:51
Was beim 3dfx 4xAA genauso ist :naughty:
Ja und? Was soll da so toll dran sein?
Demirug
2005-04-16, 13:27:37
In Rampage nun den Heilbringer zu sehen halte ich für etwas zu optimistisch. Der Chip hatte ein paar konstruktive Schwächen die sich nicht so einfach wegreden lassen. Da Rampage aber kein High End Chip war hätte sein erscheinen vielleicht die GF4MX Karten verhindern können. Allerdings hätte das im Gegenzug dann unter umständen die Technologie spiralle noch schneller drehen lassen.
Mr. Lolman
2005-04-16, 13:32:28
Ja und? Was soll da so toll dran sein?
Nein, ich dachte nur, dass das deine Fage beantwortet, bezügl. T-Buffereffekte.
Ailuros
2005-04-16, 15:44:10
In Rampage nun den Heilbringer zu sehen halte ich für etwas zu optimistisch. Der Chip hatte ein paar konstruktive Schwächen die sich nicht so einfach wegreden lassen. Da Rampage aber kein High End Chip war hätte sein erscheinen vielleicht die GF4MX Karten verhindern können. Allerdings hätte das im Gegenzug dann unter umständen die Technologie spiralle noch schneller drehen lassen.
Aber nicht als "Entwicklungs-Basis-core" direkt nach Voodoo2; denn so ist es eigentlich gemeint. Denk einfach Rampage in seiner ersten primitiven Form und vergleiche mit dem Zeug das fuer Avenger und Napalm wieder aufgewaermt wurde.
Der finale Rampage (Spectre) war ohnehin auch noch so zu spaet dran und daran war der uebertriebene Optimismus schuld, dass man die T-Buffer Implementierung nur in ein paar Monaten so aus dem Aermel zaubern kann.
Ailuros
2005-04-16, 15:46:33
Nein, ich dachte nur, dass das deine Fage beantwortet, bezügl. T-Buffereffekte.
Kein Fragezeichen im originalen Satz. Der Link darueber beschreibt eigentlich ganz gut wie temporal-AA realisiert wird.
Mr. Lolman
2005-04-19, 19:09:57
Hier nochmal ein paar 3dfx BQ Vergleichsmöglichkeiten (alle Bilder 16/22bit):
Postfilter - disabled, Alphablending - smoother:
http://img0617.paintedover.com/uploads/thumbs/0617/disabledsmoother.png (http://paintedover.com/uploads/show.php?loc=0617&f=disabledsmoother.png)
Den Postfilter bei der Alphablendingeinstellung - "smoother" zu aktivieren bringt genau garnix, da es keine Raster gibt, die geglättet werden könnten. Deswegen nur als Link: 2x2 Box Filter (http://paintedover.com/uploads/show.php?loc=25&f=2x2boxsmoother.png), 4x1 Linear Filter (http://paintedover.com/uploads/show.php?loc=25&f=4x1linearsmoother.png)
Postfilter - disabled, Alphablending - sharper:
http://img0617.paintedover.com/uploads/thumbs/0617/disabledsharper.png (http://paintedover.com/uploads/show.php?loc=0617&f=disabledsharper.png)
Diese Blendingeinstellung ist die Basis für die Postfilter. Das Dithering ist hier zwar deutlich sichtbar, trotzdem wirkt das Bild schonmal weitaus besser als bei der "smoother" Einstellung.
Postfilter - 4x1 Linear, Alphablending - sharper:
http://img0617.paintedover.com/uploads/thumbs/0617/4x1linearsharper.png (http://paintedover.com/uploads/show.php?loc=0617&f=4x1linearsharper.png)
Das ist der, schon von der Voodooo1 (und 2), bekannte 3dfx Postfilter mit der "Linienbildung". Selbst bei massiven Alphablending bügelt der 4x1 linear Filter drüber und glättet das Bild. Bei hohen Auflösungen mag der Nutzen des filters relativ gering erscheinen, jedoch wird einem bei einer Vergrößerung des Bildes klar, dass der Filter in Zeiten der 640er oder 800er Auflösungen schon einen enormen BQ Zugewinn bewirkt hat..
Postfilter - 2x2 Box, Alphablending - sharper:
http://img0617.paintedover.com/uploads/thumbs/0617/2x2boxsharper.png (http://paintedover.com/uploads/show.php?loc=0617&f=2x2boxsharper.png)
Das ist der berüchtigte "22bit Filter". Er hat beim Alphablending da seine Schwächen, wo der 4x1 linear Filter noch anstandslos seinen Dienst verrichtet, jedoch erkauft man sich im Ggs zum 4x1linear Filter, das glattere Bild nicht mit sichtbaren Filterartefakten, wie eben z.B.Linien..
Als Abschluß das 16bit Bild (m)einer 6800GT, das imo wie eine schlechte überbelichtete Mischung zw. der ungefilterten smoother- und sharper-Einstellung wirkt:
http://img198.imageshack.us/img198/9567/nv16bit4td.png
thxto:Painted Over (http://paintedover.com:81/index.php) & Imageshack (www.imageshack.us)
Spasstiger
2005-04-22, 19:04:25
Ah, auf den Shots sieht man schon die Unterschiede, die 16 Bit auf der 6800 GT sehen auch wie solche aus ;) . Allerdings muss man dazusagen, dass die 16/22 Bit bei den alten Voodoo-Karten das Maximum darstellen während bei Nvidia schon seit dem TNT 1 echtes 32 Bit unterstützt wird, wenn auch damals nur mit magerer Performance. Aber genug davon, wen interessiert denn schon noch 16 Bit Farbtiefe bei heutigen Grafikkarten? :)
Mr. Lolman
2005-04-22, 19:14:20
Aber genug davon, wen interessiert denn schon noch 16 Bit Farbtiefe bei heutigen Grafikkarten? :)
Vll. diejenigen die behaupten, dass es im 16bit Rendering keine Unterschiede gbit. Klar heutzutage ists wurscht. Aber brauchte man bei der V3 unbedingt 32bit in Anbetracht bei der 16bit Qualität?
Oder andersrum, ists aufgrund der gebotenen 16bit Qualität von NV noch verwunderlich, dass es so einen enormen 32bit Hype gegeben hat?
Nein. Ich weiss das. Ich weiss auch, dass das Vergangenheit ist. Aber ich weiss auch, dass viele Leute ein verzerrtes Bild über die Voodookarten haben. Und das will ich als 3dfx Fanatic halt geraderichten...
Spasstiger
2005-04-22, 19:55:52
Nein. Ich weiss das. Ich weiss auch, dass das Vergangenheit ist. Aber ich weiss auch, dass viele Leute ein verzerrtes Bild über die Voodookarten haben. Und das will ich als 3dfx Fanatic halt geraderichten...
Hm, imo hielt sich der 32-Bit-Hype zur Zeit der Voodoo 3 doch nochin Grenzen, jedenfalls gingen Voodoo 3 Karten weg wie warme Semmeln. Und es war auch damals bekannt, dass die 16 Bit Qualität der Voodoos äußerst gut war.
Richtig durchsetzen konnte sich ja 32 Bit erst mit den GeForce Karten. Aber da hat man ja auch schon auf den Voodoo 4/5 gewartet.
Ich finde nicht, dass ein verzerrtes Bild von Voodoo Karten herrscht, bis Mitte 1999 war 3dfx einfach der Hersteller von 3D-Grafikkarten/-beschleuniger für Spiele schlechthin. Bei den alten Unreal-Spielen war eine Voodoo eigentlich schon fast Pflicht, wenn man keine High-End-CPU hatte. Außerdem sahen die Games mit Glide besser aus (Detail-Texturen waren aktiviert).
P.S.: Ich hab mir letztes Jahr auch mal den Spass gemacht und einen P2 233 mit einer GeForce 2 MX und einer Voodoo Banshee bestückt. In Unreal 1 war die Performance trotz Patch sowohl unter Direct3D als auch unter OpenGL inakkzeptabel, an flüssiges Spielen war nicht zu denken. Die Banshee dagegen zauberte flüssige und schönere Bilder hin (hab dann auch noch ein paar Level in Unreal 1 mit der alten Kiste gespielt, da kamen "Kindheits"erinnerungen auf ;)).
Quake 3 und Serious Sam dagegen waren die Domäne der GeForce 2 MX, trotz dem lahmen Prozessor konnte man bei vollen Details recht gut spielen.
Ich versteh die ganze Diskussion um 16 Bit Farbtiefe hier nicht. 16Bit waren schon immer indikutabel schlecht weil dabei auch der Z Buffer nur 16Bit tief ist. Das gibt schon bei Quake3 massive Z Fehler in einigen Leveln.
Ailuros
2005-04-23, 05:41:46
Vll. diejenigen die behaupten, dass es im 16bit Rendering keine Unterschiede gbit. Klar heutzutage ists wurscht. Aber brauchte man bei der V3 unbedingt 32bit in Anbetracht bei der 16bit Qualität?
Haette es ihr geschadet?
Oder andersrum, ists aufgrund der gebotenen 16bit Qualität von NV noch verwunderlich, dass es so einen enormen 32bit Hype gegeben hat?
Der gesamte Markt verlangte damals 32bpp Unterstuetzung, egal wie Du es auch verdrehen willst. Und dabei ist es wurscht ob die Konkurrenz jetzt NVIDIA oder Rumpelstilzchen hiess, das Resultat waere gleich gewesen.
Nein. Ich weiss das. Ich weiss auch, dass das Vergangenheit ist. Aber ich weiss auch, dass viele Leute ein verzerrtes Bild über die Voodookarten haben. Und das will ich als 3dfx Fanatic halt geraderichten...
Logik hat offensichtlich erstmal gar nichts gemeinsam mit Fanatismus. Es gibt eine feine Linie zwischen der Lieferung einer >16bpp standard Qualitaet zu implementieren und der Unfaehigkeit volle 32bpp zu liefern.
1999 und die meisten veroeffentlichten GPUs dieses Jahres:
http://www.accelenation.com/?ac.id.123.5
Ich versteh die ganze Diskussion um 16 Bit Farbtiefe hier nicht. 16Bit waren schon immer indikutabel schlecht weil dabei auch der Z Buffer nur 16Bit tief ist. Das gibt schon bei Quake3 massive Z Fehler in einigen Leveln.Das ist eigentlich unabhängig voneinander, bzw. war damals nur eine HW Limitierung. Heute kann man 32/16bit mischen auch wenn es jetzt noch sinnloser ist 16bit überhaupt zu verwenden.
Mr. Lolman
2005-04-23, 19:10:45
Quake 3 und Serious Sam dagegen waren die Domäne der GeForce 2 MX, trotz dem lahmen Prozessor konnte man bei vollen Details recht gut spielen.
Sollte man meinen, jedoch:
http://images.sudhian.com/review/Voodoo5%206000/SS1024&1600.gif
Quasar
2005-04-23, 19:13:11
Wo ist denn da eine V. Banshee?
edit: Und ein AthlonXP 2600+ ist auch nicht grad mit einem P2-233 vergleichbar.
edit2:
Danke trotzdem für den Link - schaut interessant aus!
Mr. Lolman
2005-04-23, 19:16:52
Wo ist denn da eine V. Banshee?
Hoppla, das kommt davon, wenn man den Beitrag schon am Vortag gelesen hat, und dann über ein paar beeindruckende Voodoo5 6000 Scores stösst. Ich such aber noch Benches für die Banshee (auch wenn diese Spasstigers Aussagen nur bestätigen werden) :redface:
Ailuros
2005-04-24, 03:42:45
Sollte man meinen, jedoch:
http://images.sudhian.com/review/Voodoo5%206000/SS1024&1600.gif
Ohne genaue Daten ueber den genauen rendering-path/script die jede GPU anwendet und welches timedemo, sagt mir der Graph ehrlich gesagt gar nichts.
http://www.beyond3d.com/reviews/visiontek/nvidia_gf3/index4.php
Mit einem T-bred 1400 und einer K2 konnte ich auch in 1024 und normal quality >90fps in Dunes erreichen. Dabei kam ein aeusserst starker Leistungsgewinn (bis zu 40%) von der Texturen-kompression; womoeglich eben der fehlenden Texel-fuellrate (ueberhaupt mit trilinear). GeForces (2&3) profitierten bei weitem nicht so viel von TC.
Dass die V5 6000 gerade in 32Bit und hohen Auflösungen der GF2 Ultra zeigt, wo der Hammer hängt, war ja schon länger bekannt. Wirklich überrascht bin ich von den Werten daher nicht. Mich wundert nur, dass die 5500 hier teils nicht mal halb so schnell wie die 6000 ist ...
MfG,
Raff
Mr. Lolman
2005-04-24, 22:33:07
Wo ist denn da eine V. Banshee?
Ich find leider keine Reviews mit Banshee Q3a Benchmarks, aber in den 3DC Benchmarkcharts liegen die Karten nicht arg weit auseinander:
http://www.3dcenter.org/ergebnisse/benchmark-charts.php?game=Quake%20III%20Arena%20-%20demo001&res1=on&bit=16&cpuinfo=on&cardinfo=on&orderby1=autofps&orderdir1=desc&orderby2=cpu_frq&orderdir2=desc
Ailuros
2005-04-25, 05:15:29
Dass die V5 6000 gerade in 32Bit und hohen Auflösungen der GF2 Ultra zeigt, wo der Hammer hängt, war ja schon länger bekannt. Wirklich überrascht bin ich von den Werten daher nicht. Mich wundert nur, dass die 5500 hier teils nicht mal halb so schnell wie die 6000 ist ...
MfG,
Raff
Wenn die rendering-paths zwischen GPUs nicht 100% identisch sind, dann sind solche Vergleiche wertlos.
Ich hab erst gar nicht auf die GF2 Ultra geachtet sondern auf die GF3 Leistung und ueberhaupt im Vergleich zu allen anderen Spielen die fuer das sudhian review verwendet wurden.
Memphis suburbs:
http://www.techreport.com/reviews/2001q3/prophet-4500/index.x?pg=6
Quasar
2005-04-25, 08:45:18
Ich find leider keine Reviews mit Banshee Q3a Benchmarks, aber in den 3DC Benchmarkcharts liegen die Karten nicht arg weit auseinander:
http://www.3dcenter.org/ergebnisse/benchmark-charts.php?game=Quake%20III%20Arena%20-%20demo001&res1=on&bit=16&cpuinfo=on&cardinfo=on&orderby1=autofps&orderdir1=desc&orderby2=cpu_frq&orderdir2=desc
In Serious Sam TSE laut Digit-Life (http://www.digit-life.com/articles2/over2003/index.html) müssten sie jedoch beinahe Welten trennen. Dort kann sich die V4 4500 (~2x Banshee-Speed sans TnL-Vorteil) kaum von der MX200 mit halbiertem Speicherinterface absetzen.
http://www.ixbt.com/video2/images/over-2003/ss-800.png
In RtCW (http://www.ixbt.com/video2/images/over-2003/w-800.png) schaut's ähnlich aus. Leider kein Q3a.
Mr. Lolman
2005-04-25, 10:19:10
Memphis suburbs:
http://www.techreport.com/reviews/2001q3/prophet-4500/index.x?pg=6
Naja, doppelte Voodoo5550 Geschwindigkeit reicht immernoch knapp für GF3 Speed...
Mr. Lolman
2005-04-25, 10:21:35
In Serious Sam TSE laut Digit-Life (http://www.digit-life.com/articles2/over2003/index.html) müssten sie jedoch beinahe Welten trennen. Dort kann sich die V4 4500 (~2x Banshee-Speed sans TnL-Vorteil) kaum von der MX200 mit halbiertem Speicherinterface absetzen.
In RtCW (http://www.ixbt.com/video2/images/over-2003/w-800.png) schaut's ähnlich aus. Leider kein Q3a.
Es geht ja um Banshee vs. TNT, oder?
Der Abstieg von 3dfx begann eigentlich mit dem erscheinen des Riva TNT2 von nVIDIA im Frühjahr 1999 und der Umstellung auf die eigene Produktion von Grafikkarten. 3dfx kaufte zu diesem Zweck den bekannten Grafikkarten Hersteller STB, produzierte von nun an nur noch selber Gafikkarten und verkauft die Chips nicht mehr an Dritte Hersteller.
Während der Riva TNT2 echtes 32-bit Rendering, auch bei höheren Auflösungen noch akzeptabel schnell beherrschte, war der Voodoo3 auf generelles 16-bit Rendering limitiert und nicht viel schneller als der TNT2. Der Voodoo3 war bereits bei dessen Erscheinen von der Technik, gegenüber den nVIDIA Chips, im Nachteil (nur 256x256 als Texturgröße, nur 16-bit Rendering, keine AGP Funktionen). Weiters gab es zu diesem Zeitpunkt dann auch schon eine schnellere Version des TNT2, den TNT2 Ultra die mit dem Voodoo3/3000 locker mithalten konnte und overclocked teilw. sogar schneller war.
http://www.wcm.at/story.php?id=1561
Das sagt alles. Die Leute versteiften sich auf 32bit, mit denen die TNT2 sicher nicht schneller war, als die V3 mit 22bit. 256^2 war nicht mehr gut genug und 16bit Textures waren auch zuwenig. DieUT Textures haben alle 8bit, da hätte 16bit auch noch ein bisschen gereicht, und overclocked konnte die TNT2 Ultra gar mit einer unübertakteten Voodoo3 3000 mithalten. DA hat eindeutig NVs Marketing gesiegt, dass alle zu langsameren featurebehafteten GraKa griffen nur um 32bit fahren zu können (in 640x480 :rolleyes: )
Blöderweise kam ja auch die Voodoo5 etwas zu spät, jedoch kann ich mich an eine ct' Umfrage Ende 2000 erinnern, nach der ~5% vorhatten sich eine 3dfx Karte zu kaufen, und ~70% lieber eine NV Graka nehmen würden. Klick (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2573384#post2573384) :(
Mr. Lolman
2005-04-25, 12:51:28
http://www.techreport.com/reviews/2001q3/prophet-4500/q3a-1024.gif
Das ist ja auch schon wieder so ein netter Benchmark. Wie wir wissen, forcierte NV bei Q3a, trotz kaputter Implementation, S3TC. Also schalten wir das halt auch mal auf der Voodoo5 ein. Und siehe da, statt 77.7fps erreicht mein Kärtchen bei Q3a (HQ - warum testet man bei den HighendKarten nicht Max.Q, der V5 hätte es gut getan) plötzlich 90.3fps. Mit WickedGL sinds 94fps und mit 22bit sinds sogar 120.9fps :mad:
/edit:
oder hier:
http://www.techreport.com/reviews/2001q3/prophet-4500/q3a-2xaa-1024.gif
Mit Texturcompression, erreicht die V5 mit 2xAA HQ bei mir 45.6fps (anstatt 37.5), mit WickedGL sinds 47.8 und mit 2xAA, 22bit 65.9fps. Über die Darstellungsqualität braucht man eigentlich eh kein Wort mehr verlieren, zur Erinnerung aber trotzdem nochmal der Link: http://img88.exs.cx/img88/1084/3dfxvsatvsnvidia4xogl57fj.jpg
Ailuros
2005-04-25, 13:26:48
Naja, doppelte Voodoo5550 Geschwindigkeit reicht immernoch knapp für GF3 Speed...
Eben nicht weil ich bezweifle dass die rendering paths identisch sind.
Die Resultate sehen verdaechtig nach dem Dunes demo aus, wo praktisch ein paar Bullen in einer leeren Wueste herumtrampeln (auf keinem Fall repraesentativ fuer wahre SS-Leistung, da der Overdraw in dem Fall minimal ist; Memphis suburbs hat hingegen einen repraesentativen Overdraw fuer Serious Sam, ie >4.0).
Es wird Unterschiede geben was LOD betrifft, Textur-filterung, texture layers beim multitexturing und weiss der Geier was noch.
Man haette uebrigens einen Vogel gehabt wenn man damals mit einer GF3 in SS nicht zumindest 2xAA/2xAF in 1024*768*32 eingeschaltet haette.
Das sagt alles. Die Leute versteiften sich auf 32bit, mit denen die TNT2 sicher nicht schneller war, als die V3 mit 22bit. 256^2 war nicht mehr gut genug und 16bit Textures waren auch zuwenig. Die UT Textures haben alle 8bit, da hätte 16bit auch noch ein bisschen gereicht, und overclocked konnte die TNT2 Ultra gar mit einer unübertakteten Voodoo3 3000 mithalten.. DA hat eindeutig NVs Marketing gesiegt, dass alle zu langsameren featurebehafteten GraKa griffen nur um 32bit fahren zu können (in 640x480 )
Die zweite Unreal Tournament CD mit den 1024*1024 S3TC Texturen, kam dank S3 zu den Ladentischen. Nach dem Zeitpunkt wo Daniel Vogel damals einen OGL renderer fuer UT1 veroeffentlichte, gab es mehr als nur guten Grund diesen zu verwenden und die Texturen der zweiten CD zu installieren.
Zugegeben der D3D Treiber von NVIDIA (bis zu DX7.0) liess und laesst auch heute noch aus unerklaerlichen Gruenden zu wuenschen uebrig, ueberhaupt in Spielen mit der originalen Unreal engine. Sobald aber OpenGL ins Spiel kam, war es aus mit jeglichem Glide-Leistungsvorsprung (wobei der Vergleich mit D3D Leistung sowieso Quark ist, da Glide auf 256*256 Texturen limitiert war).
Von dem abgesehen wuerdest Du dich wenigstens einen Moment mal hinsetzen und ueberdenken wieso 3dfx so langsam in allen Aspekten bergab ging, wuerde es vielleicht helfen. OEM deals gingen massenhaft zum Fenster raus wobei ATI vor allem massiv profitiert hat, man verlor den einen nach dem anderen Arcade deal und auch den Consolen-deal fuer SEGA/NEC an Videologic/PowerVR und fuer den PC desktop Markt war man fast zur gesamten Konkurrenz feature-maessig gewaltig im Rueckstand.
3dfx gab uebrigens Anfang 2000 die beiden Gigapixel cores zur Lizenzierung frei (GP1 und GP2) und intern trommelte man schon ueber die Vorteile des Gigapixel IPs (Fear mit dem Fusion core - Hydra + GP4 - und SageII, womit Microsoft haette bereuen sollen dass sie Gigapixel nicht angenommen haben), gigantische Prospekte durch das Eindringen mit Gigapixel IP in den PDA/mobile Markt und einem vollbluetigen absoluten TBDR single core fuer die DX9.0 Aera unter dem Codenamen "Mojo".
Dass eine einfache KYRO mit nur 115/115MHz in der Mehrzahl leicht schneller ist als eine V4 4500 (166/166MHz) mit 32bpp im digit-life Link oben und dass TBDR ploetzlich intern bei 3dfx doch wohl nicht so uebel war wie die 3dfx-Marketingmaschine durch den Maze-Skandal praesentierte ist wohl eine Nebensache. Nach dem Aufkauf von Gigapixel kamen ein paar merkwuerdige Graphs von 3dfx selber zum Vorschein wo man einen 100MHz GP-1 mit 4xFSAA um einiges schneller sehen konnte als eine V5 5500 und eine GF2 GTS. Kleinigkeit und Nebensache dass GP-1 Multisampling verwendete *kicher* (3dconcept berichtete darueber uebrigens damals, nur ist die relevante Datenbank leider nicht mehr zu erreichen).
http://www.3dconcept.ch/cgi-bin/showarchiv.cgi?show=1390
***edit: ich hab das Bildchen doch noch....aus 3dfx's PR-Maschine selber:
http://users.otenet.gr/~ailuros/gp1bench.gif
GP1 = 100MHz, SDRAM und 1Mio gates.
Man kann mit Marketing so manches Zeug so hinbiegen wie man will und natuerlich werde ich NVIDIA auch nicht als unschuldig erklaeren; aber es gibt doch einen Unterschied zwischen der Vermarktung reihelanger Verzweiflungs-Alternativen und quasi Feature-hype den man temporaer als nutzlos bezeichnen kann.
Zu guter letzt 3dfx hatte nur einen Vorsprung anfangs im retail PC desktop Markt; ATI war stets das sogenannte "OEM-darling" damals (bis ihnen NVIDIA stets staerker hier konkurrierte) und PowerVR u.a. vermieste ihnen jeglichen Arcade deal mit der Zeit. 3dfx verlor Gesicht mit der Zeit auf allen Fronten und sie waeren auch ohne dass es NVIDIA je gegeben haette untergegangen. Es war nie nur 3dfx vs. NVIDIA, sondern eher 3dfx vs. die gesamte Konkurrenz.
Ailuros
2005-04-25, 13:41:55
Noch ein paar flashbacks:
<snip>
Recently, 3dfx bought GigaPixel, in a stock deal valued at $186 Million. 3dfx acquired more than just the GP-1 and Giga3D Architexture. 3dfx acquired over 40 GigaPixel engineers. 3dfx needed these engineers to keep its 6 month product cycle. The Giga3D Architexture will not be implemented into Rampage since it is in an advanced state of development. This acquisition allows 3dfx to become a major player in the consumer device industry. They believe that anything with an LCD (or other type of display), will soon need to move on to 3D Graphics. And, thanks to GigaPixel's low power designs and low memory design, 3dfx can now do this. 3dfx plans to licence GigaPixel IP (Intelectial Property) to other companies, so they may build the boards that will power consumer devices. Among other things, 3dfx will get access to the 48 patents that GigaPixel currently holds. Here is a bit from the Press Release about the acquisition:
"The second key benefit of this transaction is an expansion of our target markets,'' Leupp said. ``With the GigaPixel technology and existing business relationships, we expect to be the leader in providing 3D cores and intellectual property to our partners leading the market with 3D capable consumer devices. These 3D capable consumer devices will usher in the era of three dimensional visual communications.''
"The third key benefit of this transaction is access to a team of over 40 engineers skilled in 3D design and algorithm expertise,'' he said. ``This will augment our existing engineering staff and allow us to produce highly innovative products on a rapid schedule. In many ways, this acquisition is about speed,'' Leupp continued. ``We will increase the speed we bring products to market by being able to leverage the talented GigaPixel engineering team and their state of the art design methodology. We will also increase the speed at which we increase the performance levels of our products by utilising the unique GigaPixel 3D technology. And we will increase the speed at which we provide solutions for new emerging consumer electronics markets to augment our existing PC 3D accelerator business.''
Dass man mit ungefaehr ~75 engineers und veralteten Tools nicht besonders weit gekommen ist, konnten wir ja sehen. Noch schlimmer es gab vor Rampage keine Emulationen waehrend der Entwicklung (dank den mittelalterlichen Entwicklungsmethoden und Werkzeigen):
http://users.otenet.gr/~ailuros/rampage.jpg
<snip>
Some time in 2001 we should see the first products that utilise GigaPixel Technology. This might be with a future computer product (the generation after Rampage) and/or with a Consumer Device Design complete. Either way, 2001 should be a very good year for GigaPixel/3dfx. In late 2001 (or early 2002) 3dfx will see revenue coming in from its GigaPixel section, for the first time.
3D Graphics for cell phones, PDA, and other Consumer Devices might take off. If it does, 3dfx will probably be the only company prepared to licence out it's IP. So, 3dfx may see many companies seeking to licence its technology.
3dfx's future computer hardware looks to be great. Some time in 2001 we will probably see a 3D Chip from 3dfx, that will utilise some amount of GigaPixel Technology. This product will be either 2 product cycles away (meaning that we won't see it until Fall of 2001) or 3 cycles away (meaning that we won't see them until Winter of 2001). Based on the GP-1 we can assume that there will be at least 2 times more performance squeezed out of the chip in a year. This would mean that Future GigaPixel/3dfx 3D graphic card will be able to draw at least 11 G/Texels and 2 G/Pixels.
Leupp hat's gut gemeint aber an den fuerchterlichen Fehlern der Vergangenheit war leider nicht mehr viel zu aendern. Nachdem man einsah dass GPUs selber herstellen die bloedeste Idee ueberhaupt war, dachte man komischerweise daran IP zu verkaufen (was sich eigentlich als ideale Masche fuer den PDA/mobile Markt bewiesen hat).
<snip>
Since 3dfx missed a product cycle, they have had some shuffling in the Positions of 3D graphic card makers. Ati was still at top, but Nvidia took the place of 3dfx in the 2nd position (and Nvidia took the crown as the new performance king). 3dfx is now trying to make a comeback with its Voodoo5 boards, which sport an impressive 1.46 G/Pixel Fill Rate, and a 1.46 G/Texel Fill Rate. But, even with its massive fillrate the GeForce2 GTS is set to have an even bigger texel rate, of 1.6 G/Texel (but, it should only have a 800 m/pixel fill rate). One of them will be the performance leader (for now at least), but there performance will be very similar in most games. 3dfx is hoping on its acquisition of GigaPixel to bring profits in through the consumer device market, and it is counting on GigaPixel's technology to be proven useful in its upcoming Computer 3D graphic chips.
***edit: fettgedruckte oben; nur weil sich die meisten Gamer nicht unbedingt ueber ATI scherten, heisst es bei weitem nicht dass sie nicht stets einer der hochrangigen IHVs wahren. 3dfx konnte von Anfang an nur ueber die OEM deals von ATI traeumen. Der Grafik-markt besteht bei weitem nicht nur aus PC desktop retail....
Mr. Lolman
2005-04-25, 13:49:20
Eben nicht weil ich bezweifle dass die rendering paths identisch sind.
Die Resultate sehen verdaechtig nach dem Dunes demo aus, wo praktisch ein paar Bullen in einer leeren Wueste herumtrampeln (auf keinem Fall repraesentativ fuer wahre SS-Leistung, da der Overdraw in dem Fall minimal ist; Memphis suburbs hat hingegen einen repraesentativen Overdraw fuer Serious Sam, ie >4.0).Meine Aussage war auf deine verlinkten Benchmarks bezogen. Oder bezweifelst du bei denen etwa auch, dass der gleiche Rendering Pfad verwednet wurde?
Man haette uebrigens einen Vogel gehabt wenn man damals mit einer GF3 in SS nicht zumindest 2xAA/2xAF in 1024*768*32 eingeschaltet haette.Ja bei der GF3 sowieso, aber eigentlich waren ja die GF2 die Voodoo5 Konkurrenz. BTW: Man hätte einen Vogel gehabt auf ner voodoo5 überall auf Krampf 32bit zu fahren, wenn 22bit in den meisten Fällen ein vollkommen zufriedenstellendes Ergebnis abliefert.
Die zweite Unreal Tournament CD mit den 1024*1024 S3TC Texturen, kam dank S3 zu den Ladentischen. Nach dem Zeitpunkt wo Daniel Vogel damals einen OGL renderer fuer UT1 veroeffentlichte, gab es mehr als nur guten Grund diesen zu verwenden und die Texturen der zweiten CD zu installieren.
Ja die erste Version des OpenGL Renderes kam erst raus, als es die Voodoo5 schon gab. Mit der konnte man auch S3TC Textures aktivieren, und das Ganze war dann garnicht mal so langsam: Klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2928499#post2928499)
Zugegeben der D3D Treiber von NVIDIA (bis zu DX7.0) liess und laesst auch heute noch aus unerklaerlichen Gruenden zu wuenschen uebrig, ueberhaupt in Spielen mit der originalen Unreal engine. Sobald aber OpenGL ins Spiel kam, war es aus mit jeglichem Glide-Leistungsvorsprung (wobei der Vergleich mit D3D Leistung sowieso Quark ist, da Glide auf 256*256 Texturen limitiert war).
Stimmt. komischerweise ist WickedGL auch ohne forcierter Textukompression in UT geringfügig flotter. Obwohl das ursprüngliche Glide Spiel dann mit einem nachträglich implementierten OpenGL Pfad läuft, der dann wieder zurück zu Glide gewrappt wird (was dafür spricht, dass der UT OpenGL Renderer nochmal ein bisschen besser optimiert ist, als der originale Glide Renderer)
Von dem abgesehen wuerdest Du dich wenigstens einen Moment mal hinsetzen und ueberdenken wieso 3dfx so langsam in allen Aspekten bergab ging, wuerde es vielleicht helfen.
[...]
Es war nie nur 3dfx vs. NVIDIA, sondern eher 3dfx vs. die gesamte Konkurrenz.Wär alles halb so wild wenn die Akzeptanz seitens der Kunden vorhanden gewesen wäre. Du schriebst selbst, dass NV anfangs keine Meter im OEM Bereich hatte. Und trotzdem konnten sie sich etablieren. Klar hatten sie genug inpetto, aber mal ehrlich:
Überlegt man wirklich als OEM, eine gewisse HW einzubauen, wenn 9 von 10 Leuten zum Konkurrenzprodukt greifen würden?
Kleinigkeit und Nebensache dass GP-1 Multisampling verwendete *kicher* (3dconcept berichtete darueber uebrigens damals, nur ist die relevante Datenbank leider nicht mehr zu erreichen).
Naja, die Reviewer haben ja auch fleissig R200 SSAA gegen NV20 MSAA gebencht. Dazu brauchts keine Marketingfritzen, wobei ich von denen noch am ehestenso einen Pfusch durchgehen lassen würde...
Recently, 3dfx bought GigaPixel, in a stock deal valued at $186 Million. 3dfx acquired more than just the GP-1 and Giga3D Architexture. 3dfx acquired over 40 GigaPixel engineers. 3dfx needed these engineers to keep its 6 month product cycle.
Braucht man als Endkunde einen 6 monatigen Produktzyklus? Ich würde den eher verdammen, weil es den Engingeproggern schleissigere Progammierung erlaubt (die Leistung ist ja da) und den Kunden mehr kostet (die HW ist schneller veraltet)
Aber Techdemos und neue tolle HW, klingt halt vor jeder Klientel gut, und zwar so sehr, dass man die schon auf den Markt wirft, bevor die vorhandene womöglich überhaupt die Entwicklungskosten reingespielt hat....
Ailuros
2005-04-25, 14:03:59
Das ist ja auch schon wieder so ein netter Benchmark. Wie wir wissen, forcierte NV bei Q3a, trotz kaputter Implementation, S3TC. Also schalten wir das halt auch mal auf der Voodoo5 ein. Und siehe da, statt 77.7fps erreicht mein Kärtchen bei Q3a (HQ - warum testet man bei den HighendKarten nicht Max.Q, der V5 hätte es gut getan) plötzlich 90.3fps. Mit WickedGL sinds 94fps und mit 22bit sinds sogar 120.9fps :mad:
/edit:
oder hier:
Mit Texturcompression, erreicht die V5 mit 2xAA HQ bei mir 45.6fps (anstatt 37.5), mit WickedGL sinds 47.8 und mit 2xAA, 22bit 65.9fps. Über die Darstellungsqualität braucht man eigentlich eh kein Wort mehr verlieren, zur Erinnerung aber trotzdem nochmal der Link: http://img88.exs.cx/img88/1084/3dfxvsatvsnvidia4xogl57fj.jpg
Ist ja alles schoen und gut, aber ich kam auch auf >90fps in 1024*768*32 mit bilinear auf der K2. In dem ganzen obrigen Quatsch den ich weiter oben angekrempelt habe, ueberdenk mal dass KYRO2 nur ein budget Produkt mit einem 149$ MSRP war, single-chip, mit SDRAM wie die V4 4500 und lediglich 9 MHz hoeherer Taktrate.
OGSS liess natuerlich zu wuenschen uebrig auf KYRO1/2, aber so besonders beindruckend sind Deine Scores nun auch wieder nicht. Die Relativierung der Leistung ist so wie sie im review angegeben wird, da mit der gleichen Platform getestet wurde. Nachtraeglich oder mit anderen configs kann man selbstverstaendlich je nach der Staerke des Systems hoehere oder niedrigere Resultate erreichen.
In Serious Sam bekam ich damals im Dunes demo 2xFSAA fast umsonst auf der K2; der Beschiss der Sache ist dann eben dass das demo nur eine Seite illustriert, dass das damalige System mit einem P3 933MHz verdammt CPU limitiert war und es sich um horizontales Supersampling handelte.
Nette Versuche die Wahrheit jeglichem idiotischen PR-stunt anzugleichen uebrigens; nur kann man sie leider wenn man ein bisschen Ahnung hat zu leicht durchschauen.
Ailuros
2005-04-25, 14:23:06
Meine Aussage war auf deine verlinkten Benchmarks bezogen. Oder bezweifelst du bei denen etwa auch, dass der gleiche Rendering Pfad verwednet wurde?
Wenn Du glaubst dass die default rendering paths bei Serious Sam auf allen GPUs identisch waren, hast Du leider keine Ahnung wie sich das Spiel verhalten hat.
Ja bei der GF3 sowieso, aber eigentlich waren ja die GF2 die Voodoo5 Konkurrenz. BTW: Man hätte einen Vogel gehabt auf ner voodoo5 überall auf Krampf 32bit zu fahren, wenn 22bit in den meisten Fällen ein vollkommen zufriedenstellendes Ergebnis abliefert.
Es gibt immer Gerechtfertigungen zu Verzweiflungsakten. Du warst uebrigens derjenige der Fanatismus zugegeben hat. Ergo ist wohl jeder Versuch eigentlich nutzlos.
Die GF3 Resultate von SS, sagen mir persoenlich dass hier etwas faul ist.
Ja die erste Version des OpenGL Renderes kam erst raus, als es die Voodoo5 schon gab. Mit der konnte man auch S3TC Textures aktivieren, und das Ganze war dann garnicht mal so langsam: Klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2928499#post2928499)
Kann sein dass ich mich jetzt verzettele aber ich hab den Eindruck dass der renderer etwas aelter war. Es war ja auch eigentlich Epic's Bloedsinn; Gott sei Dank war Epic klug genung und hat Daniel eingestellt.
Wär alles halb so wild wenn die Akzeptanz seitens der Kunden vorhanden gewesen wäre. Du schriebst selbst, dass NV anfangs keine Meter im OEM Bereich hatte. Und trotzdem konnten sie sich etablieren. Klar hatten sie genug inpetto, aber mal ehrlich:
Überlegt man wirklich als OEM, eine gewisse HW einzubauen, wenn 9 von 10 Leuten zum Konkurrenzprodukt greifen würden?
Die Frage kann ich bei bestem Willen nicht verstehen.
Naja, die Reviewer haben ja auch fleissig R200 SSAA gegen NV20 MSAA gebencht. Dazu brauchts keine Marketingfritzen, wobei ich von denen noch am ehestenso einen Pfusch durchgehen lassen würde...
....und hier kommt ein weiteres Beispiel wie sich manche User leider der bevorzugten PR-Maschine anpassen: zu Zeiten R200 war Supersampling die ultimate AA-Technik und Multisampling quasi nutzlos. Wie schnell sich dieses nach dem R300 aenderte war eigentlich zu bewundern. Generell nicht auf jemanden hier gerichtet.
Braucht man als Endkunde einen 6 monatigen Produktzyklus? Ich würde den eher verdammen, weil es den Engingeproggern schleissigere Progammierung erlaubt (die Leistung ist ja da) und den Kunden mehr kostet (die HW ist schneller veraltet)
Heute immer noch mehr oder weniger. Wieso soll ich jegliche theoretische Frage in anbetracht nehmen, wenn der Markt schon seit Jahren so laeuft und man entweder mithaltet oder eben nicht. Was heisst "brauchen" ueberhaupt in einem Markt der sich mit so verruecktem Rhythmus bewegt? Wenn Firmen sehen dass eine gewisse Masche den Umsatz maximalisiert, dann waere man schoen bloed es aendern zu wollen aus moralischen Gruenden oder was auch immer. Es lief stets fuer ATI und laeuft auch heute noch genauso (9700PRO, 9800PRO, 9800XT usw.).
Aber Techdemos und neue tolle HW, klingt halt vor jeder Klientel gut, und zwar so sehr, dass man die schon auf den Markt wirft, bevor die vorhandene womöglich überhaupt die Entwicklungskosten reingespielt hat....
Hatten wir das nicht schonmal mit anderer Formulierung? Und ich stell Dir nochmal die gleiche eher alberne Frage wie ein paar Seiten weiter hinten: wird ein kleines Auto langsamer heiss bei hohen Temperaturen? Eben im Sinn der Nutzlosigkeit gewisser "Features" und im gegeben Beispiel einer im Normalkaufpreis inklusiven Klimaanlage.
Mr. Lolman
2005-04-25, 14:37:36
Ist ja alles schoen und gut, aber ich kam auch auf >90fps in 1024*768*32 mit bilinear auf der K2. In dem ganzen obrigen Quatsch den ich weiter oben angekrempelt habe, ueberdenk mal dass KYRO2 nur ein budget Produkt mit einem 149$ MSRP war, single-chip, mit SDRAM wie die V4 4500 und lediglich 9 MHz hoeherer Taktrate.Ich find NVs SLI Lösungen auch nicht deswegen shice nur weil ne x850XT bisweilen die selben Scores erreicht. (und nochdazu viel günstiger ist)
BTW: War dann die Kyro2 doch eher ein GF2 GTS Killer, denn 3dfx war schon 3 Monate tot, wie die 1. Reviews rausgekommen sind. (ca. 11 monate nach den 1. Voodoo5 Reviews) ;)
Mal abgesehen davon, dass ich irgendwann mal nen Treiber hatte, bei dem doe voodoo5 unter Q3a einwandfreies trilinear brachte (find den leider nicht mehr) war die Darstellungsqualität damals auch schon nicht wirklich vergleichbar (unterschiedliche Helligkeit beim Rendering in Q3a, bei einem IHV forcierte TC, bei den anderen nicht, unterschiedliches 16bit Rendering, unterschiedliches AA,...)
OGSS liess natuerlich zu wuenschen uebrig auf KYRO1/2, aber so besonders beindruckend sind Deine Scores nun auch wieder nicht. Die Relativierung der Leistung ist so wie sie im review angegeben wird, da mit der gleichen Platform getestet wurde. Nachtraeglich oder mit anderen configs kann man selbstverstaendlich je nach der Staerke des Systems hoehere oder niedrigere Resultate erreichen.Genau, die damaligen AA Lösungen liesen alle, bis auf die 3dfx'sche, deutlich zu wünschen übrig, da nur OGSSA möglich war...
In Serious Sam bekam ich damals im Dunes demo 2xFSAA was umsonst auf der K2; der Beschiss der Sache ist dann eben dass das demo nur eine Seite illustriert, dass das damalige System mit einem P3 933MHz verdammt CPU limitiert war und es sich um horizontales Supersampling handelte.Die voodoo5 limitiert ganz klar auf meinem System, da haut eher der PCI vs. AGP Nachteil ein bisschen rein (hab mit 2xAA weniger fps als im Review, trotz deutlich flotterem Sys) Und die Scores sind zumindest beeidruckender als die vom Review.
Nette Versuche die Wahrheit jeglichem idiotischen PR-stunt anzugleichen uebrigens; nur kann man sie leider wenn man ein bisschen Ahnung hat zu leicht durchschauen.Inwiefern jetzt?
Mr. Lolman
2005-04-25, 15:04:33
Wenn Du glaubst dass die default rendering paths bei Serious Sam auf allen GPUs identisch waren, hast Du leider keine Ahnung wie sich das Spiel verhalten hat.Ich check auch nicht, warum von einigen Seiten eisern behauptet wird, dass SS Glide unterstützt. Sie haben in der Tat angefangen das Spiel mit Glide zu programmieren, sind dann aber auf OpenGL umgeschwenkt. Und von den Settings her , hoffe ich doch stark, dass man nicht die Defaulteinstellungen verwendet hat. Soviel Weitsicht setze ich eigentlich von jedem HW Redakteur vorraus...
Es gibt immer Gerechtfertigungen zu Verzweiflungsakten. Du warst uebrigens derjenige der Fanatismus zugegeben hat. Ergo ist wohl jeder Versuch eigentlich nutzlos. Schaltest du überall auf Krampf 8xS ein und regst dich dann auf, dass es zu langsam ist? Nein. Je nach Gegebenheit und Möglichkeit das passende Setting. Wenns beim AA funktioniert, warum nicht damals auch bei der Farbtiefe?
Die GF3 Resultate von SS, sagen mir persoenlich dass hier etwas faul ist.
Weil sie zu hoch sind? (vgl zu GF2 ultra?)
Kann sein dass ich mich jetzt verzettele aber ich hab den Eindruck dass der renderer etwas aelter war. Es war ja auch eigentlich Epic's Bloedsinn; Gott sei Dank war Epic klug genung und hat Daniel eingestellt.Nö, ist er nicht: http://www.3dcenter.de/downloads/unreal-tournament-s3tc.php
Die Frage kann ich bei bestem Willen nicht verstehen.Lt. der CT Umfrage ende 2000 war die Kundeakzeptanz für 3dfx HW praktisch nicht mehr vorhanden. (70% potentielle NV Käufer vs 5% 3dfx käufer).
Nur hatte 3dfx auch shcon in der Vergangenheit wohl nicht die featurebehaftete cripple HW, die sich fürn OEM ausschlachten lässt. War wohl wirklich ein Versäumnis, denn Addon Boards fallen vom OEM Markt sowieso raus, die Banshee fand auch keine Freunde (obwohl: hat damals irgendjemand ohne V2 SLI Unreal in 1024 gespielt?) und außerdem lassen sich die Features des Grafikchips wunderbar im Werbeblatt abdrucken (dass das lahme Vanta Modell nix mit den Benchmarksiegern zu tun hat, weiss der DAU ja eh nicht.)
....und hier kommt ein weiteres Beispiel wie sich manche User leider der bevorzugten PR-Maschine anpassen: zu Zeiten R200 war Supersampling die ultimate AA-Technik und Multisampling quasi nutzlos. Wie schnell sich dieses nach dem R300 aenderte war eigentlich zu bewundern. Generell nicht auf jemanden hier gerichtet.Sagen wir so. OGSS find ich Verschwendung, wegen der doppelt so hohen Last fürs gleiche EER. RGSS ist imo das Optimum, da sich der Füllratenaufwand bloß verdoppelt und nicht vervierfacht nur um sowohl horizontal als auch vertikal geglättete Kanten zu bekommen. Dementsprechend war der R200 auch nur so ne halbe Sache. RGSS funktionierte nur bei Spielen ohne Fogging und bei denen hatte ich auch dann 2xAA aktiv. OGSS war mir den Leistungseinbruch einfach nicht wert.
Heute immer noch mehr oder weniger. Wieso soll ich jegliche theoretische Frage in anbetracht nehmen, wenn der Markt schon seit Jahren so laeuft und man entweder mithaltet oder eben nicht. Was heisst "brauchen" ueberhaupt in einem Markt der sich mit so verruecktem Rhythmus bewegt? Wenn Firmen sehen dass eine gewisse Masche den Umsatz maximalisiert, dann waere man schoen bloed es aendern zu wollen aus moralischen Gruenden oder was auch immer. Es lief stets fuer ATI und laeuft auch heute noch genauso (9700PRO, 9800PRO, 9800XT usw.).Hast ja eh recht. Nur muss man das nicht unbedingt gut heissen. Auch wenn so, ATi bei weitem nicht da stehen würde, wo sie heute sind, wenn sie nicht die 9800pro rausgebracht hätten, die ja im Nachhinein wirklich nix anderes war, als eine übertaktete, overvoltete 9700pro, an welche sich damals kaum ein potentieller NV käufer rangetraut hat...
Hatten wir das nicht schonmal mit anderer Formulierung? Und ich stell Dir nochmal die gleiche eher alberne Frage wie ein paar Seiten weiter hinten: wird ein kleines Auto langsamer heiss bei hohen Temperaturen? Eben im Sinn der Nutzlosigkeit gewisser "Features" und im gegeben Beispiel einer im Normalkaufpreis inklusiven Klimaanlage.Jaja der 45PS Polo. Klima, Servo und elektrisches Gedöhns machen die Kiste nur teurer und lassen wahrscheinlich effektive 30PS übrig wenn man alles aufgedreht hat. Da ists zwar dann schön kühl im Auto (wenn man sich mit so nem Kistchen überhaupt in für Mitteleuropäer abnormal heissen Gebieten aufhält), dafür geht dann nix mehr weiter.
Das schreibt man aber sowieso nicht in den Verkaufsprospekt, weil sich dass neben den gazen Feature ja garnich gut machen würde, und mit ziemlicher Sicherheit so manchen potentiellen Verkäufer abschreckte...
Ailuros
2005-04-25, 15:10:16
Ich find NVs SLI Lösungen auch nicht deswegen shice nur weil ne x850XT bisweilen die selben Scores erreicht. (und nochdazu viel günstiger ist)
Wenn es aber um das Preis-/Leistungsverhaeltnis geht, ist eine konkurrierende single-board Loesung doch ein anderes Kapitel. Uebrigens multi-chip =! multi-board. Egal wie wenige SLi-configs man verkauft, hat der Verbraucher stets die Wahl zwischen einem oder zwei GPUs, und die Entwicklungskosten was die Komplexitaet per GPU betrifft sind kleiner als bei multi-chip. Bei einem SLi setup verkauft halt der IHV zwei GPUs anstatt einer.
BTW: War dann die Kyro2 doch eher ein GF2 GTS Killer, denn 3dfx war schon 3 Monate tot, wie die 1. Reviews rausgekommen sind. (ca. 11 monate nach den 1. Voodoo5 Reviews) ;)
NEIN und absolut nein. Das eigentliche Ziel (schon vom Preis her) war die budget Linie und ergo GF2 MX zu schlagen; ein GF2 Killer war die K2 nie egal wie es durch die Medien verdreht wurde.
[[Nebengeschichte: KYRO2 kam fast ein Jahr zu spaet durch ST Micro's alberne Fuchtelei mit TSMC und dabei hat ST Micro damals auch die erste KYRO3 gestrichen (4 pipelines, DDR, T&L 166/166MHz). Das Ding haette zwar etwas mehr gekostet damals, aber es haette durch der T&L Einheit und der um einiges hoeheren Fuellrate um einiges laengere Lebzeiten und Leistung garantiert.]]
Mal abgesehen davon, dass ich irgendwann mal nen Treiber hatte, bei dem doe voodoo5 unter Q3a einwandfreies trilinear brachte (find den leider nicht mehr) war die Darstellungsqualität damals auch schon nicht wirklich vergleichbar (unterschiedliche Helligkeit beim Rendering in Q3a, bei einem IHV forcierte TC, bei den anderen nicht, unterschiedliches 16bit Rendering, unterschiedliches AA,...)
Gamma wird wohl jeder n00b in der Zwischenzeit anpassen koennen um Himmel's Willen und man kann immer noch 32bpp, bilinear ohne AA vergleichen.
Genau, die damaligen AA Lösungen liesen alle, bis auf die 3dfx'sche, deutlich zu wünschen übrig, da nur OGSSA möglich war...
Design-Entscheidungen. Nur eine Frage der Implementierung da RGSS nicht die Leistung besonders geaendert haette. Bei einem budget Produkt dass als Ziel eine GF2 MX hatte, war es sowieso nicht allzu wichtig.
Inwiefern jetzt?
etwa so: ....Man hätte einen Vogel gehabt auf ner voodoo5 überall auf Krampf 32bit zu fahren....
Ich zumindest weiss genau aus erster Hand wie post filtered 22bpp aussieht; 32bpp ist trotz allem kein Krampf sondern liefert zweifellos bessere Resultate.
Das "gut genug" kommt dann eben unter Bedingungen und diese Bedingungen eben sind auch genauso relativ fuer jegliches Benchmark-Resultat. Es wird nie volle 32bpp Qualitaet ersetzen koennen.
Wieso quotete 3dfx in diesem Fall eigentlich als einfaches Beispiel 32bpp-Leistung?
[img]http://users.otenet.gr/~ailuros/gp1bench.gif[/quote]
Vielleicht weil es sich im Fall von GP-1 um einen reinen 32bpp core handelte und man keinen besonderen Vorteil mit 16bpp Zahlen haette zeigen koennen? Das PR-Dokument war als "the Gigapixel advantage" betitelt. Wie gesagt GP-1 wurde zur Lizenzierung von 3dfx Anfang 2000 freigegeben.
Mr. Lolman
2005-04-25, 15:36:57
Wenn es aber um das Preis-/Leistungsverhaeltnis geht, ist eine konkurrierende single-board Loesung doch ein anderes Kapitel. Uebrigens multi-chip =! multi-board. Egal wie wenige SLi-configs man verkauft, hat der Verbraucher stets die Wahl zwischen einem oder zwei GPUs, und die Entwicklungskosten was die Komplexitaet per GPU betrifft sind kleiner als bei multi-chip. Bei einem SLi setup verkauft halt der IHV zwei GPUs anstatt einer.
Ich schätz mal, dass in Anbetracht der Entwicklungskosten, 2 VSA100 Chips nicht viel teurer gewesen sind, als ein einzelner NV15 (wenn überhaupt)
NEIN und absolut nein. Das eigentliche Ziel (schon vom Preis her) war die budget Linie und ergo GF2 MX zu schlagen; ein GF2 Killer war die K2 nie egal wie es durch die Medien verdreht wurde.Lt. Benchmarks ging sich das tw. aber sogar aus. Also ist PowerVR sogar übers Ziel hinausgeschossen :)
[[Nebengeschichte: KYRO2 kam fast ein Jahr zu spaet durch ST Micro's alberne Fuchtelei mit TSMC und dabei hat ST Micro damals auch die erste KYRO3 gestrichen (4 pipelines, DDR, T&L 166/166MHz). Das Ding haette zwar etwas mehr gekostet damals, aber es haette durch der T&L Einheit und der um einiges hoeheren Fuellrate um einiges laengere Lebzeiten und Leistung garantiert.]]Also kamen nicht nur die Voodookarten zu spät. Vor allem im Vergleich zu wem? Zu NV! Die führten den 6 Monatszyklus ein, die die anderen IHV nicht einhalten konnten und deswegen ihre Karten zu spät auf den Markt brachten. Für die Analysten waren das dann halt Firmen, denen man kein allzugroßes Potential zutrauen durfte...
Gamma wird wohl jeder n00b in der Zwischenzeit anpassen koennen um Himmel's Willen und man kann immer noch 32bpp, bilinear ohne AA vergleichen.Es war nicht nur das Gamma. Es ist unmöglich, genau die gleiche Helligkeit/Farbsättigung zu erreichen. Ich musste auf der Voodoo5 r_overbrightbits auf 1 zurückstellen und r_intensity auf 2 erhöhen, damit die Ausleuchtung gleich wie bei den alten GF Screenshots ist..
Design-Entscheidungen. Nur eine Frage der Implementierung da RGSS nicht die Leistung besonders geaendert haette. Bei einem budget Produkt dass als Ziel eine GF2 MX hatte, war es sowieso nicht allzu wichtig.Das erklärt zwar den Grund, macht die Situation aber auch nicht besser...
etwa so: ....Man hätte einen Vogel gehabt auf ner voodoo5 überall auf Krampf 32bit zu fahren....
Ich zumindest weiss genau aus erster Hand wie post filtered 22bpp aussieht; 32bpp ist trotz allem kein Krampf sondern liefert zweifellos bessere Resultate.
Seh ich nicht so. Bezügl BQ kann man das zwar fast ohne Einschränkungen stehen lassen, aber ein Spiel welches nicht auf massives Alphablending setzt, bringt mit 3dfx Postfilter beinahe 32bit Qualität bei deutlich besserer Geschwindigkeit, was dann womöglich noch 2xAA zulässt, wo vorher die fps schon zu niedrig gewesen wären...
Das "gut genug" kommt dann eben unter Bedingungen und diese Bedingungen eben sind auch genauso relativ fuer jegliches Benchmark-Resultat. Es wird nie volle 32bpp Qualitaet ersetzen koennen.Das hab ich auch nie behauptet, und die Spieleentwicklung der vergangen Jahre zeigt auch, dass der Postfilter immer weiter an Bedeutung verloren hätte. Nur war er schon zu Bansheezeiten in den Augen vieler ein Krampfhafter Versuch irgendwie mit NVs 32bit mithalten zu können. Und an der Stelle frag ich nochmal:
Wars wohl besser Unreal auf ner Banshee mit ditheringfreiem 22bit in 1024 zu spielen, oder mit ebenso ditheringfreiem 32bit in 640 auf ner TNT?
Wieso quotete 3dfx in diesem Fall eigentlich als einfaches Beispiel 32bpp-Leistung?
http://users.otenet.gr/~ailuros/gp1bench.gif
Vielleicht weil es sich im Fall von GP-1 um einen reinen 32bpp core handelte und man keinen besonderen Vorteil mit 16bpp Zahlen haette zeigen koennen? Das PR-Dokument war als "the Gigapixel advantage" betitevlt. Wie gesagt GP-1 wurde zur Lizenzierung von 3dfx Anfang 2000 freigegeben.Klar als Marketingfritz dreht man sichs immer so wie mans gerade braucht. Aber von denen erwarte ich mir auch garkeine Objektivität, mal abgesehen davon, dass 3dfx sich nicht einmal besonders bemühte die 22bit Qualität der V5 noch besonders hervorzuheben (bringt auch nix, wenn sich die halbe Welt auf 32bit eingeschossen hat)
Ailuros
2005-04-25, 15:44:46
Ich check auch nicht, warum von einigen Seiten eisern behauptet wird, dass SS Glide unterstützt. Sie haben in der Tat angefangen das Spiel mit Glide zu programmieren, sind dann aber auf OpenGL umgeschwenkt. Und von den Settings her , hoffe ich doch stark, dass man nicht die Defaulteinstellungen verwendet hat. Soviel Weitsicht setze ich eigentlich von jedem HW Redakteur vorraus...
Serious Sam passt sich der Faehigkeiten der HW zu stark an eben bei default.
Schaltest du überall auf Krampf 8xS ein und regst dich dann auf, dass es zu langsam ist? Nein. Je nach Gegebenheit und Möglichkeit das passende Setting. Wenns beim AA funktioniert, warum nicht damals auch bei der Farbtiefe?
Ich brauch Supersampling eigentlich nur in Spielen die mit alpha tests ueberladen sind heutzutage, und selbst dann fresse ich meistens den Besen und lass es oefters aus Leistungsgruenden bleiben. HL2 als einfaches Beispiel ist stark am Rande der Spielbarkeit mit 4xS in 1280 und die Flackerei geht auch sowieso nicht weg. Ergo bon apetit fuer den Besen und 2xAA in 1600.
Nach der V3 gab es keinen Grund mehr fuer mich weniger als 32bpp zu benutzen, mit Aussnahme ein paar 16bpp Spiele die noch erschienen (z.B. MCM2).
Weil sie zu hoch sind? (vgl zu GF2 ultra?)
Die Resultate sind generell zu hoch und ja auch fuer eine GF3.
Nö, ist er nicht: http://www.3dcenter.de/downloads/unreal-tournament-s3tc.php
Aha! Also doch Q3 2000.
Lt. der CT Umfrage ende 2000 war die Kundeakzeptanz für 3dfx HW praktisch nicht mehr vorhanden. (70% potentielle NV Käufer vs 5% 3dfx käufer).
Nur hatte 3dfx auch shcon in der Vergangenheit wohl nicht die featurebehaftete cripple HW, die sich fürn OEM ausschlachten lässt. War wohl wirklich ein Versäumnis, denn Addon Boards fallen vom OEM Markt sowieso raus, die Banshee fand auch keine Freunde (obwohl: hat damals irgendjemand ohne V2 SLI Unreal in 1024 gespielt?) und außerdem lassen sich die Features des Grafikchips wunderbar im Werbeblatt abdrucken (dass das lahme Vanta Modell nix mit den Benchmarksiegern zu tun hat, weiss der DAU ja eh nicht.)
Ich brauch bitte nicht zichmale wiederholen, warum es so weit bei 3dfx kam. Nochmal bis Du es endlich einsehen willst: haette Rampage der V2 gefolgt waere die gesamte Geschichte wohl vielleicht anders gewesen. Man hat eben zu viele engineers vom Rampage-Projekt beschnitten um die Console fuer SEGA zu entwickeln.
Sagen wir so. OGSS find ich Verschwendung, wegen der doppelt so hohen Last fürs gleiche EER. RGSS ist imo das Optimum, da sich der Füllratenaufwand bloß verdoppelt und nicht vervierfacht nur um sowohl horizontal als auch vertikal geglättete Kanten zu bekommen. Dementsprechend war der R200 auch nur so ne halbe Sache. RGSS funktionierte nur bei Spielen ohne Fogging und bei denen hatte ich auch dann 2xAA aktiv. OGSS war mir den Leistungseinbruch einfach nicht wert.
Rein theoretisch ist ein voll programmierbarer sparsed Algorithmus ala R300 um einiges idealer (egal ob jetzt MS oder SSAA). R200 war nie fuer Supersampling gedacht, sondern haette den R300 Algorithmus haben sollen; mit einem zu frueh veroeffentlichten core mit so einigen HW-bugs war eben nicht mehr als eine merkwuerdige SSAA Implementierung moeglich.
Leistung spielt hier auch eine ziemlich wichtige Rolle und deshalb bevorzuge ich auch schon seit einer Ewigkeit MSAA+AF Kombination in so hoch wie moeglichen Aufloesungen.
Jaja der 45PS Polo. Klima, Servo und elektrisches Gedöhns machen die Kiste nur teurer und lassen wahrscheinlich effektive 30PS übrig wenn man alles aufgedreht hat. Da ists zwar dann schön kühl im Auto (wenn man sich mit so nem Kistchen überhaupt in für Mitteleuropäer abnormal heissen Gebieten aufhält), dafür geht dann nix mehr weiter.
Welcher Polo wird heutzutage mit 45PS verkauft?
kW=!PS
Klimanlage ist uebrigens beim standard Polo optional.
Über die Darstellungsqualität braucht man eigentlich eh kein Wort mehr verlieren, zur Erinnerung aber trotzdem nochmal der Link: http://img88.exs.cx/img88/1084/3dfxvsatvsnvidia4xogl57fj.jpg
Die kleinen 3Dfx Shots sehen nicht schlecht aus. Aber warum ist die hintere Wand gegenüber ATI und NV Karten so matschig?
Mr. Lolman
2005-04-25, 16:06:30
Serious Sam passt sich der Faehigkeiten der HW zu stark an eben bei default.Deswegen hat auch hoffentlich niemand default gebencht...
Ich brauch Supersampling eigentlich nur in Spielen die mit alpha tests ueberladen sind heutzutage, und selbst dann fresse ich meistens den Besen und lass es oefters aus Leistungsgruenden bleiben. HL2 als einfaches Beispiel ist stark am Rande der Spielbarkeit mit 4xS in 1280 und die Flackerei geht auch sowieso nicht weg. Ergo bon apetit fuer den Besen und 2xAA in 1600.
Ja siehste, damals war auf ner V5 1024x768x22 2xAA bei jedem Spiel nutzbar (man ging ja damals noch davon aus, dass ~50fps avg, für Q3a vollkommen reichen)
Nach der V3 gab es keinen Grund mehr fuer mich weniger als 32bpp zu benutzen, mit Aussnahme ein paar 16bpp Spiele die noch erschienen (z.B. MCM2).Für mich schon. Weil mich wandernde Pixeltreppchen halt mehr irritieren, als ein, bei massivem Alphablending, möglicherweise auftretendes Dithering...
Die Resultate sind generell zu hoch und ja auch fuer eine GF3.Bei beiden Serious Sam Benchmarks? Ja vll. waren die Settings nich @ max, aber dass man da einfach generell mit default getestet hat, glaub ich auch nicht ganz.
Aha! Also doch Q3 2000.Ja und? Die Vooodoo5 gabs da schon.
Ich brauch bitte nicht zichmale wiederholen, warum es so weit bei 3dfx kam. Nochmal bis Du es endlich einsehen willst: haette Rampage der V2 gefolgt waere die gesamte Geschichte wohl vielleicht anders gewesen. Man hat eben zu viele engineers vom Rampage-Projekt beschnitten um die Console fuer SEGA zu entwickeln. Ich finds auch schade, dass der Rampage nie verkauft worden ist. Das schmälert aber doch nicht die Qualität der "Zwischenlösungen".
Rein theoretisch ist ein voll programmierbarer sparsed Algorithmus ala R300 um einiges idealer (egal ob jetzt MS oder SSAA). R200 war nie fuer Supersampling gedacht, sondern haette den R300 Algorithmus haben sollen; mit einem zu frueh veroeffentlichten core mit so einigen HW-bugs war eben nicht mehr als eine merkwuerdige SSAA Implementierung moeglich.Weiss ich auch. Dafür hatte der R200 aufgrund seiner AF Implemantation bei AA/AF-Vergleichen, trotz SSAA tw. ähnliche Leistungen wie ne GF4 mit MSAA und AF. Alphatestflimmern, oder Texturbanding? - das war damals die Frage :)
Leistung spielt hier auch eine ziemlich wichtige Rolle und deshalb bevorzuge ich auch schon seit einer Ewigkeit MSAA+AF Kombination in so hoch wie moeglichen Aufloesungen.Damals war 1024 Standard, und MSAA kam eh erst mit der GF3, also hiess es damals: OGSSAA oder RGSSAA (oder garkeins, weil ja die Grafik unscharf wird ;))
Welcher Polo wird heutzutage mit 45PS verkauft?
kW=!PS
Klimanlage ist uebrigens beim standard Polo optional.Gottseidank keiner. Ein Freund von mir fährt aber einen solchen älteren. Und ja, der hat kein Servo und keine Klima und kein ABS und auch keine elektrischen Fensterheber, weil es in der Autobranche im GGs zur PC Branche üblich ist, die Kunden vorher das Produkt testen zu lassen (ja klar ein Auto ist auch etwas teurer als ne GraKa, deswegen wärs da noch blöder die Katze im Sack zu kaufen) und da würde so ein featurestrotzender 45PS Polo wohl einige Irritationen hervorrufen, sobald man mal etwas aufs Gas steigt.
(ungefähr genauso wie rthdribl auf ner FX5200. 2fps mit FP16, da schaltet man in Spielen lieber schon per Treiber die DX9 Untersützung aus)
Sicher könnte man das Setting vom Polo so verändern, dass bei Vollgas Klima, Fensterheber und Servo nicht mehr funktioniert, aber wo das hinführen würde, braucht man sich ja garnicht weiter ausmalen ;)
Mr. Lolman
2005-04-25, 16:13:04
Die kleinen 3Dfx Shots sehen nicht schlecht aus. Aber warum ist die hintere Wand gegenüber ATI und NV Karten so matschig?
Dass die Beleuchtung immernoch leicht anders ist, liegt am Versuch die Grundhelligkeit der Screenshots möglichst gleich zu halten, und die unschärferen Texturen kommen vom nicht angepassten LOD (Dadurch, dass das Bild bei 3dfx nicht einfach - wie beim SSAA üblich - in einer höheren Auflösung gerendert und dann runterskaliert wurde, sondern je nach AA Modus einfach mehrere Bilder mit einem leicht unterschiedlichen Sichwinkel übereinander gelagert werden, werden die Texturen nicht automatisch schärfer)
Das musste man per Treiber nachregeln und ich hab das für die Screenshots nicht gemacht. Außerdem ist NV auch bei jedem (damals von Anandtech aufgenommen) Screenshot schärfer als ATi. Auch ohne AA. :confused:
Ailuros
2005-04-25, 16:18:18
Ich schätz mal, dass in Anbetracht der Entwicklungskosten, 2 VSA100 Chips nicht viel teurer gewesen sind, als ein einzelner NV15 (wenn überhaupt)
Genauso schaetzte man es auch bei 3dfx als man Napalm plante; keiner rechnete die Schwierigkeiten der Implementation des T-buffers mit, keiner wohl die zusaetzliche Treiberentwicklung und dass die 6000 das eine motherboard nach dem anderen verbrannte. Und natuerlich war der erste Rueckzug und dann die Wiederveroeffentlichung auch nicht geplant. Oder?
L't Benchmarks ging sich das tw. aber sogar aus. Also ist PowerVR sogar übers Ziel hinausgeschossen :)
Ein besseres Preis-/Leistungsverhaeltnis in meinem Buch; nicht mehr und nicht weniger.
Also kamen nicht nur die Voodookarten zu spät. Vor allem im Vergleich zu wem? Zu NV! Die führten den 6 Monatszyklus ein, die die anderen IHV nicht einhalten konnten und deswegen ihre Karten zu spät auf den Markt brachten. Für die Analysten waren das dann halt Firmen, denen man kein allzugroßes Potential zutrauen durfte...
PowerVR ist eine Subdivision einer IP Firma und daher von den Herstellungs-partnern voll abhaengig. Soll ich dran erinnern dass Imagination Technologies (former Videologic) aber trotz allem heute noch existiert und dazu erfolgreich ihr IP verkaufen koennen?
Und kehr mir bitte nicht meine Meckerei ueber die Stornierung der originalen K3 unter den Teppich; eine reine Entscheidung des Partners und dazu eine extrem bloede noch dazu. KYRO2 war eher eine "Erfindung" des Partners und dank dieser wurde der 4 pipe/DDR/T&L Design in die Zukunft versetzt.
Es war nicht nur das Gamma. Es ist unmöglich, genau die gleiche Helligkeit/Farbsättigung zu erreichen. Ich musste auf der Voodoo5 r_overbrightbits auf 1 zurückstellen und r_intensity auf 2 erhöhen, damit die Ausleuchtung gleich wie bei den alten GF Screenshots ist..
Mit richtiger Kallibrierung geht alles; selbst wenn es zusaetzliche Software vorraussetzt. Aehnliche Maerchen lese ich schon seit Jahren und dass nicht nur auf Voodoos begrenzt.
Seh ich nicht so. Bezügl BQ kann man das zwar fast ohne Einschränkungen stehen lassen, aber ein Spiel welches nicht auf massives Alphablending setzt, bringt mit 3dfx Postfilter beinahe 32bit Qualität bei deutlich besserer Geschwindigkeit, was dann womöglich noch 2xAA zulässt, wo vorher die fps schon zu niedrig gewesen wären...
Eben "beinahe" (was auch relativ ist).
Wars wohl besser Unreal auf ner Banshee mit ditheringfreiem 22bit in 1024 zu spielen, oder mit ebenso ditheringfreiem 32bit in 640 auf ner TNT?
Bis zu diesem Punkt zweifellos. Das entschuldigt aber 3dfx's erstmal ueberhaupt nicht was 32bpp Unterstuetzung betrifft (lahmer als bei der TNT haette es nicht sein koennen) und zweitens fehlte den Designs um vieles mehr als nur 32bpp.
Klar als Marketingfritz dreht man sichs immer so wie mans gerade braucht. Aber von denen erwarte ich mir auch garkeine Objektivität, mal abgesehen davon, dass 3dfx sich nicht einmal besonders bemühte die 22bit Qualität der V5 noch besonders hervorzuheben (bringt auch nix, wenn sich die halbe Welt auf 32bit eingeschossen hat)
Halbe Welt ist zwar noch etwas bescheiden was den gesamten Markt betrifft, aber so pingelig muss man nun auch wieder nicht sein :)
Wo soll Objektivitaet beim Marketing ueberhaupt moeglich sein? Post-filtered 22bit wurde von Tarolli vor der V3 Veroeffentlichung erwaehnt und das war schon gut genug um einige Debatten, Analysen, Artikel damals hervorzurufen so dass das Publikum darueber bescheid wusste. Mehr als dass haette man auch gar nicht machen koennen, denn es gibt immer feine Linien nach einem gewissen Punkt entweder die Klappe zu halten oder sich zum Spott des gesamten Marktes nur noch daherblubbert. Ueberhaupt wenn es den engineers selber bewusst wahr dass es doch haette besser sein koennen und die ganze ueble Hintergrundgeschichte.
Die ewige Geschichte bei 3dfx; fuer Sage und warum es nur VS1.0 schaffte...
...sadly enough it's lacking address ops, but we managed to get a couple of satisfactory workarounds in there for that until Sage2 shows up...
Am Ende hatten zu viele die Uebermenge der "workarounds" dann Satt und waren teilweise sogar froh dass es endlich vorbei war. Manche beschrieben es sogar als ein komplettes Narrenhaus....
Mr. Lolman
2005-04-25, 16:48:34
Genauso schaetzte man es auch bei 3dfx als man Napalm plante; keiner rechnete die Schwierigkeiten der Implementation des T-buffers mit, keiner wohl die zusaetzliche Treiberentwicklung und dass die 6000 das eine motherboard nach dem anderen verbrannte. Und natuerlich war der erste Rueckzug und dann die Wiederveroeffentlichung auch nicht geplant. Oder?Das war aber AFAIK hauptsächlich die Intel Bridge, die dafür verantwortlich war, dass die 6000er reihenweise abrauchten, und dabei nochdas ein oder andere MB mitrissen. Mit der Hint Bridge gabs das Problem nicht mehr...
Ein besseres Preis-/Leistungsverhaeltnis in meinem Buch; nicht mehr und nicht weniger.Mit anderen Worten: Das bessere Produkt!
PowerVR ist eine Subdivision einer IP Firma und daher von den Herstellungs-partnern voll abhaengig. Soll ich dran erinnern dass Imagination Technologies (former Videologic) aber trotz allem heute noch existiert und dazu erfolgreich ihr IP verkaufen koennen?
Aber nur weil kein Konzern die Firma gekauft hat, um die restlichen Entwicklungen zu stornieren (ok war etwas polemisch ;))
Und kehr mir bitte nicht meine Meckerei ueber die Stornierung der originalen K3 unter den Teppich; eine reine Entscheidung des Partners und dazu eine extrem bloede noch dazu. KYRO2 war eher eine "Erfindung" des Partners und dank dieser wurde der 4 pipe/DDR/T&L Design in die Zukunft versetzt.Na gut!?
Mit richtiger Kallibrierung geht alles; selbst wenn es zusaetzliche Software vorraussetzt. Aehnliche Maerchen lese ich schon seit Jahren und dass nicht nur auf Voodoos begrenzt.Bitte, besorg dir eine Voodoo und kalibrier das Gamma so, dass diese in Q3a das Gleiche anzeigt wie ne GF2. Das geht nicht. Bei allen anderen Spielen ists kein Problem...
Eben "beinahe" (was auch relativ ist).Im Gegensatz zum absoluten Vorteil eines RGSSAA (oder halt JGSAA) im Vgl zum OGSSAA...
Bis zu diesem Punkt zweifellos. Das entschuldigt aber 3dfx's erstmal ueberhaupt nicht was 32bpp Unterstuetzung betrifft (lahmer als bei der TNT haette es nicht sein koennen) und zweitens fehlte den Designs um vieles mehr als nur 32bpp. Stimmt. vll. hat 3dfx die Techdemogeilheit der Gamer unterschätzt. Sonst war 32bit bis inkl TNT2 Ultra (GF SDR?) größtenteils einfach unbrauchbar...
Halbe Welt ist zwar noch etwas bescheiden was den gesamten Markt betrifft, aber so pingelig muss man nun auch wieder nicht sein :)
Wo soll Objektivitaet beim Marketing ueberhaupt moeglich sein? Post-filtered 22bit wurde von Tarolli vor der V3 Veroeffentlichung erwaehnt und das war schon gut genug um einige Debatten, Analysen, Artikel damals hervorzurufen so dass das Publikum darueber bescheid wusste. Mehr als dass haette man auch gar nicht machen koennen, denn es gibt immer feine Linien nach einem gewissen Punkt entweder die Klappe zu halten oder sich zum Spott des gesamten Marktes nur noch daherblubbert. Ueberhaupt wenn es den engineers selber bewusst wahr dass es doch haette besser sein koennen und die ganze ueble Hintergrundgeschichte.Spott wär wohl nur von seitens NV oder von ein paar Reviewern gekommen. Ich mein zum Schluss hatten sie's eh kapiert und fleissig Werbungen geschalten, die die Nähe zum "Gamer" zeigen sollten. Da wars dann aber schon zu spät.
Die ewige Geschichte bei 3dfx; fuer Sage und warum es nur VS1.0 schaffte...
Am Ende hatten zu viele die Uebermenge der "workarounds" dann Satt und waren teilweise sogar froh dass es endlich vorbei war. Manche beschrieben es sogar als ein komplettes Narrenhaus....Ja sollen sie doch. Solang das Portfolio stimmt. (in meinen Augen tat es das, sry)
Es wirkt fast ein bisschen komisch, dass man bei NV so fleissig arbeiten musste, um dann ne GTS zu liefern, die trotz der ganzen "notwendigen" Features, Treibercheats (S3TC :rolleyes: ) braucht, um sich von veralteter 3dfx-Technik leistungsmässig, abheben zu können, während bei 3dfx nur arbeitsfaule Narren am Werken waren, die neben der ganzen Partymacherei es noch schafften, konkurrenzfähige Produkte abzuliefern (wo sich S3 und XGI momentan etwas schwer tut, ohne ihnen jetzt den selben Narrenfaktor anichten zu wollen) - Das müssen Genies gewesen sein :biggrin:
Quasar
2005-04-25, 16:50:19
Es geht ja um Banshee vs. TNT, oder?
Nein:
P.S.: Ich hab mir letztes Jahr auch mal den Spass gemacht und einen P2 233 mit einer GeForce 2 MX und einer Voodoo Banshee bestückt.
Mr. Lolman
2005-04-25, 16:52:14
Nein:
Ok stimmt.
Ailuros
2005-04-25, 16:52:55
Deswegen hat auch hoffentlich niemand default gebencht...
Hoffnung und uebertriebene Resultate die eine Leistung eher der =/>R300 fuer SS darstellen, helfen mir aber nichts.
Ja siehste, damals war auf ner V5 1024x768x22 2xAA bei jedem Spiel nutzbar (man ging ja damals noch davon aus, dass ~50fps avg, für Q3a vollkommen reichen)
Es ging um 8xS auf heutigen GPUs. Anstatt eine niedrigere Aufloesung zu benutzen mit SSAA, ist mir eben eine hoehere Aufloesung lieber. Waere wohl auch nicht damals anders gewesen falls es GPUs zu der Zeit mit MSAA gehabt haette.
Bei beiden Serious Sam Benchmarks? Ja vll. waren die Settings nich @ max, aber dass man da einfach generell mit default getestet hat, glaub ich auch nicht ganz.
*seufz* meine Verdaechte zu den verwendetem timedemo hab ich schon ein paar mal erwaehnt.
Ich finds auch schade, dass der Rampage nie verkauft worden ist. Das schmälert aber doch nicht die Qualität der "Zwischenlösungen".
Doch und zwar sehr mein Herr. Ein V2-Nachfolger mit API unabhaenigem 4x RG Multisampling, per pixel lighting und 32bpp haette die Qualitaets-Pallette um einiges verbreitert damals. Man haette den Postfilter durchaus behalten koennen aus Leistungsgruenden und zur erstklassiger Kompatibilitaet mit 16bpp Applikationen.
Damals war 1024 Standard, und MSAA kam eh erst mit der GF3, also hiess es damals: OGSSAA oder RGSSAA (oder garkeins, weil ja die Grafik unscharf wird ;))
*ahem* ich weiss schon was ich meine. Siehe oben.
Gottseidank keiner. Ein Freund von mir fährt aber einen solchen älteren. Und ja, der hat kein Servo und keine Klima und kein ABS und auch keine elektrischen Fensterheber, weil es in der Autobranche im GGs zur PC Branche üblich ist, die Kunden vorher das Produkt testen zu lassen (ja klar ein Auto ist auch etwas teurer als ne GraKa, deswegen wärs da noch blöder die Katze im Sack zu kaufen) und da würde so ein featurestrotzender 45PS Polo wohl einige Irritationen hervorrufen, sobald man mal etwas aufs Gas steigt.
Wir reden von heutigen Zustaenden. Bei 1.1 und 1.2 Litern ist solches Zeug sowieso selten, bei =/>1.4 dann schon oefters Standard und sind es minimal 75PS, wenn nicht um einiges hoeher je nach Modell. Fazit war von Anfang an hier dass sich fortschrittliche Ausstattungen in jedem Markt mit der Zeit selbst zum billigsten Mist nach unten standardisieren. Man nennt es sogar Fortschritt unter Umstaenden :P
Quasar
2005-04-25, 17:01:52
BTW, soweit ich mich erinnere, war 3dfx Retail-Marktführer mit ihren Voodoo3-Produkten. Soviel zu der These, daß der böse, fehlgeleitete Kunde den Untergang von 3dfx nicht verhindert. Oder hätte sich jeder drei bis vier Voodoo3-Karten kaufen sollen? Ich hab's jedenfalls gemacht, damals.
Mr. Lolman
2005-04-25, 17:22:41
Hoffnung und uebertriebene Resultate die eine Leistung eher der =/>R300 fuer SS darstellen, helfen mir aber nichts. Du selbst hast doch den Techreportbenchmark gepostet...
Es ging um 8xS auf heutigen GPUs. Anstatt eine niedrigere Aufloesung zu benutzen mit SSAA, ist mir eben eine hoehere Aufloesung lieber. Waere wohl auch nicht damals anders gewesen falls es GPUs zu der Zeit mit MSAA gehabt haette.Wer 8xS in 1280 flott genug würd ichs auch verwenden...
Doch und zwar sehr mein Herr. Ein V2-Nachfolger mit API unabhaenigem 4x RG Multisampling, per pixel lighting und 32bpp haette die Qualitaets-Pallette um einiges verbreitert damals. Man haette den Postfilter durchaus behalten koennen aus Leistungsgruenden und zur erstklassiger Kompatibilitaet mit 16bpp Applikationen.Wär schon fett gewesen. Nur wenn ich behaupte ich bring 200 Liegestütz zusammen und ich schaff nur 100 bin ich ja deswegen auch nicht schlechter als einer der auch nur 100 schafft (und halt ein paar Kniebeugen, um dies aber nicht geht wenn wir von Liegestütz sprechen ;))
Wir reden von heutigen Zustaenden. Bei 1.1 und 1.2 Litern ist solches Zeug sowieso selten, bei =/>1.4 dann schon oefters Standard und sind es minimal 75PS, wenn nicht um einiges hoeher je nach Modell. Fazit war von Anfang an hier dass sich fortschrittliche Ausstattungen in jedem Markt mit der Zeit selbst zum billigsten Mist nach unten standardisieren. Man nennt es sogar Fortschritt unter Umstaenden :PDa braucht der billigste Mist aber auch die 75PS damit die ganze Ausstattung einen Sinn hat. Und 75PS seh ich beim besten Willen nicht bei den Karten fürn OEM Markt, denn mit 75PS kann man auch noch mit dem Auto bergauffahren, ohne dass man in den 2. Gang runterschalten muss...
Mr. Lolman
2005-04-25, 17:30:25
BTW, soweit ich mich erinnere, war 3dfx Retail-Marktführer mit ihren Voodoo3-Produkten. Soviel zu der These, daß der böse, fehlgeleitete Kunde den Untergang von 3dfx nicht verhindert. Oder hätte sich jeder drei bis vier Voodoo3-Karten kaufen sollen? Ich hab's jedenfalls gemacht, damals.
Ganz so schnell lassen sich die Kunden auch nicht beirren. Sonst hätte sich damals z.B. kaum jemand ne GF4 gekauft, sondern lieber zur technisch fortschrittlicheren R200 gegriffen.
Aber vll. häts auch gereicht, klingende Namen für z.B. außergwöhnliche Leiterbahnkrümmungen zu finden und das dem Kunden als Feature zu verkaufen. Ob ers brauchen kann oder nicht ist ja eh nur von peripherer Bedeutung ;)
Ailuros
2005-04-25, 17:35:05
Das war aber AFAIK hauptsächlich die Intel Bridge, die dafür verantwortlich war, dass die 6000er reihenweise abrauchten, und dabei nochdas ein oder andere MB mitrissen. Mit der Hint Bridge gabs das Problem nicht mehr...
Da das Ding aber immer noch nicht ganz fertig war, haette es noch mehr gekostet es auf den Markt zu bringen. Die Hint Bruecke war auch nicht perfekt; Colourless redete mal ueber intensives "colour bleeding" in 32bpp. Zufall?
Aber nur weil kein Konzern die Firma gekauft hat, um die restlichen Entwicklungen zu stornieren (ok war etwas polemisch ;))
Schwer zu kaufen sowieso. IP Firmen machen zwar wenig Umsatz, gehen aber auch minimales Risiko ein.
Na gut!?
Mehr Features? Zukunftsicherer? Faellt der Groschen vielleicht?
Bitte, besorg dir eine Voodoo und kalibrier das Gamma so, dass diese in Q3a das Gleiche anzeigt wie ne GF2. Das geht nicht. Bei allen anderen Spielen ists kein Problem...
Ich besorg mir jetzt doch nicht nochmal ein System um mit Antiquitaeten herumzuspielen, nur wegen dem bloeden Punkt. Ich hab am Anfang mit jeglicher GPU das gamma so verwuchert damals dass man die Voodoo-Gewohnheit gleich erkennen konnte. Man konnte schon immer das Gamma per RGB anpassen mit dem demenstprechendem SW. Oder hatten Voodoos vielleicht dass ausserirdische rot dass ich es nie bemerkt habe?
Spott wär wohl nur von seitens NV oder von ein paar Reviewern gekommen. Ich mein zum Schluss hatten sie's eh kapiert und fleissig Werbungen geschalten, die die Nähe zum "Gamer" zeigen sollten. Da wars dann aber schon zu spät.
Extrem naiv gesehen. Nochmal NVIDIA war nicht alleine mit 32bpp support damals; 3dfx war alleine mit 16bpp beim Avenger. Ein wesentlicher Unterschied.
Es wirkt fast ein bisschen komisch, dass man bei NV so fleissig arbeiten musste, um dann ne GTS zu liefern, die trotz der ganzen "notwendigen" Features, Treibercheats (S3TC :rolleyes: ) braucht, um sich von veralteter 3dfx-Technik leistungsmässig, abheben zu können, während bei 3dfx nur arbeitsfaule Narren am Werken waren, die neben der ganzen Partymacherei es noch schafften, konkurrenzfähige Produkte abzuliefern (wo sich S3 und XGI momentan etwas schwer tut, ohne ihnen jetzt den selben Narrenfaktor anichten zu wollen) - Das müssen Genies gewesen sein :biggrin:
Den Witz haettest Du Dir sparen koennen; denn solches Zeug kann ich sowieso nicht ernst nehmen. NVIDIA und ATI haben sich zu Mega-IHVs mit >2200 Personal jeder und Unkosten fuer jede Generation die ueber die 400Mio $ reichen, waehrend 3dfx am Ende gerade noch so viel wert war um deren Schulden zu decken. Die Firma wurde um weniger aufgekauft als Gigapixel (180+ Mio$) die nur ~45 engineers zaehlte und kein einziges Produkt auf den Markt bringen konnte durch die kurze Existenz von GP.
Eine aehnliche IP Firma war ArtX nur eben mit einem Consolen-Vertrag unterm Aermel. Satte 400Mio $ damals hat es ATI gekostet oder?
Ailuros
2005-04-25, 17:54:31
Du selbst hast doch den Techreportbenchmark gepostet...
Ich beziehe mich auf die sudhian review Zahlen. Der Techreport-link war nur ein Gegenbeispiel in einem repraesentativerem timedemo fuer die SS-Leistung.
Wer 8xS in 1280 flott genug würd ichs auch verwenden...
Selbst in heutigen racing-sims als Beispiel anwendbar; ist aber trotz allem Fuellraten-Verschwendung. Ueberhaupt wenn man auch hoehere Aufloesungen mit nur MSAA benutzen kann.
Wär schon fett gewesen. Nur wenn ich behaupte ich bring 200 Liegestütz zusammen und ich schaff nur 100 bin ich ja deswegen auch nicht schlechter als einer der auch nur 100 schafft (und halt ein paar Kniebeugen, um dies aber nicht geht wenn wir von Liegestütz sprechen ;))
Ironie hilft Dir nicht besonders weiter. Tatsache ist und verbleibt dass 3dfx den Zug seither verpasst hat und es gab gar keinen anderen Weg als den Berg abwaerts.
Da braucht der billigste Mist aber auch die 75PS damit die ganze Ausstattung einen Sinn hat. Und 75PS seh ich beim besten Willen nicht bei den Karten fürn OEM Markt, denn mit 75PS kann man auch noch mit dem Auto bergauffahren, ohne dass man in den 2. Gang runterschalten muss...
Kannst Du die 3dfx-Scheuklappen fuer wenigstens ein paar Minuten abnehmen? Ja? Wunderbar. Tief einatmen und nochmal einen Blick auf jeglichen Markt dort draussen werfen. Es gibt heute auch schon Karren mit >90PS und 1.4 Liter. Versuch mir jetzt nicht konstant jeden Dreck im Mund zu verdrehen. Features die frueher nur in ueberteuren Luxus-karren als standard-Ausstattung verkauft wurden, skalierten (und werden auch weiterhin skalieren) mit den Jahren in die billigere Segmente. Falls jetzt 1.4 Liter zu wenig sind, Gott im Himmel dann eben 1.6 Liter; die liegen immer noch im mittlerem zum unteren Segment. Also so kleinlich brauchst Du nun wirklich nicht sein; der fettgedruckte Satz macht Sinn. Der angebliche 45PS Polo war uebrigens Dein Beispiel aus der Steinzeit :P
Mr. Lolman
2005-04-25, 18:04:24
Da das Ding aber immer noch nicht ganz fertig war, haette es noch mehr gekostet es auf den Markt zu bringen. Die Hint Bruecke war auch nicht perfekt; Colourless redete mal ueber intensives "colour bleeding" in 32bpp. Zufall?Das lag dann aber nicht an der Hintbridge, (die ja nur dafür verantwortlich war, dass sich die 4 PCI Geräte als ein AGP Gerät unter ein Hut bringen liessen), sondern eher ein fall von kaputter Treiberimplementation (beim 4xAA und 8xAA), dazu passt auch folgendes Statement von Colourless (der im übrigen die V5 6k aufs Ärgste verrissen hat):
I modified the GlideXP drivers to compensate for the messed up Gamma handling in 4x and 8x modes and run it. Almost like magic, all of the problems that I had previously noticed disappeared. No longer was the banding so obvious. It was still there if you knew exactly where to look, but it looked much better than what I was getting before.Aber vll. hab ich ja bald Gelegenheit das selbst zu testen...
Mehr Features? Zukunftsicherer? Faellt der Groschen vielleicht?
Ne Kyro2 ist heutzutage auch nicht unbedingt schlechter als ne GF2. Die Zukunftssicherheit ist eh nur in vielpropagierter Begrifff, denn letztendlich liegts ja im Ermessen des Kunden, wann er seine HW austauscht...
Ich besorg mir jetzt doch nicht nochmal ein System um mit Antiquitaeten herumzuspielen, nur wegen dem bloeden Punkt. Ich hab am Anfang mit jeglicher GPU das gamma so verwuchert damals dass man die Voodoo-Gewohnheit gleich erkennen konnte. Man konnte schon immer das Gamma per RGB anpassen mit dem demenstprechendem SW. Oder hatten Voodoos vielleicht dass ausserirdische rot dass ich es nie bemerkt habe?Voodoo5: Klick (http://img55.exs.cx/img55/818/q3aglide200412201754467nw.jpg)
Geforce 2 GTS: Klick (http://www.nvnews.net/articles/detonator_2/comp_tex_off_lowres_01b.jpg)
Irgendwie fehlen da die Schatten am Boden der V5 Screenshots , mit r_intensity 2, r_mapoverbrightbits 1 schauts jedoch genauso aus wie am NV Screenshot, ohne dass das einen Einfluss auf die Performance hätte. Also mit Gamma alleine kann man da nix gerade biegen...
Den Witz haettest Du Dir sparen koennen; denn solches Zeug kann ich sowieso nicht ernst nehmen. NVIDIA und ATI haben sich zu Mega-IHVs mit >2200 Personal jeder und Unkosten fuer jede Generation die ueber die 400Mio $ reichen, waehrend 3dfx am Ende gerade noch so viel wert war um deren Schulden zu decken. Die Firma wurde um weniger aufgekauft als Gigapixel (180+ Mio$) die nur ~45 engineers zaehlte und kein einziges Produkt auf den Markt bringen konnte durch die kurze Existenz von GP.
Ich weiss, und ich fands extrem traurig, dass 3dfx einfach so verramscht wurde...
Mr. Lolman
2005-04-25, 18:21:07
Ich beziehe mich auf die sudhian review Zahlen. Der Techreport-link war nur ein Gegenbeispiel in einem repraesentativerem timedemo fuer die SS-Leistung.Trotzdem reicht auch in deinem Gegenbeispiel die doppelte Leistung einer V5 5500 (=V5 6000) für GF2 Ultra speed...
Selbst in heutigen racing-sims als Beispiel anwendbar; ist aber trotz allem Fuellraten-Verschwendung. Ueberhaupt wenn man auch hoehere Aufloesungen mit nur MSAA benutzen kann.Find ich auch; weil Alphatest nur in eine Richtung geglättet wird. Trotzdem würd ich 1280x1024 8xS einer höheren Auflösung, bspw 1600x1200 4xAA eindeutig vorziehen. Ist aber, wie so vieles, Geschmackssache :)
Kannst Du die 3dfx-Scheuklappen fuer wenigstens ein paar Minuten abnehmen? Ja? Wunderbar. Tief einatmen und nochmal einen Blick auf jeglichen Markt dort draussen werfen. Es gibt heute auch schon Karren mit >90PS und 1.4 Liter. Versuch mir jetzt nicht konstant jeden Dreck im Mund zu verdrehen. Features die frueher nur in ueberteuren Luxus-karren als standard-Ausstattung verkauft wurden, skalierten (und werden auch weiterhin skalieren) mit den Jahren in die billigere Segmente. Falls jetzt 1.4 Liter zu wenig sind, Gott im Himmel dann eben 1.6 Liter; die liegen immer noch im mittlerem zum unteren Segment. Also so kleinlich brauchst Du nun wirklich nicht sein; der fettgedruckte Satz macht Sinn. Der angebliche 45PS Polo war uebrigens Dein Beispiel aus der Steinzeit :PDas hat jetzt eigentlich garnix mehr mit 3dfx in dem Sinn zu tun, sondern eher mit der Tatsache, dass featurebehaftete HW dem OEM Markt sichere Verkaufzahlen beschehrt, der Nutzen der Selbigen fürn Kunden jedoch kaum vorhanden ist, und da find ich das Beispiel mit dem 45PS Polo garnicht mal so schlecht, da es damals auch schon den ganzen Technikschnickschnack gab, man sich aber wohl, nicht zuletzt, aufgrund der Leistungsfähigkeit des Triebwerks darauf beschränkte diese Features für den Highendmarkt auszuschlachten.
Wären die aktuellen NV LowEnd-Karten flott genug für DX9/SM3.0 in 1024, würde sich auch niemand aufregen, dass diese Karten auch aggressiv als DX9/SM3.0 Karten beworben werden.
Wären die aktuellen NV LowEnd-Karten flott genug für DX9/SM3.0 in 1024, würde sich auch niemand aufregen, dass diese Karten auch aggressiv als DX9/SM3.0 Karten beworben werden. [/i]
die GF4MX war als midrange/low-end ziemlich flott und die erste budget-karte mit 128bit DDR-interface. trotzdem wurde sie aufgrund der fehlenden features zerissen, man kann es eben nie allen rechtmachen, und der markt hat gezeigt dass sich features besser als speed verkaufen
Ailuros
2005-04-26, 14:21:57
Das lag dann aber nicht an der Hintbridge, (die ja nur dafür verantwortlich war, dass sich die 4 PCI Geräte als ein AGP Gerät unter ein Hut bringen liessen), sondern eher ein fall von kaputter Treiberimplementation (beim 4xAA und 8xAA), dazu passt auch folgendes Statement von Colourless (der im übrigen die V5 6k aufs Ärgste verrissen hat):
Aber vll. hab ich ja bald Gelegenheit das selbst zu testen...
Falls Du ne V5 6k hast, dann ja.
Uebrigens:
....No longer was the banding so obvious. It was still there if you knew exactly where to look, but it looked much better than what I was getting before.
Soll das eine Garantie sein dass es ausschliesslich ein Treiber-problem war/ist?
Ne Kyro2 ist heutzutage auch nicht unbedingt schlechter als ne GF2. Die Zukunftssicherheit ist eh nur in vielpropagierter Begrifff, denn letztendlich liegts ja im Ermessen des Kunden, wann er seine HW austauscht...
a) Starke T&L Einheit die nicht nur die zukuenftige Applikations-Kompatibilitaet sondern auch die finale Leistung um einiges erhoeht haette.
b) Gleiches gilt fuer cube-mapping.
c) Adaptives 16x sample AF und etwas weniger als 4x die trilineare Fuellrate der K2.
d) 166MHz DDR@128bit = 5.3GB/sec Bandbreite vs. 2.8GB/sec (K2)
Falls Dir die Leistung der K2 im Vergleich zur GF2 imponiert hat, dann denk lieber gleich an zweimal so hohe Leistung (aber eben nicht fuer nur 150$). Schon UT2k3 reicht um eine K2 als schlecht spielbar zu bezeichnen, ausser man "spielt" flybys.
Irgendwie fehlen da die Schatten am Boden der V5 Screenshots , mit r_intensity 2, r_mapoverbrightbits 1 schauts jedoch genauso aus wie am NV Screenshot, ohne dass das einen Einfluss auf die Performance hätte. Also mit Gamma alleine kann man da nix gerade biegen...
Gut dann braucht halt die V5 zwei ini Aenderungen in EINEM Spiel (wobei die vorerwaehnten Extensionen ueberhaupt nicht gamma-relativ sind....heh) um die Schatten so darzustellen wie sie sein sollten. Mit diesen Aenderungen der ini fuer die V5 und einer anderen Kallibrierung der GF, komme ich dann auf vergleichbares output oder nicht? Der GF shot sieht uebrigens ueberaus haesslich aus (und nein Lust selbst Q3a nochmal zu installieren hab ich auch nicht).
Ich weiss, und ich fands extrem traurig, dass 3dfx einfach so verramscht wurde...
Sollte Dir aber was sagen ueber den Marktwert einer Firma. Da kommen meistens ein Haufen Markt-Analysten zum Werk, die mehr oder weniger die Prospekte einer Firma einschaetzen koennen. Was hat sie im letzen Jahr verkauft, wie sieht es aus mit Umsatz/Gewinn/Verlust und wie sieht es fuer die Zukunft aus?
VIA zeigte anfangs Interesse, aber die zeigen meistens Interesse an diversen Verkauefen und kaufen meistens so billig wie moeglich ein. NVIDIA hatte guten Grund Interesse zu zeigen, weil sie schon stets ein Auge auf einen Quantum3D Vertrag hatten. Etwa 100+ Angestellte wurden von NV aufgenommen, eine kleinere Zahl von Quantum3D und eine sehr geringe Zahl von ATI.
Das Patent-Gewucher koennte vielleicht auch einen Grund gespielt haben von dem NV eigentlich die Nase voll hatte und kann durchaus auch eines der Gruende sein warum man nie Gigapixel IP zumindest fuer PDA/mobile beruehrt hat.
Trotzdem reicht auch in deinem Gegenbeispiel die doppelte Leistung einer V5 5500 (=V5 6000) für GF2 Ultra speed...
Falls es sich tatsaechlich um "Dunes" handeln sollte, dann ist es keine repraesentative Spiegelung der wahren SS-Leistung und das irrelevant zur benutzten HW. Waere SS ein fuellraten-limitiertes Spiel dann wohl ja.
Find ich auch; weil Alphatest nur in eine Richtung geglättet wird. Trotzdem würd ich 1280x1024 8xS einer höheren Auflösung, bspw 1600x1200 4xAA eindeutig vorziehen. Ist aber, wie so vieles, Geschmackssache.
Beispiel F1 2002 (falls Du das Spiel hast): damit man das intensive Gruseln loswird braucht man tatsaechlich wenigstens einen Schuss SSAA und eine so hoch wie moegliche Aufloesung; momentan laeuft nur 4xS aber es ist auch gut genug fuer 1600.
In einem Gegenbeispiel wie NFS Underground2 aber (mit dem motion blur/depth of field Quark abgeschaltet) wo ich keine Nebeneffekte habe die SS vorraussetzen wuerden, bringt mich 8xS/1280 nicht unbedingt weiter als 1600 mit 4xAA (1280*4 x 960*8 = 5120*7680 vs. 1600*4 x 1200*4 = 6400*4800). Von der sturen EER Mathe mal abgesehen, bekomm ich zwar besser gefilterte Texturen auf der vertikalen Achse im ersten Fall, aber das Resultat ist nicht gut genug gegen die hoehere Aufloesung zu kompensieren. Dazu kommt noch der Leistungs-Unterschied.
Das hat jetzt eigentlich garnix mehr mit 3dfx in dem Sinn zu tun, sondern eher mit der Tatsache, dass featurebehaftete HW dem OEM Markt sichere Verkaufzahlen beschehrt, der Nutzen der Selbigen fürn Kunden jedoch kaum vorhanden ist, und da find ich das Beispiel mit dem 45PS Polo garnicht mal so schlecht, da es damals auch schon den ganzen Technikschnickschnack gab, man sich aber wohl, nicht zuletzt, aufgrund der Leistungsfähigkeit des Triebwerks darauf beschränkte diese Features für den Highendmarkt auszuschlachten.
Featurebehaftete HW muss aber erst zumindest Anfangs im high end Bereich existieren, und das eben war der konstante Fehlschlag von 3dfx seit 1998.
Selbst zu Zeiten wo es 45PS Polos gab, gab es teure Luxuskarren von Volkswagen (und/oder anderen Modellen des VAG Konzerns) wo derartige extras vorhanden waren.
Bei 3dfx eben nicht und ich werde wohl nicht nochmal wiederholen muessen warum. Wenn so manche Idioten in der obrigen Direktion nicht nur sinnlos Moneten verplempern, sondern auch ihre eigene Taschen fuellen, kann es auch nicht viel besser werden.
As most of you know, 3dfx has launched a new, $20 million advertising campaign, centering not specifically around Voodoo3, but rather their new corporate image and "customer branding for 3d accelerators." While this does coincide with the product announcements for their various flavors of Voodoo3, you'll notice that the television commercials (one of which is available for viewing on-line at 3dfx) don't specifically hawk Voodoo3.
http://www.firingsquad.com/hardware/v34000/default.asp
20Mio$ waren damals genug fuer die Entwicklung einer kompletten Produktlinie.
Von dem abgesehen was heisst bei Dir eigentlich "Marktforschung"? Egal welchen Bereich man beruehrt ist Marktforschung eine wichtige Vorraussetzung oder man schnueffelt den Markt und die Konkurrenz mit anderen Worten ab. Entweder man passt sich dem was der Markt verlangt an und auch was die Konkurrenz bietet an, oder man krallt sich an dem fest was man nur bieten kann und beginnt zu beten. Im Idealfall und wenn moeglich versucht man sogar die Konkurrenz zu ueberbieten in allen Abteilungen.
Wären die aktuellen NV LowEnd-Karten flott genug für DX9/SM3.0 in 1024, würde sich auch niemand aufregen, dass diese Karten auch aggressiv als DX9/SM3.0 Karten beworben werden.
Fehlschlag und so war es auch nie gemeint; denn hier stimme ich eventuell teilweise mit ein. Ja SM3.0 ist quasi nutzlos fuer schwache GPUs im budget Bereich momentan; aber es ist eine klare marketing-technische Taktik gegen ATI. Mit der NV34 hat es auf jeden Fall gut geklappt und es kann durchaus sein dass sich dieser Schachzug wieder als erfolgreich zeigen koennte.
Von dem abgesehen SM3.0 ist seit letztem Jahr im high end Bereich verfuegbar und es hat NVIDIA geholfen (die Effizienz-Steigerung der NV4x vs. NV3x mitinbegriffen) die Verkaufszahlen zu erhoehen, denn was Leistung betrifft lassen heutige Radeons nichts zu wuenschen uebrig; im ultra high end sogar sind sie stellenweise um einiges schneller.
ATI haette auch SM3.0 frueher geboten im high end, waeren sie nicht gezwungen gewesen den originalen R400 zu mehrere Teile aufzubrechen; u.a. musste man Resourcen aufteilen fuer XBox2 und es gab bis heute keinen einzigen IHV der keine Aenderungen in seiner roadmap vornehmen musste wegen einer Consolen-Entwicklung.
PowerVR/Videologic sah wegen dem Dreamcast Design die groesste Verspaetung in der PC desktop Geschichte mit der Neon250, NVIDIA verschob die NV25 und NV30 wegen dem XBox Design und ATI verschob genauso ihre roadmap fuer Xenon/XBox2.
NVIDIA hat wohl ihre eigene roadmap Aenderung (dank Verspaetung von Longhorn/WGF2.0) im geheimen fuer SONY PS3 ausgenutzt. SONY war uebrigens schon immer ein quasi unerreichbares Ziel fuer alle IHVs - auf fuer 3dfx in der Vergangenheit - um fuer sie Grafikchips fuer ihre Consolen zu entwickeln. Ob sich der Vertrag zwischen SONY und NVIDIA zum Vorteil der letzteren ausspielen wird, steht noch in den Sternen.
Fuer mich persoenlich war der Aufwand, die Unkosten und die internen Verspaetungen bei 3dfx fuer die SEGA Console, quasi der Anfang aller folgenden Probleme. Haetten sie den Vertrag nicht verloren, dann haetten eventuell die Entwicklungs-Unkosten wieder reinfliessen koennen. Somit gab es nicht nur ein Loch in der roadmap, sondern auch ein Loch in der Kasse.....noch schlimmer es wanderten eben gerade die Ingienieure aus die von Anfang darauf bestanden haben bei der Konzept-entwerfung der SEGA Console, dass man solchen Mist nicht fuer eine Console bieten kann die ~5 Jahre aushalten muss. Genau eben der "lack of vision" Punkt in einem meiner vorigen Posts. Das sind gleich 3 ueble Flecken mit einem Schlag.....
Ailuros
2005-04-26, 14:36:26
die GF4MX war als midrange/low-end ziemlich flott und die erste budget-karte mit 128bit DDR-interface. trotzdem wurde sie aufgrund der fehlenden features zerissen, man kann es eben nie allen rechtmachen, und der markt hat gezeigt dass sich features besser als speed verkaufen
Stimmt zwar schon, aber midrange fuer GF4MX ist leicht uebertrieben. Midrange war damals dann eher GF3 Ti200 IMHO, von der Leistung und dem Preis her gesehen.
c) Adaptives 16x sample AF und etwas weniger als 4x die trilineare Fuellrate der K2.
die gf2 hatte maximal 2xAF
Ailuros
2005-04-27, 06:49:44
die gf2 hatte maximal 2xAF
Es war auch offensichtlich NICHT die GF2 gemeint; STG5000 falls es helfen sollte.
Ich denke, dass 3dfx' Fehler vielfältig waren. Jede Company macht Fehler, auch ATI und NV haben sich peinliche Fehltritte geleistet.
3dfx' genialer Voodoo Graphics Chipsatz funktionierte, weil er a) schön einfach war und b) sich auf das wesentliche konzentrierte.
Voodoo2 bot technisch bis zu 3 TMUs und SLI endlich auch im Retail-Markt. In den Handel gelangten dann Versionen mit 2 TMUs oder (von Quantum3D) SLI-on-board-Versionen mit je nur einer TMU. Quantum3D verlegte sich ja später voll auf den Workstation-Markt. Mit einer Zusatz-Hardware bot eine 4x SLI-Voodoo2 (á 1 TMU) später schon T-Buffer-Effekte.
Der T-Buffer ist imo klar als Rampage-Technologie gedacht, kam in einer abgespeckten Version dann aber schon im VSA-100 zum Einsatz.
Die Banshee war sowohl als Office-Karte, als auch als Spieler-Karte ok.
Die Voodoo3 war als Spieler-Karte noch viel besser, und in der abgespeckten Version mit 8 MB als Office-Karte noch gut. Leider hat 3dfx den OEM-Markt etwas schleifen lassen. 3dfx hat STB gekauft und wollte exklusiv produzieren. Damit trieb man die anderen Boardhersteller in Scharen zu Nvidia. Nvidia, mit der (imo) zweitbesten Lösung konnte sich da nur freuen.
Ebenso wurde bei der Voodoo3 leider kein SLI mehr angeboten. Von Quantum3D gabs natürlich SLI-Versionen auch auf Voodoo3-Basis, aber das lag außerhalb der Reichweite des Spielers. Eine Voodoo3 3000 SLI hätte die Füllrate von irren 666 Megatexeln geboten. Damit hätte 3dfx die Konkurrenz auf Abstand halten können, während in Ruhe der Rampage zuende gebracht wird.
Dass kein 32-Bit-Modus geboten wurde und Texturen auf 256x256 begrenzt waren und es keine 32-MB-Voodoos gab, war schade. 3dfx hätte hier vorausdenkend planen sollen, und den Chip entsprechend fortentwickeln. Klar wäre die Voodoo3 mit 32 Bit langsamer gewesen – was aber bei SLI dem Absatz wohl eher noch förderlich gewesen wäre. Ansonsten könnte der Spieler 16-Bit-Modus nehmen, um volle Leistung zu genießen. Mit 32 MB Speicher wäre die Voodoo3 teurer gewesen, man hätte weiterhin auch 16-er Versionen anbieten können. Nvidia hat die TNT2 M64, leistungsschwach³, erfolgreich mit 32 MB onboard-Speicher verkauft.
Was hätte 3dfx aus der Voodoo3 alles machen können! Dank SLI eine schnelle 32-Bit-Lösung. Um der GeForce256 vorläufig zu begegnen, hätte man Voodoo4 und 5 klemmen können, und eine nur leicht verbesserte Voodoo3, DDR-RAM-tauglich, und sagen wir mit trilinearen TMUs und mit höherem Takt bringen können. Die DDR-RAM-Fähigkeit hätte 64-Bit-Versionen gestattet, die noch einigermaßen leistungsfähig und dabei billiger zu produzieren gewesen wären.
Sagen wir aber, das mit dem höherem Takt hätte nicht geklappt, nur 150 MHz wären drin. Doch die SLI-Lösung hätte auf einem Board platziert werden können, so dass die dann als Voodoo4 bezeichnete Voodoo3-SLI bei 150 MHz immerhin 600 trilineare Megatexel geboten hätte – statt 480, wie GeForce256. Dank dem doppelten DDR-RAM-Interface wäre die 32-Bit-Leistung konkurrenzlos und hätte auch der GeForce2 GTS noch das fürchten gelehrt. Vor allem wären dann die Ressourcen da gewesen, mit dem Voodoo-Nachfolger spätestens zur GeForce2 GTS fertig zu sein.
Leider verzögerte sich der Rampage dermaßen, dass zur Überbrückung der VSA100 entwickelt werden musste, dessen Fertigstellung sich dann aber auch verzögerte. Und dann konnte die immerhin bestehende Nachfrage nicht mit genügend Chips gedeckt werden, so dass die Preise hoch blieben.
Die Voodoo3 war zu ihrer Zeit eine sehr gute Karte, keine Frage. Doch 3dfx' Engstirnigkeit zeichnete sich bereits deutlich ab. Deshalb sehe ich auch ATIs ewigen R300-Aufgüsse kritisch.
reunion
2005-04-27, 13:56:49
Die Voodoo3 war als Spieler-Karte noch viel besser, und in der abgespeckten Version mit 8 MB als Office-Karte noch gut. Leider hat 3dfx den OEM-Markt etwas schleifen lassen. 3dfx hat STB gekauft und wollte exklusiv produzieren. Damit trieb man die anderen Boardhersteller in Scharen zu Nvidia. Nvidia, mit der (imo) zweitbesten Lösung konnte sich da nur freuen.
Ebenso wurde bei der Voodoo3 leider kein SLI mehr angeboten. Von Quantum3D gabs natürlich SLI-Versionen auch auf Voodoo3-Basis, aber das lag außerhalb der Reichweite des Spielers. Eine Voodoo3 3000 SLI hätte die Füllrate von irren 666 Megatexeln geboten. Damit hätte 3dfx die Konkurrenz auf Abstand halten können, während in Ruhe der Rampage zuende gebracht wird.
Dass kein 32-Bit-Modus geboten wurde und Texturen auf 256x256 begrenzt waren und es keine 32-MB-Voodoos gab, war schade. 3dfx hätte hier vorausdenkend planen sollen, und den Chip entsprechend fortentwickeln. Klar wäre die Voodoo3 mit 32 Bit langsamer gewesen – was aber bei SLI dem Absatz wohl eher noch förderlich gewesen wäre. Ansonsten könnte der Spieler 16-Bit-Modus nehmen, um volle Leistung zu genießen. Mit 32 MB Speicher wäre die Voodoo3 teurer gewesen, man hätte weiterhin auch 16-er Versionen anbieten können. Nvidia hat die TNT2 M64, leistungsschwach³, erfolgreich mit 32 MB onboard-Speicher verkauft.
Was hätte 3dfx aus der Voodoo3 alles machen können! Dank SLI eine schnelle 32-Bit-Lösung. Um der GeForce256 vorläufig zu begegnen, hätte man Voodoo4 und 5 klemmen können, und eine nur leicht verbesserte Voodoo3, DDR-RAM-tauglich, und sagen wir mit trilinearen TMUs und mit höherem Takt bringen können. Die DDR-RAM-Fähigkeit hätte 64-Bit-Versionen gestattet, die noch einigermaßen leistungsfähig und dabei billiger zu produzieren gewesen wären.
Sagen wir aber, das mit dem höherem Takt hätte nicht geklappt, nur 150 MHz wären drin. Doch die SLI-Lösung hätte auf einem Board platziert werden können, so dass die dann als Voodoo4 bezeichnete Voodoo3-SLI bei 150 MHz immerhin 600 trilineare Megatexel geboten hätte – statt 480, wie GeForce256. Dank dem doppelten DDR-RAM-Interface wäre die 32-Bit-Leistung konkurrenzlos und hätte auch der GeForce2 GTS noch das fürchten gelehrt. Vor allem wären dann die Ressourcen da gewesen, mit dem Voodoo-Nachfolger spätestens zur GeForce2 GTS fertig zu sein.
SLi hätte IMO das Problem auch nicht behoben.
Die Chips wurden einfach immer rückständiger im Vergleich zur Konkurrenz.
nV schaffte es mit der Geforce2U, die theoretischen Leistungsadaten der V5 6K, die immerhin mit vier(!) VSA-100 Chips betrieben wurde, zu überbieten.
Man hätte einfach viel früher in fortschrittlichere Technologien investieren und den Rampage fertigstellen müssen. Immerhin musste man wegen Rampage bis zuletzt zwei Chipdesigns parallel entwicklen.
Leider verzögerte sich der Rampage dermaßen, dass zur Überbrückung der VSA100 entwickelt werden musste, dessen Fertigstellung sich dann aber auch verzögerte. Und dann konnte die immerhin bestehende Nachfrage nicht mit genügend Chips gedeckt werden, so dass die Preise hoch blieben.
AFAIK war Rampage als Nachfolger der Voodoo1(!) geplant, das sagt eigendlich schon alles über die katastophalen Zustände bei 3dfx.
Aber die eigendlichen Probleme saßen IMO viel tiefer:
-Der Sega-Deal, der 3dfx mit Sicherheit jedemenge Ressourcen gekostet hat, um dann schließlich zu scheitern, reichte aus um die Konkurrenz auf gleiche Höhe zu hiefen.
-Wohl einer der größten Fehler war der Kauf von STB. Das offensichtlich größenwahnsinnige Managment kaufte einer total veraltete Fabrik, die nichtmal annähernd in der Lage war die Nachfrage zu decken.
-Es wurde bis zuletzt auf total veraltete Technologien gesetzt, selbst Rampage hatte sein erstes Tapeout noch in 0,25µm, zum Vergleich, der direkte Konkurrenzchip NV20 entstand in 0,15µm. Selbst die besten Ingenieure hätten diesen Nachteil nichtmehr ausgleichen können.
-Die Chips wurden technologisch kaum weiterentwickelt, im grunde tat sich bis zur V3 überhaupt nichts.
-Die total veralteten Tools versagten spätestens beim VSA100 völlig, sodass sich dieser mehrmals verspätete.
Die Folge davon waren in Scharen auswandernde Topingenieure, die es für 3dfx immer schwerer machten Konkurrenzfähig zu bleiben.
Und selbst das alles wäre noch kein Problem gewesen, wenn man nicht im OEM-Markt total versagte. Nur um das mal zu verdeutlichen, AFAIK war 3dfx bei der Übernahme von nV noch immer Retailmarktführer!
Ailuros
2005-04-27, 14:11:51
Deshalb sehe ich auch ATIs ewigen R300-Aufgüsse kritisch.
NVIDIA ist aber auch der einzige IHV der momentan >SM2.0_x bietet.
Neben der Shader-Komplianz passt sich ATI schon seit Jahren den sogenannten "Industrie-standards" so schnell wie moeglich an (siehe auch PCI-E/2004; obwohl wiederrum NV durch die fehlende Verfuegbarkeit von AGP Radeons letztes Jahr doch auch noch extra gut verkauft hat).
Ich hab zwar die Relativierung der ultra high end/high end Verkaufszahlen nur bis zum letzten Jahr verkauft, aber von dem was ich hoerte aenderte sich der 80:20 Trend fuer R300/NV30 zu 60:40 mit NV40/R420. Ob jetzt diese Zahlen stimmen oder nicht ist weniger wichtig; wichtig fuer mich ist dass sich ATI's Verkaufszahlen zwar reduziert haben, aber sie halten sich trotz allem ausserordentlich gut bis jetzt mit der R4xx-Linie generell.
ATI's Erfolg der Vergangenheit ist IMHO mehr darauf zurueckzufuehren dass sie sich konstant auf multimedia relative Features konzentriert haben, was nicht gerade unwichtig ist fuer den OEM Markt. Ein weiteres Anzeichen dafuer ist dass NVIDIA konstant versucht sich mehr und mehr auf multimedia zu konzentrieren (nStant media oder SONY's Vertrag als einfache Beispiele u.a.).
ATI war meiner Meinung nach regelrecht gezwungen den PC desktop Markt so stark anzugreifen, weil eben NVIDIA ihren OEM Marktanteil konstant abknabberte.
Neben all den vorerwaehnten Fehlern, hat man bei 3dfx leider auch zu spaet daran gedacht andere Maerkte zu bedienen (z.B. das TV-tuner Dingsda vor dem Ende oder die IP-Verkauf relativierten Plaene - auch inkl. PDA/mobile - nach dem GP Aufkauf).
NVIDIA und ATI waren sich schon seit langem bewusst dass sie nur mit PC desktop oder relativem OEM Zeug nicht unbedingt weiterkommen; es kamen Consolen-, multimedia-, PDA/mobile-, chipsatz- usw. Projekte zum Vorschein und wir haben bestimmt noch nicht das Ende davon bis jetzt gesehen. Man braucht eben Flexibilitaet um ueberleben zu koennen und genau die gleiche Masche (aber auf einer um einiges kleineren Skala) ist auch Videologic/IMG mit ihrem IP eingegangen (multi-threaded IP cores, DAB, PDA/mobile usw.).
Ironischerweise sind eine ziemlich gesunde Anzahl von den besten vorigen 3dfx-engineers fuer die Entwicklung der nForce chipsets verantwortlich.
Der T-Buffer ist imo klar als Rampage-Technologie gedacht, kam in einer abgespeckten Version dann aber schon im VSA-100 zum Einsatz.
Als Erinnerung fuer die die es noch nicht gehoert haben: "T" von Tarolli und eine SSAA-Version des originalen Rampage M-buffers ("M" fuer Multisampling).
Leider verzögerte sich der Rampage dermaßen, dass zur Überbrückung der VSA100 entwickelt werden musste, dessen Fertigstellung sich dann aber auch verzögerte. Und dann konnte die immerhin bestehende Nachfrage nicht mit genügend Chips gedeckt werden, so dass die Preise hoch blieben.
Rampage (von R1 bis R4) erlebte einen unendlichen "feature-creep"; bis zum Punkt als er endlich fast fertig war, dass es doch nicht mehr das absolute heisseste Eisen im Ofen gewesen waere (deshalb auch dual chip Spectre). Der letzte CEO haute dann endlich mit der Faust auf den Tisch und wollte das Ding endlich veroeffentlichen. 3dfx wurde verkauft als der Rampage core schon sein tape-out hatte und gerade OGL ausgebuegelt wurde.
Kurz nach dem Verkauf gab es so manche Fragen fuer NVIDIA, wie ihnen das technologische Portofolio von 3dfx/Gigapixel vorkommt. Die Antwort war - soweit mich mein Gedaechtnis nicht betruegt - dass so manches imposant ist, aber trotzdem nicht besser was NVIDIA fuer ihre eigene zukuenftige roadmap geplant hatte und dem will ich auch Glauben schenken, obwohl es natuerlich eine verstaendlich diplomatische Antwort war.
Es gibt keine "Wunder-GPUs", nur eher kluge marketing-technische Schachzuege. NVIDIA hatte kein Pech mit low-k 130nm@TSMC und NV30; sie wurden von der foundry gewarnt und gingen trotz allem das Risiko ein, als weiteres Beispiel.
Ailuros
2005-04-27, 14:24:56
AFAIK war Rampage als Nachfolger der Voodoo1(!) geplant, das sagt eigendlich schon alles über die katastophalen Zustände bei 3dfx.
V2 nicht V1.
Die Folge davon waren in Scharen auswandernde Topingenieure, die es für 3dfx immer schwerer machten Konkurrenzfähig zu bleiben.
Passierte schon irgendwo spaet in 1998 unter Greg Ballard's Direktion.
Und selbst das alles wäre noch kein Problem gewesen, wenn man nicht im OEM-Markt total versagte. Nur um das mal zu verdeutlichen, AFAIK war 3dfx bei der Übernahme von nV noch immer Retailmarktführer!
Bis zum Avenger ja; danach wohl nicht mehr.
Ailuros
2005-04-27, 14:40:55
http://www.firingsquad.com/hardware/3dfxdemise/default.asp
Ein paar Luecken und Fehler aber ein paar wichtige Wahrheiten findet man schon in dem Artikel (Fehler, bugs, Geldverschwendung usw.)....
<snip>
One example of this was somebody apparently forgetting to go to Asia to pickup the first batch of completed VSA-100 chips. Another example was a mistake in QA. Quake3 was repeatedly locking their system on Voodoo5 and they could not determine the cause. After a two-week delay the cause was found to be a bad Ghost image that was repeatedly used. These and other reasons set VSA-100 back by weeks.
...ich haette mir damals die Haare ausreissen koennen vor Wut, und wenn es nur die einzigen Beispiele waeren....
While all these events were occurring, 3dfx was losing money. The board manufacturing plant in Mexico was never at capacity, reducing profits on each graphics board sold by roughly 10% from the intended 25% margin. Only in 3dfx’s final months did management decide to start selling out the remaining factory space, filling the product lines. This brought the board plant to near profitability on its own, but this was just one change that was too little, too late.
3dfx was notorious for spending money. In the last year or so, roughly $30-50,000 was spent monthly on lunches. This did not include the additional snacks and drinks that were provided to employees. Hiring didn’t stop until the last few weeks, with all of us keeping hope that the company would pull through. Of course this did not happen.
*aechz*
Could 3dfx have lasted? Perhaps. They were offered a line of credit, but the board opted not to accept it as they would not accept the terms. Rumors within the company also circulated that an investor had expressed strong interest in the company, but backed out from a simple "goof" on the boards’ part (specifically, it was said to be their mention to the investor the possibility of a buyout by another company). But what would the future have held for 3dfx?
Nein. Der Investor ging nie auf den deal ein, weil man ihm ein um einiges schwacheres Produkt angeboten hat, als anfangs versprochen.
3dfx's first low-end OEM part. Daytona was effectively a VSA-100 part with a DDR memory controller and a 64-bit memory bus. The idea was to deliver a cheaper version of the VSA-100, with the 64-bit bus making a notable dent in cost. Daytona simply could not be finalized though. It would tape out and a bug would be found, then tape out again and another bug would be found. Fortunately, a chip was not made between each tape out with the final number being A7 silicon.
7 tape-outs tatsaechlich. Von wegen DDR memory controller und 64bit bus eine "einfache" Geschichte.
Fear (Fusion + Sage2) waren PS/VS1.1 AFAIK. Es gab in der Feature-liste displacement mapping, aber wie man es realisiert haette keine Ahnung.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.