PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Voodoo5 oder Geforce 2 Ti DDR-Ram


Unregistered
2001-12-09, 15:07:14
Ich brauche nen TV-Ausgang und hätte die Möglichkeit meine "3dfx Voodoo 5500 AGB" gegen eine "PIXELVIEW 64 MB DDR-RAM GeForce2Ti AGP Retail+TV-OUT" zu tauschen. Ich spiele viele 3d Spiele und hab gelesen, das die Voodoo besser sei. Kann mir einer helfen, ob ich die Karten tauschen soll.
Mein System 1,4 GHz Athlon + K7s5a Motherboard + 512 MB DDR Ram

Kobold
2001-12-09, 15:13:09
HI,

wo hast du gelesen das ne Voodoo 5 besser sein soll als ne GF2TI ? Das ist völliger schwachsinn die Ti ist um längen besser. Oder erreicht eine Voodoo 5 10977 Punkte im 3DMark2000? Meine Ti schon siehe Link



MFG Kobold

Exxtreme
2001-12-09, 15:16:29
Also die GF2Ti ist spielemässig deutlich besser wenn du auf das FSAA und Ultima IX verzichten kannst. Ob aber die Pixeview eine gute GraKa ist weiss ich nicht. Und am falschen Ende würde ich nicht sparen.

Gruß
Alex

Etienne
2001-12-09, 15:22:00
Originally posted by Kobold
HI,

wo hast du gelesen das ne Voodoo 5 besser sein soll als ne GF2TI ? Das ist völliger schwachsinn die Ti ist um längen besser. Oder erreicht eine Voodoo 5 10977 Punkte im 3DMark2000? Meine Ti schon siehe Link



MFG Kobold

3D Mark 2k ist sehr stark CPU lastig...

Ich hab mit nem P3 1,3 ghz + Geforce 3 nur 8000....


Aber das liegt an der CPU + Chipsatz...


Ich sag nur:

Tausch!!!

Die voodoo 5 ist nur in AA besser... Und das ist dann aber unspielbar lam...

Exxtreme
2001-12-09, 15:32:56
@ Kobold
Ich würde an deiner Stelle nicht viel auf 3DMurks200x geben. Beispiel: sobald deine HD nur einmal ganz kurz swappt, ist dein Gesamtergebnis am A****. Man kann mit diesen Programm nur GraKa's vergleichen, die die Features des 3DMurks200x komplett in Hardware unterstützen. Da die V5000 z.B. kein T&L in Hardware kann, ist sie sehr stark im Nachteil. Komischerweise ist auch eine TNT2Ultra laut 3DMurks200x schneller als die V5000. IMHO sind nur die theoretischen Tests im Einzelnen interessant. Aber auf das Gesamtergebnis würde ich nicht geben. Es ist nicht praxisrelevant.


Gruß
Alex

StefanV
2001-12-09, 15:56:32
Originally posted by Kobold
wo hast du gelesen das ne Voodoo 5 besser sein soll als ne GF2TI ? Das ist völliger schwachsinn die Ti ist um längen besser. Oder erreicht eine Voodoo 5 10977 Punkte im 3DMark2000? Meine Ti schon siehe Link

1. 3DMark ist was für DAUs
2. Schon mal eine V5 gesehen??
3. Schon mal eine V5 im Rechner gehabt??
4. Schon mal ältere GLIDE Spiele mit der V5 gesehen??

Es gibt durchaus Argumente FÜR die V5!!

Nämlich, wenn man vorrangig ältere GLIDE Spiele Spielen will.

Oder alte Spiele mit FSAA sehen will!!

Für letzteres gibt es ja jetzt die Radeon 8500!!

StefanV
2001-12-09, 16:01:26
Originally posted by Unregistered
Ich brauche nen TV-Ausgang und hätte die Möglichkeit meine "3dfx Voodoo 5500 AGB" gegen eine "PIXELVIEW 64 MB DDR-RAM GeForce2Ti AGP Retail+TV-OUT" zu tauschen. Ich spiele viele 3d Spiele und hab gelesen, das die Voodoo besser sei. Kann mir einer helfen, ob ich die Karten tauschen soll.
Mein System 1,4 GHz Athlon + K7s5a Motherboard + 512 MB DDR Ram

Behalte die V5 und kaufe dir eine ATI Radeon mit TV Out.

Um genau zu sein:

Radeon 7500, 8500 oder Radeon VE.

Die V5 hat auch ihre Vorteile (wie du in meinem Vorigem Post sehen kannst ;))

Andre
2001-12-09, 16:02:53
Stefan, hör doch mal mit deinem Nostalgiehype für die Voodoo auf.
Die V5 ist ja sicherlich nicht schlecht, aber Fakst ist nunmal, dass eine Geforce 2 TI in den meisten AKTUELLEN Titeln einfach besser performt - vor allem unter OpenGL.
Und ich glaube kaum, dass sich jemand HEUTE eine Graka kauf, um Games von 1998-1999 zu zocken.
Und jetzt kommt nicht wieder mit U9 :D

Err, nochwas:

"Oder alte Spiele mit FSAA sehen will!!

Für letzteres gibt es ja jetzt die Radeon 8500!!"

Achso, die Geforce 2/3 kann ja gar kein FSAA, dass kann ja nur die Radeon 8500, stimmt ja.
Mal ganz davon abgesehen, dass die Radeon in einer GANZ anderen Preisklasse auftritt.

Also meine Wahl wäre die Geforce 2 TI, aber vielleicht solltest Du nicht unbegingt eine Pixelview nehmen, sondern eine von einem Markenhersteller.

Andre
2001-12-09, 16:04:46
Ach ja, Kobold:

Den 3DMark 2000 als Kaufargument anzuführen - na ja.
Kein Benchmark dieser Welt ist mehr auf die NV-Hardware zugeschnitten, deshalb scheidet er als Referenz schonmal aus.

StefanV
2001-12-09, 16:13:26
Originally posted by Andre
"Oder alte Spiele mit FSAA sehen will!!

Für letzteres gibt es ja jetzt die Radeon 8500!!"

Achso, die Geforce 2/3 kann ja gar kein FSAA, dass kann ja nur die Radeon 8500, stimmt ja.
Mal ganz davon abgesehen, dass die Radeon in einer GANZ anderen Preisklasse auftritt.

Also meine Wahl wäre die Geforce 2 TI, aber vielleicht solltest Du nicht unbegingt eine Pixelview nehmen, sondern eine von einem Markenhersteller.

1. es gibt sicher einige, die noch einen ganzen Batzen alter (GLIDE) Spiele im Schrank haben...

2. Ja, sicher kann Radeon 1/7500 und die GF Karten auch FSAA, aber hast du dir schonmal die Performance angeschaut??
Selbst bei der TI/ULTRA finde ich das absolut indiskutabel ;)Höchstens die GF3 wäre interssant, wenn man mit FSAA spielen will, über einen Hack ist auch SSAA möglich ;)
ERGO:
FÜR FSAA taugt nur Radeon 8500, GF3 und mit Einschränkungen die V5.
3. Pixelview :kotz:
Wenn dann z.B. Leadtek, ASUS oder Gainward.

Andre
2001-12-09, 16:18:19
zu 1.

Ja sicher, aber jetzt überlege doch einmal bitte, welche Games heute gezockt werden.
Und wenn sie im Schrank stehen, dann brauche ich auch keine Voodoo um sie zu spielen :)

zu 2.

Du vergleichst aber Äpfel mit Birnen.
Unreg hat nach einer Geforce 2 gefragt, die Radeon 8500 ist in einer Preisklasse, also in dieser Frage erstmal irrelevant.

zu 3.

Ok, da teilen wir eine Meinung.

StefanV
2001-12-09, 16:38:43
Originally posted by Andre
zu 1.

Ja sicher, aber jetzt überlege doch einmal bitte, welche Games heute gezockt werden.
Und wenn sie im Schrank stehen, dann brauche ich auch keine Voodoo um sie zu spielen :)

zu 2.

Du vergleichst aber Äpfel mit Birnen.
Unreg hat nach einer Geforce 2 gefragt, die Radeon 8500 ist in einer Preisklasse, also in dieser Frage erstmal irrelevant.

zu 3.

Ok, da teilen wir eine Meinung.

1. CS, UT, Voodoo ausreichend (sogar FSAA möglich ;))
Q3, Voodoo ebnfalls ausreichend ;)

2. Stimmt, ich hab ja auch nur gesagt, welche Karten ich für TV Out empfehlen würde ;)
Vom 2D Teil her sind alle 3 identisch.
Sozusagen hab ich die 'beiläufig erwähnt' ;)

ow
2001-12-09, 17:04:10
Originally posted by Unregistered
Ich brauche nen TV-Ausgang und hätte die Möglichkeit meine "3dfx Voodoo 5500 AGB" gegen eine "PIXELVIEW 64 MB DDR-RAM GeForce2Ti AGP Retail+TV-OUT" zu tauschen. Ich spiele viele 3d Spiele und hab gelesen, das die Voodoo besser sei. Kann mir einer helfen, ob ich die Karten tauschen soll.
Mein System 1,4 GHz Athlon + K7s5a Motherboard + 512 MB DDR Ram

Tauschen?? Ohne Zuzahlung? Auf was wartest du noch??

Die Gf2 ist der V5 weit überlegen.

[fu]121Ah
2001-12-09, 20:08:32
ow, in fsaa nicht, wenn t-buffer benützt würde da auch....

die gf2 ist nur von der rohleistung überlegen. von der featureseite nicht.

aber heute zählt ja nur noch das, also tausche... obwohl ich meine v5 noch habe, und sagen muss dass es einfach das schönere bild ist... und fsaa in RTCW ist so geil...

Razor
2001-12-09, 20:15:05
Kommt halt direkt auf die eigenen Präferenzen an...

Wenn Leistung wichtiger ist, als Bildqualität, dann sicher die Pixelview...
(die von der SQ her sich nicht das Optimalste ist ;-)

Wenn Bildquali bevorzugt wird, dann sollte man bei der V5 bleiben...
(und eben bei der Leistung Einschränkungen in Kauf nehmen ;-)

"Jedem das seine !"
;-)

In diesem Sinne

Razor

ow
2001-12-09, 21:29:03
Originally posted by [fu]121Ah
ow, in fsaa nicht, wenn t-buffer benützt würde da auch....

die gf2 ist nur von der rohleistung überlegen. von der featureseite nicht.

aber heute zählt ja nur noch das, also tausche... obwohl ich meine v5 noch habe, und sagen muss dass es einfach das schönere bild ist... und fsaa in RTCW ist so geil...



Also FSAA geht auch mit der Geforce und die Qualität ist anständig (s.a hier: http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=17).

T-Buffer interessiert nicht, da nicht weiter genutzt.

Features der V5? Welche denn jetzt noch?

[fu]121Ah
2001-12-09, 23:22:57
features:

22bit postfilter
T-Buffer
Glide unterstützung
Bessere skalierbarkeit
Bessere bandbreitennutzung
das beste fsaa
multichipfähigkeit

naja, falls ich mal das geld für n aalchemysystem habe ow, zeig ich dir was richtige grafik ist.

Legolas
2001-12-09, 23:45:36
Originally posted by ow




Also FSAA geht auch mit der Geforce und die Qualität ist anständig (s.a hier: http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=17).


Die GF2 möcht ich sehen, die bei 2x2FSAA so schnell ist wie eine V5 bei 2xFSAA :D:D

Xmas
2001-12-10, 04:59:42
Originally posted by [fu]121Ah
features:

22bit postfilter
T-Buffer
Glide unterstützung
Bessere skalierbarkeit
Bessere bandbreitennutzung
das beste fsaa
multichipfähigkeit

naja, falls ich mal das geld für n aalchemysystem habe ow, zeig ich dir was richtige grafik ist.
Hehe. Spar dir das, es gibt besseres.
Multichipfähigkeit ist ein Feature des Chips, nicht der Karte. Oder kannst du noch ein paar zusätzliche Chips auf deine V5 löten? Die bessere Bandbreitennutzung zweifle ich mal an. Zumal 128Bit DDR-RAM der GTS von vornherein weniger Bandbreite als 2*128Bit SDR-RAM der V5 bedeutet. T-Buffer ist uninteressant. Glide und Postfilter sind schöne Sachen, verlieren aber auch an Bedeutung. Dass das FSAA besser ist, bezweifelt wohl keiner.

Legolas, so ein Beispiel lässt sich bestimmt finden. Aber eben auch andersrum. 2x2 OGSS mit 2x RGSS zu vergleichen, ist aber genausowenig fair, wie 2xOGSS mit 2xRGSS zu vergleichen.

[fu]121Ah
2001-12-10, 08:45:16
Originally posted by Xmas

Hehe. Spar dir das, es gibt besseres.
Multichipfähigkeit ist ein Feature des Chips, nicht der Karte. Oder kannst du noch ein paar zusätzliche Chips auf deine V5 löten? Die bessere Bandbreitennutzung zweifle ich mal an. Zumal 128Bit DDR-RAM der GTS von vornherein weniger Bandbreite als 2*128Bit SDR-RAM der V5 bedeutet. T-Buffer ist uninteressant. Glide und Postfilter sind schöne Sachen, verlieren aber auch an Bedeutung. Dass das FSAA besser ist, bezweifelt wohl keiner.

Legolas, so ein Beispiel lässt sich bestimmt finden. Aber eben auch andersrum. 2x2 OGSS mit 2x RGSS zu vergleichen, ist aber genausowenig fair, wie 2xOGSS mit 2xRGSS zu vergleichen.

ehm, postfilter ist sehr interessant, vorallem für die voodoo5, weisst du, mit 16bit spielt es sich sehr gut, und mit 22bit sieht es auch sehr gut aus... tbuffer wäre interessant, bandbreitennutzung stimmt, werde dir mal nen link schicken wenn ich den bericht wieder gefunden habe. glide ist ebenfalls interessant, es spielen mehr leute UT als q3 und deshalb finde ich das glide auch noch nicht zum alteisen gehört. mehrere chips kannst du wohl nicht drauflöten, kannst du aber 2 geforce 2 chips auf ne platine löten?

du hast wohl nicht begriffen dass es eine riesen leistung ist ein funktionierendes SLI system zu bauen. ati hats nicht geschafft, nvidia hats gar nicht erst versucht... ]

Andre
2001-12-10, 09:36:00
Originally posted by [fu]121Ah


ehm, postfilter ist sehr interessant, vorallem für die voodoo5, weisst du, mit 16bit spielt es sich sehr gut, und mit 22bit sieht es auch sehr gut aus... tbuffer wäre interessant, bandbreitennutzung stimmt, werde dir mal nen link schicken wenn ich den bericht wieder gefunden habe. glide ist ebenfalls interessant, es spielen mehr leute UT als q3 und deshalb finde ich das glide auch noch nicht zum alteisen gehört. mehrere chips kannst du wohl nicht drauflöten, kannst du aber 2 geforce 2 chips auf ne platine löten?

du hast wohl nicht begriffen dass es eine riesen leistung ist ein funktionierendes SLI system zu bauen. ati hats nicht geschafft, nvidia hats gar nicht erst versucht... ]

Und ich glaube, dass Du nicht einsiehst, dass die meisten von Dir genannten Features Schnee von gestern sind.

22 Bit Postfilter, wenn ich alles in 32 Bit flüssig zocken kann ?
Ich kann ja verstehen, dass Du mit der V5 viele Games nur noch in 16 Bit spielen kannst, damit sie flüssig laufen, aber prinzipiell ist 16 Bit bei jeder aktuellen Karte out.

T-Buffer, wozu ?
Bandbreitenutzung, wo ist die bitte effizienter als bei einer Geforce 2 mit DDR-Ram (OK, blöder Vergleich SD- gegen DDR-Ram) ?
Wieviele Games werden wohl in Zukunft mit der Glide-API rauskommen ?
Und das mehr Leute UT als Q3 zocken, halte ich mal für ein Gerücht.

Und was bitte soll der Vorteil eine Multichipfähigen Chips sein ?

Com1
2001-12-10, 10:02:34
Ja, die V5 ist eine wunderbare Karte. Vorallem auch was Kompatibilität und Stabilität angeht. Es gibt sicher keine zweite Karte mit der du so einen haufen spiele in so guter (Bild)Qualität spielen kannst. Aber da die Treiberentwicklung stillsteht ist auch dieser Vorteil demnächst dahin.

Und bei aktuellen GraKalastigen Titeln ist die Karte einfach schon etwas zu langsam. RTCW, Max Payne, Aquanox überall müssen unter 32 Bit kräftig Details runtergeschraubt werden um anehmbare Frameraten zu erreichen.

Den fehlenden TV Out konnte ich vor einem Jahr noch verschmerzen aber seit dem ich einen neuen Fernseher hab will ich da unbedingt mal DVDs und DivX Filme drauf schauen. :D

Und die Versuche, OpenGL Spiele unter XP mit der V5 ans laufen zu bringen habe ich mittlerweile aufgegeben, da erreicht man nichtmal annährend Win 9x Speed.

Und deshalb kommt bei mir demnächst die Radeon 8500 in den Rechner.

Legolas
2001-12-10, 16:20:28
Originally posted by Xmas

Legolas, so ein Beispiel lässt sich bestimmt finden. Aber eben auch andersrum. 2x2 OGSS mit 2x RGSS zu vergleichen, ist aber genausowenig fair, wie 2xOGSS mit 2xRGSS zu vergleichen.

IQ ist vergleichbar.. also kann man die 2 Modi ziemlich gut miteinander vergleichen... und damit 2x2 OGSS so schnell ist wie 2xRGSS braucht man für OG die doppelte Rohleistung, also möchte ich nur einen einzigen Gamebench sehen, wo beide gleich schnell sind...

aber ist ja egal :D:D lassen wir lieber diese Diskussion... wie schon ein alter Preusse mal sagte: Jeder soll nach seiner Fasson glücklich werden :D:D ;)

[fu]121Ah
2001-12-10, 16:33:18
naja andre, das ut mehr gespielt wird ist ne tatsache.

ich will ja auch nicht mit dir über geforce ist scheisse und voodoo ist geil diskutieren. ich hab selbst ne gf2 pro drin, und die voodoo in dem 2ten pc, deshalb sage ich hier nichts.

der tbuffer wäre etwas sehr tolles, und der mbuffer des rampages noch toller. nvidia wird ja das 3dfx FSAA in ihren neuen chips verwenden (weis nicht ob im nv25 oder 30), da kann man wohl sagen das ihr 2 jahre altes verfahren besser ist als das neue quinfuckverfahren.

und jetzt speziell für dich andre, die voodoo hat 2 chips, das heisst 2x 128bit interface. ok? das lässt eine bessere nutzung zu als 1x 128bit ddr...

einfache erklärung, hast du 100% leistungsteigerung bei DDR-RAM? NEIN, nur schon durch diese tatsache sind 2x 128bit SD besser.

die vorteile des multiblablachips sind ja wohl klar. quantum 3d fertigt 32chip systeme mit vsa100 chips, die für researchzwecke eingesetzt werden, ein 4x vsa board hat in etwa die leistung der gf3, ein 8x ist bedeutend schneller. und die chips sind billiger in der produktion.

schon mal in ne FA-18 rein geschaut? rat welche grafikchips drin sind.

schon mal in nen Apache Longbow simulator rein geschaut, welche chips sind drin?

schon mal spielautomaten aufgeschraubt? ne ich frage gar nicht mehr...

Haarmann
2001-12-10, 16:41:34
Andre,

für RTCW reichte die V5 noch gut bei 1024 32Bit 2xFSAA für Multiplayer - alle Details inkl. Reine Frage der CPU halt.
Einzig das XP Treiberdilemma nervt, aber das ist ja wohl hausgemacht von MS und NV.
Der XP D3D Treiber von MS verfügt nämlich über Änderungen, die die alten Treiber nicht haben - fällt einem auf, falls man Ghost Recon spielt ;-). Leider fehlt dort wiederum OpenGL...
Wer aber auf XP verzichten kann, kann noch mit ner V5 leben, genau gleich, wie er mit ner GTS2 leben kann. Schneller is diese auch nicht mehr - Das hat aber mehr mit der CPU Entwicklung zu tun...
Die einzige Karte, die nun endgültig fürn Arsch is, is jegliche Form einer MX (allerdings bin ich mir ned sicher, ob die je zu gebrauchen war).

Andre
2001-12-10, 17:08:55
>naja andre, das ut mehr gespielt wird ist ne tatsache.

Aha, eine Tatsache, weil Du das sagst ?

>ich will ja auch nicht mit dir über geforce ist scheisse und voodoo >ist geil diskutieren. ich hab selbst ne gf2 pro drin, und die voodoo >in dem 2ten pc, deshalb sage ich hier nichts.

Wieso, tust Du doch ?!

>der tbuffer wäre etwas sehr tolles, und der mbuffer des rampages >noch toller.

Hätte, wenn und aber.

>nvidia wird ja das 3dfx FSAA in ihren neuen chips verwenden (weis >nicht ob im nv25 oder 30), da kann man wohl sagen das ihr 2 jahre >altes verfahren besser ist als das neue quinfuckverfahren.

Ach, noch jemand, der in der Entwicklungsabteilung von NV sitzt.

>und jetzt speziell für dich andre, die voodoo hat 2 chips, das >heisst 2x 128bit interface. ok? das lässt eine bessere nutzung zu >als 1x 128bit ddr...

2 X 128 Bit SDRam ist also effektiver als 1 X 128 Bit DDR-Ram ?
Ist mir neu, aber erkläre es mir.
Und das speziell für Dich kannst Du demnächst streichen, ich bin weder dumm noch hirnamputiert.

>einfache erklärung, hast du 100% leistungsteigerung bei DDR-RAM? >NEIN, nur schon durch diese tatsache sind 2x 128bit SD besser.

Weil 2 X 128 Bit SDRam langsamer sind, sind sie besser ???

>die vorteile des multiblablachips sind ja wohl klar. quantum 3d >fertigt 32chip systeme mit vsa100 chips, die für researchzwecke >eingesetzt werden

Schön, was bringt mir das als Gamer ?

>ein 4x vsa board hat in etwa die leistung der gf3, ein 8x ist >bedeutend schneller. und die chips sind billiger in der produktion.

Siehe oben.
Hätte, wenn und aber.

>schon mal in ne FA-18 rein geschaut? rat welche grafikchips drin >sind.
>schon mal in nen Apache Longbow simulator rein geschaut, welche >chips sind drin?
>schon mal spielautomaten aufgeschraubt? ne ich frage gar nicht >mehr...

Interessiert mich als Gamer wenig - alles Spezialgebiete, die Stärke einer heutigen Graka liegt in deren Allroundfähigkeiten.
Und selbst wenn die Chips in der ersten Enterprise stecken würde, würde ich sie mir nicht kaufen, wenn ich weder Support NOCH technische Zukunft vorfinden würde.

Legolas
2001-12-10, 18:24:18
Originally posted by Andre

2 X 128 Bit SDRam ist also effektiver als 1 X 128 Bit DDR-Ram ?
Ist mir neu, aber erkläre es mir.
Und das speziell für Dich kannst Du demnächst streichen, ich bin weder dumm noch hirnamputiert.


128-bit DDR-Ram hat nur 70-80% der Effizienz von 256bittigem (oder 2x128bittigem) SDR-SDRAM. Dafür gibt es verschiedene Gründe.. zum einen muss ein Speicherzugriff bei 128bittigem DDR-RAM immer in 256 Bit-Packeten erfolgen. Wenn der Chip also angenommen 96bits aus dem Speicher braucht, werden 160 Dummybits geschrieben. Eine V5 hat aber 2 getrennte 128bittige SDR Interfaces. Werden nun 96 bit aus dem Speicher benötigt, so werden nur 32 Dummybits geschrieben. Also ist SDR RAM effizienter als DDR RAM... um eben den DDR-Speicher effizienter zu nutzen hat ja Nvidia auch den Memorycontroller der GF3 in 4 64bittige aufgeteilt, um eben die Effizienz beim Speicherzugriff zu erhöhen. Auch muss man beachten, daß die DDR-Technik zwar die Peak-Bandwidth erhöht, aber die Latenz wird nicht halbiert, sondern bleibt gleich.

Der Leistungsunterschied zw. V5 und GF2 dürfte in der anderen Chiparchitektur des VSAs begründet sein.. ein VSA hat 2 Pipes mit einer TMU, die bei Multitexturing zusammengeschalten werden. Eine V5 hat also 4 Pipes à einer TMU... also 4 einfach texturierte Pixel/Clock oder 2 zweifach texturierte/Clock. Der GF2 GTS Chip hat 4 Pipes à 2 TMUs was 4 einfach texturierten Pixeln/Clock entspricht.. bei Multitexturing bietet er jedoch ebenfalls 4 Pixel/Clock die jetzt aber mit 2 Texturen versehen sind. Sobald aber Speicherbandbreite knapp wird (hohe Auflösungen, 32 bit) fällt der Unterschied in der Architektur jedoch immer weniger ins Gewicht, so daß eine GF 2 GTS und eine V5 mehr oder weniger identische oder fast identische Werte liefern. Um ein Dual 128bit SDR Interface mit einem 128bit DDR Interface zu vergleichen sollte man lieber die GF 256 DDR und die V5 miteinander vergleichen, da der GF 256 auch nur eine TMU/Pipeline bietet, und die Architekturen der beiden Chips sich eher ähneln

ow
2001-12-10, 19:20:17
Originally posted by [fu]121Ah

der tbuffer wäre etwas sehr tolles, und der mbuffer des rampages noch toller. nvidia wird ja das 3dfx FSAA in ihren neuen chips verwenden (weis nicht ob im nv25 oder 30), da kann man wohl sagen das ihr 2 jahre altes verfahren besser ist als das neue quinfuckverfahren.



Was ist denn so toll am T-Buffer?
Den braucht doch jetzt wirklich keiner.



und jetzt speziell für dich andre, die voodoo hat 2 chips, das heisst 2x 128bit interface. ok? das lässt eine bessere nutzung zu als 1x 128bit ddr...

einfache erklärung, hast du 100% leistungsteigerung bei DDR-RAM? NEIN, nur schon durch diese tatsache sind 2x 128bit SD besser.



LOL. Du hast also 100% Leistungssteigerung bei der V5 gegenüber V4??
Also ob 2x128Bit SDR oder 128Bit DDR ist absolut unerheblich.



die vorteile des multiblablachips sind ja wohl klar. quantum 3d fertigt 32chip systeme mit vsa100 chips, die für researchzwecke eingesetzt werden, ein 4x vsa board hat in etwa die leistung der gf3,


Nö, 4 VSA 100 verbraten etwa 100W Leistung, sind der GF3 also DEUTLICH überlegen.

aths
2001-12-10, 20:58:36
"Was ist denn so toll am T-Buffer?
Den braucht doch jetzt wirklich keiner."

Anti-Aliasing
Motion Blur
Field of Depth
Soft Shadows
Soft Reflections...

... ich hätte gerne eine T-Buffer-Unterstützung. Aber was ow nicht kennt, mag er nicht.

"Also ob 2x128Bit SDR oder 128Bit DDR ist absolut unerheblich."

Oh weh, da schrieb wohl einer der "objektivsten" im Forum.

"Nö, 4 VSA 100 verbraten etwa 100W Leistung,"

Inkl. Board ca. 80 Watt.

Andre: "die Stärke einer heutigen Graka liegt in deren Allroundfähigkeiten."

Das würde aber eher für Voodoos sprechen - siehe Glide-Kompatbelität, siehe erhöhte 16-Bit-Qualität, siehe das kompatibelste FSAA überhaupt.

Quasar
2001-12-10, 21:26:26
@[fu]121ah:
Sag bloß, du hast in all diese teuren Geräte schon mal reingeschaut.
btw, die F-18 ist total veraltet, und wird nur noch wegen ihrer Kurzstartfähigkeit von Trägern eingesetzt, sowie bei der ANG, die ja eh immer die Reste bekommen ;)
In den Daddelautomaten gibt es auch erstaunlich viel PowerVR-Technologie in Verbindung mit TnL.....

2x128Bit wären sicher effektiver, wenn sie nicht auch gleichzeitig zum doppelten Texturentransfer genutzt würden.

@Haarman:
1024x32 + 2xFSAA in RTCW? Entweder, du bist erstaunlich genürgsam, was Frameraten angeht, oder RTCW-final unterscheidet sich stärker von der Demo, als ich dachte. Nicht mal NFS Porsche war mit 2xFSAA in 1024x32 zu ertragen...
agree: MX ist Scheiße...

@Legolas:
Agreed!

@ow:
Du schreibst immer noch kurz und provokant....

@aths:
"Was ist denn so toll am T-Buffer?
Den braucht doch jetzt wirklich keiner."

Anti-Aliasing
Motion Blur
Field of Depth
Soft Shadows
Soft Reflections...

... ich hätte gerne eine T-Buffer-Unterstützung. Aber was ow nicht kennt, mag er nicht.

Ich erinnere mich an einen Artikel von Dir mit der Überschrift: "TnL, das nicht eingelöste Versprechen".
Wie kommt es, daß du hier mit zweierlei Maß misst? Der T-Buffer ist aus heutiger Sicht noch viel weniger "eingelöst", als es TnL je war. Btw, es gibt ca. (genau) vier Demos von 3dfx, wo du mit einer Voodoo5 volle T-Buffer Unterstützung demonstriert bekommst, wenn auch nur für jeden Effekt, bis auf FSAA, separat. Desweiteren noch einen Quake3-MP-Test-Hack, der zumindest Motion Blur unterstützt.

Das würde aber eher für Voodoos sprechen - siehe Glide-Kompatibilität, siehe erhöhte 16-Bit-Qualität, siehe das kompatibelste FSAA überhaupt.

Was macht denn das 3dfx-FSAA zum kompatibelsten FSAA? Könntest du das bitte näher erklären?

Andre
2001-12-10, 21:57:38
@ Legolas

Danke für die Infos, wenn man sich wie Du die Mühe macht, dass zu erklären, wird es mir auch klar :)

@ aths

"Das würde aber eher für Voodoos sprechen - siehe Glide-Kompatbelität, siehe erhöhte 16-Bit-Qualität, siehe das kompatibelste FSAA überhaupt."

???

Schliesse mich da Quasar an:
Wo ist das FSAA der Geforce inkompatibel ?
Ich sage es aber gerne noch einmal:
Ich brauche keine erhöhte 16 Bit-Qualität, wenn ich in 32 Bit mit modernen Karten alles flüssig spielen kann.
Wo wir gerade bei den Allround-Fähigkeiten sind:
Wie siehts denn bei der Voodoo so performancemäßig in OpenGL (ohne T&L) aus ?

@ Quasar

Das mit dem unterschiedlichen Maß von aths hatten wir doch schonmal, oder ;)

Thowe
2001-12-10, 22:38:34
Um FSAA beurteilen zu können muss man es schon mal in motion gesehen haben. Screenshots helfen da recht wenig.

Darum habe ich mal das FSAAdemo von Soós Árpád hier (www.thowe.de/tools/fsaa.zip) hochgeladen.

Quasar
2001-12-10, 23:21:23
Hab's mir grad mal runtergeladen.

Hast ja nen echt schnellen Server da Thowe :)


Und mich freut's, weil mein FSAA is soo kompatibel, das ich sogar 16xOGSS hinkriege...

Im Ernst:
Das bildchen is wirklich n beetn lütt dafür dass man was drauf erkennen sollte.

Ich seh grad noch nen Unterschied zwischen noFSAA und FSAA, aber nicht mehr zwischen den verschiedenen AA-Stufen und Modi.

P.S.:
Hab grad den "double"-Button gefunden :)
Aber bringen tut's nix. Ich seh immer noch keinen Unterschied zwischen den verschiedenen Modi.

Aber btw, hab ich FSAA schon mal in Atkion gesehen, oder besser gesagt, als es Aktion verhindert hat. Auf meiner alten Voodoo5 nämlich. Mit 4XFSAA konnte von vernünftigem Spielen keine Rede mehr sein. Und wer mir jetzt erzählen will, daß ich, um Artefakte (Treppchen) zu beseitigen, andere Artefakte (16Bit-Dithering oder 22Bit-PF-Gematsche) ertragen muss, der sollte nochmal über den Sinn von Qualitätsteigernden Features nachdenken.

FSAA ist und bleibt für mich erst mit DX8-Karten (wobei ich nur die GF3 live erlebt habe) teilw. eine sinnvolle Ergänzung.

Razor
2001-12-10, 23:36:21
@Quasar

Mach doch mal 'nen Häkchen ins 'Double' rein, dann wird's größer. Auch steht doch in der Readme, daß 'ne Aulösung von 640x480 oder 800x600 (letzteres hab' ich benutzt) zu empgehlen ist !
;-)

***

Auch ich hab' mir mal das Demo gezogen...
(was ich übrigens schon kannte ;-)

Was mir aufgefallen ist:
- in Bewegung sieht das Ganze sehr mehrwürdig aus (kann aber auch an meiner 'schwächlichen' CPU liegen ;-)
- 4xOGFSAA ist mit 4xRGFSAA identisch
- 16xOGFSAA sieht sehr gut aus (kaum Unterschied zu 9xOGFSAA)
- Blurr sieht richtig häßlich aus (und ist NICHT mit Quincunx zu vergelichen)

Nettes Demo, aber leider ohne viel Aussagewert, da mit CPU berechnetetes FSAA doch wohl offensichtlich zu langsam ist (zumindest auf meinem PIII900 ;-), um den unterschied anschaulich zu verdeutlichen...
Hmmm...

In diesem Sinne

Razor

P.S.: Quasar, vergíß meine Anmerkung zu Dir !
;-)

aths
2001-12-11, 00:18:06
Andre,

du fragst: "Wo ist das FSAA der Geforce inkompatibel ?"

Ich kann leider nicht mit Quellen dienen, sondern mich nur daran erinnern, hier und da gelesen zu haben, Spiel XYZ würde auf GF-sowieso nicht mit FSAA laufen. Derartige Probleme hörte ich von V5-Besitzern nie.

Es ist kein Nachteil, bessere 16-Bit-Grafik zu haben. Sei es nur für alte Spiele, die kein 32 Bit unterstützen. Voodoos boten bereits bessere 16-Bit-Grafik, als es von nVidia noch keine Chips gab, die unter 32 Bit kaum einbrachen.

"Wie siehts denn bei der Voodoo so performancemäßig in OpenGL (ohne T&L) aus ?"

Es sieht gut aus, wenn die CPU mitmacht.

Wie sieht es denn bei GF-Karten performancemäßig so mit Glide aus? Voodoos bieten 3 Schnittstellen, GF nur 2. Die Bedeutung von Glide geht zurück, doch für einen wie mich, der von der Voodoo-Strecke kommt, ist Glide auch heute noch nicht unbedeutend. Im Moment spiele ich gerade wieder WCP. Es läuft auch mit D3D5, bietet aber nur unter Glide alle Effekte. Das scheinst du einfach übersehen zu wollen.

Oder stimmst du nicht mit mir überein in der Meinung, dass eine Allround-Karte zunächst einmal weitestgehende Kompatibelität liefern sollte?


Quasar,

der 22-Bit-Filter erzeugt kein Gematsche (im Gegensatz zu Quincunx.) Eine Voodoo5 bietet 2x FSAA, das von der Kantenglättung her dem 4x FSAA einer jeden GeForce (beinahe) ebenbürtig ist.

Mit 2x FSAA kannst du auf einer Voodoo5 vieles angenehm spielen. Quake Multiplayer vielleicht nicht. Dort ist es allerdings auch kaum wichtig. In fast allen Fällen kann man auf einer Voodoo5 2x FSAA brauchbarer nutzen, als 2x2 auf einer GF2.

Alte Spiele, die nur 640x480 oder 800x600 bieten, erstrahlen auf der Voodoo5 mit 4xFSAA in ungeahntem Glanz. Das bietet selbst eine GF3 nicht.

Quasar,

du schreibst weiterhin: "Wie kommt es, daß du hier mit zweierlei Maß misst? Der T-Buffer ist aus heutiger Sicht noch viel weniger "eingelöst", als es TnL je war. Btw, es gibt ca. (genau) vier Demos von 3dfx, wo du mit einer Voodoo5 volle T-Buffer Unterstützung demonstriert bekommst, wenn auch nur für jeden Effekt, bis auf FSAA, separat. Desweiteren noch einen Quake3-MP-Test-Hack, der zumindest Motion Blur unterstützt."

Darauf antworte ich: "Gäbe es 3dfx noch, gäbe es für den Rampage jetzt auch T-Buffer-Applikationen." Diese Aussage lässt sich weder widerlegen noch beweisen. Ich messe nicht mit zweierlei Maß, sondern preise ein Feature, welches nicht nur die CPU entlastet, sondern ganz neue Effekte ermöglicht.

Natürlich ist aus heutiger Sicht T-Buffer vom FSAA mal abgesehen kein Kaufgrund.

Thowe
2001-12-11, 00:21:10
FSAAdemo

Das Readme lesen und die images mal umbennen.

Xmas
2001-12-11, 00:25:03
Originally posted by [fu]121Ah


ehm, postfilter ist sehr interessant, vorallem für die voodoo5, weisst du, mit 16bit spielt es sich sehr gut, und mit 22bit sieht es auch sehr gut aus... tbuffer wäre interessant, bandbreitennutzung stimmt, werde dir mal nen link schicken wenn ich den bericht wieder gefunden habe. glide ist ebenfalls interessant, es spielen mehr leute UT als q3 und deshalb finde ich das glide auch noch nicht zum alteisen gehört. mehrere chips kannst du wohl nicht drauflöten, kannst du aber 2 geforce 2 chips auf ne platine löten?

du hast wohl nicht begriffen dass es eine riesen leistung ist ein funktionierendes SLI system zu bauen. ati hats nicht geschafft, nvidia hats gar nicht erst versucht... ]
Oh doch, das hab ich sicher begriffen. Die Multichipfähigkeit des VSA-100 ermöglicht enorme Grafikleistung, aber bei der V5 bist du nun mal auf zwei Chips beschränkt, da bringts dir auch nichts dass es mit mehr funtionieren würde.
Wo es möglich ist, verzichte ich auf 22Bit-Postfilter und erfreue mich am deutlich besseren Bild in 32Bit. Glide ist gerade noch interessant, aber nur noch wegen ein paar älteren Spielen die noch gespielt werden. T-Buffer wird nicht genutzt, damit uninteressant. (Edit: Die Technik wird mit dem "Multisample Buffer" unter DX8 und auch unter OpenGL sicher noch interessant, aber die Leistung der V5 war bei weitem nicht ausreichend)
Du hast zwar recht dass 2*128Bit SDR-RAM besser ist als 128Bit DDR-RAM, aber das hab ich auch schon geschrieben. Allerdings braucht die V5 die doppelte Texturbandbreite, wie du vielleicht weißt, und ist damit vielleicht doch nicht so effektiv ;)

Quasar
2001-12-11, 00:40:22
Originally posted by aths
Quasar,

der 22-Bit-Filter erzeugt kein Gematsche (im Gegensatz zu Quincunx.) Eine Voodoo5 bietet 2x FSAA, das von der Kantenglättung her dem 4x FSAA einer jeden GeForce (beinahe) ebenbürtig ist.

Mit 2x FSAA kannst du auf einer Voodoo5 vieles angenehm spielen. Quake Multiplayer vielleicht nicht. Dort ist es allerdings auch kaum wichtig. In fast allen Fällen kann man auf einer Voodoo5 2x FSAA brauchbarer nutzen, als 2x2 auf einer GF2.

Alte Spiele, die nur 640x480 oder 800x600 bieten, erstrahlen auf der Voodoo5 mit 4xFSAA in ungeahntem Glanz. Das bietet selbst eine GF3 nicht.

Wie schon oben gesagt, habe ich es durchaus versucht. Im Schwarzwald-Kurs war nicht mal 2xFSAA möglich, ohne den Ur-Turbo unsteuerbar zu machen, so stark hat es geruckelt. Und gerade bei NFS Porsche sieht man einen eklatanten Unterscheid zwischen 16Bit und 32Bit.
Außerdem sprach ich von 4xFSAA, was die Voodoo5 ja Feature-seitig von der Voodoo4 abhob. IMHO ein Feature, das nur bei einer geringen Anzahl der Spiele, die ich gespielt habe, sinnvoll einzusetzen war.

IMHO erzeugte desweiteren der 22Bit-PF einen weichzeichnerischen Effekt.

Was die alten Spiel hier jetzt sollen, ist mit nicht ganz klar. Eine GF3 kann das durchaus auch bieten, zusätzlich Anisotrope Filterung.


Quasar,

du schreibst weiterhin: "Wie kommt es, daß du hier mit zweierlei Maß misst? Der T-Buffer ist aus heutiger Sicht noch viel weniger "eingelöst", als es TnL je war. Btw, es gibt ca. (genau) vier Demos von 3dfx, wo du mit einer Voodoo5 volle T-Buffer Unterstützung demonstriert bekommst, wenn auch nur für jeden Effekt, bis auf FSAA, separat. Desweiteren noch einen Quake3-MP-Test-Hack, der zumindest Motion Blur unterstützt."

Darauf antworte ich: "Gäbe es 3dfx noch, gäbe es für den Rampage jetzt auch T-Buffer-Applikationen." Diese Aussage lässt sich weder widerlegen noch beweisen. Ich messe nicht mit zweierlei Maß, sondern preise ein Feature, welches nicht nur die CPU entlastet, sondern ganz neue Effekte ermöglicht.

Natürlich ist aus heutiger Sicht T-Buffer vom FSAA mal abgesehen kein Kaufgrund.

Diese neuen Effekte, die du hier anpreist, sind aktuell durchaus darzustellen, auch ohne T-Buffer. Aber du hast Recht, deine Aussage läßt sich ansonsten nicht widerlegen.

StefanV
2001-12-11, 00:40:36
@T-Buffer
Der T-Buffer kann nicht soo schlecht gewesen sein, sonst hätte ihn M$ nicht in DX8 mit aufgenommen...

AFAIK entspricht der Multisamplingbuffer dem T-Buffer...

aths
2001-12-11, 00:42:16
... und das schreibt Xmas, der selbst eine V5 hat...

Xmas, du 32-Bit-Fetischist!! Zur Strafe folgende Berichtigung: Der T-Buffer wird natürlich benutzt (wenn du mit FSAA spielst).

(Man muss wissen, dass Xmas gegen Color-Banding allergisch ist.)

Razor
2001-12-11, 00:44:19
@Stefan

Die Grundlagen für DX8 wurden schon gelegt, als es 3dfx noch gab...
Hätte M$ gewußt, daß dem bei erscheinen von DX8 nicht mehr so ist, dann hätten sie's vermutlich auch nicht eingebaut.
;-)

In diesem Sinne

Razor

P.S.: Der T-Buffer würde nicht unterstützt werden, der Multisample-Buffer schon...

aths
2001-12-11, 01:04:04
Quasar,

noch fix meine Antwort (bevor ich endlich die blöde Kiste ausmache.) Bei NFS5 führt FSAA ab 1024x768 in der Tat zu spürbaren Performance-Einbußen. Ich weiss nicht, mit welcher Auflösung du gespielst hast. 800x600 und 2x FSAA sollte auch bei NFS5 laufen, jedenfalls ist es so bei meinem Cousin. (In der Regel sollte die Voodoo auch bei 1024x768 anständige Ergebnisse mit 2x FSAA bringen.) Bei NFS5 sind die Unterschiede zu 16 Bit zu sehen, allerdings stören mit die 16-Bit-Artefakte in diesem Spiel kaum (was bei Quake3 anders ist.) Nach meinen Erfahrungen besteht das Problem bei NFS5+FSAA weniger in der durchschnittlichen Framerate, eher an einer durchgehenden Framerate: Ich registriere gelegentliche Ruckler. Selbst unter Glide!! (Hast du geprüft, ob NFS5 bei dir mit Glide läuft?)

Die Voodoo4 wurde ursprünglich gar nicht mit FSAA beworben, das Feature bekam sie dann gnädigerweise. In der Regel ist es bis 800x600 einsetzbar, nur ziemlich alte Spiele wie MW3 erlauben FSAA bei 1024x768 *und* eine vernünftige Performance.

22 Bit erzeugt keine weiche Kanten. Er ist so ausgelegt, dass er einen Rastervorgang einer Textur wieder glattzieht. Schon bei 2-3 Überlagerungen schafft das der Filter nicht, weil er dann gar nicht mehr zum Tragen kommt, eben um einen verwaschenen Eindruck zu vermeiden.

Die Kantenglättung (auf die kommt es bei geringen Auflösungen ja an) einer V5 übertrifft die einer GF3 bei weitem. (Dazu das LOD auf -1, und man hat einen "quasi anisotropen Filter")

Ob der Buffer nun T-Buffer oder Multisample-Buffer heisst, die Multisample-Buffer-Technik hat Zukunft. Nach meinen Informationen waren 3dfx die ersten, die es in einen für den Retail Marked bestimmten Chip integrierten. Diese Effekte halte ich für sinnvoll, weshalb ich weiter oben schrieb: "... ich hätte gerne eine T-Buffer-Unterstützung."

Ohne Voodoo5 wäre man bezüglich FSAA und Multisample-Buffer vielleicht noch nicht so weit, wie heute.


Razor,

wenn du von Multisample-Buffern und deren Möglichkeiten keine Ahnung hast, schreib einfach nichts dazu, OK? Ohne 3dfx hätte nVidia ihn eingeführt, die Frage ist nur, wann.

Quasar
2001-12-11, 01:12:13
Originally posted by aths
Quasar,

noch fix meine Antwort (bevor ich endlich die blöde Kiste ausmache.) Bei NFS5 führt FSAA ab 1024x768 in der Tat zu spürbaren Performance-Einbußen. Ich weiss nicht, mit welcher Auflösung du gespielst hast. 800x600 und 2x FSAA sollte auch bei NFS5 laufen, jedenfalls ist es so bei meinem Cousin. (In der Regel sollte die Voodoo auch bei 1024x768 anständige Ergebnisse mit 2x FSAA bringen.) Bei NFS5 sind die Unterschiede zu 16 Bit zu sehen, allerdings stören mit die 16-Bit-Artefakte in diesem Spiel kaum (was bei Quake3 anders ist.) Nach meinen Erfahrungen besteht das Problem bei NFS5+FSAA weniger in der durchschnittlichen Framerate, eher an einer durchgehenden Framerate: Ich registriere gelegentliche Ruckler. Selbst unter Glide!! (Hast du geprüft, ob NFS5 bei dir mit Glide läuft?)

Ich hab versucht, unter 1024x32 zu spielen. Ohne FSAA lief's gut, selbst mit 2xFSAA bei einigen Kursen nicht mehr (Schwarzwald), und mit 4xFSAA war's dann komplett aus. Und ja, sie lief unter GLide, soweit ich mich erinnnere.
Was 16Bit betrifft, bei Q3 stört es mich hauptsächlich in den Rauchspuren des RL, bei NFS aber hat man es die ganze Zeit vor Augen, wenn man, wie ich, aus der hintersten Kameraposition spielt: Direkt auf dem Porsche, der offenbar nur ein Texturlayer hat. Furchtbar häßlich!


22 Bit erzeugt keine weiche Kanten.

Schon klar.


Die Kantenglättung (auf die kommt es bei geringen Auflösungen ja an) einer V5 übertrifft die einer GF3 bei weitem. (Dazu das LOD auf -1, und man hat einen "quasi anisotropen Filter")

Das ich sowas von dir noch höre, und das nach deinem Artikel....


Ohne 3dfx hätte nVidia ihn eingeführt, die Frage ist nur, wann. [/b]

...ich dachte, bei nVidia gäb's keine Innovationen? ;)

StefanV
2001-12-11, 01:40:18
Originally posted by Quasar
...ich dachte, bei nVidia gäb's keine Innovationen? ;)

Stimmt ja auch, er meinte sicher Matrox oder ATI ;)

Daß ATI jetzt ja einen MS Buffer benutzt ist ja kein geheimnis...

Haarmann
2001-12-11, 03:14:28
ähm Quasar... Du sagst mir wie ich RtCW benchen soll, und ich sag Dir die Werte ;-) Is det ein Deal?
Ich Wette, dass ich damit locker jede GTS2 bei gleichen Settings zum Teufel schicke - ohne OC natürlich.

Aja und T-Buffer gibts echt öfters, als TnL Vorteile Ala NV ... ich mag mich noch erinnern, als die ein "Game" zeigten, wo nur ne GF wirklich tolle Details haben sollte...
Ok, das Game gibts und den Screen dazu findeste im Forum - geht um HL mit Trueform... oha das is ja gar ned von NV...
Auf gut DE es gibt KEIN Game, das DX7 TnL bisher brauchte - und soweit man absehen kann, wirds auch nie eines geben ;-).

Andre
Nicht jeder hier benutzt ein 3dStudio oder sowas in der Art...
Bleiben wir bei der Anwendung Games, so reicht die V5 lange aus, wenn man nicht viele FPS wollte, sondern sich auch mit 60+ begnügte, denn kaum is die Bandbreite relevant, is die GTS fürn Arsch...
Schau mal nach, wieviel von ihrem grosskotzigen Gigatexel unter 32 Bit 1600*1200 noch verbleiben ...

Netter Server Thowe - da kommt ja was runter :-)

Xmas, weswegen denkste, komprimiert der Treiber solange die Texturen?
Kannste in RtCW mitem Wicked GL, der eingebaut is, nachprüfen... durch dieses Verfahren isses nur halb so wild... Texturen übern AGP Auslagern is eh nur als Witz zu sehen...
Und ned jeder Teil einer Textur, muss doppelt gelesen werden ;-)
Was aber vor allem relevant ist, die TnL Unit frisst keine knappe Bandbreite auf ner V5 ;-) - genau deswegen kann die GF2 übrigends so toll SW T+L im Treiber... Es hilft ungemein bei hohen Auslösungen ;-).
Ich hoffe ich hab nun kein NV Firmengeheimnis ausgeplaudert - oder dachte wirklich jeamdn, dass NV 10 mio polys per SW in den Treibern für die TnT2 Besitzer reingemacht hat?

Aber ich bin mal gespannt auf eure RtCW Benchvorschläge V5 vs GTS2 ;-)

StefanV
2001-12-11, 04:35:11
@Haarmann

AGP Texturing wurde in einer Zeit entwickelt, als auf GraKas noch EDO RAM drauf war ;)

Vorgesehen war, daß die gesamten Texturen im Hauptspeicher platz finden, und nicht im GraKa RAM...

Aber DAS ist eine andere Geschichte ;)

Genau wie die Idee, daß die Bestückungsseite unten ist...

Heutzutage ist das vollkommen Hirnrissig...

Beim AGP hätte Intel das ändern können...

Haarmann
2001-12-11, 12:06:02
Nix gegen EDO RAM...
Das RAM auf ner V2 ist massiv schneller (hatte die immer auf 110 MHz), als das auf ner Kyro1.
Bei SDR wird mit 7ns nur gesagt, wie schnell die Daten ausgeliefert werden.
Ein Silicon Magic 20ns EDO hingegen, hat da einiges mehr zu bieten ;-). Ca 12ns wohl Latenz und 5ns pro Datenpaket.
Die Werte hab ich von nem IBM 70ns FPM Stein linear runtergerechnet - müssen also nich um jede ns stimmen.
Die 5ns errechne ich recht einfach aus BEDO 60ns kann 1-1-1 bei 60ns - ergo muss das EDO bei 20ns das 3 mal schneller können.
EDO ist aber asynchron - daher kriegt man aus 5ns ned 200 MHz raus, ausser mit Tricks und Verzögerung.

StefanV
2001-12-11, 13:19:37
Sehe ich ähnlich, Haarmann ;)

Sooo gut ist SDRAM nicht, EDO war da etwas schneller...
Über BEDO sprechen wir erst garnicht ;)

Naja, es gewinnt leider nicht die beste Technologie, sondern die billigste, die die höchste Frequez erlaubt...

[fu]121Ah
2001-12-11, 14:39:48
Originally posted by Quasar


Ich hab versucht, unter 1024x32 zu spielen. Ohne FSAA lief's gut, selbst mit 2xFSAA bei einigen Kursen nicht mehr (Schwarzwald), und mit 4xFSAA war's dann komplett aus. Und ja, sie lief unter GLide, soweit ich mich erinnnere.




du willst mir sagen dass du mit glide in 32bit gespielt hast? ich weis das glide 32bit unterstützt. aber es wurde nie verwendet!

@irgendjemand

weis nicht mehr wers geschrieben hat. danke für die erklärung wegen des Interfaces. aja, die geforce hat 4x32bit soviel ich weis... nicht 64 (die erst durch das ddr).. bin mir aber nicht sicher.

der multisamplebuffer wird zum beispiel in permediakarten (?) eingesetzt, eifnach professionell. 3dfx waren die ersten die das in das homesegment gebracht haben.

@xmas

sorry hab dich falsch verstanden

wegen der fa 18... is ja nur n beispiel....

ja die daddelautomaten sind dominiert von powervr, naomi sind glaube ich mit 3dfxschen ausgerüstet...

naja, hardware FSAA (Multisampling) ist auf jeden fall besser als Software FSAA... (Supersampling) und es hat mehr sinn als hardware tnl (dx7), dort kann software tnl (dx7) schneller sein....

aths
2001-12-11, 14:41:36
"Nix gegen EDO RAM...
Das RAM auf ner V2 ist massiv schneller (hatte die immer auf 110 MHz)"

Vor allem, weil der RAM mit 3 x 64 Bit angebunden war.

[fu]121Ah
2001-12-11, 14:45:07
naja, es war ja nicht 3/2 so schnell wie n 128bit interface... es waren ja 64bit pro chip (2x TMU, 1x GPU (ich hasse diese abkürzung))....

Xmas
2001-12-11, 15:04:38
Na dann schreib doch PixelFX und TexelFX :D

aths
2001-12-11, 15:05:47
1 x Pixel,
2 x Texel.

Voodoo 1 und 2 haben keine "GPU".

Xmas
2001-12-11, 15:09:02
Originally posted by [fu]121Ah
naja, hardware FSAA (Multisampling) ist auf jeden fall besser als Software FSAA... (Supersampling) und es hat mehr sinn als hardware tnl (dx7), dort kann software tnl (dx7) schneller sein....
Weder macht irgendeine Grafikkarte "Software FSAA", noch macht eine Voodoo Multisampling. Der einzige Consumer-Chip mit Multisampling ist der GeForce3.

aths
2001-12-11, 16:00:12
Ergänzung zu Xmas' Posting:

Man könnte Karten danach einteilen, ob FSAA in der Hardware vorgesehen wurde, oder eine reine Treiber-Sache ist. Theoretisch könnte auch eine Voodoo3 FSAA, wenn es entsprechende Treiber gäbe. Das FSAA, also die Berechnungen für das Bild, wird natürlich in Hardware, also auf der VGA-Karte durchgeführt.

Eine Voodoo4/5 nutzt Multisample-Buffer, macht damit aber Supersampling. GF3 nutzt diesen Buffer für Multisampling. Der Unterschied zwischen Multisample-Buffer vs. vergrößertem Framebuffer besteht eigentlich nur in der Adressierung der einzelnen (Sub)Pixel.

StefanV
2001-12-11, 16:28:15
Ergänzung:

Nur V5, Radeon 8500 und GF3 haben HARDWARE FSAA, alle anderen bieten 'nur' Software FSAA...

aths
2001-12-11, 16:43:27
Ergänzung zu Stefan Payne:

Keine 3D-Karte macht Software-FSAA. Die Berechung der Subpixel sowie die Skalierung wird von der Graka-HW übernommen.

Quasar,

du schreibst: "Ich hab versucht, unter 1024x32 zu spielen. Ohne FSAA lief's gut, selbst mit 2xFSAA bei einigen Kursen nicht mehr (Schwarzwald), und mit 4xFSAA war's dann komplett aus. Und ja, sie lief unter GLide, soweit ich mich erinnnere."

Was denn nun? 32 Bit oder Glide?

"Was 16Bit betrifft, bei Q3 stört es mich hauptsächlich in den Rauchspuren des RL,"

Und das Muster bei dieser Plasma-Waffe...

"bei NFS aber hat man es die ganze Zeit vor Augen, wenn man, wie ich, aus der hintersten Kameraposition spielt: Direkt auf dem Porsche, der offenbar nur ein Texturlayer hat. Furchtbar häßlich!"

Ich spiele mit Direktsicht, also ohne Auto oder Cockpit. Das Auto hat meines Erachtens mit den Spiegel-Effekten mindestens 2 Layer. (Textur +"Enviroment-Map")

> "Die Kantenglättung (auf die kommt es bei geringen Auflösungen ja an) einer V5 übertrifft die einer GF3 bei weitem. (Dazu das LOD auf -1, und man hat einen "quasi anisotropen Filter")"
"Das ich sowas von dir noch höre, und das nach deinem Artikel...."

Das verstehe ich jetzt nicht.

"...ich dachte, bei nVidia gäb's keine Innovationen?"

3dfx und nVidia sind sich ähnlicher, als viele annehmen. Multi-Texturing-Pipelines wurden von 3dfx entwickelt, kamen dann aber vorallem bei nVidia-Chips zum Einsatz. In Sachen Curved Surfaces gingen 3dfx und nVidia den einen, ATI den anderen Weg. Der GF3 hätte den Multisample-Buffer, der bei der V5 ja T-Buffer heisst, wohl auch ohne V5 gehabt.

nVidia ging sofort den T&L-Weg und brachte den Vertex Shader erst später. 3dfx wollte DX7 T&L überspringen und mit dem Sage gleich einen programmierbaren Geometrie-Prozessor vorstellen.

3dfx ermöglichte sofort eine vernünftige Anti-Aliasing-Möglichkeit. nVidia übersprang die Möglichkeit SSAA via Multisample-Buffer und kam dann mit Multisampling via Multisample-Buffer auf den Markt.

nVidia brachte sofort 32 Bit Rendering, während 3dfx noch eine Generation wartete. Dafür hätten sie jetzt internes 52-Bit-Rendering (bei 32-Bit-Framebuffer.)

[fu]121Ah
2001-12-11, 17:43:12
danke für die info wegen dem multisample buffer usw....

ja, das wegen dem pixelfx und texelfx war mir entfallen, deshalb der scheissaudruck gpu....

naja, für mich ist alles ausser v5, gf3 und r200 fsaa einfach ne softwarelösung weil es im nachhinein in die treiber gebastelt wurde. ich meine, man sagt ja auch software tnl obwohl es ja schlussendlich die cpu macht, ergo hardware.... dito bei bsp. gf2 und fsaa.... dort macht es einfach der grafikprozessor.... aber es ist nicht ein hardwarefeature dessen.

Andre
2001-12-11, 17:53:14
Originally posted by aths
"Was 16Bit betrifft, bei Q3 stört es mich hauptsächlich in den Rauchspuren des RL,"

Und das Muster bei dieser Plasma-Waffe...

Also ich komm da nicht hinterher.
Du hast Q3 noch nicht wirklich im Multiplayer-Modus mit 10 Leuten auf einer Map gespielt, oder ?
Ich hab gar keine Zeit, mir die Struktur oder irgendein Muster anzuschauen, wenn ich das tun würde, würde ich nach 5 Minuten immer noch 0 Frags haben.
Ich hab mir Q3 nicht gekauft, um mir die Maps/Texturen im Detail anzuschauen, sondern um Fun zu haben.
Singleplayer ist sicherlich ein anderes Thema, da gebe ich Dir Recht.
Aber gerade beim Multiplayer ist mir das sowas von egal, ob die Rauchspuren der Rocket jetzt Verzerrungen durch die 16 Bit Farbtiefe haben oder nicht.

Pengo
2001-12-11, 18:54:00
Originally posted by Quasar
Hab's mir grad mal runtergeladen.

Hast ja nen echt schnellen Server da Thowe :)


Und mich freut's, weil mein FSAA is soo kompatibel, das ich sogar 16xOGSS hinkriege...

Im Ernst:
Das bildchen is wirklich n beetn lütt dafür dass man was drauf erkennen sollte.

Ich seh grad noch nen Unterschied zwischen noFSAA und FSAA, aber nicht mehr zwischen den verschiedenen AA-Stufen und Modi.

Vergrößere alles auf 400% dann siehst du schon einen Unterschied. In Spielen sind wirklich die Unterschiede zwischen 2x oder 4x gar nicht auszumachen, es sei denn man bleibt stehen und schaut sich die Pixel an den Kanten paar Minuten lang genau an.

Ich habe RCTW eine Stunde lang mit 2x FSAA gespielt, dann FSAA ausgeschaltet, der Unterschied ist so minimal daß man ihn vernachlässigen kann. Ich will spielen und nicht nach Stellen im Spiel suchen wo FSAA etwas bringt. (1024x768x32 HQ++ 4x aniso).

Und daß das FSAA des v5 deutlich besser als bei GF/Radeon ist halte ich für ein Märchen, es mag sein dass auf Vergößerungen Unterschiede sichbar sind, aber sonst war das "bessere" FSAA des v5 nur ein Scheinargument um die miese Performance zu rechtfertigen.

Jeder kann sich selbst hier überzeugen:

http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=16

Da kann man z.B. sehen daß 2x FSAA bei V5 und Radeon fast identisch ist, den größeren Unterschied machen eher die Texturen aus und da schaut die v5 sehr übel aus. Man könnte da zwar den LOD-Bias senken, aber da die v5 nicht anisotrop filtern kann ist es keine richtige Verbesserung.

Pengo
2001-12-11, 19:00:26
Originally posted by Thowe
Um FSAA beurteilen zu können muss man es schon mal in motion gesehen haben. Screenshots helfen da recht wenig.

Darum habe ich mal das FSAAdemo von Soós Árpád hier (www.thowe.de/tools/fsaa.zip) hochgeladen.

Ich habs mir angeschaut, der Unterschied zwischen 4x OGSS und 4x RGSS ist so gut wie nicht auszumachen.

Pengo
2001-12-11, 19:03:52
Originally posted by aths
Es ist kein Nachteil, bessere 16-Bit-Grafik zu haben. Sei es nur für alte Spiele, die kein 32 Bit unterstützen. Voodoos boten bereits bessere 16-Bit-Grafik, als es von nVidia noch keine Chips gab, die unter 32 Bit kaum einbrachen.

Wie jetzt - der Blurr-Filter bei der v5 ist gut, der Blurr-Filter (QuickMist) bei der GF3 ist aber schlecht?

Pirx
2001-12-11, 19:16:10
Originally posted by Pengo

Und daß das FSAA des v5 deutlich besser als bei GF/Radeon ist halte ich für ein Märchen,...

Es war einmal ein ...;)
http://www.3dcenter.de/artikel/voodoo5-5500/8.php

Ein "alter" 3DCenter-Artikel: "Fazit: nVidia´s 4xFSAA (2x2) ist von der herauskommenden Qualität im Prinzip mit 3dfx´ 2xFSAA gleichzusetzen!"

Ist allerdings V5 vs. GF2

aths
2001-12-11, 19:22:38
Andre,

wir kommen hier eben nicht auf einen Nenner. Der eine so, der andere so. Ich bin eben bereit, für 32 Bit in Quake an anderer Stelle zu sparen (Auflösung runter, Lightmaps aus)


Pengo,

"Und daß das FSAA des v5 deutlich besser als bei GF/Radeon ist halte ich für ein Märchen,"

Halte es, wofür du willst. Ich habe es jeweils live gesehen.

"es mag sein dass auf Vergößerungen Unterschiede sichbar sind,"

4x FSAA á la Voodoo5 wird höchstens von 6x SV übertroffen.

"aber sonst war das "bessere" FSAA des v5 nur ein Scheinargument um die miese Performance zu rechtfertigen."

2x der Voodoo5 kann beinahe mit 4x von GF konkurrieren. 4x auf Voodoo5 wird von keiner GF erreicht.

"Da kann man z.B. sehen daß 2x FSAA bei V5 und Radeon fast identisch ist, den größeren Unterschied machen eher die Texturen aus und da schaut die v5 sehr übel aus. Man könnte da zwar den LOD-Bias senken, aber da die v5 nicht anisotrop filtern kann ist es keine richtige Verbesserung."

Gerade *weil* die V5 nicht anisotrop filtern kann, wäre das eine Verbesserung. Wer SSAA-Screenshots ohne LOD-Anpassung aufnimmt, zeigt damit, dass er von der Materie wenig Ahnung hat.

"Ich habs mir angeschaut, der Unterschied zwischen 4x OGSS und 4x RGSS ist so gut wie nicht auszumachen."

Ich habe 2x2 auf Radeon gesehen, und 4x auf Voodoo5. Da ist sehr wohl ein spürbarer Unterschied auszumachen. Das wird unter anderem durch Screenshots auf 3dconcept belegt: http://www.3dconcept.net/reviews/geforce3/49.htm

4x RG wird selbst von 4xQuincunx nicht erreicht.

"Wie jetzt - der Blurr-Filter bei der v5 ist gut, der Blurr-Filter (QuickMist) bei der GF3 ist aber schlecht?"

Der 22-Bit-Filter blurrt nur sehr sanft (dass eine Rasterung eleminiert wird), und testet außerdem, ob überhaupt glattgezogen werden soll. Quincunx blurrt generell, vor allem die aufwändig anisotrop gefilterten Texturen leiden. Da Voodoo nicht anisotrop filtert, ist ein nachgezogenes (sehr sanftes) glattziehen mit deutlich weniger Detailverlust verbunden, als Quincunx.

aths
2001-12-11, 19:30:57
Razor,

du schreibst:

"P.S.: Der T-Buffer würde nicht unterstützt werden, der Multisample-Buffer schon..."

Der T-Buffer ist ein Multisample-Buffer.

Pengo
2001-12-11, 19:37:22
2x der Voodoo5 kann beinahe mit 4x von GF konkurrieren. 4x auf Voodoo5 wird von keiner GF erreicht.

Ich meinte die nicht-FSAA Performance, diese ist bei der v5 außerhalb von Glide enttäuschend, vor allem aufgrund der hohen Erwartungen, der Verspätung der Karte und der Tatsache daß 3DFX mit 2 Chips gegen einen ATI/NVIDIA Chip angetreten ist und trotzdem meist geschlagen wurde, einfach traurig. RIP 3DFX.

Gerade *weil* die V5 nicht anisotrop filtern kann, wäre das eine Verbesserung. Wer SSAA-Screenshots ohne LOD-Anpassung aufnimmt, zeigt damit, dass er von der Materie wenig Ahnung hat.

Sehe nicht ein wieso der Reviewer es machen muß, es wäre die Aufgabe der 3DFX Treiberprogrammierer gewesen, sowohl bei ATI als auch bei NVIDIA und KYRO schauen die Texturen gut aus, nur auf der v5 mies.

Ich habe 2x2 auf Radeon gesehen, und 4x auf Voodoo5. Da ist sehr wohl ein spürbarer Unterschied auszumachen. Das wird unter anderem durch Screenshots auf 3dconcept belegt: http://www.3dconcept.net/reviews/geforce3/49.htm

4x RG wird selbst von 4xQuincunx nicht erreicht.

Da wird meine Aussage bestätigt - Unterschiede sind nur bei extremen Vergößerungen zu sehen, im Spiel selbst zu vernachlässigen.

aths
2001-12-11, 20:13:36
"Ich meinte die nicht-FSAA Performance, diese ist bei der v5 außerhalb von Glide enttäuschend, vor allem aufgrund der hohen Erwartungen, der Verspätung der Karte und der Tatsache daß 3DFX mit 2 Chips gegen einen ATI/NVIDIA Chip angetreten ist und trotzdem meist geschlagen wurde, einfach traurig. RIP 3DFX."

Man kauft eine Grafikkarte, keinen Grafikchip. Unterschwellig oder direkt eine Überlegenheit von 1-Chip-Systemen zu postulieren zeugt von nVidiotismus. Geht man von Qualität pro Speed aus, so war die Voodoo5 lange Zeit ungeschlagen, trotz achtmonatiger Verspätung.

"Sehe nicht ein wieso der Reviewer es machen muß, es wäre die Aufgabe der 3DFX Treiberprogrammierer gewesen, sowohl bei ATI als auch bei NVIDIA und KYRO schauen die Texturen gut aus, nur auf der v5 mies."

Ein Reviewer sollte Ahnung haben, ob die LOD-Anpassung im Treiber automatisch vorgenommen wird, oder nicht. Immerhin bieten die 3dfx-Treiber einen FSAA-Demo-Key. Ich weiss nicht, ob man so einfach on the fly eine LOD-Bias-Änderung vornehmen könnte.

"Da wird meine Aussage bestätigt - Unterschiede sind nur bei extremen Vergößerungen zu sehen, im Spiel selbst zu vernachlässigen."

Nun, ich sehe den Unterschied von 4x Voodoo vs. 4x GF/Radeon auch bei 1024x768 auf 17 Zoll.

Thowe
2001-12-11, 20:53:34
FSAA ist ziemlich subjektiv, deshalb hatte ich meine Formulierung auch etwas schwammig gehalten. Ich persönlich bin der Ansicht das jedes FSAA eine Verbesserung bringt, aber hohe Auflösungen (1024) und anisotropische Filterung müssen gleichzeitig möglich bleiben. Wobei hier unterm Strich die Performance zu keiner Zeit massiv einbrechen darf, zumindestens nicht auf einem Level wo Ruckler entstehen.

Xmas
2001-12-11, 21:17:11
Originally posted by [fu]121Ah
naja, für mich ist alles ausser v5, gf3 und r200 fsaa einfach ne softwarelösung weil es im nachhinein in die treiber gebastelt wurde. ich meine, man sagt ja auch software tnl obwohl es ja schlussendlich die cpu macht, ergo hardware.... dito bei bsp. gf2 und fsaa.... dort macht es einfach der grafikprozessor.... aber es ist nicht ein hardwarefeature dessen.
SmoothVision wurde auch erst im Nachhinein in die Treiber gebastelt. Was die CPU macht, bezeichtet man im algemeinen als Softwarelösung, was von dedizierter Hardware übernommen wird, als Hardwarelösung. GeForce (und andere Chips) besitzen Hardware, die mehrere Samples zu einem Pixel filtern kann, und sind in der Lage in entsprechend hoher Sample-Auflösung zu rendern. Was braucht es mehr? Sicher geht es auch besser, aber gegen diese Art des FSAA ist nix einzuwenden.

[fu]121Ah
2001-12-11, 22:41:29
SmoothVision wurde auch erst im Nachhinein in die Treiber gebastelt. Was die CPU macht, bezeichtet man im algemeinen als Softwarelösung, was von dedizierter Hardware übernommen wird, als Hardwarelösung. GeForce (und andere Chips) besitzen Hardware, die mehrere Samples zu einem Pixel filtern kann, und sind in der Lage in entsprechend hoher Sample-Auflösung zu rendern. Was braucht es mehr? Sicher geht es auch besser, aber gegen diese Art des FSAA ist nix einzuwenden.



sv war ein feature das ati schon lange vor dem release angekündigt hatte. es ist auch nicht treiberseitig implementiert. soweit ich weis (obwohl das bis jetzt wohl keiner so genau weis) benützt ati nen buffer fürs sampling....

ich PERSÖNLICH halte das (geforce und andere chips) nicht für hardwaremässiges fsaa. ich meine was ist das problem die auflösung einfach auf 1600x1200 (bsp) zu skalieren und im nachhinein wieder runterzuschrauben? DAS kann ein treiber. es muss sicher eine grundfunktionalität vorhanden sein aber die muss ja auch beim prozi für software tnl vorhanden sein.

Pengo
2001-12-11, 23:48:43
Originally posted by [fu]121Ah


sv war ein feature das ati schon lange vor dem release angekündigt hatte. es ist auch nicht treiberseitig implementiert.

Vielleicht läuft es deswegen bis jetzt so dürftig :)

Haarmann
2001-12-12, 00:10:28
Also meine ATI kommt bei meinem Q3 inkl Hi Anisotrop und 2* SV bei 1024 32Bit auf 140 oder so FPS bei allen Details des Games. Was ich ned drin habe, sind Sachen, die das Gameplay stören - z.B. die Gun ;-).
Wenn das FSAA der GF2 HW Seitig is, dann hat die V5 T+L - Siehe GA.

Dabei is Beides ein Treiber(murks).

Pengo
2001-12-12, 00:50:28
Originally posted by Haarmann
Also meine ATI kommt bei meinem Q3 inkl Hi Anisotrop und 2* SV bei 1024 32Bit auf 140 oder so FPS bei allen Details des Games.

Wieso kriegt Anand nur 89 fps?

Kobold
2001-12-12, 00:54:12
Ich bekomme mit meiner GF2 TI auch alles auf hoch und auf 1024*786*32 kommt meine TI auf stolze 139,7FPs :rofl:



MFG Kobold

Razor
2001-12-12, 00:58:30
@Pengo

Also ich weiß echt nicht, was aths mit seinem Voodoo FSAA hat...

Das 2xRGMS sieht im Vergleich zum 2xQuincunx richtig schlecht aus !
Das 4xQuincunx scheint nicht richtig gefunzt zu haben, denn es sieht nahezu identisch zum 2xQuincunx aus und muß hier somit aus der Betrachtung genommen werden... (kann aus eigener Erfahrung sagen, daß es sehr viel besser aussieht ;-).

Das 4xRGMS sieht schon echt nicht schlecht aus und dürfte dem (funktionierendem ;-) 4xQuincunx (2x2 9-tap) sehr nahe kommen, ist aber, und da geb' ich Dir vollkommen recht, von der Performance-Seite auf 'ner V5 5500 nicht zu ertragen (obwohl die gf3 auch ordentlich an Leistung verliert, es aber noch spielbar bleibt ;-)

Ansonsten schließe ich mich Dir an und sage:

RIP 3dfx !
;-)

@Thowe
FSAA ist ziemlich subjektiv, deshalb hatte ich meine Formulierung auch etwas schwammig gehalten. Ich persönlich bin der Ansicht das jedes FSAA eine Verbesserung bringt, aber hohe Auflösungen (1024) und anisotropische Filterung müssen gleichzeitig möglich bleiben. Wobei hier unterm Strich die Performance zu keiner Zeit massiv einbrechen darf, zumindestens nicht auf einem Level wo Ruckler entstehen.
Exakt !
Und deswegen disqualifiziert sich das FSAA einer V5 schon von selbst !

Während das 2x noch halbwegs erträglich ist (qualitativ aber nicht vergleichbar ist), kann 4x keinen Blumentopf mehr gewinnen...
(habe ich selber letztes WoEn bei 'nem Kollegen in Augenschein nehmen dürfen - auch, was die Qualität anbelangt ;-)

@Xmas

Nich nur nichts einzuwenden...
Sondern in der Performance schlicht ungeschalgen !
(wenn die Quali sicher auch subjetiv betrachtet werden darf)
;-)

@[fu]121Ah

Das, was Du meinst, ist Supersampling-Antialiasing (SSAA) !

Das hat die gf2 gemacht und wird nun auch von der R8500 praktiziert (wenn auch etwas anders... über den Multisample-Buffer halt ;-). Die gf3 macht dies eben nicht mehr. Nennt sich Multisampling-Antialiasing und wird ebenfalls über 'nen Multisample-Buffer realisiert - wird von NV auch HRAA, i.e. High-Resolution-Antialiasing, genannt. Bei dieser Methode ist es eben nicht mehr notwendig, mehr Informationen zu generieren (eine höhere Auflösung bei der gf2 z.Bsp.), sondern man kommt mit den vorhandenen aus. Das ist übrigens auch der Grund, warum MSAA sehr viel Leistungsfähiger in Sachen Performance ist.

@Haarmann

Wer hat den behauptet, daß die gf2 FSAA in Hardware kann ?
Lediglich V5, R8500 und gf3 sind in der Lage, dies Hardwareseitig zu unterstützen...
(obwohls bei der V5 mächtig auf die Performance gehauen hat ;-)

In diesem Sinne

Razor

aths
2001-12-12, 13:01:14
"Wer hat den behauptet, daß die gf3 FSAA in Hardware kann ?
Lediglich V5, R8500 und gf3 sind in der Lage, dies Hardwareseitig zu unterstützen..."

Ja, was denn nun?

"Während das 2x noch halbwegs erträglich ist (qualitativ aber nicht vergleichbar ist), kann 4x keinen Blumentopf mehr gewinnen..."

2x ist mit 2x2 von GF1/2 bzw. 4x von GF3 (beinahe) vergleichbar. 4x ist auch von einer GF3 unerreicht. Also ist die V5 in 4x ggü. einer GF3 konkurernzlos.

"(habe ich selber letztes WoEn bei 'nem Kollegen in Augenschein nehmen dürfen - auch, was die Qualität anbelangt ;-)"

Welche Spiele?

Haarmann
2001-12-12, 13:27:03
Pengo, sehr einfach, weil ich, in der CH wenigstens, als einer der besten q3config Tuner gelte... ohne jedoch damit die Grafik zu beeinträchtigen - wohlgemerkt.
Mit der Default cfg, verschenkste Unmengen FPS. Und zwar ned wegen der Grafik.
2ens hab ich ja gesagt, dass es auf Spielbarkeit getrimmt is. Also z.B. Force Models drin. Keine Gibs und kein Blood. Keine vollblöde Gun, die mir nur det Bild verdeckt. Spiele mit nem anderen Fov und 2D HUD - dafür Timer gezeichnet. Keine nutzlose Visiereinfärbung mehr - det Ding bleibt weiss. Kann ja mal nen OSP Shot mitliefern. Gegner is immer Doom PM weiss - eigene sind immer Bones/red oder blue.
Sound is HQ, aber eben getunt - da holste meist so um die 20-40 fps raus (wenn auf extreme fps gehst sogar mehr).

Im Gegensatz zu Anand, hab ich allerdings picmip auf 0 - er hats auf 1.

aths
2001-12-12, 13:32:29
Pengo,

du schreibst: "Wieso kriegt Anand nur 89 fps?"

Da frage ich: Wieso bencht anand eine Voodoo4 für UT in D3D??

Andre
2001-12-12, 13:41:51
Originally posted by aths
"Wer hat den behauptet, daß die gf3 FSAA in Hardware kann ?
Lediglich V5, R8500 und gf3 sind in der Lage, dies Hardwareseitig zu unterstützen..."

Ja, was denn nun?


Das habe ich auch nicht verstanden.

Andre
2001-12-12, 13:48:38
Originally posted by Haarmann
Pengo, sehr einfach, weil ich, in der CH wenigstens, als einer der besten q3config Tuner gelte... ohne jedoch damit die Grafik zu beeinträchtigen - wohlgemerkt.
Mit der Default cfg, verschenkste Unmengen FPS. Und zwar ned wegen der Grafik.
2ens hab ich ja gesagt, dass es auf Spielbarkeit getrimmt is. Also z.B. Force Models drin. Keine Gibs und kein Blood. Keine vollblöde Gun, die mir nur det Bild verdeckt. Spiele mit nem anderen Fov und 2D HUD - dafür Timer gezeichnet. Keine nutzlose Visiereinfärbung mehr - det Ding bleibt weiss. Kann ja mal nen OSP Shot mitliefern. Gegner is immer Doom PM weiss - eigene sind immer Bones/red oder blue.
Sound is HQ, aber eben getunt - da holste meist so um die 20-40 fps raus (wenn auf extreme fps gehst sogar mehr).

Im Gegensatz zu Anand, hab ich allerdings picmip auf 0 - er hats auf 1.

Ja das mag ja alles möglich sein, aber im Endeffekt ist Q3 bei Dir getunt und nicht vergleichbar mit einem Bench-Q3, wo alles maximal über die Menü verfügbaren Einstellungen geregelt wird.
Also ist der Vergleich mit einem Q3-Benchmark einer x-beliebigen Reviewseite nicht möglich.
BTW, kann ich auch auf ner TNT2 mit 1024x768 @ 16 Bit flüssig spielen, wenn ich picmip auf 6-7, Vertex Lightning an, Force Player Models an, Draw 2d Icons an, OpenGL Extensions aus, anderem FOV und HUD stelle (gibt noch mehr, weiss ich auch).
Aber dann sieht das Game zum brechen aus, so möchte ich net spielen.
Die Hardcore-Fragger sollen das mögen, aber ein bischen was fürs Auge solls dann schon sein - und ob das schon Cheaterei ist, will ich gar nicht fragen.

aths
2001-12-12, 13:58:38
Razor,

du fragst: "Also ich weiß echt nicht, was aths mit seinem Voodoo FSAA hat..."

Es sieht gut aus.

"Das 2xRGMS sieht im Vergleich zum 2xQuincunx richtig schlecht aus !"

Die Kanten mögen wegen dem verwaschenen Effekt subjektiv besser aussehen.

"Das 4xQuincunx scheint nicht richtig gefunzt zu haben, denn es sieht nahezu identisch zum 2xQuincunx aus"

WARUM das so ist, hat RAM auch geschrieben. Weil der nachgeschaltete Blur-Filter überwiegt. Falls du meinen letzten Artikel gelesen hast, wirst du gemerkt haben, dass 4xQuincunx noch stärker blurrt als 2x.

"und muß hier somit aus der Betrachtung genommen werden..."

Interessant, dass du nur dir genehme Ergebnisse gelten lassen willst.

"(kann aus eigener Erfahrung sagen, daß es sehr viel besser aussieht ;-)."

Wir wissen, dass du es verwaschen magst. Außerdem geht es hier um Voodoo5 vs. GF2. Deshalb muss Quincunx außen vor bleiben. Ich erwähnte nur mal kurz, dass 4x Voodoo besser ist, als 4x GF3. Was du hoffentlich nicht abstreiten willst.


Andre,

du schreibst: "Vertex Lightning an"

Es heißt Lighting, Lightning wäre der Blitz.

"und ob das schon Cheaterei ist, will ich gar nicht fragen."

Warum sollte das Cheaten sein??

Andre
2001-12-12, 14:16:42
Originally posted by aths
Andre,

du schreibst: "Vertex Lightning an"

Es heißt Lighting, Lightning wäre der Blitz.

"und ob das schon Cheaterei ist, will ich gar nicht fragen."

Warum sollte das Cheaten sein??

Zu 1.

Sorry, kommt nicht nochmal vor.

Zu 2.

Na ja, dass ist für mich irgendwie ein Grenzfall.
Es ist kein direktes Cheaten á la /god oder /give all, aber die Level- und Modelgestaltung hat doch einen Grund.
Es gehört einfach dazu, dass es dunkle Ecken gibt und dass der Gegner nicht leuchtend rosa oder weiß durch die Gegend läuft.
Wenn ich manche sehe, die Q3 so getunt haben, dass alles wie im Disneyfilm leuchtet und die Gegner fast schon neonfarben durch die Gegend laufen, dann könnte ich brechen.
Und alle glauben, dass der Skill eines Spielers von diesen unschönen Einstellungen abhängt - da lach ich micht tot.
Für mich hat jemand Skill, der gerade unter maximalen (zumindest hohen) Grafikeinstellungen gut performt - und nicht jemand, wo der Gegner quasi einen Schmerz im Auge verursacht und dann intuitiv abdrückt.

aths
2001-12-12, 14:51:48
Andre,

du schneidest ja ein Problem an: Was kann man z.B. dagegen tun, dass der Gegenüber nicht u.U. andere Modelle nutzt? Ich spiele seit längerem kein CS mehr (bin zu schlecht) - aber wenn ich sehe, dass einige mit leicht erkenn- und unterscheidbaren "Menschen" spielen, finde ich das unter aller Sau.

Das stellt für mich einen Cheat dar.

Alles, was man bei Quake im Menü einstellen kann, kann aber kein Cheaten sein.

Ein Grenzfall wäre, ob man schon die Konsole (bzw. cfg-Datei) bemühen muss, um sich die Grafik einzustellen.

Um Quake in 800x600 und 32 Bit im Netz (LAN) spielen zu können, muss ich bei mir z.B. knallhart auf eine Menge Details verzichten: Füllraten-lastige Lightmaps weg, Geometrie runter, Texturen unschärfer um Bandbreite zu sparen etc...

... aber jetzt kehre ich erstmal zurück, zur Burg Wolfenstein :))

edit: Rechtschreibung

Andre
2001-12-12, 15:05:50
aths,

da sind wir einer Meinung.
Aus diesem Grund spiele ich z.B. kein CS, weil das Cheaten nicht nur per Aim-Bots, Wallhacks, etc., sondern auch per modifizierten Models an der Tagesordnung ist.
Bei Q3 ist das nicht so extrem.
Um die Modelpfuscherei zumindest zu minimieren, gehe ich für gewöhnlich auf Pure Server, die ein nachträgliches Einbinden von Models oder Texturen (zusätzlichen pk3-Dateien) verhindern.

Auch im Bezug auf das Grafiktuning stimmen wir überein.
Alles was ich im Menü einstellen kann, ist generell erlaubt, aber z.B. den picmip-Wert stelle ich in der cfg-Datei ein.
Die Grenze ist schwer zu ziehen, ein bischen Tuning ist nicht verwerflich, aber diese Tunerei hat noch niemanden zu einem guten Quaker gemacht.
Und ich mache definitiv auch einen Unterschied, ob jemand das tun muss, weil er aufgrund der HW nicht anders kann, oder er eine Geforce 3 im Rechner hat und nur "cheaten".
Aber ich sagt bereits, die Grenze ist sehr verwaschen.

Haarmann
2001-12-12, 15:08:09
Irrtum Andre,

Wenn Alles im Menu eingestellt würde für Benches, dann hat ATI NIE mit Treibern gecheatet. Ohne Konsole ists im aktuellen Q3 nicht möglich picmip 0 einzuschalten. Minimal geht 1 und der lief auch bei diesen "Cheat"treibern genau so, wie er sollte. Wenn Du aber das 0 zulässt, dann darf ich auch am Rest rumspielen resp auf die jeweiligen Karten hin optimieren. Wie Razor und ich uns mal auf 3dconcept einigten - entweder out of the box oder gleiches Recht für Beide.
Eine GF oder Kyro2 z.B. lässt keine so knappen Soundsettings zu, wie ne V5 oder Radeon. Diese Settings machen aber ne ganze menge FPS aus... Nur weil die bei ner GF2 zu stotterndem Sound führen, sind se ned schlechter ;-).

Kleiner Vergleich

original Settings auf den hier nur geänderten Variablen Q3 geben
203.9 fps
Alte auf Kyro2 optimierte Settings geben auf Radeon2
226.5 fps
Neue auf Radeon2 getunte Settings
244.3 fps
Ohne Sound
275.3 fps

Soundkarte is ne SB Live 5.1

THG Bencht z.B. ohne Sound

Fällt kaum auf der Unterschied oder? ;-)

Andre
2001-12-12, 15:12:31
Haarmann,

was verstehst Du unter "knappe Soundsettings" ?
Dann nenne doch mal ein Beispiel für Deine Tunerei, damit man sich mal ein Bild machen kann - so pauschal in den Raum gestellt kann ich nichts damit anfangen.
Und worin habe ich mich jetzt geirrt ?

Haarmann
2001-12-12, 15:22:28
Andre,

Dein Irrtum ist, dass bei den Benches nur Sachen im Menu eingestellt werden. Es wird fast überall in der Konsole rumgefummelt.

Die 2 Settings sind s_mixprepstep und s_mixahead. Aber Vorsicht - die musste fast für jeden Treiber, jede Auflösung usw anpassen ;-). Aber ich denke Du siehst, dass sich das lohnen kann und wichtiger noch, dass Sound und Soundkarte eine extrem zentrale Rolle bei Q3 spielen.

Andre
2001-12-12, 15:44:17
Ich muss zugeben, mit diesen Settings bisher nicht gespielt zu haben.
Könntest Du mir mal eine Einstellung für eine SBLive 1024 nennen, dann probiere ich das mal aus und schau mir die Ergebnisse an.
Auflösung 1024 x 768 @ 16 Bit, Deto 8.03, benutze die letzten OFFIZIELLEN Creative-Treiber.
Brauchst Du sonst noch was ?

Haarmann
2001-12-12, 15:55:09
Andre,

Ich hab natürlich keine GF Karten, aber früher liefen die bei mir mit (GF DDR, GF2) 0.07-0.1 mixahead, wobei 0.07 zu bevorzugen ist, noch "kratzfrei". Auf gut DE, wenns zu kratzen beginnt, isses ned mehr IO. Was ich natürlich ned weiss, ist ob neuere SB Treiber das Verhalten verändert haben... Eine SB128 (eine alte) frass z.B. nie etwas unter 0.1, wogegen die Via AC97 Codecs gut 0.07 machten. Den 2en Wert benutzt man eher selten, wirst aber sehen, dass der immer tiefer als der ahead sein muss ;-) Sonst ists verdammt ruhig ...

Pengo
2001-12-12, 16:41:41
Originally posted by aths
Pengo,

du schreibst: "Wieso kriegt Anand nur 89 fps?"

Da frage ich: Wieso bencht anand eine Voodoo4 für UT in D3D??

Vielleicht um 32Bit zu bekommen?

aths
2001-12-12, 17:24:29
Pengo,

UT-Grafik sieht mit 16-Bit-Glide besser aus, als 32-Bit-D3D. Zumal kein Mensch, der eine Voodoo hat, UT in 32 Bit spielt, ist dieser "Benchmark" vollkommen an der Realität vorbei gebencht worden.

Man hätte auch Glide in 32 Bit nehmen können, der Treiber erlaubt das...

Xmas
2001-12-13, 02:53:18
Originally posted by Haarmann
Wenn das FSAA der GF2 HW Seitig is, dann hat die V5 T+L - Siehe GA.

Dabei is Beides ein Treiber(murks).
Das ist nun mal nicht zu vergleichen. Geometry Assist läuft vollständig auf der CPU ab, FSAA macht die Grafikkarte. Ohne Treiberunterstützung hättest du überhaupt keine 3D-Features, sondern nur VGA-Kompatiblität.

Razor,
falls es dir nicht aufgefallen ist, ich sprach von nicht von GF3 ;)

Kai
2001-12-13, 04:51:59
Originally posted by Haarmann
Ohne Konsole ists im aktuellen Q3 nicht möglich picmip 0 einzuschalten.

Sorry, aber das ist ein Irrtum! Wenn man im Menü den Qualitäts-Slider komplett nach oben schiebt (Standard nach Installation ist ein Strich unter Maximum), ist r_picmip 0 gewählt - die maximalste Einstellung.

r_picmip ist somit 0, defaultwert ist 1

Es ist also definitiv ohne die Konsole aktivierbar.

Razor
2001-12-13, 11:27:10
Wer hat den behauptet, daß die gf3 FSAA in Hardware kann ?
Sollte natürlich gf2 heißen... (hab's schon korrigiert ;-)
Woll nur mal testen, ob Ihr auch die Post's von mir lest !
(nicht wirklich)
;-)

Und aths hat offensichtlich noch nie 4xQuincunx (2x2 9-tap) in Augenschein genommen...
(sollte er dringend nachholen)

@Haarmann

Igitt !!!
;-)

Und ich denke, daß Du dich mit dem Picmip (0) irrst. Wenn Du maxGeometryDetails (oder so ;-) einstellst, dann ist r_picmip auf 0 !

@Andre

Da kann ich Dir nur zustimmen !
Q3 so zu verhunzen (sorry, Haarmann)...
Da würd' ich mir das gleich schenken !
(bin halt kein Hardcore-Online-Zocker ;-)

@Xmas

Ist ja schon gut, hab's ja korrigiert...
;-)

@Kai

Det wollte ich damit sagen !
Deswegen ja auch der Unterschied HQ und HQ++ bei den Benches...

In diesem Sinne

Razor

Haarmann
2001-12-13, 12:53:54
@Kai und Razor

Ist interessant zu sehen... aber bei meinem Q3 isses wohl auf Grund diverser Settings etc wirklich auf 1 gepeakt...
0 gibts nur per Konsole ... Frag mich aber ned wieso ;-) Ev hab ich aus lauter Blödheit auch nur nen Bug gefunden... Bei mir jedenfalls gehts ned mehr ohne Konsole... seltsam - aber man soll also ned von sich auf andere schliessen ;-)...

Aber ehrlich Razor, Q3 war ohne PM Models unspielbar im Team, wenn man schöne Grafik wollte. 1vs1 ging - xray sei dank - schon immer.

aths
2001-12-13, 13:03:40
Razor,

du unterstellst: "Und aths hat offensichtlich noch nie 4xQuincunx (2x2 9-tap) in Augenschein genommen...
(sollte er dringend nachholen)"

Genau, ich laber einfach so über Sachen, die ich nicht kenne...

... natürlich habe ich 4xQuincunx Screenshots gesehen: Sehr blurry. Zumal sich auch nach*rechnen* läßt, dass das Blurren noch schlimmer als bei 2xQuincunx ist. Kurz, dass der Blur-Effekt gegenüber der zusätzlichen Kantenglättung überwiegt und daher auch nicht sehr viel besser als 2xQuincunx ist.

StefanV
2001-12-13, 14:40:18
WARUM vergleicht ihr immer die FSAA Screenies??

Das halte ich für nicht sonderlich sinnig...

Man muß es in Bewegung sehen, um es zu beurteilen!!

Pengo
2001-12-13, 16:23:35
Originally posted by Stefan Payne
WARUM vergleicht ihr immer die FSAA Screenies??

Das halte ich für nicht sonderlich sinnig...

Man muß es in Bewegung sehen, um es zu beurteilen!!

Wenn ich mich bewege sehe ich nicht besonders viel, da kann ich gleich auf FSAA verzichten :)

Legolas
2001-12-13, 17:28:26
Originally posted by Pengo


Wenn ich mich bewege sehe ich nicht besonders viel, da kann ich gleich auf FSAA verzichten :)
Du scheinst ja ziemlich gegen das Pixelflimmern abgehärtet zu sein.. selbst auf 1024 sieht man ziemlich oft Pixelflimmern in Spielen, zumindest ich..

Razor
2001-12-13, 17:45:21
@Haarmann

Na, dann scheinst Du aber viel Pech zu haben...
;-)

Det funzt übrigens mit 1.17 sowie 1.30...
(warum sollte das Prob' nur bei Dir auftreten ?)

@Stefan

Exakt, Stefan, man muß es gesehen haben...
(und schon gar nicht versuchen, so etwas zu berechnen)
;-)

@Pengo

Rennst Du IMMER durch die Gegend ?
;-)

Ich bleib auch ab und zu mal stehen und schau mich um...
(wie will man auch sonst die ganze secrets finden ?)
Und da 'braucht' man dann spätestens gute quali...
(sicher nicht, wenn man mit maximum fps online herum hetzt ;-)

@Legolas

Wohl wahr !

In diesem Sinne

Razor

Pengo
2001-12-13, 18:18:42
Originally posted by Legolas

Du scheinst ja ziemlich gegen das Pixelflimmern abgehärtet zu sein.. selbst auf 1024 sieht man ziemlich oft Pixelflimmern in Spielen, zumindest ich..

Vielleicht bewege ich mich falsch? Soll ich vielleicht um den Monitor herumrennen? :)

Haarmann
2001-12-13, 18:20:02
Hmm Razor und Rest,

Muss irgendwas verklemmt sein... ne neuinstallation inkl Patch, hat det Problem nimmer...

Auf gut DE ???

Aber eben... ich kann mit leben ;-)

aths
2001-12-13, 18:25:03
Stefan Payne,

du schreibst richtigerweise: "Man muß es in Bewegung sehen, um es zu beurteilen"

Dass Quincunx Texturen unscharf macht, sieht man allerdings auch ohne Bewegung. Dass 4xQuincunx Texturen noch unschärfer macht, ebenso -> ein Filter, der die Gesamtqualität senkt.

StefanV
2001-12-13, 18:47:48
Originally posted by aths
Stefan Payne,

du schreibst richtigerweise: "Man muß es in Bewegung sehen, um es zu beurteilen"

Dass Quincunx Texturen unscharf macht, sieht man allerdings auch ohne Bewegung. Dass 4xQuincunx Texturen noch unschärfer macht, ebenso -> ein Filter, der die Gesamtqualität senkt.

Damit hast du recht, MEHR kann man dabei aber nicht vergleichen.

Optimal wäre ein vergleich übrigens, wenn man 2 gleiche Monitore nebeneinanderstellt und dann vergleicht.

Allerdings wäre es bei einer Karte, die für Multisampling geeignet ist, sinnvoll, wenn man auch Supersampling im Treiber auswählen könnte.

Quincunx sollte man auch nicht mit 'normalem' FSAA vergleichen.

Oder ist es sinnvoll Bilinear 'normal' mit Trillinear Aniso zu vergleichen??

aths
2001-12-13, 19:43:50
"Quincunx sollte man auch nicht mit 'normalem' FSAA vergleichen."

nVidia macht das.

Quasar
2001-12-13, 19:50:40
"nvidia macht das."


...hinsichtlich der Performance und der Kantenglättung.

StefanV
2001-12-14, 01:26:13
Originally posted by aths
"Quincunx sollte man auch nicht mit 'normalem' FSAA vergleichen."

nVidia macht das.

Warum wundert mich das nicht...

Wahrscheinlich, weil aus der gleichen Ecke dieser schwachsinn mit der Verdoppelung des Taktes bei DDR-SDRAM eingebürgert hat...

[fu]121Ah
2001-12-14, 08:47:26
naja, die haben noch viel "eingebürgert". der ganze taktrausch, mehr megabyte gleich mehr leistung. aber relevante dinge wie bandbreite lassen sie aussen vor.

ich meine seht euch ne MX-200 an. 64mb, tönt gut, verkauft sich an nichtswisser (nochwenigerwisser als ich.) und bringt geld.

genau wie, unser chip kann so und soviele triangles pro s berechnen, aber die speicherandbindung reicht gerade mal für die hälfte. (3dcenter-artikel)

ROFL

marketing nennt sich das. und nvidia hat ein SEHR gutes marketing.

Andre
2001-12-14, 09:25:56
Payne, aths und [fu]121HA:

Ihr habt Euch echt gesucht und gefunden, oder ?
NV ist daran schuld, macht dieses falsch - manchmal ist es schon fast verblüffend, welche Argumente Euch so mitten in der Nacht einfallen.
Aber ihr seid wenigstens kreativ, wie ich finde.

Haarmann
2001-12-14, 09:40:55
Andre,

eigentlich finde ich die MX200 ned interessante Karte...
Wohl die Einzige 3d Karte, wo AGP Texturierung sinnvoll wäre ;-)

Man muss unterscheiden, zwischen Fans und NV selber. Die Fans sind wohl gleich bekloppt wie alle anderen ;-) und da NV Karten als erstes DDR Speicher hatten, kan auch von dort her die erste Volkverblödung ala 300 MHz RAM Takt...

Razor
2001-12-14, 10:12:09
Aber zumindest interessant ist es zu sehen, daß der Begriff 'Brute-Force-Renderer' net mehr so oft auftaucht... kann gut daran leigen, daß ATI's Flagschiff dem ja noch einen drauf gesetzt hat und nun die höchsten, verfügbaren Taktraten an den Markt bringt (und trotzdem net schneller ist ;-)...

Aber eben, hauptsache mit Theorie argumentieren bringt's irgendwie net...

Gleiches gilt übrigens auch für die Taktangaben von Intel. Sicher mögen die Dinger (P4) so schnell getaktet sein, aber ein Ausdruck für Leistung isses net...

Tja, wer halt nur Specs vergleicht, geht irgendwie an der Realität vorbei !

In diesem Sinne

Razor

[fu]121Ah
2001-12-14, 10:42:06
und wer specs in die welt setzt dass es einem fast rauf kommt wenn man sie liest, geht man auch an der realität vorbei?

naja, ist was anderes, der p4 ist ein vollkommen neuer chip, längere pipes, tracecache....

naja, die bruteforcerenderer basieren alle auf demselben prinzip. ok, es ist auch nur marketing von seiten intels, aber über das wollen wir ja nicht diskutieren.

@haarmann

naja, bei der mx100 wäre es ja noch besser... lol... warte, lass mich rechnen, die mx100 hat 64bit SDram... hihi...

uiii, agp 4x hat 1gb/s
mx100 hat ca. 700mb/s

agp-texturing ruley

Quasar
2001-12-14, 10:45:28
Originally posted by [fu]121Ah
der p4 ist ein vollkommen neuer chip

Selbiges gilt auch für die neuen Grafikchips nach DX8....alles vollkommen neue Chips...

Haarmann
2001-12-14, 11:11:03
Wenn ein P4 bis 5 GHz von der Architektur her gesehen schafft, dann ist det ein doller Chip - wenn er bei 5GHz angelangt is ;-) - bis er das is, ists eher ne lahme Krücke.
ISSE2 lässt sich eh nicht mit AMDs FPU bergleichen - 64 Bit sind einfach keine 80 Bit, auch wenn 64 oft reichen, so isses einfach ein Apfel Birnen Vergleich, denn da wo zum Teil die FPU Power gebraucht wird, zählen die 80 Bit eben auch oft gewichtig.
Der P4 hat bestimmt seine Vorteile, wenn er die mal ausspielen kann, aber als General Purpose CPU isr zZ nicht geeignet.
Auf gut DE - fürs gemeine Volk is ein P4 nutzlos - aber genau die kaufen sich det.

[fu]121Ah
2001-12-14, 11:13:09
hmm, was ist daran neu?

dx8 ist im grunde nur /edit die programmierbare tnl einheit /edit der integriert wurde.

der p4 funktioniert anders, der cache wird anders genützt. andere decoder, usw....

der geforce 3 ist aber im kern immer noch ein tnt!

@haarmann

naja, der p4 wurde einfach zu früh auf den markt geworfen, man hatte zeitdruck, integrierte einen zu langsamen tracecache, verkrüppelte den decoder, replazierte den scheiss partial register stall durch eine genau so blöde lösung (shift/rotate ALU zugriff dann in l1). der p4 ist einfach ein krüppel.

Razor
2001-12-14, 11:17:10
@[fu]121Ah

So ein Quatsch !
- dann ist 'nen P4 immer noch 'nen 0x86...
- nen Athlon immer noch nen K6...
- 'ne Radeon8500 immer noch 'nen Rage...

Also wirklich...

Ach und noch etwas: Der VS ist net neu, besser schon der PS der nicht emuliert werden kann.

In diesem Sinne

Razor

[fu]121Ah
2001-12-14, 11:27:10
Originally posted by Razor
@[fu]121Ah

So ein Quatsch !
- dann ist 'nen P4 immer noch 'nen 0x86...
- nen Athlon immer noch nen K6...
- 'ne Radeon8500 immer noch 'nen Rage...

Also wirklich...

Ach und noch etwas: Der VS ist net neu, besser schon der PS der nicht emuliert werden kann.

In diesem Sinne

Razor

der p4 ist ne neue architektur. bei grafikchips wird immer was DAZU gezimmert. hast du dich mal gefragt wieso das geforce und geforce 2 beide die probleme mit s3tc haben? (bei gf3 weis ich es nicht) weil sie beide im grunde dieselbe hardware dafür einsetzen!

wegen der radeon, die kommt sowieso nicht von ati selbst, sondern von ArtX, die firma hat ati aufgekauft und der radeon war bei denen in der entwicklung! NIX RAGE (obwohl radeon i ja n Rage 6 als interne bezeichnung hat)

quizfrage, was ist ne geforce?

2x tnt2... genau.... ;-)

nggalai
2001-12-14, 11:44:02
Hi [fu]121Ah,

Nur kurz:hast du dich mal gefragt wieso das geforce und geforce 2 beide die probleme mit s3tc haben? (bei gf3 weis ich es nicht) weil sie beide im grunde dieselbe hardware dafür einsetzen! Nein, weil sie die gleiche Implementation dafür verwenden. Kleiner aber feiner Unterschied.

ta,
.rb

[fu]121Ah
2001-12-14, 12:13:01
stimmt... ;-)

naja, aber schlussendlich hätten sie die implementierung fixen können, aber wies aussieht war das zuviel aufwand, daher denk ich mal hardwaremässiges prob... erinnert ihr euch an die savage2000....

naja, die gf3 ist auch nur ne geforce 2 + dx8 tnl.... noch ein paar features dazu und fertig....

das gleiche bei voodoo 1 und 2...

Quasar
2001-12-14, 12:54:34
Na dann erklär doch bitte mal die Architektur der TNT und setze das dann bitte ins Verhältnis zur GF3.

Da bin ich aber mal gespannt.


Sicher gibt es einige Beispiele für's Recyclen der alten Technik (TNT/TNT2, Voodoo Graphics/Voodoo2, GF256/GF2, RageIIc/Ragepro, Rage 128/Rage128pro, Radeon/Radeon7500, G400/G450, i740/i815 usw)

Aber nun alles auf die Ursprünge zurückführen zu wollen, geht doch etwas zu weit....obwohl: letzlich besteht alles aus Transistoren...SKANDAL!


Also, [fu]121Ah, erklär' mal bitte....

StefanV
2001-12-14, 13:04:07
Originally posted by [fu]121Ah
@haarmann

naja, bei der mx100 wäre es ja noch besser... lol... warte, lass mich rechnen, die mx100 hat 64bit SDram... hihi...

uiii, agp 4x hat 1gb/s
mx100 hat ca. 700mb/s

agp-texturing ruley

nope!!

Das, was du angesprochen hast war die MX-200!

Die MX-100 hat ein 32bit SDR Interface (wenn ich mich nicht irre).

Naja, meine GD5428 hat sicher auch nur ein 32bit Interface ;)

StefanV
2001-12-14, 13:12:35
Also ein Rage 128 hat recht wenig mit einem Rage Pro zu tun, ebenso vermutlich die Radeon.

ABER:
Eine Rage PRO ist ein Mach64 mit 'angebasteltem' 3D Core.

Wie ich darauf komme??
Grabt mal wieder Windows 3.1 aus *eg*

Bei NV Karten könnte man es ja mal mit uralten TNT1 Treibern versuchen.

Wenn's läuft->Core basiert auf TNT, wenn nicht, dann eben nicht ;)

Gleiches gilt auf für andere Karten *eg*

Quasar
2001-12-14, 13:42:55
Mensch, Stefan, nach über 8000 Posts immer noch nicht den "edit"-Button gefunden? tststs...

Also basieren ALLE Grafikkarten auf der Ur-VGA, weil sie ja alle mit dem Windows-Standard-VGA Treiber laufen, oder?

ne Matrox G550 basiert auf der MGA2046 Millenium?


Oder ist dir das Konzept eines "unified driver models" nicht klar?


Oder hab ich da jetzt was falsch verstanden...

ow
2001-12-14, 13:58:21
Originally posted by [fu]121Ah
stimmt... ;-)

naja, aber schlussendlich hätten sie die implementierung fixen können, aber wies aussieht war das zuviel aufwand, daher denk ich mal hardwaremässiges prob... erinnert ihr euch an die savage2000....

naja, die gf3 ist auch nur ne geforce 2 + dx8 tnl.... noch ein paar features dazu und fertig....

das gleiche bei voodoo 1 und 2...


Wieso nur V1 und V2??
Das geht bis zum VSA100, der nichts anderes als ein extrem aufgebohrter V1 ist.

ow
2001-12-14, 14:00:26
Originally posted by Stefan Payne
Also ein Rage 128 hat recht wenig mit einem Rage Pro zu tun, ebenso vermutlich die Radeon.





Wie kommst du denn da drauf??

Vergleiche mal die Bildquali von RagePro/Rage128 und Radeon.
Und du wirst sehen...

Frank
2001-12-14, 14:03:36
holt euch alle Trident und seit ruhig mit diesem jetzt sinnlos werdendem Gestreite...

StefanV
2001-12-14, 14:11:10
Originally posted by ow
Wie kommst du denn da drauf??

Vergleiche mal die Bildquali von RagePro/Rage128 und Radeon.
Und du wirst sehen...

Gaanz einfach:

Installier Windows 3.1, den Treiber für die Rage PRO (heißt übrigens 'Mach64 Windows Driver')

Bau die Rage PRO aus, Rage Fury (mit Rage 128) rein, und versuch mal Windows zu starten.

Und was sehen wir?

Richtig, die Kiste ist astrein gefreezed...

ow
2001-12-14, 14:13:16
Originally posted by Stefan Payne


Gaanz einfach:

Installier Windows 3.1, den Treiber für die Rage PRO (heißt übrigens 'Mach64 Windows Driver')

Bau die Rage PRO aus, Rage Fury (mit Rage 128) rein, und versuch mal Windows zu starten.

Und was sehen wir?

Richtig, die Kiste ist astrein gefreezed...


Und was soll das sagen??
Absolut NICHTS bedeutet das.
Ausser, das ATi kein "unified driver model" nutzt.

StefanV
2001-12-14, 14:15:39
Originally posted by ow
Wieso nur V1 und V2??
Das geht bis zum VSA100, der nichts anderes als ein extrem aufgebohrter V1 ist.

ow, meinst du nicht, daß dein Geflame gegen andere Firmen nicht so langsam lächerlich wird??

StefanV
2001-12-14, 14:17:06
Originally posted by ow
Und was soll das sagen??
Absolut NICHTS bedeutet das.
Ausser, das ATi kein "unified driver model" nutzt.

Ach, unter W3.1??

Da interessiert nur der 2D Core!!
Selbst wenn der ähnlich ist, dann funzt er!!
OS/2 User mit einer Mystique wissen, was ich meine *eg*

StefanV
2001-12-14, 14:22:37
Originally posted by Quasar
Mensch, Stefan, nach über 8000 Posts immer noch nicht den "edit"-Button gefunden? tststs...

Also basieren ALLE Grafikkarten auf der Ur-VGA, weil sie ja alle mit dem Windows-Standard-VGA Treiber laufen, oder?

ne Matrox G550 basiert auf der MGA2046 Millenium?

Oder ist dir das Konzept eines "unified driver models" nicht klar?

Oder hab ich da jetzt was falsch verstanden...

1. ich finde Edit sieht 'nicht so schön' aus.
Mach ich auch nur, wenn mir der Inhalt meines Postings nicht gefällt.
Ich find auch, mehrer Kleine Postings besser, als ein Mega Posting.

2. nein, hab ich das behauptet??
es gab übrigens zwischenzeitlich reine Windwos Karten, ohne VGA Core.

3. Hab momentan keine G550 zur Hand, um sie mal mit Treibern für die MIl1 zu testen ;)

4. Unified geht doch nur, wenn man weiß, daß man nicht nur eine Karte hat.
Die Alten TNT1 Treiber (Deto 1.88 und Früher) wissen noch nix von einer GF3.
Da ist halt nur der Teil für die TNT1 drin enthalten.

Wenn die GF3 nicht auf der TNT1 basieren würde, dann würden die Treiber nicht laufen (insbesondere 3D wäre interessant) , oder irre ich mich da??

Haarmann
2001-12-14, 14:33:30
OW doch es heisst was... denn die Radeon läuft gut mit Mach64 XServer unter BSD...

Stefan - gelle macht Spass ne GF mit nem TnT 1.1 Treiber zu foltern ;-)

Legolas
2001-12-14, 14:44:07
Originally posted by Pengo


Vielleicht bewege ich mich falsch? Soll ich vielleicht um den Monitor herumrennen? :)

Weiß nicht.. mir fällt in fast jedem 3-D Spiel teilweise sehr penetrantes Pixelflimmern auf.. Vielleicht bist du dagegen komplett abgestumpft.. mag sein :D:D

Wenn ich aber meine Brille runternehm, dann seh ich auch kein Geflimmer mehr am Monitor (aber dann muss ich auch froh sein, wenn ich nirgendwo dagegenrenn :D:D ;) )

StefanV
2001-12-14, 14:52:17
Originally posted by Haarmann
OW doch es heisst was... denn die Radeon läuft gut mit Mach64 XServer unter BSD...

Stefan - gelle macht Spass ne GF mit nem TnT 1.1 Treiber zu foltern ;-)

1. *eg*

2. Isch habe garkeine GF (mehr) ;)

Die einzige NV Karte ist eine Riva128, und das auch nur, weil ich sie nicht 'verschenken' wollte ;)

[fu]121Ah
2001-12-14, 15:21:57
so ich werd jetzt mal nicht auf alles antworten... das geflame aussen vor....

@stefan

doch ist glaube ich die mx100, die 200er hat doch 1,3gb speicherbandbreite... ou, ja hast recht, habs falsch geschrieben... 32bit... die bandbreite unten stimmt aber...

@ow

wie du dir vorstellen kannst ist es recht schwierig das zu belegen. oder hast du die chipdesignpläne? werde das mit den treibern mal versuchen... kann mir einer w31 mailen? lol...

schlussendlich kommt es darauf raus das jeder chip ein teil seines vorgängers enthält. die r200 hat auch teile des r6 drin.... ich sag das nicht weil ich gegen nvidia bin...

Quasar
2001-12-14, 15:37:11
...hört sich aber fast so an, wenn du so 'nen Unsinn schreibst, wie "GF3 ist im Grunde ne TNT"...

Sorry, aber das Chips teilw. aufeinander aufbauen, sich teilw. nur hinsichtlich ihre Taktes unterscheiden ist schon klar, aber mit der Argumentation, das man mal eben hier und da nen Teil angeflantsch hätte, macht man es sich doch ein wenig einfach...zumindest wenn man's nicht belegen kann, daß die Core identisch sind.

Haarmann
2001-12-14, 16:33:36
Quasar,

meine Experimente betreffend dieser Treiber machte ich laange vor meiner Zeit in diesem Forum...

Was ich festellen konnte war, dass die TnT1 Treiber nicht nur auf ner GF DDR liefen, sondern auch absolut perfekt in der Lage waren alle 4 Pipelines zu benutzen.
Ich folgere aus dieser Tatsache, dass eine GF nahezu die gleichen Logikschaltungen integriert hat (Was auch immer dazugekommen ist, resp ob die vervielfältigt wurden usw... weiss ich wiederum ned) wie eine alte TnT.

Es ist wohl jedem klar, dass ne TnT keine T+L Einheit besitzt ;-) - dementsprechend bleit diese bei der GF DDR mit nem alten TnT Treiber auch ungenutzt.
Interessant waren die Test aber allesamt und bestätigen, dass die Hardware nur abgeleitet ist.

Anders sieht da die Welt bei ner Radeon/R128 aus... Da ist tote Hose angesagt wenn sowas versuchst...
Aber ich werde mal versuchen ne R200 mit dem alten originaltreiber der Radeon zu foltern.

Xmas
2001-12-14, 17:50:43
Originally posted by Haarmann
Ich folgere aus dieser Tatsache, dass eine GF nahezu die gleichen Logikschaltungen integriert hat (Was auch immer dazugekommen ist, resp ob die vervielfältigt wurden usw... weiss ich wiederum ned) wie eine alte TnT.
Ich folgere daraus, dass der Treiber schon damals mit Unterstützung für verschiedene Chips im Hinterkopf geschrieben wurde und möglichst viel wiederverwendbaren Code beihalten sollte. Dass der Treiber vier Pipelines nutzen kann, ist kaum erstaunlich.
Desweiteren kann man daraus schließen, dass die gleichen Register bei beiden Chips auch auf die gleiche Weise angesprochen werden. Das sagt aber nichts darüber aus, ob auch die dahinterliegenden Logikschaltungen dieselben sind. Nur das Interface ist gleich (bzw. stark erweitert)

Razor
2001-12-14, 18:10:29
Tja, Xmas, ich glaube hier lieben es einige sehr, im Trüben zu fischen...
;-)

Also wirklich, von den den Treibern auf die Hardware zu schließen...
Das die Schnittstellen abwärtkompatibel bleiben, ist wohl mehr als nachvollziebar (so von wegen Abwärtskompatibilität in Sachen Betreibssytem und adaptiver Software...), deswegen aber zu behaupten, daß die Hardware dahinter die gleiche ist... oh mann !

Klar und der P4 ist auch nur 'nen 0x86, weil er noch immer in der Lage ist, den 0x86 Befehlssatz zu 'verstehen' und 'nen 0x86 Programm beweist ganz eindetig, daß ein P4 gar keiner is...

Und Freund [fu]121Ah sollte sich mal richtig zurück halten, denn bisher hab' ich nur irgendwelche Behauptungen sehen können, aber keinen einzigen Beleg. Wie wär's mal mit 'nem Link oder Ähnlichem ?

Leute, bitte!
;-)

In diesem und auch vielen anderen Sinne(n)

Razor

P.S.: Und weiß ich auch endlich, wie Stefan zu seinen Post-Mengen gekommen ist !
;-)

Quasar
2001-12-14, 20:55:32
Originally posted by Razor
P.S.: Und weiß ich auch endlich, wie Stefan zu seinen Post-Mengen gekommen ist !

Das werd' ich jetzt auch mal versuchen...

Quasar
2001-12-14, 21:00:22
@Razor:

Danke übrigens, daß du mir mit deinem Post das viele Tippen abgenommen hast *unterschreibt*

aths
2001-12-14, 21:18:15
"Das geht bis zum VSA100, der nichts anderes als ein extrem aufgebohrter V1 ist."

Voodoo Graphics bestand aus 2 Chips, schon das lässt auf tief greifende Designänderungen schließen. VSA-100 kann seine beiden Pipelines zu einer MT-Pipeline zusammen schalten, das kann ein Voodoo Graphics (natürlich) nicht (er hat ja auch nur eine Pipeline.)

Ab Banshee ist ein 2D-Teil drin mit voller 128 Bit Windows Beschleunigung.

Voodoo3 beherrscht zusätzliche DX6 Blendmodi.

VSA100 zusätzliche DX7 Blendmodi, enthält einen Multisample-Buffer (bei nVidia erst ab GF3 vorhanden), neben einer im Gegensatz zu GeForce brauchbaren DXTC-Implementation noch FXT1, 40 Bit interne Rechengenauigkeit...

edit: Ich bin nicht sicher, dass ow diese Details alle kennt.

Quasar
2001-12-14, 21:40:31
Ums mal mit [fu]121Ah's Worten zu sagen:

Das sind alles nur kleine Anhängsel hier und da...ein zusätzliche Pipe hier, ein extra-2D-Teil dort, Multisample-Buffer noch woanders...

Na, Merkt hier jemand was? das ist zum größten Teil vollständiger Schwachsinn, sorry, daß ich's so drastisch formuliere.


Der Voodoo2 ist ein aufgebohrter Voodoo1
Der Voodoo3 ist ein aufgebohrter Banshee
Der VSA-100 ist eine Neuentwicklung


Der TNT2 ist ein aufgebohrter TNT
Der GF256 ist eine vollständige Neuentwicklung
der GF2 ist ein aufgebohrter GF256
Der GF3 ist eine vollständige Neuentwicklung

Der Radeon7500 ist ein aufgebohrter Radeon
Der Radeon8500 ist eine vollständige Neuentwicklung

Imho....

[fu]121Ah
2001-12-14, 21:58:02
naja, für rebel:

http://www.quantum3d.com/

die seite von quantum3d. professionelle grafik(sub)systeme. sie produzieren unter anderem für das militär.

aalchemy systeme basierend auf dem vsa100 chip von 3dfx. lies die pessemitteilungen über einsatzgebiete.

http://www.quantum3d.com/product%20pages/aalchemy3.html

3dfx chips in der f/a 18

http://www.3dconcept.ch/cgi-bin/showarchiv.cgi?show=1858

[fu]121Ah
2001-12-14, 21:59:14
lockhed martin ordert quantum3d 3dfx systeme:

http://www.3dconcept.ch/cgi-bin/showarchiv.cgi?show=1840

"Gleichzeitig mit der Ankündigung vermeldet Quantum3D einen Grosserfolg in diesem Industrie-Sektor. Lookheed-Martin bestellte 1'000 Einheiten der neuen AAlchemy4 - Serie, um damit das in England beheimatete Luftabwehrwaffen-Trainingszentrum auszurüsten. Der mehrere Millionen US-Dollar umfassende Liefervertrag gilt als einer der grössten OEM-Deals dieser Art in der Industriegeschichte"

http://www.3dconcept.ch/cgi-bin/showarchiv.cgi?show=1900

3dfx stellt spielautomaten usw her.

http://web.archive.org/web/19970213080453/www.3dfx.com/products/obsidian.html

spielautomaten made by 3dfx


reicht das rebel?

[fu]121Ah
2001-12-14, 22:10:50
das ne tnt2 ne aufgebohrte tnt1 ist ist von euch akzeptiert?

überlegt euch mal was raus kommt wenn man die pipelines verdoppelt. genau ne geforce. für mich (subjektiv) ist ne geforce 2 tnt2. könnte mit dem speedzuwachs auch etwa stimmen. dazu braucht man logischerweise doppelt so schnelles ram sprich ddrram.



Ich folgere daraus, dass der Treiber schon damals mit Unterstützung für verschiedene Chips im Hinterkopf geschrieben wurde und möglichst viel wiederverwendbaren Code beihalten sollte. Dass der Treiber vier Pipelines nutzen kann, ist kaum erstaunlich.
Desweiteren kann man daraus schließen, dass die gleichen Register bei beiden Chips auch auf die gleiche Weise angesprochen werden. Das sagt aber nichts darüber aus, ob auch die dahinterliegenden Logikschaltungen dieselben sind. Nur das Interface ist gleich (bzw. stark erweitert)



damals? dann wussten sie ja schon wie die chips der zukunft aussehen. noch ein grund das es nur dazugezimmert wurde. also für mich ist ein treiber nicht optimal der nicht direkt auf die hardware abgestimmt ist. und falls er soviele pipes wie auch immer vorhanden nutzen kann ist er das nicht! wenn die register gleich sind ist es auch ne aufgebohrte variante. siehe bsp. 286/386/486.

[fu]121Ah
2001-12-14, 22:15:16
Originally posted by Stefan Payne


nope!!

Das, was du angesprochen hast war die MX-200!

Die MX-100 hat ein 32bit SDR Interface (wenn ich mich nicht irre).

Naja, meine GD5428 hat sicher auch nur ein 32bit Interface ;)

die gd5428 ist ne cirrus logic oder? naja, die wurde 1995 (geschätzt) oder früher hergestellt, ne mx100 oder 200 im jahre 2000. deshalb ist die mx ja so ne tolle karte.... lol... schon toll wie man mit ner 5 jahre alten karte in bezug auf bandbreite konkurrieren kann nicht? dazu das die sehrwahrscheinlich edo ram hatte und das noch effektiver ist.

so jetzt warte ich auf mails von euch nvidia priestern

aber die les ich erst morgen. muss mich jetzt anderen dingen widmen. und falls ihr das alles zu ernst nehmt seid ihr selber schuld.

Quasar
2001-12-14, 22:22:42
Die MX200 ist nun mal ne absolute Einsteigerlösung. Mehr gibt's dazu nichts zu sagen. Mit wem oder was die nun konkurriert ist irrelevant.

Und wenn du es verwerflich findest, wen man sein Image ausnutzt, um mehr Produkte abzusetzen, weil das den Umsatz hochtreibt und damit Analysten und Aktionäre zufriedenstellt, dann wirst du im real existierenden Kapitalismus noch ne schwere Zeit vor dir haben.
Jede Firma mit betriebswirtschaftlich denkender Leitung tut dies.

btw, die MX100 hab ich noch nirgends gesehen...gibbet dazu evtl. mal nen Link? Hab' bisher nämlich den 64Bit SDR- bzw. 32Bit DDR-RAM Bus der MX200 für den niedrigsten gehalten...


P.S.: Wusstest du übrigens, daß die GF auch ne TnL-Einheit beinhaltet? aber stop....die haben wahrscheinlich nur nen abgespeckten 486er an die 2 TNTs rangeflantscht....

StefanV
2001-12-14, 23:01:16
@[fu]3DFX

Die Cirrus Logic Karte hat aber nur 70ns FPM DRAM (EDO Gab's noch nicht) getaktet mit vermutlich 40MHz.

Wollte 'nur' die BUSBREITE erwähnen ;)

ow
2001-12-15, 00:01:29
Originally posted by Stefan Payne


ow, meinst du nicht, daß dein Geflame gegen andere Firmen nicht so langsam lächerlich wird??


Sicher nicht derart lächerläch wie deine Anti NV Hetze.

ow
2001-12-15, 00:03:14
Hab da noch eins, Herr Meister-Flamer Stefan

Xmas
2001-12-15, 00:09:28
Originally posted by [fu]121Ah
überlegt euch mal was raus kommt wenn man die pipelines verdoppelt. genau ne geforce.
...und wenn man ein Motorrad verdoppelt wirds ein Auto.

damals? dann wussten sie ja schon wie die chips der zukunft aussehen. noch ein grund das es nur dazugezimmert wurde.
Ich schrieb "Unterstützung für verschiedene Chips". Also auch für Varianten. Außerdem war, als der TNT-Treiber geschrieben wurde, doch schon lange klar dass der Nachfolger kein komplettes Redesign wird. Was denkst du denn wie lange die Chipentwicklung dauert?

also für mich ist ein treiber nicht optimal der nicht direkt auf die hardware abgestimmt ist. und falls er soviele pipes wie auch immer vorhanden nutzen kann ist er das nicht!
:lol:
...und wenn wir gerade dabei sind schreiben wir doch den Code doppelt. Natürlich in Assembler, sonst ist ja der Treiber nicht "optimal"...
Ich habe von wiederverwendbarem Code geschrieben. Ein Programmierer der bei ähnlichen Aufgaben immer wieder komplett bei Null anfangen muss, gehört gefeuert! Wenn der Treiber schon mit zwei Pipelines umgehen muss, dann tut er das, wenn er ordentlich geschrieben ist, auch mit vier. Allerdings tut er das wohl überhaupt nicht, denn:
Ist dir schon mal in den Sinn gekommen dass die Hardware selbständig die Pipelines verwalten könnte?

wenn die register gleich sind ist es auch ne aufgebohrte variante.
:lol: Ein P4 ist also ein aufgebohrter 8088? Du hast mich überzeugt!

ow
2001-12-15, 00:27:04
Originally posted by Xmas




:lol: Ein P4 ist also ein aufgebohrter 8088? Du hast mich überzeugt!


:lol: mich auch! :lol::lol::lol:

aths
2001-12-15, 00:30:17
Quasar,

du schreibst:

"Der GF3 ist eine vollständige Neuentwicklung"

Nun ja, zumindest die DXTC-Implementation stammt noch aus GF1-Zeiten, hehe.

Ich glaube nicht, dass GF3 ein "vollständige" Neuentwicklung ist. Ein größerer Sprung auf alle Fälle. Die 3dfx-Ingenieure gingen beim VSA-100 vom Voodoo3 aus, gestalteten ihn um (Trennung der TMUs, höhere Präzision) und fügten die neuen Features hinzu. Die nVidia-Ingenieure nahmen ihren GTS, fügten Loopback hinzu (oder Pipeline Combining, wie Xmas mal als denkbare Alternative vermutete) und integrierten die neuen Shader etc. Sie werden die Pipelines erweitert, nicht neu designt haben.

Soweit ich weiß, ist der Rampage eine Neuentwicklung. (Ungefähr zwei Jahre Entwicklungzeit!)

"Der Radeon7500 ist ein aufgebohrter Radeon"

Nur höher getaktet, mehr nicht.

"Der Radeon8500 ist eine vollständige Neuentwicklung"

Radeon (1) basiert auf dem Rage, und Radeon2 natürlich auf Radeon1. Anstatt von einer "vollständige Neuentwicklung" zu reden, würde ich zwischen größeren (Leistungs-)Stufen unterscheiden: Von TNT2 auf GF256, von GTS zu GF3, von Voodoo1 zu Voodoo2 (SLI), Voodoo3 zu Voodoo5, von Rage Pro zu Radeon und von Radeon zu Radeon2.


Xmas, du schreibst: "Ein P4 ist also ein aufgebohrter 8088? Du hast mich überzeugt!" Das kann man mit ein bisschen gutem Willen so sehen: 8086 -> 8088, PIII -> P4. :-D

StefanV
2001-12-15, 00:58:51
Originally posted by ow
Sicher nicht derart lächerläch wie deine Anti NV Hetze.

ow, du hast meine beiden Postings aus dem zussammenhang gerissen!!

Und ganz ernst waren die beiden Postings nicht gemeint!!

Wenn du den GESAMTEN zussammenhang kennen würdest, dann hättest du es dir denken können!!

Quasar
2001-12-15, 01:03:26
Originally posted by aths
"Der Radeon7500 ist ein aufgebohrter Radeon"

Nur höher getaktet, mehr nicht.

Nein, er hat zusätzlich auch das Hydravision-Feature bekommen, das es vorher nur im TnL-losen RadeonVE gab...


"Der Radeon8500 ist eine vollständige Neuentwicklung"
Radeon (1) basiert auf dem Rage, und Radeon2 natürlich auf Radeon1.


Das mag ich nicht so recht glauben....ne weitere TMU pro Pipeline, TnL, HyperZ usw. klingen schon stark nach Neuentwicklung...


Anstatt von einer "vollständige Neuentwicklung" zu reden, würde ich zwischen größeren (Leistungs-)Stufen unterscheiden: Von TNT2 auf GF256, von GTS zu GF3, von Voodoo1 zu Voodoo2 (SLI), Voodoo3 zu Voodoo5, von Rage Pro zu Radeon und von Radeon zu Radeon2.

Dem mag ich, wie schon gesagt auch nicht zustimmen. TNT2 und GF256 unterscheiden sich stärker als GF256 und GF2. V1 war auch schon SLI fähig, Quantum3D bewies es. Und Rage zu Radeon hab ich eben schon abgestritten...

Nr. 5
2001-12-15, 02:48:03
hi.

wenn jeder chip ´ne neuentwicklung wäre, würden die unifiend-treiber dann nicht mit jeder graka-generation um einiges größer werden? oder kann man das über das interface regeln? so das das interface den treiber "übersetzt". und wie schon angemerkt evt. selbstständig das von der hardware verwaltet wird?
ich hab keine ahnung wie groß der treiber zu TNT1 zeiten war. vermute aber mal das er deutlich größer geworden ist. und frag mich ob man das den zusätzlichen funktionen zuschreiben kann - oder ob da nicht designänderungen zusätzlich unterstützt werden mussten?

im endeffekt kommen neue features dazu, wobei wohl auch ein redesign bestimmter schaltungen sinnvoll ist > höhere effektivität durch bessere zusammenarbeit.

wobei ich es für wirtschaftlichen selbstmord halte, für den nächsten chip ´ne neue architektur, für den übernächsten ´ne neue architektur...
könnt man auch gleich mit jedem neuen autotyp die antriebsart ändern. so wurde eben 100 jahre lang der verbrennermotor immer mehr verfeinert. das prinzip, der grundaufbau ist gleich > kombatibilität. aber zwischen den ersten ihrer art, und den jetztigen stand liegen doch sehr viele unterschiede.


cu

StefanV
2001-12-15, 03:00:34
Zur Größe:

Schau dir mal die DLs bei Rivastation an.

aths
2001-12-15, 04:29:46
Quasar,

du schreibst: "Dem mag ich, wie schon gesagt auch nicht zustimmen. TNT2 und GF256 unterscheiden sich stärker als GF256 und GF2. V1 war auch schon SLI fähig, Quantum3D bewies es."

Ich verband jeweils die Grafikkarten mit uns, zwischen denen ich einen Entwicklungssprung sehe. Von TNT2 zur GF256 war es ein deutlicher Sprung. Eine SLI-Lösung auf V1-Basis war im Retail Marked nicht verfügbar. Voodoo3 gabs ja auch mit bis zu 4 Chip pro Karte (was also grob an GTS-Leistung heran reichen sollte) - aber davon haben "wir" nichts gehabt.

"Und Rage zu Radeon hab ich eben schon abgestritten..."

Radeon ist eine Weiterentwicklung des Rage-Chips. Dass da viele Neuigkeiten drin sind, tut dem keinen Abbruch. Beispielsweise ist die 3. TMU beim Radeon nicht fähig, trilinear zu filtern, sie kann nur bilineare Filterung durchführen. Vom Rage ist im Radeon natürlich nicht mehr viel zu sehen, aber er diente als Grundlage. Daher halte ich "komplette" Neuentwicklung für übertrieben.

Razor
2001-12-15, 07:59:34
Also einige hier scheinen sich immer wieder fröhlich in Apfel-mit-Birnen-Vergleichen zu suhlen...
;-)

Grundsätzlich sollte man 2 Dinge unterscheiden:
1) Technologie-Entwicklung
2) Hardware-Implementierung

Technologische Entwicklungen schreiten permanent voran, so denn die lieben kleinen (oder auch großen) Features, wie auch die Verfeinerung von Fertigungsprozessen etc.pp...

Jeder neue Chip sollte natürlich auch das können, was der Vorgänger konnte und wird entsprechend designt. Muß er deswegen aber auch gleich aufgebaut sein ? Wohl eher nicht. Sicher, die nach außen verfügbaren Register etc. müssen identisch bleiben, da sonst adaptive Hard- und Software nicht mehr funktionieren würde. Wenn man von einer Chip-Neuentwicklung spricht, meint man damit natürlich nicht, daß die komplette Technologie über den Haufen geworfen wurde, sondern das bereits verwirklichte Technologie mit neu hinzugekommener kombiniert und in ein neues Chip-Design integriert wird. Gleichzeitig werden neue Möglichkeiten der Logic-Verarbeitung und eben auch neue Fertigungsprozesse dazu benutzt, das Chip-Design effizienter und die Fertigung günstiger zu machen. Natürlich werden vorhandene Schnittstellen nach außen (soweit möglich) nicht verändert und es werden neue hinuzugefügt. Die komplette Arbeitsweise eines Chips kann sich also ändern, obwohl er nach außen noch immer zu alter Hard- und Software kompatibel ist.

-

Wenn hier einige meinen, daß der brühmte DXT1-'Bug' ein Indiz dafür sei, daß Logic-Schaltkreise wiederverwendet werden, ist leider auf einem Holzweg. Diese Leute sollten sich mal mit Lizensierungs- und Patentierungsverfahren und den zugrunde liegenden Spezifikationen auseinandersetzen. Jeder Hersteller hat die 'Freiheit' Dinge so zu implementieren, wie es ihm in den Sinn kommt. So verweisen nVidia und M$ seit Verfügbarkeit der Koprimierungsalgorithmen darauf hin, daß die von nVidia benutzten Algirithmen eine 'Eigenart' mitbringen, die bei bestimmten Textur-Formen zu 'unschönen' Nebeneffekten führt und deswegen vermieden werden sollten. Wenn sich nun andere nicht daran halten (wie z.Bsp. die Entwickler von Q3), dann kommt es zu den erwarteten Effekten. Dafür sind diese Algorithmen aber hocheffizeint und führen bei korrekter Nutzung zu dem gewünschten Ergebnis. Auch bietet nVidia hier 3 Stufen der Texturen-Komprimierung, die eine bessere Skalierung in der Performance erlauben...

Warum sollte nVidia das ändern ?
Nur weil es einige wenige Entwickler gibt, die sich nicht an die Vorganben der TC-Nutzung halten ?
Eher nicht...

Und noch etwas:

Es scheint sich ja wohl mittlerer Weile herum gesprochen zu haben, daß nVidia die DX7 HW T&L Funktionalität über ein Vertex-Shader-Programm gelöst hat, um eben abwärtskompatibel zu sein. So besitzt sie keine in Hardware gegossenen Schaltkreise mehr, die explicit DX7 HW T&L ermöglichen, sondern sie nutzen die 'neue' Technologie der Vertex-Shader, um dieses zu verwirklichen (was dann auch der Grund dafür ist, warum Vertex-Shader und DX7 HW T&L nicht parallel genutzt werden können). Ein gutes Beispiel dafür, wie alte Technologie mit neuer Hardware verwirklicht wird.

Aber klar, weil die gf3 eben auch DX7 HW T&L unterstützt, ist sie eine 'aufgebohrte' gf2...
Oh mann...

-

Es ist immer wieder interessant zu sehen, wie hier einige irgendwelche Theorien entwicklen, ohne dafür fundierte Belege zu haben. Da werden Dinge regelrecht an den Haaren herbei gezogen, nur um eine eigene Überlegung zu stützen, auch wenn diese durch nichts gestützt wird. Sicherlich kann man Vermutungen äußern, aber dann sollte man diese aber so kenntlich machen.

Also bitte wieder auf den Boden zurück kommen und sich ein wenig mehr an Fakten halten.

In diesem Sinne

Razor

Haarmann
2001-12-15, 12:38:35
Ahoi

Eigentlich ist ja ne TnT2 nur eine TnT... oder sollte die TnT ned 125/150 getaktet sein? ;-). Die beiden Chips sind in etwa wie Kyro1 zu Kyro2.

Mal klargestellt...
NV kocht nur mit Wasser... Damit die GF schnell fertig wurde, nahm man wohl ne TnT/TnT2 als Basis und hat dazugebaut. Das spart schliesslich verdammt viel Zeit und somit auch Geld.
Die die "TMU" Teile bei NV sind wohl erweitert worden, aber sicher nicht neu erfunden (einzig bei ATI musste das neu erfunden werden, da die 3 Texel pro Pipe/Clock völlig anders zu handhaben sind). Das ist ja auch nicht falsch! Im Endeffekt spart sowas Kosten und da die TnT doch ganz gut lief, musste man auch nix neu erfinden... es war da und lief.
Würde NV wie Intel arbeiten, wäre ne MX ne GF2 mit 2 stillgelegten Pipes und langsamerem Takt ;-). Aber nee, NV hat am MX halt mehr umdesingt, damit der billiger in der Fertigung is. Damit man sowas nun halt mal einfach hinbekommt, hat man sich nen "Baukasten" mit Elementen angelegt, die ne kompatible Schnittstelle haben müssen...
Nun können die Entwickler schneller auf den Markt reagieren und man entwickelt 3 Chips mit einem. Das Verfahren ist nicht falsch oder schlecht oder dumm... Jeder kluge Progger "recycled" seinen Code doch genau so ;-).
Schauen wir und mal geistig ne GF2 zu GF2 MX Mutation an mit TnT2 und TnT2m64 im Hinterkopf.

Man hat sagen wir mal grob gesagt 1 T+L Unit - die is im MX die Gleiche wie im GF2.
Man hat 2 resp 4 Pixelschleudern...
Man hat nun noch ein RAM Interface... ein 128 Bit SDR war schon da - ein kleiner Zusatz und das 128 Bit SDR einer z.B. TnT2 ist DDR64Bit fähig.
Man hat noch ne S3TC Einheit.
Man hat noch ne 2D Einheit...
...
Daneben nenne ich noch etwa "Core" Logik, die eben dann 2 statt 4 Pipes verwalten muss. Die ist zwangläfig nicht identisch.

Will ich nun daraus (MX400) nen MX200 machen - tausche ich nur noch das RAM Interface aus gegen das einer TnT2m64 und setzte die gleiche DDR Logik etwas schmaler dazu - fertig. Das ganze muss dann eben wie ein Proggi zu ner Maske werden, mit der ich die Chips herstelle.
Das diese Maske ned gleich vom Himmel fällt is klar.

Nix gegen dies Verfahren - würds ned anders machen ;-)

Razor
2001-12-15, 15:47:18
Tja, Haarmann...

Das 'ne TNT2 'ne 'aufgebohrte TNT is, bestreitet ja auch niemand...
Auch, daß die ganze gf/gf2-Linie auf dem gleichen Kern basiert...
Am krassesten dürfte wohl die gf3-Linie sein, die sich so gut wir gar net unterscheidet (aber erst am Anfang steht).
(außer, daß die Ti's günstiger zu fertigen sind ;-)

Insofern hat's bei nVidia folgende Kernprodukte (oder Neuentwicklungen) gegeben:
(das von davor interessiert nicht ;-)

TNT = TNT/TNT2/TNT2Ultra/TNTVanta (und noch so einiges mehr)
GeForce = GFSDR/GFDDR/GF2GTS/GF2ULTRA/GF2PRO/GF2TI/GF2MX/GF2MX200/GF2MX400
GeForce3 = GF3/GF3TI200/GF3TI500

'Etwas' verwirrend ist vielleicht die Tatsache, daß die gf3 wie ihre Vorgänger bezeichnet wird, was wohl allerdings auf den bereits eingeführten Namen 'GeForce' zurück zu führen ist und somit rein Marketing-Technische Gründe haben dürfte...

Also bestätigt sich auch somit das Bild bisheriger Produkt-Releases:
- alle 2 Jahre eine (wirkliche) Neuentwicklung
- dazwischen dann, sagen wir mal, 'Weiterentwicklungen'
- dazwischen dann 'Refreshs'
womit wir bei einem Zyklus von 6 Monaten angekommen wären...

Den letzten 'Refresh' haben wir gerade zur Kenntnis nehmen dürfen...
Die nächste 'Weiterentwicklung' steht vor der Tür (NV25 im April/Mai nächsten Jahres)
Dann wieder 'nen 'Refresh' und im April/Mai 2003 gibt's dann endlich wieder was Neues !
;-)

Ach ja, 'ne Chip-Entwicklung hat (bisher ;-) immer gute 4 Jahre gedauert (unterschiedliche Entwicklungsteams bei nVidia in der wohl größten Entwicklungsabteilung überhaupt). Insofern können wir davon ausgehen, daß der NV30 und der NV40 (wie immer die auch aussehen werden ;-) bereits in der Mache sind.

In diesem Sinne

Razor

aths
2001-12-15, 16:23:52
Hm, der Refresh brachte keinen einzigen neuen Chip. Der NV25 scheint mir von der theoretischen Leistung her weniger Änderungen gegenüber dem NV20 zu bieten, als der GTS gegenüber dem GF256.

Einen Vertex Shader mehr, u.U. mehr Pipelines, hoffentlich auch noch ein paar kleine Verbesserungen am LMA. So hoffe ich doch sehr, dass nun early z rejection endlich zusammen mit FSAA funktionieren wird.

Ebenso möchte ich doch *sehr hoffen*, dass 4x FSAA nun endlich RG durchgeführt wird.

Die schon im GF3 vorhandene HOS-Unterstützung wird wohl als große Errungenschaft des NV25 vermarktet werden.

Dabei wäre eigentlich ein "richtig neuer" Chip dran.

StefanV
2001-12-15, 16:52:00
@Razor

Dennoch besteht die GF3 noch aus TNT1 'Teilen'

Oder glaubst du, daß NV die GESAMTE Pipeline neu designt hat??

Die haben immer nur das bestehende erweitert!

Razor
2001-12-15, 16:54:44
@Stefan

1) Vermutung
2) warum nicht ?
3) Vermutung

Aber klar, Stefan, dann erhelle uns doch mal mit einem Beleg Deiner These !
;-)

In diesem Sinne

Razor

StefanV
2001-12-15, 17:10:25
Originally posted by Razor
@Stefan

1) Vermutung
2) warum nicht ?
3) Vermutung

1. siehe 2
2. Wie lange soll NV denn am Chip sitzen??
Und wie lange soll die Entwicklung denn dauern, bis man das KOMPLETT neu Designt hat!!

Die einzige Firma, bei denen neue Generaton ist ist PowerVR, der Rest bedient sich dem Baukastenprinzip!!

Oder glaubst du tatsächlich, daß NV bei der GF3 mit 'nem Weißen Blatt angefangen ist??

Sicher nicht!!3. Siehe 2

WENN dem nicht so ist, wie bitteschön bekommt NV den '6mon Zyklus' hin??

Haben die 10 Teams??

Razor
2001-12-15, 17:19:43
Wie lange soll NV denn am Chip sitzen??
Und wie lange soll die Entwicklung denn dauern, bis man das KOMPLETT neu Designt hat!!
Ca. 4 Jahre und alle 2 Jahre kommt ein solcher Chip.
Die einzige Firma, bei denen neue Generaton ist ist PowerVR, der Rest bedient sich dem Baukastenprinzip!!
Sicher ?
;-)
Oder glaubst du tatsächlich, daß NV bei der GF3 mit 'nem Weißen Blatt angefangen ist??
Jep !
Sicher nicht!!
WENN dem nicht so ist, wie bitteschön bekommt NV den '6mon Zyklus' hin??
Indem sie nur alle 2 Jahre ein 'neues' Produkt bringen und nicht alle 6 Monate...
Haben die 10 Teams??
Dürfte hinkommen, wenn es nicht sogar mehr sind...
;-)

In diesem Sinne

Razor

GloomY
2001-12-15, 17:50:18
Originally posted by Haarmann
Eigentlich ist ja ne TnT2 nur eine TnT... oder sollte die TnT ned 125/150 getaktet sein? ;-). Die beiden Chips sind in etwa wie Kyro1 zu Kyro2.
Hmm, die Anzahl der Transitoren wurde von 12 auf 15 Mio. (+ 25%) vom Kyro 1 zur Kyro 2 erhöht.
Auch wenn man nicht direkt sehen kann, wohin diese neuen Transistoren verbaut wurden (komplett gleiche Features der beiden Kyros), denke ich, daß man intern schon noch eininges verändert hat (Otpmierung von Schaltungen).
Das war nicht einfach nur ein Die-Shrink mit den damit verbundenen höheren Taktraten.

Quasar
2001-12-18, 18:47:16
Hab's glaub ich irgendwo mal gelesen und hier im Forum auch schon mal gepostet: Die größe der Tiles hat sich vom KyroI zum KyroII geändert, deswegen mussten auch die internen Caches und der Buffer für die TileListe vergrößert werden. Imho sind dahin die 3 mio zusätzlichen Transistoren geflossen...

Apropos, Stefan, wo ist denn hier die Neuerung, die man nicht aus dem Baukasten genommen hat??

Aber ich gebe dir Recht, daß die GF3 aus TNT1-Teilen besteht...nämlich aus Silizium-Molekülen, oder, wenn dir das zu klein ist, aus Transistoren...wie jeder andere Chip auch.

Wie wär's mal mit ein paar Belegen, anstatt immer wieder wilde Spekulationen als Fakt hinzustellen?

StefanV
2001-12-18, 20:40:14
Ali V.

Alle NV Karten laufen dadrin nicht besonders.

ERGO:

NV muß sich dem Baukastensystem bedienen.

Unregistered
2001-12-19, 11:08:21
Was'n Ali V??
Und ein einziges Indiz macht noch lange keinen Beweis, tsts.

BTW: netter Thread, extrem informativ. Feines Forum :)
@Aths und Razor, geht mal'n Bier miteinander schlabbern und bleibt locker. (Gilt nicht nur für diesen Thread hier, euer subtiler Zwist zieht sich durch sämtliche Foren)

Andre
2001-12-19, 11:23:43
Originally posted by Stefan Payne
Ali V.

Alle NV Karten laufen dadrin nicht besonders.

ERGO:

NV muß sich dem Baukastensystem bedienen.

:lol:

Das ist der stichhaltigste Beweis, den ich seit langem gehört habe.

christoph
2001-12-19, 12:05:08
@stefan: rofl

du verwechselst da vielleicht nvidia mit 3dfx.
die haben den originalen voodoo-core wirklich bis zum erbrechen
(oder zur pleite) recycled.

neue features in eine bestehende architektur zu integrieren kann durchaus schwieriger/zeitaufwendiger sein als mit 'einem weissen blatt papier' anzufangen

StefanV
2001-12-19, 13:15:59
Originally posted by christoph
@stefan: rofl

du verwechselst da vielleicht nvidia mit 3dfx.
die haben den originalen voodoo-core wirklich bis zum erbrechen
(oder zur pleite) recycled.

neue features in eine bestehende architektur zu integrieren kann durchaus schwieriger/zeitaufwendiger sein als mit 'einem weissen blatt papier' anzufangen

DU verwechselst da was ;)

3DFX hat immer DEN GLEICHEN Core genommen und ihn KAUM verändert!
Bei NV werden es nur TEILE sein.
Halt wie im Baukastensystem!!
Oder glaubt ihr hier tatsächlich alle, daß NV die Pipelines des GF KOMPLETT neu Designt hat??

Andre
2001-12-19, 15:06:55
Originally posted by Stefan Payne
Oder glaubt ihr hier tatsächlich alle, daß NV die Pipelines des GF KOMPLETT neu Designt hat??

Für welche Geforce jetzt ?
1/2 oder 3 ?
Und glaubst Du tatsächlich, dass ATI, STM und all die anderen das anders gemacht haben ?

HOT
2001-12-19, 15:50:07
Dieses Thema ist nicht einfach. NVidia hat sicherlich keine direkte Technik aus der TNT übernommen - der Geforce brachte doch teilweise signifikante Veränderungen mit sich. Er ist z.B. Dot3 fähig und kann alle DXTC Algorithmen (wenn den ersten auch nicht besonder gut und insgesamt weniger effizient :D).
Allerdings muss man hierzu sagen, dass der TNT (vielmehr das Design) sicherlich als Grundlage für die Geforce gedient hat.
Man hat beim Geforce sogar das AGP Interface verändert... jetzt lief er zwar auf dem berüchtigten ALi Alladin V Chipsatz hervorragen, dafür machte er beim AMD 750 und VIA Chipsätzen Probleme. Beim Geforce3 ist das hingegen IMHO eine etwas andere Geschichte: Das generelle Geforce-Design hat dem Chip offensichtlich als Grundlage gedient, jedoch mussten weite Teile neu designt werden. Der Geforce3 hat mit Sicherheit die Renderpipes der Geforce2 verpasst bekommen - Pixelshader und Loopback dazu - fertig.
Auch das schlechte AGP Interface dürfte dasselbe sein.
NVidia muss sich ja eines von Stefan in's Spiel gebrachen Baukastenprizips bedienen, wie sollte man sonst 4 und mehr Verschieden Design eines Chips (Geforce2) gebastelt haben und gleichzeitig damit Kosten sparen. NVs Taktik hat sich natürlich bezahlt gemacht - der NV20 war sehr schnell fertiggestellt und lief relativ problemlos. Nur die alten Fehler (AGP Interface und Texturkompression) wurden leider mit in das neue Design übernommen.

Bei PowerVR sieht das etwas anders aus, hier muss die Renderpipe auf das jeweilige Tilerverhalten angepasst werden. Man weiss nicht, was für neue grundsätzliche Verbesserungen PowerVR in der 4. Generation bringen wird - denkbar wäre vieles.
Auf jeden Fall muss der komplette DXTC Satz rein, der Pixelshader selbstverfreilich auch. über TMUs und Filtering oder ander Details sind leider auch keine Informationen verfügbar, aber ich denke, dass wir davon ausgehen können, dass auch hier viel gebastelt wurde.
Bisher hat PowerVR von Generation zu Generation komlett neu designt - die 1. Generation wurde glaub ich einmal verbessert, die 2. Generation (Dreamcast) ist schon damals ein komplett neues Design gewesen. Der Kyro hat auch sehr wenig mit der 1. und 2. Generation gemein.
Ich denke mal, dass die 4. Generation auch so gut wie nichts mit dem Kyro gemein hat (inklusive dem Namen).
ATI hat es ganz anders gemacht - der Radeon8500 hat doch bestechende Ähnlichkeit zu der Flipper-GPU des Gamecube. Ich denke mal, dass sich ATI hier kräftig bei ArtX bedient hat, als sie die Firma aufgekauft haben. Der R200 ist also auch ein komplett neues Design gegenüber dem R100.

StefanV
2001-12-19, 16:10:30
Originally posted by Andre

Fuer welche Geforce jetzt ?
1/2 oder 3 ?
Und glaubst Du tatsaechlich, dass ATI, STM und all die anderen das anders gemacht haben ?

Ach, Andre, schon wieder dein SPAM...

Power VR MUSS Jede neue Generation neu designen, siehe HOT!!
Und WO hab ich gesagt, daß ATI sich dem nicht bedient??

Matrox erweitert ihre Cores ja auch.

Also informiere dich nächstes mal etwas besser!!

Andre
2001-12-19, 16:26:51
Originally posted by Stefan Payne


Ach, Andre, schon wieder dein SPAM...

Power VR MUSS Jede neue Generation neu designen, siehe HOT!!
Und WO hab ich gesagt, daß ATI sich dem nicht bedient??

Matrox erweitert ihre Cores ja auch.

Also informiere dich nächstes mal etwas besser!!

Ach, Stefan, schon wieder ein Angriffsversuch.
Drücke Dich erstmal argumentativ genauer aus, DANN poste.
Du stellst einfach Sätze in den Raum, ohne sie zu begründen, geschweige denn Informationen mitzuliefern.
Du hast ständig von NV geredet (ist ja auch klar, wenn man verzweifelt Argumenationsstränge sucht), nicht ich.
Ich habe lediglich darauf hingewiesen, dass man das nicht einseitig sehen soll.
So wie HOT das gemacht hat, sollte Dir ein Vorbild sein.
Argumentativ stringent, klar ausgedrückt, sauber differenziert (im Gegensatz zu Deinem "ALI V-Einheitsgefasel").
Aber das wirst Du nie lernen.
Aber vielleicht kannst Du es ja auch nicht.

Andre
2001-12-19, 16:48:19
Im Übrigen:

Könntest Du bitte zum Posten einen anderen Browser als den Mozilla nehmen ?
Ist ja kaum auszuhalten, oder ist das jetzt in Mode ?

StefanV
2001-12-19, 17:01:54
@Andre

Weißt du, was mich am meisten ankotzt (von allen!)??

Wenn man etwas postet, um etwas gegen jemanden zu posten.

Andre
2001-12-19, 17:23:05
Originally posted by Stefan Payne
@Andre

Weißt du, was mich am meisten ankotzt (von allen!)??

Wenn man etwas postet, um etwas gegen jemanden zu posten.

Weißt Du was mich ankotzt ?
Wenn man etwas postet, um einen als Idioten darstehen zu lassen.
Ich habe nur den Wunsch geäußert, dass Du bitte Deine in den Raum geworfenen, angeblich in Stein gemeißelten Feststellungen, den Menschen versuchst zu erklären, die das nachvollziehen wollen.
Warum können das andere Poster und manche eben nicht ?
Dieses Wunsch hab ich schon, ähm, seit es das Forum gibt.

"Ach, Andre, schon wieder dein SPAM..."

Ach so und das war nicht gegen mich gepostet oder wo ist da jetzt wieder die Grenze ?

Gohan
2001-12-19, 17:46:27
Da sich hier 2 Mods streiten, muss ich mich wohl an den nächst höheren Rangposten wenden, Admin bitte schliessen :D

HOT
2001-12-19, 18:49:16
Heyhey, beruhigt euch wieder.... das ist nur ein Thread und kein Boxring :D

Opera Rulez :D

[fu]121Ah
2001-12-19, 19:44:07
hmm, geht mich nichts an ;-)

ich streite mich lieber mit ow... ;-) (nimm das jetzt blos nicht ernst)

wo waren wir? ja das baukastenprinzip, ich hab das nicht als "angriff gegen nvda" gemeint, sonder eher auf grafikkarten allgemein. stm macht das nicht, was hot ja erklärte, ati macht das sehrwahrscheinlich und 3dfx hat es auch gemacht. obwohl 3dfx hier mehr mühe gehabt haben müsste, das sie die synchronisation der chips genau anpassen mussten... was sehrwahrscheinlich die ganze verzögerung bedeutete. und eine änderung des designs.... von matrox sprechen wir gar nicht

g200 ist für mich ne g550.... da sieht man das "dazubasteln" sehr gut...

Thowe
2001-12-19, 20:07:07
Originally posted by HOT
Opera Rulez :D

What? Opi rulez :D

/me denkt das das jetzt nicht jeder versteht. :(


Wobei, ist jetzt schon länger her, ich kann mich daran erinnern das NVIDIA durchaus selbst geäussert haben das die Chips der GeForce Serie durchaus keine kompletten ReDesigns sind, sondern erst die NV30 ein komplettes Neudesign ist.

Warum auch nicht? Wenn es denn funktioniert ist es doch blödsinnig es neu zu entwickeln, es sei denn das es zwingend nötig ist.

Wie dem auch sei, die ganze Diskussion um solcherlei Themen ist IMHO einfach nur überflüssig.


Streiten, klar mit Xmas, da kann ich wenigstens was bei lernen. :D

Unregistered
2001-12-21, 12:28:48
Originally posted by Stefan Payne
Ali V.

Alle NV Karten laufen dadrin nicht besonders.

ERGO:

NV muß sich dem Baukastensystem bedienen.


Etwas schwammige Formulierung, oder nicht??


Das die Chips ab TNT2 AGP4x unterstuetzen, der TNT aber nicht ist dir bekannt??

Also muss sich ja selbst am AGP IF was geaendert haben.
Also nichts mit reinem Baukasten.

(ps) Im uebrigen betreibt ein Freund von mir eine TNT AGP problemlos auf ALi V.