PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die Geschichte der 3d-Karten 2005


pco
2005-05-09, 14:56:30
Nach über 2 Jahren habe ich meinen Report über die Entwicklungen der 3D-Karten erneuert, erweitert, vervollständigt.

Für Novizen vielleicht ganz interessant, für Erfahrene was zum sinnieren, meckern oder Fehlersuchen.

Die Geschichte der 3D-Karte 2005 (http://www.orthy.de/modules.php?name=News&file=article&sid=347&mode=&order=0&thold=0)

Für Anregungen dankt

PCO

Gast
2005-05-09, 15:10:41
Tolle Sache!

pco
2005-05-09, 15:13:25
Tolle Sache!
Gell!

PCO

Dunkeltier
2005-05-09, 15:15:35
Der Report wimmelt vor Rechtschreib- und Grammatikfehlern, außerdem sind einige Angaben falsch. Zudem wird hier nur unlängst Bekanntes wieder neu aufgewärmt. Lies den Kram mal Korrektur...

BubbleBoy
2005-05-09, 15:18:34
.

Quasar
2005-05-09, 15:28:10
Auch inhaltlich etwas überarbeitungsbedürftig - das originale Doom nutzt keine 3D-Beschleunigung, das kam erst Jahre später durch Fan-Projekte.

edit:
Anfang Seite 4 habe ich aufgegeben. Bitte überarbeite das nochmal, PCO. So stehen da viel zu viele Unklarheiten/Halbwahrheiten/Verkürzungen neben den ganzen Rechtschreibfehlern drin.

Dunkeltier
2005-05-09, 15:30:08
Und bei sowas "Erwähnenswert auch, dass die Geforce3 die erste Karte von NVidia war, mit der FSAA sinnvoll einsetzbar war." rollen sich bei mir nur noch die Fußnägel hoch. Und viele der techn. Angaben zu den Grafikchips sind nicht richtig, die Rechtschreibfehler, die Fehler was die Geschichte überhaupt angeht, und...und...und. Am besten man nimmt den Artikel komplett vom Netz. Steht eh alles wesentlich korrekter in älteren PCGH Zeitschriften.

Dunkeltier
2005-05-09, 15:34:25
Zitat: Im Frühjahr erschien im "Billigsegment" die Kyro2 der Firma "Imagination". Hm, hat PowerVR nicht die GPU entwickelt?

Dunkeltier
2005-05-09, 15:35:13
*kotz* Zitat: Wie erwähnt war der Kyro2 nie ein besonders guter Chip.

Ich piss auf den Artikel.

Quasar
2005-05-09, 15:38:08
Das geht doch bestimmt auch freundlicher, Dunkeltier. Da hat sich jemand sicherlich Mühe gegeben und Arbeit investiert - das sollte nicht durch solche Kommentare herabgewürdigt werden.

MagicMat
2005-05-09, 15:38:17
Ich tippe auf ein Referat der 8. Klasse, welches noch NICHT vom Lehrer Korrektur gelesen wurde.:)

Dunkeltier
2005-05-09, 15:40:17
Das geht doch bestimmt auch freundlicher, Dunkeltier. Da hat sich jemand sicherlich Mühe gegeben und Arbeit investiert - das sollte nicht durch solche Kommentare herabgewürdigt werden.


Ja tschuldigung, aber wenn da laufend Scheiße (nett ausgedrückt: Lügen) drinstehen, dann ist der Artikel (besser gesagt der Inhalt) einfach wertlos weil sehr schlecht aufgearbeitet. Wenn ich mir schon für sowas die Mühe mache, dann versuch ich es wenigstens richtig zu machen. Will heißen, ich erzähle keine Scheiße, führe die techn. Daten RICHTIG auf, lasse meinen Artikel von mehreren Usern Korrekturlesen und veröffentliche ihn erst dann.

Und die Kyro II war eine Super-GPU, die Treiber wurden bei Problemen immer relativ schnell gefixt. Der Support war klasse! Und das FSAA war schon bei der Voodoo 5 5500 immer ständig nutzbar in 800x600 bis 1024x768.

Super Grobi
2005-05-09, 15:40:34
Das geht doch bestimmt auch freundlicher, Dunkeltier. Da hat sich jemand sicherlich Mühe gegeben und Arbeit investiert - das sollte nicht durch solche Kommentare herabgewürdigt werden.

Das denke ich auch. Dieser Thread ist wohl dafür da um die fehler raus zu filtern.

SG

Dunkeltier
2005-05-09, 15:42:39
Das denke ich auch. Dieser Thread ist wohl dafür da um die fehler raus zu filtern.

SG


Wo willste anfangen? Der ist von vorne bis hinten total mit Fehlern durchsiebt. Schlimmer gehts kaum.

No.3
2005-05-09, 15:46:11
mal von der Rechtschreibung abgesehen...

recht ausführlicher Artikel, aber...

- wo ist die Kyro 1 ?

- soso, die Kyro II ist ein schlechter Chip voll mit Bugs ? - informier Dich da mal und korrigier das ! (Kyro hat zwar kein TnL, ist auf Nivau von ner kleinen GeForce2 zerbläst bei Serious Sam einem TnL Spiel aber ne GF2 Ultra, etc etc etc etc)

guckst Du z.B. hier http://www.3dcenter.de/artikel/2001/04-06a.php und hier http://www.3dcenter.de/artikel/kyro/


- fände es gut wenn Du die damals Hochgehypten Features wie 32Bit, TnL und Co etwas kritischer Betrachten würdest, da diese auf den ersten Karten absolut unnutzbar waren und erst ca 2 Generationen wirklich Sinn machten

- Voodoo5 = Schlecht weil Extra Netzteil, heutige Grakas Extra Stromstecker = gut ? ;)

- VoodooX SLI (x=2,4,5) = schlecht (laut nVidia Marketing) was macht nVidia heute ? ;)

- FSAA - Voodoo5 konnte das perfekt - wurde früher kleingeredet - was machen nVidia und ATI heute? ;)

- öhm, mir fällt grad nix mehr ein :smile:


ansonsten, die Seite ist zwar zimelich kaputt, aber ne gute Info-Quelle: http://www.3dconcept.ch/

Rainer

Quasar
2005-05-09, 15:46:54
[GF 256]
"Erste grosse Neuerung war war die Unterstütztung von DirectX7 (womit man mit der G400 gleichzog)."
Unvollständig. Die G400 unterstützte von den Hauptfeatures eigentlich auch nur DX6 und zusätzlich eben EMBM, welches nV erst mit der GF3 liefert, ATi schon mit der ersten Radeon. DX7-Treiber gab es natürlich auch für die DX6-Chips.

^^ so als Vorschlag. Wir können PCO ja zusammen helfen, die Fehler auszubessern.

[GF 256]
"Wirklich Probleme machte dagegen die hohe Leistungsaufnahme der Karte. welche auf älteren und billigen Boards zum "Abrauchen" des AGP-Ports führen konnte. Damals musste man explizit beim Hersteller nachfragen, ob das Board auch die Karte verträgt. An sich ein Skandal, fand sich die Zockergemeinde doch recht schnell mit dem Umstand ab."
Eigentlich ein Problem der Boards, die den von der AGP-Spec geforderten Strom teils nicht liefern konnten. Bei denen hätte man sich beschweren sollen.

[Voodoo1]
"Ich beginne Absichtlich so, auch wenn NVidia-Freunde wissen, der NV1 war schon lange am Markt. Der jedoch war kein wirklicher 3D-Beschleuniger, denn sein Instruktionssatz erhielt nie Bedeutung, seine Geschwindigkeit war nicht Vergleichbar mit der Voodoo und Karten mit diesem Chip waren nur leidlich erfolgreich, weil recht teuer."
Auch nicht ganz korrekt. Der nV1 war sehr wohl ein 3D-Beschleuniger, der aber leider nicht DirectX-kompatibel war, da sich die Primitiven voneinander unterschieden. IIRC nutzte der nV biquadratische Bezier-Flächen (eine Form von Higher Order Surfaces), keine Polygone.
Sein Mißerfolg bestand eben darin, daß man speziell für ihn abseits jeglicher API Unterstützung programmieren hätte müssen.

[1998]
" SLI (Serial Line Interface)"
-> Scan Line Interleave

[2000 Untergang des Pioniers]
"Hier konnte die Voodoo5 mit ihren 2 VSA-Chips punkten. Jeder Chip übernahm ein Bild. Ergebnis: Die Spielgeschwindigkeit ging auch mit 2xFSAA kaum merklich zurück.

Die Voodoo4 bestach hier weniger. Zum Spielen war der Chip, vor allem mangels Transform&Lightning, leider zu langsam. Viel schlimmer jedoch wog die enorme Wärmeentwicklung und der Bedarf eines eigenen Netzteils bei der Voodoo5! Grund hierfür war, dass es damals halt in den meisten PCs nur 200Watt, bestenfalls 300Watt-Netzteile gab, die gnadenlos überforder gewesen wären."
Widersprüche und Fehler.
Eine V5 mit 2xFSAA soll ausreichend, eine V4 ohne FSAA zu langsam gewesen sein? Eigentlich boten beide in den jeweiligen Settings äquivalente Geschwindigkeit - die V5 manchmal etwas mehr, weil mehr Speicher zur Verfügung stand.
Externe Netzteile waren ursprgl. für die V5 6000 vorgesehen, nicht die normale 5500. Die hatte nur einen Stromstecker für das int. PC-Netzteil.

[Kyro]
"Aber ein Nachfolger hätte es werden können doch die Firma Imagination (aka. Permedia) lässt nichts mehr über einen neuen Chip blicken."
PowerVR hat m.W. nichts mit dem CHIP Permedia zu tun. Der ist ein 3dlabs-Eigengewächs.


So, jetzt kann mal jemand anders weitermachen.

BlackArchon
2005-05-09, 16:04:41
Oh diese ganzen Fehler... teilweise zum gruseln. Hier nur die schlimmsten falschen Fakten:

Die Voodoo3 3500 lief mit 183/183. Die 2000er und die 3000er haste gleich ganz vergessen, ebenso die Velocity.
Die GeForce 256 lief mit 166 MHz SDR (128 Bit), die DDR-Variante mit 150 MHz. Eine Pro oder Ultra gab es nicht. Und welche mit 16 oder 128 MB Speicher kenne ich auch nicht.
Die Original-Radeon soll ein 256 Bit Speicherinterface gehabt haben? Nee. Erst recht nicht die SDR-Variante. Und was ist DirectX 7.1?
Die Voodoo4/5 liefen beide mit 166/166. Und AA ohne Performanceeinbußen? Ha, schön wärs.
Die GeForce 2 GTS hatte meist 32 MB, gabs aber auch mit 64 MB. Die Pro (meist 64 MB) lief mit 200/400 und die Ultra hatte 64 MB. Die ganzen MXen müssten noch etwas differenzierter werden (MX: meist 32 MB (128 Bit SDR oder 64 Bit DDR) und 175/166, MX200: 64 Bit SDR oder 32 Bit DDR, MX400: meist 64 MB 128 Bit SDR, 200/166).
Die GeForce 3 hatte 64 MB (200/220?), die Ti200 gabs mit 64 und 128 MB (meist 175/200), die Ti500 lief mit 240/?
Die Kyro II lief mit 175/175 und gabs mit 32 oder 64 MB. Die Kyro I haste gleich vergessen, die lief mit 115/115.

Und jetzt verliere ich langsam die Lust... ;(

BUG
2005-05-09, 16:23:40
Die GeForce 256 lief mit 166 MHz SDR (128 Bit), die DDR-Variante mit 150 MHz. Eine Pro oder Ultra gab es nicht. Und welche mit 16 oder 128 MB Speicher kenne ich auch nicht...ich hatte mal ne Hercules Geforce 256 SDR mit 16 MB, war aber wohl ein OEM Produckt (White BOX) und keine Retail oder Bulk Ware. :)

cu
BUG

Spasstiger
2005-05-09, 16:37:29
Über die Rechtschreibfehler könnte ich ja hinwegsehen, aber die vielen inhaltlichen Fehler verderben den Spass am Lesen. Das bekommste besser hin, pco :) .

Coda
2005-05-09, 16:54:52
R520 und G70 unterstützen auch garantiert kein WGF 2.0 :rolleyes:

pco
2005-05-09, 17:58:49
Auweih,

in nur 2 Stunden derartig viel Resonanz von konstruktiv bis flame.

1. Ja es war viel arbeit sich die Grafikkartendaten zusammenzusuchen.
2. Rechts/schreibfehler ... für meine Verhältnisse noch wenige.
3. Dank an alle, die einige technischen Daten nachgereicht haben. Ich korrigier das noch heute.
4. Spasstiger: Mach du das mal, ich hatte mir eigentlich nicht so viel vorgenommen.
5. Kyro1 - spielte im Gegensatz zur Kyro2 als 3D-Beschleuniger nun wirklich keine Rolle.
6. Ich habe nicht geschrieben, dass Doom eine 3D-Beschleunigung, doch durch Doom wurde der Ruf danach geweckt. Vielleicht formulier ichs um.
7. FSAA war bei der Geforce3 zumindest bei älteren Titeln vernünftig nutzbar.
8. Das Wort "Scheisse" in einer Kritik entschuldige ich prinzipiell nie. Man möge mir das nachtragen.
9. Die Kyro2 war das Lieblingskind der Supportforen. Bis ein Jahr nach dem Erscheinen waren die Treiber praktisch nicht nutzbar. Ich selber hatte die 3D-Prophet4500 - 3 Monate, dann wurds mir zu bunt. Es gab nicht einen Titel, der mit dieser Karte ohne Grafikfehler klar kam. Das Problem war bekannt. Zwingt mich nicht die Forenbeiträge rauszukramen. Es steckt so viel Arbeit in dem Artikel, da macht das auch nix mehr.
Und sie war ein schlechter Chip, denn wer kauft sich eine Billig-GPU, die einen Highend-Prozessor braucht um mit anderen GPUs konkurrieren zu können?
11. Die Inhaltlichen Fehler werden gebügelt, ich vertraue den Leuten hier, dass das was sie schreiben stimmt. Wie erwähnt ich musste es mir auch rauskramen, vielleicht waren meine Quellen fehlerhaft (oder mein Abtippen derer).


Ich habe es hier gepostet, weil dies hier die Referenzseite bezüglich Grakas für mich ist und ich mir sehrwohl bewust war, dass Fehler drin sind. Ich dachte sicher nicht dass es so viele waren, aber von einigen hier ist eine Entschuldigung fällig. Is das hiern Forum oder ein Selbstdarstellungskolleg?

Der Rest habt Dank für die Hilfe.

bye

PCO

@Spasstiger: Selten hat mans, aber schnell hats einen!

Spasstiger
2005-05-09, 18:12:01
Die Voodoo Banshee erschien im Herbst 1998 btw. Und sie war nicht unbedingt langsamer als die Voodoo 2. Dank höheren Taktfrequenzen konnte sie in Games, die ausschließlich auf Single-Texturing setzten (und das waren damals nicht wenige), die Voodoo 2 überholen. Zudem war es mit der Voodoo Banshee erstmals möglich, Glide-Spiele mit Auflösungen über 1024x768 zu spielen.

No.3
2005-05-09, 18:15:41
9. Die Kyro2 war das Lieblingskind der Supportforen. Bis ein Jahr nach dem Erscheinen waren die Treiber praktisch nicht nutzbar. Ich selber hatte die 3D-Prophet4500 - 3 Monate, dann wurds mir zu bunt. Es gab nicht einen Titel, der mit dieser Karte ohne Grafikfehler klar kam. Das Problem war bekannt. Zwingt mich nicht die Forenbeiträge rauszukramen. Es steckt so viel Arbeit in dem Artikel, da macht das auch nix mehr.
Und sie war ein schlechter Chip, denn wer kauft sich eine Billig-GPU, die einen Highend-Prozessor braucht um mit anderen GPUs konkurrieren zu können?

der Test auf 3dconcept.ch liest sich etwas anders: http://www.3dconcept.ch/reviews/3dprophet4500/

nur weil die Treiber schlecht sind, ist der Chip an sich nicht schlecht - der Chip ist von der Technologie her betrachtet einfach genial.

Mehr Käufer dieses Chips, mehr Geld für die Entwickler => KyroIII mit mehr Takt und mehr Pipelines...


Rainer


PS. ich habe mein Lebtag noch keine Kyro besessen - "nur", ATI, nVidia und Voodoo - nur so als Hinweis :)

Banshee18
2005-05-09, 18:35:31
Bei den Specs steht oft was von "Groundshading". Soll das nicht eher Gouraud Shading heißen?

pco
2005-05-09, 18:57:29
@No3. Was soll ich mit nem exzellenten Chip ohne exzellente Treiber?
@Banshee: Risiken des Copy&Paste, was zu einigen Fehlern mehr hier geführt hat.

bye

PCO

robbitop
2005-05-09, 18:59:43
Und bei sowas "Erwähnenswert auch, dass die Geforce3 die erste Karte von NVidia war, mit der FSAA sinnvoll einsetzbar war." rollen sich bei mir nur noch die Fußnägel hoch.

Was ist daran bitte unwahr?
Erstmalig Multisampling, erstmalig ein EER von 2x2 bei nur 2 samples. 40% Einbuße waren zur GF3 Lebenzeit meist ok, um dennoch soziemlich alles mit 2xRGMS spielen zu können. Vorgängerprodukte mussten hier viel viel teurer bezahlen.

No.3
2005-05-09, 19:03:37
@No3. Was soll ich mit nem exzellenten Chip ohne exzellente Treiber?
@Banshee: Risiken des Copy&Paste, was zu einigen Fehlern mehr hier geführt hat.

bye

PCO

offenbar wurden die Treiberprobleme beseitigt (siehe 3Dcenter und 3Dconcept Kyro I und II Tests)


PS. wenn DU schon bei der Kyro auf schlechten Treibern rumreitest, es gibt auch andere erwähnte Karten die Treiberprobleme hatten... ;)

pco
2005-05-09, 19:07:45
@robbitop: Und darum ists auch drin geblieben.
Hab so einiges verbessert und für die Deutsch-Fans unter euch: Ja ich geh nochmal über die Rechts/schreibung.

Bitte seid ein wenig gnädig. Es gab mit Sicherheit noch mindestens zwei Dutzend mehr Grafikchips und mindestens bei jedem noch weitere dutzend Varianten. Der Report umfasst gut 60000 Zeichen, wer Lust hat kann mal nachrechen, wie viel DinA4-Seiten das sind. Irgendwann hört man einfach mal auf mit schreiben.

Es ging mir auch eher um die Darstellung von Chips die einen Einfluss hatten und welchen sie hatten. Prinzipiell wollte ich nicht jede Variante aufzählen. Auch solls kein Bericht werden, in dem man in 50 Jahren noch lesen kann, welchen Takt eine Geforce2MX hatte.
Es geht um Karten mit denen man zu Lebzeiten zocken konnte, die irgend etwas bewegt haben, die ihre Fans haben - die Kyro1 war imho keine konkurrenzfähige 3D-Karte.

Warum fehlt hier keinem die Matrox Mystique? Parhelia wird nicht erwähnt, obwohl ein technischer Meilenstein und keiner merkts.

Mir ist schon klar, dass man viel verbessern kann, aber besser wird man nicht, indem man runtergeputzt wird - da wird man nur lustloser (geht mir zumindest so).

Also weiter liebe Leute - sind noch ordentlich Fehler drin, denk ich mal!

bye

PCO

pco
2005-05-09, 19:11:45
@No.3: Ohja, Treiber waren immer schon ein Ding für sich.
Aber so schlimm wie bei meiner Kyro hab ichs nie wieder erlebt.
Achja, doch... ich hatte mal ne TNT2, da ging echt auch nix...

PCO

Banshee18
2005-05-09, 19:26:50
Hast du das mit dem Gouraud Shading auch nachgeprüft? Das gibts zwar und die Voodoo kanns, aber nur, weil mir Groundshading kein Begriff ist, heißt das noch lange nicht, dass es das nicht gibt. Ich würde mich da nicht auf mich verlassen. :redface:

mfg

Banshee

Banshee18
2005-05-09, 19:33:39
Afaik kann der Rage 128 nur Line & Edge Anti-aliasing, das sollte imo unterschieden werden zu Multisampling- bzw. Supersampling-AA. Vergewissere dich aber lieber selbst nochmal oder warte, bis ein 3D-Guru was dazu sagt. =)

aths
2005-05-09, 19:37:53
Das generelle Problem solcher Artikel ist – was ich auch bei meinen Artikeln selbstkritisch sehe – dass Features aufgezählt werden, ohne dass der Autor weiß, worum es sich eigentlich genau handelt.

Beim Artikel "Die Geschichte der 3D-Karten" fallen mir beim flüchtigen Lesen folgende Dinge auf:

- Zu viele Rechtschreibfehler. "Groß" und "die Großen" wird z. B. mit ß geschrieben.

- Inhaltlich viele Ungenauigkeiten, Halbwahrheiten, aber auch handfeste Irrtümer.

Das ist insgesamt so viel, wenn ich da eine Korrekturliste verfassen würde, würde ich dabei den halben Artikel neu schreiben.

No.3
2005-05-09, 19:38:40
@No.3: Ohja, Treiber waren immer schon ein Ding für sich.
Aber so schlimm wie bei meiner Kyro hab ichs nie wieder erlebt.
Achja, doch... ich hatte mal ne TNT2, da ging echt auch nix...

PCO

die Parhelia wäre bestimmt noch gekommen - hab den artikeln nen Matrox Fan zugemailt :biggrin:


ne, lass Dich nicht unterkriegen! - die Geschichte der 3D-Karten ist noch recht jung aber sehr sehr umfangreich - musst ja nicht alles auf einmal Korrigieren, sondern nach und nach erweitern. Dann wirds perfekt! =)

Rainer

aths
2005-05-09, 19:43:37
Hier mal beispielhaft ein Auszug von http://www.orthy.de/modules.php?name=News&file=article&sid=347&page=4:

"Zweite grosse Neuerung war, dass sämtliche wichtigen Bestandteile in einem Chip steckte. Drittes Feature und damals grossspurig als "Revolution" angekündigt, war Transform&Lightning, welches komplexe Lichtberechnungen möglich machte und kaum ein Jahr später von NVidia selbst wieder unbrauchbar gemacht wurden (Pixel-Shader, dazu später)."


- Die "große Neuerung" sollte mit ß geschrieben werden.

- "dass sämtliche wichtigen Bestandteile in einem Chip steckte." – was ist damit gemeint? Das ist mir im Kontext völlig unklar.

- T&L ermöglicht, bei gleicher Geschwindigkeit höher aufgelöste statische Geometrie zu nutzen. Die "komplexen Lichtberechnungen" sind im Zusammenhang von T&L fehl am Platze. Erstens kostet die Nutzung mehrerer Lichtquellen auf einer GeForce1 und 2, sogar auf der GeForce 3 noch, massiv Leistung, zweitens bleibt es beim Gouraud-Shading. Pixelshader bieten hingegen auch Per-Pixel-Shading.

- Warum machen Pixelshader die Lichtberechnungen, (ob die nun mit oder ohne T&L gerendert werden, sei dahin gestellt, einen Qualitätsunterschied gibts dabei ja nicht, nur einen Leistungsunterschied) "unbrauchbar"?

Kladderadatsch
2005-05-09, 19:47:06
Raster-Karten warten auf ihren Entdecker und versprechen mehr Realismus bei einem Zehntel an Aufwand.
was hat es denn damit auf sich?

pco
2005-05-09, 19:51:02
@aths: Irgendwann konnte ich Dir sogar das Mathematische Verfahren für Gouraud-Shading nennen. Nur leider ist das nicht kern des Artikels, der sowieso schon den geplanten Rahmen gesprengt hat.

Mit vielen Fachbegriffen kann ich in der Tat nichts mehr Anfangen, doch auch das ist nicht Kern des Artikels. Es ist mir schon wichtig, dass die technischen Details stimmen und sie dürfen auch nicht fehlen, aber die Kernaussage ist nicht die Anzahl der Pixelpiplines eines jeden Grafikchips und in wieviel Passes er was filtert, sondern es geht um ein gefühl für die Geschichte der 3D-Karte - die dieser Tage übrigens im Home-Bereich 10 Jahre alt wird.

Ausserdem wollte ich das Thema von einer Seite beleuchten, die bisher imho zu kurz gekommen ist. Ich beschäftige mich nicht Tag ein Tag aus mit Grafikkarten, ich habe im Rahmen dieses Artikels mir eine Woche Freizeit geopfert um einiges zusammen zu bringen, was ich für wissenswert hielt.

Ich denke auch, dass weniger technisch versierte den Artikel anders verstehen. Ist mir schon klar, dass eine Fehlerhafte Busbreitenangabe oder Taktfrequenz eine Beleidigung der Intelligenz eines 3D-Gurus darstellt, aber der Otto-Normalo findes vielleicht doch sehr unterhaltsam.

PCO

P.S.: Sich beta-Treiber installieren und über einen beta-Artikel aufregen ;-)

No.3
2005-05-09, 19:51:39
Hier mal beispielhaft ein Auszug von http://www.orthy.de/modules.php?name=News&file=article&sid=347&page=4:


ah, richtig:

"NVidia mit neuer Generation und ATI wird böse!"

Sorry, das liest sich wie ein Kinderaufsatz :smile:


Rainer

Banshee18
2005-05-09, 19:58:41
Ich denke auch, dass weniger technisch versierte den Artikel anders verstehen. Ist mir schon klar, dass eine Fehlerhafte Busbreitenangabe oder Taktfrequenz eine Beleidigung der Intelligenz eines 3D-Gurus darstellt, aber der Otto-Normalo findes vielleicht doch sehr unterhaltsam.

PCO

P.S.: Sich beta-Treiber installieren und über einen beta-Artikel aufregen ;-)

Es regt sich niemand über deinen Artikel bzw. deine Fehler auf, wir wollen nur helfen (War das nicht Ziel dieses Threads?).
Wenn du schon technische Dinge in deinem Artikel erwähnst, sollten diese auch richtig sein.

aths
2005-05-09, 20:20:01
@aths: Irgendwann konnte ich Dir sogar das Mathematische Verfahren für Gouraud-Shading nennen.Danke, ich weiß wie Gouraud-Shading geht :)

Mit vielen Fachbegriffen kann ich in der Tat nichts mehr Anfangen, doch auch das ist nicht Kern des Artikels. Es ist mir schon wichtig, dass die technischen Details stimmen und sie dürfen auch nicht fehlen, aber die Kernaussage ist nicht die Anzahl der Pixelpiplines eines jeden Grafikchips und in wieviel Passes er was filtert, sondern es geht um ein gefühl für die Geschichte der 3D-Karte - die dieser Tage übrigens im Home-Bereich 10 Jahre alt wird.Die technischen Details stimmen in deinem Artikel der Regel eben nicht. Siehe dazu auch mein Posting, wo ich einige Sätze zur GF256 kommentiert habe.
Ich denke auch, dass weniger technisch versierte den Artikel anders verstehen. Ist mir schon klar, dass eine Fehlerhafte Busbreitenangabe oder Taktfrequenz eine Beleidigung der Intelligenz eines 3D-Gurus darstellt, aber der Otto-Normalo findes vielleicht doch sehr unterhaltsam.In die Tabellen habe ich gar nicht gesehen, da ich persönlich nichts auf solche Tabellen gebe. Aber was der Leser zum Beispiel über Bumpmapping liest, stimmt in weiten Teilen einfach nicht.

Die Radeon kann natürlich nicht "alle" Bumpmapping-Arten, z. B. kein Offset-Mapping. Die letzten Begriffe in deiner Aufzählung (Shadowmapping und das Fogging) haben mit Bumpmapping nichts zu tun, obwohl es im Bumpmapping-Kontext steht.

Chief o Hara
2005-05-09, 20:23:42
Specs: Riva TNT
3D-Technologien Alphablending, Bump-Mapping, Dithering, Fogging, Gouraud Shading, Mip Mapping, Reflection-Maps, Anisotrophic-Filtering, Transparente Texturen, Z-Buffer, 32-Bit-Rendering, FSAA ...
Speicher 8 MByte oder 16 MByte
Chiptakt / RAM-Takt 90Mhz/125MHz
Kompatibel mit DirectX 6, Opengl, Glide
Besonderheiten TV-In/Out, 2 Texel-Pipelines; 250MHz RAMDAC, 0,25 Micron Herstellung; 3D-Beschl. bis 1024x768

afaik lag der Ramtakt des TNT bei 110Mhz und er wurde in einem 350nm. Wie kommst du übrigens auf die Idee eine Chip der meist 16mb zur Verfügung hatte, könnte keine 3D Beschleunigung oberhalb von 1024*768 bieten?


Auch einer der ersten Chips für den neuen AGP-Port, der im AGP2x-Modus deutlich schneller sein sollte als PCI

Meine RagePro die noch weit vor der Voodoo2 erschien, bot schon AGP2x und
selbst der Riva128 wurde schon im AGP Format gefertigt, wenn auch ohne AGP2x Unterstützung.

Der hohe RAMDAC (Nicht zu verwechseln mit dem Speichertakt) machte diesen extrem heiss. Die Übertaktungspotentiale der Voodoo3 lagen bei Null.


Wie bitte? Da solltest du dich lieber nochmal genau informieren.


Ein durch das 16-Bit Rendering (gegenüber TNT2 = 32Bit) unfair erkaufter Vorteil.


16bit vs 16bit bei Spielen, die nicht mehr boten. Wo ist da ein unfairer Vorteil?

Die TNT2 profitierte damals sehr stark vom aufkommenden AGP-Port, welcher nun von den Mainboardherstellern auf breiter Front unterstützt wurde und die Grafikchips neue Performance-Höhen erreichen lies.


Zu der Zeit war AGP schon ein ziemlich alter Hut. Kein OEM hat zu der Zeit noch PCI Grakas eingesetzt.

Die TNT2 profitierte damals sehr stark vom aufkommenden AGP-Port, welcher nun von den Mainboardherstellern auf breiter Front unterstützt wurde und die Grafikchips neue Performance-Höhen erreichen lies.

Bereits im September 1998 hatte ATI den wenig beeindruckenden Rage128 gelaunched. Der Nachfolger des RageIIc, ein eher dürftiger 3D-Chip,

Das war der Nachfolger des RagePro. Den RAge IIc gabs zu Zeiten der Virge Serie von S3.


Hab nur mal diese beiden Seiten überflogen. Finde du solltest den Artikel erstmal vom Netz nehmen um ihn zu überarbeiten. Respekt vor der Arbeit, die du da investiert hast, aber im moment steckt in praktisch jedem Satz ein inhaltlicher Fehler. Solche Artikel sollten den Leser informieren, während dein Artikel ihn bloß mit falschen Infos füttert. Recherche lieber nochmal genau. Es gibt ja schließlich genug Quellen im Netz.
In dieser Form verfehlt der Artikel leider vällig sein Ziel.

Dunkeltier
2005-05-09, 20:23:50
Was ist daran bitte unwahr?
Erstmalig Multisampling, erstmalig ein EER von 2x2 bei nur 2 samples. 40% Einbuße waren zur GF3 Lebenzeit meist ok, um dennoch soziemlich alles mit 2xRGMS spielen zu können. Vorgängerprodukte mussten hier viel viel teurer bezahlen.


Weil schon die Voodoo 5 nutzbare Kantenglättung brachte. Deswegen.

Banshee18
2005-05-09, 20:31:01
Was ist denn bitte ein Geforce 3 Ti400?

Es heißt Truform und nicht Trueform.

Schon die Radeon8500 kann 6xAA.

Bei den Specs der Radeon 9500/... steht was von einem Chiptakt bis 350 Mhz, weiter unten ists richtig, nämlich maximal 325 Mhz. Außerdem sind diese Karten DX9-fähig.

Die GF FX hat nur 4 Pixelpipelines.

Die 5900XT sowie die 5700 (Ultra) fehlen. Ebenso sollte erwähnt werden, dass es auch Karten mit 64 Bit Speicherinterface gab.

"Auch im Billigsegment gibt es nun das Kürzel XT im Namen, was auf einen 10% höheren Takt hinweist." Hä??? :confused:

SM 2.b hatte der R3x0 noch nicht.

Ein Spiel muss SLI nicht unterstützen, das ist eher ein Problem des Treibers.

DDR2 gibts bei der 6x00-Serie nicht, sondern DDR1. Auch gibt es keine mit 24 Pipes.

Auch die X800-Serie gibt es maximal mit 16 Pipes. Afaik haben dort alle Karten DDR3 Speicher.

"Die Windows-Graphics-Foundation unterteilt sich in WGF1.0, den 2D-Teil und WGF2.0, den 3D-Teil." Afaik ist das so auch nicht korrekt.

Die X800-Serie unterstützt jedoch SM2.0b, beim NV3x ist es SM2.0a (was fortschrittlicher ist, auch wenn die Bezeichnungen auf etwas anderes hindeuten)

Es fehlt noch die GF 5950, falls du sie erwähnen möchtest. Da es nicht um eine Auflistung von Grakas geht, macht das nichts, das Fehlen ist akzeptiert, jedoch hat dieser Absatz in dieser Form nichts in einem Artikel verloren:
"Da es Kritik gab: Ja, die XT-Varianten fehlen, und die 5700er fehlt auch. Damit kommen wir dann auf ein knappes Dutzend Varianten des selben Chips. Erwähnte ich dass es hier um die Geschichte und nicht um eine Auflistung der Karte geht."

Außerdem musst du ein paar genannte Fehler noch im Text korrigieren und nicht nur in den Tabellen. Ist nicht böse gemeint, nicht den Mut verlieren. Ich will nur helfen. =)

Der nV3x kann auch nur 4 Pixel zugleich rendern.

Die FXen<5800 haben nur 2 Pipes.

Dunkeltier
2005-05-09, 20:35:05
@ PCO & IVI

Ist ja mal wieder typisch - kaum schreibe ich bei euch als Kommentar das der Artikel teils sehr schwere inhaltliche, grammatikalische sowie Rechtschreibfehler enthält, wird mein Beitrag von eurer Seite gelöscht. Das passt zu euch, ihr habt noch nie mit Kritik umgehen können. Das läßt mir eure Seite weiterhin wie ein Kinderspielspatz für löschfreudige Nerds erscheinen.

Ist ja nicht das erste, sondern das dritte oder gar vierte mal.

LÄCHERLICH SEID IHR!!! :P :ufinger:

Immerhin habt ihr anscheinend wohl ein paar Stündchen zum löschen gebraucht, länger als sonst.

Noch ein kleiner Tipp: Euer Design ist in meinen Browser leicht im Arsch. Zum Beispiel erscheint auf Seite 1 von 7 dieses "Artikels" das Wort aus nach links versetzt. Das sieht irgendwie scheiße aus. Und obendrüber der Einleitungstext steht auch über den Grafiken, das macht einen sehr unförmigen Eindruck. ;D

Crazy_Borg
2005-05-09, 20:47:23
Bah!
Der sieht echt aus wie ein Aufsatz aus der 6. Klasse... :eek:
Vooodoo? Hudefelsen? Also wirklich. So ein Artikel ist doch kein Forenpost!

Die vielen Fehler haben die anderen ja schon grösstenteils genannt.
Was mir auffällt:
Riva TNT1 hatte bereits einen anisotropischen Filter?
Und FSAA??? Falls ja war das nur reines Textur-AA, oder?

Unter 1999:

Die Firma S3 hatte ihren letzten Consumer-Chip S3-VirgeDX, welcher einen gewissen Erfolg auf dem Markt verbuchen konnte.

Da war seit mitte 1998 der S3 Savage 3D (also 1) längst draussen. Und soweit ich mich erinnere der S3 Savage 4 auch schon.
Haben übrigens die Texturenkompression entwickelt. Im Bericht sieht das aus als hätte die GF2 das *erfunden*. Glanzleistung!
Aber S3 wird ja sowieso vollkommen unter den Tisch gekehrt.
Naja, nicht so schlimm. Machen ja eh viele. Immer schön dem anderen Lemming hinterher...

Der Savage 2000 brachte S3 den Todesstoß?
Er war ein Flop, ja. Aber S3 gibt's immer noch. In ziemlich vielen Notebooks werkeln immer noch (zugegeben veraltete) Savage Chips.

SIS Xabre & XGI Volari finden nicht mal in einem Nebensatz Erwähnung. Ebensowenig die S3 Deltachrome/Gammachrome. Gut, sie brachten nichts neues. Totschweigen ist halt in.

Ah!
Ein PowerVR Kyro Hasser.
Wusste gar nicht da so eine Spezies noch existiert.
Nennt mir mal bitte ein Spiel das Grafikfehler auf der Kyro 2 hervorbrachte welche nicht innerhalb von 2 Wochen per Patch oder Treiberupdate ausgemerzt wurden.
Das einzige schlechte an der Karte war der Lüfter.
Und als der Schrott ging war einen Tag nachdem ich dem Kundendienst eine mail geschrieben hatte ein neuer im Briefkasten. Kostenlos und Portofrei.
Welcher Hersteller macht den heute sowas?
Und wer hat sich damals eine Club-3d Kyro2 geholt ?!
Jeder der nur halbwegs etwas über Grakas wusste griff zur Hercules und hat es sicher nicht bereut.

No.3
2005-05-09, 20:50:00
@ PCO & IVI

Ist ja mal wieder typisch - kaum schreibe ich bei euch als Kommentar das der Artikel teils sehr schwere inhaltliche, grammatikalische sowie Rechtschreibfehler enthält, wird mein Beitrag von eurer Seite gelöscht. Das passt zu euch, ihr habt noch nie mit Kritik umgehen können. Das läßt mir eure Seite weiterhin wie ein Kinderspielspatz für löschfreudige Nerds erscheinen.


hm, keine Ahnung

auf jeden Fall schreibt PCO dort,

- dass die Kyro I langsamer als ne Voodoo2 sein soll und sich eigentlich nicht 3D-Beschleuniger schreien dürfte :|

- und dass die Bildqualität der Kyro II schlecht sein soll :|

Rainer

No.3
2005-05-09, 20:51:13
Da war seit mitte 1998 der S3 Savage 3D (also 1) längst draussen. Und soweit ich mich erinnere der S3 Savage 4 auch schon.
Haben übrigens die Texturenkompression erfunden. Im Bericht sieht das aus als hätte die GF2 das *erfunden*. Glanzleistung!
Aber S3 wird ja sowieso vollkommen unter den Tisch gekehrt.
Naja, nicht so schlimm. Machen ja eh viele. Immer schön dem anderen Lemming hinterher...

:up:


Rainer

Dunkeltier
2005-05-09, 20:53:28
hm, keine Ahnung

auf jeden Fall schreibt PCO dort,

- dass die Kyro I langsamer als ne Voodoo2 sein soll und sich eigentlich nicht 3D-Beschleuniger schreien dürfte :|

- und dass die Bildqualität der Kyro II schlecht sein soll :|

Rainer


Hat er eigentlich die extrem geile 16-Bit Qualität der Kyro erwähnt?

Coda
2005-05-09, 21:01:30
Schon die Radeon8500 kann 6xAA.Ne, bei der hat nur Supersampling funktioniert und da wäre 6x sehr ungewöhnlich.

robbitop
2005-05-09, 21:01:41
Weil schon die Voodoo 5 nutzbare Kantenglättung brachte. Deswegen.


"Erwähnenswert auch, dass die Geforce3 die erste Karte von NVidia war, mit der FSAA sinnvoll einsetzbar war."
:|

robbitop
2005-05-09, 21:03:34
Ne, bei der hat nur Supersampling funktioniert und da wäre 6x sehr ungewöhnlich.
Warum ist ein 6 Sample SSAA ungewöhnlich?

Dunkeltier
2005-05-09, 21:05:25
:|


Aso. Ändert aber nichts am Rest.

pco
2005-05-09, 21:07:39
@Dunkeltier: Weil ja auch die Kyro1 sich bei erscheinen noch mit einer Voodoo2 messen musste... Spassvogel!

@Borg: Okay, ein Absatz über SiS muss rein... super.

Man lernt nie aus.

PCO

Banshee18
2005-05-09, 21:10:26
Warum ist ein 6 Sample SSAA ungewöhnlich?

Das gabs doch, oder Robbi? Übrigens immer mal in mein oberes Posting schauen, da kommen immer neue Fehler hinzu.

IVI
2005-05-09, 21:10:30
"Es regt sich niemand über deinen Artikel bzw. deine Fehler auf, wir wollen nur helfen "
-> öhm, lol?

@ PCO: ignorier das dunkeltier am besten, dessen horizont geht bis zu nasenspitze, die steif im winde steht.

Dunkeltier
2005-05-09, 21:12:58
@Dunkeltier: Weil ja auch die Kyro1 sich bei erscheinen noch mit einer Voodoo2 messen musste... Spassvogel!

@Borg: Okay, ein Absatz über SiS muss rein... super.

Man lernt nie aus.

PCO


Ähm, erkläre mir mal bitte in welchen Kontext der von mir angesprochende extrem gutaussehende 16-Bit Modus zur Voodoo² steht. :confused: :|


@ IVI

Da kann sich wohl wer nicht an die eigene Nase packen. ;D

No.3
2005-05-09, 21:15:54
Hat er eigentlich die extrem geile 16-Bit Qualität der Kyro erwähnt?

die 16bit Qualität der Kyro ist erste Sahne - besser als die damaligen Karten bei denen das 32bit so gehyped wurde...

z.B. UT auf ner TNT2 16 bit: würgh, ne Voodoo 1 ist besser, unter 32 bit: unspielbar langsam

Rainer

pco
2005-05-09, 21:21:04
Damit die Kyro in glanzvollem Licht erscheint, werd ich ihre guten 16Bit-Eigenschaften hervorheben.

Nichts desto trotz war die Kyro1 nie eine Spielerkarte. Davon geh ich nicht ab.
Und einfluss hatte sie an sich auch keinen, ihre Schwest die Kyro2 ja, gerne, aber die Kyro1 - nicht in diesem Leben!

bye

PCO

Dunkeltier
2005-05-09, 21:25:22
Damit die Kyro in glanzvollem Licht erscheint, werd ich ihre guten 16Bit-Eigenschaften hervorheben.

Nichts desto trotz war die Kyro1 nie eine Spielerkarte. Davon geh ich nicht ab.
Und einfluss hatte sie an sich auch keinen, ihre Schwest die Kyro2 ja, gerne, aber die Kyro1 - nicht in diesem Leben!

bye

PCO

Doch, die Kyro I war ein Geforce MX & Voodoo 4 Konkurrent, die Kyro II schob sich zwischen die Geforce MX und Geforce 2 GTS bzw. Pro (!) Reihe und machte auch der Voodoo 5 Konkurrenz.

No.3
2005-05-09, 21:25:49
Damit die Kyro in glanzvollem Licht erscheint, werd ich ihre guten 16Bit-Eigenschaften hervorheben.

sie muss nicht in glanzvollem Licht erscheinen - es reicht schon aus wenn die Karte _korrekt_ dargestellt wird und nicht in einer Art wie sie in dem nVidia-Anti-Kyro-PDF-Dokument dargestellt wird


PS. weisst Du warum die 16 bit Qualität der Kyro so gut ist ?

Rainer

lilgefo~
2005-05-09, 21:27:35
PS. weisst Du warum die 16 bit Qualität der Kyro so gut ist ?

Rainer

das hätt ich auch gern gewusst wo wir grad dabei sind :rolleyes:

Dunkeltier
2005-05-09, 21:28:14
sie muss nicht in glanzvollem Licht erscheinen - es reicht schon aus wenn die Karte _korrekt_ dargestellt wird und nicht in einer Art wie sie in dem nVidia-Anti-Kyro-PDF-Dokument dargestellt wird


PS. weisst Du warum die 16 bit Qualität der Kyro so gut ist ?

Rainer


Weil die nur einmal zum Schluß in den Speicher schreibt und nicht ständig, was Rundungsfehler nach sich zieht. Irgendso etwas war es glaube ich.

pco
2005-05-09, 21:28:40
Nein, derzeit noch nicht.
Ich nehme an, da sie ein nativer 32-Bitter ist, wird sie wohl die Berechnungen in 32Bit vornehmen und nur das ergebnis auf 16-Bit herunterrechnen. Das dürfte besser aussehen, als wenn man von Vornherein mit 16-Bit rechnet.


Aber ich weiss auch noch kaum was über die SiS-Chips.

Ich setz mich jetzt den ganzen Abend hin, lerne was drüber, schreib es nieder, damit so ne Dunkelkuh sich drüber auskacken kann...

So blöd bin ich

PCO

Dunkeltier
2005-05-09, 21:30:50
Nein, derzeit noch nicht. Aber ich weiss auch noch kaum was über die SiS-Chips.

Ich setz mich jetzt den ganzen Abend hin, lerne was drüber, schreib es nieder, damit so ne Dunkelkuh sich drüber auskacken kann...

So blöd bin ich

PCO


Will mich ja net auskacken sondern mithelfen Sachen richtigzustellen, aber wenn dann jemand einfach dahergeht und meine Kritik weglöscht werde ich halt schnell stinkig.

BlackArchon
2005-05-09, 21:32:14
...
@Borg: Okay, ein Absatz über SiS muss rein... super.
...Er hat von S3 geredet. :usad:

robbitop
2005-05-09, 21:35:30
Weil die nur einmal zum Schluß in den Speicher schreibt und nicht ständig, was Rundungsfehler nach sich zieht. Irgendso etwas war es glaube ich.
Sie hat intern immer mit 32Bit gerechnet IIRC. Da sind die Rundungsfehler beim letztendlichen Schreiben natürlich geringer.

No.3
2005-05-09, 21:39:17
Nein, derzeit noch nicht.
Ich nehme an, da sie ein nativer 32-Bitter ist, wird sie wohl die Berechnungen in 32Bit vornehmen und nur das ergebnis auf 16-Bit herunterrechnen. Das dürfte besser aussehen, als wenn man von Vornherein mit 16-Bit rechnet.


keine Ahnung was Du mit nativen 32-Bitter meinst...

sie rechnet intern immer mit 32 Bit, kann auch noch ein paar andere Sachen (8 Texturen in "einem Wusch" mit max Quali übereinanderlegen) und erst am Sschluss wird nach 16bit konvertiert -> 1a Qualität aber kaum Geschwindigkeitsgewinn (im Gegensatz zu anderen Karten)

Rainer

pco
2005-05-09, 21:39:45
@Robbi: Lag ich also richtig. PowerVR nannte es wohl sinnvollerweise: True-Color-Rendering.

@Black: Stimmt. Merkt man mal wie daneben ich heute wieder bin.

@Dunkeldingens: Ich wiederhole mich: Der Ton macht die Musik. Sagen wir mal so: Dein Kommentar war höchst unmelodisch!

@Rainer: Genau das meinte ich mit nativer 32-Bitter. Wenn man einen reinen 32-Bit-Chip baut, dann spart man dadurch, dass man nur das Ergebnis herunterrechnet. Das bedeutet, ja, einen Geschwindigkeitsverlust, aber man erhält ein genaueres Ergebnis, als wenn ich zusätzliche 16Bit-Befehle implementiere.

PCO

pancho
2005-05-09, 21:43:46
[x] Nicht so gut

Mehr als eine Seite konnte ich mir nicht antun. Inhaltliche Fehler und eine unmögliche Form für eine Veröffentlichung. Schon mal was von Rechtschreibprüfung gehört? Nimm den Artikel lieber vom Netz. Stell dir vor, jemand liest das und glaubt es auch. Wenn du alle Fehler hier ausbessern lassen willst, darf dein Name unter dem Artikel nur noch in der Rubrik "Sekretär und Tastaturbediener" stehen. Schade um die viele Arbeit, die Zeit hätte man sinnvoller nutzen können. :down:

Chief o Hara
2005-05-09, 21:51:34
@Rainer: Genau das meinte ich mit nativer 32-Bitter. Wenn man einen reinen 32-Bit-Chip baut, dann spart man dadurch, dass man nur das Ergebnis herunterrechnet. Das bedeutet, ja, einen Geschwindigkeitsverlust, aber man erhält ein genaueres Ergebnis, als wenn ich zusätzliche 16Bit-Befehle implementiere.


Geschwindigkeitsverlust? 16bit Befehle? Dem Chip macht die höhere Farbtiefe doch nix aus. Selbst "echtes" 32bit kostet nur zusätzliche Bandbreite mehr nicht.
Werden wir eigentlich beim fertigen Artikel als Co Autoren erwähnt? ;)

pco
2005-05-09, 21:51:38
@Pancho: Welche Seite hast Du Dir denn angetan? Die erste? Ohja, da waren dolle Fehler drin.
Auch super: Eine von sieben Seiten gelesen und sicher: Scheisse!

PCO

Banshee18
2005-05-09, 21:51:55
In einen ähnlichen Bereich gehört das "Internal True Color"-Feature. Da der KYRO II alle Vermischungsoperationen ("Alpha-Blending") innerhalb des Chips durchführt, wartet er selbst bei 16bit-Rendering mit einer vergleichweise sehr guten Bildqualität auf. Andere Chips des Typs Voodoo und GeForce müssen für die Vermischung ungenauere 16bit-Werte aus dem Speicher lesen, der KYRO II hat für alle Rechenoperationen immer die volle 32bit-Genauigkeit zur Verfügung. Dieses Verfahren zur Reduktion von Dithering - Muster ist nur mit kachel-basierten Grafikchips realisierbar, traditionelle Bausteine müssten zur Verbesserung der 16bit-Bildausgabe auf nachgeschaltete Filter zurückgreifen. Dies wirkt zwar bei wenigen Multipass-Effekten im Endeffekt besser, versagt aber bei vielen übereinandergelagerten Transparenzschichten kläglich.

Quelle (http://www.3dconcept.ch/reviews/3dprophet4500/4.htm)

robbitop
2005-05-09, 21:54:44
ja sobald alpha Blending bsw bei Rauch ins Spiel kommt, ist echtes 32 Bit Rendering Pflicht, um Artefakten aus dem Weg zu gehen (da hilft auch kein 22Bit Postfilter).

Chief o Hara
2005-05-09, 21:54:50
@Pancho: Welche Seite hast Du Dir denn angetan? Die erste? Ohja, da waren dolle Fehler drin.
Auch super: Eine von sieben Seiten gelesen und sicher: Scheisse!

PCO


In den anderen Seiten waren genausoviel inhaltliche Fehler. Sorry aber seine Kritik ist mehr als berechtigt.

robbitop
2005-05-09, 21:59:00
Ich finde es schade, dass einige die Kritik in einer so gehäßigen und herablässigen Art formulieren müssen. Es ist noch kein Meister vom Himmel gefallen :)

pco
2005-05-09, 21:59:02
Geschwindigkeitsverlust? 16bit Befehle? Dem Chip macht die höhere Farbtiefe doch nix aus. Selbst "echtes" 32bit kostet nur zusätzliche Bandbreite mehr nicht.
Werden wir eigentlich beim fertigen Artikel als Co Autoren erwähnt? ;)

Geschonte Bandbreite wirkt sich nicht auf die Performance aus? Bist Du da sicher?

Was die Co Autorensache angeht, habe ich überlegt den Report als Wiki freizugeben. Hat ja eh jeder was dran rumzumeckern, kanner dann gleich dort ändern ;-).

Im Ernst: Ich werde ihn überarbeiten. Ich gebe zu, dass ich bis vor 4 Wochen von den meisten Chips KEINE AHNUNG hatte. Ich hatte eine Voodoo, eine Banshee, eine TNT2 eine Kyro2, eine Geforce2Pro, eine Radeon256 (kurz mal), eine Radeon8500, ene Radeon9500Pro, eine GeforceFX5950Ultra und derzeit eine Geforce6800GT und soll ich dir was sagen: ich kann von fast keiner alle Spezifikationen.

Es ist so wie ich sagte: 2 Wochen Datensammeln, das Ding schreiben und drei Kreuze machen, dass es endlich fertig war. Hier posten und wieder von Anfang an neu schreiben.

Vielleicht setz ich mich morgen noch einmal ran, kann schon sein. Lust hab ich keine mehr. Ich muss mich wahrscheinlich ernsthaft über jede 3D-Technologie informieren, um soetwas schreiben zu können.

Hier zu argumentieren ist wie gegen den Wind pinkeln. Man lernt, dass das nichts gutes sein kann. Die Rechtschreibfehler sind ja noch behebbar (und bereits weniger geworden, wobei ich erst einmal die Fakten "reparieren" will).

Immerhin haben sich erst drei Leute über meine "ß/ss"-Fehler aufgeregt.

So Far

PCO

Mr. Lolman
2005-05-09, 22:08:36
ja sobald alpha Blending bsw bei Rauch ins Spiel kommt, ist echtes 32 Bit Rendering Pflicht, um Artefakten aus dem Weg zu gehen (da hilft auch kein 22Bit Postfilter).

Kommt auf die Anzahl der Überblendungen (sowie auf den Texturecontent) an.

No.3
2005-05-09, 22:12:07
Es ist so wie ich sagte: 2 Wochen Datensammeln, das Ding schreiben und drei Kreuze machen, dass es endlich fertig war. Hier posten und wieder von Anfang an neu schreiben.

Vielleicht setz ich mich morgen noch einmal ran, kann schon sein. Lust hab ich keine mehr. Ich muss mich wahrscheinlich ernsthaft über jede 3D-Technologie informieren, um soetwas schreiben zu können.

lass den Kopf nicht hängen...

es ist natürlich "gefährlich" so was in diesem Forum zu posten, da hier ein geballtes Wissen über fast jedes Thema versammelt ist

ich habe z.B. nur ganz ganz klein auf meiner HP mal meine Hardware-Mods meines Rechners dokumentiert, hier aber noch nicht bekannt gemacht :smile:

Rainer

pancho
2005-05-09, 22:13:00
Zusätzlich hab ich noch den Thread hier gelesen und kann für mich entscheiden, dass es sich nicht lohnt, den ganzen Artikel zu lesen. Sei nicht gleich eingeschnappt. Du hast den Artikel geschrieben und dabei Fehler gemacht. Soll man dich dafür jetzt loben und dir gratulieren? Ich denke nicht.

Wenn du dein Produkt schon mit dem Titel "Geschichte" schmückst, dann bleib auch dabei! Die Kyro z.B. war eine gute Karte. Beweis gefällig? (http://www.3dcenter.de/artikel/kyro/) In Kurzen Auszügen: so daß man im Querschnitt aller Benchmarks den KYRO geradezu zum Sieger erklären muß
auf der Bildqualitäts-Seite kann sich der KYRO hervorragend präsentieren

keine großartigen Treiber-Probleme
die KYRO funktioniert gut, zuverlässig und leistungsstark

Das ist das erste Google Ergebnis. Dauer der Recherche: 30s. Wie hast du denn recherchiert? Hast du wirklich? Kannst du das mit gutem Gewissen Recherche nennen? Wenn du dich an so ein großes Projekt heranwagst, nimm dir mehr Zeit. Ein halbes Jahr vielleicht. So hast du zwei Wochen vergeudet und IMO nur Schrott produziert. Selbst auf angebrachte Kritik reagierst du zickig.

noch was:
Die Geforce256 brachte endlich die Verbesserungen, die Notwendig waren. Die Karte war annähernd doppelt so leistungsfähig wie ihr Vorgänger. Dies kam durch die Berechnung von immerhin 4 Texeln pro Takt und somit 480 Millionen Texel in der Sekunde.(Anm.: ein Texel ist ein Textur-Punkt im Raum).

Eine TNT 2 Ultra konnte zwar nur 300 MTexel/s. Allerdings war ihr Speichertakt mit 183MHz ggü. 166MHz bei der Geforce SDR (nur die gab es am Anfang) ein brauchbares Stückchen höher. Die Geforce war ziemlich Bandbreitenlimitiert, sonst hätte sie nicht nur so knapp vorne gelegen. Von "annähernd doppelt so leistungsfähig" kann keine Rede sein.

Ein Texel ist nur ein TEXtureELement. Hat mit dem Raum nichts zu tun.

pco
2005-05-09, 22:20:43
@Pancho: Ich hab schon nach der ersten Seite aufgehört oder entschieden dass es sich nicht lohnt finde ich schon anmassend. Sorry, ist so.

Und so ein TextureElement wird einfach so gegen den Bildschirm geklebt?
Soll dies heissen, dass ein Texel in der Tat keine Z-Koordinate hat... ich denke ich werde da mal mit meinem Halbwissen Glänzen, dass ein Texel element einer Texture-Map ist, was sich grundsätzlich vom Pixel unterscheidet ist die Tatsache, dass sich das Texel als bestandteil der Textur auf einem Polygon "im Raum" befindet und daher seine dargestellte Position eine andere ist, als seine XY-Koordinatenposition. Kann sein dass ich da völlig falsch liege, nur dann müsste ich den Unterschied zwischen Texel und Pixel noch einmal genau erklärt bekommen.

Bye

PCO

Dunkeltier
2005-05-09, 22:23:25
@Pancho: Ich hab schon nach der ersten Seite aufgehört oder entschieden dass es sich nicht lohnt finde ich schon anmassend. Sorry, ist so.

Und so ein TextureElement wird einfach so gegen den Bildschirm geklebt?
Soll dies heissen, dass ein Texel in der Tat keine Z-Koordinate hat... ich denke ich werde da mal mit meinem Halbwissen Glänzen, dass ein Texel element einer Texture-Map ist, was sich grundsätzlich vom Pixel unterscheidet ist die Tatsache, dass sich das Texel auf einem Polygon "im Raum" befindet und daher seine dargestellte Position eine andere ist, als seine XY-Koordinatenposition. Kann sein dass ich da völlig falsch liege, nur dann müsste ich den Unterschied zwischen Texel und Pixel noch einmal genau erklärt bekommen.

Bye

PCO

Pixel ist der Bildpunkt, und ein Texel ist die Textur bzw. Tapete davon oder dafür. Irgendwie so.

pancho
2005-05-09, 22:30:06
Was ist daran anmaßend? Willst DU mir vorschreiben, wie ich meine Zeit zu verbringen habe?

Ein Texel ist in der Tat ein Texturelement, Praktisch eine Farbe. Das Pixel hat noch einen Z-Wert, ist also theoretisch im Raum. Der Z-Wert wird aber im fertigen Bild nicht dargestellt und dient meines Wissens nach hauptsächlich der Sichtbarkeitsprüfung.

edit: Hab meinen letzten Beitrag ergänzt.

Banshee18
2005-05-09, 22:41:26
Neue Fehler in meinem großen Fehlerposting hinzugefügt.

robbitop
2005-05-09, 22:45:31
Ein Texel ist IIRC ein Kunstwort. Es resultiert aus den Worten Pixel und Textur. Es soll also (IIRC) ein texturierter Pixel sein

xblueskyx
2005-05-09, 22:47:45
2 Wochen Datensammeln, das Ding schreiben und drei Kreuze machen, dass es endlich fertig war

das ist jetzt aber nicht dein ernst oder? in 2 wochen kann man vielleicht gerade mal alle daten über die anfänge der 3d ära auswerten und niederschreiben...und auch wenn keine der karten am anfang annähernd an die voodoo rankamen so sollten sie wenigstens erwähnt werden. ohne eine rageII oder ragepro hätte es nie eine radeon gegeben nur so zum beispiel.

außerdem ist deine herangehensweise nicht klar. die überschrift suggeriert die komplette geschichte der 3d karten und drin ist ein kurzer (momentan teilweise falscher) abriss über einige (deiner meinung nach wichtigen) 3d karten. dabei ist ein flop aber mindestens genauso wichtig, denn durch fehler lernt man und die nächste karte wird diesen fehler nicht nocheinmal haben.

ein kritischer punkt sind die unzähligen versionen von karten in letzter zeit. verständlich das du nicht alle aufzählen willst/kannst aber man kann sie schon wenigstens zusammenfassen. halbwahrheiten sind viel gefährlicher als lügen denn sie lassen sich nur langsam aufklären...

aber nun @topic....

ein tnt kann glide? ohne wrapper für mich ein ding der unmöglichkeit...

rage128... den abschnitt kann man so unmöglich stehen lassen... dann lieber nur mit einem satz erwähnen als den chip so dermaßen zu demontieren...

hier also die fakten:
-am markt verfügbar war der chip Q1 1999
-nachfolger vom ragepro
-rage128 war im grunde der tnt killer, viel schneller unter 32bit und sagenhafte video features allerdings kam er viel zu spät. Q1/Q2 hat nv den tnt2 gebracht und damit den rage128 platt gemacht
-rage128pro kam erst Q3 1999 und wurde in 0.18 gefertigt und hatte keine hitzeprobleme, selbst beim r128 kann man nicht wirklich von hitzeproblemen sprechen
-bildfehler...welche bildfehler? meine rage fury hatte jedenfalls keine
-cpu abhängig? ein P3 500MHz reizt einen r128 fast vollkommen aus das problem mit dem K6 waren imho treibergeschichten.
-rage fury maxx: wenn es funktionierte verdammt schnell...meisten lief sie aber mehr schlecht als recht...keine win2000/xp treiber
-texturkompression und AF bot nur der r128pro
-der chip war gut und das erkannten die oems auch, ati hat jedenfalls massig verdient mit dem r128/r128pro. das problem war ganz alleine das der chip zu spät kam, nur deswegen war er am retail markt weniger erfolgreich aber umso erfolgreicher im oem geschäft.
-r128: 103/103 MHz (chip/ram)
-r128pro: 125/143
-rage fury maxx: 143/143
-imho 8-32MB vram und 64 für die rage fury maxx
-imho war der chip dx6 generation denn tnl nach dx 7 konnte der chip nicht. wenn dann muss bei kompatibel also entweder dx6 stehen oder dx9 denn einen dx9 treiber gibts es für die karten.

so werde hier an meinem post sicherlich noch einiges verbessern aber die infos stimmen so aufjedenfall schon eher

gruß xblue

pco
2005-05-09, 22:48:54
@Pancho: Man sollte gelesen haben worüber man eine Wertung äussert. Wie Du Deine Zeit verbringst ist dir überlassen und mir relativ wurscht.

@Banshee: Morgen wieder, muss morgen noch arbeiten gehen und bin jetzt zu müde. Würde es nur schlimmer machen. Aber danke für jede echte Mithilfe, wie die Deine. Auch die Leser werden es Dir danken.

Bye

PCO

pancho
2005-05-09, 22:58:26
Ein Texel ist IIRC ein Kunstwort. Es resultiert aus den Worten Pixel und Textur. Es soll also (IIRC) ein texturierter Pixel sein

Wiki (http://de.wikipedia.org/wiki/Texel) und andere seiten geben mir recht.

Chief o Hara
2005-05-09, 23:05:12
Geschonte Bandbreite wirkt sich nicht auf die Performance aus? Bist Du da sicher?


Natürlich ergibt das einen Geschwindigkeitsverlust(genügend Füllrate vorrausgesetzt), aber solange keine 32bit "ausgegeben" werden, ist dieser Fakt irrelevant. Dem Chip ansich macht eine höhere Farbtiefe nichts, solange er dafür ausgelegt ist.

Verstehe übrigens nicht, warum du jetzt so eingeschnappt reagierst.

Für Novizen vielleicht ganz interessant, für Erfahrene was zum sinnieren, meckern oder Fehlersuchen.

Die Geschichte der 3D-Karte 2005

Für Anregungen dankt

PCO

Es sind halt nunmal ziemlich viele offentsichtliche Fehler drin. Wenn man sich an konstruktiver Kritik stört, dann sollte man keinen Thread dazu erstellen.
Fühlst du dich hier etwa schlecht behandelt?

Banshee18
2005-05-09, 23:05:56
@Banshee: Morgen wieder, muss morgen noch arbeiten gehen und bin jetzt zu müde. Würde es nur schlimmer machen. Aber danke für jede echte Mithilfe, wie die Deine. Auch die Leser werden es Dir danken.

Bye

PCO

Gerne geschehen, für so etwas ist man ja in einem Forum unter anderem angemeldet, eben um der Community zu helfen. =)

gn8

Coda
2005-05-09, 23:07:44
Wiki (http://de.wikipedia.org/wiki/Texel) und andere seiten geben mir recht.Jain. Bei der Texel Füllrate meint man wirklich das was Robbitop gesagt hat. Man füllt ja keine Texturen :rolleyes:

robbitop
2005-05-09, 23:13:04
Die Textur wird abgetastet und somit wird der jeweilige Farbwert für den speziellen Pixel daraus berechnet.

pancho
2005-05-09, 23:26:29
Jain. Bei der Texel Füllrate meint man wirklich das was Robbitop gesagt hat. Man füllt ja keine Texturen :rolleyes:

Ach so? Ich dachte immer, wenn ein Chip 2 Texel/Takt schafft, kann er zweimal aus einer Textur lesen und diese Farbwerte, in welcher Weise auch immer, zur Berechnung des aktuellen Pixels verwenden. Du hast auf diesem Gebiet zweifelsohne mehr Wissen als ich, aber irgendwie macht das für mich ohne weitere Erklärung wenig Sinn. Wo läge dann der Unterschied einer 4x2 Architektur zu einer 8x1 Architektur? Beide müssten pro Takt 8 texturierte Pixel ausspucken, oder (mal ganz dumm gestellt)? Meiner bisherigen Meinung nach kann man bei 4x2 maximal 4 Pixel mit je 2 Texturen belegen, aber niemals mehr als 4 Pixel pro Takt erhalten. Bei 8x1 demnach 8 Pixel mit einer Textur. Bei mehreren Texturschichten müssen mehrere Pipelines ein Texel lesen. Oder irre ich mich jetzt komplett? (Davon abgesehen, dass man heute nicht mehr so einfach in Pipelines denken kann)

Die Textur wird abgetastet und somit wird der jeweilige Farbwert für den speziellen Pixel daraus berechnet.

Und wenn zwei Texturen in die Pixelfarbe einfließen? Dann brauche ich doch (nach meinem Verständniss) zwei Texel, also praktisch zwei Pixel einer Textur.

Quasar
2005-05-09, 23:30:22
In Sachen Füllrate spricht man von Texeln. Das äußert sich bsw. so, daß der Chip dank mehrerer TMUs pro Pipeline zwei Texturen pro Takt auf jeden Pixel auftragen kann.

Er hat denn eine doppelt so hohe Texelfüllrate, wie Pixelfüllrate. Auch andere Konstellationen sind denkbar - aktuell ist bsw. ein 1:1-Verhältnis von Pixeln/Texeln "in", Matrox' Parhelia bot 1:4, ATis Radeon 1:3.

In diesem Sinne ist ein Texel dann ein Texturwert, der auf einen Pixel appliziert wurde.

Iwan
2005-05-09, 23:33:02
Wenn es nach NVidia geht, werden wir alle demnächste eine Wasserkühlung haben, die Grafikkarten haben 500 Millionen Transistoren und produzieren ausreichend Abwärme um das mitgelieferte Fussheizkissen zu betreiben.

auch wenn der letzte teil des artikel die pesönliche meinung des autors darstellt, frag ich mich doch ob man sich die letzte seit nicht ganz sparen sollte, da dabei nur sowas wie der quote bei rauskommt....

pancho
2005-05-09, 23:39:08
@Pancho: Man sollte gelesen haben worüber man eine Wertung äussert.

Ich habe gelesen, worüber ich meine Wertung geäußert habe. Aber im Prinzip hast du schon Recht. wer sagt mir, dass die anderen 6 Seiten nicht gut sind? Deshalb hab ich jetzt doch alles gelesen. Leider hat sich mein Eindruck nicht verbessert, eher im Gegenteil.

Wo hast du denn die Glaskugel für die letzte Seite her? Gesockelte GPUs z.B. sind nicht sinnvoll. Klick. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=135387&highlight=sockel) Mehr Infos findest du sicher im Forum oder über Google. War halt das Erstbeste, was ich gefunden hab.

robbitop
2005-05-09, 23:47:47
Und wenn zwei Texturen in die Pixelfarbe einfließen? Dann brauche ich doch (nach meinem Verständniss) zwei Texel, also praktisch zwei Pixel einer Textur.

Das läuft AFAIR praktisch genauso. 1. Sampling -> Berechnung des Farbwertes. ->Speichern des Farbwertes -> 2. Sampling Berechnung des Farbwertes -> Alpha Blending -> finaler Farbwert

pancho
2005-05-10, 00:06:20
Das läuft AFAIR praktisch genauso. 1. Sampling -> Berechnung des Farbwertes. ->Speichern des Farbwertes -> 2. Sampling Berechnung des Farbwertes -> Alpha Blending -> finaler Farbwert

Ja, so ähnlich habe ich mir das auch gedacht. In diesem Ablauf ist, in meiner persönlichen Nomenklatur, das Ergebnis eines Samplings ein Texel, also ein Element einer Textur. Bei 2 Texel/Takt müsste man also den Farbwert nicht speichern, sondern könnte direkt den Wert der 2. TMU auch noch verbasteln. Liege ich da richtig? Trennen uns also nur noch Definitionen des Texels? :love2: :) Muss der Wert wirklich jedes Mal in den Speicher geschrieben werden? Ich dachte, wenn ein Pixel noch nicht alle Texturschichten abbekommen hat, wird es sozusagen durchgereicht.

Ist es wirklich immer Alpha Blending? Was spricht gegen ein MUL oder sowas? Müsste heutzutage doch gehen.

Gast
2005-05-10, 01:00:03
die tnt2 m64 hatte auch 32mb ram net 16
die nextgen chips haben bestimmt kein 128bit speicherinterface

Coda
2005-05-10, 01:25:10
Die ganze Texel Geschichte ist doch eh relativ veraltet seit es PixelShader gibt.
Man kann ja pro Pixel ein kleines Program ausführen dass beliebige Arithmetik auf die gelesene Texturdaten zulässt und diese auch von beliebig berechneten Positionen samplen kann. Das ganze funktioniert natürlich in fast allen Fällen ohne Zwischenspeicherung im Framebuffer, weil man ja genügend Register hat.

BesenWesen
2005-05-10, 02:32:32
zur GeforceFX:
War es eine Panikreaktion oder einfach nur der blanke Giergedanke. Mit logischen Strukturen lässt sich der NVidia GeforceFX nicht erklären.

Was war am NV3x unlogisch? Sein im Vergleich zum R3x0 schwaches Abschneiden hat doch nachvollziebare Gründe.

NVidia kündigte das Topmodell als Karte "für echte Kinoeffekte" an. CineFX nannten sie das ganze. Es beinhaltet ein Bundle aus DirectX9-Effekten, welche, sollten sie jemals genutzt werden, erhebliche optische Reize ins Spiel bringen. Kern ist wie erwähnt der Vertex-Shader, welcher nun mit bis zu 1024 Befehlen daher kommt und die möglichkeit mehrere Texturen in einem Durchgang zu berechnen.

Alles schön und gut, aber das benutzt bisher noch niemand.

Die "Effekte" (oder sagen wir besser, die Möglichkeit, diese darzustellen) werden schon benutzt und soviel mehr als der R3x0 kann der NV3x nun auch nicht. Das Problem ist vielmehr der komplexe Aufbau der Shadereinheit, die wenn man sie voll ausreizen wollte, anders und aufwendiger programmiert werden müsste als bei einer Radeon, um auch nur eine halbwegs konkurrenzfähige Leistung bei shaderintensiven Spielen zu erzielen. Nun ist die DirectX9-Schnittstelle ganz anders ausgefallen, als sich NVIDIA dies anscheinend vorgestellt hat:

Fakt ist, dass nachdem sich ATi und nVidia zu Zeiten der DirectX8-Generation noch weitestgehend einig darin waren, was man wie programmieren sollte, um möglichst hohe Leistung zu erzielen, hat sich dieses nun komplett gewandelt.
Unter DirectX9 und den entsprechenden Chips ist die Situation mit angepassten Renderpfaden mittlerweile derart aus dem Ruder gelaufen, dass man sich zu den besten SysMark-Streitigkeiten zwischen AMD und Intel zurückversetzt fühlt.
Da der DirectX9-Renderpfad, so wie er bei Erscheinen der Multimedia-Schnittstelle war, sehr gut mit den wenigen Einschränkungen, die man für die ATi-Chips beachten muss, zurechtkam und im Gegensatz dazu auf die als Mimose bekannten Shader der FX-Serie keine besondere Rücksicht nahm, sah man sich sogar bei Microsoft gezwungen, einen zweiten Renderpfad einzubauen, mit dem Spieleentwickler ihre Shader für bessere Leistung auf der GeForce FX kompilieren sollten. In dem sogenannten 2.a-Pfad ist neben der Unterstützung für die variable Genauigkeit der FX-Serie, bei der der Entwickler bestimmt, welche Präzision er für welchen Effekt sehen möchte, auch die Unterstützung für die erweiterten Fähigkeiten der FX enthalten.
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2003/nvidia_geforce_fx5950_ultra/4/

Daß sich kaum ein Entwickler die Mühe macht, die Shader extra für die GeforceFX anzupassen, liegt wohl in erster Linie daran, daß sich ATIs DirectX9-Modelle am Markt durchgesetzt haben und nicht zu vergessen auch früher auf dem Markt waren.

Ergebnis ist, dass der GeforceFX5800 gnadenlos durch jeden Benchmark fiel und gegen die Radeon9700Pro, trotz weit besserer Technik, nur selten punkten konnte.

In den Benchmarks sah die FX5800U zu Anfang eigentlich noch ganz gut aus, wenn man AA und AF außer Acht ließ, teilweise konnte sie sogar die R9700Pro überflügeln, in der Regel hinkte sie ein wenig hinterher. Sicher waren die Ergebnisse nach ATIs Höhenflug mit der R9700Pro etwas enttäuschend, von einem gnadenlosen Durchfallen konnte jedoch zunächst keine Rede sein, das kam erst viel später mit Spielen, die intensiven Gebrauch von 2.0 Shadern machten (erst bei FarCry wurde es ein Jahr später so richtig offensichtlich... und da dann auch recht brachial).

Schon viel deutlicher schwächelte die GeforceFX da schon zu Anfang beim Einsatz von Antialiasing und Anisotropem Filter. Beim AA hatte ATI einfach die effizienteren Modi anzubieten, NVIDIA bot hier nur beim simplen 2xAA ein aktzeptables Verhältnis von Bildqualität und Performance, 4xAA kostet schon sehr viel Leistung und bringt im Gegensatz zu ATI gegenüber dem 2fachem optisch wenig, ansonsten können die Geforces hier nur mit ihren Supersampling-Modi punkten, die aber nur bei wenig anspruchsvollen Titeln nutzbar sind.
Beim AF bot die GeforceFX zwar eine bessere Bildqualität, da der Texturfilter bei der Radeon winkelabhängig ist, dieser Vorteil wird aber durch die hohen Leistungseinbrüche wieder aufgewogen.
Sicher kann man sich hier streiten, inwieweit GfFX und Radeon in Sachen AA und AF überhaupt vergleichbar sind... unterm Strich stand ATIs Bolide aber einfach besser da, und sei es nur, weil hohe Modi mit langen Benchmarkbalken eine gute Werbung sind.

Das in jeder Hinsicht monströse Kühlsystem der GeforceFX5800 Ultra war in der Tat ein Katastrophe, die für den Mißerfolg neben der schlechten Verfügbarkeit am Markt und der besseren Konkurrenz sicher ihren Teil beigetragen hat.

Der GeforceFX5900, nun wieder mit DDR-I, leicht gesenktem Chiptakt aber internen "Optimierungen", welche dazu führen sollen, dass dieser Chip attraktiver wurde. Die Kühlung ist etwas kleiner, aber verbraucht meist immer noch 2 Slots.

Nunja, der NV35 bekam eine zusätzliche FPU spendiert, was die Shaderproblematik etwas abgeschwächt, aber keinesfalls behoben hat... die grundliegenden Mängel lagen hier ja weiterhin auf der Softwareseite und da war der Zug schon längst abgefahren.
Viel wichtiger ist das 256Bit-Speicherinterface, welches dem NV35 trotz niedriger getaktetem DDR1 Speicher eine weitaus höhere Speicherbandbreite bescherte, so daß der Chip zumindest in Sachen AA und AF etwas aufholen konnte. ATI war zwar effektiv immernoch klar überlegen... dafür konnte NVIDIA mit der GeforceFX5900XT kurzzeitig einen kleinen Achtungserfolg landen... bis FarCry als erstes Spiel mit massivem Einsatz von 2.0 Pixelshadern auch dieser Karte leistungsmäßig das Genick brach.

Die GeforceFX-Serie mit dem "Fiasko in der Schweinebucht" gleichzusetzen ist einfach nur falsch... ja, sie war der Radeon9x00-Serie weitesgehend klar unterlegen, aber so schlimm sind die Dinger auch nicht und vor allem waren die Verkaufszahlen noch gut genug, als daß die FX-Serie für NVIDIA ein komplettes (finanzielles) Desaster gewesen wäre.

Ailuros
2005-05-10, 03:58:03
Vielleicht hilft dieser Artikel ein bisschen:

http://www.accelenation.com/?ac.id.123.1

---------------------------------------

Ich sag meine Meinung zu dem Artikel (und ueberhaupt die zweite Haelfte von Seite 6 und die gesamte Seite 7) lieber nicht.

pco
2005-05-10, 06:10:01
@oHara: Sorry, war gar nicht eingeschnappt. Hast mich da falsch verstanden.

Das Ding wird die nächsten Tage umgeschrieben, auch wenn ich an sich kein Lebenswerk draus machen wollte, muss es wohl sogar noch umfangreicher als 65000 Zeichen werden, damit alles drin ist, was den guten Geek zufrieden stellt.

Für meine Fehler entschuldige ich mich und meine neue Frage daher:

Gibts ein gutes Nachschlagewerk über 3D-Technikl, insbsondere die einzelnen Effekte interessieren mich und welche Grafikkarte genau welche unterstützt?

Version 2.0 wird besser. Derzeit sollten im Übrigen weniger "Fehler" drin sein und die Kritik der letzten Posts lag wohl mehr an meiner suggestiven Meinung, welche im Text herrscht wie: Hatte keinen Einfluss, war langsamer oder kein wirklich guter Chip.

Ich mache mir Sorgen, wenn ich über die Volari schreibe, dass sie an sich nicht konkurrenzfähig und überteuert war, mich hier wieder jemand auffrisst. Und dann ja auch noch die Tatsache, dass sie an sich auf die Geschichte der 3D-Karten keinen Einfluss genommen hat... da muss man schon in Deckung gehen, vor herumfliegenden Eiern.

bye

PCO

robbitop
2005-05-10, 09:11:32
NV30 -> NV35:

-FX12 Registercombiner gegen FP ALUs ausgetauscht.
-Colorcompression wurde etwas aufgebohrt (HCT)
-Ultrashaddow (Stencilculling??)

SKYNET
2005-05-10, 10:05:18
naja, kritik von euch in allen ehren, aber soooo niedermachen (paar spezis hier) muss man ihn ja net dafür.

hats ja nur gut gemeint. :up:

Coda
2005-05-10, 10:43:56
Die "Effekte" (oder sagen wir besser, die Möglichkeit, diese darzustellen) werden schon benutzt und soviel mehr als der R3x0 kann der NV3x nun auch nicht. Das Problem ist vielmehr der komplexe Aufbau der Shadereinheit, die wenn man sie voll ausreizen wollte, anders und aufwendiger programmiert werden müsste als bei einer Radeon, um auch nur eine halbwegs konkurrenzfähige Leistung bei shaderintensiven Spielen zu erzielen. Nun ist die DirectX9-Schnittstelle ganz anders ausgefallen, als sich NVIDIA dies anscheinend vorgestellt hat:Das ist so nicht richtig. NV3x ist nur mit FX12 richtig schnell, DX9 hatte dafür aber keine Verwendung abseits von Shadern 1.4, die wiederrum viel zu limitierend sind.
Aufwändiger zu programmieren wäre das nicht gewesen.

q@w
2005-05-10, 10:47:40
Doch, sicherlich. Du hättest jeden einzelnen Pixel quasi auf das niedrigst-mögliche Shadermodel abklopfen müssen, das noch dein gewünschtes Resultat bringt.
Dazu dann noch möglichst optimale Instruktionsfolgen, Temps beachten usw.

robbitop
2005-05-10, 11:04:41
auf die temporären Register muss man bei FX12/FP16 eigentlich noch nicht so achten. Bei FP32 allerdings schon.
Soo schlecht wie die Propaganda behauptet, ist der NV3x jedenfalls nicht. ^^

Crazy_Borg
2005-05-10, 11:59:16
Ich mache mir Sorgen, wenn ich über die Volari schreibe, dass sie an sich nicht konkurrenzfähig und überteuert war, mich hier wieder jemand auffrisst. Und dann ja auch noch die Tatsache, dass sie an sich auf die Geschichte der 3D-Karten keinen Einfluss genommen hat... da muss man schon in Deckung gehen, vor herumfliegenden Eiern.

bye

PCO

Die Gefahr besteht leider immer.
Ich reagiere wie du vielleicht gesehen hast etwas gereizt bei (fehlenden) S3 Karten.
Brauchst ja keine Abhandlung über SIS/XGI Xabre/Volari Karten zu schreiben. Wenigstens erwähnen kann man sie. Mehr wird ja auch nicht verlangt.

Der Artikel ist ja im Großen und Ganzen nicht schlecht (die letzte Seite mal ausgenommen).
Allerdings wirkt er durch die vielen Feature-Fehler mancher Karten, der Logikfehler sowie der Fülle an Rechtschreibfehlern (hat dein Word keine Prüfung???) leicht unprofessionell.

Außerdem ist die Anti-Kyro Haltung im Artikel sehr auffällig. Wenn man schon einen Artikel schreibt sollte man sachlich und objektiv bleiben und nicht seinen Frust über seine eigene damals verbuggte Grafikkarte niederschreiben. Heb dir sowas für eine Kolumne auf...

Ich war auch am Kochen über meine S3 Savage 2000 damals, aber das ist für mich kein Grund sie deswegen schlecht zu reden.

robbitop
2005-05-10, 12:17:39
@PCO

bzgl S3/XGI gibt es hier (http://www.3dcenter.de/artikel/deltachrome_volari/) vieleicht etwas Nützliches für dich ;)

Banshee18
2005-05-10, 13:23:36
NV30 -> NV35:

-FX12 Registercombiner gegen FP ALUs ausgetauscht.
-Colorcompression wurde etwas aufgebohrt (HCT)
-Ultrashaddow (Stencilculling??)

Gabs beim NV30 noch kein Ultrashadow?

DrumDub
2005-05-10, 13:42:57
pco, für informationen über die geschichte der hw-beschleunigte 3d-grafik auf dem pc ist dieser artikel meine absolute referenz:
http://accelenation.com/?ac.id.123.1

geht leider nur bis 2002.

Coda
2005-05-10, 13:45:15
Gabs beim NV30 noch kein Ultrashadow?Doppelte Stencil Leistung ja, aber keine Depth Bounds.

No.3
2005-05-10, 13:48:45
pco, für nochinformationen über die geschichte der hw-beschleunigte 3d-grafik auf dem pc ist dieser artikel meine absolute referenz:
http://accelenation.com/?ac.id.123.1

geht leider nur bis 2002.


oops - danke! genau den Artikel habe ich gesucht und nicht mehr gefunden! =)

*bookmark*

robbitop
2005-05-10, 13:53:18
Doppelte Stencil Leistung ja, aber keine Depth Bounds.
Meinst du die "Optimierung" der Doppel ROPs hinsichtlich der 8x StencilOPs/takt? (oder meinst du gänzlich etwas anderes?) Seit wann gehört das zu US?

Coda
2005-05-10, 13:56:12
Aus dem Artikel

No, the success of the GeForce2 GTS derived from only one significant advance and that was its ability to apply two textures to four pixels in one pass. Its predecessor, the GeForce256, could apply only one texture to four pixels or two textures to two pixels.Das ist soweit ich weiß nicht richtig, es gibt keinen Unterschied zw. GeForce 256 und GeForce 2 GTS außer einem DIE Shrink und wohl kleineren Verbesserungen.

robbitop
2005-05-10, 13:59:50
NV10 besaß 4 trilineare TMU's. Damals wurde allerdings eher selten trilinear gefiltert. NV überlegte sich also zum NV15 2x bi TMU's einzubauen, was sie auch taten. Ich glaube die TnL Unit wurde auch nochmals aufgebohrt.

Coda
2005-05-10, 14:02:15
Trilineare TMUs bei nVidia? Das kann kaum sein.

robbitop
2005-05-10, 14:03:56
Trilineare TMUs bei nVidia? Das kann kaum sein.
klingt komisch, ist aber so :D

Gast
2005-05-10, 14:32:23
Seit wann gehört das zu US?
Schon immer.

Gast
2005-05-10, 14:35:39
@Dunkeltier: Weil ja auch die Kyro1 sich bei erscheinen noch mit einer Voodoo2 messen musste... Spassvogel!

@Borg: Okay, ein Absatz über SiS muss rein... super.

Man lernt nie aus.

PCO

Hi

Kyro1 mit Voodoo2 messen?

Da bist Du aber zeitlich "leicht" daneben.

Gruss Labberlippe

Gast
2005-05-10, 14:38:07
Damit die Kyro in glanzvollem Licht erscheint, werd ich ihre guten 16Bit-Eigenschaften hervorheben.

Nichts desto trotz war die Kyro1 nie eine Spielerkarte. Davon geh ich nicht ab.
Und einfluss hatte sie an sich auch keinen, ihre Schwest die Kyro2 ja, gerne, aber die Kyro1 - nicht in diesem Leben!

bye

PCO

Hi

Wieso?

Die Kyro hatte die GeForce2MX fast jederzeit plattgemacht.
Damals waren fuer die Flagschiffe derart hohe Preis Regionen das die meisten auf die MX Kärtchen ausgewichen sind und wurden mit über 200€ (grob umgerechnet) bezahlt.

Gruss Labberlippe

DrumDub
2005-05-10, 14:39:05
Schon immer. quark. auch wenn der nv30 entsprechende optimierungen hatte, kam der marktingbegriff "ultrashadow" erst mit dem nv35.

Coda
2005-05-10, 14:42:12
klingt komisch, ist aber so :DNö, das hätte ich mitbekommen. Quelle?

q@w
2005-05-10, 14:43:41
Trilineare TMUs bei nVidia? Das kann kaum sein.
Wer weiß... angeblich eine Notlösung, weil 2xbi nicht funktionierte.

http://www.forum-3dcenter.de/vbulletin/showthread.php?p=1567791&highlight=Archmark+Geforce#post1567791

q@w
2005-05-10, 14:46:31
quark. auch wenn der nv30 entsprechende optimierungen hatte, kam der marktingbegriff "ultrashadow" erst mit dem nv35.
nix quark.
Beim nV35 fällt die Doppel-ROP mit in die Kategorie Ultra-Shadow - also schon immer, solange es Ultra-Shadow gibt.

DrumDub
2005-05-10, 15:50:45
nix quark.
Beim nV35 fällt die Doppel-ROP mit in die Kategorie Ultra-Shadow - also schon immer, solange es Ultra-Shadow gibt. quelle? wo taucht der begriff den bitte bei der gf fx 5800 auf? ich kann den immer nur im zusammenhang mit dem nv35 finden...

pco
2005-05-10, 15:58:30
Danke für die guten Links. Diese woche wirds nix mehr mit einem kompletten Update.

Was meine persönliche Meinung angeht, muss ich sagen, dass ich diese schon immer mit in meine Berichte gepackt habe - und mein persönlicher Eindruck von der Kyro2 war schlecht. Und nach 3 versauten Karten auch sicher kein "Zufall".

@Borg: S3 kommen rein, sie haben es verdient (wat war ich damals stolz eine der ersten Virges zu ergattern - Terminal Velocity war ein geiles Game!).

Wie gesagt: Das Ziel des Reports war eigentlich mehr zu unterhalten und zu informieren, über die Geschichte und ein wenig die technische Entwicklung.

Dank euch weiss ich was dem Artikel fehlt und ich werde ihn verbessern. Noch diesen Monat wird es eine "Revision 2.0" geben ;-) - sie wird deutlich besser - hoch und heilig geschworen.

Der Thread hier ist in meinen Bookmarks. Der Artikel wird komplett überarbeitet und mit reichlich Bildern aus damals zeitgemässen Spielen versehen, da ich denke, dass diese mehr aussagen, als ein Foto eines Boards.

Meine Meinung werde ich nicht entfernen - das ist nun einfach mal der Geist von Orthy.de. Ich komme eigentlich auch ganz gut mit Widerspruch klar, so lange er in einer Sprache formuliert ist, die den Inhalt angreift und nicht die Person und natürlich in einer Sprache, wie sich zwei erwachsene unterhalten. Kritik in Form von Dunkeltiers Posting unter meinem Artikel muss einfach gelöscht werden - das befiehlt die Netiquette. Keiner muss sich auf Orthy.de anblöden lassen, auch nicht die Red.

Also ums nochmal mit Limp Biskit zu sagen: Thank u, thank u, thank u...

Wir lesen uns

PCO

Achso: Weitere Links, tipps usw. für den Artikel bitte gleich hier drunter posten - der Thread wird mein "Leitfaden" ;-)

No.3
2005-05-10, 16:10:00
Dank euch weiss ich was dem Artikel fehlt und ich werde ihn verbessern. Noch diesen Monat wird es eine "Revision 2.0" geben ;-) - sie wird deutlich besser - hoch und heilig geschworen.

:up:

und lass Dir Zeit, mach lieber Schritt für Schritt z.B. erst die 3D-Karten der "1. Generation", dann die Karten der "2. Generation" oder die Karten von 96-97, von 98-99, etc - Du weisst wie ich's meine ;)


Meine Meinung werde ich nicht entfernen - das ist nun einfach mal der Geist von Orthy.de. Ich komme eigentlich auch ganz gut mit Widerspruch klar, so lange er in einer Sprache formuliert ist, die den Inhalt angreift und nicht die Person und natürlich in einer Sprache, wie sich zwei erwachsene unterhalten.

gut, ich kenne den Geist von Orthy nicht :smile: aber soll OK sein - solange die Meinung nicht "falsch" ist und z.B. eine Kyro II mit ner Voodoo1 verglichen wird (hast Du nicht gemacht, aber hier von mir mal überspitzt dargestellt was gemeint ist).


Rainer

Coda
2005-05-10, 16:18:59
Wer weiß... angeblich eine Notlösung, weil 2xbi nicht funktionierte.

http://www.forum-3dcenter.de/vbulletin/showthread.php?p=1567791&highlight=Archmark+Geforce#post1567791Was es doch nicht alles für Kuriositäten gab...

robbitop
2005-05-10, 17:50:07
Schon immer.
Dazu hätte ich gern eine Quelle. Denn mit NV30/31 wurde dies nicht als US vermarktet.

robbitop
2005-05-10, 17:51:19
Was es doch nicht alles für Kuriositäten gab...
Da du accelenation schon nicht glaubst, frage doch einfach mal Demi oder aths. Beide haben das schon mind 1x hier im Forum bestätigt.

Piffan
2005-05-10, 18:05:39
Wenn der Geist von orthy.de aus dem Artikel spricht, dann muss das ja ne ganz tolle Seite sein. :|

Ein bunter Mix aus Halb- und Unwahrheiten, kräftig gewürzt mit einer Prise Meinung - nein danke!

Ja hallo, da macht einer kräftig Schleichwerbung für seine Seite, lässt sich kräftig helfen und sagt gleichzeitig, dass er zu seiner "Meinung" steht. So was nenne ich Schmarotzer!

edit: Am Ende erscheint das ganze noch als großer Artikel auf Orthy. Ob dann die freundliche Unterstützung bei der Korrektur auch erwähnt wird oder sogar als "Gütesiegel" genutzt wird? Könnte als Bumerang zurückkommen.

Ja, ich weiß, bin ein oller Pessimist und ne Unke. Aber wenn ich mal an einen Thread zurückdenke über Kühlsysteme, speziell ob Kupfer besser "abstrahlt" als Alu, dann rollen sich mir die Fussnägel wieder hoch. Da war ein Member, der wohl auch im Sinne von "orthy" argumentiert: "DAs ist eben so und wer anderer Meinung ist, der will Streit". Der Herr war absolut belehrungsresistent.... Darum würde ich den "Artikel" so lassen wie er ist.

Chief o Hara
2005-05-10, 20:17:53
Schade finde ich nur, dass anscheinend viele orthy.de User das Zeug einfach geschluckt haben. Kommt mir jedenfalls so vor, wenn ich mir die Bewertung des Artikels dort ansehe. Bin mal gespannt wann der erste darauf verweist.

Sorry aber wie kann man schreiben ein Riva TNT wäre Glide kompatibel? Das beweist doch, dass der Schreiber keine 5min recherchiert hat, sonder einfach drauflos getippt hat. Warum schreibt ihr über Sachen von denen ihr offentsichtlich nicht die geringste Ahnung habt und stellt das auch noch als Artikel online? Was hat das für einen Sinn? Eure Seite erhebt doch den Anspruch zu informieren oder?
Tut mir Leid, aber aus diesem Artikel kann man absolut keine sinnvollen Informationen entnehmen, da beinahe überall inhaltliche Fehler drinstecken.
Damit schadet ihr doch ganz massiv eurer eigenen Seite, da jetzt wohl keiner mehr sonderlich viel Vertrauen zu euren Artikeln haben wird.

Die Nerds vollständig zufriedenzustellen kann wohl niemanden gelingen, aber solche Fehler wie oben sind schon ziemlich haarsträubend. Das wäre ungefähr so als würdest du einen Artikel über den VW Golf I schreiben und behaupten der hätte damals ESP und Seitenairbags serienmäßig gehabt.

Hoffe ihr nehmt diesen Beitrag nicht persönlich. Will hier sicher nicht flamen oder behaupten ich wäre in der Lage einen einwandfreien Artikel zu schreiben. Finde nur, dass ihr eure Art zu recherchieren überdenken solltet, da es ja offentsichtlich nicht zum gewünschten Ergebnis führt. Man darf bein online stellen von Artikeln nie vergessen, dass es auch genug DAUs gibt, die solche Infos nicht hinterfragen und sich dann darauf berufen.

In diesem Sinne weiterhin viel Spaß mit eurer Seite.

Dunkeltier
2005-05-10, 20:40:58
Ich habe gerade nochmal nachgeschaut. Überarbeitet wurde bisher wohl nichts, die erste Seite strotzt immer noch vor lauter Rechtschreibfehlern. Zum Beispiel "Kritierien", "misbrauchen", "lösste", "sähnen" oder "genre"... Nur um mal ein paar Sachen zu nennen, von Seite 1. Und was versteht der Autor unter "echter 3D-Grafik"? War Wolfenstein 3D kein "echtes 3D"? :confused: Oder sind damit lediglich Spiele mit bilinear oder trilinear gefilterten Texturen gemeint? Und inhaltlich - no comment. X-((n)

Quasar
2005-05-10, 21:00:19
Robbitop & Drumdub:
Mit "Schon immer" meinte ich, daß die doppelter Z/Stencil-ROP schon immer zu Ultra-Shadow gehört - so, wie es die Antwort auf Robbitops formulierte Frage nahelegte.
Das schließt nicht aus, daß es diese Spezial-ROP schon vorher gab, aber solange es Ultra-Shadow gibt, gehört diese Optimierung eben dazu. =)
edit:
...Sie steht im Ultra-Shadow-PDF von nV sogar an erster Stelle unter "Hardware Advances"...

Dunkeltier
2005-05-10, 21:07:28
Habe gerade nochmal nachgedacht, eigentlich gab es Spiele mit 3D Grafik sogar noch viel früher. Zum Beispiel Battlezone, oder einige andere Spiele mit Vektorgrafik... :biggrin: :rolleyes:

http://freespace.virgin.net/james.handlon/battlezone/bzshot21.gif

Coda
2005-05-10, 21:27:35
Da du accelenation schon nicht glaubst, frage doch einfach mal Demi oder aths. Beide haben das schon mind 1x hier im Forum bestätigt.Hast du falsch verstanden, ich glaub's ja inzwischen ;)
Das war mit dem Satz eigentlich auch gemeint.

Mr. Lolman
2005-05-10, 22:01:58
Hat sich hier schon jemand seine Antwort zum letzten Kommentar auf orthy durchgelesen?

Auszug:

Deffered textturing und Tile Base Rendering und 8 Layer Multitexturing)

Technologien, welche unter anderen Namen bei anderen Herstellern ebenso existierten, nur nie an die grosse Glocke gehängt wurden.
Die Kyro2 litt unter 4 Dingen: Bescheidene Treiber, Bescheidene BIOS, bescheidene Bildqualität und bescheidene Performance (fehlendes T&L). Ich habe NIE eine Kyro2 gesehen welche State-of-the-Art Performance mit guter Bildqualität paaren konnte. Natürlich eins bleibt: Die Kyro2 war unglaublich billig.

nur 2 Sachen:

1. so ein Stuß!
2. In gewissen Situationen hat T&L damals sogar gebremst*, im Grunde genommen wars auch nur praktisch um Benchmarks in niedrigen Auflösungen/Details gewinnen zu können. (mal abgesehen von marketingtechnischen Vorteilen)

*

Test Drive 6 ist etwas besonders, da das Spiel optional T&L unterstützt. Um den GeForce2 GTS nicht unnötig zu benachteiligen, vergleichen wir ihn bei TrueColor ohne HW T&L, und bei 16bit mit HW T&L. Bei TrueColor würde die Karte sonst ab 1024x768 mit aktiviertem T&L stärker eingebremst.

Es wird deutlich, dass 3dfx ab 1024x768 dem GeForce2 GTS davonzieht - trotz theoretisch geringerer Füllrate. Dafür hilft die T&L - Einheit des GeForce2 GTS bei tiefen Auflösungen.

http://www.3dconcept.ch/reviews/voodoo55500agp/26.htm

robbitop
2005-05-10, 22:02:05
Robbitop & Drumdub:
Mit "Schon immer" meinte ich, daß die doppelter Z/Stencil-ROP schon immer zu Ultra-Shadow gehört - so, wie es die Antwort auf Robbitops formulierte Frage nahelegte.
Das schließt nicht aus, daß es diese Spezial-ROP schon vorher gab, aber solange es Ultra-Shadow gibt, gehört diese Optimierung eben dazu. =)
edit:
...Sie steht im Ultra-Shadow-PDF von nV sogar an erster Stelle unter "Hardware Advances"...

Achso meinst du das. Ok. ACK :up:

Ailuros
2005-05-11, 03:28:47
Test Drive 6 ist etwas besonders, da das Spiel optional T&L unterstützt. Um den GeForce2 GTS nicht unnötig zu benachteiligen, vergleichen wir ihn bei TrueColor ohne HW T&L, und bei 16bit mit HW T&L. Bei TrueColor würde die Karte sonst ab 1024x768 mit aktiviertem T&L stärker eingebremst.

Es wird deutlich, dass 3dfx ab 1024x768 dem GeForce2 GTS davonzieht - trotz theoretisch geringerer Füllrate. Dafür hilft die T&L - Einheit des GeForce2 GTS bei tiefen Auflösungen.


Die erste rein T&L optimierte Applikation war die UE2 engine.

Ich ueberlasse dem Author seine persoenliche Meinung was den Rest betrifft, aber eine K2 leidet dann schon in rein T&L optimierten Applikationen, eben wegen der fehlenden T&L Einheit.

Ich hab schon oefters wiederholt, dass ST Micro den originalen K3@166MHz fuer die K2 gestrichen hat, weil man eben empfand dass das Preis/Leistungsverhaeltnis besser auf der K2 war. Da es ohnehin schon Verspaetungen seitens ST fuer K1 und K2 gab, entschied man sich dann den K3@166MHz/150nm auf 130nm zu schrumpfen und Taktraten von 250-300MHz anzupeilen. Leistung waere dann eben schaetzungsweise auf GF4Ti-Niveau gewesen, so lange man sich nur mit dx7.0 Applikationen beschaeftigte.

Dunkeltier
2005-05-11, 05:30:21
Die erste rein T&L optimierte Applikation war die UE2 engine.

Ich ueberlasse dem Author seine persoenliche Meinung was den Rest betrifft, aber eine K2 leidet dann schon in rein T&L optimierten Applikationen, eben wegen der fehlenden T&L Einheit.

(...)


Sowohl 3dfx als auch PowerVR haben die T&L-Funktionalität den Treiber auf der CPU emulieren lassen, so das zum Beispiel Bf1942 auf der Kyro II spielbar wurde. Und wenn die CPU schnell genug ist, merkt man diesbezüglich keinen großen Unterschied. Es sei denn, ich fahre ein Worst Case Szenario auf - aber das ist dermaßen künstlich...ach lassen wir das.

Ailuros
2005-05-11, 07:45:08
Sowohl 3dfx als auch PowerVR haben die T&L-Funktionalität den Treiber auf der CPU emulieren lassen, so das zum Beispiel Bf1942 auf der Kyro II spielbar wurde. Und wenn die CPU schnell genug ist, merkt man diesbezüglich keinen großen Unterschied. Es sei denn, ich fahre ein Worst Case Szenario auf - aber das ist dermaßen künstlich...ach lassen wir das.


SW-T&L war auf vielen GPUs der Vergangenheit zu finden und hat ein paar Transformationen der CPU abgenommen, aber in reinen T&L optimierten Applikationen hilft das Zeug nicht mehr viel; nicht in Bf1942 und auch nicht in anderen Spielen die wohl wenig mit T&L optimiertem code zu tun hatten.

K2 hoert nach 1.2GHz CPUs sowieso auf zu skalieren, was aber auch normal war fuer GPUs der Zeit.

Wenn T&L wirklich so ueberfluessig war dann wundere ich mich warum Naomi2 eine ziemlich starke Geometrie-Einheit hatte, warum PowerVR schon fuer 2001 eine GPU mit T&L in ihrer Roadmap hatte und wieso die selbe Firma ploetzlich im PDA/mobile Markt (auf den sie sich ja letztens konzentrieren) momentan die einzigen verkaufbaren chips mit Geometrie-Einheiten haben, wo der Markt noch in seinen Windeln liegt.

KYRO3@166MHz waere stellenweise ueber 2x mal so schnell gewesen als K2, wenn nicht sogar mehr wenn T&L optimierter code ins Spiel gekommen waere.

Viel Spass in UT2003 und aufwaerts mit SW-T&L.

robbitop
2005-05-11, 09:27:41
letzteres soll mit einer schnellen CPU und einer V5 5500 gut spielbar sein, laut 3dfx Fans hier im Forum.

2x K2 Speed ist das Mindiste was K3 bringen hätte müssen. Das Teil hatte bei gleichem Takt 2x Füllrate und Bandbreite (oder hatte das Teil nicht sogar 4x2 ggü dem 2x1 vom K2??).

Quasar
2005-05-11, 09:48:58
Sowohl 3dfx als auch PowerVR haben die T&L-Funktionalität den Treiber auf der CPU emulieren lassen, so das zum Beispiel Bf1942 auf der Kyro II spielbar wurde. Und wenn die CPU schnell genug ist, merkt man diesbezüglich keinen großen Unterschied. Es sei denn, ich fahre ein Worst Case Szenario auf - aber das ist dermaßen künstlich...ach lassen wir das.
Ich merk's gerade in UT2004 - Primeval. Die 3,2GHz CPU capped die Framerate bei etwa 25fps - zwischen 640 und 1024 kein Unterschied.

Auch Max Payne mag die 40fps-Grenze nicht überwinden, nichtmal in 640 mit max. Details.

Gohan
2005-05-11, 09:52:51
Sowohl 3dfx als auch PowerVR haben die T&L-Funktionalität den Treiber auf der CPU emulieren lassen, so das zum Beispiel Bf1942 auf der Kyro II spielbar wurde. Und wenn die CPU schnell genug ist, merkt man diesbezüglich keinen großen Unterschied. Es sei denn, ich fahre ein Worst Case Szenario auf - aber das ist dermaßen künstlich...ach lassen wir das.

Ehm, etwas falsch. DirectX emuliert von Haus aus T&L auf der CPU, wenn der Grafikkarte keine T&L Einheit besitzt. Jetzt ist es aber so, dass manche Engienes zwingend eine T&L Einheit haben wollen, selbst wenn die gar nicht nötig ist. Daher waren 3dfx und PowerVR gezwungen per Treiber der Engiene vorzugaukeln, die Karten würden eine T&L Einheiten besitzen.
Der Leistungsverlust (!) betrug dabei meißtens 1-2%. Schneller war die eigene Emulation kaum bzw. gar nicht.

Mr. Lolman
2005-05-11, 09:52:56
Ich merk's gerade in UT2004 - Primeval. Die 3,2GHz CPU capped die Framerate bei etwa 25fps - zwischen 640 und 1024 kein Unterschied.

Auch Max Payne mag die 40fps-Grenze nicht überwinden, nichtmal in 640 mit max. Details.

Mit ner KyroII? Auf ner Voodoo5 gibts zumindest bei Maxpayne keine 40fps Grenze (und ja die 40fps werden erreicht ;))

robbitop
2005-05-11, 10:02:00
Ich merk's gerade in UT2004 - Primeval. Die 3,2GHz CPU capped die Framerate bei etwa 25fps - zwischen 640 und 1024 kein Unterschied.

Auch Max Payne mag die 40fps-Grenze nicht überwinden, nichtmal in 640 mit max. Details.
Dann hat derjenige IHV die TnL Emulation reichlich versaut. Die 3dfx Karten zeigen noch heute, dass es auch anders gehen kann :)

Cyphermaster
2005-05-11, 10:27:56
Ja, ich weiß, bin ein oller Pessimist und ne Unke.

Ich würde sagen, du bist in mancher Hinsicht einfach nur gnadenlos realistisch. In einer noch relativ idealistischen Umgebung wie hier wirkt das nur schnell etwas anders... :comfort:
Ein Pessimist ist vielfach nichts anderes als ein Realist durch die Augen eines Optimisten gesehen.

Quasar
2005-05-11, 10:40:47
Mit ner KyroII? Auf ner Voodoo5 gibts zumindest bei Maxpayne keine 40fps Grenze (und ja die 40fps werden erreicht ;))
Nein.
Dann hat derjenige IHV die TnL Emulation reichlich versaut. Die 3dfx Karten zeigen noch heute, dass es auch anders gehen kann :)
Mag sein.

Das lief auf einer GMA900 so mühsam.

DrumDub
2005-05-11, 11:24:11
Robbitop & Drumdub:
Mit "Schon immer" meinte ich, daß die doppelter Z/Stencil-ROP schon immer zu Ultra-Shadow gehört - so, wie es die Antwort auf Robbitops formulierte Frage nahelegte.
Das schließt nicht aus, daß es diese Spezial-ROP schon vorher gab, aber solange es Ultra-Shadow gibt, gehört diese Optimierung eben dazu. =)
edit:
...Sie steht im Ultra-Shadow-PDF von nV sogar an erster Stelle unter "Hardware Advances"... gnarf... in dieser hinsicht habe ich dir ja auch zugestimmt. formulier sowas doch bitte etwas nachvollziehbarer, dann kommts auch nicht zu solchen missverständnissen. ;)

Quasar
2005-05-11, 12:29:18
gnarf... in dieser hinsicht habe ich dir ja auch zugestimmt. formulier sowas doch bitte etwas nachvollziehbarer, dann kommts auch nicht zu solchen missverständnissen. ;)
'Tschuldige, wenn du das falsch verstanden hast. Die Antwort auf die Frage war allerdings eindeutig. "Seit wann gehört... zu" -> "Schon immer."
Den nV30 hast du mit ins Spiel gebracht, gleich nach deiner konstruktiven "Quark."-Aussage.

Ich werde mir jedoch Mühe geben, ausführlicher und verständlicher zu schreiben. Wenn ich allerdings auf der Arbeit zwischen Tür und Angel mal schnell etwas kommentieren will, kann es sein, daß ich das erst im Nachhinein näher erläutern kann.

DrumDub
2005-05-11, 12:37:42
quasar

war halt nen blöde situation. das "quark" von mir bezog sich halt auf dem marketingbegriff "ultrashadow", welches du aber auf die technische seite bezogst. daher schrieb ich ja auch im selben posting "auch wenn der nv30 entsprechende optimierungen hatte, kam der marktingbegriff "ultrashadow" erst mit dem nv35.". also auch unglücklich formuliert von meiner seite, wenn ich es im nachhinein betrachte. ;)

aths
2005-05-11, 15:04:12
Falsch! Eine TNT 2 Ultra konnte auch 4 Texel/Takt berechnen, und das bei 150 MHz Chiptakt.Das wüsste ich. Die TNT2 hat 2 Pipes á 1 TMU, die zu einem 1x2-Setup verschaltet werden können.

aths
2005-05-11, 15:05:40
Pixel ist der Bildpunkt, und ein Texel ist die Textur bzw. Tapete davon oder dafür. Irgendwie so.Ist auch nicht besser als pcos falsche Darstellung. Ein Texel ist ein Texture Element, so wie das Pixel ein Picture Element ist. Ein Texturfarbwert ist ein Texel. Je nach Kontext meint man auch bereits gefilterte Texel, zum Beispiel wenn man die Texelfüllrate angibt.

aths
2005-05-11, 15:07:52
rage128... den abschnitt kann man so unmöglich stehen lassen... dann lieber nur mit einem satz erwähnen als den chip so dermaßen zu demontieren...

hier also die fakten:
-am markt verfügbar war der chip Q1 1999
-nachfolger vom ragepro
-rage128 war im grunde der tnt killer, viel schneller unter 32bit und sagenhafte video features allerdings kam er viel zu spät. Q1/Q2 hat nv den tnt2 gebracht und damit den rage128 platt gemacht
-rage128pro kam erst Q3 1999 und wurde in 0.18 gefertigt und hatte keine hitzeprobleme, selbst beim r128 kann man nicht wirklich von hitzeproblemen sprechen
-bildfehler...welche bildfehler? meine rage fury hatte jedenfalls keine
-cpu abhängig? ein P3 500MHz reizt einen r128 fast vollkommen aus das problem mit dem K6 waren imho treibergeschichten.
-rage fury maxx: wenn es funktionierte verdammt schnell...meisten lief sie aber mehr schlecht als recht...keine win2000/xp treiber
-texturkompression und AF bot nur der r128pro
-der chip war gut und das erkannten die oems auch, ati hat jedenfalls massig verdient mit dem r128/r128pro. das problem war ganz alleine das der chip zu spät kam, nur deswegen war er am retail markt weniger erfolgreich aber umso erfolgreicher im oem geschäft.Der Chip war für 3D-Spiele nicht so brauchbar wie die kurz darauf erschienene GeForce 256 :) Insofern würde ich dem Rage128 keine besonders hohe Bedeutung zuschreiben.

aths
2005-05-11, 15:10:45
Beim AF bot die GeforceFX zwar eine bessere Bildqualität, da der Texturfilter bei der Radeon winkelabhängig ist, dieser Vorteil wird aber durch die hohen Leistungseinbrüche wieder aufgewogen.Nee. Um Leistung so effizient in Textur-Qualität umzusetzen, eignet sich das GF FX-Verfahren besser. Nur sind viele Leute nicht in der Lage, die Qualität auch wahrzunehmen. Den Unterschied zwischen 60 und 80 fps können auch nur wenige wahrnehmen, aber das kann man wenigstens messen. Und was man "objektiv messen" kann, wird veröffentlicht, ungeachtet dessen dass das Ergebnis nur ein kleiner Ausschnitt der gesamten Wahrheit ist.

aths
2005-05-11, 15:12:02
NV30 -> NV35:

-FX12 Registercombiner gegen FP ALUs ausgetauscht.
-Colorcompression wurde etwas aufgebohrt (HCT)
-Ultrashaddow (Stencilculling??)Die Register Combiner können weiterhin genutzt werden.

Weißt du denn, was HCT konkret ist? Ich wüsste es gerne.

Was bringt das Stichwort "Ultrashadow" ohne zu wissen, worum es geht?

aths
2005-05-11, 15:13:54
Trilineare TMUs bei nVidia? Das kann kaum sein.NV10 hat welche.
Da du accelenation schon nicht glaubst, frage doch einfach mal Demi oder aths. Beide haben das schon mind 1x hier im Forum bestätigt.Ich hatte es mir auf der Cebit 2004 extra noch mal bestätigen lassen: NV10 hat trilineare, NV15 bilineare TMUs.

aths
2005-05-11, 15:15:11
Also was die Kyro angeht, darf pco sicher seine Meinung vertreten. Wenn ihr eine andere Darstellung haben wollt, schreibt doch euren eigenen Artikel. Wichtig ist, dass pcos Darstellung frei von sachlichen Fehlern ist. Die Bewertung davon sollte man schon dem jeweiligen Artikel-Autoren überlassen.

aths
2005-05-11, 15:18:44
Wenn der Geist von orthy.de aus dem Artikel spricht, dann muss das ja ne ganz tolle Seite sein. :|

Ein bunter Mix aus Halb- und Unwahrheiten, kräftig gewürzt mit einer Prise Meinung - nein danke!

Ja hallo, da macht einer kräftig Schleichwerbung für seine Seite, lässt sich kräftig helfen und sagt gleichzeitig, dass er zu seiner "Meinung" steht. So was nenne ich Schmarotzer!Solche Leute wie dich nenne ich Deppen.

Zu seiner Meinung sollte man schon stehen, sofern sich die Meinung nicht ändert. Einfach nur mit den Wölfen zu heulen bringt keine guten Autoren hervor. Sachliche Fehler sollte pco natürlich ändern, aber was die Meinung angeht – welche Meinung vertritt Herr Piffan in seinen Postings? Etwa meine?

Quasar
2005-05-11, 15:21:45
Also was die Kyro angeht, darf pco sicher seine Meinung vertreten. Wenn ihr eine andere Darstellung haben wollt, schreibt doch euren eigenen Artikel. Wichtig ist, dass pcos Darstellung frei von sachlichen Fehlern ist. Die Bewertung davon sollte man schon dem jeweiligen Artikel-Autoren überlassen.
In einer "Geschichte der..." sollte man Fakten und Kommentar schon erkennbar voneinander trennen.

*Quasar_der_im_historischen_Seminar_der_Uni_HH_hockt*

aths
2005-05-11, 15:27:33
In einer "Geschichte der..." sollte man Fakten und Kommentar schon erkennbar voneinander trennen.Ein Fakt ist, dass Kyro1 erschreckend wenig Füllrate hat. Fakt ist auch, dass sie in vielen Spielen trotzdem gut Dampf macht – je nach Treiberversion und je nach dem opaquem Overdrawfaktor im Spiel. Wie gut die Karte ist, lässt sich damit noch nicht sagen. Natürlich verteidigen die Kyro-Fans jetzt ihre Karte, aber geben sie wirklich nur Fakten wieder, oder sind das nicht die Fakten, ausgewählt aus ihrere Sicht? ("In diesem Benchmark ...")

No.3
2005-05-11, 15:32:34
Fakt ist, dass Kyro1 erschreckend wenig Füllrate hat. Fakt ist auch, dass sie in vielen Spielen trotzdem gut Dampf macht – je nach Treiberversion und je nach dem opaquem Overdrawfaktor im Spiel. Wie gut die Karte ist, lässt sich damit noch nicht sagen. Natürlich verteidigen die Kyro-Fans jetzt ihre Karte, aber geben sie wirklich nur Fakten wieder, oder sind das nicht die Fakten, ausgewählt aus ihrere Sicht? ("In diesem Benchmark ...")

sollte man einen Chip anhand der theoretischen auf dem Papier stehenden Daten beurteilen, oder doch nach den praktischen Leistungen ??

Rainer

aths
2005-05-11, 15:36:45
sollte man einen Chip anhand der theoretischen auf dem Papier stehenden Daten beurteilen, oder doch nach den praktischen Leistungen ??

RainerDas ist ja das Problem. Je nach Spiel und Grafik-Einstellung (trilineare Filterung?) kann sich ein ganz unterschiedliches Bild ergeben.

No.3
2005-05-11, 15:39:54
Das ist ja das Problem. Je nach Spiel und Grafik-Einstellung (trilineare Filterung?) kann sich ein ganz unterschiedliches Bild ergeben.

richtig

um es nicht unnötig kompliziert zu machen: die Kyro I hat trotz der scheinbar schlechten Papierwerte, zu ihrer Zeit, in ihrem Preissegment, im Vergleich zu ihrer Konkurrenz - eine gute Leistung geboten, oder?

Rainer

Quasar
2005-05-11, 15:42:27
Das ist ja das Problem. Je nach Spiel und Grafik-Einstellung (trilineare Filterung?) kann sich ein ganz unterschiedliches Bild ergeben.
Sehr scharfsinnig. :)
Natürlich muss man sowas berücksichtigen und beide Positionen darstellen. Im Fazit kann man sich dann darüber auslassen, warum man meint, daß die eine Position die andere überwiegt und die Karte entsprechend "himmlisch" oder "grottig" ist.
Eine Differenzierung, die vielen heute entweder zu aufwendig oder schlicht (ich trau mich kaum, es zu sagen) zu hoch ist. Da gibt's nur "X rulz" oder "Y sucks".

Crushinator
2005-05-11, 16:03:03
Solche Leute wie dich nenne ich Deppen.

Zu seiner Meinung sollte man schon stehen, sofern sich die Meinung nicht ändert. Einfach nur mit den Wölfen zu heulen bringt keine guten Autoren hervor. Sachliche Fehler sollte pco natürlich ändern, aber was die Meinung angeht – welche Meinung vertritt Herr Piffan in seinen Postings? Etwa meine?
Bei allem Respekt, die Forumsregeln gelten auch für Crew-Mitglieder eben so wie für Moderatoren. Mit einem Punkt möchte ich nachhaltig auf diese Tatsache hinweisen, und in der Hoffnung auf einen gemäßigteren Diskussionsverlauf inkl. Respekt vor Meinungsfreiheit.

Diskussionen über diese Verwarnung mögen bei Bedarf im “über die Webseite und das Forum - Forum“ und nur dort zu führen, denn hier wären sie vollkommen OT. Direkte Beschwerden mögen bitte direkt an den jeweiligen Moderator per PN gesendet werden.
Siehe dazu auch: Regeln und Richtlinien für die Moderation (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046)

aths
2005-05-11, 16:18:10
Eine Differenzierung, die vielen heute entweder zu aufwendig oder schlicht (ich trau mich kaum, es zu sagen) zu hoch ist. Da gibt's nur "X rulz" oder "Y sucks".Oder man bekommt, wenn man beide Seiten erwähnt, von beiden Fanboy-Seiten Prügel. (Alles schon erlebt.)

No.3
2005-05-11, 16:35:19
Oder man bekommt, wenn man beide Seiten erwähnt, von beiden Fanboy-Seiten Prügel. (Alles schon erlebt.)

und das ist, naja, einfach nur dumm von denen...


meiner einer (2* Voodoo, 2* nVidia, 1* Ati und die nächste wird ne X850 werden) sieht die "Papier-Daten" sehr kritisch.

Da werden Features gehyped die an sich schön und gut sind aber frühestens eine Graka-Generation wirklich nutzbar werden. Es ist doch egal on nen Shader 2.1bxyz oder 3.0abc in der praktischen Anwendung ist es noch nicht wirklich Alltag und es ist doch egal ob nun ne GT6800 Ultra oder ne X800XT-PE bei 100 Frames nun 1 Frame mehr produziert oder nicht. Der Schluss in diesem Fall ist einfach: beide Karte sind von der technischen und praktischen Seite her betrachtet gleich gut.


back to Kyro (und Voodoo):

beide haben kein TnL - richtig, aber na und?? zu dieser Zeit hat das von der praktischen Leistung her betrachtet den Chips keinen Nachteil beschert - es gibt genügend Beispiele wo TnL Chips trotz allem den kürzeren ziehen mussten. Dennoch wurde den Chips das ständig vorgehalten und diese wurden ständig schlecht geredet.

Voodoo3 kann kein 16bit - richtig, aber na und?? Ich habe eine Voodoo3 und eine TNT2 und habe beide selbst mit UT-Classic Verglichen. In 16bit sind beide Karten schnell genug um UT in ner hohen AUflösung laufen zu lassen. Die Grafik der TNT2 sieht mit Verlaub Scheisse aus - die Voodoo3 Grafik ist allererste Sahne. Die TNT2 mit 32bit sieht wesentlich besser aus als mit 16bit aber immer noch schlechter als die 16bit Voodoo - von der Geschwindigkeit und der Spielbarkeit mal gar nicht zu reden. Dennoch wurde die Voodoo3 niedergemacht weil sie kein 32bit kann.... Keine Frage, meine GF4 ist schneller, hat mehr Farben und sieht besser aus, ist aber einige Generationen weiter...


soll ich noch mehr Beispiele bringen??

Rainer

aths
2005-05-11, 16:41:10
soll ich noch mehr Beispiele bringen??

RainerNoch mehr Beispiele, die das Henne-Ei-Problem zeigen? Hätte es früher breit T&L gegeben, wäre es früher genutzt worden. Gleiches gilt für den 32-Bit-Framebuffer. Und für SM3.

No.3
2005-05-11, 16:55:15
Noch mehr Beispiele, die das Henne-Ei-Problem zeigen? Hätte es früher breit T&L gegeben, wäre es früher genutzt worden. Gleiches gilt für den 32-Bit-Framebuffer. Und für SM3.

richtig, es hätte früher Spiele gegeben die TnL nutzen, die 32bit Unterstützen, die mit SM3 was anfangen können....

gut, SM3 ist auf den Chips auf denen es erstmalig eingeführt wurde wirklich benutzbar - aber z.B. auf den Chips auf denen 32bit eingeführt wurde, war 32bit nicht nutzbar.

Voodoo FSAA und Kyro TileBasedRendering konnte von jedem Spiel sofort genutzt werden, ohne dass es besonderer Programmierung bedarft hätte - doch der ganze Medienhype hat das wohl übersehen...

Zustimmung? :smile:


Rainer

Cyphermaster
2005-05-11, 16:59:45
Solche Leute wie dich nenne ich Deppen.

Zu seiner Meinung sollte man schon stehen, sofern sich die Meinung nicht ändert. Einfach nur mit den Wölfen zu heulen bringt keine guten Autoren hervor. Sachliche Fehler sollte pco natürlich ändern, aber was die Meinung angeht – welche Meinung vertritt Herr Piffan in seinen Postings? Etwa meine?

Ich würde sagen, wenn Piffan der Meinung ist, daß ihm ein stark durch die subjektive Meinung des Autors in bestimmte Richtungen gefärbter Sach-Artikel mit vielen fachlichen Fehlern nicht gefällt, dann sollte man ihm diese Meinung belassen - so zumindest verstehe ich dein Posting. Wo liegt also das Problem?

Ich finde den Artikel auch nicht wirklich gut. Geschichtliche Fakten zu sehr mit persönlicher Wertung zu durchziehen, ist kein guter Stil. Vor-interpretierte Fakten mögen vielleicht in einem Gotteshaus (Moschee, Kirche oder was auch immer) gern gesehen sein, für Geschichte halte ich es wenig angebracht und ab einem gewissen Grad sogar für manipulativ. Seine Meinung kann und sollte man auch ohne so starke Vermischung mit den Fakten klarmachen, ansonsten wird's für ein einen sachlichen Artikel einfach zu tendenziös - IMHO.

robbitop
2005-05-11, 17:08:01
Kyro TileBasedRendering konnte von jedem Spiel sofort genutzt werden
Tilebasedrendering ist schwerlich mit Features wie FSAA oder SM3 zu vergleichen. Sonst wäre ein IMR ja auch ein technisches Feature ;)

Ich bin für technische Features. Ich will beispielsweise endlich mal Tesslation, Displacement Mapping, HDR usw. in Spielen sehen. Da kann ich den IHV nur begrüßen, der die technische Umsetzung parat hat. Denn ohne ihn bekomme ich das nicht.
Ob es nutzbar ist, ist natürlich eine andere Frage. Aber wer nur so denkt, wäre ja für die Innovationsbremse. SM3 und die FP16 ROP's brachten dem NV40 bisher schon ein paar nutzbare Boni, TnL lief seit spätestens UT2003 auch gut. Und das natürlich auch mit einer GF256. Vorher brachte es schon Vorteile in Q3A.

Leider gibt es für sowas auch Negativbeispiele:
EMBM seit dem G400 vorhanden - ungenutzt
Displacement Mapping seit dem P512 vorhanden - ungenutzt
HOS auf R200 vorhanden - so gut wie ungenutzt
PS 1.4 auf dem R200 vorhanden - so gut wie ungenutzt (wobei ATI dennoch vom R200 profitierte, denn dieser war die Basis des R3xx/4xx).

Solange solche technologischen Neuerungen keine zu großen Restriktionen in Sachen Performance setzen befürworte ich sie. Im Falle vom NV30 waren die Geschwindigkeitseinbußen mir persönlich aber zu arg.

Man muss also differenzieren.

No.3
2005-05-11, 17:20:15
Tilebasedrendering ist schwerlich mit Features wie FSAA oder SM3 zu vergleichen. Sonst wäre ein IMR ja auch ein technisches Feature ;)

da hast Du natürlich Recht - auf der anderen Seite, viele Features benötigen eine immense Speicherbandbreite, mir TileBasedRendering kann man da ein bisschen was sparen :smile:


Ich bin für technische Features. Ich will beispielsweise endlich mal Tesslation, Displacement Mapping, HDR usw. in Spielen sehen. Da kann ich den IHV nur begrüßen, der die technische Umsetzung parat hat. Denn ohne ihn bekomme ich das nicht.
...
Solange solche technologischen Neuerungen keine zu großen Restriktionen in Sachen Performance setzen befürworte ich sie. Im Falle vom NV30 waren die Geschwindigkeitseinbußen mir persönlich aber zu arg.

*GrößtenteilsZustimm*


"Ob es nutzbar ist, ist natürlich eine andere Frage. Aber wer nur so denkt, wäre ja für die Innovationsbremse."


??? kann ich nicht ganz nachvollziehen

ich könnte jetzt den Warp-Antrieb erfinden, oder das Beamen - schön und gut, nützt aber nichts wenn es nicht wirklich funktioniert, also erfinde ich es doch nicht - bin ich nun eine Innovationsbremse? ;)


lange Rede kurzer Sinn: wie ich es ja schon sagte: SM3 ist Fortschritt und Innovation und kann auf den GF6-Karten auch wirklich sinnvoll genutzt werden. Die 32bit der TNT2 waren vielleicht wie eine Metallic-Lakierung am Auto, sieht vielleicht schön aus, kostet mehr Geld, nützen tut es aber nicht. (ausser dass der Schniedel größer wird :biggrin: )


Rainer

robbitop
2005-05-11, 18:02:21
Nein, in dem du den Beam Transporter nicht kaufst, bremst du die Innovation. Denn das Teil muss doch Marktanteile haben, damit es sinnvoll umgesetzt werden kann und du auch mal in den Aldi nebenan beamen kannst, statt immernur zum Saturn, wo du natürlich ohne Schutzanzug nicht hinkommst.
Oder so... :|

aths
2005-05-11, 18:52:34
richtig, es hätte früher Spiele gegeben die TnL nutzen, die 32bit Unterstützen, die mit SM3 was anfangen können....

gut, SM3 ist auf den Chips auf denen es erstmalig eingeführt wurde wirklich benutzbar - aber z.B. auf den Chips auf denen 32bit eingeführt wurde, war 32bit nicht nutzbar.Hä – wieso war es nicht nutzbar?

Voodoo FSAA und Kyro TileBasedRendering konnte von jedem Spiel sofort genutzt werden, ohne dass es besonderer Programmierung bedarft hätte - doch der ganze Medienhype hat das wohl übersehen...Dem TBDR stand eine sehr geringe Rohfüllrate gegenüber. Das FSAA der Voodoo4 und 5 kostete (bei Supersampling naturgegeben) sehr viel Leistung.

No.3
2005-05-11, 18:57:55
Hä – wieso war es nicht nutzbar?

siehe mein Post irgendwo darüber:

schon mal UT Classic auf nem 1000 Athlon mit TNT2 unter 32bit gespielt - naja, von spielen kann man eigentlich nicht reden...

Rainer

aths
2005-05-11, 19:02:22
siehe mein Post irgendwo darüber:

schon mal UT Classic auf nem 1000 Athlon mit TNT2 unter 32bit gespielt - naja, von spielen kann man eigentlich nicht reden...

RainerWar UT das einzige Spiel zu TNT-Zeiten, was die 32-Bit-Option bot?

No.3
2005-05-11, 19:08:36
War UT das einzige Spiel zu TNT-Zeiten, was die 32-Bit-Option bot?

keine Ahnung, habe nicht so viele Spiele (aus dem Alter bin ich raus ;) )

auf jeden Fall bot es sich für mich an die Konkurrenten Voodoo3 und TNT2 selbst einmal gegenüberzustellen und nicht auf die Angaben anderer Leute angewiesen zu sein :smile:

Rainer

Gast
2005-05-11, 19:20:00
nen kollege hatte damals bei ut auch wieder seine voodoo1 eingebaut weil die tnt1 derbst abgekackt war
dann ne voodoo 3 rein und alle probleme gelöst
die hatte echt ne schöne bildqualität verglichen mit der tnt2

Xmas
2005-05-11, 19:59:38
Im Ernst: Ich werde ihn überarbeiten. Ich gebe zu, dass ich bis vor 4 Wochen von den meisten Chips KEINE AHNUNG hatte. Ich hatte eine Voodoo, eine Banshee, eine TNT2 eine Kyro2, eine Geforce2Pro, eine Radeon256 (kurz mal), eine Radeon8500, ene Radeon9500Pro, eine GeforceFX5950Ultra und derzeit eine Geforce6800GT und soll ich dir was sagen: ich kann von fast keiner alle Spezifikationen.

Es ist so wie ich sagte: 2 Wochen Datensammeln, das Ding schreiben und drei Kreuze machen, dass es endlich fertig war. Hier posten und wieder von Anfang an neu schreiben.

Vielleicht setz ich mich morgen noch einmal ran, kann schon sein. Lust hab ich keine mehr. Ich muss mich wahrscheinlich ernsthaft über jede 3D-Technologie informieren, um soetwas schreiben zu können.
Unter diesen Vorraussetzungen ist es kaum verwunderlich, dass kein glänzender Artikel dabei herauskommt. Das ist ungefähr so als würde ich mir vornehmen, in zwei Wochen einen Artikel über die Geschichte der Druckmaschinen zu schreiben – da käme kaum etwas brauchbares heraus. Ein gewisser Hintergrund muss einfach da sein. Es heißt doch so schön, wer schlau ist, kann sich dumm stellen... ähnlich gilt beim Schreiben: Der Kenner kann für den Laien schreiben, aber nicht andersrum.

Ich will dich damit keineswegs entmutigen, ich denke nur dass du dir da vielleicht etwas zu viel vorgenommen hast.

No.3
2005-05-11, 20:03:57
nen kollege hatte damals bei ut auch wieder seine voodoo1 eingebaut weil die tnt1 derbst abgekackt war
dann ne voodoo 3 rein und alle probleme gelöst
die hatte echt ne schöne bildqualität verglichen mit der tnt2

hehehe, auch wenn's immer mehr OT wird:

IMHO UT sieht sogar auf ner Voodoo1 besser aus als auf ner TNT2 (aber da wird es auch schon etwas enger als im Vergleich zur Voodoo3)


Rainer

Mr. Lolman
2005-05-11, 21:03:00
hehehe, auch wenn's immer mehr OT wird:

IMHO UT sieht sogar auf ner Voodoo1 besser aus als auf ner TNT2 (aber da wird es auch schon etwas enger als im Vergleich zur Voodoo3)


RainerDas liegt am (m.E.) genialen 3dfx Postfilter (4x1 bis Voodoo2, danach 2x2): Klick (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2938323&postcount=70)

No.3
2005-05-11, 21:18:22
Das liegt am (m.E.) genialen 3dfx Postfilter (4x1 bis Voodoo2, danach 2x2): Klick (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2938323&postcount=70)

cooler Thread! THX für den Hinweis

Rainer

K4mPFwUr$t
2005-05-11, 21:25:06
ganz gut das teil aber trozdem nicht perfekt

Popeljoe
2005-05-11, 21:49:50
Das liegt am (m.E.) genialen 3dfx Postfilter (4x1 bis Voodoo2, danach 2x2): Klick (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2938323&postcount=70)
Ich glaub, ich hänge meine alte Voovvoo II hinter meine 9700pro! :D
Danke für den Link!
Geile Screenshots, zeigt mal wieder, was son deftiges hypen mit sich bringt!
RIP 3DFX!:(
P1

Coda
2005-05-11, 22:12:25
Wieso muss man die Sache eigentlich immer wieder ausgraben. 32bit ist doch schon lange Standard, warum soll man sich über solche Sachen wie Dithering noch ärgern?

Crazy_Borg
2005-05-11, 22:34:21
War UT das einzige Spiel zu TNT-Zeiten, was die 32-Bit-Option bot?

Nein.
Da fallen mir spontan noch Forsaken, N.I.C.E.2 und Toca 2 ein.
Bei Toca 2 sah ich keinen Unterschied.
Bei N.I.C.E. 2 musste man auch schon etwas genauer hingucken.
Bei Forsaken sah man es deutlich. Besonders bei Gegnergeschossen.


hehehe, auch wenn's immer mehr OT wird:

IMHO UT sieht sogar auf ner Voodoo1 besser aus als auf ner TNT2 (aber da wird es auch schon etwas enger als im Vergleich zur Voodoo3)

Rainer
Bei UT geht in Punkte Bildqualität nichts über S3 Savage Karten.
S3 Metal rulez! *duck*

Coda
2005-05-11, 22:43:52
UT mit Zeckis Glide Wrapper dürfte in 32bit genauso gut aussehen wie mit Glide.

Crushinator
2005-05-11, 22:56:21
(...) Ja hallo, da macht einer kräftig Schleichwerbung für seine Seite, lässt sich kräftig helfen und sagt gleichzeitig, dass er zu seiner "Meinung" steht. So was nenne ich Schmarotzer!

edit: Am Ende erscheint das ganze noch als großer Artikel auf Orthy. Ob dann die freundliche Unterstützung bei der Korrektur auch erwähnt wird oder sogar als "Gütesiegel" genutzt wird? Könnte als Bumerang zurückkommen. (...)
Mein lieber Herr Gesangsverein,

Deine persönliche Meinung in allen Ehren, aber weißt Du eigentlich was Du mit dieser Diffarmierung (Stichwort: Schmarotzer) erreichst? Du erreichst u.A. nämlich, daß jemand der gerade mit Artikelschreiben angefangen hat ziemlich schnell die Lust verliert und irgendwann nicht mehr zwischen konstruktiver und destruktiver Kritik unterscheiden kann. Wenn derjenige auch noch ein frischgebackener Member unsereres Forums ist, trägst Du zusätzlich dazu bei, daß er ganz schnell von uns die Nase voll hat, was wiederum nicht im Sinne unseres Forums ist. DAS wiederum läutet nicht nur bei mir die Alarmglocken, so daß ich Dich mit dieser Verwarnung ganz offiziell darum bitte, in Zukunft mehr Rücksicht auf unsere neuen Member zu nehmen und Kritik als solche so weit wie möglich sachlich zu halten.

Bitte um Verständnis, daß die objektivst mögliche Einschätzung der Geschehnisse in diesem Thread etwas mehr Zeit als üblich und relativ viele interne Diskussionen bedurften.

Diskussionen über diese Verwarnung mögen bei Bedarf im “über die Webseite und das Forum - Forum“ und nur dort zu führen, denn hier wären sie vollkommen OT. Direkte Beschwerden mögen bitte direkt an den jeweiligen Moderator per PN gesendet werden.
Siehe dazu auch: Regeln und Richtlinien für die Moderation (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046)

Quasar
2005-05-11, 23:41:35
War UT das einzige Spiel zu TNT-Zeiten, was die 32-Bit-Option bot?
Unreal lief, IIRC, auf meiner TNT damals recht gut in 32 Bit. Auf den Voodoo2 lief's allerdings besser in 16 Bit (als die 32 Bit der TNT). Schön, dass man das von Fall zu Fall auswählen konnte.

No.3
2005-05-11, 23:56:05
Unreal lief, IIRC, auf meiner TNT damals recht gut in 32 Bit. Auf den Voodoo2 lief's allerdings besser in 16 Bit (als die 32 Bit der TNT). Schön, dass man das von Fall zu Fall auswählen konnte.

die 32bit aber nicht in 1024*768 ;)

IIRC bei 640*480 auf nem Athlon 900 konnte man es in 32bit einigermaßen spielen

Rainer

Quasar
2005-05-12, 00:04:26
Unreal, nicht Unreal Tournament. Das gab's 1998 IIRC noch gar nicht.

No.3
2005-05-12, 00:08:16
Unreal, nicht Unreal Tournament. Das gab's 1998 IIRC noch gar nicht.

oops, sorry, hab' ich falsch gelesen

Rainer

Ailuros
2005-05-12, 05:34:09
Quasar,

Ich hab das Gefuehl dass Intel gar kein anstaendiges SW-T&L in ihren Treibern hat.

UT2k3 anstaendig auf ner V5? Geschmacksache und es kommt natuerlich auch darauf an was man genau mit "anstaendig" meint.

robbi,

Wenn Du Fuellraten auf vaporware zaehlen willst, frag lieber erst ueber was jegliche TMU ueberhaupt faehig ist (auf K3 bezogen).

Wieso muss man die Sache eigentlich immer wieder ausgraben. 32bit ist doch schon lange Standard, warum soll man sich über solche Sachen wie Dithering noch ärgern?

Weil es oefters zu schwer faellt sich aus gewissen Zeitschleussen zu loesen.

Mr. Lolman
2005-05-12, 07:52:46
Bei UT geht in Punkte Bildqualität nichts über S3 Savage Karten.
S3 Metal rulez! *duck*
:confused:

robbitop
2005-05-12, 09:10:42
robbi,

Wenn Du Fuellraten auf vaporware zaehlen willst, frag lieber erst ueber was jegliche TMU ueberhaupt faehig ist (auf K3 bezogen).



Pro TMU eine bilineare Interpolation pro Takt natürlich (das ist lange Standard). IIRC hatte K3 ein 4x2 Setup (oder war es tatsächlich nur 4x1?).

SentinelBorg
2005-05-12, 09:32:58
:confused:
Neben Glide und DirectX gabs bei Unreal und imho bei UT auch noch, auch einen Metal-Support, die S3-eigene 3D-Api. Mit Metal gabs dann auch erstmals die schicken hochaufgelösten, weil durch Kompression möglich gewordenen, Texturen.

Sentinel

Mr. Lolman
2005-05-12, 11:27:31
Neben Glide und DirectX gabs bei Unreal und imho bei UT auch noch, auch einen Metal-Support, die S3-eigene 3D-Api. Mit Metal gabs dann auch erstmals die schicken hochaufgelösten, weil durch Kompression möglich gewordenen, Texturen.

Sentinel

Mit dem OpenGL Renderer von Daniel Vogel kann man S3TC für alle Karten aktivieren. Die Voodoo5 packt das in 1280x1024 mit 2xAA noch schön flüssig.

robbitop
2005-05-12, 11:39:54
Mit dem OpenGL Renderer von Daniel Vogel kann man S3TC für alle Karten aktivieren. Die Voodoo5 packt das in 1280x1024 mit 2xAA noch schön flüssig.
@22 Bit?

Mr. Lolman
2005-05-12, 11:42:53
@22 Bit?

Jepp. Mit WickedGL und forcierter TC der Standardtexturen ist sogar 4xAA drinnen. Mit ner V5 6k dürft demnach 1280x1024 8xAA auch nicht sooo unrealisitsch sein :biggrin:

robbitop
2005-05-12, 11:44:00
Jepp. Mit WickedGL und forcierter TC der Standardtexturen ist sogar 4xAA drinnen. Mit ner V5 6k dürft demnach 1280x1024 8xAA auch nicht sooo unrealisitsch sein :biggrin:
Dann lieber doch Hi Res Texturen mit S3TC X-D (geht das auf der VSA?).

Mr. Lolman
2005-05-12, 12:53:57
Dann lieber doch Hi Res Texturen mit S3TC X-D (geht das auf der VSA?).

Ja sicher. Nur die Detailtextures haun stw. ordentlich rein (1280x1024x22 2xAA) Hier in dieser Szene sinds ohne Detailtextures ~49fps, hinter dem Raumschiff in dem Druchgang sinds mit Detailtextures ~24fps und ohne 62fps und ohne, mit 4xAA sinds 31fps!!! :eek:

http://img149.echo.cx/img149/1751/aufnahme57nc.th.jpg (http://img149.echo.cx/my.php?image=aufnahme57nc.jpg)

robbitop
2005-05-12, 13:37:02
kostet das so viel Texturbandbreite?

Mr. Lolman
2005-05-12, 13:47:27
kostet das so viel Texturbandbreite?Damit die Detailtexturen unter OpenGL ordentlich funktionieren (d.H. ab einer gewissen Entfernung weich ausgeblendet werden) muss "UseDetailAlpha=True" aktiv sein. Und das allein drückt die fps an besagter Stelle von 29 auf 24. Außerdem gibts im aktuellen OpenGL Renderer sage und schreibe 65 verschiedene Einstellungen die erst zurecht getweakt werden müssen. Kann gut sein, dass da irgendwo noch Potential da ist. Momentan ist UT ohne Detailtexturen mit S3TC und 1280x1024x22 4xAA ziemlich gleich gut spielbar wie mit 2xAA und aktivierten Detailtexturen. Die Bottlenecks sind halt anders verteilt...

robbitop
2005-05-12, 13:53:41
Naja gut, aber UT ist eh ein sehr schnelles Spiel, in dem man nicht so viel von AA/AF hat wie b.s.w. in Mafia oder Max Payne.

Mr. Lolman
2005-05-12, 13:59:24
Naja gut, aber UT ist eh ein sehr schnelles Spiel, in dem man nicht so viel von AA/AF hat wie b.s.w. in Mafia oder Max Payne.

Oder Unreal1 ;) Naja ich bench den neuen OpenGL Renderer mit S3TC mal schnell durch, 30fps avg. in Worstcase UT 1280x1024x22 2xAA hat ja WickedGL übern älteren/langsameren Renderer schon geschafft.