PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : T&L - das nicht eingelöste Versprechen


Unregistered
2001-08-19, 04:57:19
Super Artikel, doch leider 10 Monate zu spät auch wenns damals wahrscheinlich keiner geglaubt hätte. Ich schließe mich der Meinung des Verfassers an.

cu all Alfa

Unregistered
2001-08-19, 09:24:00
Ich auch. Aber die wichtigsten Fragen sind :

Wird sich das Ganze mit DX-8 Shadern wiederholen ?

Welche Karte nach die V-5 5500 bringt überhaupt ein anständiges AA ?

Besitzt ATi mit TruForm ein Knaller ?

Oder wird NVIDIA alles wieder todlegen ?

ow
2001-08-19, 09:50:08
Da steht soviel Unsinn in diesem Artikel, dass ich nach den ersten 2 Seiten sufgehört habe ihn weiterzulesen.

Exxtreme
2001-08-19, 10:01:56
Tja,
der Artikel kommt in der Tat zu spät.
Wer hätte das gedacht, daß T&L in der jetzigen Form sehr
wenig bringt. Ich denke das Problem sind tatsächlich
die Medien. Da werden Grafikkarten, die ein Paar fps
oder "3DMarks" mehr bringen total abgefeiert. Schaut euch
mal die Bewertungsschlüssel der bekannteren Zeitschriften
mal an. Es sieht in etwa so aus

60% Leistung
30% Qualität
10% Ausstattung

Aber Signalqualität, Treiberstabilität und -qualität oder
andere sinnvollen Features werden gar nicht oder nur
kurz erwähnt.
Und ich denke darum sind die nVidia-GPU's so weit oben
in den "Grafikkarten-Charts".
Ich meine es kann irgendwo nicht sein, daß eine
1000 DM GF3 ein schlechteres 2D-Bild liefert als eine
250 DM Matrox-Karte.
Und die Tests an sich, da wird oft UT, Quake 3 und
3DMark2001 laufen gelassen und dies soll repräsentativ sein.
Und das mit dem GDI-Bypass habe ich jetzt gerade erfahren.
Es stand sonst nirgends drin. Und deswegen scheinen die
nVidia-Treiber einige Inkompatibiläten zwischen den
Versionen zu haben.

Ich hoffe das passiert mit den DirectX-Shadern nicht
nochmal.

Gruß
Alex

Unregistered
2001-08-19, 10:04:12
tja, dieser artickel wird die furche zwischen nvidia karten besitzern und 3dfx´lern wieder ein stueck vertiefen...
fuer mich war es balsam da ich zur letztgenannten gruppe gehoere, die erstere wird den artickel als schund abtun.
aber leider luegen spielebenches nicht, und das einzige spiel wo t&l wirklich fuer eine schoenere+schnellere spielelandschafte sorgte(nachweislich) war/ist sacrafice.
allerdings wurde unterschlagen das nvidia nicht nur t&l einfuehrte...was ist mit bumb-mapping? giants sieht auf einer v5 nicht annaehernd so gut aus wie auf einer karte die bumb mapping unterstuetzt, 3dfx hat sich vielen neuen features verschlossen, und auch wenn deren aa genial war, so war es auch zu langsam
auf einer v6 waere erstmals wirklich aa(4x) ohne leistungsverlust moeglich gewesen
aber t&l luege war wohl ein grund weshalb 3dfx sank wie die titanic, und mit sich die v6 beerdigte.

cu
und denkt wenigstens noch etwas an die gute alte 3dfx zeit
damals wo v2 krass schnell war, und die sli variante der traum jedes spielers war :)

StefanV
2001-08-19, 10:16:26
Neuen Features sollte man GRUNDSÄTZLIC skeptisch gegenüberstehen...

Und nicht Fragen WAS BRINGEN SIE sondern WIE IST DER AUFWAND/NUTZENFAKTOR...

Und da T&L nicht soo einfach zu implementieren ist bzw. zu unflexibel...

Zu GDI Bypass:

Diesen Umstand hat MATROX aufgedeckt, passiert NUR mit NVidia Treibern (soviel zum Thema sie sind die besten)...

Stimmt, die NVidia Treiber sind die besten MOGEL-Treiber...

PS: das ich nVidia nicht mag liegt zu einem SEHR großen Teil auch an den Medien...

Dank der 'Pro nVidia' Reviews...

@ow

Tust du mir mal einen Gefallen:

Schreib doch mal selbst einen Artikel über irgendwas...

Amarok
2001-08-19, 10:55:05
Originally posted by Stefan Payne



PS: das ich nVidia nicht mag liegt zu einem SEHR großen Teil auch an den Medien...



Objektiv ist das aber nicht

Unregistered
2001-08-19, 11:22:15
Sorry aber da ist so viel falsch dass es 20 Seiten bräuchte um das klarzustellen.

Unregistered
2001-08-19, 11:25:05
Ich für meinen Teil finde den Artikel sehr interessant und an so mancher Stelle musst ich denken "Hab ichs nicht gesagt?"

Meine Abneigung gegenüber nVidia liegt in Zeiten weit vor dem internen "GeForce2 MX vs Kyro II"-Papier begründet. Ich habe nie so ganz verstanden, warum Grafikkarten mit dergleich schlechter Signal- und Bildqualität und dabei einem solch astronomischen Preisneviau der Traum fast eines jeden "Spiele-Freaks" waren/sind. Nur weil der Schulfreund oder das "Fachblatt" sagt, dass das gut ist?

Überspitzt formuliert: Sein ist nichts, nur der Schein zählt. Bestes Beispiel: Statement von ow.

@ow: Hat doch keiner etwas dagegen, wenn du in deiner kleinen, engen Ansichtenwelt bleibst.

Unregistered
2001-08-19, 11:40:04
eines würde ich in dem Artikel aber als falsch werten.
Den Q3A ist schon ein relativ representativer Benchmark, und auch wesentlich representativer als UT. Denn es wird wohl jetzt keine Spiele mit UT Engine mehr geben, wohingegen die meisten mit Q3A Engine noch kommen. Und davon gleiche eine Menge an hochkarätigen Spielen, die im Bereich der First Person Shooter wohl einen Grossteil der Spieler ansprechen.

Thowe
2001-08-19, 12:06:24
@Stefan - Bleib auf´n Teppich

T&L bringt sehr viel, blos (noch) nicht sooo richtig bei Spielen.

Erst wenn alle aktuellen Karten eine funktionierende, schnelle und saubere T&L Einheit besitzen (nach DX8), der alte Schrott vom Markt verschwunden und die Programme auf die Nutzung der Einheit optimiert sind - dann wird das Ganze auch was bringen.

Man sollte auch nie vergessen wo wir mit der Taktfrequenz bei den Prozessoren währen wenn es nicht den Athlon geben würde.

StefanV
2001-08-19, 12:17:51
Man sollte auch nie vergessen wo wir mit der [i]@Thowe

Ja, bei 'richtigen' Anwengungen bringt die 'feste' T&L Einheit schon was (und bei JEDEM OGL Spiel bringt es 'etwas' mehr FPS)...

Bis der VS 'richtig' benutz wird wird es auch noch 'etwas' dauern, da sich die Programmierer nunmal wegen der mehr Arbeit scheuen...

Stimmt, ohne den Athlon hätte big I weiterhin den Markt diktiert...

Und jetzt wäre eine 1GHz CPU sicher das höchste der Gefühle, hier hat AMD alles richtig gemacht (anstatt auf eine Architektur zu setzen, die keine Chance hat eine neue entwickeln)...

PS: der VS wird sicher irgendwann teilweise benutz werden...

HOT
2001-08-19, 12:25:53
Der Artikel trifft wirklich den Nerv und stimmt in vielen Bereichen. Allerdings finde ich es nicht gut Voodoo3/4/5 Karten über den grünen Klee zu loben, denn sie hatte einfach eine beschränkte Technik. Einzig das Multsampling der V5 (im Marketing T-Buffer genannt) war eine echte Innovation :D
Ein nettes Beispiel für NVs Treibergebahren ist bei den meisten Radeon2 Reviews zu sehen gewesen: man versprach einen neuen hochoptimierten Detonator mit einer utropischen Versionsnummer (20.xx) zu bringen. Doch, huch, auf einmal, jetzt wo die Tests gelaufen waren, wird die offzielle Ankündigung wieder klammheimlich zurückgezogen (www.savagenews.com). Das ist ja sehr seltsam, was stimmt denn mit dem Treiber nicht??? ;) schaun mer mal wann dieser wirklich erscheint oder ob der überhaupt mal irgendwann erscheint.
Mir persönlich wird NV mit seinem ultraagressiven Marketing immer unsympatischer. Mich störts aber nicht, die Konkurrenz wird NV schon zeigen, wo der Hammer hängt ;)
Intel hat ja auch nen fetten Fehler gemacht (RAMBUS) und hat nen Dämpfer bekommen :D

Unregistered
2001-08-19, 12:37:44
Ähm.....also ich bin der meinung das T&L bei schwacher CPU eine ganze Menge bringt.....nicht jeder hat eine Kochplatte namens Athlon 1,2 Ghz bei sich rumstehen.

Black & White und MaxPayne sind 2 spiele die von T&L gebrauch machen. Ich habe einen P3-600EB mit einer GF2MX @ 210/210 mhz. MaxPayne läuft mit HW T&L anstatt software T&L satte 40% schneller.......auch B&W läuft subjektiv flüssiger (hat das teil ne benchmark funktion drin?)......

Ich hab hier mal ein paar werte aus MaxPayne aus der Hafensniperszene:

P3-300/66 FSB:
SW T&L: <10 FPS
HW T&L: 14 FPS

P3-450/100 FSB:
SW T&L: 13 FPS
HW T&L: 19 FPS

P3-600/133 FSB:
HW T&L: 25 FPS
SW T&L: 18 FPS

P3-675/150 FSB:
HW T&L: 28 FPS
SW T&L: 20 FPS

Mal abgesehen davon....in dem artikel wird eine GF2MX 200 erwähnt.....dass das teil durch seine speicherbandbreite verkrüppelt ist war doch wohl schon vorher klar.....

Thowe
2001-08-19, 12:44:08
Achja, bevor ich es vergesse ...

... die XBox wird auch noch einiges für das Thema tun.

Unregistered
2001-08-19, 12:47:34
Tja,

was in diesem artikel steht ist zum größten teil war!
auch wenn sich jetzt n paar 16jährige nvidia gläubige aufn schlips getreten fühlen.(ist ja auch gemein! aber lest mal die welle oder sowas)
nvidia war schon immer der meister der großen worte .. und k(l)einen taten. dafür musste 3dfx untergehen.
auch find ich es lustig, dass manche nicht über die 2te seite hinauskommen bei relativ hieb und stichfester argumentation.
die bildzeitung schafft sowas eben in ein paar zeilen und nem dollen bild.( oder die computer bild spiele kippt ne cola über die radeon und die gibt den geist auf.. böse radeon!! übrigens das war BILDlich gesprochen)
es fing schon mit ihrem 32 bit gehype auf der tnt an (der grund warum ich auch nie ne nvidia grafikkarte kaufte). selbst die geforce konnte kein vernünftiges 32bit performance bild abliefern. das konnte erst die radeon aber dann kamen ja die neuen treiber wo plötzlich alles sooo schnell lief. (boar 200 frames vor einer niedertexturierten wand in quake 3!!) aber selbst meine jungen freunde (alle mit nvidias) pflichteten mir bei. das auge sah etwas anderes als der framecounter sagte.
hat jemand schonmal die hsr option bei ner voodoo 3 ausprobiert?? es ruckelt in manchen einstellungen aber der framecounter sagt 80fps.
ebenso würd ich auch die neue treiberrevolution von nvidia betrachten (wo sollen die das jetzt noch aus ner geforce 2 her bekommmen?). und sowas... in den nicht 3dmark und quake 3 messungen ( und nochn paar andre spiele die in sind) machen diese treiber NICHTS! aber sie haben ja sicher nochn paar verbesserungen in der treiberarchitektur machen können, die sich eben nur auf ein paar spiele auswirken.na klar. auch hörte ich letztens ein boar sieht das bei dem gut aus von nem freund, der gard von seiner geforce kam um sich n paar chips zu krallen.
also leutz mal n bissle objektibität und nich dem größten marketingbudget glauben. sonst gibts bloß noch nvidia mit üblen features zum schlechten preis.
mfgs

RiD

Unregistered
2001-08-19, 12:50:52
ach nochwas zu den UT engine spielen die nich mehr kommen (und ja sowieso nix sind). ich sag bloss duke4ever.
oder haben die jetzt schon wieder ne andre??
naja greets

RiD

Unregistered
2001-08-19, 12:52:39
Hallo zusammen,
ich finde den Artikel nicht schlecht, aber wie schon öfter angeführt, er kommt VIEL ZU SPÄT!!!
Jetzt wo fast alles gelaufen ist muss man es auch nicht mehr herausschreien.

Bin selber wenn man so will ein 3D- Geschädigter und kann aus meiner Efahrung nur folgendes sagen:
zu den entsprechenden Zeiten als diese Sachen aktuell waren,
1. 3D Konfiguration war ein P166 mit Matrox Millennium und m3D (Power VR), ständig mußte man sich Patche auf der Matroxseite ziehen damit die m3D überhaupt funktionierte und bei Unreal war dann entgültig Schluß, 9 Monate nach Kauf gegen eine Voodoo 1 ausgetauscht und alle Spiele liefen ohne große Probleme :-).
Fazit die m3d war wesentlich günstiger, hat aber nicht lange gehalten :-(, unterm Strich nix gespart und viel Ärger gehabt, Treibersupport = Ungenügend.
2. 3D Konfiguration P233 MMX mit Voodoo2 SLI alles war super unter 1024 X 768 zu spielen bis Q3 kam (15 FPS), da waren dann auch noch Treiberprobleme und es dauerte ein paar Monate bis 3dfx diese komplett ausbügelte.
3. 3D Konfiguration PIII 600 (war gerade 4 Wochen erhältlich), anfangs nur mit den Voodoo2 SLI alle Spiele liefen super nur bei Q3 waren mit HIGH Einstellungen unter 1024 X 768 immerhin noch knapp 20 FPS drin, eine Textur-Stufe weiter runter immerhin schon um 30 FPS. Durch Zufall erfuhr ich vom Wicked GL Treiber der immerhin gut 40 FPS aus den "alten" Voodoo's bei Q3 unter HIGH herausholte, da muß ich sagen fühlte ich mich von 3dfx schon ziemlich veräppelt und das bestätigt auch was ich schon vermutet hatte die Karten wurden mit jedem 3dfx-Treiber langsamer (wahrscheinlich damit die Voodoo 3 in einem besseren Licht stehen sollte)
Zu diesem Zeitpunkt waren TNT Ultra und G400 Max die Superkarten, also hab ich mich wegen EMBM für Matrox G400 Max entschieden, eingebaut und Expendable mit dem aktuell vorhandenen Treiber ohne EMBM laufen lassen ca. 60 FPS und anschliessend mit EMBM ca. 30 FPS und als ich dann noch feststellen durfte das viele Spiele nicht mehr richtig liefen (teilweise wenn überhaupt) flog die Karte nach einer Woche aus dem Rechner und wurde verlustfrei weitergegeben.
Spiele wie z.b. Heavy FAKK2, Eliteforce etc. konnte ich nur noch durch den Wicked GL Treiber halbwegs vernünfig spielen, 3dfx brachte nur noch neue Treiber für V3 zu diesem Zeitpunkt.
Wenn ich an die Leute denke die für diese SLI Konfiguration um 1200 DM am Anfang berappt haben finde ich das einen Frechheit von 3dfx so einen bescheiden Treibersupport zu leisten.
Unter DX 8, was machne Spiele ja schon voraussetzen werden die V2 teilweise wegen des DX 7 Treibers nicht mehr gefunden also ist man gezwungen etwas neues zu kaufen um noch etwas spielen zu können und die Wahl fiel vor 10 Monaten auf eine GF2 GTS.

ATi, Power VR = Kyro 1,2, kamen und kommen für mich wegen schlechter Trieber zur Zeit nicht in Frage (siehe Schmerzen wegen m3D oder auch aktuell haben beide Probleme mit Max Payne)
Matrox hat für Spiele schlechte 3D Leistung und dahingehend auch schlechte Treiber.
3dfx ist an seinem Ableben auch wegen schlechtem Treibersupport der nur ca. 2 Jahre pro Voodoo Generation dauert nicht ganz unschuldig.

Also bleibt zur Zeit leider nur Nvida bis die anderen mal vernünftig aus den Hufen kommen und alles im Griff haben, weil wer holt sich schon gerne ein Game, daß beim Nachbarn auf der z.B. GF läuft und bei einem selber nur unter 640 X 480 oder gar nicht???
Ich finde es mit Sicherheit nicht gut wenn einer die Monopolstellung hat, aber bei der Schnelllebigkeit und den Preisen teilweise sollten die Komponenten einem vom ersten bis zum letzten Tag uneingeschränkte Freude bereiten.

Gruss M.

Unregistered
2001-08-19, 13:05:09
Ob die Aussagen in diesem Artikel nun gaenzlich der Wahrheit entsprechen oder nicht kann ich nícht wirklich beurteilen - ich muss mich da auf die Aufrichtigkeit des Autors verlassen.
Aber wenn ich mich auf mein Gefuehl verlassen denke ich das der Autor hier vorallem eins wollte - Impulse setzen:

- und zwar zum einen nicht immer auf die Marketingmaschinerie bestimmter Unternehmen in Verbindung mit speziell fuer diese hochgezuechteten Benchmarks blind zu vertrauen und deren Phantasie-Erguesse und Realitaets-Verzerrung nachzubrabbeln

- vielleicht in Zukunft wieder einen anderen Qualitaetsmasstab in den Vordergrung zu ruecken - die QUALITAET !

Ich habe schon damals einer TNT2 meine G400Max vorgezogen und die Spiele liefen genauso fluessig und sahen DEUTLICH besser aus.
Heute besitze ich eine KyroII statt einer geforce2GTS(!) und was soll ich sagen: die Spiele laufen genauso fluessig und PROBLEMLOS (wenn man sich nicht allzu daehmlich anstellt) und sehen DEUTLICH BESSER aus !

FPS ist nicht alles !
ATI setzt mit TrueForm hier die zeitgemaesseren Akzente !
Displacement Bump-Mapping ebenso !

Aber auch so scheinbar nebensaechliche Dinge wie Signalqualitaet sollte man nicht ausser Acht lassen !

Ich denke das ist die Kernaussage des Artikels und die hat der Autor doch gut ruebergebracht - zumindest bei mir ist das angekommen !

Blackhand
2001-08-19, 13:33:27
Also zum angeblich schlechten Treiber Support muss ich doch sagen, dass das eigentlich ziemlich normal ist, dass das "alte" Produkt einer Firma künstlich langsamer gemacht wird, damit neue Produkte attraktiver werden. Das wurde mit der TNT2 genauso gemacht. Und irgendwann wird es der GeForce2 genauso gehen. Ob das mit der Voodoo2 wirklich stimmt weiß ich nicht, sowas hab ich nur von nVidia gehört. Vielleicht hat sich 3dfx auch auf die WickedGL Treiber verlassen und hat dort deswegen kaum was getan. Warum ist man denn nicht zufrieden, wenn man vom WickedGL Treiber weiß? 3dfx hatte eigentlich bisher die stabilsten und tweakfreudigsten Treiber und von der Geschwindigkeit her waren sie auch nicht schlecht. Ich weiß nicht, warum es ein guter Treibersupport sein soll, wenn immer wieder in kurzen ABständen ein neuer kommt, der oft auch für Abstürze sorgt.
ciao
Blackhand

Leonidas
2001-08-19, 13:50:58
Ich möchte mich mal vorab bei allen entschuldigen, die den Artikel scheisse finden. Im Artikel wird eine provokante Meinung vertreten - und provokante Meinungen haben es nun einmal so ansich, daß da nicht alle derselben Ansicht sind. Ich will aber auf keinen Fall den Eindruck erwecken, es gäbe nur eine Meinung. Also an alle, die nicht der Meinung des Artikels sind: Eure Meinung wird genauso geachtet und wahrgenommen.

Leonidas
2001-08-19, 14:07:32
Um auf die DX8 Sache einzugehen:

Angenommen, der Programmer optimiert seine Game-Pipeline nicht nur für DX8, sondern auch für CPUs, und setzt nicht grad 100.000 Polygone ein, so trifft die Aussage des Artikels auch auf DX8 zu! Denn der Vertex Shader ist ja nix anderes als eine Mini-CPU. Er hat zwar mehr Leistungspotential (200T-300T Polygone bei 60 fps), aber so lange die nicht genutzt werden, schafft das auch ein Athlon (100T Polygone bei 30 fps).


Allerdings wird diese Rechnung bei DX8 meiner Meinung nach nicht aufgehen:

1. Jetzt werden irgendwann mal doch 100T Polygone in Spielen genutzt. Ok, nicht vor 2002, aber eventuell wird es 2003 normal sein. Das hängt weniger an den Vertex Shadern, sondern einfach an den Rendering-Einheiten der GraKa -> *jetzt* sind sie schnell genung für so etwas.

2. Leider werden die wenigsten Programmer ihre Game-Pipelines für CPUs optimieren, also für 3DNow!, SSE oder SSE2 (lassen sich alle drei hervorragend für Geometrie Berechnungen nutzen!). Weil sich für diese die Situation ergibt, das ATi und nVidia einen Vertex Shader haben und ImgTec möglicherweise auch, so daß sich diese Frage für den Programmierer von alleine klärt. Er braucht keinen speziell optimierten CPU-Support mehr einzubauen, weil es keine (modernen) Karten mehr ohne Vertex Shader geben wird. Natürlich gibt es noch die "alten" Karten der GeForce 1/2, Radeon I, KYRO I/II Serien, aber diese werden für hochmoderne Spiele des Jahres 2002 eher nur noch nebenbei her betrachtet werden. Bei einem Spiel mit 100T Polygonen werden diese Karten rein von der Schnelligkeit des Rendering-Vorganges und rein von der Bandbreite her keine 60 fps mehr bringen, sondern nur noch 30 fps -> und die Geometrieleistung für 30 fps bringt auch ein 1.4 GHz Athlon. Wenn man eine extra Athlon-Optimierung in ein solches Spiel einbauen würde, könnte die CPU die GeForce2 zwar mit Polygonen für 60-100 fps beliefern, die GraKa würde es aber selber nicht schaffen. Insofern werden die Programmer (bis auf Ausnahmen) wohl keine CPU-Optimierungen schreiben, sondern nur den Vertex Shader ansteuern.

Dies trifft aber *nur* auf Spiele mit 100T Polygonen und massivem Vertex Shader Einsatz zu - noch kann keiner wirklich sagen, wenn diese eine gewisse nicht von der Hand zu weisende Masse bilden!

ow
2001-08-19, 14:35:18
Originally posted by Unregistered


@ow: Hat doch keiner etwas dagegen, wenn du in deiner kleinen, engen Ansichtenwelt bleibst.


Mit unregistrierten dämlichen Bauern geb´ich micht nicht ab.

Leonidas
2001-08-19, 15:18:41
Recht so @ ow.


Es ist mir völlig egal, ob ow eine komplett andere Ansicht hat, bei derartigen Beleidigungen stelle ich mich lieber auf seine Seite!

Also bleibt ruhig und lasst die anderen Meinungen leben!

Thowe
2001-08-19, 15:33:40
Originally posted by Unregistered
1. Fazit die m3d war wesentlich günstiger, hat aber nicht lange gehalten :-(, unterm Strich nix gespart und viel Ärger gehabt, Treibersupport = Ungenügend.

2. ATi, Power VR = Kyro 1,2, kamen und kommen für mich wegen schlechter Trieber zur Zeit nicht in Frage (siehe Schmerzen wegen m3D oder auch aktuell haben beide Probleme mit Max Payne)


zu 1. Lag eher daran das hier immer eine spezielle Anpassung an das PowerSGL benötigt wurde, mit DX und OpenGL konnte man bei dieser Karte eigentlich nix werden.

zu 2. Bei der aktuellen Kyro und Max Payne reicht es einen reg. Eintrag vorzunehmen um alles bestens am laufen zu haben. Aber weder ATI noch die Kyro haben schlechte Treiber, solche Pauschalaussagen sind einfach unbrauchbar.

Unregistered
2001-08-19, 16:16:34
Endlich mal ein Artikel der in die TIEFE geht.

net de 100.000 Meinungen über eine GTS in 16bit mit vollem T&L in Quake 3 mit 500fps (suuuuupaaaaa)

was bringt ma des??? T&L nützt mit in 1600x32bit sowieso nix mehr, da is eine Kyro II viel schneller weils a intelligentes Rendering hat ... net BruteForce 1000Mhz Rams de 10x soviel kosten wie die restliche Karte

ausserdem bremst des GF1-2 T&L sowieso ab 1000-1200Mhz Cpus, also was nützts mir dann??

da bringt die HSR Technologie der K2 mehr, ebenso die 8 Layerige Multitextureinheit der K2 (Geforce 3 hat nur 4)
d.h. die GF3 muss 2x rechnen, die K2 einmal

aja, und zu Aquanox, der Hersteller will eine kyro II version rausbringen, die voll auf die K2 optimiert ist. dies bringt (laut hersteller) schönere Grafikqualität als bei GF3 und SCHNELLER als auf gf3

na hauptsache jeder ****** mecker drüber dass die K2 kein T&L hat ...


ich bin voll deiner Meinung Leonidas!!!!!

( visit www.Extremepage.at :D )

RAL
2001-08-19, 16:31:46
Originally posted by Leonidas
Recht so @ ow.


Es ist mir völlig egal, ob ow eine komplett andere Ansicht hat, bei derartigen Beleidigungen stelle ich mich lieber auf seine Seite!

Also bleibt ruhig und lasst die anderen Meinungen leben!

Andererseits reicht es nicht aus, einfach nur zu sagen: "Der Artikel enhält so viele Fehler, daß ich nach zwei Seiten aufgehört habe zu lesen".

@ow
Wenn er Deiner Meinung nach so viele Fehler enthält, zähle bitte ein paar davon auf, damit man das auch nachvollziehen kann.

Thowe
2001-08-19, 17:08:18
Naja vielleicht meldet sich aths ja auch zu Wort ???

Auf jedem Fall Respekt für den Mut diesen Artikel überhaupt zu verfassen.

Wobei mein Leiblingsspruch ja immer ist: "Man muss meine Meinung nicht teilen, sondern nur akzeptieren".

StefanV
2001-08-19, 17:15:32
Endlich mal jemand, der versucht den nVidia Hype zu beenden...

Deshalb Hut ab, ATHS(dem Verfasser)und LEO(dem 'Hoster')...

007
2001-08-19, 17:18:52
Originally posted by Stefan Payne
Endlich mal jemand, der versucht den nVidia Hype zu beenden...

Deshalb Hut ab, ATHS(dem Verfasser)und LEO(dem 'Hoster')...

find ich auch gut..., obwohl meine Rechner poowered bei nVidia sind*fg*

StefanV
2001-08-19, 17:25:23
Originally posted by 007


find ich auch gut..., obwohl meine Rechner poowered bei nVidia sind*fg*

VERRÄTER*eg*...

Nein, aber es ist wirklich schlimm, wie getestet wird...

DAS IST DIE REGEL!!!

Kaum werden die Vorteile einer Kyro gegenüber einer GTS genannt, oder Radeon<->GTS...

Die GTS mag schneller sein, aber sie ist nicht das einzig wahre, was uns leider einige weiß machen wollen...

007
2001-08-19, 17:31:37
Originally posted by Stefan Payne


VERRÄTER*eg*...

Nein, aber es ist wirklich schlimm, wie getestet wird...

DAS IST DIE REGEL!!!

Kaum werden die Vorteile einer Kyro gegenüber einer GTS genannt, oder Radeon<->GTS...

Die GTS mag schneller sein, aber sie ist nicht das einzig wahre, was uns leider einige weiß machen wollen...

jo, sehe ich in einigen Punkten genau so...

Unregistered
2001-08-19, 17:53:17
Ich find es sehr clever, dass man scheinbar wieder zwei grafikkarten verwenden muß, um alle spiele perfekt spielen zu können.
Einmal ne geforce mit t&l und ne 3dfx karte für UT-Engines.
Außerdem verzerrt der 3DMark nicht nur mit t&l sondern auch mit den Befehlseweiterungen, wie z.b. SSE oder 3Dnow.
Ein Celeron 600 hat gegenüber einem Celeron 500 (ohne SSE)
1200 Pkt. mehr(ca.1500 Celeron 500; ca.2700 Celeron 600).
Und das ist ja wohl der größte Schwachsinn.

007
2001-08-19, 17:55:26
Originally posted by Unregistered
Ich find es sehr clever, dass man scheinbar wieder zwei grafikkarten verwenden muß, um alle spiele perfekt spielen zu können.
Einmal ne geforce mit t&l und ne 3dfx karte für UT-Engines.
Außerdem verzerrt der 3DMark nicht nur mit t&l sondern auch mit den Befehlseweiterungen, wie z.b. SSE oder 3Dnow.
Ein Celeron 600 hat gegenüber einem Celeron 500 (ohne SSE)
1200 Pkt. mehr(ca.1500 Celeron 500; ca.2700 Celeron 600).
Und das ist ja wohl der größte Schwachsinn.


öhm ja, da muss ich dir zustimmen...

StefanV
2001-08-19, 18:12:24
@Guest

Zumal ein C1 500 und ein C2 600 ungefähr gleich schnell sein sollten...

Kai
2001-08-19, 18:33:11
Originally posted by Stefan Payne
Endlich mal jemand, der versucht den nVidia Hype zu beenden...

Deshalb Hut ab, ATHS(dem Verfasser)und LEO(dem 'Hoster')...

Die, die Nvidia richtig hypen, werden ATH's als idiotischen Spinner abtun ... das dürfte euch ja sicher klar sein. Übrigens - ob mit T&L oder nicht hat meine Kaufentscheidung bisher noch bei keiner einzigen Grafikkarte beeinflusst. Auch nicht suggestiv.

Ich sah, ich mochte, ich kaufte ...

Nicht etwa "Ich las, ich hypte, ich kaufte ..."

Unregistered
2001-08-19, 18:44:35
@Payne:

Nicht nur das.
Gibt es denn überhaupt ein spiel(außer Black&white), was
so stark von SSE oder 3Dnow profitiert.
Und noch was:
Mit meinem 428 K6-3 habe ich im Low heli bench satte 36 fps mit 3Dnow optimierung und ohne 34!
Wo ist da die optimierung?

StefanV
2001-08-19, 18:51:52
@Guest

Ja!!

Quake 2 mit V2!!

Das ist spürbar schneller...

Kein Wunder, kommt doch der Patch von AMD;)...

Unregistered
2001-08-19, 19:43:54
Sehr interressanter Artikel, meiner Meinung nach einer
der besten der letzten Monate (auch Magaz.) die
ich gelesen habe.
Ich selber hab auch von ´92 bis heute einiges an Karten
durchgemacht, habe aber immer selber das Gefühl
( kann auch Einbildung sein) das die Signalqualität seit der Mx sehr abgenommen hat.

Mein Zweitrechner hat noch eine Voodoo 3000 und irgendwie sieht das Bild da auch besser aus.
Andererseits könnte ich Spiele wie z.B Max Payne nicht wie
mit der GF2Pro in 1280x1024 (High) spielen

Nur bleibt für mich die Frage wie ich
als normaler User an meinem eigenen PC diese
Qualitäts Unterschiede "sehen" kann ?
Frames 15 oder 30 kann man ja sehr gut beurteilen
oder benchen aber an ein subjektives "besseres Aussehen"
der Tester würde mich, glaube ich, nie überzeugen.

Warum gibt es keinen "Benchmark" um die Qualität
einer karte zu beurteilen, damit wäre dann jedermann
sichtbar welche die für Ihn "bessere" Lösung ist.

Ich als Laie würde da vielleicht denken das man die
Image Qualität eines Screenshots messen kann z.b.
anhand der Form, Abstufungen des (3D) Bildes oder das man
selber testet z.B der Bildschirm zweigeteilt
links Bild1, rechts Bild 2
"welches sieht besser aus"?
oder links ein Bild einer Voodoo 4, rechts ihres !

Wie gesagt ich bin da Laie, aber gut wäre das schon,damit
sich niemand zum Kauf solch einer Karte hinreissen lässt bzw. Firmen wie 3dfx
an solchen Sachen wie Frames pro sekunde auf Kosten der Qualität zu Grunde gehen.

vaanzoon

StefanV
2001-08-19, 19:51:05
Gaanz einfac:

Kamera->so dicht wie möglich an Moni...

007
2001-08-19, 19:58:07
Originally posted by Stefan Payne
Gaanz einfac:

Kamera->so dicht wie möglich an Moni...

nicht gerade die exakte Methode...

mac770
2001-08-19, 20:09:47
@ow
Da steht soviel Unsinn in diesem Artikel, dass ich nach den ersten 2 Seiten sufgehört habe ihn weiterzulesen.


Meiner Meinung nach disqualifiziert dich diese Aussage schon von vorherein. Mit meinem Statement ...:
@ow: Hat doch keiner etwas dagegen, wenn du in deiner kleinen, engen Ansichtenwelt bleibst.
... hab ich versucht genau das auszudrücken.

Mit unregistrierten dämlichen Bauern geb´ich micht nicht ab.
Unregistriert? Naja wenns denn hilft: Jetzt registriert. Jetzt besser?
Dämlich? ow, du versuchst lediglich den Artikel in den Dreck zu ziehen mit drei Worten. Ich kann dem nur entnehmen, dass du entweder nicht in der Lage bist zu argumentieren, oder dir in diesem Fall nichts einfällt. So oder so glaube ich nicht, dass ich der Dämliche bin.
Bauer? Fast :D

Es ist mir völlig egal, ob ow eine komplett andere Ansicht hat, bei derartigen Beleidigungen stelle ich mich lieber auf seine Seite!
@Leonidas: Es war nicht meine Absicht jemanden zu beleidigen. Ich empfand meine Aussage ziemlich treffend auf ows Statement, denn genau diese Kurzsichtigkeit scheint in seinem "alles flasch auf den ersten 2 Seiten, dann nicht weitergelesen"-Statement durch.

Fürs Beleidigen scheinen hier andere Leute zu sorgen.

@ow: Also los, wenn du mehr kannst, dann sag es doch auch: Schreib was nicht richtig ist an diesem Artikel, sage was du besser weisst, argumentiere endlich mal! Darauf wäre ich echt gespannt. Und vielleicht kannst du mich wirklich eines Besseren belehren.


Greetz,
mac770

aths
2001-08-19, 20:22:06
Der Artikel kommt 10 Monate zu spät? Vor 10 Monaten hatte ich eine Banshee und wusste nicht, was Speicherbandbreite ist. Es gibt viele Publikationen, die gerne kritisch sind, ich denke denen könnte man diesen Vorwurf eher machen
---
ow: "Da steht soviel Unsinn in diesem Artikel, dass ich nach den ersten 2 Seiten sufgehört habe ihn weiterzulesen."

Unregistered: "Sorry aber da ist so viel falsch dass es 20 Seiten bräuchte um das klarzustellen."

Trotz sorgsamer Recherche mögen mir Ungenauigkeiten oder gar "richtige" Fehler unterlaufen sein.

Es würde mich freuen, wenn einiger Unsinn oder Falsches aufgezählt würde. Übrigens kam ich nach den ersten beiden Seiten erst richtig in Fahrt :-) Ich führe keinen Prozess oder will eine absolut unantastbare, lückenlose Beweiskette aufstellen. Obwohl einige (hoffentlich richtige) Fakten genannt wurden, ist die Schlussfolgerung eine Meinungsäusserung.
---
Unregistered: ..."wohingegen die meisten mit Q3A Engine noch kommen"

Eine Karte auf die Zukunft zu benchen ist angesichts der schnellen Zyklen nicht besonders sinnvoll. Der Käufer muss wissen, was sie hier und jetzt bringt. Siehe auch die T&L-Erwarungsfalle. Es gibt keine Garantie, dass sich die Q3-Engine breit durchsetzt. Und bei der nächsten CPU-Generation lohnt T&L auch auf der GTS nicht mehr. (Insofern hat Gary Tarolli recht gehabt.)
---
Hot: "Einzig das Multsampling der V5 (im Marketing T-Buffer genannt) war eine echte Innovation."

V4/5 verwenden ein (Rotated Grid) Supersampling. Multisampling kommt in der GeForce3 zum Einsatz.
---
Thowe: Mutig war eher Leonidas, meine offenbar von der breiten Masse "abweichende" Meinung öffentlich zu machen. Immerhin steht zwischen den Zeilen, dass alle Käufer die bewusst auf T&L geguckt haben, damit entgegen ihrer Erwartung keine zukunftssicherere Grafikkarte erwarben.
---
Der Artikel ist für mich ein Mammut-Projekt gewesen und enstand im Verlauf von 3 Wochen. Dabei konnte ich wegen der Länge nicht auf jede Feinheit eingehen. Zum Beispiel wäre es eigentlich eine Erwähnung wert gewesen, dass Karten trotz T&L weiterhin mit der CPU skalieren. Bei Quake3 braucht eine GTS weiterhin gehörig Dampf. Soviel zur Entlastung. Sie ist zwar da, aber kein Wunder-Ding.

Es ist aber verständlich, dass nVidia ihr neues Feature so bewarb, aus kapitalistischer Sichtweise macht das ja Sinn. Die Magazine und Webseiten bekamen ihre Test-Muster und Grafikdemos (und Anweisungen, wo und in welcher Grösse das nVidia-Logo zu plazieren ist.) Leider sprangen sogut wie alle auf den Zug auf. Bei der Voodoo3 wurde das bewährte Design veraltet genannt. (Da hatten sie zwar Recht, aber den wirklichen Vorteil der TNT2-Grafik sehe ich bis heute nicht.) Die "Fachzeitungen" warnten lang und breit davor, auf das falsche Pferd zu setzen. Jedenfalls machten sie hier viel mehr Getöse, als gerechterweise ebenso die M64 zu geisseln (die im TNT2-Hochgesang grinsend mitschwamm.)

Bei T&L ging das gleiche von vorne los...

Unregistered
2001-08-19, 20:23:33
Vielleicht sollte dieser Artikel etwas deutlicher als "Meinung" des Verfassers gekennzeichnet werden. Richtig ist: T&L ist weniger wichtig, als es 1999 mit dem GF256 gehyped wurde.
Meine Meinung zu dem Artikel: Etwas zuviel Voodoo-Hype. Hätten ein paar Lobgesänge auf den Rampage gut dazugepaßt. Die V5 hatte qualitativ besseres FSAA als die GF2, aber war ansonsten schlicht zu langsam, und zwar nicht nur in den synthetischen 3DMarks, sondern z.B. Q3A in 1024x768x32, wohl eine sehr populäre Auflösung. Jetzt bitte keine Vergleichszahlen mit Unreal oder irgendwelchen Glide-optimierten Spielen, die waren nun mal 3dfx-optimiert so wie die 3dMarks eben auf T&L abfahren.
Ich sehe es mal so: Lieber eine Karte, deren Hype-Feature weniger wichtig geworden ist als angepriesen, als eine Karte mit rundum niedrigerer Performance.

Letztendlich hat der Markt über die Schicksale von 3dfx und Nvidia entschieden.

aths
2001-08-19, 20:41:51
Unregistered: Immerhin kann man Glide-optimierte Spiele, im Gegensatz zum T&L-optimiertem 3DMark, wenigstens spielen.

Die Voodoo5 schafft in Quake ca. 70 fps bei 32 Bit. Schaltet man eben auf 16, sieht dank dem Postfilter ein bisschen besser aus als auf Geforce-Karten mit 16 Bit. Selbst wenn man der V5 eine Quake-Schwäche ankreidet, hat sie doch bei anderen Spielen Stärken. Quake ist populär, aber nicht alles. Dass beide akzeptierten Hauptbenchmarks, 3Dmark und Quake, aus T&L Vorteil ziehen, ist doch schon unfair, oder? Denn in der Masse hat sich T&L ersten noch nicht so breit durchgesetzt und zweitens ist der Vorteil oft deutlich geringer als bei den beiden "Referenzen".

Selbst wenn sie von der Geschwindigkeit her in fast allen Spielen einer GTS etwas hinther hinkt, so bietet sie - z. B. beim FSAA - trotzdem nennenswerte Stärken. Ich persönlich verlange eine Mindest-Framerate (40 fps solo, 60 fps multi) und ab da nur noch Qualität.

3dfx war der noch stärkste Konkurrent zu nVidia und hat sich so seine stärkere Betonung verdient, wie ich finde.

mac770
2001-08-19, 20:49:10
Dass der Markt entscheidet ist ja auch gar keine Frage. Die Frage ist vielmehr wie dieser Markt beeinflusst wird. Und hier muss man nVidia wirklich ein sehr gutes Zeugnis aussprechen. 3dfx konnte in dieser Hinsicht nVidia nie das Wasser reichen.

Wenn ich aber schon über 3dfx und deren Untergang spreche, so muss ich auch färerweise sagen, dass nicht unbedingt die Technik von 3dfx den Untergang einleutete, sondern das Vorgehen, die Chips nicht mehr an Grakahersteller zu verkaufen, sondern nur noch eingene Grakas zu vertreiben. Dies und vorallem viele grobe Schnitzer im Managementbereich haben 3dfx schließlich in den Ruin getrieben. Die Technik die 3dfx lieferte und deren Absatz hätte auf absehbare Zeit nicht durch nVidias Konkurrenz gefährtet werden können

In Hinblick auf Glide-optimierung oder DirectX oder T&L-Nutzung/optimierung sollte man auch nicht vergessen, dass die 3dfx Glide API schlicht schneller ist aus die Direct3D API. Das bedeutet, dass bei gleicher GPU/CPU Performance die Glide API schlicht mehr fps liefern kann als Direct3D. Und ich rede hier nicht von einem einzigen 3dfx-Produkt als Testkandidaten, sondern von einer Glide-kompatiblen GPU und einer in der Performance vergleichbaren ANDEREN Direct3d optimierten GPU. Woran das liegt kann ich leider nicht beurteilen. Möglicherweise an den M$-üblichen overhead?

Greetz,
mac770

StefanV
2001-08-19, 21:09:22
@all

Da ihr alle so über die 3DFX Lastigkeit des Autors 'lästert'...

Nennt mir bitte eine T&L Lose Karte, die sich mit der GTS messen kann??

Richtig, es bleiben nur V5 und Kyro 2 übrig...

Die Kyro 2 ist ein TBR, fällt daher weg...

Im großen und ganzen ist der Artikel ganz gut...

Und vorallendingen ein Ansatz, daß :kotz: nVidia gehype zu brechen...


Jetzt mal was anderes:

Schaut euch doch mal, wie überall Grafikkarten getestet werden??

Seht euch an, wie MoBos getestet werden!!...

WEN interessiert es, wenn ein MoBo 0,1% schneller ist als ein anderes??

Wichtig ist, daß mit HW zu testen...

Wie stabil ist es, wie gut funezen die BIOS Optionen, hat es BIOS Bugs (Schlag auf das A7V, das Board hat sich im BIOS sogar aufgehängt)...

DAS Ist wichtig!!!

Und was wird gemacht??

Richtig, Sandra bis zum Abwinken, dann noch Q3 und noch ein paar andere Games...

Und was wissen wir über das MoBo hinterher??

GARNICHTS!!!

Also muß man das Board auf blauen Dunst kaufen (alle ASUS A7V User werden verstehen, was ich meine, Testsieger aber totaler Müll)...

Leider trifft das auf ALLES zu...

Kai
2001-08-19, 21:13:54
Ich stimmt mac770 mal in sämtlichen Punkten zu ;)

BTW: Ich vermisse Glide sehr! Der "Glide-tot" war auch nur Hype - und sonst gar nix. Wenn ich mir Unreal heute in D3D anschaue ... :kotz:

Viele Aussenareale werden vollkommen falsch beleuchtet, Schatten stimmen nicht, usw. usw. ...

Thowe
2001-08-19, 21:17:23
Originally posted by aths
Thowe: Mutig war eher Leonidas, meine offenbar von der breiten Masse "abweichende" Meinung öffentlich zu machen.


Nein, mach dich nicht kleiner als du bist.

Den Artikel zu verfassen war mutig und es ist ja wohl nicht so das deine Meinung von der breiten Masse abweicht, im Gegenteil wäre es so wäre hier wohl einiges mehr los.

Das einzige was mir persönlich missfiel war der etwas zu grosse hype auf 3dfx, was aber deine subjektive Meinung ist und ich somit auch gerne akzeptiere.

Bei mir ist es halt S3 gewesen, mit S3TC haben die meines Erachtens etwas wirklich nützliches und billig zu realisierendes Feature eingeführt. Aber auch das hat Jahre gebraucht bis es wirklich genutzt wurde.

Aber letztendlich zählen eigentlich nur die Stimmen die nicht laut geworden sind, sprich jene die den Artikel gelesen haben und ihre eigene Bilanz daraus gezogen haben. Dieser Personenkreis wird auch der grösste sein und die anderen hast du zumindest dazu bewegt etwas zu diskutieren was durchaus Diskutionswürdig ist.

Deshalb: Danke für den Artikel.

StefanV
2001-08-19, 21:24:38
Originally posted by 007


nicht gerade die exakte Methode...

Sollte aber gehen*eg*...

Exxtreme
2001-08-19, 21:49:58
@ Stefan Payne
Alles in allem Full ACK!
Ich denke auch, daß die HW heutzutage nach falschen Gesichts-
punkten getestet. Es zählen nur noch fps, 3D-Marks, Megabytes pro
Sekunde usw. Wie der Gesamteindruck ist, scheint egal zu sein.
Daß die nVidia-GraKa's generell schlechtere Signalqualität haben,
das habe ich nur aus der c't erfahren, und das war der Grund
warum ich mich für die Radeon entschieden habe.
Und ich freue mich schon auf die R200.
Tja, und das mit dem GDI-Bypass ist auch so eine Sache,
wenn das ATI in die Treiber einbaut, dann war das meine letzte
GraKa von denen. Ich tausche gerne ein Paar fps gegen einen
stabilen und zuverlässigen Treiber ein.

3Dfx' FSAA ist damals nicht ernstgenommen worden, obwohl es
die Bildqualität deutlich angehoben hat. Man hat gesagt, daß
es in hohen Auflösungen eh' unwichtig ist. Dann hat man was mit
"3D-Marks" erwähnt und die V5 für mäßig erklärt.
Der Clou der V5 ist ja, daß das Bild in z.B. 800x600 genauso
gut aussieht wie in 1280x1024 ohne FSAA.

Ich hoffe, daß der Artikel, der übrigens gut ist, etwas
bewegt.


Gruß
Alex

Frank
2001-08-19, 22:42:19
Originally posted by ow

Mit unregistrierten dämlichen Bauern geb´ich micht nicht ab.

Sehr höflich heute ...

Unregistered
2001-08-19, 22:54:49
ich hol mir sowieso ne Kyro 2 ..., hatte bisher ne Voodoo Banshee und war sehr damit zufrieden.

Tria
2001-08-19, 23:15:34
Tja, ich geb's zu, ich bin auch ein 3Dfx-Fan, aber Tatsache ist nun mal, dass diese Zeit vorbei ist.

Viel bedeutender finde ich es, mal darüber nachzudenken, was die Entwickler in ihren Kisten haben, und da findet ihr primär NV Hardware. Um wirklich etwas zu ändern, müssen Firmen wie ATI und Co (wer immer das auch ist) vielmehr bei den Entwicklern präsent sein.
Fakt ist nun mal, dass man mit einer Grafikkarte von nvidia, und deren Referenztreiber (nicht diese grauenhaften Beta-Bugs) am wenigsten Kompatibilitätsprobleme hat, auch wenn ATI und Imgtec inzwischen gut aufgeholt haben. Der Grund ist einfach, dass inzwischen so für nvidia Chips entwickelt wird, wie früher unter Glide für die Voodoos. Und kommt mir bitte nicht mit dem Argument, dass unter DirectX alle Karten gleich anzusprechen sind - schliesslich gibt es noch genug Grafikrelevanten Code, der nicht Teil von DX ist :-(

Ach und noch ein klein wenig Spekulation. Das Bandbreitenproblem wäre mit dem XBA der Bitboys doch ziemlich entschärft - und man hört immer wieder Gerüchte, dass Matrox so zurück ins 3D-Business kommen will...

Hang Loose

Legolas
2001-08-19, 23:32:03
Originally posted by Kai
Ich stimmt mac770 mal in sämtlichen Punkten zu ;)

BTW: Ich vermisse Glide sehr! Der "Glide-tot" war auch nur Hype - und sonst gar nix. Wenn ich mir Unreal heute in D3D anschaue ... :kotz:

Viele Aussenareale werden vollkommen falsch beleuchtet, Schatten stimmen nicht, usw. usw. ...

Ja das stimmt.. ich hab es auf einer TNT spielen müssen, und es war einfach grauenhaft *eg*. Aber als ich meine alte VooDoo1 reaktiviert hab, hatte ich wenigstens konstant 20 fps und konnte es ohne Probleme durchzoggen :D:D

Ach ja, Unreal 1 ist auf ner V5 in 1024*768 und 2*FSAA ein Traum :) Macht richtig Freude das nochmal durchzuzoggen

Matrix316
2001-08-20, 00:09:58
Originally posted by Exxtreme
@ Stefan Payne
Alles in allem Full ACK!
Ich denke auch, daß die HW heutzutage nach falschen Gesichts-
punkten getestet. Es zählen nur noch fps, 3D-Marks, Megabytes pro
Sekunde usw. Wie der Gesamteindruck ist, scheint egal zu sein.
[...]
3Dfx' FSAA ist damals nicht ernstgenommen worden, obwohl es
die Bildqualität deutlich angehoben hat. Man hat gesagt, daß
es in hohen Auflösungen eh' unwichtig ist. Dann hat man was mit
"3D-Marks" erwähnt und die V5 für mäßig erklärt.
Der Clou der V5 ist ja, daß das Bild in z.B. 800x600 genauso
gut aussieht wie in 1280x1024 ohne FSAA.

Ich hoffe, daß der Artikel, der übrigens gut ist, etwas
bewegt.


Gruß
Alex

1. Kauf dir eine Matrox G450. Da haste deine SUPERMEGATOLLE Qualität. Dass die meisten neuen Spiele unspielbar langsam werden, wer braucht schon FPS...eine Grafikkarte die zwar heute besseres Bild hat aber weniger FPS wird in Zukunft nicht mehr Geschwindigkeit dazubekommen und darauf kommts doch an, dass man was hat für die Zukunft. Eine Kyro 2 ist heute nicht schlecht, in ein paar Monaten aber wieder zu langsam.

2. FSAA braucht kein Mensch wenn man in 1280*1024 mehr Frames ohne FSAA als in 800*600 mit FSAA hat.

Legolas
2001-08-20, 00:15:38
Originally posted by Matrix316



2. FSAA braucht kein Mensch wenn man in 1280*1024 mehr Frames ohne FSAA als in 800*600 mit FSAA hat.



Ich glaub, du hast FSAA noch nie richtig in Aktion gesehn, und ich meine richtiges FSAA, als entweder V5 oder halt zur Not GF3, aber die hat 'nur' Multisampling, dafür aber nen anisotropischen Filter..

aths
2001-08-20, 01:28:03
Zur 3dfx-lastigkeit: Ich sehe die Entfernung von Aliasing-Effekten - subjektiv - als absolute bahnbrechende Neuerung. Bislang akzeptierte man halt das Geflimmer der Texturen, die Treppen, die flackernden Linien. Hätte nVidia hier eine vernünfige Lösung, hätte ich sie dafür bejubelt.

Zu S3: Ich dachte eigentlich, die S3TC-Entwicklung genügend gewürdigt zu haben - sogar mit Bild :)

Zum FSAA: Wer sagt, dass man kein FSAA braucht, hat es noch nicht gesehen oder einen Schaden am Monitor. Bei 1024x768 hat man deutlich mehr Hz als in 1600x1200. 1024x768 mit 2x FSAA (T-Buffer Lösung) sieht nicht nur besser aus als 1600x1200, sondern ist auch noch schneller. Das habe ich mit eigenen Augen gesehen, aber nirgendwo, weder im Internet noch in einem Printmedium, gelesen. (Also von wegen: Ich spiele mit 1600x1200, lasst mich mit FSAA in Ruhe!) Ich hoffe dass es nicht verwerflich ist, meine Ansichten in einem Artikel zur Diskussion zur stellen.

Unregistered
2001-08-20, 10:46:46
ich hab nichtsofiel technische erfahrung aber trozdem hat mier der atikel gut gefallen und mier auch endlich mal erklärt wie ich es schafte in MRk2000 mit AMD T&L auf meiner GF2 GTS schneller zu sein als mit T&L =) dachte damals immer meine karte ist im arsch oder so (das warn noch mit urlatreibernen aus ned desewen aufregen).

Also t&l ist sicher nicht so schlecht wie du es machst. Sicher umfangreiech Feuas die aber nicht dynamisch sind sind einfach nicht inteligent genauso wie die derzeiten pixel shader da die meinsewissens ert mit DX8 und der R200 relativ frei programierbar werden.

Ich bin auch dermeinug das die test´s in den meisten pubilkationen schlampig gemacht wurden. Aber zZ birngt es wirklich nichtmer fiel Spiele zu batchen die auf glide basieren da glide mal unumstritten tot ist und es auch siher nichtmer auferstehen wird auch wen es DX überlegen war(einfacher code und schneller). Klar könte man jetzt sagen das ich meir keien graka kaufe aufeden mache spiele schlechter laufen als auf meiner altena aber was bringt mier ne V5 wens dan doch wieder ruckelt ??. Ich habe einige freunde die sich gelcih nach dem reliese auf die V5 gestürtzt haben und jedre vonihne hat jetzt eine GF in seine rechner 3Dfx ist tot wer die V6 rausgekommen hätte es fielecht anders ausgsehen.

Eine ander frage die ich mier offt stelle für was wollem wier besser grafikqualitaät ???
jeder der Multiplayer spielt und eingermasen gut spielen will stelt doch die grafik dermasen runter das er besser sieht. Da weren low poly modes verwendet die genauso groß wie die hit zoon´s des gegners sind, texturen auf 16x16 begrenzt oder sogar das komplete tetur filtering deaktiviert das es wieder ausieht als sei es CPU Render und das ganze bild total überlichtet. alles im alle sieht es dan wier so aus wie vor 3Jahren als die ersten 3D beschluniger auf den markt kahmen. Bei solchen bildern frage ich mich warum ich jährlich tausende von DM ausgebe für neue HW. Klar alle die Singelplayer spielen intresiert das weniger aber der anteil an leuten die öfters multiplayer spiele spielen als SP steigt von targ zu tag.

Ach ja was mier da grad noch einfällt wo sind eigedlich die Curved Surfaces von Q3 gebliben neulich hab ich irgendwo mal gehörd das es noch kein HW geibt die es unterstützt.



By iwan / zu faul zumregistrieren und für richtige rechtschreibung

mac770
2001-08-20, 13:15:55
*Prost!

Unregistered
2001-08-20, 14:24:04
Da die MaxPayne benchmarkanleitung online ist, und das game T&L unterstützt poste ich meine ergebnisse grade mal hier.....sie zeigen was T&L mit richtiger unterstützung zustande bringen KANN.

Settings 1024x768x32, alles auf max nur "texture color depth" auf "16 bit".

P3-675/150 FSB, GF2MX @ 210/205 mhz, Win2k SP2, Det3 14.20.

Der erste wert ist mit Hardware T&L, der zweite Wert mit Software T&L.

PCGHW Scene 1:
19,0 FPS / 14,4 FPS

PCGHW Scene 2:
28,5 FPS / 18,5 FPS

Shoot Scene :
30,5 FPS / 27,5 FPS

Truck Scene :
31,6 FPS / 19,5 FPS

Soviel dazu....

Unregistered
2001-08-20, 14:34:22
Nja May Payne ist ned wirklich die vorzeige engine da das grungerüst zu MARK 2001 gleich ist. Auserdem werden wier diese engien nie wieder sehen weder in mods (ach wens gienge ) oder in andern spielen.


ach ja auserdem wurde in den arkile gesagt ein schnlle CPU kann T&L ersetzen und den ein lahmer P3 650 (im artikel stand 1,2GHz Athlon ). Hier ist es halt dan eine frage des ausgangsystems ob es sich rentiert oder nicht sich eine T&L karte zu leisten.

by iwan / immernoch zu faul zum registrieren

nggalai
2001-08-20, 16:01:06
Hi iwan,

nur kurz zwei Sachen:

a) die Modder-Szene hat sich mitlerweile mit MP angefreundet, und es werden in den nächsten Wochen/Monaten einige nette Sachen kommen, incl. Total Conversions. Ausserdem stehen die Chancen nicht schlecht, dass Remedy die Engine lizenzeren wird.

b) Die früheren Aussagen betreffend ">1GHz CPU ist in Max Payne gleichschnell wie hardware TnL" wurden mitlerweile komplett zurückgezogen: das gilt nur für Innenräume. In Aussenarealen ist man selbst auf 1.7GHz P4 und 1.4GHz Athlon noch immer deutlich lahmer als mit einer >GTS TnL Einheit.

ta,
.rb

Leonidas
2001-08-20, 21:11:15
Originally posted by Unregistered
Da die MaxPayne benchmarkanleitung online ist, und das game T&L unterstützt poste ich meine ergebnisse grade mal hier.....sie zeigen was T&L mit richtiger unterstützung zustande bringen KANN.

Settings 1024x768x32, alles auf max nur "texture color depth" auf "16 bit".

P3-675/150 FSB, GF2MX @ 210/205 mhz, Win2k SP2, Det3 14.20.

Der erste wert ist mit Hardware T&L, der zweite Wert mit Software T&L.

PCGHW Scene 1:
19,0 FPS / 14,4 FPS

PCGHW Scene 2:
28,5 FPS / 18,5 FPS

Shoot Scene :
30,5 FPS / 27,5 FPS

Truck Scene :
31,6 FPS / 19,5 FPS

Soviel dazu....


Dies ist zugegebenermaßen eine typische Sache, wo T&L was bringt: 650er CPU. Bei einem 1.4 GHz sind die Unterschiede wesentlich geringer.

mac770
2001-08-20, 21:26:27
erstens das und zweitens wird ein 1.4 GHz ohne HW T&L wesentlich fixer sein als ein 650er mit HW T&L.

Wozu mehr für HW T&L, dass einzelne 3DGames schneller macht bezahlen? Warum nicht weniger bezahler für einem fixeren Prozesser, der dem gesamten System zum Höhenflug verhilft?

Greetz,
mac770

Unregistered
2001-08-20, 22:34:09
Hi
Bin ein ziemlicher PC NUB und hab mich nicht mehr großartig mit der ganzen Materie auseinandergesetzt, seitdem ich Ende 99 meinen Athlon 600 und mittlerweile meine Voodoo 4 habe.

Ich muß zugeben, daß ich auf den Hype reingefallen bin, ich habe seit einem Jahr keine PC-Zeitschrift mehr gekauft und war mir trotzdem sicher, daß ich unbedingt eine "mehr-als-100-framez-bei-quake-3-mit-allen-details-bei-32-bit-und-1600-auflösung" Geforce 3 kaufen. der Hype hatte mich erwischt.
Ich spiele auch eher ältere Spiele und bin deswegen mit der V4 zufrieden (auch wenn sie ohne WickedGL bei Counter-Strike in harten Momenten nur 15 bis 20 frames liefert o_O). Ja, Unreal rulez mit der Karte... Komischerweise habe ich bei UT aber online immer weniger frames als offline, bei der gleichen Anzahl an Spielern/Bots...

Egal, Wollte nur kurz sagen, daß ich den Artikel ganz gut finde. Obwohl ich mit der ganzen Fachterminologie als NUB nichts anfangen kann, hinterläßt es doch einen Eindruck (wobei sich dann die Frage stellt, ob ich hier nicht der gleichen art Hype zum Opfer falle? Egal).

PS Was für ne Karte würdet ihr für einen Athlon 600 empfehlen, von einer V4 ausgehend?
Bis dann

JFZ
2001-08-20, 23:11:28
Originally posted by Unregistered
PS Was für ne Karte würdet ihr für einen Athlon 600 empfehlen, von einer V4 ausgehend?
Bis dann

Kyro 2 sollte einen schnelleren Prozessor haben, MX ist für eine Neuanschaffung nicht mehr zeitgemäß, GF3 (momentan)erste Wahl (bin mal gespannt auf die finalen Specs der neuen ATI) aber wohl zu teurer

=> GF2 Pro (wegen Signalqualität aber vom Markenhersteller)

StefanV
2001-08-20, 23:18:58
@JFZ

Und die Radeon??

mac770
2001-08-20, 23:23:18
Möglicherweise eine Geforce 2 GTS. Wenn du Spiele mit dem DX7 HW T&L spielen willst so wäre eine Grafikkarte mit solch einer HW T&L und dieser CPU sicherlich was feines.

Eine Geforce 3 wäre vielleicht nicht zum empfehlen, weil die CPU die Grafikkarte ausbremsen würde.

Du solltest dir aber vielleicht doch überlegen, eine neue CPU in deinem PC einzubauen und evtl. eine günstigere Grafikkarte als entsprechende Nvidiaprodukte mit HW T&L zu besorgen. Das hätte zwei wesentliche Vorteile:

1. Dein System wäre insgesamt leistungsfähiger.
2. Du würdest auch noch Geld sparen.

Wenn sich HW T&L in Spielen durchgesetzt hat, kannst du dir immer noch eine Geforce 8 oder wie auch immer die dann heissen wird, holen. Im Moment brauchst du das nicht.

Greetz,
mac770

Unregistered
2001-08-21, 00:05:07
Endlich mal eine ehrliche Aussage.

Warum habe ich mir nach dem T&L Flop wohl eine Kyro 2 gekauft ?

Gruß PCDMicha

http://www.wintotal.de

Unregistered
2001-08-21, 12:54:30
Originally posted by Leonidas

Dies ist zugegebenermaßen eine typische Sache, wo T&L was bringt: 650er CPU. Bei einem 1.4 GHz sind die Unterschiede wesentlich geringer.

p3 1000@1102 mhz
256 mb ram @ 147 mhz (2-2-2)
V7700 GTS 32 mb @ 220/366
WIN98SE, Det3 12.90

Settings 1024x768x32, alles auf max nur "texture color depth" auf "16 bit".

Der erste Wert ist mit Hardware T&L, der zweite Wert mit Software T&L.

PCGHW Scene 1:
27,2 FPS / 20,5 FPS

PCGHW Scene 2:
38,2 FPS / 26,1 FPS

Shoot Scene :
44,7 FPS / 44,1 FPS

Truck Scene :
46,2 FPS / 31,1 FPS

Soviel geringer sind die unterschiede nicht geworden.....sie klaffen immer noch fast 50% auseinander auf einer 1,1 Ghz CPU......selbst eine 2 Ghz CPU dürfte immer noch nicht schnell genug sein um einen break even zu erreichen.

MadManniMan
2001-08-21, 14:56:28
UND WENN MP DRAUS VORTEILE ZIEHT... na und?

ein einziges spiel! und dann nichmal multiplayer... von wegen dauerbrenner. habs mir kurz ausgeliehen, erst tiersten spaß gehabt, mich an der feinen athmosphäre erfreut... aber nach 8-9 stunden... ne. das wär keine 90,- wert. punkt. (lief übrigens auf meinem 933er duron mit k2 in 1024/32 alles high außer detailtextures sahne)

und nur für EIN spiel soll sich der ganze tärz gelohnt haben? nur für ein gottverdammtes singleplayer spiel mußte sich 3dfx aufkaufen lassen, nur weil sie nich auf blödsinn(toll 1 1/2 jahre nach der GF das erste spiel das richtig damit rennt...), sondern auf verbesserung(hat von euch einer schonmal UltimaIX in 1024 mit 4xfsaa in auf ner voodoo5gesehen... sahne!) gesetzt hat...

Unregistered
2001-08-21, 16:32:04
Ich fand den Artikel eigentlich ganz gut, vor allem mal Medienkritisch. Dass er meine 100% Zustimmung findet, kann ich nicht sagen, denn 32Bit finde ich ganz angenehm und der Sprung von meiner Voodoo 3 3000 auf die GeForce 256DDR war schon merklich. Aber die Zahlen mit denen die Käufer heute bombardiert werden sind wirklich größtenteils Luftblasen.
Das Problem ist, dass die meisten Käufer aufgrund mangelndem Wissens die Informationen nicht differenzieren und sich somit kein eigenes Bild schaffen können oder wollen. Jemand, der nicht weiß, dass das Auge nicht mehr als 25fps sehen kann wird immer die größte mögliche fps-Rate haben wollen.

Bevor man sich eine Karte kauft sollte man sich vielleicht
selbst fragen was man braucht und nicht das kauft was die
Medien meinen was man braucht.

Bei mir war das recht einfach. Schnell (weil auch schnelle CPU und 3D-Spiele), TV-Out, OpenGL (wegen 3DS-Max).

Wie gesagt der Sprung von Voodoo auf GeForce hat sich bei mir definitiv gelohnt.

so dann, hoffe bald wieder ein paar gute Artikel zu lesen,

..:::NETRiX:::...

Exxtreme
2001-08-21, 20:19:49
Originally posted by Unregistered
Ich fand den Artikel eigentlich ganz gut, vor allem mal Medienkritisch. Dass er meine 100% Zustimmung findet, kann ich nicht sagen, denn 32Bit finde ich ganz angenehm und der Sprung von meiner Voodoo 3 3000 auf die GeForce 256DDR war schon merklich. Aber die Zahlen mit denen die Käufer heute bombardiert werden sind wirklich größtenteils Luftblasen.
Das Problem ist, dass die meisten Käufer aufgrund mangelndem Wissens die Informationen nicht differenzieren und sich somit kein eigenes Bild schaffen können oder wollen. Jemand, der nicht weiß, dass das Auge nicht mehr als 25fps sehen kann wird immer die größte mögliche fps-Rate haben wollen.

Bevor man sich eine Karte kauft sollte man sich vielleicht
selbst fragen was man braucht und nicht das kauft was die
Medien meinen was man braucht.

Bei mir war das recht einfach. Schnell (weil auch schnelle CPU und 3D-Spiele), TV-Out, OpenGL (wegen 3DS-Max).

Wie gesagt der Sprung von Voodoo auf GeForce hat sich bei mir definitiv gelohnt.

so dann, hoffe bald wieder ein paar gute Artikel zu lesen,

..:::NETRiX:::...

Hallo.
Also, sicher ist, daß der Sprung von 16 auf 32 Bit Farbtiefe
HEUTZUTAGE sichtbar ist. Ich denke, daß der Autor den Zeitpunkt gemeint hat
als die Voodoo 3 rauskam. Und damals war der Unterschied marginal. Aber nVidia hat dies als Revolution abgefeiert.
Und dazu war der 32 Bit - Modus der damaligen TNT2 - Karten AFAIK nur bis 800x600 brauchbar.
Die Radeon war IMHO die erste GraKa, die den Begriff "32 Bit-Karte" verdient hat.
Zurück zu T&L, ich denke, daß es was bringt, wenn die Spiele dies richtig ausnutzen.
Das Problem ist, daß die meisten "T&L-Spiele" es nur unterstützen, aber kaum Nutzen daraus ziehen.

@ ..:::NETRiX:::...

Glaub mir eins, das mit dem 25 fps stimmt nur teilweise. Ich wette auch du siehst den Unterschied
zw. 30 fps und 60 fps. Wenn man es vergleicht, dann merkt man, daß 60 fps geschmeidiger und flüssiger laufen.
Und du hast bei 60 fps genug Reserven für anspruchsvollere Scenen.




Gruß
Alex

Unregistered
2001-08-21, 21:31:29
Der Artikel ist um zirka 12 Monate zu spät und zielt daneben. Heute erreichen Prozessoren 2 GHz, Logo bringt T&L heute bei einer GTS oder einer MX nicht mehr so viel. Wer aber vor einem Jahr eine GTS gekauft hat und damals vielleicht einen 500 - 600 MHZ Prozessor hatte, profitiert heute enorm von T&L -> siehe Max Payne.

Kai
2001-08-21, 21:41:32
Originally posted by MadManniMan der Rula

und nur für EIN spiel soll sich der ganze tärz gelohnt haben?

Ja klar ... seit Max Payne haben die Developer gleich sofort Titel wie:

Aliens vs. Predator 2
Halo
Return to Castle Wolfenstein
Medal of Honor: Allied Assault
Soldier of Fortune2: Double Helix
Unreal2
... und und und

abgesagt und sofort gecancelled, oder was?

Unregistered
2001-08-21, 21:44:38
Originally posted by Kai

Return to Castle Wolfenstein
Medal of Honor: Allied Assault
Soldier of Fortune2: Double Helix

abgesagt und sofort gecancelled, oder was?

Basieren AFAIK auf Q3 und sind wohl kaum Vorzeigespiele für T&L, oder?

ow
2001-08-21, 22:00:44
Originally posted by Exxtreme


Ich denke, daß der Autor den Zeitpunkt gemeint hat
als die Voodoo 3 rauskam. Und damals war der Unterschied marginal. Aber nVidia hat dies als Revolution abgefeiert.
Und dazu war der 32 Bit - Modus der damaligen TNT2 - Karten AFAIK nur bis 800x600 brauchbar.

Gruß
Alex


Wobei letzteres dann wohl wieder auf die heutige Zeit gemünzt ist. Also für damalige Verhältnisse war der 32Bit Modus von TNT/TNT2 durchaus brauchbar (i.a waren auch 19" Monitore nicht soweit verbreitet wie heute;)).


Nun ist 32Bit Rendering aber nicht von NVidia eingeführt worden. Das gab´s zuvor schon bei anderen, und auch dort wurde es beworben. 3dlabs, Ati, S3 .. hatten alle schon vor NVidia 32Bit Rendering.

MadManniMan
2001-08-21, 22:02:57
Originally posted by Kai


Aliens vs. Predator 2
Halo
Return to Castle Wolfenstein
Medal of Honor: Allied Assault
Soldier of Fortune2: Double Helix
Unreal2
... und und und

abgesagt und sofort gecancelled, oder was?

3 dieser titel basieren auf q3 und ALLE bisherigen q3-engine-derivate haben auf der non-TnL karte namens Kyro2 mit geiler performance rennen getutet

AvP2 ist wohl kaum ein spiel, was nich vernünftig ohne TnL laufen tut, dieses stelle ich nun einfach in den raum...

Halo sowie U2 erscheinen kaum in absehbarer zukunft und sind(u2 noch weniger als halo) somit für alles unter GTS zu starker tobak

außerdem meinte ich die bisher erschienenen spiele

StefanV
2001-08-21, 22:08:22
Originally posted by ow
Wobei letzteres dann wohl wieder auf die heutige Zeit gemünzt ist. Also für damalige Verhältnisse war der 32Bit Modus von TNT/TNT2 durchaus brauchbar (i.a waren auch 19" Monitore nicht soweit verbreitet wie heute;)).


Nun ist 32Bit Rendering aber nicht von NVidia eingeführt worden. Das gab´s zuvor schon bei anderen, und auch dort wurde es beworben. 3dlabs, Ati, S3 .. hatten alle schon vor NVidia 32Bit Rendering.

@ow

Die G200 hatte auch einen brauchbaren 32bit Modus*eg*...

Nur das die nicht so stark eingebrochen ist (bei 32bit konnte sie erstaunlicherweise den Abstand zur TNT verküruzen)...

Welche Chips hatten denn schon 32bit Rendering??

Der Permedia??
ATI Rage Pro?
S3 Virge?

Das der PowerVR das konnte, das weiß ich ja mittlererweile...

Frank
2001-08-21, 23:05:14
Also auf der M3d (Power VR) bei mir läuft nur 16bit Stefan!

ow
2001-08-22, 11:37:45
Originally posted by Stefan Payne


@ow

Die G200 hatte auch einen brauchbaren 32bit Modus*eg*...

Nur das die nicht so stark eingebrochen ist (bei 32bit konnte sie erstaunlicherweise den Abstand zur TNT verküruzen)...

Welche Chips hatten denn schon 32bit Rendering??

Der Permedia??
ATI Rage Pro?
S3 Virge?

Das der PowerVR das konnte, das weiß ich ja mittlererweile...


Wenn ich mich recht erinnere, kam die G200 aber ein Stueck spaeter als die TNT auf den Markt. Brauchbar fuer 32Bit war sie.

Permedia 1/2/NT als Ableger der Profi-Klasse (->Glint MX) unterstuetzten 32Bit FB (aber nur 16Bit Z, bzw. 15Bit Z+1 Bit Stencil), den 16Bit (eigentlich nur 15Bit) Modus dieser Karten kannst du vergessen, derartiges Dithering hat wohl noch keiner zuvor gesehen, absolut unbrauchbar.

Die Rage 2/2c/Pro/Turbo.... (gab es jemals soviel ueberfluessige Chips wie von dieser ATi Reihe;)) also alles auf dem ATi Mach64 Grafikcore basiert kann in 32Bit oder 24 Bit rendern.

Der S3 Virge rendert in 24Bit Farbtiefe.

Legolas
2001-08-22, 12:38:14
Der G200 kam, soviel ich mich erinnern kann, ein paar Monate vor dem TNT.

ow
2001-08-22, 13:05:54
Da differieren unsere Erinnerungen:)

Aber vielleicht weiss ja sonst jemand es genau.....

...STEFAN u.a., wir warten...;)

Unregistered
2001-08-22, 14:50:23
Ich erinnere mich an die Zeit der Nvidia TNT, wo in jedem Test die höhere Texturauflösung und 32 Bit-Fähigkeit, sowie das AGP-Texturing gepriesen wurden und alle meine Freunde mir mit ihren 3fps Standbildorgien beweisen wollten, was True Color für ein riesen Vorteil gegenüber der Voodoo sei.
Noch heute erzählen mir Leute, sie seien froh keine V5 gekauft zu haben, weil die könne ja kein Truecolor.
Ganz zu schweigen von Leuten, die Spiele immer in 32Bit spielen, weil in "den" Zeitschriften steht, das sei so viel besser.
Die Marketingmaschinerie von Nvidia hat wunderbar funktioniert. Da kann ich nur den Hut vor Nvidia ziehen.
Schließlich sind wir selber Schuld, wenn wir drauf reinfallen, und 3dfx, wenn sie nicht angemessen reagieren können.

StefanV
2001-08-22, 18:33:37
Originally posted by ow
Da differieren unsere Erinnerungen:)

Aber vielleicht weiss ja sonst jemand es genau.....

...STEFAN u.a., wir warten...;)

Die G200 WAR MAL die SCHNELLST 3D Kombi Karte...

Für ca. 1 Monat (dann kam die TNT)*eg*...

PS: Seltsamerweise hab ich mit der (Mystique) G200 beim GS Bench MEHR FPS als mit der TNT gehabt...

PS2: Die G200 war die Karte, bei der man den Regler für die Taktfrequenz von PS auf Anschlag rechts hatte und sich gewundert hat, daß sie immer noch läuft...

Nochetwas:

Die G200 hat ja ein 64bit SDRAM/SGRAM interface, die TNT ja ein 128bit Interface...

Theoretisch müßte die G200 beim wechsel auf dem 32bit Modus tierisch 'wegsacken'...

Praktisch bricht aber die TNT viel stärker als die G200 ein...

Die G200 hat ca, 4-5fps verloren, die TNT ca. 10-15...
Bei 32bit war die G200 der TNT recht dicht auf den Fersen...

ow
2001-08-22, 19:24:17
Originally posted by Stefan Payne


Die G200 hat ca, 4-5fps verloren, die TNT ca. 10-15...
Bei 32bit war die G200 der TNT recht dicht auf den Fersen...


Womit gemessen?? Oder meinst du,das wäre eine allgemeingültige Aussage.

Meine TNT verliert zwischen 6x4x16 und 8x6x32 unter Q3 noch keine 2 fps, gemessen auf K6-2 400.

Unregistered
2001-08-22, 19:28:46
Hi Leute
Was wollt ihr eigentlich alle von Max Payne?
Das Game lief auf meinem 700Athlon Classic mit Voodoo5 in 16Bit alles auf high Aufl.1024*768 vollkommen flüssig.Auch in den Aussenarealen.Alles ohne T&L.
Gruss
Stefan

StefanV
2001-08-22, 19:45:36
Originally posted by ow
Womit gemessen?? Oder meinst du,das wäre eine allgemeingültige Aussage.

Meine TNT verliert zwischen 6x4x16 und 8x6x32 unter Q3 noch keine 2 fps, gemessen auf K6-2 400.

War ein recht alter Test...

Hab ich auch nicht selbst getan, war ein Test in der c't...

Ich glaube ich hab dieses Heftchen auf'm Örtchen liegen...

Beim nächsten Mal schau ich mal nach;)...

Glaub das war Incoming...

ow
2001-08-22, 20:09:56
Originally posted by Stefan Payne


War ein recht alter Test...

Hab ich auch nicht selbst getan, war ein Test in der c't...

Ich glaube ich hab dieses Heftchen auf'm Örtchen liegen...

Beim nächsten Mal schau ich mal nach;)...

Glaub das war Incoming...


Meinst du vielleicht TNT2 gg. G400, da kenne ich auch einen CT Test mit Incoming, Q2, 3DMark99?,...irgendwann vor 2,5 Jahren...

StefanV
2001-08-22, 20:56:06
Originally posted by ow
Meinst du vielleicht TNT2 gg. G400, da kenne ich auch einen CT Test mit Incoming, Q2, 3DMark99?,...irgendwann vor 2,5 Jahren...

Nein, war entweder eine 99er oder 98er Ausgabe...

Ich schau mal morgen nach...

Unregistered
2001-08-22, 21:23:12
Originally posted by ow

Wenn ich mich recht erinnere, kam die G200 aber ein Stueck spaeter als die TNT auf den Markt. Brauchbar fuer 32Bit war sie.

Falsch erinnert. Die G200 kam kurz nach Riva128 (nicht ZX) und stampfte diesen in den Boden.

StefanV
2001-08-22, 22:20:58
Originally posted by Unregistered
Falsch erinnert. Die G200 kam kurz nach Riva128 (nicht ZX) und stampfte diesen in den Boden.

NEIN, die G200 hat Matrox kurz vor der TNT auf den Markt gebracht...

Die NV3 war langezeit alleine...

Die G200 müßte im April '98 das Licht erblickt haben...

Die TNT halt kurz darauf...

Unregistered
2001-08-22, 23:26:44
Ja, sorry, das mit dem Riva128 stimmt nicht (den gab es schon '97), der G200 kam gleichzeitig mit dem Riva128 ZX.

Für jene, die es genau wissen wollen:

TNT wurde im März 1998 angekündigt, die ersten Karten gab es 6 Monate später im September 1998.

http://www.diamondmm.de/ger/press/releases/1998/980821_2.htm

Empfohlener Verkaufspreis für dieses Highend-Kärtchen war übrigens lediglich 439 Mark! <staun>

Die G200, angekündigt am 1. Mai 1998, kam bereits im Juli 1998, also 2 Monate vor dem TNT.

http://209.235.31.227/spectrum/issues/spectrum-jul-27-98.cfm#GRAPHICALLY%20SPEAKING

StefanV
2001-08-23, 09:13:29
EVK der G200: 379DM

ow
2001-08-23, 19:11:41
Originally posted by Stefan Payne


Nein, war entweder eine 99er oder 98er Ausgabe...

Ich schau mal morgen nach...


Hast du da ein gut sortiertes Archiv/Inhaltsverzeichnis??
Ich glaub ich finde nie mehr was in meinen CTs *heul*

StefanV
2001-08-23, 19:36:33
Originally posted by ow
Hast du da ein gut sortiertes Archiv/Inhaltsverzeichnis??
Ich glaub ich finde nie mehr was in meinen CTs *heul*

20/98, s.114-123

StefanV
2001-08-23, 19:47:59
Genaugenimmen s.122 Bild links Unten.

D3D Leistung bei Incoming.

Mil G200 36/33
Viper V500 76/48

ow
2001-08-23, 20:09:35
Originally posted by Stefan Payne
Genaugenimmen s.122 Bild links Unten.

D3D Leistung bei Incoming.

Mil G200 36/33
Viper V500 76/48

Das zeigt doch nur, wie schlecht die 16Bit Leistung der G200 ist ;)

Frank
2001-08-23, 20:48:15
Das die G200 nicht so stark einbricht, liegt an der Architektur Stefan! Die G200 hat einen 128bit Dualbus (G400: 256bit Dualbus)...

Ähnlich Techniken hatte auch der Ticket to Ride um der Bandbreitenanforderung in 32bit gerecht zu werden!!

StefanV
2001-08-23, 21:35:37
Originally posted by Frank
Das die G200 nicht so stark einbricht, liegt an der Architektur Stefan! Die G200 hat einen 128bit Dualbus (G400: 256bit Dualbus)...

Ähnlich Techniken hatte auch der Ticket to Ride um der Bandbreitenanforderung in 32bit gerecht zu werden!!

Ich weiß, das die G200 schin diese Dualbus Architektur hat...

Aber gleichzeitig Lesen/Schreiben kann die G200/G400 auch leider nicht...

PS: Ich finde es richtig schade, das VRAM/WRAM nicht weiterentwickelt wurde...

Heute hätte das SEHR GROSSE Vorteile...

Unregistered
2001-08-24, 14:00:07
Unterstützt die 3D Prophet 4500 T&L (Transform & Lighting)?

Ja, die 3D Prophet 4500 unterstützt T&L software-seitig.



Unterstützt die 3D Prophet 4500 T&L in allen Spielen?

Ja, die 3D Prophet 4500 unterstützt T&L in allen Spielen.



sorry aber was soll das bedeuten?? unterstützt die KyroII T&L oder nicht???


Mastaaa

nggalai
2001-08-24, 14:07:07
Die Kyro unterstützt selbstverständlich TnL--nur nicht in hardware.

:D

noch mehr verwirrt?

ta,
.rb

ow
2001-08-24, 15:23:34
Originally posted by nggalai
Die Kyro unterstützt selbstverständlich TnL--nur nicht in hardware.

:D

noch mehr verwirrt?

ta,
.rb

Hehe:)

Im allgemeinen Sprachgebrauch meint "Der Chip unterstuetzt Feature X", dass Feature X vom Chip in Hardware durchgefuehrt wird.

Ansonsten: Jede CPU unterstuetzt derzeit T&L, 9xFSAA, 64tap anisotropic,..... ist alles im (SW) Referenzrasterizer von D3D implementiert:D

aths
2001-08-25, 02:10:11
D3D behauptet bei mir ebenfalls, dass meine Karte "D3D Hardware Transform and Lighting" beherrscht. Aber diese "HW"-Unit wird lediglich vom Treiber emuliert.

Unregistered
2001-08-26, 12:56:56
Wo liegt denn dann der vorteil bei T&L hardwareseitig????

Kai
2001-08-26, 13:03:21
Wenn T&L Hardwareseitig implementiert wurde, muss die CPU die T&L-Rechnungen nicht übernehmen, sondern das macht der Grafikprozessor. Du entlastest mit Hardware-T&L also deinen Prozessor und überlässt ihm mehr Ressourcen.

aths
2001-08-26, 18:20:49
Kai:

"Wenn T&L Hardwareseitig implementiert wurde, muss die CPU die T&L-Rechnungen nicht übernehmen, sondern das macht der Grafikprozessor."

Natürlich nur dann, wenn das Spiel dafür vorgesehen ist. Ansonsten bleibt es CPU-Arbeit. Auch wird in der Praxis meistens nur T, nur sehr, sehr slten auch L übernommen.

Unregistered
2001-08-26, 22:02:55
Natürlich aths ist es so, dass T vor L gebraucht wird. Bei der heutigen L-Leistung sprich nur 6 L, ist es klar, dass sie lieber das plus an T nehmen. Denn jedes L vermindert die Ressourcen der T&L Unit für das T. Sprich die Frames sinken dramatisch bei 2+ Lights.

Unregistered
2001-08-27, 12:24:37
ja und was soll ich mir nun für ein graka kaufen ????

3dfx gibbet ja net mehr (hatte die besten lichter in u1)

würde mir ja ne radeon 2 kaufen habe aber nun den artikel gelesen undbin weiterhin verunsichert

zu zeit nutze ich *schäm* ne tnt2pro aber wie gesagt ist diese mir zu langsam lohnt es sich noch ne V5 zukaufen
oder wie oda was ich habe keine ahnung da ich viel wert auf optik legen fps sind mit sozusagen egal sollange es flüßig läuft 35 fps reichen meines erachtens aus

bitt gebt mir ratschläge DANKE

Thowe
2001-08-27, 12:52:55
Da schau mal in Graka Forum, die Frage taucht häufiger auf, ansonsten noch mal dort stellen.

Kai
2001-08-27, 14:17:08
Originally posted by MadManniMan der Rula


3 dieser titel basieren auf q3 und ALLE bisherigen q3-engine-derivate haben auf der non-TnL karte namens Kyro2 mit geiler performance rennen getutet

AvP2 ist wohl kaum ein spiel, was nich vernünftig ohne TnL laufen tut, dieses stelle ich nun einfach in den raum...

Halo sowie U2 erscheinen kaum in absehbarer zukunft und sind(u2 noch weniger als halo) somit für alles unter GTS zu starker tobak

außerdem meinte ich die bisher erschienenen spiele

Unreal2 - Januar,
Halo - März ...

Legolas
2001-08-27, 14:47:58
U2 im Januar? Wenn des das nur halb so lange verschieben wie Teil 1, dann kommts irgendwann Ende 2002 :D:D

nggalai
2001-08-27, 16:23:30
Halo wird auf PC wohl noch ein halbes Jahr länger auf sich warten lassen (frühestens Sept. 2002 schätze ich); Gerüchten zu Folge hat Microsoft die PC-Version sogar gestoppt, um eine Killerapp für die X-Box zu haben.

ta,
.rb

Unregistered
2001-08-27, 18:42:36
Originally posted by Unregistered
Ähm.....also ich bin der meinung das T&L bei schwacher CPU eine ganze Menge bringt.....nicht jeder hat eine Kochplatte namens Athlon 1,2 Ghz bei sich rumstehen.

Black & White und MaxPayne sind 2 spiele die von T&L gebrauch machen. Ich habe einen P3-600EB mit einer GF2MX @ 210/210 mhz. MaxPayne läuft mit HW T&L anstatt software T&L satte 40% schneller.......auch B&W läuft subjektiv flüssiger (hat das teil ne benchmark funktion drin?)......

Ich hab hier mal ein paar werte aus MaxPayne aus der Hafensniperszene:

P3-300/66 FSB:
SW T&L: <10 FPS
HW T&L: 14 FPS

P3-450/100 FSB:
SW T&L: 13 FPS
HW T&L: 19 FPS

P3-600/133 FSB:
HW T&L: 25 FPS
SW T&L: 18 FPS

P3-675/150 FSB:
HW T&L: 28 FPS
SW T&L: 20 FPS

Mal abgesehen davon....in dem artikel wird eine GF2MX 200 erwähnt.....dass das teil durch seine speicherbandbreite verkrüppelt ist war doch wohl schon vorher klar.....



Du beschränkter Trottel. Ich habe einen schlappen, alten Duron 800 MHZ mit einer Hercules 4500 (Kyro II). Und ich spiele trotz mit ohne T&L :D in 1024x768@32 Bit geglättet von 2xFSAA. Na, was sagst du jetzt? HSR bringt aus meiner Sicht mehr als T&L... Und überhaupt: besseres Signal, sehr tolle Geschwindigkeit trotz behinderter CPU (fliegt eh raus, kommt ein 1,4 rein), cooles Design, etc....


MfG

Ich

Unregistered
2001-08-27, 19:06:23
Blablabla. Wozu brauche ich T&L wenn ich eine starke CPU und HSR habe??? Da kann der 1,4 GHZ Athlon gleich ein paar schleifen mehr drehen, ist ja weniger zu tun. Und, warum sind NVidia Karten bis heute nicht DER 32 BIT überflieger. Wenn 32 BIT, dann bitte ohne Performanceeinbruch. Und all diese Sachen liefert mir ein 300 DM teurer High-End Prozessor, ein 170 DM Billigboard mit ´ner Kyro II. Gott sei dank, ich bin damals auch dumm gewesen. Riva 128 ist Schrott gewesen, meine TNT ist für den Arsch gewesen genauso wie meine Geforce DDR damals. Auch die Intelreihe, mit der ich eine zeitlang teurer mitfuhr, ist verarsche gewesen. Mittlerweile sitze ich als EX-Intel und NVidia User im AMD-Kyro Lager. Nix hype, einfach nur Firmen die sinnvolle, PREISWERTE Produkte abliefern. 3dfx Ruhe in Frieden, ich hatte alle Karten außer der V4 und der Voodoo Rush. Amen.


MfG

Ich



Mail me: daskriterium@gmx.de

MadManniMan
2003-04-27, 15:22:19
:|

laut email-benachrichtigung sollte hier jetzt ne antwort von SP stehen

StefanV
2003-04-27, 15:33:12
Originally posted by MadManniMan
:|

laut email-benachrichtigung sollte hier jetzt ne antwort von SP stehen

nicht nur das :)

AUch eine Antwort von Korak und Zeckensack :)

Letzterer hat meine Postings (mit meinem Einverständnis) getrasht, da er diese 'Forumsleiche' schmoren lassen will...

PS: hm, ich bin noch am überlegen, ob ich die Moderatoren 'ärgern' soll :naughty:

Gibt noch 'ne Menge Threads, die in falschen Foren 'rumgeistern' *eg*

Mr. Lolman
2003-04-27, 18:14:21
Ist zwar schon längst nicht mehr von Belangen, aber heute sah ich (beim Rechner von meinem Bruder) meine alte Voodoo5 wieder im 4xAA Einsatz, bei Carmageddon 2 in 640x480. Ich muss sagen, dass die BQ deutlich besser ist, als beim Gammakorrekten 4xAA der Radeon.

Hat irgendjemand von euch schon mal Unreal auf einer Voodoo5 in 1024x768x22, 4xAA gespielt. Das war eine fette BQ. Eine Geforce GTS in 1024x768x32, 4xAA wäre langsamer und schlechter aussehen würde es auch. Jaja, damals war BQ wurscht, und viele Fach:lol:zeitschriften, waren total beeindruckt vom T&L der Geforce 2 Karten. Geiler 3dmark, toller Max Payne Bench. Und bei Q3A auch noch schneller. Super Karte so eine GTS.

========================

Wenn man bei damaligen Spielen auf Basis ähnlicher BQ gebencht hätte dan wären folgende Settings angebracht geewesen:

Voodoo5: 22bit(reichte damals) , 2xAA
Geforce2GTS: 32bit(16bit sahen nicht so toll aus), 4xS AA.

Welche Karte hätte da gewonnen? (Und dann noch den WickedGl Treiber und schon hatte man auch noch super Speed - Ich spielte auf meiner V5 MOHAA und RTCW in 1024x768x22, 2xAA)

=========================

Das dissen von 3dfx fing ja schon bei der Voodoo3 an. Kein 32bit. Keine grösseren Texturen als 256^2. Warum schimpft denn jetzt keiner auf NV, dass die Pixelshader 2.0 Perfomance unter aller Sau ist? Weils keinem interessiert. Braucht man doch nicht den 2.0er Shader.

Damals brauchte man kein 32bit (war sowieso zu langsam, in allen Zeitschriften wurde empfohlen auf den tollen 32bit Geforce Karten den 16bit Modus zu nehmen weil er schneller sei)
2 Texturen gibts bei Q3A die höher als 256^2 Pixel aufgelöst sind. (Wusste man anscheinend damals nicht, weil ich in Zeitschriften nirgendwo Screenshots sah von der schlechten Texturauflösung der V3, aber trotzdem wars scheisse -> wegen Zukunftssicherheit undso) Das die T&L Einheit der GF1 bald ein bremsender Faktor werden würde wusste man trotz der Besorgnis um die Zukunft auch nicht.

Und als 3dfx vn NV geschluckt wurde waren auch (fast) alle glücklich. Super, 2 tolle Technologien werden im nächsten Grafikchip vereint. HAHAHA, so ein sh1c3. Wo sind die tollen 3dfx Technologien. Das V5 2xAA ist insgesamt vergleichbar mit dem 4xS der GFFX Karten, welches genauso (wie früher bei der V5) der einzig vernünftig nutzbare Modus (auf GFFX Karten) ist. Was hat sich getan hinsichtlich der BQ. Nichts, ausser das es gefakte, endlos lahme 16xModi, mit irgendwelchen Störmustern bei bestimmten Winkel, gibt.

(Ja, ich weiss, dass 3dfx zum Grossteil selbst schuld an der Misere war, aber die sogenannten Fachzeitschriften taten ihr übriges :madman: )

Pussycat
2003-04-27, 20:21:44
Man muss die Reaktionen von 'fach'zeitschriften und Kunden halt mitrechnen. Mit guter Hardware verdient man leider nicht von alleine Geld.

Muh-sagt-die-Kuh
2003-04-27, 20:52:38
Was ein uralter Thread...lustig ist daran nur, dass ich einen meiner alten Posts als Unreg wiedergefunden habe ;)

ZilD
2003-04-28, 02:00:08
signalqualität und bildqualität etc. ... die damaligen GTS & co. karten waren doch zum spielen gedacht und nicht wirklich als 2D karten für 21" monitore.

hatte damals auch einen 17" moni und da reichte mir meine elsa gladiac vollkommen.
geniale karte aufjedenfall.

wenn man spiele für den pc richtig produzieren würde (metroid prime @ gamecube), müssten wir nicht jedes jahr neue direct x versionen und was weis ich was für entwicklungen mitmachen.
der gamecube kostet 200€!!
leistungsmässig gerechnet vs. pc hardware (1000€+), müssten pc zocker doch eigentlich schon grafiken ala final fantasy (der film) in echtzeit bestaunen können.
und was ist los ?
klar es gibt super tolle grafische spiele, aber 90% von den games die rauskommen sehen irgendwie noch immer so aus wie damals (UT und co.)

aths
2003-05-11, 22:20:38
Originally posted by Unregistered
Ich auch. Aber die wichtigsten Fragen sind :

Wird sich das Ganze mit DX-8 Shadern wiederholen ?Ja :( :D :(

MadManniMan
2003-08-05, 02:21:37
Original geschrieben von Kai
Unreal2 - Januar,
Halo - März ...

Sorry for Ausgrabing, aber das hier mußte ich in meinem Nostalgiewahn einfach nochmal quoten...

:lol:

...und nicht vergessen: er meinte 2002! ;)