PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV25 Benchmarks..... lächerlich!!


Seiten : [1] 2

nagus
2002-01-11, 09:17:19
1600x1200x32bpp 4XFSAA ... 110FPS ..... da muß ich lachen! wer das glaubt, der hat ne schreube locker!


kann mal jemand ausrechnen, welche bandbreite notwendig ist um das zu realisieren?

zum verleich: meine 8500 @ 300/320 (!!) hat bei quake3 1600x1200x32bpp und 2XFSAA(! nicht 4X!) ( LEistung ) knappe 38FPS


kann mal jemand eine normale geforce 3 ti500 auf diesen einstellungen benchen??


eure meinung bitte. das sind wiedermal typisch schwachsinnige gerüchte. sowas trau ich nichteinmal dem glaze oder der kyro3 zu


mfg, nagus

Ceiser Söze
2002-01-11, 09:49:22
Man bräuchte allein schon 3,3Gbyte/sec Bandbreite für die Framebuffer-Zugriffe - vorausgesetzt, die frühen Z-Checks eliminieren jeglichen Overdraw (was natürlich nie der Fall ist). Kompletter Schwachsinn...

Micron
2002-01-11, 10:00:44
Originally posted by nagus
1600x1200x32bpp 4XFSAA ... 110FPS ..... da muß ich lachen! wer das glaubt, der hat ne schreube locker!


kann mal jemand ausrechnen, welche bandbreite notwendig ist um das zu realisieren?

zum verleich: meine 8500 @ 300/320 (!!) hat bei quake3 1600x1200x32bpp und 2XFSAA(! nicht 4X!) ( LEistung ) knappe 38FPS


kann mal jemand eine normale geforce 3 ti500 auf diesen einstellungen benchen??


eure meinung bitte. das sind wiedermal typisch schwachsinnige gerüchte. sowas trau ich nichteinmal dem glaze oder der kyro3 zu


mfg, nagus

Dann würde ich mal gerne sehen wieviel der bei 1024*768*32 678Fps oder was??? Der das Erzählt labbert Dünnschiss. Sorry is aber so

[dzp]Viper
2002-01-11, 10:12:40
hmm also 110 FPS in 1600x1024 ... mit 4 fsaa .. niemals *g* die benchmarks errinnern mich sehr an den scherz von der Spanischen site zum avalanche ..... *g* .... allso hung und betrug :)

nagus
2002-01-11, 10:41:56
Originally posted by [dzp]Viper
hmm also 110 FPS in 1600x1024 ... mit 4 fsaa .. niemals *g* die benchmarks errinnern mich sehr an den scherz von der Spanischen site zum avalanche ..... *g* ... allso hung und betrug :)


meine rede...

eine andere möglichkeit wäre, dass bei dieser hohen auflösung das 4xFSAA kein echtes 4xFSAA ist, sondern eintweder automatisch deaktiviert ist, oder eine sehr sehr einfache version eingeschaltet ist ( z.b 1,5x edge-FSAA oder sowas ) aber selbst dass wäre noch zu rechenintensiv glaub ich...

ich meine, eine R8500 ist nicht gerade langsam und bei 1600 2XFSAA leistung "nur" 38 fps... da müßte ja die NV25 ca. 3 oder 4X so schnell sein. und nach all dem, was derzeit so über die NV25 durchgesickert ist, handelt es sich nur um eine stick normale Geforce 3 + 2. vertex einheit und etwas höherer takrate...

my guess: die NV25 ist ca. 10-20% (bestenfalls) schneller als eine TI500.

bei der Geforce 3 wars ja eh das gleiche. von Nvidia hats da geheiße, die Geforce 3 ist 7 (!!) mal schneller als ne Geforce 2 Ultra.... vieleicht mit den neuen "Magic Detonator" mit alien-technologie ;)))

ow
2002-01-11, 11:59:23
Originally posted by nagus


. von Nvidia hats da geheiße, die Geforce 3 ist 7 (!!) mal schneller als ne Geforce 2 Ultra.... vieleicht mit den neuen "Magic Detonator" mit alien-technologie ;)))


Wenn ich mich recht erinnere hiess es '... bis zu 7 mal schneller'.
Und das ist Tatsache. Je nach genutzter Grafiukfunktion halte ich das sogar noch fuer recht wenig. Bis zu 20x sind sicher drin.

Labberlippe
2002-01-11, 13:14:22
Habe ich was verpasst?
Wo sind diese Werte aufgeführt?

gruss Labberlippe

nagus
2002-01-11, 13:34:52
Originally posted by ow


Bis zu 20x sind sicher drin.



aber sonst gehts dir schon noch gut, oder? zeig mir bitte eine spiel , wo die geforce 3 20x schneller ist , als ne ultra!


grüZe
nagus

Micron
2002-01-11, 13:58:21
GeForce 3 20x schneller als ne Ultra :lol: der war echt gut . Nein jetzt mal im Ernst alles was neu ist wird als super neue Welterfindung feiert. Ich meine NV will ja séinen scheiß auf an den Mann bringen und da schreib man ja nicht ist 2x so schnell wie der Vorgänger. Also alles nur Marketing. Aber der mit dem 20x schneller war gut der muss ich mir merken .

Kai
2002-01-11, 14:13:00
ey ey ey - sachlich bleiben und nicht rumspammen. Ich verschieb den Thread mal ins richtige Forum.

ow
2002-01-11, 16:39:10
Originally posted by nagus




aber sonst gehts dir schon noch gut, oder? zeig mir bitte eine spiel , wo die geforce 3 20x schneller ist , als ne ultra!


grüZe
nagus


Zeig mir, wo in meinem Posting von Spielen die Rede ist.

Piffan
2002-01-11, 16:39:20
Ich habt doch keinen blassen Schimmer! NATÜRLICH ist 20 fach viel zu niedrig angesetzt.....
Denn wenn eine Graka ein Feature kann, welches der Vorgänger nur in Software emulieren kann, dann stimmt der Faktor wohl dicke...

Wenn ein völlig neues Feature kommt, daß die ältere Graka überhaupt nicht beherrscht, dann ist der Faktor weit höher als 20, geht so gegen unendlich ;-)

Ich weiß gar nicht, warum alle so maulen. Als die Bitboys laberten, sagten fast alle "Wow".... Warum darf Nvidia nicht auch trommeln? Zumal sie es im Moment bitter nötig haben, wo doch Ati so richtig ungemütlich geworden ist.....;-)

Jetzt mal was ernstgemeintes: Der harte Kampf zwischen Nvida und Ati wird sicher noch härter, hoffentlich pfuscht Nvidia jetzt nicht zu doll an den neuen Treibern rum.... Der Deto 23.11 setzt ein schlechtes Zeichen!

ow
2002-01-11, 16:42:00
Originally posted by Piffan
Ich habt doch keinen blassen Schimmer! NATÜRLICH ist 20 fach viel zu niedrig angesetzt.....
Denn wenn eine Graka ein Feature kann, welches der Vorgänger nur in Software emulieren kann, dann stimmt der Faktor wohl dicke...

Wenn ein völlig neues Feature kommt, daß die ältere Graka überhaupt nicht beherrscht, dann ist der Faktor weit höher als 20, geht so gegen unendlich ;-)

Ich weiß gar nicht, warum alle so maulen. Als die Bitboys laberten, sagten fast alle "Wow".... Warum darf Nvidia nicht auch trommeln? Zumal sie es im Moment bitter nötig haben, wo doch Ati so richtig ungemütlich geworden ist.....;-)

Jetzt mal was ernstgemeintes: Der harte Kampf zwischen Nvida und Ati wird sicher noch härter, hoffentlich pfuscht Nvidia jetzt nicht zu doll an den neuen Treibern rum.... Der Deto 23.11 setzt ein schlechtes Zeichen!


Thx Piffan;)

Wenigstens du hast es verstanden.

Ceiser Söze
2002-01-11, 16:42:33
Momentan darf nVidia v.A. nicht mit den OEMs rumpfuschen, sonst wird es bald mal ungemütlich ;)

ow
2002-01-11, 16:44:18
@ Nagus


Wo hast du denn die Benchmark-Werte her?
Quellangabe bitte.


Oder willst du nur flamen?
Kann ich auch.

Hab gehoert die neue Ati bringt 200fps bei 2048x1536x32 mit 16xFSAA.

Unregistered
2002-01-11, 19:06:31
Originally posted by ow
@ Nagus


Wo hast du denn die Benchmark-Werte her?
Quellangabe bitte.


Oder willst du nur flamen?
Kann ich auch.

Hab gehoert die neue Ati bringt 200fps bei 2048x1536x32 mit 16xFSAA.

Ne auf MadOnion hat einer im Forum angeblich eine solche Karte bessesen *bfg*

Unter http://www.tommti-systems.de/start.html ist der Link zum Forum.

Hier ein Auszug.I've been testing the nv25 for about 3 weeks now and i can only say this---this card rocks. I ran the Q3 demo @ 1600x1200x32bpp with 4xFSAA and EVERYTHING and i mean EVERYTHING maxed out to the highest level and still got, get this 110FPS. Wow this card blows away anything on the market. 3DM2001 on the crush11 chipset(AMD XP1500+128MB) with the GF4 score was 9283 without ne overclocking. Would be very ez to get 11000 with the XP2000 and some serious OC'ing.


Gruss Labberlippe

smallB
2002-01-11, 19:56:14
muhaha 110fps? Wer schaltet bei 1600x1200 noch AA an? Das ist doch krank, glaube es nicht, wenn ich es nicht gesehen habe

Leonidas
2002-01-11, 21:59:52
Also man muß erstmal anmerken, daß das ein Newbie im MadOnion-Forum war, der das von sich gegeben hat. Trau niemals Newbie-Postings.
http://discuss.madonion.com/forum/showthreaded.pl?Cat=&Board=techdisplayadapters&Number=287919&page=&view=&sb=&o=&vc=1#Post287919



Allerdings ist es nicht vollkommen unmöglich. Eine GF3 Ti500 schafft ca. 110 fps in dieser Auflösung - ohne FSAA. Mittels 300 MHz sollten also 130 fps möglich sein - höherer Speichertakt rullt nun einmal unter 16x12. Hier nicht eingerechent sind eventuelle Verbesserungen an der Ausnutzung der Bandbreite.

Die Frage ist also: Ist eine 4xFSAA Art möglich, welche nur 20% Leistung verliert? Sehr unwahrscheinlich - aber nicht gänzlich unmöglich. Immerhin wird der NV25 definitiv eine neue FSAA-Art mitbringen und FSAA scheint zudem das einzige Thema zu sein, mit welchem man den NV25 vom NV20 abheben kann - 50 MHz mehr Takt bringen es nicht und der zweite Vertex Shader ist nur ein besseres Heizelement. Es wäre möglich, daß nVidia mit der neuen FSAA-Art bewußt in Richtung "Performance" geht, um FSAA endlich einmal auch beim ALDI-Käufer durchzudrücken.

Pengo
2002-01-11, 22:34:17
Im Comanche 4 Readme steht doch auch was vom FSAA daß nur mit NV25 schnell genug sein soll, also ist es gut möglich es wird eine neue FSAA Implementation geben, ich hoffe nur das es ein richtiges FSAA sein wird und nicht sowas wie Quickschmier.

ow
2002-01-11, 23:15:44
Originally posted by Unregistered


Ne auf MadOnion hat einer im Forum angeblich eine solche Karte bessesen *bfg*

Unter http://www.tommti-systems.de/start.html ist der Link zum Forum.

Hier ein Auszug.I've been testing the nv25 for about 3 weeks now and i can only say this---this card rocks. I ran the Q3 demo @ 1600x1200x32bpp with 4xFSAA and EVERYTHING and i mean EVERYTHING maxed out to the highest level and still got, get this 110FPS. Wow this card blows away anything on the market. 3DM2001 on the crush11 chipset(AMD XP1500+128MB) with the GF4 score was 9283 without ne overclocking. Would be very ez to get 11000 with the XP2000 and some serious OC'ing.


Gruss Labberlippe


Thx Labberlippe

Mehr wollte ich nicht wissen und es ist hoffentlich auch allen klar, was davon zu halten ist.;)

Labberlippe
2002-01-12, 10:45:23
Originally posted by ow



Thx Labberlippe

Mehr wollte ich nicht wissen und es ist hoffentlich auch allen klar, was davon zu halten ist.;)

Yepp solange keine Fakten am Tisch liegen. Nix :)

Ich muss aber ehrlich gestehen das mich die GeForce4 Serie neugierig macht, hoffentlich kann diese Karte mich von nVIDIA mal überzeugen.

Gruss Labberlippe

Labberlippe
2002-01-12, 10:47:36
Originally posted by Leonidas
Also man muß erstmal anmerken, daß das ein Newbie im MadOnion-Forum war, der das von sich gegeben hat. Trau niemals Newbie-Postings.
http://discuss.madonion.com/forum/showthreaded.pl?Cat=&Board=techdisplayadapters&Number=287919&page=&view=&sb=&o=&vc=1#Post287919



Allerdings ist es nicht vollkommen unmöglich. Eine GF3 Ti500 schafft ca. 110 fps in dieser Auflösung - ohne FSAA. Mittels 300 MHz sollten also 130 fps möglich sein - höherer Speichertakt rullt nun einmal unter 16x12. Hier nicht eingerechent sind eventuelle Verbesserungen an der Ausnutzung der Bandbreite.

Die Frage ist also: Ist eine 4xFSAA Art möglich, welche nur 20% Leistung verliert? Sehr unwahrscheinlich - aber nicht gänzlich unmöglich. Immerhin wird der NV25 definitiv eine neue FSAA-Art mitbringen und FSAA scheint zudem das einzige Thema zu sein, mit welchem man den NV25 vom NV20 abheben kann - 50 MHz mehr Takt bringen es nicht und der zweite Vertex Shader ist nur ein besseres Heizelement. Es wäre möglich, daß nVidia mit der neuen FSAA-Art bewußt in Richtung "Performance" geht, um FSAA endlich einmal auch beim ALDI-Käufer durchzudrücken.

Rein Theoretisch gesehen schon, aber hoffentlich schaltet der Chip nicht bei der Auflösung in den 2xFSAA Modus um den Bench zu faken.
Wäre nicht das erste mal.
Wenn ich mich nicht irre hat nVIDIA das schon mal gemacht.

Gruss Labberlippe

Ceiser Söze
2002-01-12, 11:05:51
FSAA mit kaum Performanceverlust? Ich bezweifle, dass das auf einem immediate Renderer so einfach möglich ist. Ich habe zwar mal von einer Möglichkeit gehört, mit der das evt. zu realisieren wäre, aber irgendwie glaube ich nicht, dass im NV25 sowas enthalten ist - bezüglich FSAA sind wir ja immer noch auf einer relativ primitiven Stufe.
Auf einem Tiler wäre Multisampling wohl fast(!) gratis zu haben, auf einem Chip mit viel schnellem eDRAM wohl auch - aber auf einem konventionellen Brute-Force Renderer? Da müsste nVidia ja wirklich mit einer ganz neuen Lösung daherkommen - was wiederum nicht mit dem NV25 in Einklang zu bringen ist, da dieser voraussichtlich "nur" ein aufgebohrter XBox-Chip ist. Naja, mal abwarten. Am 5.2. wissen wir mehr...

Quasar
2002-01-12, 15:02:34
@Labberlippe:

Die haben das bei der GF2 GTS mit 32MB gemacht um bei dem unglaublich populären 1600x1200x32 4xFSAA Test, ohne den kein Test im Netz mehr auskommt, um zu FAKEN???

Oh mein Gott....was für ein Skandal...aber da gab's doch noch andere....

Haarmann
2002-01-12, 16:21:14
Quasar,

Laberlippe hat da schon recht...
Wie ihr bei ATI sagtet, wenn ich als User sage HQ++, dann bitte soll das auch rauskommen...
Ergo, sage ich 4xFSAA, dann hats auch 4xFSAA zu sein...

Da gibts nix zu husten

Quasar
2002-01-12, 16:45:03
Wenn's eine Karte ist, die den supergesampleten Framebuffer inkl. Z-buffer auch noch in den lokalen Speicher kriegt, sicher. Wenn sich herausstellen sollte, daß beim GF4 bei 4xFSAA gefaked wird, ist das ein Skandal, keine zwei Meinungen. Aber Labberlippe spielte wohl auf die alten Karten mit 32MB an, die in so hohen Auflösungen einen 3200x2400 Pixel großen Frame wohl kaum noch mit Z- und Triple-Buffer in den lokalen Speicher bekommen würden (ich hab's jetzt nicht nachgerechnet) und sich dieses "Feature" somit eh erübrigt.

Mich hat nur mal wieder ein wenig gestört, daß auf alten unzulänglichkeiten wieder rumgeritten wurde.

BTW, war das bei den 32MB-Karten von anderen Herstellern anders? Konnten die 4XFSAA in 1600x1200x32 Triple-Buffered?

Und wo wir schon dabei sind....was ist mit 6xSV in o.g. Einstellungen?

Haarmann
2002-01-12, 16:53:49
Tja... Andere Hersteller können auch ned Speichervermehren ;-) Aber ev kriegts ne Kyro hin, da die weder Z noch Triple braucht... ein Singlebuffer täts zur Not auch - bei ner Kyro jedenfalls...

Ramdoubler lief ja bekanntlich auch sooo gut damals ;-)

Aber mal im Ernst, andere Hersteller, wie z.B. ATI bei der R8500, schreiben, dass SV 6* nicht geht über 800*600, im Treiber zum Setting dazu... Wer also ned lesen kann, wird das ned mitbekommen... Aber ich denke damit ist zu leben.
Andere Hersteller verweigern schlichtweg die Settings... Eigentlich die sauberste Version.

Quasar
2002-01-12, 16:58:15
Lustig....ich hab's eben grad mit ner KyroII versucht...geht auch net...obwohl sie's nicht in den Optionen ausgrauen oder drauf hinweise...SKANDAL ;)

P.S.: Lesen kann ich, aber ich hab keine R8500...deswegen kann ich das nicht lesen :)

Haarmann
2002-01-12, 19:04:06
Bei meiner Kyro 2 Kiste gehts ned, aber er deaktiviert fsaa gleich selber wieder, also nur ein halber Cheat...

Nachtrag... ich hab wohl ned immer Apply gedrückt ;-) - also bei 1600*1200 weigert er sich auch irgendein FSAA zu haben.
Hab allerdings eh nur per RTCW getestet

Und 110fps bei Low Q sind ev durchaus möglich ;-) r_picmip 10 Ahoi

aths
2002-01-12, 19:17:37
Ceiser,

NV25 nimmt doch sicher auch eine Z-Buffer-Komprimierung vor. Insofern kann ich deine 3.3 GB/s nicht nachvollziehen.

Das Multisampling könnte durchaus auf Performance getunt worden sein. Vielleicht haben sie es endlich geschafft, early z rejection mit MS zu verbinden.

Die Werte klingen nicht besonders glaubwürdig, aber ich halte sie (in dieser Größenordnung) nicht für unmöglich.

Exxtreme
2002-01-12, 19:25:07
Also ich halte diese Werte nicht für realistisch, nicht beim NV25. Dazu müsste nVidia doch grössere Umbauten am Chip-Design vornehmen. Die Karte wäre dann ca. 4x schneller als die R8500, da die R8500 ohne FSAA auf ca. 110 fps mit Q3A kommt.

@ aths
In der englischen Meldung steht FSAA und damit fällt Multisampling AFAIK schon mal aus.

Gruß
Alex

aths
2002-01-12, 19:42:37
"Die Karte wäre dann ca. 4x schneller als die R8500, da die R8500 ohne FSAA auf ca. 110 fps mit Q3A kommt."

Nicht mit MSAA.

"@ aths
In der englischen Meldung steht FSAA und damit fällt Multisampling AFAIK schon mal aus."

Marketing-Meldungen nehmen es da nicht so genau. Da die Kantenglättung über das gesamte Bild geht, würde nVidia ohne mit der Wimper zu zucken das als FSAA bezeichnen.

Xmas
2002-01-12, 20:08:53
Dass ein Treiber bei 1600x1200 FSAA abschaltet, kann man ja wohl kaum als Fake werten. Meist ist es ja so, dass im Treiber FSAA eingestellt wird und im Spiel dann die Auflösung. Soll der Treiber dann ein "Ätsch, das geht nicht :P" auf den Bildschirm malen, wenn der Speicher nicht mehr reicht?
Es wäre möglich, dass der Treiber dann einfach die hohen Auflösungen nicht mehr zur Verfügung stellt, aber dann würden sich vielleicht scharenweise die Leute darüber wundern, warum ihre Grafikkarte nun kein 1280x1024 mehr kann.
Keine aktuelle Grafikkarte im Cunsumer-Markt kann 1600x1200x32 mit 4x FSAA darstellen, die einzigen bei denen das technisch überhaupt möglich wäre sind Kyro/Kyro II, weil diese nicht (viel) mehr Speicher für FSAA benötigen. Aber das wird vom Treiber nicht unterstützt, da dann die Füllrate arg knapp wäre. Andere Karten bräuchten dafür über 73 MiB.

Ceiser Söze
2002-01-12, 20:22:41
@aths
Ich habe gar nicht vom Z-Buffer gesprochen, sondern nur von den benötigten Framebuffer-Zugriffen. Denn da kann auch durch Multisampling keine Bandbreite gespart werden (siehe auch http://firingsquad.gamers.com/hardware/multisamp/page4.asp ). Und den Overdraw habe ich erst gar nicht mit in die Berechnung aufgenommen - die 3,3GB/sec sind damit eigentlich die Werte eines Tilers und somit für den NV25 absolut unrealistisch.
Frühe Z-Checks werden da auch wenig nützen, da dieses Feature ja stark von der verwendeten Engine abhängig ist. Damit dies wirklich grosse Einsparungen mit sich bringt, müssten die Spielentwickler schon auf Front-to-Back Rendering setzen.

Und wie schon gesagt wurde: Schaut mal den betreffenden Thread auf Madonion an. Wenn der Typ dort keine Sch**** labert, dürft ihr mich ab sofort Axel Schweiss nennen... :)

Exxtreme
2002-01-12, 20:57:35
Originally posted by aths

Nicht mit MSAA.

Ich habe mich vielleicht etwas 'unglücklich' ausgedrückt. Ich meinte, die bräuchten dann aber auf jeden Fall die 4-fache Bandbreite einer R8500 da MS AFAIK füllratenschonend ist aber genauso viel Bandbreite verschlingt wie SS.
Originally posted by aths

Marketing-Meldungen nehmen es da nicht so genau. Da die Kantenglättung über das gesamte Bild geht, würde nVidia ohne mit der Wimper zu zucken das als FSAA bezeichnen.
Komischerweise nennt nVidia ihr MSAA nicht FSAA sondern HighResolution AA.

Gruß
Alex

Razor
2002-01-12, 22:24:31
Hab's gerade mal gecheckt...
;-)

Die gf3-Treiber schalten in einer Auflösung von 1600x1200 bei 4xOGMS auf 2xRGMS zurück (bzw. von 4xOGMS 9-tap auf 2xRGMS 5-tap). Insbesondere dieses 'intelligente' Zurückschalten, läßt vermuten, daß dahinter Methode steckt. Aber ich war verwundert, wieviel AA (und aniso ;-) noch bei 1600x1200 bringt. Zur Dokumentation dessen, habe ich einfach mal 'nen kleinen Shot-Vergleich angehängt (bitte nicht hauen ;-)...

Ich persönlich finde es nicht 'schlimm', wenn der Treiber einfach auf eine praktikabele Einstellung zurück schaltet, wenn das, was der Benutzer da eingestellt hat, blödsinn ist, aber sicher hat dazu jeder 'ne andere Meinung.

Much fun with them !

Razor

Hier also der 1600'er-Shot, den ich aber um 50% verkleinert habe, die Ausschnitte sind aber vom Orginal und um 400% vergrößert. Unter Q3 übrigens 1600x1200x32 HQ++ ohne TC...

Razor
2002-01-12, 22:28:13
Ups, hab' ich noch vergessen:
links ohne AA und ohne AF, rechts dann mit 2xRGMS und 8xAF (32tap)

Razor

aths
2002-01-12, 23:06:32
Razor,

was genau wolltest du nun damit bezwecken, dem Modem-User 175 KB aufzudrücken? Die Nützlichkeit von AA bei hohen Auflösung mit einer Vergrößerung zu zeigen ist dabei ziemlicher Schwachsinn. Bei 400% Vergrößerung werden durch AA Kanten bei 640x480 genauso geglättet wie bei 2048x1536.

Hier ging es um den NV25, aber du lenkst wieder ein mal ab, wie toll deine Karte sei, und postest wie so oft Screenshots als Beweise.

Sowas brauchen wir dringend!

AtTheDriveIn
2002-01-12, 23:31:54
Originally posted by aths
Razor,

was genau wolltest du nun damit bezwecken, dem Modem-User 175 KB aufzudrücken? Die Nützlichkeit von AA bei hohen Auflösung mit einer Vergrößerung zu zeigen ist dabei ziemlicher Schwachsinn. Bei 400% Vergrößerung werden durch AA Kanten bei 640x480 genauso geglättet wie bei 2048x1536.

Hier ging es um den NV25, aber du lenkst wieder ein mal ab, wie toll deine Karte sei, und postest wie so oft Screenshots als Beweise.

Sowas brauchen wir dringend!

sachte sachte

Exxtreme
2002-01-12, 23:40:02
Originally posted by aths
Razor,

was genau wolltest du nun damit bezwecken, dem Modem-User 175 KB aufzudrücken? Die Nützlichkeit von AA bei hohen Auflösung mit einer Vergrößerung zu zeigen ist dabei ziemlicher Schwachsinn. Bei 400% Vergrößerung werden durch AA Kanten bei 640x480 genauso geglättet wie bei 2048x1536.

Hier ging es um den NV25, aber du lenkst wieder ein mal ab, wie toll deine Karte sei, und postest wie so oft Screenshots als Beweise.

Sowas brauchen wir dringend!
Oje, gleich geht's schon wieder los...

Gruß
Alex

Haarmann
2002-01-13, 00:13:04
Ich würde diesem Menschen ja sowas gerne glauben...

Aber 128MB RAM sind "etwas" zuwenig für solche Werte... ergo stimmts leider ned.

grakaman
2002-01-13, 00:20:54
huhu leute

seit langer zeit wollte ich mal wieder in n 3d graka forum sehen. kann das sein, dass hier die alteingesessenen spetzis vom 3dconcept forum jetzt hier sind? :) wo ich so den namen piffan gelesen habe, ist mir das nur durchn kopf gegangen :)
jetzt fehlt ja nur noch shark und richthofen lol

Ceiser Söze
2002-01-13, 00:22:17
Originally posted by grakaman

jetzt fehlt ja nur noch shark und richthofen lol

Die sind nicht da und das ist auch gut so :D
Und: Herzlich willkommen im Forum!

Thowe
2002-01-13, 00:25:54
also wirklich, meine nvidia-Aktien sind aber im Höhenflug, gelle.

:D :D


Nein ich bins nicht.

Razor
2002-01-13, 00:32:55
@aths

Willst Du mir verbieten Screens zu posten, wenn ich das für richtig halte ?
Halt Du Dich da einfach raus...
(und schalt die Bildchen ab, wenn sie Dich stören !)
;-)

@AtTheDriveIn & Exxtreme

Keine Panik Leute, sowas sind wir doch schon von aths gewöhnt, oder ?
;-)

@Haarmann

Was hat die Speichergröße mit der Geschwindigkeit zu tun ?
???

@Grakaman

Willkommen im Club !
;-)

Jep, sind viele vom 3DConcept-Clan und es kann sogar gut sein, daß sich ram erst kürzlich hier hat blicken lassen...

Bis denne

Razor

Exxtreme
2002-01-13, 00:48:37
Mann, was habt ihr gegen Shark und Richthofen. Richthofen war zwar ziemlich stolz auf seine nVidia-Aktien aber er hat zwar nicht immer sachlich aber ruhig argumentiert, genauso Shark.
;-)

Ich habe mir ziemlich viele Postings von denen angesehen und die sind nicht viel anders als die von anderen nVidia-Fans, IMHO.

DIE ZUKUNFT IST JETZT !
EVERYONE RULEZ !

*SCNR*

Gruß
Alex

Ceiser Söze
2002-01-13, 00:56:26
Ich hatte eigentlich nur etwas gegen die beiden, weil sie überhaupt nicht offen für Neues waren, sondern stur an ihrem Dogma "Was nicht von nVidia kommt, ist Scheisse" festhielten. Die meisten nVidia-Fans/Sympathisanten/User in diesem Forum sind lange nicht so stur und auch bereit, zur Konkurrenz zu wechseln, wenn diese mal ein (für ihren Geschmack) besseres Produkt auf Lager haben.
Wenn ich mich richtig erinnere, wollte z.B. Shark für die längste Zeit nicht wahrhaben, dass der Kyro2 einer MX überlegen ist, was nun einfach völlig falsch ist. Jedem das Seine, aber wenn man richtig diskutieren will, soll man zumindest die Fakten akzeptieren - auch die, welche einem vielleicht nicht passen. Shark und Richthofen konnten das imho nicht...

Razor
2002-01-13, 01:28:11
Hey komm Exxtreme, der Spruch war doch nun wirklich cool, oder ?
;-)

Auch hat er für mich sogar zugetroffen, da für mich mit dem Wechsel von gfddr zu gf3 die Zukunft ein Stück näher gekommen ist. ENDLICH FSAA und aniso nutzbar, ohne, daß es unspielbar wird...
(und heute kann ich auch C4, DroneZ und Aquanox, bald sogar U2 in 'voller Pracht' genießen ;-)

Ähnliches wirst Du vielleicht wieder von mir zu hören bekommen, wenn die R300 oder der NV30 läutet oder endlich das Ding von den Bitboy's kommt (auch wenn da Matrox drauf' steht ;-). An ImgTech 'glaub' ich net mehr...

Wie dem auch sei:

IN DIESEM SINNE
;-)

Razor

AlfredENeumann
2002-01-13, 02:21:25
Originally posted by grakaman
huhu leute

seit langer zeit wollte ich mal wieder in n 3d graka forum sehen. kann das sein, dass hier die alteingesessenen spetzis vom 3dconcept forum jetzt hier sind? :) wo ich so den namen piffan gelesen habe, ist mir das nur durchn kopf gegangen :)
jetzt fehlt ja nur noch shark und richthofen lol

Richthofen kotzt sich gelgentlich bei Rivastation, Hartware und Heise aus.

aths
2002-01-13, 03:41:37
Razor, du scheinst Denkanstöße mit Provokationen zu verwechseln und reagiert im Gegenzug mit Provokationen. Zu meinen eigentlich Ausführung hast du natürlich nichts geschrieben.

Wenn ich wollte, könnte ich deine Screenshots wegeditieren.

Dein 170-Kb-Screenshot ist offtopic, da es hier um NV25 Benchmarks geht und nicht um NV20 FSAA. Es ist sogar dann möglich, dass du dich mal irrst, selbst wenn du es für richtig hälst.

Xmas
2002-01-13, 04:16:51
Nun ja, Razor, deine Screenshots hier sind nun mal grober Blödsinn ;)
Sie sind nämlich absolut nicht dazu zu gebrauchen, deine Aussage
"Aber ich war verwundert, wieviel AA (und aniso ;-) noch bei 1600x1200 bringt." zu "dokumentieren".
Denn um das zu zeigen, müsste man einen unvergrößerten Screenshot in derselben Auflösung auf demselben Monitor betrachten. Deine Skalierungen sind also kontraproduktiv.
Es bringt ja auch nix, 640x480-Screenshots mit einer Desktop-Auflösung von 2048x1536 zu betrachten und daran "nachzuweisen", dass man FSAA kaum sieht.

Razor
2002-01-13, 04:56:48
@aths

Denkanstöße ?
Wenn sie ernst gemeint sind und auch entsprechend sachlich formuliert werden, vielleicht...

ABER SO NICHT !

Also ganz ehrlich, aths, wenn Du Deine neugewonnene 'Macht' nutzen willst, dann tu es doch und droh nicht damit...
*grmpf*

Und erzähl mir doch mal bitte, wo ich geschrieben habe, daß meine gf3 'toll' ist. Ich vermute mal, daß Du das gerne so sehen möchtest, es aber nicht so ist und Dich es aber trotzdem nicht davon abhält, so etwas zu behaupten...

Sorry, aber irgendwie ist Deine Argumentation hier für'n Ar... !
;-)

Und mal ganz nebenbei bemerkt, DU hast auf jeden Fall nicht auf meinen Post geantwortet, sondern (wieder mal !) nur mein Posting an sich bemängelt, ohne auf dessen Inhalt einzugehen.

Sorry, aths, aber Du kannst es einfach nicht lassen, oder ?
Wenn Du hier in den User-Post's herum editieren möchtest, dann mach das doch einfach ! Die Mod's tun das wenigstens nur, wenn's unbedingt sein muß, bei Dir scheint aber die Hemmschwelle wesentlich geringer zu sein...

Denk mal darüber nach !

Ansonsten laß mich in diesem 'öffentlichen Forum' bitte das Posten was ich will, wenn es nicht gerade wieder der guten Sitten ist...

@Xmas

Du hast ja völlig recht, Xmas !
;-)

Ich will ja gar nicht bestreiten, das mein Screen-Post vielleicht nicht so sinnvoll war, aber Du wirst mir doch wohl hoffentlich zustimmen, daß hier öfter mal leicht 'unsinnige' Dinge gepostet werden. Aber ich habe mit meinem Post niemanden beleidigt, oder sonst etwas in dieser Richtung getan. aths aber versucht nun wieder aufgrund dessen einen Art 'Angriff' auf mich zu starten, uns sorry, Xmas, das laß ich mir nicht gefallen ! Warum kann er mir das nicht in einem vernünftigen Ton erzählen ?

Hier nur ein paar Beispiele:

"was genau wolltest du nun damit bezwecken, dem Modem-User 175 KB aufzudrücken?"
-> damit impliziert er, daß ich irgendjemanden 'schädigen' wollte...
Warum ?

"ist dabei ziemlicher Schwachsinn"
-> das ist sogar (wieder !) eine Beleidigung. Blödsinn ist absolut OK, aber Schwachsinn ?
Sorry, aber aths benimmt sich IMHO 'schwachsinnig' !

"Hier ging es um den NV25, aber du lenkst wieder ein mal ab, wie toll deine Karte sei, und postest wie so oft Screenshots als Beweise."
-> schon wieder impliziert er eine Absicht meinerseits, die einfach nicht zutrifft.
Ich habe mich halt 'vergriffen' und wollte nur mein eigenes Erstaunen verdeutlichen, was so natürlich nicht sonderlich sinnig war. Auch habe ich mit keinem Wort die gf3 gelobt... sorry, aber irgendwie speilt sich aths hier einfach nur auf.

"Sowas brauchen wir dringend!"
-> das schlägt dem Faß echt den Boden aus !
So etwas sagt man zu Leuten, die hier rum pöbeln oder ähnlichen dünnsinn verzapfen, aber zu so einem Post ?
???

Ich werde hier nochmal den 'Stein des Anstoßes' quoten und fordere alle auf, sich das anzusehen und auch bitte anzumerken, was daran nicht in ordnung gewesen ist (außer das, was von Xmas bereits bemängelt wurde):
Hab's gerade mal gecheckt...
;-)

Die gf3-Treiber schalten in einer Auflösung von 1600x1200 bei 4xOGMS auf 2xRGMS zurück (bzw. von 4xOGMS 9-tap auf 2xRGMS 5-tap). Insbesondere dieses 'intelligente' Zurückschalten, läßt vermuten, daß dahinter Methode steckt. Aber ich war verwundert, wieviel AA (und aniso ;-) noch bei 1600x1200 bringt. Zur Dokumentation dessen, habe ich einfach mal 'nen kleinen Shot-Vergleich angehängt (bitte nicht hauen ;-)...

Ich persönlich finde es nicht 'schlimm', wenn der Treiber einfach auf eine praktikabele Einstellung zurück schaltet, wenn das, was der Benutzer da eingestellt hat, blödsinn ist, aber sicher hat dazu jeder 'ne andere Meinung.

Much fun with them !

Razor

Hier also der 1600'er-Shot, den ich aber um 50% verkleinert habe, die Ausschnitte sind aber vom Orginal und um 400% vergrößert. Unter Q3 übrigens 1600x1200x32 HQ++ ohne TC...
War das jetzt das, was aths hier verurteilt hat ?
???

Sorry, aber IMHO spielt er sich hier ganz schön auf !
(meine Meinung !)

Und ich wäre sehr dankbar, wenn er etwas mehr Rückrad und Zurückhaltung darbieten würde, wie es die anderen (Mod's und Crew-Mitglieder) ja auch tun, damit die Leute, die hier herkommen auch weiter so 'frei' diskutieren können, wie das bisher möglich war...

Ich wollte dieses Thema eigentlich auf sich bewenden lassen, aber aths's und Dein Post in Folge provozierte geradezu eine entsprechende Reaktion meinerseits...

Ich schrieb lediglich dies, auch weil mehr nur wieder anschuldigend gewirkt hätte:
@aths

Willst Du mir verbieten Screens zu posten, wenn ich das für richtig halte ?
Halt Du Dich da einfach raus...
(und schalt die Bildchen ab, wenn sie Dich stören !)
;-)
Ich habe ihn weder angegriffen, noch sonst etwas getan, was solche Reaktionen seinerseits provozieren könnte, aber wahrscheinlich hat er einfach was gegen mich...

Und wieso darf er sich so etwas heraus nehmen, hat er 3DCenter gekauft, oder wie ist das zu erklären ?

So, das mußte jetzt mal sein und ich hoffe inständig, das so etwas zukünftig nicht mehr sein muß und aths sich ein wenig zurück hält !

Danke schon mal...
(ich bin richtig sauer !)

Razor

Leonidas
2002-01-13, 10:54:54
Haut Euch doch nicht! So was stimmt mich nur traurig, wenn sich meine Besucher hauen! Hab genügend andere Sorgen ...

Exxtreme
2002-01-13, 10:59:00
@ aths & Razor
Beruhigt euch mal ;). Ich kriegt euch wegen Kleinigkeiten in die Haare. Gut Razor, deine Screenshots vom NV20 in einem NV25-Thread sind IMHO wirklich leicht deplaziert da hat aths recht. Aber darauf hätte man auch anders hinweisen können, gell aths? Weniger Sarkasmus und Aggressivität bringt öfter mehr.

Gruß
Alex

Edit: Da war wohl jemand schneller ;)

Thowe
2002-01-13, 11:05:17
Ganz ab davon das sich beide jeweils gegenseitig zuviel reininterpretieren.

Man muss nicht alles darstellen und gegendarstellen, lasst doch die Leser entscheiden ob sie was wertvolles für sich finden mögen.

Labberlippe
2002-01-13, 11:22:21
Originally posted by Quasar
Wenn's eine Karte ist, die den supergesampleten Framebuffer inkl. Z-buffer auch noch in den lokalen Speicher kriegt, sicher. Wenn sich herausstellen sollte, daß beim GF4 bei 4xFSAA gefaked wird, ist das ein Skandal, keine zwei Meinungen. Aber Labberlippe spielte wohl auf die alten Karten mit 32MB an, die in so hohen Auflösungen einen 3200x2400 Pixel großen Frame wohl kaum noch mit Z- und Triple-Buffer in den lokalen Speicher bekommen würden (ich hab's jetzt nicht nachgerechnet) und sich dieses "Feature" somit eh erübrigt.

Mich hat nur mal wieder ein wenig gestört, daß auf alten unzulänglichkeiten wieder rumgeritten wurde.

BTW, war das bei den 32MB-Karten von anderen Herstellern anders? Konnten die 4XFSAA in 1600x1200x32 Triple-Buffered?

Und wo wir schon dabei sind....was ist mit 6xSV in o.g. Einstellungen?

Mein Gott Quasar Du must das nicht gleich mal wieder als Angriff sehen.
Wenn die Tester darüber bescheid Wissen ist doch gut.

Gruss Labberlippe

Haarmann
2002-01-13, 11:23:34
Tjo Razor...

Mit 128MB laufen z.B. RtCW wohl bereits nur noch stotternd, da die HD nun der Engpass is ;-). Damit Q3 mit 128MB 1A läuft und diese Leistung erbringen kann. Ic sag mal einfach, dass dies nicht möglich ist.
Birdmans NForce Beobachungen, legen nahe, dass es auch keine Win98 Plattform sein könnte, da man da zuviel Patchen müsse bei nem NForce Board. Bei nem W2K oder XP is mit 128MB eh Ebbe mit Q3. Das hab ich auf der alten S3 Savage2000 Kiste gesehen - ohne 256MB, kein Q3 und das is noch nedmals HQ.
Dazu sagt er noch Crush 11... der Name is etwas alt und glaubs kaum mehr gebräuchlich.

Der Mensch sieht eher nach nem Grossmaul aus, auch wenn ich mir sicher bin, dass diese Leistung mit ner GF4 möglich wäre, so diese wirklich mit neuen Komponenten aufgebaut wäre (sprich keine aufgebohrte GF3) - nur würde ich sagen, die NV20 hatte Speicher, der die Karte nicht vollends ausgebremst hat - also wie ne GF DDR - danach kam ne aufgebohrte Version genannt GF2 mit viel zuwenig Bandbreite. Und genau das wird die NV25 sein - daher könnten die 6 Pipelines auch der Wahrheit entsprechen - aber Pipelines wollen auch gefüllt sein ;-). Man könnte sogar 8 Pipelines verbauen... braucht ev nedmals viel Silizium , wenns schlau gemacht wird

Labberlippe
2002-01-13, 11:24:52
Originally posted by Exxtreme
Mann, was habt ihr gegen Shark und Richthofen. Richthofen war zwar ziemlich stolz auf seine nVidia-Aktien aber er hat zwar nicht immer sachlich aber ruhig argumentiert, genauso Shark.
;-)

Ich habe mir ziemlich viele Postings von denen angesehen und die sind nicht viel anders als die von anderen nVidia-Fans, IMHO.

DIE ZUKUNFT IST JETZT !
EVERYONE RULEZ !

*SCNR*

Gruß
Alex

Richthofen war auch ok.
Shark war noch uneinsichtiger wie ow.
(sorry ow, den konnte ich mir nicht verkneifen.)

Gruss Labberlippe

Unreal Soldier
2002-01-13, 11:33:12
hey solche Benches mit einer NV25 schafft man nicht, da mußte Nvidia ein Gott sein und um solche wunder zu bewirken. schwachsinn 110Fsp schafft nie und nimmer eine karte unter 1600x1200x32.
ABER ich denk der Avalanche-chip von den bitboys könnte daß schon schaffen mit seiner internen Bandbreite von 1024bit würde das schon gehen.

MFG
Unreal Soldier

Ceiser Söze
2002-01-13, 11:37:06
Nur, wenn der Avalanche eine FSAA-Art unterstützt, die keinen bzw. nur wenig mehr Speicherplatz benötigt. Bei der XBA ist Speicherplatz knapp, Bandbreite hingegen nicht...

(del676)
2002-01-13, 12:35:27
Warum sollte es nicht möglich sein 110fps zu erreichen?

ich habe mit einer ti500 ohne FSAA, 1600x1200x32bit, all Maxed ~105fps (ohne viel rumzutunen)
das selbe mit 4xFsaa hab ich ~50fps

da die GF4 mehr Core Takt haben wird (+ 25%) und mehr Ramtakt (+ 20%)
würde sie 126fps ohne fsaa erreichen. da die gf4 aber eine gscheide fsaa methode mitbringen wird könnte es sein das sie durchaus auf 110fps kommt.

syronth
2002-01-13, 13:18:14
@Razor

Langsam reichts wirklich. Deine Bemerkung, man möge die Pics abstellen, wenn es einem nicht paßt, ist schon überdreist. Soll jetzt jeder, der sich davon gestört fühlt, vorrübergehend die Pics abstellen, weil Herr Razor wieder Pics zu posten beliebt? Hast du eigentlich noch alle beisammen?
Sorry, wenn ich schroff werde, aber multipliziere die 170Kb mit den Zugriffen auf den Thread und schnell wird das ganze Forum eingebremst. Und wofür? Unnötige Belastung sollte man vermeiden, das Forum hängt eh schon des öfteren.
Im Zweifelsfall kannst du schließlich auch mit einfachen URLs auf die Bilder verweisen, ist afaik auch eine Methode.

Davon abgesehen: wenn der Treiber AA-Settings zurücksetzt, sollte er das deutlich mitteilen und nicht stillschweigend machen.

Quasar
2002-01-13, 14:03:06
@Labberlippe:

Als Angriff sehe ich Sachen wie "Quasar, du Arsc*" o.ä....

Du postest deine Meinung, und wenn ich der Meinung bin, daß ich dazu was sagen sollte, tue ich das. Unabhängig von Angriffen jedweder Art. Nur manchmal vergessen hier einige (absichtlich?) daß nicht nur Leute dieses Forum frequentieren, die sich gut in der Materie auskennen, sondern auch Newbies. Wenn die dann sowas unwidersprochen lesen, sind sie falsch informiert, da sie nur die Geschichte von der bösen Hexe nVidia kennen, verstehst' ?

P.S.:
Mich stören Razors Posts nicht, auch nicht seine Screens. Die kann man, wie gesagt abstellen. Was mich eher stört, wie sich hier wegen solcher Kleinigkeiten aufgeregt wird...

P.P.S.: es gibt auch die "ignore" Funktion, oder funzt die net mehr?

P.P.P.S.: Ich finde 110fps in 1600x1200x32 auch einigermaßen Unglaubwürdig, nur um mal mit gutem Beispiel voranzugehen und wieder zum Topic zurückzukehren.

Labberlippe
2002-01-13, 14:08:41
Originally posted by Quasar
@Labberlippe:

Als Angriff sehe ich Sachen wie "Quasar, du Arsc*" o.ä....

Du postest deine Meinung, und wenn ich der Meinung bin, daß ich dazu was sagen sollte, tue ich das. Unabhängig von Angriffen jedweder Art. Nur manchmal vergessen hier einige (absichtlich?) daß nicht nur Leute dieses Forum frequentieren, die sich gut in der Materie auskennen, sondern auch Newbies. Wenn die dann sowas unwidersprochen lesen, sind sie falsch informiert, da sie nur die Geschichte von der bösen Hexe nVidia kennen, verstehst' ?

P.S.:
Mich stören Razors Posts nicht, auch nicht seine Screens. Die kann man, wie gesagt abstellen. Was mich eher stört, wie sich hier wegen solcher Kleinigkeiten aufgeregt wird...

P.P.S.: es gibt auch die "ignore" Funktion, oder funzt die net mehr?

Ok ist schon klar was Du meinst. :)
Wobei ich sicherlich sehr Kontra gegen nVIDIA wettere aber dennoch erwähnte ich auch Vorteile.
Ich gehe nicht gerade von bösen nVIDIA aus, ich versuche hier nur einigen klar zu machen das nVIDIA nicht der beste GPU Hersteller ist.
Aber Geschmäcker sind eher verschieden.

Gruss Labberlippe

Quasar
2002-01-13, 14:13:59
So isses...

Razor
2002-01-13, 15:09:27
@Leo, Exxtreme und Thowe

Das ich da Unfug gemacht hab', hab' ich ja schon eingestanden, da Xmas mir ja mit vernünftigen Worten klar gemacht, warum dem so ist. Was auch sehr einsichtig war...

Bei aths mag so eine 'vernünftige' Erklärung auch versteckt gewesen sein, aber wenn etwas so formuliert wird, muß sich der Verfasser nicht wundern, wenn der eigentlich Inhalt ignoriert wird.

Wie dem auch sei, herzlichen Dank, daß Ihr meinen leztzen Post nicht gekürzt habt und ich denke, daß wir das Ganze dann auch auf sich berughen lassen solten.

Sorry nochmal, für die Unpäßlichkeit, aber mir ist einfach die Hutschnur geplatzt !
;-)

@syronth

Nur falls Dir das mit der Funktion des Bilder-Abstellens nicht geläufig sein sollte:

Wenn in dem Member-Optionen die Bilder abgeschaltet werden, dann werden Links in die Posts eingefügt, die darauf verweisen. Dann kann man selber entscheiden, ob man was sehen will, oder eben nicht (ist für Modem-Benutzzer eh meist besser !). Diese Funktion ist sehr nützlich, wenn man Probleme mit der Bandbreite hat, mehr wollte ich damit nicht zum Ausdruck bringen.

Und da die Bilder von mir kommen, ich aber keinen Webspace veröffentlichen werde, bleibt mitr leider keine ander Wahl, als die Bilder hier zu speichern. Und nocheinmal, wenn Du die Bilder in Deinen Optionen abschaltest, dann hast Du ja auch den Link, den Du gerne von mir sehen würdest. Und was die Unreg.'s angeht... sollen sie sich registrieren, denn dieses Forum ist es echt wert !

***

Und nun sollten wir vielleicht wieder auf das Thema zurück kommen, denn durch solche Kommentare, wie denen von aths, schafft man es immer wieder von eigentlichen Thema abzulenken, bzw. abzukommen.

@Haarmann

Hab' jetzt glatt den Faden verloren...
;D

Ach ja:
Ich habe gedacht, daß Du die 128MB auf den GraKa-Speicher beziehst und nicht auf den System-Speicher...
Klar, 128MB für's System sind wirklich nicht sonderlich dolle, oder aber die HD war sehr, sehr schnell !
;-)

Und was die gf4 angeht... soll ja 'nen neuen AA-Modus haben und wenn ich recht entsinne, weiß darüber noch keiner was zu sagen. Als damals die gf3 mit dem MSAA kam, hat ja zuerst auch keiner geglaubt, daß es so schnell sein würde, aber das Gegenteil war der Fall (auch wenn's nicht ganz so schnell war, wie's von nVidia 'verkauft' wurde ;-).

Wie dem auch sei, sehe die Bench-Ergebnisse auch noch mit 'nem Fragezeichen, was sich dann wohl auch erst am 5.2. (oder eben später ;-) auflösen wird. Bis dahin ist allen eben nur Gerücht !

Aber vielleicht werden wir ja alle eines besseren belehrt ?
(selber 'glaube' ich da allerdings auch noch nicht dran' ;-)

@Universal Soldier

Ein Wunder braucht's dazu nicht...
Aber noch (!) ist's ein wenig unwahrschienlich, mehr nicht !
Klar, wenn NV da wieder was aus dem Hut 'zaubert' werden wir (wieder mal) eines besseren Belehrt...
Aber die Bezeichnug 'Gott' ist hier wirklich fehl am Platze.

@Ulukay

Auch wird sie wohl zusätzlich noch einen 2. vertex-Shader besitzen, der nochmal kräftig für T&L-Geschwindigkeit sorgen dürfte...

Wei schon gesagt, absolut unrealistisch sehe ich die Ergebnisse nicht !
Sagen wir einfach, daß es mich sehr wundern würde, wenn's stimmen würde ...

***

So, nun aber los...
(Sonntag ist halt für die Familie ;-)

In diesem Sinne

Razor

(del676)
2002-01-13, 15:30:56
Originally posted by Razor
@Leo, Exxtreme und Thowe

@Ulukay

Auch wird sie wohl zusätzlich noch einen 2. vertex-Shader besitzen, der nochmal kräftig für T&L-Geschwindigkeit sorgen dürfte...

Wei schon gesagt, absolut unrealistisch sehe ich die Ergebnisse nicht !
Sagen wir einfach, daß es mich sehr wundern würde, wenn's stimmen würde ...

***

So, nun aber los...
(Sonntag ist halt für die Familie ;-)

In diesem Sinne

Razor

ähem

was bringt ein 2. Vertex Shader bei einem Spiel das Vertex Shader gar net unterstützt? :rolleyes:

Quasar
2002-01-13, 15:33:01
Razor hat doch geschrieben: "TnL-Geschwindigkeit", oder?

Und da der GF3 die DX7-TnL-Unit per VS-Programm realisiert....

(del676)
2002-01-13, 15:33:29
signatur musst ich auch updaten :D

(del676)
2002-01-13, 15:34:50
Originally posted by Quasar
Razor hat doch geschrieben: "TnL-Geschwindigkeit", oder?

Und da der GF3 die DX7-TnL-Unit per VS-Programm realisiert....

der GF3 emuliert DX7 T&L per VS??

Quasar
2002-01-13, 15:46:12
Ja, tut er...

(del676)
2002-01-13, 15:47:56
Originally posted by Quasar
Ja, tut er...

MIST, ich bin immer davon ausgegangen das es der PixelShader macht :rolleyes:

Etienne
2002-01-13, 19:06:08
mist, ich wollte das hier schon am Freitag posten, doch das Forum war plötzlich weg... :(

Hmmm, wer weiß?

Es klingt schon stark hochgegriffen...

Ich komm mit ner GF 3 in Q 3 HQ++ bei 1280x1024x32 x4AA vielleicht um die 70 - 80 fps. Höher geht net wegen dem Moni.

aber wenn nVidia die Gewaltige Füllrate erhöhen will, dann KANN man erhöhte werte sehen.

10 - 20 % schneller? Vielleicht in 640x480 aber nicht in 1280x1024!

Es kommt nun nicht NUR noch auf Brute Force Frames an, sonder auf schöne Bilder!
Schnell sind noch ziemlich viele Karten!

Das AA der Radeon soll zudem noch ein Wenig Buggy sein wegen der Treiber, da ist also noch was drin bei euch!

Guckt mal:
wenn der chip 300 mhz schafft und 6 pipes hat.
6 x 2 = 12

12 x 300 wurde um die 3600 MPixel/s sein (3,6GTexel). Die GF 2 Ultra schaffte mit ihren 250 Mhz Chiptakt 2000 MPixel/s (2,0 GTexel)

Nun sind wir in einem Zeitalter angelangt, wo die Speichbandbreite bei 500- 700 Mhz DDR Speicher nicht mehr soo limitiert. DX 8 anwendungen werden durch den Chipgesteuert. Vielleicht helfen die 128 MB ja beim Overdraw ;)

Übertaktet mal nur den Chip einer GF 3 und lasst mal 3dM 2k1 (Ok, nicht das beste Beispiel) durchlaufen.
Das Dumme ist dann noch die Zahl der TMUs. 2 Stück scheinen mir doch arg zuwenig!
Die Radeon 64 hatte schon 3 Stück und war damit schon 'Kompatibel' zuhohen auflösungen.

Dass 110 FPS mit 4x AA nicht zurzeit zu realisieren sind, scheint mir das Ergebnis echt nicht ganz real.

aths
2002-01-13, 19:30:14
Ulukay,

"Pixelshader" heisst, dass die Pipelines nach bestimmten Normen programmierbar sind. Die DX7 T&L transformiert Eckpunkte. Der Vertex Shader erlaubt eine Programmierbarkeit. Statt zwei vorgegebener Matrizen können auf die Eckpunkte also auch andere Algorithmen angewendet werden. Lt. David Kird wird die DX7 Funktionalität mit einem Vertex Shader Programm erreicht.

Eine Pixelpipeline gibt einen Pixel in einem Dreieck eine Farbe. (Dafür werden Texturen ausgelesen usw.) Der Pixel Shader erlaubt nun, die Farbe programmierbar zu gestalten. Texturen können als Texturen oder als Datenfelder natürlich weiterhin verwendet werden. Das hat aber mit T&L gar nichts mehr zu tun. Die Transfomierung muss abgeschlossen sein, ehe die Pixelpipline zum Zuge kommt.

aths
2002-01-13, 19:32:22
OT: Razor, dein Posting war OT und beinhaltete 170 KB. Man kann eigentlich davon ausgehen, dass es sich lohnt, die Bilder gleich laden zu lassen. Jedenfalls dann, wenn sie thematisch zum Thread gehören. Das ist bei dir aber nicht der Fall.

Pengo
2002-01-14, 03:30:44
Originally posted by aths
Razor,

was genau wolltest du nun damit bezwecken, dem Modem-User 175 KB aufzudrücken? Die Nützlichkeit von AA bei hohen Auflösung mit einer Vergrößerung zu zeigen ist dabei ziemlicher Schwachsinn. Bei 400% Vergrößerung werden durch AA Kanten bei 640x480 genauso geglättet wie bei 2048x1536.!

Da gebe ich dir Recht, Details die erst durch Vergrößerungen zu sehen sind kann man locker vernachlässigen.

Pengo
2002-01-14, 03:34:32
Originally posted by Exxtreme
Mann, was habt ihr gegen Shark und Richthofen. Richthofen war zwar ziemlich stolz auf seine nVidia-Aktien aber er hat zwar nicht immer sachlich aber ruhig argumentiert, genauso Shark.
;-)

Ich habe mir ziemlich viele Postings von denen angesehen und die sind nicht viel anders als die von anderen nVidia-Fans, IMHO.

DIE ZUKUNFT IST JETZT !
EVERYONE RULEZ !

*SCNR*

Gruß
Alex

Sehe ich auch so, weder Richthofen noch Shark haben jemals jemanden bei 3DConcept beleidigt und haben immer versucht ihre Aussagen zu belegen! (auch wenn diese manchmal wiederlegt wurden).

Pengo
2002-01-14, 03:37:47
Originally posted by Ceiser Söze
Ich hatte eigentlich nur etwas gegen die beiden, weil sie überhaupt nicht offen für Neues waren, sondern stur an ihrem Dogma "Was nicht von nVidia kommt, ist Scheisse" festhielten. Die meisten nVidia-Fans/Sympathisanten/User in diesem Forum sind lange nicht so stur und auch bereit, zur Konkurrenz zu wechseln, wenn diese mal ein (für ihren Geschmack) besseres Produkt auf Lager haben.
Wenn ich mich richtig erinnere, wollte z.B. Shark für die längste Zeit nicht wahrhaben, dass der Kyro2 einer MX überlegen ist, was nun einfach völlig falsch ist. Jedem das Seine, aber wenn man richtig diskutieren will, soll man zumindest die Fakten akzeptieren - auch die, welche einem vielleicht nicht passen. Shark und Richthofen konnten das imho nicht...

Da verwechselt du die beiden mit jemanden anders. Wenn ich mich recht entsinne haben beide Grakas verschiedener Hersteller gehabt (alle beide waren mal Voodoo user) und ich kann mich nicht dran erinnern daß einer von denen die MX einmal gelobt hatte, ich denke Richthofen, Shark und Razor hatten alle eine Elsa Erazor X2 und hielten den GF2 MX für einen großen Mißt und haben damit Piffan aufgezogen.

Pengo
2002-01-14, 03:41:29
Originally posted by Labberlippe


Ok ist schon klar was Du meinst. :)
Wobei ich sicherlich sehr Kontra gegen nVIDIA wettere aber dennoch erwähnte ich auch Vorteile.
Ich gehe nicht gerade von bösen nVIDIA aus, ich versuche hier nur einigen klar zu machen das nVIDIA nicht der beste GPU Hersteller ist.
Aber Geschmäcker sind eher verschieden.

Gruss Labberlippe

Laberlippe, du hast mal was positives über NVIDIA gesagt, ich meine ohne ironisch zu sein!? Habe ich da was verpasst?

Unregistered
2002-01-14, 06:44:26
Originally posted by Pengo


Laberlippe, du hast mal was positives über NVIDIA gesagt, ich meine ohne ironisch zu sein!? Habe ich da was verpasst?

Freilich ich empfehle ja zwischendurch nVIDIA Karten.

Ich persönlich werde mir einfach keine kaufen.
Solange nVIDIA weiterhin solche Marktstrategien und eine solche technologische Arroganz verfolgt werde ICH das Teil nicht kaufen.

Gruss Labberlippe

Pengo
2002-01-14, 07:49:39
Originally posted by Unregistered


Freilich ich empfehle ja zwischendurch nVIDIA Karten.

Ich persönlich werde mir einfach keine kaufen.
Solange nVIDIA weiterhin solche Marktstrategien und eine solche technologische Arroganz verfolgt werde ICH das Teil nicht kaufen.

Gruss Labberlippe

Du hast wirklich ein Problem, ich kaufe einfach das beste für meinen Geldbeutel, Marketingaussagen sind völlig uninteressant.

Ceiser Söze
2002-01-14, 10:03:05
Ein Problem hat er nicht, er verfolgt nur die andere "Konsum-Philosophie" --> http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=10205&perpage=20&pagenumber=3

Haarmann
2002-01-14, 10:38:28
Und der Preis für den Witz des Tages geht an Pengo!

"Sehe ich auch so, weder Richthofen noch Shark haben jemals jemanden bei 3DConcept beleidigt und haben immer versucht ihre Aussagen zu belegen! (auch wenn diese manchmal wiederlegt wurden)."

Ich gebe zu, dass Shark, als Richthofen mal in den Ferien war, tatsächlich argumentiert hat, aber von Richthofen bekam wohl niemand je ein Argument je zu sehen... Shark ohne Richthofen wäre wohl ergo sehr gut zu ertragen - dem würde ich auch zutrauen, dass er sich mal ne nicht NVidia Karte kauft, wenn dies für ihn Sinn macht.
Aber Richthofen is ja nun auch schon so reich wie Billy Gates mit seinen NVDA Aktien ;D .

Aber hier im 3dcenter Forum, wollte mich immerhin nie jemand verklagen - ich denke also ich hab mich gebessert ... *eg*

Pengo, noch so meine 3D Grundregel... ich hab nie ne Karte gekauft, die über 450.- CHF also rund 300€ gekostet hat. Ansonsten bezahl ich für mein Verständnis zuviel - resp bezahl ich ne grosse Werbetrommel, von BWL Leuten gemacht (und ich studierte mal BWL - ich hasse BWL - BWL erinnerte mich an Gehirnwäsche ala Scientology) und nicht nur ne Entwicklung plus ne Karte. Erwerben will aber wohl jeder von uns genau das - ne Grafikkarte.

Ich verkaufe den Leuten sogar NVidia Karten - stell Dir vor! Eine GF3 Ti200, kann man durchaus als brauchbar definieren. Der Rest der NV Produkte ist entweder einfach Schrott (abgekürzt mit MX), überteuert (Ti500) oder dann halt bereits veraltet und wird bald abgelöst (womit alle GF2 Produkte gemeint sind). Was NV völlig fehlt sind Produkte (ned vergessen MX=Schrott) mit 2 Monitoren oder Produkte ala AIW. Mal sehen, ob sowas auch mal kommt.
Wie gesagt fand ich die ELSA GF DDR für run 30€ ein tolles Angebot ;D .

Pengo
2002-01-14, 14:22:13
GF2 Ti finde ich ist überhaupt kein Schrott, neben R7500 das einzig brauchbare unter 150 €.

Ich habe keine Grundregel, angenommen R300/NV30/Kyro3 kommt Ende 2002 raus, habe nichts dagegen 500 € zu blechen wenn die Leistung stimmt.

aths
2002-01-15, 18:48:21
"GF2 Ti finde ich ist überhaupt kein Schrott, neben R7500 das einzig brauchbare unter 150 €."

Kyro2?

Razor
2002-01-15, 18:53:51
@aths & Pengo

Das mit dem OT-Screen hatten wir ja nun schon, oder ?
(schon mal meinen letzten Post gelesen ? ;-)

Aber der Ton macht die Musik und der von aths ging einfach zu weit !

Nu aber schluß damit, ist einfach gegessen das Thema...

@Pengo

"...ich kaufe einfach das beste für meinen Geldbeutel, Marketingaussagen sind völlig uninteressant."

Ein wahres Wort !
;-)

Auch ich würd' für einen R300 oder NV30 500€ locker machen, was dann aber auch schon das Maximum wäre (sonst eher max 900DM... ähmmm... 450€ ungefähr ;D)...

Wenn ich für 'nen Kyro 500€ ausgeben sollte, dann sollte dieser sich aber massiv von seinem Vorgänger unterscheiden und den anderen Kontrahenten in NICHTS nachstehen !

@Haarmann

Hey, die ELSA gfddr für 30€ ist echt 'nen Schnäppchen, gell ?
;-)

Allerings ist mir noch immer net ganz bewußt, was Du damit willst...

Und by the way, wenn Du Dir in Folge 'ne Kyro und 'ne Radeon8500 zulegst, dann hast Du für beide zusammen mehr ausgegeben, als ich für meine gf3... nur so nebenbei... insofern unterscheiden wir uns höchstens in der GraKa-kauf-Frequenz, aber nicht in der Höhe der Mittel, di wir dafür ausgeben. Und wenn Du mir jetzt noch erzählen willst, das Dein Dual-Athlon Tyan-Board (samt Speicher) auch für 30€ bekommen hast, dann laß ich Dich einweisen !
;-)

Sagen wir einfach mal, daß hier wohl jeder seine eigenen Prämissen setzt und dies sicher nicht an dem einzelenen Preis einer Komponente festzumachen ist, oder sehe ich da was falsch ?

Bis denne

Razor

Haarmann
2002-01-15, 19:39:49
Hmm also mal einfach ausgedrückt Razor...

Die ELSA GF DDR war die billigste Karte, die ich bekommen hab... ergo schmeiss ich die rein, wenns einfach billig sein soll ;-).

Ich hab die R8500 für CHF 410.- gekauft, was wohl so ca 270€ sind.
Die Kyro1 war irgendwas in Pfund ;-), aber die hatte ich ja vor Deiner GF3. Die Kyro2 war dann wiederum so 150€. Verkauft habe ich die Kyro2 für genau 150€ ... dann habe ich ja noch im Q3 ne 2te Kyro2 gewonnen... auch verkauft für 150€.
Rechnen wir mal also nur die Kyro2 und die Radeon2, so habe ich 270€ ausgelegt... Nun habe ich wieder ne Kyro2 gekauft, aber nur für etwa 80€, damit läuft mein 2eitrechner oder 3ittrechner wirklich toll! Kyro2 liebt offenbar SiS und ECS ;-). Darfst nie vergessen, dass ich ned nur einen Rechner habe.
Ich habe noch NIE für ne Graka mehr denn 450.- CHF also 300€ ausgespuckt.
Auch mein Dual Tyan inkl beider CPUs, Lüfter und dem 1 GB Regged DDR war keine 800€.
Ich versuche nun mal zu reproduzieren, was seit der M3D so in meinem Rechnerpark so alles drin war...
€ Kurs gilt der von Heute - nicht der von Früher

Mill 1 4MB 150€
M3D 80€
Mill 2 8MB 200€
Crea V2 12MB (2 Wochen später 2 davon) 240€
Viper V550 180€
ASUS TnT 3400 SD RAM 160€
ASUS TnT 3400 SG RAM 160€
ELSA Erazor II SG RAM 130€
V3 3000 250€ (direkt aus USA)
Creative TnT2 Ultra SD 160€
Creative TnT2 Ultra SD 140€
V3 3000 160€
V3 3000 160€
Creative TnT2 Ultra SG 140€
Creative TnT2 Ultra SG 140€
Matrox G400Max 130€
Matrox G400Max 130€
ASUS 6600 GForce SDR 240€
Crea GF DDR 280€
Crea GF DDR 180€
Viper II 220€
Crea GF DDR 160€
Voodoo 5 300€ (USA mal wieder)
ELSA GTS2 200€
ATI Rage Fury 80€
ATI Rage Fury Maxx 100€
Vivid! Kyro 150€
ATI Radeon 32MB DDR 200€
ATI Radeon 32MB DDR 180€
Hercules Kyro2 150€
Crea GF2 Ultra 240€
Voodoo 5 110€
Hercules Kyro 50€
ATI Radeon8500 270€
Hercules Kyro2 80€
ELSA GF DDR 30€

Ich glaube so in etwa diese Reihenfolge wars... Wenn Du nun die Preise beachtest, so siehste, dass ich zum Teil die Karte fürn Butterbrot gekriegt hab ;-) - Hab Heute so ne Retail ELSA 920er dem Tornado verschwerbelt (wem auch immer er das Teil andreht)... hat 220€ gekostet - schon noch teuer aber egal.
Ich hab für viele Karten gebrauch mehr bekommen, denn ich neu geblecht hab...
zZ hab ich noch 4 ELSA DDR, R8500, Radeon 32MB DDR, Kyro2, Expert2000, Vivid! und die Voodoo5, wobei 3 ELSAs und die V5 zZ nicht eingebaut sind.

Pengo
2002-01-16, 09:08:18
Originally posted by aths
"GF2 Ti finde ich ist überhaupt kein Schrott, neben R7500 das einzig brauchbare unter 150 €."

Kyro2?

Kyro 2 ist ein Witz und keine Alternative.

Pengo
2002-01-16, 09:11:19
Originally posted by Razor
Wenn ich für 'nen Kyro 500€ ausgeben sollte, dann sollte dieser sich aber massiv von seinem Vorgänger unterscheiden und den anderen Kontrahenten in NICHTS nachstehen !


Sehe ich genauso, ich würde für € 500 richtige Treiber erwarten und nicht sowas wie bei Kyro 2 wo erst jetzt Bugfixes wie "Fix for Unreal engine games randomly crashing " rauskommen.

Labberlippe
2002-01-16, 09:22:21
Originally posted by Pengo


Sehe ich genauso, ich würde für € 500 richtige Treiber erwarten und nicht sowas wie bei Kyro 2 wo erst jetzt Bugfixes wie "Fix for Unreal engine games randomly crashing " rauskommen.

Naja aber sei mal ehrlich, über das Preis/Leistung kann man bei Kyro2 nicht meckern.
Was die Treiber betrifft, Sie funktioneren doch.

Wer von euch kommt auf die Idee Bitte das die Kyro3 500€ kosten soll?
Das ist schwachsinn, ImgTech hat immer gesagt das die Karte eher in den unteren Regionen ist.
nVIDIA Karten kosten soviel.

Ich schätze mal das wird so ähnlich sein wie beim K2
Spottpreiss und fast GTS2 Leistung

Beim K3 wird vermutlich ähnlich so sein nur in leichten anderen Regionen.

Gruss Labberlippe

Razor
2002-01-16, 09:52:52
@Haarmann

OK, Haarmann, halten wir also fest:
- DU bist richtig irre ;-)
- Deine Kaufgewohnheiten lassen sich nicht auf andere übertragen
- verstehst Du aber hoffentlich, was ich damit zum Ausdruck bringen wollte ;-)

@Laberlippe

Das P/L-Verhältnis der KyroII ost absolut OK !
(mehr als das ;-)

Aber wenn 'ne Kyro für 500€ kommt, dann sollte sie nicht nur OK sein, sondern das Optimum an Geschwindigkeit, Features etcpp bieten. Vor allem die Treiber sollten... will mal sagen... 'Benutzerfreundlicher' sein (da stimme ich Pengo voll zu !), denn sonst ist der Preis definitiv zu hoch !
(auch wenn sie schneller ist, als andere ;-)

Und glaube mit, wenn DX8-Hardware OnBoard ist, DDR-Ram angebunden wird und noch die weiteren Features bekommt, die ihr nachgesagt werden, dann wird sie alles andere, als spott-billig !

Alles weitere dann aber doch lieber im Speku-Forum, denn von dem Ding ist ja nun wirklich NUR Forum-Gesülze bekannt...
;-)

In diesem Sinne

Razor

Unregistered
2002-01-16, 09:58:00
Originally posted by Pengo


Du hast wirklich ein Problem, ich kaufe einfach das beste für meinen Geldbeutel, Marketingaussagen sind völlig uninteressant.

ich habe übrhaupt kein Problem.
Ich kaufe auch nicht nach den Marketingpapier sondern das was ich benötige.
Ergo eine Radeon.
Preis/leistung war damals Top und um einiges moderne als die nVIDIA Produkte.
Das gleiche ist jetzt auch.

Die R8500 bietet

Dual Head
TruForm
DVD Beschleunigung
DX 8.1 Funtkionen
TV-Out

Das ganze zu einen Top Preis.

Was bietet die Ti500 im Vergleich?
Mit Glück TV-Out und da kosten die Marken Hersteller mehr als No-Names.
Besonders dann wenn Du Wert auf bessere RF-Filter legst und da sind die nVIDIA Produkte noch hinten nach.

Preis ATi R8500 : ca 300€ - 350€ (Retail)
Preis nVIDIA Ti500 : ca 400€ - 470€ (Retail)

Technologisch fährt die R8500 der Ti500 um die Ohren und ist um einiges günstiger.
So und jetzt erkläre mir mal warum jemand noch eine TI500 kaufen soll, welche technologisch 8 Monate nachhinkt.
Das Treiber Argument zieht nicht schliesslich funktionieren so gut wie alle Games mit der R8500.
Die Bildqualität ist gleich bis leicht besser (Je nach Prog.).
FSAA kann man nicht direkt vergleichen da 2 verschiedenen Verfahren zur Geltung kommen.

Sorry aber jeder der eine Ti 500 kauft muss verblendet oder Blind sein.

Gruss Labberlippe

Razor
2002-01-16, 10:34:11
Jetzt geht das schon wieder los...
Fühlst Du Dich jetzt besser, Laberlippe ?
;-)

Also noch einmal TruForm, DX8.1 und SV sind zweischneidige Schwerter und können sinnvoll aber auch sehr unnütz sein. Die Treiber werden noch immer nicht als in jeder hinsicht 'stabil' bezeichnet, auch wenn unter Win9x schon viel gtan wurde und auch W32 nicht vernachlässigt wurde. Wer aber DualHead definitiv braucht, kommt um eine Radeon nicht herum...

Die DVD-Wiedergabe ist bei einer Radeon heutzutage auch nicht mehr besser, als bei anderen Karten...
(aber zumindest ein Argument, da DVD bei ATI schon immer gut war !)

Wer aber 'vernünftige' Treiber haben will, ein eigeführtes und sehr stabiles un schnelles Produkt, holt sich eben 'ne gf3 (wer genug Geld hat, eben die Ti500 ;-). Klar, wer nur auf's Geld schaut und keinen DualHead braucht, holt sich natürlich 'ne Ti200 (und keine R8500, wozu ?)...

Wo ist das Problem ?
Einen eindeutigen 'Sieger' zu küren, wird nicht gelingen, da jeder seine Prämissen selber setzt und somit auch die Frage nach einer R8500 oder Ti500 immer nur durch den Fragesteller selbst beantwortet werden kann.

Und noch eines Laberlippe, für jemanden der dieses Produkt gar nicht kenn, lehnst Du Dich mit Deiner Empfehlung ganz schön weit aus dem Fenster, oder sehe ich das flasch ?
;-)

In diesem Sinne

Razor

P.S.: Wer 'ne Ti500 hat auf jeden Fall schon mal zuviel Geld (aber davon solls ja auch welche geben ;-)...

Haarmann
2002-01-16, 10:57:58
Hmm Razor,

ich glaub ich hab sogar noch Karten vergessen... Aber so ca ungefähr kommt das hin - nen paar Sachen gingen dann mal bei nem Blitzschlag übern Jordan... Drunter auch ne G400Max.

Das verstehe ich schon mitm Irren... Aber ich denke mal, dass ich ned wirklich in ne Schublade passe ;-) - kaufte immer, was gerade billig und gut war für meine Zwecke.
Ich hab Dir ja gesagt, dass Du kein guter Q2 Spieler bist - damit Du nun weisst woher man das sieht... Die Voodoo Serie läuft unter Q2 bei weitem besser und das bis Heute. Die Farbwahl is das eine, aber der entscheidende Teil liegt auf dem Tisch - Deine Maus. Ein wirklicher Top Spieler (ich kenne leider aus DE echt nur Shurik und Mephisto in Person) merkte den Unterschied NVidia/3dfx sofort (hätte es damals ATI gegeben, hätte man sicher auch das bemerkt). Ich selbst hab auch ne Logitech gegen die Wand gedonnert, als ich die TnT reingetan hab, aber alleine stand ich damit nicht - ich weiss von 4 Spielern, dass die erste Maus nach dem 3dfx/NV Wechsel keine 20 Min überlebte... Genannt wird das bis Heute (von diesen Leuten) NV Lag - den konnte man etwas vermindern, aber beheben lässt er sich seltsamerweise nicht. Woran es liegt, weiss ev nggalai?

Labberlippe
2002-01-16, 11:15:52
Das P/L-Verhältnis der KyroII ost absolut OK !
(mehr als das ;-)

Eben sage ich doch :)

Aber wenn 'ne Kyro für 500€ kommt, dann sollte sie nicht nur OK sein, sondern das Optimum an Geschwindigkeit, Features etcpp bieten. Vor allem die Treiber sollten... will mal sagen... 'Benutzerfreundlicher' sein (da stimme ich Pengo voll zu !), denn sonst ist der Preis definitiv zu hoch !
(auch wenn sie schneller ist, als andere ;-)

Was wäre wenn.....
Man Urteil jetzt schon über eine Karte welche noch nichtmal vom Hersteller offiziel angekündigt ist.
Du kannst niemals von einer aktuellen Karte auf die nächste Generation schliessen.
Vermuten -Ja , Vorab Verurteilen - Nein
Wenn die Karte so schnell ist das Sie alles am Markt verputzt dann wird der Preis bei ImgTech vermutlich wieder Richtig angesiedelt sein.

Und glaube mit, wenn DX8-Hardware OnBoard ist, DDR-Ram angebunden wird und noch die weiteren Features bekommt, die ihr nachgesagt werden, dann wird sie alles andere, als spott-billig !

Das sagen nVIDIA User welche über 900 Mark für Grakas ausgeben.
Was die Karte kann werden wir noch sehen, man weiss ja nichtmal was sie Karte kann.
Oder ob sie überhaupt kommt.
Wenn man nichtmal weiss was wann kommt, wird schon über Preise spekuliert?

Alles weitere dann aber doch lieber im Speku-Forum, denn von dem Ding ist ja nun wirklich NUR Forum-Gesülze bekannt...
;-)

Volle Zustimmung.


Gruss Labberlippe

Labberlippe
2002-01-16, 11:42:23
Jetzt geht das schon wieder los...
Anscheinend wenn mir unterstellt wird das ich ein Problem habe nur weil ich kein nVIDIA Produkt nehme.
Nicht von Dir sondern seitens Pengo

Fühlst Du Dich jetzt besser, Laberlippe ?
;-)
Wieso sollte ich mich schlecht fühlen, nur weil ich Poste wo anscheinden nicht mit meinen Posting zurecht gekommen wird?
Solange keine Primitiven Redensweisen getippt werden nehme ich gar nichts persönlich.
(Sofern Du darauf aus wolltest)


Also noch einmal TruForm, DX8.1 und SV sind zweischneidige Schwerter und können sinnvoll aber auch sehr unnütz sein. Die Treiber werden noch immer nicht als in jeder hinsicht 'stabil' bezeichnet, auch wenn unter Win9x schon viel gtan wurde und auch W32 nicht vernachlässigt wurde. Wer aber DualHead definitiv braucht, kommt um eine Radeon nicht herum...
Fakt ist das Games die Funktionen nutzen, zwar noch nicht viele aber immerhin.
Somit hat hier ATi auch einen Vorteil oder willst Du Funktionen die genutzt werden abstreiten?

Die DVD-Wiedergabe ist bei einer Radeon heutzutage auch nicht mehr besser, als bei anderen Karten...
(aber zumindest ein Argument, da DVD bei ATI schon immer gut war !)

:) Eben und wieder eine Funktion wo ein Vorsprung gegenüber nVIDIA ist.

Wer aber 'vernünftige' Treiber haben will, ein eigeführtes und sehr stabiles un schnelles Produkt, holt sich eben 'ne gf3 (wer genug Geld hat, eben die Ti500 ;-). Klar, wer nur auf's Geld schaut und keinen DualHead braucht, holt sich natürlich 'ne Ti200 (und keine R8500, wozu ?)...
Die Radeon Treiber sind gleich stabil wie bei nVIDIA.
Aber im Gegnsatz zu nVIDIA wird nicht im IO Subsystem rumgefahren damit man mehr Leistung erzielt.
Was passiert haben wir alle beim Deto XP gesehen.
Tolle Treiber bei nVIDIA?
Du kannst Auswählen zwischen Speed pur oder Speed und dafür alle Funktionen.
PS: Entscheiden soll das jeder.

Übrigens Radeon LE bekommst Du in der gleichen Preisklasse wie die TI200 und somit haben wir wieder den gleichen Vergleich wie oben.
Abgesehen davon das die LE um eine Spur schneller als die TI200 ist.
Aber Preis/Leistung der Ti200 ist auch OK, streite ich gar nicht ab.

Wo ist das Problem ?
Einen eindeutigen 'Sieger' zu küren, wird nicht gelingen, da jeder seine Prämissen selber setzt und somit auch die Frage nach einer R8500 oder Ti500 immer nur durch den Fragesteller selbst beantwortet werden kann.
Einige küren hier die nVIDIA immer als Sieger, für mich ist und bleibt Preis/Leistung Austattung Funktionsmässig die R8500 um einiges vor der TI500.
Die Begründung habe ich schon oben gegeben.

Und noch eines Laberlippe, für jemanden der dieses Produkt gar nicht kenn, lehnst Du Dich mit Deiner Empfehlung ganz schön weit aus dem Fenster, oder sehe ich das flasch ?
;-)

Aha, Du Urteilst über die Treiber der Radeon hast die Karte auch nicht installiert.
Mir wirst Du mehr oder weniger Unwissenheit vor.
Junge Du lehnst Dich dann aber seeeehhhhr weit raus.
Ich kann wenigsten auf Erfahrung mit einer Radeon zurückgreifen + Erfahrungsbericht von Bekannten + Erfahrung in div. Foren.
Solche Argumente kannst bei mir gleich lassen.

So nicht Razor.


Gruss Labberlippe

skampi
2002-01-17, 15:22:44
Originally posted by Razor
Jetzt geht das schon wieder los...
Fühlst Du Dich jetzt besser, Laberlippe ?
;-)

Also noch einmal TruForm, DX8.1 und SV sind zweischneidige Schwerter und können sinnvoll aber auch sehr unnütz sein. Die Treiber werden noch immer nicht als in jeder hinsicht 'stabil' bezeichnet, auch wenn unter Win9x schon viel gtan wurde und auch W32 nicht vernachlässigt wurde. Wer aber DualHead definitiv braucht, kommt um eine Radeon nicht herum...

Auf meinem Rechner läuft z.Z. XP mit den 6011 Treibern und ich habe keinen Grund zur Klage. Im Gegenteil, einwandfreie Bildqualität, sehr schnell und absolut stabil.

Die DVD-Wiedergabe ist bei einer Radeon heutzutage auch nicht mehr besser, als bei anderen Karten...
(aber zumindest ein Argument, da DVD bei ATI schon immer gut war !)

Die DVD-Qualität ist selbst auf einem Rechner mit XP2000+(wie meinem;)) deutlich besser (Wiedergabe flüssiger, schärfer, keine sichtbaren Stufen in Farbverläufen).

Wer aber 'vernünftige' Treiber haben will, ein eigeführtes und sehr stabiles un schnelles Produkt, holt sich eben 'ne gf3 (wer genug Geld hat, eben die Ti500 ;-). Klar, wer nur auf's Geld schaut und keinen DualHead braucht, holt sich natürlich 'ne Ti200 (und keine R8500, wozu ?)...

Doch, gerade aus obengenannten Gründen.

Wo ist das Problem ?
Einen eindeutigen 'Sieger' zu küren, wird nicht gelingen, da jeder seine Prämissen selber setzt und somit auch die Frage nach einer R8500 oder Ti500 immer nur durch den Fragesteller selbst beantwortet werden kann.

Doch, da die Radeon keine gewichtbaren Nachteile (mehr) hat, im Gegensatz zur Gf3.

Und noch eines Laberlippe, für jemanden der dieses Produkt gar nicht kenn, lehnst Du Dich mit Deiner Empfehlung ganz schön weit aus dem Fenster, oder sehe ich das flasch ?
;-)

Diesen Vorwurf von aus 'Deinem Mund' zu hören ist blanker Hohn. Gerade die von Dir ins Feld geführten Argumente belegen Deine Unwissenheit.

Gerade die Bildqualität (nicht nur die Ausgabe, auch die Qualität des gerenderten Bildes) ist um Meilen besser. Man muss beide Karten einfach einmal live nebeneinander gesehen haben. Du würdest Augen machen...

In diesem Sinne

Razor

P.S.: Wer 'ne Ti500 hat auf jeden Fall schon mal zuviel Geld (aber davon solls ja auch welche geben ;-)...

Deiner Sig nach gehörtest auch Du dazu, die Gf3 war damals ähnlich teuer.

gruß
skampi

Richthofen
2002-01-18, 18:51:39
Also eines gefällt mir ganz und gar nicht.

HIer werden ziemlich viel Dinge mit einander vermischt.

1. Austattung / Features - Radeon 8500 besser als GF3
2. Performance - Summa Summarum Nvidia besser
3. Bildqualität - kaum Unterschiede. Da die meissten ohnehin nicht den super krassen 22 Zoll 140 KHZ Monitor haben ist diese Komponente zu vernachlässigen.
4. Treiber und Kompatibilität bzw Stabilität - Nvidia klar besser.
5. Preis - ATI vorne

Das ist im übrigen nicht nur meine Ansicht sondern die Ansicht so ziemlich aller Tester im Netz. Vor allem was den Punkt Treiber betrifft.
ATI hat vor allem unter XP noch Probleme. Das Produkt ist zwar nicht mehr so unfertig wie zur Einführung aber naja die GF3 ist doch ne Ecke reifer.

Ein weiterer Punkt den ich ATI nach wie vor ankreide ist ihre komische Modellpolitik was die Prdukte in den Läden angeht.
OEM/Retail usw.. Das ist nach wie vor Chaos. Die Hinweise das dies kein Retailprodukt sind, sind meiner Meinung nach nicht deutlich genug kenntlich. Klar kann man die OEM Teile übertakten aber denoch ist das nicht in Ordnung. Wer übertaktet bekommt keine Gewährleistung und die Mehrheit wird ohnehin nicht übertakten.

Vor allem was den Punkt Performance betrifft, muss man sich schon wundern. Die Radeon läuft mir mehr Core und auch mit mehr Speichertakt.
Denoch liegt Nvidia mehrheitlich bei Spielen vorne. Das ist schon ziemlich verwunderlich. HyperZ wurde meiner Meinung nach viel zu sehr gehyped. Das hat kein bisschen mehr gebracht, als das was Nvidia gemacht hat. Ähnliche Verbesserungen + Crossbar Memory Controller.
Das Treiberproblem bei ATI wirkt sich ebenfalls negativ aus.
Normalerweise müsste die Radeon deutlich vorne sein ist sie aber denoch nicht. Es ist leider auch nicht zu erwarten, das das Treiberproblem in naher Zukunft und vor allem bei neuen Produkten sich bessert, denn dieses Problem existiert ja nicht erst seid der Radeon 8500.
Nvidia hatte zu Anfang bei den GF3 auch nicht alles rausgeholt aber denoch laufen die Dinger nun schon seid einiger Zeit absolut rund.

Für mich die klar beste Karte am Markt, sind die GF3Ti200 Teile von Gainward und Leadtek. Beide mit gutem Speicher versehen und günstig zu haben.
Die ganzen Multimediaausgänge bei ATI sind super aber bleiben trozdem ein Nischenfeature. Die wenigsten brauchen das eben alles.
In sofern schadet sich Nvidia nicht besonders, da nich so viel reinzustecken. Die meissten wollen halt immer noch zocken mit so einer Karte und nicht DVD guggen. Wer ordentlich DVD guggt, der kauft sich nen DVD Player samt Plasma Bildschirm und Dolby Sourround aber macht sicher nicht den lärmenden PC an :).
Ich bin nunmal gespannt, wann der nächste ATI Chip kommt.
Nvidia hat die Runde diesmal noch gewonnen auch wenns knapp war, denoch muss ATI Druck machen. Verzögerungen naja... ihr wisst ja selber.
Der GF4 steht in den Startlöchern und wird wieder schneller sein. Mehr Features sicher nicht ausser 2. Vertex Shader aber eben schneller. Gleichzeitig werden GF3 Preise deutlich fallen.
Letzteres eben aus dem Grund, weil der GF4 mit voller Produktpalette kommt und es damit Überschneidungen geben wird.

Achja hier noch meine Grafikkarten Historie
Elsa Winner S3 Virge 2 MB
Matrox Millenium I 4MB + Voodoo1 4MB
Diamond Viper 550 TNT
Asus GeForce 256 DDR
und nun mal Noname
Prolink Pixelview GF2 Ti mit 4ns Samsung DDR.
Was halt ne günstige GF2 Ultra für lächerliche 300 DM.
Sollten GF3 Karten billiger werden, werde ich drüber nachdenken hehe.
Ansonsten das Nvidia Produkt, das mir bei Q3 in 1024 und 32 Bit HQ++ 4x FSAA 64 tab AF 100 fps liefert :)

So nu gehts wieder los gelle :)

BTW @ die 3dconceptler
Ich habe keine Nvidia Akien mehr. Denoch nutze ich das gerne um am Boom mitzuverdienen hehe :)
Solltet ihr auch mal machen.

Exxtreme
2002-01-18, 19:31:11
@ Richthofen

Zu Punkt 2:
Mag sein, daß die GF3Ti500 einen Tick schneller ist als die R8500 aber sie kostet deutlich mehr und ich glaube nicht, daß es in der Praxis eine Rolle spielt. Denn ob ich 110 fps oder 120 fps habe ist gehüpft wie gesprungen ;).

Zu Punkt 3:
Schlechte SQ erkennt man schon ab der 1024'er Auflösung, mein Kumpel hat so eine Billig-GF2MX. Beim Spielen merkt man es nicht aber auf dem Desktop.

Zu Punkt 4:
Also meiner Erfahrung nach hatten die ATI-Treiber nie Stabilitätsprobleme, weder die für R100 noch die für R200. Was manchmal Probleme macht ist die Kompatibiltät und vor Allem die Leistung. Also der 3286'er für Win2k war wirklich nicht der Hit. Mit den aktuellen 6011'er dürften aber die meisten Leute zufrieden sein. Dieser Treiber merzt sehr viele 'Problemchen' der früheren Treiber aus.
Wobei man sagen muss, daß die NV-Treiber beim Release der GF3 auch nicht der Bringer waren. Damals ist die GF3 von der GF2Ultra auch regelmässig versägt worden. NV hat ein halbes Jahr gebraucht um die GF3 auszureizen.

Tja, ich stand auch vor der Wahl - GF3 oder R8500? Ich entschied mich für die R8500 wegen des sehr guten TV-Out, guter SQ, sehr guter Performance, DVD-Wiedergabequalität und SmoothVision. Sachen wie DX8 oder Truform waren bei mir eigentlich nicht das entscheidende Kaufargument. Bis jetzt bin ich mit dieser Karte sehr zufrieden. Wie gesagt die neuen Treiber machen eigentlich nicht mehr Probs als die von nVidia.

Gruß
Alex

Pengo
2002-01-18, 20:38:43
Originally posted by Labberlippe
Fakt ist das Games die Funktionen nutzen, zwar noch nicht viele aber immerhin.
Somit hat hier ATi auch einen Vorteil oder willst Du Funktionen die genutzt werden abstreiten?


Ich streite es ganz entschieden ab, Truform wird nicht genutzt, zumindestens nicht das was ich unter Nutzen verstehe. Die Implementation in Spielen wie RTCW ist schlichweg nutzlos, somit ist das ganze Feature derzeit nutzlos.

Bei deinem ganzen hype um die 8500 hast du die schlechten XP Treiber und die lächerliche FSAA Performance außer Acht gelassen.

skampi
2002-01-19, 02:06:47
Originally posted by Pengo


Bei deinem ganzen hype um die 8500 hast du die schlechten XP Treiber und die lächerliche FSAA Performance außer Acht gelassen.

Du hast meinen Thread nicht gelesen oder bist schlicht ignorant...

skampi

aths
2002-01-19, 03:23:33
Pengo,

"Ich streite es ganz entschieden ab, Truform wird nicht genutzt, zumindestens nicht das was ich unter Nutzen verstehe."

Eine Menge User erfreuen sich an TruForm. Ob du den Nutzen nun verstehst, oder nicht.

"Bei deinem ganzen hype um die 8500 hast du die schlechten XP Treiber und die lächerliche FSAA Performance außer Acht gelassen."

Die "lächerliche" Performance resultiert aus dem Supersampling-Verfahren, welches einige Vorteile biete, was Multisampling nicht kann. Dazu gehören höhere quasi-anisotrope Stufen, garantierte Glättung von Maschendrahtzäunen in Counterstrike etc...

Razor
2002-01-19, 05:10:30
HeyHeyHey, was geht denn hier ab ?
;-)

@Haarmann

Ich sach' doch, daß Du irre bist !
(und natürlich nicht in 'ne Schublade paßt ;-)

Auch habe ich ja gesagt, daß ich Q2 nie MP gezoggt hab', allerdings ist mir im SP auch kein Mouse-Lag aufgefallen (hatte auch bisher nur M$ Mäusels ;-). Müsste das jetzt erst wieder installieren, um's auszuprobieren, aber dazu hab'i irgendwie keine Lust... ;-)

@Laberlippe

KyroIII:
Was wäre wenn.....
Man Urteil jetzt schon über eine Karte welche noch nichtmal vom Hersteller offiziel angekündigt ist.
Du kannst niemals von einer aktuellen Karte auf die nächste Generation schliessen.
Vermuten -Ja , Vorab Verurteilen - Nein
Wenn die Karte so schnell ist das Sie alles am Markt verputzt dann wird der Preis bei ImgTech vermutlich wieder Richtig angesiedelt sein.
Also erst einmal habe ich bewußt die Worte 'wenn' und 'sollte' gewählt, von einer Vorabverurteilung kann also keine Rede sein. Desweiteren wiedersprichst Du Dir hier selbst, denn auf der einen Seite sagst Du, daß man nicht von einer aktuellen Karte auf die nächste Generation schließen soll, aber im gleichen Athemzug:

"Wenn die Karte so schnell ist das Sie alles am Markt verputzt dann wird der Preis bei ImgTech vermutlich wieder Richtig angesiedelt sein."

Was dann ja wohl nicht so ganz schlüssig ist, oder ?
;-)
Das sagen nVIDIA User welche über 900 Mark für Grakas ausgeben.
Die 500€ kamen von Pengo als Annahme und nur darauf hab' ich mich bezogen...
Auch habe ich noch NIE "über 900 Mark" für irgend eine GraKa ausgegeben. Das teuerste war immer noch meine TNT/V2-Kombo, die so mit ca. 950DM zu buche geschlagen ist (allerdings nicht gleichzeitig ;-). Allerdings ist meine gf3 vor ca. 9 Monaten (!) schon sehr nahe an die 900 heran gekommen, so hat sie denn im ELSA-Retail-Package (Kabel und Spiele, nebst 'hübschen' Mouspad ;-) eben 870 Mücken gekostet...

Truform, SV, DX8.1 bei R8500:
Fakt ist das Games die Funktionen nutzen, zwar noch nicht viele aber immerhin.
Somit hat hier ATi auch einen Vorteil oder willst Du Funktionen die genutzt werden abstreiten?
Ah ja...

- Wir haben also schon Games bei denen Truform 'vernünftig' genutzt wird ?
- Wir haben also schon Games, die von DX8.1 Gebrauch machen ?
- Und wir haben auch schon (akuelle) Games, bei denen SV performant läuft ?

Verstehe...
;-)

Und inwiefern soll das DVD von ATI (auch das konnte ich 'live' bewundern ;-) nun einen Vorteil zu anderen Karten ala ImgTech oder nVidia haben ? Den 'Vorsprung' von ATI in dieser Beziehung sehe ich lediglich in der Markting-technischen Bekanntheit von DVD bei ATI-Karten...
Die Radeon Treiber sind gleich stabil wie bei nVIDIA.
Aber im Gegnsatz zu nVIDIA wird nicht im IO Subsystem rumgefahren damit man mehr Leistung erzielt.
Was passiert haben wir alle beim Deto XP gesehen.
Tolle Treiber bei nVIDIA?
Du kannst Auswählen zwischen Speed pur oder Speed und dafür alle Funktionen.
PS: Entscheiden soll das jeder.
Ich wiederhole mich zwar ungern, aber ich habe mit den DetoXP KEINE Probleme, ganz im Gegenteil...
Klar, von den vielen Problemen mit AMD-Systemen hab' ich auch schon gehört, aber auf solchen Plattformen habe ich selber schon genug andere Probleme erlebt, auch ist die Installation hier bei weitem nicht so einfach, wie auch Intel-Systemen. Viele dieser Probleme sind meist auf Fehlinstallationen oder echten Problemen mit VIA-Chipsätzen zurückk zu führen. Insofern warte ich hier erst noch einmal ab, wer hier eigentlich der Verursacher der Probleme ist...
Übrigens Radeon LE bekommst Du in der gleichen Preisklasse wie die TI200 und somit haben wir wieder den gleichen Vergleich wie oben.
Abgesehen davon das die LE um eine Spur schneller als die TI200 ist.
Hast Du dazu einen Bench-Vergleich, der diese Aussage belegt ?
Habe bisher noch keinen Vergleich dieser Art (RadeonLE via gf3Ti200) gesehen...
Einige küren hier die nVIDIA immer als Sieger, für mich ist und bleibt Preis/Leistung Austattung Funktionsmässig die R8500 um einiges vor der TI500.
Die Begründung habe ich schon oben gegeben.
Ich habe doch nun extra geschrieben, daß nur der Fragesteller diese Frage beantworten kann und es deshalb eben KEINEN klaren Sieger gibt.

Fakt ist allerdings, daß z.Zt. die gf3ti200 das beste P/L-Verhältnis vorgibt. Wenn man allerdings nur die R8500 und die gf3ti500 in Betracht zeiht, dann liegt die R8500 eindeutig vorn.
Aha, Du Urteilst über die Treiber der Radeon hast die Karte auch nicht installiert.
Mir wirst Du mehr oder weniger Unwissenheit vor.
Junge Du lehnst Dich dann aber seeeehhhhr weit raus.
Ich kann wenigsten auf Erfahrung mit einer Radeon zurückgreifen + Erfahrungsbericht von Bekannten + Erfahrung in div. Foren.
Solche Argumente kannst bei mir gleich lassen.
Offensichtlich hast Du mein ";-)" übersehen...
;-)

Also erst einmal hab' ich 'ne ganze Zeit 'ne r1 zur eigenen Verfügung gehabt (kann ich mir auch jederzeit aus der Firma 'borgen' ;-) und kann diese Karte wohl ganz gut beurteilen. Seit ca. 'nem Monat kenn ich auch die R8500 'live', allerdings nicht mit eigenen Erfahrungen, das ist schon richtig....

Aber die Erfahrungen, die der Kollege damit machte spiegeln sich auch in hiesigen Foren wieder, die mir übrigens die Möglichkeit gaben, ihm entsprechende Hilfe angedeihen zu lassen (gutes Forum, das ;-).

Aber letzendlich war das kein Argument, sondern nur ein Randbemerung...
;-)

"So nicht Razor."

Oooooch, warum denn nicht, Laberlippe ?
;-)

@skampi

Aaahhh, Freund Skampi meldet sich wieder zu Wort !
;-)
Auf meinem Rechner läuft z.Z. XP mit den 6011 Treibern und ich habe keinen Grund zur Klage. Im Gegenteil, einwandfreie Bildqualität, sehr schnell und absolut stabil.
Jep, kann ich sogar von meinem Bekannten bestätigen...
Er wollte sich ja zuerst keinen Beta-Treiber installieren, aber ich habe ihm das dringlichst ans Herz gelegt und er war ebenfalls sehr verwundert, wieviel denn nun schon besser geworden ist. Mit Aquanox hat er wohl immer noch Probleme... muß ich mir noch mal anshaun'...

Gibt's denn nun schon offizielle Treiber von ATI ?
???
Die DVD-Qualität ist selbst auf einem Rechner mit XP2000+(wie meinem) deutlich besser (Wiedergabe flüssiger, schärfer, keine sichtbaren Stufen in Farbverläufen).
Also meine DVD-Wieder gabe ist absolut flüssig, gestochen scharf und von Stufen in Farbverläufen hab' ich noch nie was gesehen (auch mit meiner gfddr nicht ;-). Auf was beziehst Du Dich denn hier ?

Habe doch gesagt, daß die DVD-Wiedergabe der R8500 sehr gut ist, lediglich habe ich es gewagt, zu behaupten, daß andere Karten (meiner Erfahrung nach die gf3 von ELSA ;-) dem in nichts mehr nachstehen.

Oder sollte die DVD-Wiedergabe jetzt besser sein, als mit der 'alten' Radeon ?
(die R8500 meines Kollegen lieferte ein identischen Bild !)
Diesen Vorwurf von aus 'Deinem Mund' zu hören ist blanker Hohn. Gerade die von Dir ins Feld geführten Argumente belegen Deine Unwissenheit.
Seh' ich anders...
;-)
Gerade die Bildqualität (nicht nur die Ausgabe, auch die Qualität des gerenderten Bildes) ist um Meilen besser. Man muss beide Karten einfach einmal live nebeneinander gesehen haben. Du würdest Augen machen...
Tja, diesen Vergleich hatte ich ja nun...
;-)

Und dabei ist mir eigentlich KEIN Unterschied aufgefallen !
Klar, das 4xSV sieht 'schärfer' aus, als das 4xMSAA, aber keinesfalls besser als das 4x'mix'...
Der Performance-Unterschied war allerdings erheblich...
(bei aktuellen Games selbst mit 2xSV nahezu unerträglich)
Deiner Sig nach gehörtest auch Du dazu, die Gf3 war damals ähnlich teuer.
Vor ca. 9 Monaten gab es schlicht nichts anderes und mir war damals die gf3 auch die 870 Mücken wert...
;-)

@Richthofen

Soooo viel wird hier doch gar nicht durcheinander gebracht...
;-)
1. Austattung / Features - Radeon 8500 besser als GF3
2. Performance - Summa Summarum Nvidia besser
3. Bildqualität - kaum Unterschiede. Da die meissten ohnehin nicht den super krassen 22 Zoll 140 KHZ Monitor haben ist diese Komponente zu vernachlässigen.
4. Treiber und Kompatibilität bzw Stabilität - Nvidia klar besser.
5. Preis - ATI vorne
Bei Punkt 1-4 stimme ich Dir (fast ;-) uneingeschränkt zu:
- DualHead, z.Bsp, ist nicht für alle brauchbar
- SV ist nur bedingt 'brauchbar'
- DX8.1 steht noch in den Sternen
- Trueform... na ja ;-)
Punkt 5 muß insofern eingeschränkt werden, als daß die gf3ti200 hier vorne liegt, was allerdings dann nicht mehr so ist, wenn die zuzsätzlichen Features auch benötigt, bzw. bewertet werden, denn dann liegt auch hier die ATI vorn. Aber Fakt ist halt, daß nVidia derzeit (!) den günstigsten DX8-Beschleuniger anbietet...

Dem Rest stimme ich dann mal mehr, mal weniger zu...
;-)

Aber Deine NV-Aktien hättest Du noch ein wenig behalten sollen...
(na ja, so ein Plama-Bildschirm will ja auch bezahlt werden :D)

@aths

"Eine Menge User erfreuen sich an TruForm. Ob du den Nutzen nun verstehst, oder nicht."

Ähnlich einer Demo, würd ich sagen...
Klar kann man sich mal HL oder CS unter Truform anschaun, aber solche Games werden doch wohl eher im MP gespielt und da sind solche Features mehr, als nur unnütz, wenn nicht gar hinderlich. Und zur 'Qualität' von Truform hab' ich mich ja nun schon zur Genüge ausgetobt... oder gibt es endlich 'vernünftige' Implementierungen ?

"Die "lächerliche" Performance resultiert aus dem Supersampling-Verfahren, welches einige Vorteile biete, was Multisampling nicht kann. Dazu gehören höhere quasi-anisotrope Stufen, garantierte Glättung von Maschendrahtzäunen in Counterstrike etc..."

Oh ja, für HL, CS und Co. (sehr, sehr alte Spiele ;-) ist SV durchaus sinnvoll, für aktuelle oder gar zukünftige Games eher nicht. Auch ist die BQ dank 4x'mix' der gf3 auch nicht mehr besser, aber der Performance-Unterschied ist erheblich. Oder sind für Dich 80% Perf-Verlust bei 4xSV tragbar ? Bringt der Perofrmance-Seitig vergleichbare 2xSV zu 4x'mix' (bzw. 4xmsaa+aniso unter OGL) besseres AA ? Eher nicht...

Hmmm...

Det war's erst mal !
;-)

Razor

P.S.: Man sind da viele Rechtschreibfehler drin ! Habe aber keine Lust, diese zu korrigieren, denn ich werd' mich wohl lieber auf's Ohr haun'... *klatsch* Aua !!!
;-)

nggalai
2002-01-19, 11:14:29
Hi there,

wie wurde denn aus einem "NV25 benchies sind fake" Thread eine GF3 vs/ 8500 Diskussion?

Naja, wie auch immer, ich möchte mich doch auch zu ein Posting äussern, resp. nachfragen, was denn damit gemeint war:

@ skampi,Auf meinem Rechner läuft z.Z. XP mit den 6011 Treibern und ich habe keinen Grund zur Klage. Im Gegenteil, einwandfreie Bildqualität, sehr schnell und absolut stabil.Das glaube ich dir gerne. Fakt ist jedoch, dass dies ein leaked Treiber ist, noch nicht mal "beta" oder "inoffiziell" sondern ganz einfach eine illegale Version. Dieser Leak hat dazu geführt, dass ATi nicht nur den Developers Support für neue Treiber krass zusammengestaucht hat (Thomas hier im Forum kann hier wohl ein Liedchen davon singen), sondern jegliche Supportanfragen, welche nicht auf 3276 / 7191 beruhen, einfach ignoriert.

Objektiv betrachtet hat ATi also seit bald 3 Monaten immernoch keine Treiber im Angebot, mit welchen alle Features stabil laufen. Das mag nicht sonderlich schlimm sein, da viele User Internetanschluss haben, in Ordnung geht das aber trotzdem nicht.

Die DVD-Qualität ist selbst auf einem Rechner mit XP2000+(wie meinem) deutlich besser (Wiedergabe flüssiger, schärfer, keine sichtbaren Stufen in Farbverläufen).Wie schon Razor fragte--im Vergleich zu was?

Doch, gerade aus obengenannten Gründen.??? Auf was bezieht sich deine Aussage konkret? Auf die illegalen Treiber, die unerheblich bessere DVD-Qualität? Was?

Doch, da die Radeon keine gewichtbaren Nachteile (mehr) hat, im Gegensatz zur Gf3.Welches wären denn die gewichtbaren Nachteile welche die GF3 hat, im Gegensatz zur Radeon?

Gerade die Bildqualität (nicht nur die Ausgabe, auch die Qualität des gerenderten Bildes) ist um Meilen besser. Man muss beide Karten einfach einmal live nebeneinander gesehen haben. Du würdest Augen machen... Ich bin mir nicht sicher, ob ich diese Klammer da richtig verstehe. Bitte korrigier mich, wenn ich mich irre, aber meinst Du:

"Im direkten Vergleich zu einer GF3 ist nicht nur die Signalqualität besser, sondern auch das gerenderte Bild?"

Wenn ich dich so richtig verstanden habe, wäre ich um mehr Info zum Thema froh. Die meisten Testberichte, welche ich finden konnte, kamen zum Schluss, dass sich die Karten IQ-mässig nicht viel nehmen.

Ich will hier übrigens nicht an dein Bein pissen (excuse my French), sondern überlege mir ernsthaft, eine R8500 als Spielzeug zu kaufen. Daher die Fragen.

ta,
.rb

MadManniMan
2002-01-19, 12:14:51
mal jetzt nicht direkt zu euren posts, dennoch meine meinung zum thema 3ti vs r85

-rohperformance: r85 der nv-garde teils deutlich überlegen, vor allem für den preis

-fsaa: speedmäßig eindeutig nv-gebiet, ati machte den fehler, einen qualitativ hochwertig aber nur minder schnellen super/multi-sampling-hybriden anzubieten, ein reines multi-sampling hätte der sache gut getan...

-> hohe auflösungen: r85 gebiet

-> fsaa: nv rulez

Exxtreme
2002-01-19, 13:41:38
Originally posted by MadManniMan der Rula

-> fsaa: nv rulez

Ähhm. Die GF3-Serie kann offiziell leider kein Fullscreen AntiAliasing. MS macht Edge Antialiasing.

Gruß
Alex

aths
2002-01-19, 14:21:45
Razor, du willst die Vorteile von SV nicht sehen, weil deine Karte kein SV kann. Oder ich rede gegen eine Wand. Ein letztes mal:

Wenn die GF3 am Füllratenlimit arbeitet und 2xSupersampling macht, halbiert sich ebenfalls die Framerate. Genau wie bei 2x SV. Du kannst nicht die Performance von MS und SS AA Vergleichen. Es sind unterschiedliche Verfahren. SS ist langsamer, aber qualitativ besser.

Mit 4x SS und 16x AF hat man quasi 64x AF, was lt. nVidia-Bezeichnung "256 tap anisotropic filtering" wäre.

Das reine Edge Anti-Aliasing ist bei einer GF3 nicht besonders gut, da bei 2x2 OG auch in hohen Auflösungen noch genügend Artefakte zu sehen sind. Der Mix-Modus wiederrum läuft nur mit halber Framerate. Es sei denn, die CPU limitert.

GF3 bietet das schnellste, Radeon8500 das hochwertigste Anti-Aliasing.

aths
2002-01-19, 14:22:57
nggalai,

das ist so enstanden: Es ging hier um die Frage des AA beim NV25. Da hat Razor Beispielbilder gepostet und bei 400% Vergrößerung gezeigt, wie gut sich FSAA auch auf einem NV20 auswirkt.

Quasar
2002-01-19, 15:10:20
Seltsam, man kann jeden Thread im pro&kontra anklicken, und spätestens nach zwei Seiten geht's wieder nur um das Eine (nein, nicht um DAS Eine, sondern um das andere Eine).
Auch wenn hier die Schuld bei Razor gesucht wird, sind doch andere mindestens genauso "schuldig". Wenn euch ein bestimmtes Posting nicht passt, ignoriert es doch einfach. Solch einen Aufstand um diese, zugegebenermaßen, nicht relevanten Screenies zu machen, woraus sich dann wieder die übliche Verbohrtheits-Diskussion entwickelt hat, finde ich, mit Verlaub gesagt, einfach lächerlich.

Ein Modemuser wird sich schon freiwillig die Images nur als Links anzeigen lassen, sowie sich die Signaturen und Avatare ausblenden, wenn ihm das Forum ansonsten zu langsam ist. Und Flatratler/DSLer sollten die paar KB nicht stören, sondern eher die fünf Seiten Irrelevanz, die sich daraus entwickelt haben.

Hiermit sehe ich meinen Pflichtbeitrag zu dieser Sinnlosigkeit als erledigt an.

Exxtreme
2002-01-19, 15:26:47
@ Quasar
Vergiss es. Ich habe es auch schon versucht.

Gruß
Alex

Razor
2002-01-19, 19:50:50
@nggalai

Schau Dir einfach mal mein Kommentar zu aths Post weiter unten an...
;-)

@aths

Sag mal geht's noch, aths ?
Hast Du Dir den Thread überhaupt näher angeschaut ?

"Wer lesen kann ist klar im Vorteil !"
würde hier vortrefflich passen...

Mein Post mit Screen (Seite 2) hat überhaupt keinen Effekt auf die Diskussion gehabt, was auch gut so war. Dann ging es generell um den Sinn oder Unsinn von 500€ für R300/NV30, später dann auch KyroIII. Dann wirde ma wieder ein wenig auf nVidia rumgehackt und dann ist das alte 3DConcept wieder zum Thema geworden...

Auf Seite 5 Post 12 (Laberlippe ;-) kam's dann zur R8500 und die alte Diskussion hat wieder angefangen. Mal ganz davon abgesehen ist der gesamte Thread ziemlich OT, da hier eigentlich die meisten der Meinung waren, daß die Ergebnisse nicht so ganz glaubnwürdig erscheinen.

Und dank Laberlippe (nicht dank Razor ;-) sind wir nun wieder meim alten Thema, aber nicht den ganzen Thread hindurch, sondern erst seit ungefähr einer Seite...

Insofern wäre ich Dir sehr verbunden, aths, wenn Du nicht immer gleich auf mich schießen würdest, vor allem, wenn dies dann sogar jeder Grundlage entbehrt.

Danke schon mal im voraus !

Und beim Thema AA kommen wir nicht zusammen, insofern schenk ich mir eine Antwort hierauf einfach mal. Sagen wir einfach, daß für 2xAA über 40% Performance-Verlust bei einer Spielbaren Auflösung von 1024 zu viel und 80% Verlust bei 4xAA indiskutabel ist, ganz egal, welche Qualität erreicht wird.

@Quasar

Schon merkwürdig, welche Richtungen hier immer wieder eingeschlagen werden, aber Du hast schon recht, auch ich fühle mich ein wenig 'schuldig', weil ich immer wieder darauf anspringe (in dem Fall auf Laberlippes Post ;-). Macht aber auch verdammten Spaß !
;-)

Allerdings gings hier nur auf einer Seite um R8500 vs. gf3 und nicht auf denletzten 5 Seiten !
(wie ich ja schon beschrieb ;-)

@Exxtreme

Was hast Du schon versucht ?
;-)

Bis denne

Razor

aths
2002-01-19, 22:11:39
Ach Razor,

du läßt dich immer wieder mit der gleichen Masche aus der Reserve locken.

Zum Prozent-Verlust aber jetzt noch mal, weil du das offenbar nicht begreifen willst (langsam komme ich mir vor, ich rede gegen eine Wand!)

Der prozentuale Verlust spielt keine Rolle! Es interessiert lediglich die Framerate, die man letztlich erhält.

Bei 300 fps kann man sich getrost 75% Verlust durch 4x SSFSAA leisten. Dann spielt die Qualität die Ausschlag gebende Rolle.

Aktuell ist bei modernen Spielen, starke CPU-Limitierung mal vernachlässigt, 4x SS nicht drin. Das macht aber nichts, da schon 2x SS eine brauchbare Qualität liefert. Alte Spiele hingegen profitieren sehr von 4x bis 6x SV. Das bietet eine GF nicht: Der Mix-Modus enthält nur zum Teil SS, und der 2x2 SS-Modus erreicht nicht die Qualität von RG oder halt SV.

Nr. 5
2002-01-19, 22:30:34
jetzt geht das schon wieder los...
argh.

seid ihr beide nicht ausgelastet?
kann man ja auch echt übertreiben! und das gilt für beide!


cu

Razor
2002-01-19, 22:48:18
@aths

"du läßt dich immer wieder mit der gleichen Masche aus der Reserve locken."

Solltest Du Dir hier nicht selber an die Nase fassen ?
;-)

"Der prozentuale Verlust spielt keine Rolle! Es interessiert lediglich die Framerate, die man letztlich erhält."

Korrekt, wenn man bei z.Bsp. RTCW oder Serious Sam (oder andere aktuelle Games) nimmt, erreicht man dort so um die 100fps (max quality ;-). Wenn man also nun 80% davon für 4xSV abzieht, dann sind's nur noch 20 und ist nicht mehr spielbar. Ergo ist es es also für aktuelle Games überflüssig, wie Du ja selbser auch erstmals (!) selber zugegeben hast. Und klar für alte Games ist das OK, aber auch das schrieb ich schon zu genüge...

Was also wolltest Du mir jetzt mit Deinem letzten Post sagen ?
Das ich recht hatte ?
Na dann: Danke !
;-)

Halten wir das also noch einmal fest:

1) bei aktuellen Games macht SV nur dann Sinn, wenn 40% Leistungsverlust zu ertragen sind
2) bei alten Spielen hat SV klare BQ-Vorteile gegenüber Verfahren mit MS
3) dieses Feature ist somit bei aktuellen Games kaum brauchbar !

Aber eines würde mich noch interessieren...
Woher soll die gf3 einen 2x2 SSAA-Modus haben ?
???

Und der '4xMIX'-Modus ist sehr wohl mit 2xSV vergleichbar, wenn nicht sogar weit überlegen !
(man beachte bitte, daß ich beides 'live' nebeneinander gesehen habe !)

Du hast offensichtlich eine andere Meinung darüber, obwohl ich seit deinem letzten Post nun die Hoffnung hege, daß Du Dich doch noch einsichtig zeigst, denn schließlich bist Du darin ja meinen primären Argumenten erstmalig gefolgt.

So, ich denke, daß nun genug darüber gesagt wurde.

In diesem Sinne

Razor

Meinte oben natürlich 4xSV mit 80% ;-)

Richthofen
2002-01-19, 23:11:17
@Razor

Bei meinem Punkt 5 Preis Radeon besser meinte ich auch nur
den Vergleich zwischen Radeon8500 und GF3Ti500.
Der ganze Post bezog sich nur auf diese beiden Karten.

Die beste Karte am Markt vor allem auch im Hinblick auf P/L ist ganz klar die GF3Ti200.
Das hab ich hier oda in nem anderen Thread auch geschrieben.

Was die Aktien angeht so was das nicht zu vermeiden.
Grundsätzlich sichere ich Gewinne durch Stopp Loss Marken ab und einmal wurde diese erreicht und der Verkauf ausgelöst.
Nicht weiter tragisch der Gewinn war steuerfrei :)
Nun muss ich mal AMD und Infineon bissl auf die Beine helfen hehe.

Also immer schön AMD kaufen!!! gelle

Was TrueForm angeht, so ist dieses Feature ... naja genauso momentan nich zu gebrauchen wie halt andere Features bei allen auch.
Es gibt einige wenige Spiele aber das was ich bisher an TrueForm gesehen habe in Spielen ist eher entäuschend und sieht auch nicht besser aus als wie es sonst aussehen würde.
TrueForm fällt bei mir unter Marketing :)
Naja gönn ich ja auch ATI - hehe Nvidia machts ja auch in der ein oder anderen Weise.

Razor
2002-01-19, 23:25:35
@Richthofen

Bei der gf3ti200 stimmen wir dann ja überein...
;-)

Aber sind die NV-Aktien tatsächlich auch mal kräftig gefallen ?
Haben sich doch eigentlich immer kontinuierlich nach oben bewegt... Hmmm...

Egal, ein netter Reibach dürfte gemacht worden sein.
;-)

Aber das mit AMD kannst Du (bei mir ;-) voerst vergessen !
Wenn's vielleich mal 'echte' AMD-Systme (reiner AMD-Chipsatz mit AMD-Prozzi) zu vernünftigen Preisen geben sollte, dann vielleicht. Hoffen tue ich dabei ja auf den neuen 'Hammer'...

Noch besser wäre 'ne AMD-CPU auf 'nem Intel-Board !
(schöner Traum ;-)

Und Du hast Dir 'böse' Infinion-Aktien gekauft, die doch den armen, armen Bitboys so zugesetzt haben ?
Schäm Dich !
;-)

Meine Meinung über dezeitige Truform-Implementierungen kennst Du ja wahrscheinlich...

Bis denne

Razor

aths
2002-01-20, 00:36:01
Razor,

es ist mir neu, dass 4x SV die Framerate um 80% senkt. Normalerweise sind es ca. 70%. Des weiteren kenne ich kein Spiel, dass bei 1024x768 mit 2x SV nicht mehr flüssig genug läuft. Deine Konklusion "3) dieses Feature ist somit bei aktuellen Games kaum brauchbar !" halte ich für falsch. Zumal du als Quincunx-Fan sowieso den 2x Performance Modus bevorzugen würdest.

Du versuchst seit Wochen, Smoothvision als unbrauchbar abzustempeln. Das nervt nur noch. Immerhin wird die Radeon8500 gerade auch wegen SV gekauft.

Der 2x2 Modus ist meines Wissens über modifizierte Treiber wählbar. Es wird der gleiche Modus verwendet, der schon auf GF256/GTS zum Einsatz kam.

MadManniMan
2002-01-20, 00:41:23
@Razor: "Wenn man also nun 80% davon für 2xSV abzieht"

warum schreibst du sowas, wenn du aths sowieso die ganze zeit vorwirfst, er würde dir die worte im mund verdrehen? wozu provozierst du ZUSÄTZLICH?

@Exxtreme: "Ähhm. Die GF3-Serie kann offiziell leider kein Fullscreen AntiAliasing. MS macht Edge Antialiasing."

reine frage der definition... edge aa ist für mich immernoch das gute alte der v2. für die, dies nicht wissen: dort wurden einfach die äußeren pixel eines jeden polygons zu 50% transparent gemacht. vorrausgesetzt, die spieleentwickler hatten dieses miteingeplant, brachte es herrliche ergebnisse! ein beispiel wäre Tomb Raider, das per patch mit ner v2 in 800*600 und EAA dermaßen geil aussah, daß mir anno 1998 beinahe die augen ausgefallen wären...

ms schmiert(eigentlich tut das ja nur quincunx, ms sieht recht geil aus) über den ganzen bildschirm und ist deshalb fsaa, basta ;)

Nr. 5
2002-01-20, 00:55:43
du liebe güte.
noch mehr die nicht ausgelastet sind! ;)


cu

Labberlippe
2002-01-20, 09:43:02
Originally posted by Pengo


Ich streite es ganz entschieden ab, Truform wird nicht genutzt, zumindestens nicht das was ich unter Nutzen verstehe. Die Implementation in Spielen wie RTCW ist schlichweg nutzlos, somit ist das ganze Feature derzeit nutzlos.

Bei deinem ganzen hype um die 8500 hast du die schlechten XP Treiber und die lächerliche FSAA Performance außer Acht gelassen.

Nochmal.
Du kannst das FSAA der R8500 nicht mit Quin. mit der GeForce3 gleichsezten.

Alle glauben anscheinend das TruForm nur Charaktere genutzte.
Nein auch Waffen oder Gegenstände wie Kronleuchter etc. etc.
RTCW kann ich nicht genau beurteilen, aber wenn ich mich nicht Irre habe ich auf Rage im Forum Kerzen mit TruForm gesehen.
Genutzt wird es, auch wenn es nach Deinen Geschmack zu wenig ist.
Hoffen wir das jetzt endlich die Spiele Hersteller auf diese Feature einsteigen.
Dann bekommen die Spiele auch einen neuen Grad an Realismus....

Aber ATI und Hercules werden hoffentlich jetzt fest Gas geben.

Gruss LAbberlippe

Haarmann
2002-01-20, 09:51:08
Razor,

SV 4x geht hervorragend unter D3D 1024*768, und ist dabei sogar noch schneller als ne GF3.
Unter GL kann man noch mit SV 2x leben (und hat noch immer in RTCW seine rund 60 fps), is dafür aber auch etwas langsamer als ne GF3.

Preis/Leistung ist die Kyro2 noch immer ungeschlagen, wenn man Leistung linear sieht (und irgendwie ist das wohl so zu sehen), denn eine K2 is bei 1/3 des Preises einer GF3 Ti und 1/2 einer GF2 Ti anzusiedeln. Ich denke, dass Bruchrechnen recht einfach is und Du mir da zustimmen musst, dass weder die die GF2 Ti die doppelte, noch ne Ti200 die 3-fache Leistung bietet.
(Preis/Leistung für Dx8 fähige Grakas fällt mangels echter Dx8 Games irgendwie schwer - dort hat aber die Ti200 gute Titelchancen)

Exxtreme
2002-01-20, 10:17:41
Originally posted by MadManniMan der Rula

ms schmiert(eigentlich tut das ja nur quincunx, ms sieht recht geil aus) über den ganzen bildschirm und ist deshalb fsaa, basta ;)
Wieder falsch. ;)
MS glättet die Kanten, lässt aber die Texturen in Ruhe. Was schmiert ist Quincunx - eine spezielle Art von AA. Und Quincunx ist nicht auf MS beschränkt und ist auch mit Supersampling machbar. Der SV-Performancemodus ist Quincunx sehr ähnlich.

Gruß
Alex

Razor
2002-01-20, 12:59:32
@aths

"Zumal du als Quincunx-Fan sowieso den 2x Performance Modus bevorzugen würdest."

Das siehst Du falsch !
;-)

"Das nervt nur noch."

Dann sieh doch einfach nicht hin !
;-)

"Der 2x2 Modus ist meines Wissens über modifizierte Treiber wählbar. Es wird der gleiche Modus verwendet, der schon auf GF256/GTS zum Einsatz kam."

Software AA ?
NEIN DANKE !
;-)

@MadManniMan

"wozu provozierst du ZUSÄTZLICH? "
Weil es mir Spaß macht ?

@Laberlippe

"Du kannst das FSAA der R8500 nicht mit Quin. mit der GeForce3 gleichsezten."
Wer tut denn das ?
???

"Hoffen wir das jetzt endlich die Spiele Hersteller auf diese Feature [Truform] einsteigen.
Dann bekommen die Spiele auch einen neuen Grad an Realismus...."

Ich hoffe inständig, daß dies nicht so sein wird, denn ich habe schon mal versucht zu beschreiben, was dann passieren könnte: Die Spiele-Entwickler könnte dieses Feature dazu führen, die Objekte wieder Polygon-ärmer zu machen und damit allen GraKa-Besitzern, die eben keine nPatch-Hardware haben, einen effektiven Nachteil bescheren...

Ich persönlich möchte detailierteste 3D-Darstellungen und nicht welche, die durch (heute auch nur halbherzig umgesetzten) Tricks dann wieder 'aufgepumpt' werden. Das ist in etwa so, als würde man die Details von Objekten komprimieren, um sie dann später wieder zu vervollständigen. Das Ergebnis wäre dann wieder ein Bild, was letztlich einen Verlust beinhaltet und dann auch noch alle benachteiligt, die diese Form der 'Komprimierung' nicht unterstützen. Das läuft mir zuwieder...

Insofern: Truform ? Nein Danke !
;-)

@Haarmann

"SV 4x geht hervorragend unter D3D 1024*768, und ist dabei sogar noch schneller als ne GF3."
Hast Du dafür Beispiele ?
???

"Unter GL kann man noch mit SV 2x leben (und hat noch immer in RTCW seine rund 60 fps), is dafür aber auch etwas langsamer als ne GF3."
Etwas ?
;-)

Und das zuvor genannte P/L-V galt lediglich für DX8-Karten, nicht für alle am Markt befindlichen...

@Exxtreme

Nur so als Info, aber ich bin sicher, daß Du das wissen tust...
;-)

nVidia beherrscht kein "FSAA", sondern nennt dieses Feature aus gutem Grund "HRAA"...

Auch ist es IMHO eigentlich nicht die Aufgabe von AA-Techniken, die Texturen schärfer zu machen, oder dessen Kanten zu glätten, denn dafür sind Filter-Mechanismen wohl wesentlich sinnvoller einzusetzen. So ist denn der trilinieare und/oder anisotropische Filter für die Schärfe und Glättung der Texturen zuständig, während HRAA dann die Kanten glättet.

Auch würde ich niemals Quincunx ohne aniso einsetzen. Bei dem 4x'mix' (2xRGMS + 2xOGSS) ist es nicht notwendig, steigert aber die Texturqualität noch zusätzlich...

Det war's wieder mal.

Bis denne

Razor

aths
2002-01-20, 14:28:21
Razor, du schreibst:

"Software AA ?
NEIN DANKE !"

Software AA? Mal gucken:

- Die Subpixel werden von der Hardware berechnet
- Der Backbuffer wird von der Hardware downgesampelt.

Was soll an diesem AA bitte Software-AA sein?


Labberlippe,

zu TruForm: Selbst bei aktuell nur geringer Unterstützung, so ist es ATI doch zu verdanken, dass hardwarebeschleunigte Curved Surfaces zu sehen sind. Insofern würde mich bei der Diskussion um Sinn oder Unsinn gar nicht so auf heutige Spieleunterstützung festnageln lassen.

MadManniMan
2002-01-20, 16:45:58
@MadManniMan

"wozu provozierst du ZUSÄTZLICH? "
Weil es mir Spaß macht ?


ömm... akzeptiert ;D

aths
2002-01-20, 18:24:09
Razor,

wenn TruForm tatsächlich der Grund ist, dass Entwickler an Polygonen sparen, dann tun sie das sicher nur dann, wenn die Technik extrem weit verbreitet ist. Dann ist es auch kein Nachteil mehr. Zumal der Sinn von Curved Surfaces eben darin besteht: Dreiecke sparen.

Haarmann
2002-01-20, 19:33:29
Razor,

http://www.tech-report.com/reviews/2001q4/r200/index.x?pg=7

Tabelle unten an der Seite... die R2 geht dort nur mit 200 MHz, also musste noch die 75MHz dazurechnen...
Bei 2x SV isses auch ned besser. Da siehts für GF3 laut Performance duster aus, aber es soll schärfer sein.
Ich hab GF3 mit R2 verglichen, Ti500 lasse ich mal aussen vor, da ich die Karte nirgends gefunden habe. Und seither hats ja auch neue Treiber geregnet, was die Sache sicher ned einfacher macht :( .
Max Pain und Co sind mit drum ziemlich egal...

Iceman346
2002-01-20, 19:43:39
@Razor

Wenn du DAoC als aktuelles Spiel bezeichnest, dann hast du ein Beispiel für ein Spiel das auf mit SV noch sehr gut läuft. Ich hab mit 4x Quality SV und max Aniso völlig flüssige fps (keine Stocker bemerkbar) und mit 6x Performance SV + max Aniso immer noch einen spielbaren Bildaufbau. CS spiele ich sowieso immer mit 2x Q SV + max Aniso *g*

Richthofen
2002-01-21, 00:57:32
@Razor

Reibach ist es in der Tat ohne Ende geworden :)
Doll gefallen ist er nicht aber ich hab halt einmal meine Stop Marke zu nahe an den aktuellen Kurs gelegt, so daß durch ne kleine Schwankund der Verkauf ausgelöst wurde.

Aber was hast gegen AMD?
Es gibt Mainboardchipsätze en Masse für AMD. Darunter sind auch immer noch die von AMD selber.
Ich hatte bei meinem Slot A Athlon den 751er und nun beim TBird den 761.
Ich denke in Zukunft setze ich auf Nvidia.
Rockstable, schnell und eben Nvidia :)
Also in dem Bereich hat sich bei AMD viel getan. Unterschiede zu Intel kann ich da nicht mehr feststellen.
Hab schon viele AMD Systeme gehabt mit VIA, AMD, ALI Chipsätzen. Der einzige der mal nich so toll war, war der ALI.
Der Rest war absolut zu gebrauchen.

Und Infineon naja war halt strategisch.
Ich gehe halt von massiven Preiserhöhungen bei DRAM aus.
RAMBUS ist aufm Desktop Markt ein Auslaufmodell und viele Hersteller ziehen sich ausm DRAM Geschäft zurück. Andere gehen pleite - Infineon wird überleben und dank der modernsten Fertigungsanlage in dem Bereich, ordentlich verdienen.
Das mit den Bitboys tut mir zwar für die Jungs leid aber das war nicht anders zu erwarten.
eDRAM ist teuer - und die Bitboys selber haben kein Geld. Ergo wäre das mit ziemlich viel Risiko für Infineon verbunden.
Naja Risiko das man angesichts über 1 Milliarde Euro Verlust lieber sein lässt :)

Pengo
2002-01-21, 11:24:29
Originally posted by Haarmann


http://www.tech-report.com/reviews/2001q4/r200/index.x?pg=7



Ein game daß nicht gespielt wird, das ganze noch unter 16Bit, weiter so Haarmann! Als nächstes kommst du wieder mit U9.

Haarmann
2002-01-21, 11:40:58
Hast Du nen Anderes Game Pengo?

Nein? Tja dann nehm ich mal das, was ich habe... Ihr habt gar keines vorzuweisen und behauptet doch immer die R200 sei sooo langsam mit SV... Ich hab immerhin eines, wenn auch kein idealbeispiel, doch immerhin, ich hab eines.
Du hast nur ne grosse Klappe und noch nie auch nur einen Beweis geliefert, ausser den, dass Du unfähig bist ne Kyro2 zu installieren.

Richthofen
2002-01-21, 13:43:24
über was streitet ihr euch eigentlich hier???????????

Also den Punkt FSAA kann Nvidia klar für sich entscheiden.
Wem die Texturschärfe bei der ein oder anderen FSAA Methode bei Nvidia nicht reicht mei der schaltet eben 32 tab AF dazu und dann passts.
So ziemlich jeder Tester sagt das das Nvidia FSAA besser ist.
Geht mal ins beyond3d.com Forum.
Sogar dort empfinden viele das Smoothvision als Marketing und nicht mehr.
Es ist nix anderes als das FSAA das Nvidia bei der GF2 Serie hatte + defaultmäßig aktivierten AF.

Pengo
2002-01-21, 14:14:21
Originally posted by Haarmann
Hast Du nen Anderes Game Pengo?

Nein? Tja dann nehm ich mal das, was ich habe... Ihr habt gar keines vorzuweisen und behauptet doch immer die R200 sei sooo langsam mit SV... Ich hab immerhin eines, wenn auch kein idealbeispiel, doch immerhin, ich hab eines.
Du hast nur ne grosse Klappe und noch nie auch nur einen Beweis geliefert, ausser den, dass Du unfähig bist ne Kyro2 zu installieren.

Natürlich habe ich ein anderes Game, hier benches von Serious Sam, es zeigt wie katastrophal die FSAA Performance der 8500 ist.

http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=19

Und was hat Kyro 2 Installation mit der Fähigkeit zu tun, ich erwarte von einer Graka daß sie läuft, wenn ich stundenlang an Einstellungen feilen muß um das Spiel optimal zum laufen zu bringen dann gebe ich lieber 20 € mehr aus und kaufe eine richtige Graka wie GF2 Ti oder Radeon 7500 statt einem Stück <zensiert> wie der Kyro 2.

edit: Pengo, bitte achte auf deinen Ausdruck! aths

aths
2002-01-21, 14:14:43
Richhofen,

das nVidia-MSAA ist sicher schneller, daher aber nicht automatisch besser als SV. Es ist etwas sehr anderes als das FSAA der alten GeForce-Karten, da die Subpixel viel geschickter angeordnet sind. Wenn du CS spielst, nützt dir bei einer GF3 auch "32 tap" (8x) AF nicht: Die Maschendrahtzäune zeigen extreme Moiré-Muster.

nggalai
2002-01-21, 14:20:27
Hi Pengo,Und was hat Kyro 2 Installation mit der Fähigkeit zu tun, ich erwarte von einer Graka daß sie läuft, wenn ich stundenlang an Einstellungen feilen muß um das Spiel optimal zum laufen zu bringen dann gebe ich lieber 20 € mehr aus und kaufe eine richtige Graka wie GF2 Ti oder Radeon 7500 statt einem Stück Scheiße wie der Kyro 2Da gebe ich dir 100% recht--wenn 20 Euro Stress ersparen können, lohnt sich das. Aber eben:

Sowohl Thowe als auch ich haben schon gepostet, dass bei unseren Systemen kein "stundenlang an Einstellungen feilen" nötig ist/war. Und wir stehen da echt nicht alleine mit. Die Kyro läuft einfach, problemlos, und in den meisten Fällen sind keinerlei "Anpassungen" oder "gefeile" nötig. Wenn das bei deinem System anders war tut mir das für dich und deinen Freund leid, aber das ist noch lange kein Grund, eine solch fehlinformierte Hasskampagne gegen die Kyro zu führen. Die Kyro macht nicht mehr Probleme als eine GF oder eine Radeon, nur andere, wenn's mal klemmt.

Nochmals: offenbar ist der Wurm im System, und es liegt kaum an der Kyro, dass Du solche Probleme hast (resp. dein Freund). Ich würde da echt nochmals drüber gehen.

ta,
.rb

Richthofen
2002-01-21, 14:26:01
@aths

Man kann immer rumwühlen und irgendein Beispiel finden.
Ich interessierem ich auch nicht dafür ob nun bei Game x oder Y der ein oder andere besser ist.

Es geht ums Gesamtbild und da ist Nvidia klar besser.
Für den Speed den du bei der Radeon hast kannst dir bei Nvidia mehr FSAA leisten.
Mehr als 50% der Tests für sich entscheiden heisst klar besser.

Naja und was CS angeht.... da stellt man doch wie bei Q3 sowieso alles aus was geht.
Da macht man kein FSAA an. Da spielt man mit gl_max_size 1 und was weiss ich was es noch alles gibt.
Ich hab lange genug CS gespielt aber das Game ist nur noch lächerlich.

Typisches N00b Game halt.

aths
2002-01-21, 14:35:15
Richthofen,

gerade von der Bildqualität her ist SV besser, und nicht das MSAA vom NV20. Alle die ich kenne, und eine GF3 haben, spielen CS mit AA.

Richthofen
2002-01-21, 14:45:08
ja N00bs halt aufm Public :)

Hab noch keinen ernsthaften Multiplayer Gamer gesehen der mit voller Grafik einen Shooter spielt.

In Q3 schaltet man alle Texturen aus und auch sonst alles was stört.
Hauptsache Gegner schnell gesehen, erkannt und weggeballert. Da interessieren mich doch nicht die toll geglätteten Kanten.
Ein Shooter kann gar nicht hässlich genug aussehen im Multiplayer.


FSAA ist was fürs Autorennen oder Flusis aber ganz sicher nix für Shooter.

Pengo
2002-01-21, 14:46:18
Originally posted by nggalai
Hi Pengo,Da gebe ich dir 100% recht--wenn 20 Euro Stress ersparen können, lohnt sich das. Aber eben:

Sowohl Thowe als auch ich haben schon gepostet, dass bei unseren Systemen kein "stundenlang an Einstellungen feilen" nötig ist/war. Und wir stehen da echt nicht alleine mit. Die Kyro läuft einfach, problemlos, und in den meisten Fällen sind keinerlei "Anpassungen" oder "gefeile" nötig. Wenn das bei deinem System anders war tut mir das für dich und deinen Freund leid, aber das ist noch lange kein Grund, eine solch fehlinformierte Hasskampagne gegen die Kyro zu führen. Die Kyro macht nicht mehr Probleme als eine GF oder eine Radeon, nur andere, wenn's mal klemmt.

Nochmals: offenbar ist der Wurm im System, und es liegt kaum an der Kyro, dass Du solche Probleme hast (resp. dein Freund). Ich würde da echt nochmals drüber gehen.

ta,
.rb

Bei dem Freund läuft Quake 3, Wolfenstein und SS auch problemlos auf der Kyro2, jedoch die Spiele die eben nicht so bekannt sind machen einfach nur massig Probleme - z.B. S.W.I.N.E (crasht alle 5 mins mit Treiber die der Karte beigelegt waren, alle 30-40 mins mit neuesten Treibern), CS macht Soundprobleme (SBLive), Dark Age of Camelot (massive Grafikfehler), Starsiege Tribes (probs min Menutext unter OpenGL), FS2002 (Die Bäume sind total verzerrt)... Das aller schlimmste ist das nach dem Verlassen von S.W.I.N.E. manchmal der Desktop die Auflösung des Spiels beibehält.

Der Wurm liegt sicherlich nicht in seinem System, ich habe testweise seine alte TNT wieder eingebaut, auch wenn alles extra langsam lief, sind ALLE Probleme sofort verschwunden, wie von Zauberhand.

Ich hatte noch keine Erfahrungen mit der Kyro 2, aber als ich hörte daß er vorhatte sich eine MX400 zu kaufen (Karte durfte nicht teurer als 200DM sein) habe ich ihm dringenst davon abgeraten und jetzt habe ich den Salat.

Ich bin mir ganz sicher daß wenn jemand keine Exoten unter den Spielen hat fast alles sehr gut mit der Kyro läuft, nur eben ist an eine Kompatibilität wie bei den Geforce Karten (oder der ATI Karten unter Win 98/Me) nicht zu denken, daß dem so ist beweisen alle paar Wochen die Readmes zu den Kyro Treibern, hier das neueste

- Fixed Zorro demo
- Fixed flashing textures in AvP2.
- Fixed EMBM in Fur Fighters and Silent Hunter 2
- Fix for Unreal engine games randomly crashing
- Fix for ESC key press in Half-Life OpenGL on Win2K/WinXP.
- Fix for Comanche 4 black screen at start-up.
- Macrovision Working for CH7003/4 8/9 10/11, F450/1
- Diablo2 fix
- AVP2 and other Lithtech engine fix

Der Punkt "Fix for Unreal engine games randomly crashing" ist doch kriminell, wieso erst jetzt und nicht ein Jahr zuvor?

Ich hätte nichts gegen solche Ärgernisse wenn die Kyro 2 50€ gekostet hätte, aber GF2 Ti und Radeon 7500 sind gerade mal € 20 teurer (Markenware, Retail, TVOut), dabei schneller und sicherlich weniger problematisch, deshalb halte ich Kyro 2 einfach für ein schlechtes Produkt.

aths
2002-01-21, 14:54:47
Richthofen,

CS basiert auf der HL-Engine, welche auf der Q1-Engine basiert. Eine GF3 hat wahrlich genug Power, um CS ohne Abstriche mit FSAA laufen zu lassen: Der fps-Zähler ist, ob mit oder ohne FSAA, ständig bei 99, wo die Framerate hier im LAN abgeriegelt wird. Erst mit 16x AF *und* Rauchgranate sinkt die Framerate auf 60-70, was noch absolut spielbar ist. Bei CS muß man keine fps-Jumps machen, also kannst du es nicht mit Quake3 vergleichen. Gerade MSAA ist wegen der guten Leistung auch was für Shooter.

edit: Bei uns im LAN ist einer von WvW, der verdammt gut ist. Er hat eine GF3 - und spielt mit FSAA.

aths
2002-01-21, 14:57:27
Pengo,

die überwiegende Mehrzahl von Kyro- und Kyro2-Karten Besitzer scheint sehr zufrieden. Kannst du das erklären?

Thowe
2002-01-21, 15:07:23
Ich halte FSAA immer noch für ein Feature um die optische Qualität anzuheben, gerade bei Spielen die dies bedürfen.

Wenn nVidia ein Performance optimiertes AA anbietet, mag es zwar in Benchmarks super darstehen, aber die optische Qualität ist definitiv schlechter als bei ATI. Was aber nicht bedeutet das jeder dies so sehen mag.

ATI bietet AA Methoden die auf das Maximum an Qualität ausgelegt sind. Was ich für sinniger halte, weil es ein Feature ist, um gerade Spiele ausserhalb von Quake und Co. optisch aufzubereiten.

Man kann zwar die Geschwindigkeit benchen, jedoch kann man nicht die optische Qualität anhand von Screenshots vergleichen. Das muss man im Reallife gesehen haben und gerade als TFT-User sieht man die Unterschiede noch deutlicher.

Deshalb kann man gar nicht behaupten das ein Verfahren besser ist.

Jeder der die Vor- und Nachteile beider Karten kennt, muss für sich selbst entscheiden was wichtiger ist. Zumindestens halte ich die Behauptung von "meins ist besser" für wenig objektiv, gerade bei subjektiven Fragen wie die optische Wirkung.

Pengo
2002-01-21, 15:22:52
Originally posted by aths
Pengo,

die überwiegende Mehrzahl von Kyro- und Kyro2-Karten Besitzer scheint sehr zufrieden. Kannst du das erklären?

Du meinst die Mehrheit der Forumbesucher, die selbst Freaks sind. Ich kann mir nicht vorstellen daß die Mehrheit der Ottonormalverbraucher mit der Karte zufrieden ist, dies läßt sich aber auch schlecht feststellen.

Daß die meisten Forenbesucher die eine K2 besitzen zufrieden sind hat verschiede Gründe

- einige spielen nur nebenbei, dh. haben 3-4 bekannte Games und diese laufen
- einige haben Zeit stundenlang mit den Settings zu fummeln und bekommen so fast alles zum laufen
- einige haben Karten wie R8500/GF3 nie in Aktion gesehen und denken daß Spiele wie Max Payne oder SWINE in 1024x768x32 HQ auf der Kyro 2 gut laufen (ruckeln ist normal)
- einige denken daß es zum Kaufzeitpunkt nichts vergleichbares zu dem Preis gab und somit die Schwierigkeiten mit der Karte einfach dazu gehören
- einige Ärgern sich zwar über die Karte, geben es aber nicht zu, weil sie ja das gekaufte verteidigen müssen, man will ja nicht zugeben daß man Mißt gekauft hat

Pengo
2002-01-21, 15:28:43
Originally posted by Thowe
Ich halte FSAA immer noch für ein Feature um die optische Qualität anzuheben, gerade bei Spielen die dies bedürfen.

Wenn nVidia ein Performance optimiertes AA anbietet, mag es zwar in Benchmarks super darstehen, aber die optische Qualität ist definitiv schlechter als bei ATI. Was aber nicht bedeutet das jeder dies so sehen mag.

ATI bietet AA Methoden die auf das Maximum an Qualität ausgelegt sind. Was ich für sinniger halte, weil es ein Feature ist, um gerade Spiele ausserhalb von Quake und Co. optisch aufzubereiten.

Man kann zwar die Geschwindigkeit benchen, jedoch kann man nicht die optische Qualität anhand von Screenshots vergleichen. Das muss man im Reallife gesehen haben und gerade als TFT-User sieht man die Unterschiede noch deutlicher.

Deshalb kann man gar nicht behaupten das ein Verfahren besser ist.

Jeder der die Vor- und Nachteile beider Karten kennt, muss für sich selbst entscheiden was wichtiger ist. Zumindestens halte ich die Behauptung von "meins ist besser" für wenig objektiv, gerade bei subjektiven Fragen wie die optische Wirkung.

Ich würde dir recht geben wenn der Geschwindigkeitsunterschied relativ klein wäre, aber zwischen R8500 und GF3 sind es Welten. ATI hat sich nicht einfach für Qualität entschieden, sie haben sich halt nichts richtig Neues bezüglich FSAA in Vergleich zu der original Radeon einfallen lassen, zumindestens auf nicht vergrößerten Screenshots sind die Unterschiede vernachlässigbar.

Thowe
2002-01-21, 15:32:20
@Pengo

Ich kann nggalai nur zustimmen. Ansonsten habe ich wie viele andere die ich kenne weder Probleme mit Unreal, noch UT, noch Quake3, noch CS o.ä der Mainstream-Ware. Auch keinerlei Probleme im Zusammenhang mit SBLive, Audigy oder SonicFury, selbst auf gleichen Int/IRQ nicht.

Ich habe die Kyro jetzt seit über 1 Jahr und fast alles was Anfangs nicht lief, läuft mitlerweile. Und die Karte durfte über 700 Spieledemos und SzeneDemos/Intros über sich ergehen lassen.

Die Kyro ist extrem Laufstabil, ich kenne keine Karte die in dieser Beziehung besser wäre. Auch wenn eine TNT läuft, heisst das noch lange nicht das das Mainboard z.B. nicht schuld ist. Was meinst du warum immer wieder BIOS-Fixes rauskommen wo z.B. steht fixed ... for GeForce.

Das es in einigen Spielen durchaus mal an einigen Stellen Darstellungsfehler geben kann, ist bei einen TBR leider relativ normal, aber selten.

Das ImgTec die Treiberänderungen kommentiert ist doch sehr schön, du glaubst doch nicht wirklich das andere Firmen keine BugFixes in Treiber machen. Was Unreal angeht, wie gehabt ich kenn keinen der je ein Problem mit U oder UT hatte.


Ansonsten soll er halt die Karte zurückgeben, wenn er soviel Probleme damit hat, hat er durchaus ein Recht dazu.

nggalai
2002-01-21, 15:34:42
Hi Pengo,

nette Liste, aber Du hast einen Punkt vergessen:

- einige haben ganz einfach kaum Probleme mit der K2, finden die Leistung der Karte zum Preis angemessen obwohl sie auch GF3 oder R8500 und weitere Karten kennen/besitzen, und können die von dir geschilderten Schwierigkeiten beim besten Willen nicht nachvollziehen, obwohl Sie selbst auch anderes als Q3A spielen. ;)

Ich denke, diese Diskussion führt zu nix, ergo: EOD für mich.

ta,
.rb

aths
2002-01-21, 15:38:28
Pengo,

zwischen dem Speed liegen Welten, zwischen der Qualität allerdings auch. Bei hohen Auflösungen ist der Vorteil von 4x FSAA gegenüber 2x nicht sehr deutlich. Bei niedrigen hingegen schon. Da wird auch der Vorteil von 4x SV gegenüber 4x MSAA á la GF3 deutlich. Bei niedrigen Auflösungen hat die R8500 genügend Power auch für hohe FSAA-Modi.

SV ist sinnvoll, obwohl MSAA deutlich schneller ist.

Thowe
2002-01-21, 15:48:25
Originally posted by Pengo
... Radeon einfallen lassen, zumindestens auf nicht vergrößerten Screenshots sind die Unterschiede vernachlässigbar.

Das verwendete Verfahren der R8500 schliesst es aus, dass man die Qualtität anhand eines Screenshots beurteilen kann.

http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=14

Dort ist es schon relativ gut beschrieben.

aths
2002-01-21, 15:49:57
<läster>

... relativ ungenau.

</läster>

Thowe
2002-01-21, 15:52:59
Originally posted by aths
<läster>

... relativ ungenau.

</läster>

Aber dafür hoffentlich für viele in der Basis verständlich.

aths
2002-01-21, 16:07:00
Hm,

<protz>

warte einfach ab, bis meine Prüfungs-Periode vorbei ist :)

</protz>

Pengo
2002-01-21, 16:10:15
Originally posted by aths
Pengo,

zwischen dem Speed liegen Welten, zwischen der Qualität allerdings auch. Bei hohen Auflösungen ist der Vorteil von 4x FSAA gegenüber 2x nicht sehr deutlich. Bei niedrigen hingegen schon. Da wird auch der Vorteil von 4x SV gegenüber 4x MSAA á la GF3 deutlich. Bei niedrigen Auflösungen hat die R8500 genügend Power auch für hohe FSAA-Modi.

SV ist sinnvoll, obwohl MSAA deutlich schneller ist.

Der Unterschied zwichen NOFSAA und FSAA ist schon klein, Unterschiede zwischen den Verfahren sind ohne Vergrößerungen so guit wie unsichtbar, besonders wenn man spielt und sich nicht jeden Pixel eines Screenshots anschaut. 2X FSAA + aniso auf einer GF3 schaut genauso gut aus wie 2X SV + aniso, ist aber um Welten schneller, SV ist bei aktuellen Spielen einfach nicht konkurrenzfähig, ATI setzen - 6.

hier ein Vergleich:

http://www.tech-report.com/reviews/2001q4/vidcards/index.x?pg=16

überall fast ein identisches Bild (nicht von der miesen Texturqualität der v5 täuschen lassen, da hat wohl jemand vergessen LOD Bias zu verstellen).

Pengo
2002-01-21, 16:14:13
Originally posted by nggalai
Hi Pengo,

nette Liste, aber Du hast einen Punkt vergessen:

- einige haben ganz einfach kaum Probleme mit der K2, finden die Leistung der Karte zum Preis angemessen obwohl sie auch GF3 oder R8500 und weitere Karten kennen/besitzen, und können die von dir geschilderten Schwierigkeiten beim besten Willen nicht nachvollziehen, obwohl Sie selbst auch anderes als Q3A spielen. ;)


Der Kumpel hat etwa 25 Spiele, mit den Treiber die dabei waren (die hat er zuerst installiert) liefen etwa 20 nicht richtig, nachdem ich neue installiert habe laufen nur noch etwa 10 problematisch - wie erklärst du dir das? Ich finde es passt wunderbar zu den Bugfix-Listen, da werden halt Monat für Monat die Treiber für jedes einzelne Spiel angepasst. Es erklärt wohl auch wieso K2U/K3 nicht kommt, die wollen erstmals K1/2 zum laufen bringen bevor sie mehr Probleme mit neuen Produkten schaffen.

nggalai
2002-01-21, 16:15:22
Hi Pengo,Der Unterschied zwichen NOFSAA und FSAA ist schon klein, Unterschiede zwischen den Verfahren sind ohne Vergrößerungen so guit wie unsichtbar, besonders wenn man spielt und sich nicht jeden Pixel eines Screenshots anschaut.

???

Ist das dein Ernst?

???

ta,
.rb, welcher die meisten Spiele lieber bei 800x600 mit FSAA als bei 1280x960 ohne spielt . . .

Pengo
2002-01-21, 16:21:01
Originally posted by nggalai
Hi Pengo,

???

Ist das dein Ernst?

???

ta,
.rb, welcher die meisten Spiele lieber bei 800x600 mit FSAA als bei 1280x960 ohne spielt . . .

Natürlich, ich habe etliche Spiele mit NOFSAA, 2x und 4x gespielt, der Unterschied ist vor allem deutlich zu sehen wenn man sich markante Punkte aussucht, in normalen Spiel halte ich die Verbesserungen für vernachlässigbar, hätte ich FSAA for free bekommen, von mir aus, aber so, schon ohne FSAA geht die Framerate manchmal unter 30 fps (1024x768x32 HQ++ 4x aniso).

Große Texturen würden IMHO viel mehr bringen als FSAA, bei Wolfenstein sind einige Texturen, vor allem die Bodentexturen, alles andere als detailreich.

Richthofen
2002-01-21, 16:21:16
Also ich finde wir können diese Diskussion hier langsam mal beenden.
Ich denke die meissten können Englisch und da hab ich einen Link einer bekannten Seite auch gleich:


http://www.anandtech.com/video/showdoc.html?i=1562

Fazit:

NVidia FSAA besser allerdings muss man AF dazuschalten!!!
Naja das sollte wohl jedem klar sein. Ich glaube sogar das bei ATI defaultmäßig in dieser Richtung was beim FSAA aktiviert ist.
Also immer AF bei Nvidia zum FSAA dazuschalten.
Ein Problem gibt es dabei nicht.
Die Performance ist immer noch DEUTLICH besser als bei ATI. Die Ergebnisse in Q3, RTCW usw.. sprechen Bände.
Nur ATIs 2x Quality FSAA hat akzeptable Frameraten.
Das 4x ist jenseits von gut und Böse.

FSAA Contest ging an Nvidia in der Runde GF3 vs Radeon8500.
Also muss es ATI beim neuen Chip erneut versuchen :)
Jedenfalls haben sie da nix neues gebracht. Schlichtweg das Radeon FSAA eingebaut mehr nit, also das was Nvidia auch schon bei der GF2 gemacht hat.

Mit besser meinte ich übrigens gleiche Qualität bei deutlich besseren Frameraten.

Haarmann
2002-01-21, 16:57:12
Ja Pengo... SerSam läuft unter Direct3D ;D

Sonst noch irgendwelche geistigen Höhenflüge von Dir?

Aha... Dein Kollege hat ne SB Live drin? Dann hab ich das grösste Problem schon gefunden...

Und offenbar weisste noch immer ned was Macrovision is - das ist kein Game ;D

Wer sagt dass dies Unreal Problem nicht erst im letzten Treiber neu dazukam?

Max Pain (der Titel passt) geht mit noch immer 25fps bei 1024*768 32 Bit - für diese Art Games ist das noch ausreichend, bei Deus EX war ne GTS auch ned schneller.

Die Wirkung von FSAA mit Screenshots zu beurteilen zeigt nur Inkompetenz... Schau mal im 3dmark2001 im Pixelshader Test wie schön die Texturen flimmern... und dann machs mit FSAA und schau nochmals.

Wie nggalai schon sagte... Er hat installiert und es lief - wenn ich tweake, damit ich etwas mehr Leistung raushole, dann is das meine Sache. Und wenn das ein MediaMarkt Kunde versucht, weil er sowas in der PC Bild gelesen hat, gehts eben schief.

Richthofen, seit neuen OSP Versionen kannste den Gegner voll erleuchten usw. Da musste die Details nicht mehr runter drehen und seit p_movefixed 1 sind fps auch nimmer wichtig.
Seither spielen durchaus auch gute Q3-ler wieder mit Details, aber fast alle ohne Lightmap.
Falsch isses allerdings ned, was Du sagst ;D - Und im RTCW kann ich guten Gewissens mit 2xSV spielen - FPS reichen auch noch so und sind nur 7 weniger als ohne SV.

Grossmaul Anand hat auch vergessen, dass es ausser OpenGL noch D3D gibt...

Ceiser Söze
2002-01-21, 17:21:45
Ich möchte zu dieser reichlich absurden Diskussion eigentlich nur schnell nggalai und Haarmann anschliessen: Eine ausgeliehne Prophet 4500 steckte mittlerweile in 3 verschiedenen Systemen (wobei auf eines der Ausdruck "unaufgeräumt" wohl eine Untertreibung darstellt - afaik waren dort nicht einmal die alten Treiber deinstalliert) und keines machte auch nur das geringste Problem. Karte rein, Treiber rauf, fertig. Einfacher geht es nun wirklich nicht.
Von den Dutzenden für Kompatibilitätschcecks hizugezogenen Spielen machte als einziges Pool of Radiance II Probleme - aber das lag definitiv nicht an der Hardware / am Treiber (wer das Spiel hat, der weiss warum :-/ ).
Naja, wie ich schon im anderen Thread sagte: Unterschwelliges und haltloses Kyro-Bashing, sonst nix...

Thowe
2002-01-21, 17:25:09
Originally posted by aths
Hm,

<protz>

warte einfach ab, bis meine Prüfungs-Periode vorbei ist :)

</protz>

*freu*

da besteht Hoffnung das endlich mal richtig aufgeklärt wird.

BTW: mache mal gerade eine PM an dich.

Andre
2002-01-21, 17:36:15
Originally posted by Haarmann
Richthofen, seit neuen OSP Versionen kannste den Gegner voll erleuchten usw. Da musste die Details nicht mehr runter drehen und seit p_movefixed 1 sind fps auch nimmer wichtig.


Korrektur:

Der Befehl heisst /pmove_fixed 1 oder 0 und kann nur per Konsole direkt aufm Server gesetzt werden - also nicht in der .cfg von Q3.

Weiterhin ist der Befehl seit dem PR 1.27 realisiert, hat also nichts mit OSP, CPMA oder sonstigen Mods zu tun.

Labberlippe
2002-01-21, 17:47:50
Ich streite es ganz entschieden ab, Truform wird nicht genutzt, zumindestens nicht das was ich unter Nutzen verstehe. Die Implementation in Spielen wie RTCW ist schlichweg nutzlos, somit ist das ganze Feature derzeit nutzlos.

Dann streite ich ganz entschieden die DX7 T&L ab, denn die ist war auch in der benutzten Form schlichtweg nutzlos.


Bei deinem ganzen hype um die 8500 hast du die schlechten XP Treiber und die lächerliche FSAA Performance außer Acht gelassen.

Also die XP Treiber sollten momentan sogar sehr gut funzen, was auch einige Tests belegen.
Was SV betrifft man kann es nicht mit den GeForce3 Verfahren vergleichen, dieses hat aber aths schon mitgeteilt.
Fakt die fps reichen bei beiden Karten aus.

Gruss Labberlippe

Pengo
2002-01-21, 17:54:41
Originally posted by Ceiser Söze
Ich möchte zu dieser reichlich absurden Diskussion eigentlich nur schnell nggalai und Haarmann anschliessen: Eine ausgeliehne Prophet 4500 steckte mittlerweile in 3 verschiedenen Systemen (wobei auf eines der Ausdruck "unaufgeräumt" wohl eine Untertreibung darstellt - afaik waren dort nicht einmal die alten Treiber deinstalliert) und keines machte auch nur das geringste Problem. Karte rein, Treiber rauf, fertig. Einfacher geht es nun wirklich nicht.
Von den Dutzenden für Kompatibilitätschcecks hizugezogenen Spielen machte als einziges Pool of Radiance II Probleme - aber das lag definitiv nicht an der Hardware / am Treiber (wer das Spiel hat, der weiss warum :-/ ).
Naja, wie ich schon im anderen Thread sagte: Unterschwelliges und haltloses Kyro-Bashing, sonst nix...

"Karte rein, Treiber rauf, fertig. Einfacher geht es nun wirklich nicht.". Was hat dieser Blödsinn mit den von mir aufgezählten Problemen zu tun? Habe ich etwa behauptet daß die Karte nicht lief? Nein! Ich habe einige der Spiele aufgezählt die mit der K2 bei meinem Kumpel problematisch laufen, mir ist es egal ob andere Spiele laufen, diese machten Probleme, nach dem Einbau einer TNT hat sich klar gezeigt daß die Kyro Treiber das Problem sind, die Bug-Fix Listen der letzten 4-5 Treiberreleases zeigen auch klar daß die Treiber zumindestens in einem erbärmlichen Zustand waren, nach meinen Erfahrungen gar bis heute sind. Es gibt mit GF2 Ti und Radeon 7500 zwei Produkte in der gleichen Preisklasse die als Gesamtpaket in einer anderen Liga spielen, kein Wunder daß K2 so wenig verbreitet ist, man braucht die Karte schlichtweg nicht.

Labberlippe
2002-01-21, 17:59:01
"Du kannst das FSAA der R8500 nicht mit Quin. mit der GeForce3 gleichsezten."
Wer tut denn das ?
???
Alle die Versuchen direkte Vergleiche zu setzen.

"Hoffen wir das jetzt endlich die Spiele Hersteller auf diese Feature [Truform] einsteigen.
Dann bekommen die Spiele auch einen neuen Grad an Realismus...."

Hoffe ich auch.

Ich hoffe inständig, daß dies nicht so sein wird, denn ich habe schon mal versucht zu beschreiben, was dann passieren könnte: Die Spiele-Entwickler könnte dieses Feature dazu führen, die Objekte wieder Polygon-ärmer zu machen und damit allen GraKa-Besitzern, die eben keine nPatch-Hardware haben, einen effektiven Nachteil bescheren...

Wie kommst Du denn bitte auf das jetzt ???
Das hat nie einer behauptet.
Dies ist eine zusätzliche Funktion und kein Rückschritt.

Ich persönlich möchte detailierteste 3D-Darstellungen und nicht welche, die durch (heute auch nur halbherzig umgesetzten) Tricks dann wieder 'aufgepumpt' werden. Das ist in etwa so, als würde man die Details von Objekten komprimieren, um sie dann später wieder zu vervollständigen. Das Ergebnis wäre dann wieder ein Bild, was letztlich einen Verlust beinhaltet und dann auch noch alle benachteiligt, die diese Form der 'Komprimierung' nicht unterstützen. Das läuft mir zuwieder...

Insofern: Truform ? Nein Danke !
;-)
Also die Funktionsweise und den Sinn von Truform ist Dir nicht klar.
Ansonsten kann ich dieses Posting mir nicht erklären.

Gruss Labberlippe

Pengo
2002-01-21, 17:59:03
Dann streite ich ganz entschieden die DX7 T&L ab, denn die ist war auch in der benutzten Form schlichtweg nutzlos.

Dem schließe ich mich an, es mag sein daß es mit U2 anders wird, sicher ist es aber nicht.

Also die XP Treiber sollten momentan sogar sehr gut funzen, was auch einige Tests belegen.

Beta Treiber zählen nicht.

Was SV betrifft man kann es nicht mit den GeForce3 Verfahren vergleichen, dieses hat aber aths schon mitgeteilt.
Fakt die fps reichen bei beiden Karten aus.

Wenn ATI schlecht abschneidet kann man es natürlich nicht vergleichen. fps reichen bei 4x SV definitiv für ein sehr gutes Spielvergnügen nicht aus, bei SS z.B. spielt sogar die preiswerte Ti200 in einer anderen Liga als R8500.

Labberlippe
2002-01-21, 18:04:50
Und dank Laberlippe (nicht dank Razor ;-) sind wir nun wieder meim alten Thema, aber nicht den ganzen Thread hindurch, sondern erst seit ungefähr einer Seite...

THX
Ich dachte zum "streiten" gehören immer 2 ???

Haarmann
2002-01-21, 18:06:28
Andre,

Stimmt, man schreibt das so...

im OSP gabs es ne weile per cl_125hz 1 oder so...
Aber das haste in der cfg und is votebar - daher auch aufm server ;-)
Spiele wohl zuviel OSP - aber eben ... mehr rtcw

Ceiser Söze
2002-01-21, 18:07:48
Scheinbar hast du das wichtigste in meinem Posting wieder (absichtlich?) überlesen:

Von den Dutzenden für Kompatibilitätschcecks hizugezogenen Spielen machte als einziges Pool of Radiance II Probleme - aber das lag definitiv nicht an der Hardware / am Treiber

Ceiser Söze
2002-01-21, 18:08:27
Scheinbar hast du das wichtigste in meinem Posting wieder (absichtlich?) überlesen:

Von den Dutzenden für Kompatibilitätschcecks hizugezogenen Spielen machte als einziges Pool of Radiance II Probleme - aber das lag definitiv nicht an der Hardware / am Treiber

PS: Einen etwas freundlicheren Tonfall würde ich sehr zu schätzen wissen. Danke sehr.

Labberlippe
2002-01-21, 18:11:29
Dem schließe ich mich an, es mag sein daß es mit U2 anders wird, sicher ist es aber nicht.

Na somit sind wir mal einer Meinung. :)


Beta Treiber zählen nicht.
Das sagen jetzt plötzlich die nVIDIA User.
Teilweise mussten sich nVIDIA User mit Beta-Treibern um die Runden bringen.
Auch mehrere Monaten später hat nVIDIA erst offiziellen Treiber bereitgestellt.


Wenn ATI schlecht abschneidet kann man es natürlich nicht vergleichen. fps reichen bei 4x SV definitiv für ein sehr gutes Spielvergnügen nicht aus, bei SS z.B. spielt sogar die preiswerte Ti200 in einer anderen Liga als R8500.

Keine Frage das das GeForce3 Verfahren schneller ist aber dennoch sind es 2 Verschiedene Technik die hier zum Einsatz kommen.
Wobei laut einigen hier ja bei Shottern sowieso mit minimalen Details gepsielt wird damit die Framerrate past. :)

Gruss Labberlippe

Richthofen
2002-01-21, 18:29:26
Ob Beta Treiber oder nicht ist mir vollkommen egal.
Solange aber die Tester der Radeon8500 grausame XP Performance bescheinigen - ist das so und nicht anders.
Wenns nur einer wäre - naja ok ausrutscher - aber es sind halt fast alle.

Und was die KyroII betrifft, so ist mir eigentlich latte wo sie nun Probleme hat und wo nicht. Fakt ist für den selben Preis gibt es von ATI und von Nvidia Pakete die ein deutlich besseres Gesamtbild abliefern - Radeon7500 und GF2Ti.
Ergo - kein Kaufgrund mehr für ne KyroII, was PowerVR schliesslich dazu veranlasst haben könnte eine KyroIIUltra zu machen.
Wenn die aber nur mit 200MHZ taktet, wird sich auch damit das Bild nicht ändern.
PowerVR muss nunmal knallige Leistung bringen weil keine Marke.
Der Jubel um die KyroII ist ziemlich schnell verflogen - So schnell das kurz danach Hercules doch wieder NV Chips verbaut hat und das obwohl sie mehr blechen mussten als andere.
Mal schauen wie loyal sie bei ATI sind.
Sollten sie dochmal wieder auf Nvidia umsatteln wollen, weil evtl ATI mal für ne Weile nicht mithalten kann, würd ich die noch mehr blechen lassen :) Die dürften sich bei mir gaaaaaanz hinten anstellen.

ow
2002-01-21, 19:08:19
Originally posted by Labberlippe


Das sagen jetzt plötzlich die nVIDIA User.
Teilweise mussten sich nVIDIA User mit Beta-Treibern um die Runden bringen.
Auch mehrere Monaten später hat nVIDIA erst offiziellen Treiber bereitgestellt.


Gruss Labberlippe


Das ist schlichtweg falsch.
Auch wenn man es immer wieder wiederholen muss: NVidia ist nicht für Treibersupport zuständig, sondern die Kartenhersteller.

Und die haben ihre Treiber öfters aktualisiert als es NV mit den Ref-Treibern tat.

So ist zb. NV von 6.50 direkt auf 12.41, während es von Hercules auch den 7.58 inkl. WHQL gab.

Die Zahl echter NV-Betatreiber ist verschwindend gering.

Ich schätze, dass mehr als 2 Dutzend NV Treiberversionen offiziell von Kartenherstellern WHQL-Zertifiziert wurden bei MS. Und soviele Ref-Treiber von NV hat es nicht gegeben.

Labberlippe
2002-01-21, 19:18:22
Ob Beta Treiber oder nicht ist mir vollkommen egal.
Solange aber die Tester der Radeon8500 grausame XP Performance bescheinigen - ist das so und nicht anders.
Wenns nur einer wäre - naja ok ausrutscher - aber es sind halt fast alle.
Also mit den neuen Treibern ist die WINXP Leistung ok.
Die TI500 und R8500 Retail kämpfen um ein paar Frames, das ist aber schon alles.


Und was die KyroII betrifft, so ist mir eigentlich latte wo sie nun Probleme hat und wo nicht. Fakt ist für den selben Preis gibt es von ATI und von Nvidia Pakete die ein deutlich besseres Gesamtbild abliefern - Radeon7500 und GF2Ti.
Ergo - kein Kaufgrund mehr für ne KyroII, was PowerVR schliesslich dazu veranlasst haben könnte eine KyroIIUltra zu machen.

Bitte?
Wo bekommt man eine Retail GeForce2 Ti und R7500 für 100€?
Nirgends.
Denn im Handel wird die Hecules mit 64 MB und K2 Chipsatz um 100€ angeboten.
Die R7500 und die GeForce2 Ti Karten im Schnitt um 190€.
Das ist aber ein defitiger Unterschied.
Für 100€ bekommst Du gerade mal mit gut Glück eine MX400 und die ist um Welten langsamer als eine K2.

Bitte komme mir jetzt nicht mit einen dubiosen Link von irgendeinen Online Händler mit einer NoName-Karte.
Denn hier liegen mit gut Glück die Preise noch bei 150€.
Nur zur Info.
90% der Kunden kaufen die Hardware noch immer beim Händler um die Ecke im. Wobei die Betonung auf noch liegt.

Für 100€ gibt es nichts besseres als die K2.
Wenn man dann noch die Leistung bedenkt die ganz klar bei GeForce2 anzusiedeln ist, sollte sich eigentlich die Frage nach Preis/Leistung erübrigt haben.
Denn da gewinnt die K2 in der Region um Welten.
PS: Meistens wird für 100€ eine MX200 angeboten.
Das ist die Realität


Wenn die aber nur mit 200MHZ taktet, wird sich auch damit das Bild nicht ändern.
PowerVR muss nunmal knallige Leistung bringen weil keine Marke.
Der Jubel um die KyroII ist ziemlich schnell verflogen - So schnell das kurz danach Hercules doch wieder NV Chips verbaut hat und das obwohl sie mehr blechen mussten als andere.
Mal schauen wie loyal sie bei ATI sind.
Sollten sie dochmal wieder auf Nvidia umsatteln wollen, weil evtl ATI mal für ne Weile nicht mithalten kann, würd ich die noch mehr blechen lassen :) Die dürften sich bei mir gaaaaaanz hinten anstellen.

Klar ist der Jubel schnell verflogen es wurden ja auch mit pseudo Argumenten gearbeitet, weil man es nicht verkraften konnte das ein Hersteller mal gezeigt hat wo es langgeht.
Hat ja auch das Kyro Dokument deutlich gezeigt.
Ich bezweifle mal das die Hersteller wie Hercule und Gigabyte umsonst auf ATI satteln wenn nicht die Leistung vernünftig wäre.

Gruss Labberlippe

Labberlippe
2002-01-21, 19:21:30
Originally posted by ow



Das ist schlichtweg falsch.
Auch wenn man es immer wieder wiederholen muss: NVidia ist nicht für Treibersupport zuständig, sondern die Kartenhersteller.

Und die haben ihre Treiber öfters aktualisiert als es NV mit den Ref-Treibern tat.

So ist zb. NV von 6.50 direkt auf 12.41, während es von Hercules auch den 7.58 inkl. WHQL gab.

Die Zahl echter NV-Betatreiber ist verschwindend gering.

Ich schätze, dass mehr als 2 Dutzend NV Treiberversionen offiziell von Kartenherstellern WHQL-Zertifiziert wurden bei MS. Und soviele Ref-Treiber von NV hat es nicht gegeben.

Lassen wir bitte wieder die Treiber Diskussion das haben wir schon zur genüge durch.
Was die Herstellertreiber betrifft, sieht es mit der Dauer noch schlechter aus.......

Gruss Labberlippe

aths
2002-01-21, 20:33:13
Richthofen,

die gute Texturqualität bei der Radeon kommt beim Anti-Aliasing nicht von einem angeblich automatisch zugeschaltetem AF, sondern durch das Supersampling-Verfahren. Von der Kantenglättung her ist SV ebenfalls besser, da nVidia den 4x-Modus nur mit ordered grid anbietet.

edit: Du kannst mir glauben - in den letzten Wochen habe ich mich intensiv mit Anti-Aliasing-Methoden beschäftigt.

Pengo
2002-01-21, 20:36:44
Originally posted by Ceiser Söze
Scheinbar hast du das wichtigste in meinem Posting wieder (absichtlich?) überlesen:



Nein habe ich nicht. Vielleicht hast du unter Win 98/Me und nicht unter XP getestet. Ich habe etwa 25 Spiele getestet, wie gesagt 20 machten Probs mit den beigelegten Treibern, nach der Installation der aktuellen sind viele dieser Probleme verschwunden, also sind die Treiber das Problem, nicht das System meines Kumpels. Der Kurztest mit der TNT hat es bewiesen, alle Probleme sind sofort verschwunden. Mich würde es nicht wundern wenn nach nächsten 3 Treiberupdates auch die Spiele die jetzt bei ihm Probs machen richtig laufen werden, aber dann ist K2 entgültig veraltet und nicht mehr konkurrenzfähig. Hardware und Software sollte beim launch eines Produktes richtig funktionieren, nicht wenn das Produkt bereits ein Auslaufmodell ist.

Pengo
2002-01-21, 20:45:40
Na somit sind wir mal einer Meinung. :)

kommt nicht oft vor :)

Das sagen jetzt plötzlich die nVIDIA User.
Teilweise mussten sich nVIDIA User mit Beta-Treibern um die Runden bringen.

Das halte ich für ein Gerücht, einige haben Beta Treiber installiert um bessere Performance zu bekommen, keiner mußte es tun, die offiziellen Treiber sind seit Jahren gut.

Keine Frage das das GeForce3 Verfahren schneller ist aber dennoch sind es 2 Verschiedene Technik die hier zum Einsatz kommen.

Das bestreitet ja keiner, GF3 bringt ein neues FSAA, R8500 ein leicht geändertes von GF1/Radeon unter einem neuen Marketingnamen. Das Verfahren ist mir ziemlich egal wenn es gute Ergebnisse liefert (d.h. Quickschmier finde ich nicht i.O.), und da hat ATI es nun mal verpennt ein schnelles FSAA zu liefern (auch wenn ihre Marketingabteilung das Gegenteil behauptet hat), mit GF4 könnte der Unterschied noch viel drastischer werden.

aths
2002-01-21, 20:48:03
Pengo,

da hast du wohl irgendwie totales Pech gehabt. Aber sieh doch den Tatsachen ins Auge: Die Kyro(2) ist als problemlose Karte bekannt, wie hier eine Menge Leute schreiben. Du magst der Ausnahmefall sein. Dass deine persönliche Erfahrung mit dem Kyro offenbar nicht repräsentativ ist, solltest du inzwischen mal gemerkt haben.

Andre
2002-01-21, 20:52:27
Originally posted by Haarmann
Andre,

Stimmt, man schreibt das so...

im OSP gabs es ne weile per cl_125hz 1 oder so...
Aber das haste in der cfg und is votebar - daher auch aufm server ;-)
Spiele wohl zuviel OSP - aber eben ... mehr rtcw

Ja, dass ist richtig, den Befehl gabs auch im Original Q3 schon.
Der Befehl cl_125hz 1 bewirkt aber eine Festsetzung der Framerate auf 125 FPS, wenn ich nicht irre.
pmove_fixed hingegen erlaubt auch höhere Frameraten, tut aber bei niedrigeren FPS so, als wären es höhere.
Man kann pmove auch serverseitig aktivieren, warum das nicht gemacht wird, ist mir schleierhaft.
Allerding sollte man erwähnen, dass pmove zu einem ruckeln insgesamt führen kann, fast so wie bei seta cl_timenudge +/- x, aber nicht ganz so schlimm.
Aber das wird jetzt zu OT, ich will den Thread nicht stören.

BTW: Wolln wer mal zocken ? :D

aths
2002-01-21, 20:57:37
Pengo,

GF1/2 nutzt einen Superbackbuffer, Radeon nutzt Multisamplebuffer. Und erlaubt "nebenbei" pseudozufällige Abtastung. Damit ist SV dem GF1/2 Supersampling deutlich überlegen.

Wenn es dir nur um den Speed geht, dann müsstest du das AF der GF3 verdammen. Bei der R8500 ist es nämlich sehr deutlich schneller.

Supersampling-AA bringt ein paar Qualitätsvorteile und hat seine Daseinsberechtigung. Ich freue mich, dass MSAA mit dem GF4 vermutlich noch schneller wird - es ist meiner Theorie nach sogar ein beinahe "for free" möglich. Dennoch bleibt die MS-Qualität immer der SS-Qualität unterlegen. Der User kann sicher für sich entscheiden, was besser für ihn ist.

Ceiser Söze
2002-01-21, 21:03:04
Ich habe unter Win98 und Win2k (jawohl, die angebliche "Problemplattform" schlechthin) getestet.
Ich habe insgesamt genau 43 Spiele in meinen Kompatibilitätscheck einbezogen - und zwar von DirectX 5 an aufwärts (und sogar bei alten Spielen gab es keine Probleme).
2 Spiele machten Probleme, wobei nur beim Zweiten von einem wirklichen Problem die Rede sein kann:
-Baldurs Gate 2: OpenGL Modus funktionierte nicht korrekt. Halb so wild, weil der Software-Modus imho sowieso besser aussieht (Schärfer dargestellte Umgebungsgrafik (Software) vs. schönere Zaubereffekte (OpneGL) - ersteres fällt mehr ins Gewicht).
-Pool of Radiance 2: Definitiv nicht auf Treiber und Hardware zurückzuführen, da das Spiel so oder so ein einziger Bug war und ist...

Alle anderen 41 Spiele machten keine Probleme - sowohl unter Win2k, wie auch unter Win98 SE. Und ich habe dabei quer durch die Genres getestet: Shooter, Action-Adventures, Sport, Flugsimulationen, Rennspiele. Ich behaupte daher von mir, die Karte wesentlich besser als du zu kennen.
(Da ich für die Karte zudem keinen Cent bezahlen musste, sondern sie nur auslieh, wird meine Meinung übrigens auch von keinerlei "Investitions-Subjektivität", die hier bei einigen Usern ja äusserst stark vorhanden ist, verfälscht.)

Übrigens finde ich deine Anti-Kyro Kampagne, die du seit einigen Tagen hier veranstaltest, ziemlich lächerlich: Du suchst verkrampft nach möglichen Problemen bzw. listest hier Probleme auf, die gar keine sind, nur um ein Produkt schlecht zu machen, das gar nie schlecht war. Mittlerweile gibt es zwar mit dem R7500 und evt. auch der GF2 Ti die besseren Alternativen, aber dein Hauptkritikpunkt (Inkompatibilität) gewinnt deswegen kein Bisschen an Richtigkeit. Kurz gesagt: Krümmelkackerei. Dein Spielchen könnte man problemlos auch mit anderen Karten machen. Wer sucht, der findet - auch angebliche "Probleme" von Grafikkarten...

Pengo
2002-01-21, 21:04:55
Bitte?
Wo bekommt man eine Retail GeForce2 Ti und R7500 für 100€?
Nirgends.
Denn im Handel wird die Hecules mit 64 MB und K2 Chipsatz um 100€ angeboten.
Die R7500 und die GeForce2 Ti Karten im Schnitt um 190€.
Das ist aber ein defitiger Unterschied.
Für 100€ bekommst Du gerade mal mit gut Glück eine MX400 und die ist um Welten langsamer als eine K2.

Bitte komme mir jetzt nicht mit einen dubiosen Link von irgendeinen Online Händler mit einer NoName-Karte.
Denn hier liegen mit gut Glück die Preise noch bei 150€.
Nur zur Info.

Gainward 64MB GeForce2 Ti450 GS TVOut Retail für €139 bei e-bug (habe sie auch schon für €129 gesehen, hab den Link aber nicht mehr), die K2 von Hercules (auch Retail, TVOut) ist laut Preistrend.de für €119 zu haben. Bei diesen Preisen hat K2 keine Berechtigung mehr. Gut, man kann sich eine Bulk Noname Kyro 2 für € 80 schnappen, aber lieber was richtiges.

90% der Kunden kaufen die Hardware noch immer beim Händler um die Ecke im. Wobei die Betonung auf noch liegt.

Und dort bekommen sie höchstwahrscheinlich nur NVIDIA/ATI zu sehen, Kyro kennt keine Sau, bedeutungslos.

Für 100€ gibt es nichts besseres als die K2.

Das mag stimmen, deshalb sparen um mehr als 100€ ausgeben zu können.

Denn da gewinnt die K2 in der Region um Welten.
PS: Meistens wird für 100€ eine MX200 angeboten.
Das ist die Realität

Da gibts schon welche für €65 und da K2 ein Newcomer ist müsste die Karte einen Kampfpreis haben, d.h. preislich gegen MX200 antreten, bessere Performance, bessere BQ, selber Preis, deshalb hielte ich € 65 für eine Marken-Kyro 2 für noch akzeptabel.

Klar ist der Jubel schnell verflogen es wurden ja auch mit pseudo Argumenten gearbeitet, weil man es nicht verkraften konnte das ein Hersteller mal gezeigt hat wo es langgeht.

Man mußte gar nicht Arbeiten, die Welt weiß/wußte nicht was Kyro ist, absolutes Nischenprodukt, nur unter paar Freaks bekannt. Ein newcomer muß mehr bieten als gleiche Performance.

Hat ja auch das Kyro Dokument deutlich gezeigt.
Ich bezweifle mal das die Hersteller wie Hercule und Gigabyte umsonst auf ATI satteln wenn nicht die Leistung vernünftig wäre.

Die bekommen exclusiv-Vertrräge mit ATI, die könnten sicherlich lukrativer sein. Es ist besser exklusiv bei ATI zu sein als einer unter vielen bei NVIDIA. Daß Hercules ATI Karten in Europa übernimmt ist ein sehr schlechtes Ohmen für PowerVR, ATI wird kaum PowerVR Karten von Hercules dulden, es ist ein Indiz daß Hercules von Kyro 3 nicht überzeugt ist oder daß Kyro 3 gar nicht dieses Jahr geplannt ist, was ich für wahrscheinlicher halte, wenn K2 Ultra halbes Jahr zu spät kommt, kann Kyro 3 locker 2 Jahre zu spät kommen.

aths
2002-01-21, 21:19:25
Pengo,

falls ich meine unmaßgebliche Meinung äußern darf: Es scheint, als führst du krampfhaft einen Dschihad. Vermutlich kommst du dir völlig objektiv vor. Ich glaube sagen zu können, dass das die wenigsten Leser so sehen.

Pengo
2002-01-21, 21:19:49
Originally posted by aths
Pengo,

da hast du wohl irgendwie totales Pech gehabt. Aber sieh doch den Tatsachen ins Auge: Die Kyro(2) ist als problemlose Karte bekannt, wie hier eine Menge Leute schreiben. Du magst der Ausnahmefall sein. Dass deine persönliche Erfahrung mit dem Kyro offenbar nicht repräsentativ ist, solltest du inzwischen mal gemerkt haben.

Die Readmes der letzten Kyro Treiber Releases zeigen daß ich einer von vielen sein mußte, oder denkst du die schreiben so viel rein um das eigene Produkt schlecht zu machen?

Exxtreme
2002-01-21, 21:24:27
Muss mich Ceiser anschliessen. Pengo, dein Kreuzzug gegen PowerVR und 3DFX wirkt IMHO langsam aber sicher lächerlich, sorry. Du bringst immer wieder die gleichen Argumente, die die Besitzer der Kyro2-Karten irgendwie nicht nachvollziehen können, von wegen Kompatibilitäts- und Stabilitätsprobleme. Auch die Argumente gegen 3DFX wegen 16 Bit und verwaschenen Texturen scheinen langsam ausgelutscht zu sein. Langsam wissen alle wie toll du deine GF3 findest, akzeptiere aber bitte auch andere Meinungen. Nicht jeder findet 3DFX und Kyro so schlecht wie du. Und ich glaube auch nicht, daß du die Anderen von deiner Meinung mit diesen Argumenten überzeugen kannst.

Nichts für ungut.

Gruß
Alex

Pengo
2002-01-21, 21:32:00
[QUOTE]Originally posted by aths
Pengo,

GF1/2 nutzt einen Superbackbuffer, Radeon nutzt Multisamplebuffer. Und erlaubt "nebenbei" pseudozufällige Abtastung. Damit ist SV dem GF1/2 Supersampling deutlich überlegen.

Es zählt was hinten rauskommt und da ist der Unterschied minimal.

Wenn es dir nur um den Speed geht, dann müsstest du das AF der GF3 verdammen. Bei der R8500 ist es nämlich sehr deutlich schneller.

AF der GF3 ist schnell genug, SV aber nicht. R8500 kann nicht aniso + trilinear in Gegensatz zu GF3, das ist mir aber egal, aniso + bilinear ist fast genauso gut. Es geht mir nicht um Kleinigkeiten wie Unterschiede zwichen af bilinear zu af trilinear, SSAA zu MSAA oder ob die R8500 bei einem Spiel 45 fps und die Ti500 49 fps bringt, Izmir Egal! Wenn allerdings eine Ti500 bei 4x FSAA 60, eine 8500 aber nur 30 fps schafft dann schaut die Geschichte ganz anders aus. Ich halte die Radeon 8500 für eine sehr gute Karte, SV allerdings die größte Schwachstelle des gesamten Pakets und deshalb kann ich den Hype um SV einiger weniger nicht verstehen.

Supersampling-AA bringt ein paar Qualitätsvorteile und hat seine Daseinsberechtigung.

Wenn ATI es schaffen würde mit SSAA gleiche Frameraten zu bringen wie GF3 mit MSAA, von mir aus, dann ist es halt besser, bei der aktuellen Performance ist es aber ein Witz, und es ist mir egal daß es an der fehlenden Bandbreite liegt.

Ich freue mich, dass MSAA mit dem GF4 vermutlich noch schneller wird - es ist meiner Theorie nach sogar ein beinahe "for free" möglich. Dennoch bleibt die MS-Qualität immer der SS-Qualität unterlegen. Der User kann sicher für sich entscheiden, was besser für ihn ist.

Um zu entscheiden muß SV erstmals in allen Spielen brauchbare Frameraten liefern, so ist MSAA konkurrenzlos.

Pengo
2002-01-21, 21:38:27
Originally posted by aths
Pengo,

falls ich meine unmaßgebliche Meinung äußern darf: Es scheint, als führst du krampfhaft einen Dschihad. Vermutlich kommst du dir völlig objektiv vor. Ich glaube sagen zu können, dass das die wenigsten Leser so sehen.

Ich kann in dieser Hinsicht nicht objektiv sein, da meine Erfahrungen mir der Kyro ja subjektiv waren. Durch die Kyro Treiber Readmes fühle ich mich aber in meinen Erfahrungen vollkommen bestätigt. Aufgrund dieser Erfahrungen werde ich alle vor der Kyro 2 warnen, da es viel bessere Produkte (GF2 Ti,R7500) auch günstig zu haben gibt, und ich nicht will daß sich andere so rumärgern wie ich es getan habe.

Es ist genauso wie mit VIA - zu viele schlechte Erfahrungen, nie wieder kommt mir so ein Teil in den Rechner, es ist mir klar daß in vielen VIA Systemen alles problemlos läuft, aber wieso soll ich meine eigenen Erfahrungen ignorieren?

Pengo
2002-01-21, 21:42:14
Originally posted by Ceiser Söze
Ich habe unter Win98 und Win2k (jawohl, die angebliche "Problemplattform" schlechthin) getestet.
Ich habe insgesamt genau 43 Spiele in meinen Kompatibilitätscheck einbezogen - und zwar von DirectX 5 an aufwärts (und sogar bei alten Spielen gab es keine Probleme).
2 Spiele machten Probleme, wobei nur beim Zweiten von einem wirklichen Problem die Rede sein kann:
-Baldurs Gate 2: OpenGL Modus funktionierte nicht korrekt. Halb so wild, weil der Software-Modus imho sowieso besser aussieht (Schärfer dargestellte Umgebungsgrafik (Software) vs. schönere Zaubereffekte (OpneGL) - ersteres fällt mehr ins Gewicht).
-Pool of Radiance 2: Definitiv nicht auf Treiber und Hardware zurückzuführen, da das Spiel so oder so ein einziger Bug war und ist...

Alle anderen 41 Spiele machten keine Probleme - sowohl unter Win2k, wie auch unter Win98 SE. Und ich habe dabei quer durch die Genres getestet: Shooter, Action-Adventures, Sport, Flugsimulationen, Rennspiele. Ich behaupte daher von mir, die Karte wesentlich besser als du zu kennen.
(Da ich für die Karte zudem keinen Cent bezahlen musste, sondern sie nur auslieh, wird meine Meinung übrigens auch von keinerlei "Investitions-Subjektivität", die hier bei einigen Usern ja äusserst stark vorhanden ist, verfälscht.)

Übrigens finde ich deine Anti-Kyro Kampagne, die du seit einigen Tagen hier veranstaltest, ziemlich lächerlich: Du suchst verkrampft nach möglichen Problemen bzw. listest hier Probleme auf, die gar keine sind, nur um ein Produkt schlecht zu machen, das gar nie schlecht war. Mittlerweile gibt es zwar mit dem R7500 und evt. auch der GF2 Ti die besseren Alternativen, aber dein Hauptkritikpunkt (Inkompatibilität) gewinnt deswegen kein Bisschen an Richtigkeit. Kurz gesagt: Krümmelkackerei. Dein Spielchen könnte man problemlos auch mit anderen Karten machen. Wer sucht, der findet - auch angebliche "Probleme" von Grafikkarten...

Jetzt fehlt noch daß du behauptest daß die BugFix Readmes zu den Kyro Treibern von mir verfasst wurden, da es ja keine Probleme gab/gibt. Ich gebe mich geschlagen, Kyro 2 Karten müssen ja Klasse sein, wie könnte man sonst die ungeheure Popularität erklären? Und den >256MB Bug hat es auch nie gegeben.

Ceiser Söze
2002-01-21, 21:47:39
Ist dir eigentlich schonmal der Gedanke gekommen, dass die Readmes bei PowerVR im Gegensatz zu den anderen Unternehmen auch wirklich von der TechSupport-Abteilung verfasst werden?

Und mal eine Frage an die Allgemeinheit: Wer wirkt glaubwürdiger? Diejenigen, welche ihre Meinung aufgrund von eigenen, über mehrere Wochen gesammelten Erfahrungen gebildet haben, oder der, welcher sich eine Meinug aus ReadMe's (:D:D:D) bildet?

Pengo
2002-01-21, 21:54:02
Originally posted by Ceiser Söze
Ist dir eigentlich schonmal der Gedanke gekommen, dass die Readmes bei PowerVR im Gegensatz zu den anderen Unternehmen auch wirklich von der TechSupport-Abteilung verfasst werden?

Und mal eine Frage an die Allgemeinheit: Wer wirkt glaubwürdiger? Diejenigen, welche ihre Meinung aufgrund von eigenen, über mehrere Wochen gesammelten Erfahrungen gebildet haben, oder der, welcher sich eine Meinug aus ReadMe's (:D:D:D) bildet?

Ich saß vom Mittag bis spät Abends um bei dem Kumpel alle seinen Spiele zum laufen zu bringen, als ich aus reiner Verzweiflung die TNT reinsteckte und alles plötzlich lief hatte ich genug, ich habe nicht die Zeit wochenlang rumzufummeln, lieber Schenke ich ihm die paar Euro damit er sich eine Graka kauft die auf anhieb funktioniert und dabei noch wesentlich schneller ist.

Und sagte ich schon daß Q3, RTCW und SS problemlos liefen? Oh Wunder!

Ceiser Söze
2002-01-21, 22:08:33
Und ich sass ein Wochenende vor meine PC und machte 43 Kompatibilitätstests mit der Kyro2 und es machte sich keine Verzweiflung breit. Und ganz offensichtlich kann der Grossteil der (ehem.) Kyro2-Besitzer Ähnliches berichten.
Naja, wie dem auch sei, ich breche an dieser Stelle die Diskussion ab. Ich sehe keinen Sinn mehr darin, weil
A) ...du ganz offensichtlich ein Fundamentalist bist
und
B) ...Fundamentalisten neben vielen negativen Eigenschaften eine einzige Positive haben, bereits nach kurzer Zeit in einer Diskussion auf ein Nebengeleise abzudriften, Scheinargumente zu erfinden, aus Mücken Elefanten zu machen etc, nur um ihren (meist schon längst als falsch erwiesenen) Standpunkt noch irgendwie verteidigen zu können - was wiederum zur Folge hat, dass sie aufgrund ihrer etwas seltsamen "Argumentationsweise" ziemlich schnell mal nicht mehr ernst genommen werden (was bei dieser "Diskussion" mittlerweile ganz offensichtlich der Fall ist).

Da Situation B wohl bereits einige Seiten vorher eingetroffen ist, sehe ich meine Aufgabe hier und im anderen Thread zum selben Thema als erledigt an ;)

Labberlippe
2002-01-21, 22:52:41
Gainward 64MB GeForce2 Ti450 GS TVOut Retail für €139 bei e-bug (habe sie auch schon für €129 gesehen, hab den Link aber nicht mehr), die K2 von Hercules (auch Retail, TVOut) ist laut Preistrend.de für €119 zu haben. Bei diesen Preisen hat K2 keine Berechtigung mehr. Gut, man kann sich eine Bulk Noname Kyro 2 für € 80 schnappen, aber lieber was richtiges.

Toll ebay...
Verkaufen die nicht gebrauchte Karten?
Bitte das ist jetzt aber ein verzweifelter Versuch.
Du kannst aber gerne mal in die div. Läden gehen, dann wird meine Preisangabgen bestätigt sein.


Und dort bekommen sie höchstwahrscheinlich nur NVIDIA/ATI zu sehen, Kyro kennt keine Sau, bedeutungslos.
Bei uns haben alle Läden eine Hercules Retail um ca. 100- max. 109€
Da wären dann, MediaMarkt, Cosmos, Vobis eine Handvoll Einzelhändler und keiner hat eine GeForce2 um 150€.


Das mag stimmen, deshalb sparen um mehr als 100€ ausgeben zu können.
Für manche sind 100€ viel, gerade dann wenn man die Kohle spart.
Nicht jeder verdient ein paar tausen Mark in Monat.


Da gibts schon welche für €65 und da K2 ein Newcomer ist müsste die Karte einen Kampfpreis haben, d.h. preislich gegen MX200 antreten, bessere Performance, bessere BQ, selber Preis, deshalb hielte ich € 65 für eine Marken-Kyro 2 für noch akzeptabel.
Ja freilich jetzt ist die K2 schon ein Konkurent der MX 200.
Sonst alles ok mit Dir?
Leistungsmässig ist die K2 jeder MX Seire überlegen und Preislich momentan dort angesiedelt.
Da kannst Du noch x-mal auf und ab hüpfen.

Man mußte gar nicht Arbeiten, die Welt weiß/wußte nicht was Kyro ist, absolutes Nischenprodukt, nur unter paar Freaks bekannt. Ein newcomer muß mehr bieten als gleiche Performance.
Mit dieser Aussage stelle ich Deine Geistige Verfassung gewaltig in Frage.
Es gibt genu user die Berichten das die Kyro Problemlos ist.
Dann hat Leonadis hier einen Artikel verfasst sogar mit 20 Spiele.
Sorry Pengo.
Fakt ist das die K2 noch immer ein gutes P/L hat.
Fakt ist das die K2 Leistungsmässig bei der GeForce2 ist.
Fakt ist das die Ti Serie und R7500 Serien mehr kosten.


Die bekommen exclusiv-Vertrräge mit ATI, die könnten sicherlich lukrativer sein. Es ist besser exklusiv bei ATI zu sein als einer unter vielen bei NVIDIA. Daß Hercules ATI Karten in Europa übernimmt ist ein sehr schlechtes Ohmen für PowerVR, ATI wird kaum PowerVR Karten von Hercules dulden, es ist ein Indiz daß Hercules von Kyro 3 nicht überzeugt ist oder daß Kyro 3 gar nicht dieses Jahr geplannt ist, was ich für wahrscheinlicher halte, wenn K2 Ultra halbes Jahr zu spät kommt, kann Kyro 3 locker 2 Jahre zu spät kommen.

Schwachsinn durchwegs.
Img Tech hat des öfteren gesagt das Sie die Kyro nur im Mainstream haben wollen da man von High End nicht alleine Leben kann.
Also hat Hercules die Entscheidung gefasst und ATi genommen, damit Hercules auch den HighEnd Bereich ohne ATi decken kann.

Nur zur Info:
Hercules hat auch einen Partner-Vertrag mit Actebis abgeschlossen.
Kurz jetzt werden einige Fertigrechner im Einzelhandel mit vernünftigen Graka ausgeliefert.
Tja Actebis Kunden können sich freuen, denn für die sind die Zeiten mit einer MX 200 endlich vorbei und das zu einen vernünftigen Preis.

Gruss Labberlippe

Thowe
2002-01-21, 22:58:01
Pengo = Shark ???

@Ceiser Söze, habe über 700 Spiele, Demos, SzeneDemos/Intros usw. probiert, fast alles lief. Bislang nur bei Max Payne musste ich etwas anpassen (wegen dem Traumlevel), sonst nichts.


Das ImgTech die Treiber dokumentiert ist doch gut, hat nVidia früher auch mal gemacht. S3 hat sogar alles dokumentiert, wie z.B.

Fix: Crash Internet-Explorer 5.0 with Java
Cause: On certain NEC XYZ-Systems with Windows 95A and MS-Office 95 ...

nVidia macht ja keine BugFixes mehr, sondern behaupten in den Release Notes lieber das die Treiber 50% schneller als vorher sind, wir sind die besten, kauf nvidia, yada yada yada, wir sind die besten, yada yada yada

Nichts gegen nVidia, aber ich hasse es das bei denen alle Texte von der Marketingabteilung verfasst werden.

Haarmann
2002-01-21, 23:03:10
Labberlippe ;-)

Jep und deswegen gibts die ganzen Hercules Sachen bei Actebis auch nett günstig - 15" TFTs, Kyro2 usw auch als OEM Versionen ohne nervende Verpackung.
Und noch geiler... Actebis liefert endlich ECS Boards :)
Ich hoffe mal es is die Version mit KT266A, die da für 70€ drin is ;D

Labberlippe
2002-01-21, 23:36:47
Originally posted by Haarmann
Labberlippe ;-)

Jep und deswegen gibts die ganzen Hercules Sachen bei Actebis auch nett günstig - 15" TFTs, Kyro2 usw auch als OEM Versionen ohne nervende Verpackung.
Und noch geiler... Actebis liefert endlich ECS Boards :)
Ich hoffe mal es is die Version mit KT266A, die da für 70€ drin is ;D

Naja die OEM Rechner werden vom Preis sicher Human sein.
Keine Frage div. Systeme wird es immer günstiger geben.
Actebis hat sich in den letzten Jahren sehr gemausert.
Früher hatten Sie relativ viel Schund im Rechner.

Gruss Labberlippe

aths
2002-01-22, 00:34:54
Pengo,

SV kann nie im Leben die Geschwindigkeit von MSAA erreichen, da SV SSAA nutzt. Mit 2x SV lassen sich alle modernen Spiele flüssig spielen. Was hast du da noch zu meckern?

aths
2002-01-22, 00:45:30
Pengo,

du schreibst: "Die Readmes der letzten Kyro Treiber Releases zeigen daß ich einer von vielen sein mußte, oder denkst du die schreiben so viel rein um das eigene Produkt schlecht zu machen?"

Sieh es doch mal andersrum: Sie vertrauen auf die Zufriedenheit der User und "trauen" sich daher, detailliert die Bugfixes zu dokumentieren. Im Gegensatz zu anderen Firmen...

Unregistered
2002-01-22, 01:08:50
LOL

Immer noch lustig zu sehen, daß einige den Unterschied zwischen MSAA und SSAA zu kapieren scheinen...

MSAA kann man auch HW Edge Anti Aliasing nennen (da werden NUR die Kanten geglättet, das ist das, was beim weglassen aller Texturen übrig bleibt, auch FLAT SHADING genannt, zieh dir mal X-Wing Rein (sind ca. 5,5MB)

Bei SSAA werden auch die Texturen gefiltert, aber das scheint ja einige nicht zu interessieren...

Und jetzt die Frage:

Was ist schneller??

Richtig diese Frage ist überflüssig!!!!!!!!!

MSAA MUSS schneller sein...

Und Smootvision muss besser aussehen als das FSAA der GF1/2...

Hier scheint mir einer ein 'NVidia Hardliner' zu sein...

PS: Ich vermisse die Readmes mit ellenlangen Listen von Bugfixes, die früher üblich waren...

Aber man hat ja auch auf die ATI Liste rumgehackt, weil sie da schreiben wo es mal Probleme gab...

Das ist doch mal ein Zeichen von Geistiger Erleuchtung!!!

Unregistered
2002-01-22, 01:15:07
Originally posted by ow
Auch wenn man es immer wieder wiederholen muss: NVidia ist nicht für Treibersupport zuständig, sondern die Kartenhersteller.

Und die haben ihre Treiber öfters aktualisiert als es NV mit den Ref-Treibern tat.

So ist zb. NV von 6.50 direkt auf 12.41, während es von Hercules auch den 7.58 inkl. WHQL gab.

Die Zahl echter NV-Betatreiber ist verschwindend gering.

Ich schätze, dass mehr als 2 Dutzend NV Treiberversionen offiziell von Kartenherstellern WHQL-Zertifiziert wurden bei MS. Und soviele Ref-Treiber von NV hat es nicht gegeben.

Stimmt für Treibersupport sind die Hersteller zuständig...

Aber NVidia hat dank ihrer genialen Treiberpolitik (wieviele gibt es intern 2000??)

Dank der NVidia Politik gibt es keine angepassten Treiber mehr (nur selten und meistens werden nur Logos ausgetauscht)

Dank NVidia macht kaum ein Hersteller ein eigenes Platinen design...

Warum??

Weil die Produktzyklen zu kurz werden!!!

Die GF1 SDR hätte man gleich weglassen können und gleich die GF1 DDR bringen können.

Gleiches für GTS und PRO.

Und 2 Tage nach Treiber A Treiber B zu bringen ist auch qualität...

aths
2002-01-22, 01:46:15
Unreg,

ich weiss jetzt nicht, wie du auf Flat Shading kommst. Mit Anti-Aliasing hat das jedenfalls nichts zu tun. Wenn man Texturen weglässt, kann natürlich trotzdem Gouraud Shading zum Einsatz kommen.

Richthofen
2002-01-22, 01:47:15
@Unregistered


Wieso muss SV besser ausshene als das FSAA bei GF1 und 2????
Ich dachte das ist das selbe :)
Supersampling halt. Die Reaktion auf das FSAA von 3dfx damals.
MSAA wird immer fixer sein als SV. SV sieht besser aus aber deshalb gilt ja die Regel zu MSAA noch AF dazupacken.
Dann ist der Qualitätsunterschied nicht mehr existent.
Der Speed Unterschied aber immer noch.
Ein wenig kleiner der Abstand aber immer noch imens.

Solange das so bleibt ist SV wie Pengo richtig sagte - ein schlechter Witz, Nonsens bzw unbrauchbar.
Die Frameraten die ATI da liefert konntest auch auf ner GF2 Ultra haben.

@Kyro2 Thema

Was regen sich da alle so auf?
Is doch unnötig. Die Karte hat ihre Aufmerksamkeit zur Einführung gehabt und ist sang und klanglos untergegangen.
Kann mich noch genau erinnern, weil kurz danach die GF3 kam, wie schnell die GF2 Pro Karten die eindeutig besser waren massiv im Preis vielen.
Seid dem gibt es keinen aber auch nicht einen Grund eine KyroII zu kaufen - auch nicht die Ultra.
Nicht schnell genug, Preisvorteil eher minimal und unerheblich, und nicht die Basis für die Spieleentwicklung.
Da würde es mich immer wieder zu ner GF2Ti bzw Radeon7500 treiben.
Aber sicher geh ich nich das Risiko eines eventuellen PowerVR Abentheuers ein für lächerliche 25 Euro die ich spaare.
@Pengo
Ich empfehle außnahmslos Nvidia. Da ich des öfteren für andere Rechner fertig mache, sind das schon ne Menge.
Noch keiner hat sich beschwert.
Bei Nvidia bekomm ich eben für jeden Geschmack etwas. Vom absoluten Hardcore Gerät über Upper Mid Range, Mid Range, Upper Low Cost und totalem Low Cost Produkt.
Freu mich schon auf den GF4

aths
2002-01-22, 02:03:43
Richthofen,

derart ungeniert die Werbetrommel zu rühren wird im Forum nicht geduldet. Du bist vielen als penetranter "Hurra nVidia" Schreier bekannt. Deine Äußerungen brachten in anderen Foren viel Ärger.

Damit kommst du hier nicht durch.

Liszca
2002-01-22, 02:33:31
Wisst ihr was!

Sie ist 25x schneller! Weil: Sie heisst NV25
nur im verhältnis zu welcher karte?!?!?
ist doch klar zur nv1! noch fragen?

Pengo
2002-01-22, 10:18:59
Originally posted by Ceiser Söze
Und ich sass ein Wochenende vor meine PC und machte 43 Kompatibilitätstests mit der Kyro2 und es machte sich keine Verzweiflung breit. Und ganz offensichtlich kann der Grossteil der (ehem.) Kyro2-Besitzer Ähnliches berichten.
Naja, wie dem auch sei, ich breche an dieser Stelle die Diskussion ab. Ich sehe keinen Sinn mehr darin, weil
A) ...du ganz offensichtlich ein Fundamentalist bist
und
B) ...Fundamentalisten neben vielen negativen Eigenschaften eine einzige Positive haben, bereits nach kurzer Zeit in einer Diskussion auf ein Nebengeleise abzudriften, Scheinargumente zu erfinden, aus Mücken Elefanten zu machen etc, nur um ihren (meist schon längst als falsch erwiesenen) Standpunkt noch irgendwie verteidigen zu können - was wiederum zur Folge hat, dass sie aufgrund ihrer etwas seltsamen "Argumentationsweise" ziemlich schnell mal nicht mehr ernst genommen werden (was bei dieser "Diskussion" mittlerweile ganz offensichtlich der Fall ist).

Da Situation B wohl bereits einige Seiten vorher eingetroffen ist, sehe ich meine Aufgabe hier und im anderen Thread zum selben Thema als erledigt an ;)

Also schließt du von 43 kurz getesteten Spielen auf alle 500 populären die heute noch gespielt werden, und weil ich gerade auf Spiele getroffen bin die nicht gut mit der Kyro funktionierten, bin ich ein Fundamentalist, weil meine Erfahrungen dir schlichtweg nicht passen. Die Kyro-Bug Listen bestätigen meine Erfahrungen, es ist eine Frechheit zu behaupten daß ich Argumente erfinde, bin von dir aber diesen Ton gewohnt, die Kyro ist ja nachdem 3dfx tot ist deine neue heilige Kuh, gegen die nichts gesagt werden kann.

Wie viele Kyro Karten wurden verkauft? 300.000? Wie viele Leute sagen hier im Forum daß Kyro Karten gut bei denen laufen/liefen? 10? Dann muß es ja repräsentativ sein. Von den 10 werden die meisten auch kaum mehr als 10 Spiele haben.

Du wirst sehen, Kyro 2 verschwindet bald vom Markt, weil ich nicht der Einzige bin mit der Meinung daß sie ein schlechtes Produkt ist und nichts mehr auf dem Markt zu suchen hat.

Pengo
2002-01-22, 10:35:17
Originally posted by Labberlippe


Toll ebay...
Verkaufen die nicht gebrauchte Karten?
Bitte das ist jetzt aber ein verzweifelter Versuch.
Du kannst aber gerne mal in die div. Läden gehen, dann wird meine Preisangabgen bestätigt sein.


Laberlippe, nimm dir etwas mehr Zeit fürs lesen meiner Postings, dann kommt nicht so ein Schwachsinn zu stande. Ich habe nirgendswo von EBay geschrieben. Laut preistrend.de ist die billigste Hercules Retail TvOut für €119 zu haben, die billigste Gainward Ti2 450 GS für €139, ATI Radeons 7500 gibt es auch schon ab €13x, allerdings nonames.

RAL
2002-01-22, 10:43:29
Nö, aths, da bist du falsch gewickelt. Solche unnötigen Drohungen machen ein Forum kaputt, nicht ein user, der pro nvidia argumentiert.

Andre
2002-01-22, 10:44:09
Originally posted by Pengo


Laberlippe, nimm dir etwas mehr Zeit fürs lesen meiner Postings, dann kommt nicht so ein Schwachsinn zu stande. Ich habe nirgendswo von EBay geschrieben.

Doch:

"Gainward 64MB GeForce2 Ti450 GS TVOut Retail für €139 bei e-bug"

Oder was soll E-Bug bedeuten?
preistrend.de?

Andre
2002-01-22, 10:45:34
Originally posted by RAL
Nö, aths, da bist du falsch gewickelt. Solche unnötigen Drohungen machen ein Forum kaputt, nicht ein user, der pro nvidia argumentiert.

*nickt*

Pengo
2002-01-22, 10:51:38
Originally posted by Andre


Doch:

"Gainward 64MB GeForce2 Ti450 GS TVOut Retail für €139 bei e-bug"

Oder was soll E-Bug bedeuten?
preistrend.de?

http://www.e-bug.de

Andre
2002-01-22, 10:59:37
Originally posted by Pengo


http://www.e-bug.de

Sorry, mein Fehler.
Nehme alles zurück, aber der Schlussfolgerung, dass e-bug = e-bay ist, ist wohl auch Labberlippe erlegen.

Nix für ungut.

Haarmann
2002-01-22, 11:35:37
Pengo,

Du behauptest CS liefe ned auf ner Kyro2 - ergo bist Du nicht fähig CS auf ner Kyro zum laufen zu bringen, denn Deine eigene Liste beinhaltet kein CS - also läuft es. Mit CS hat kein Kyro2 Besitzer den ich kenne Probleme...
Und ich habe alleine für 20 Kyro2 gesorgt... und fast keine davon selber installiert. Trotzdem gehen deren Games. Mein Kumpel erfreut sich nach wie vor an seiner äh meiner Savage2000.

Deine Preise kommen mir irgendwie komisch vor...
unter www.ccomp.ch gibts ne Kyro2 Hercules mit TV Out - ohne Myst3 für 124.- also ~80€.
Eine MSI Retail GF2Ti is 245.- also ~160€.
Eine Mint Retail GF2 Ti also full NoName is noch immer 230.- also ~150€.
Diese Preise decken sich sehr genau mit dem, was ich bei Distributoren sehe - daher glaube ich diese auch, aber 139€ und nen Webshop wo ich mich einloggen muss, damit ich was bestellen darf, sind mir halt nicht ganz geheuer...

Pengo
2002-01-22, 11:58:36
Du behauptest CS liefe ned auf ner Kyro2 - ergo bist Du nicht fähig CS auf ner Kyro zum laufen zu bringen, denn Deine eigene Liste beinhaltet kein CS - also läuft es. Mit CS hat kein Kyro2 Besitzer den ich kenne Probleme...
Und ich habe alleine für 20 Kyro2 gesorgt... und fast keine davon selber installiert. Trotzdem gehen deren Games. Mein Kumpel erfreut sich nach wie vor an seiner äh meiner Savage2000.

Ich habe nicht behauptet daß CS nicht läuft, auf dem System des Kumpels gibt es Probleme mit dem Sound, deshalb hielt ich auch zuerst die SBLive für den Schuldigen. Erst als ich die TNT eingebaut habe und die Soundprobs verschwunden sind, dachte ich daß es ein Problem zwischen der SBLive und der Kyro sein muß, was das Problem genau ist weiß ich allerdings bis heute nicht. Ist ja auch egal, anfang Februar kommt eine andere Karte in seinen Rechner rein, entweder GF2 Ti oder Radeon 7500, je nachdem was er bei seinem Händler in Würzburg vorrätig und preiswert findet.

Deine Preise kommen mir irgendwie komisch vor...
unter www.ccomp.ch gibts ne Kyro2 Hercules mit TV Out - ohne Myst3 für 124.- also ~80€.

Schau bei preistrend.de nach. noname gf2 ti retail tvout für €122, bei KM-Elektronik, die Gainwards für 139 bei e-bug oder 148 bei avitos.

Mir ist klar daß es Händler gibt wo man die sachen noch billiger bekommt (auch kyro2), aber preistrend.de zeigt daß die Preisunterschiede zwichen Kyro2, GF2 Ti und Radeon 7500 nicht mehr die Welt sind.

Diese Preise decken sich sehr genau mit dem, was ich bei Distributoren sehe - daher glaube ich diese auch, aber 139€ und nen Webshop wo ich mich einloggen muss, damit ich was bestellen darf, sind mir halt nicht ganz geheuer...

Noch nie was bei Amazon bestellt?

Liszca
2002-01-22, 12:09:45
Originally posted by Pengo


Also schließt du von 43 kurz getesteten Spielen auf alle 500 populären die heute noch gespielt werden, und weil ich gerade auf Spiele getroffen bin die nicht gut mit der Kyro funktionierten, bin ich ein Fundamentalist, weil meine Erfahrungen dir schlichtweg nicht passen. Die Kyro-Bug Listen bestätigen meine Erfahrungen, es ist eine Frechheit zu behaupten daß ich Argumente erfinde, bin von dir aber diesen Ton gewohnt, die Kyro ist ja nachdem 3dfx tot ist deine neue heilige Kuh, gegen die nichts gesagt werden kann.

Wie viele Kyro Karten wurden verkauft? 300.000? Wie viele Leute sagen hier im Forum daß Kyro Karten gut bei denen laufen/liefen? 10? Dann muß es ja repräsentativ sein. Von den 10 werden die meisten auch kaum mehr als 10 Spiele haben.

Du wirst sehen, Kyro 2 verschwindet bald vom Markt, weil ich nicht der Einzige bin mit der Meinung daß sie ein schlechtes Produkt ist und nichts mehr auf dem Markt zu suchen hat.

Ansichtssache!

Haarmann
2002-01-22, 12:19:37
Nö, Amazon hat nix, was mich interessiert...
Und ich lösche auch so genug Werbemails mit 0190 Dialer, Schwanzverlängerungsangeboten, Viagraersatz usw... Ich denke solche Angebote kriegste auch en Masse und weisst was ich mit meine...

Das Problem mit der Kyro2 is zZ A das Bundle mit Myst3 und B die alten Lagerbestände - nehmen wir nun meinen Preis aus CH und legen die DE MWST zu Grunde, müsste ne Hercules K2 TVO 90€ kosten - kostet aber bei e-bug 23€ mehr...
Nehmen wir nun die 140€ der Gainward und meine 90€, so kommen 50€ Differenz raus - das finde ich dann schon eben eine relevante Differenz. ~60% Mehrpreis wärens sogar dann. Und für mich is Gainward eben eigentlich ned weniger Noname, denn eine Powercolor und für die zahlste keine 90€ eher 60€ ;D also 70€ in DE.
Meine Erfahrungen mit den beiden Herstellern sind rel. weit Retour - stammen aus VirgeDX, Permedia usw Zeiten und die Powercolor war immer die bessere CD mit neueren und mehr Treibern denn die Gainward. Daher sind für mich beide Firmen gleich fähig Grakas zu bauen.

Aber eben... is wohl immer Ansichtssache.

Liszca
2002-01-22, 12:23:41
Originally posted by Pengo


Also schließt du von 43 kurz getesteten Spielen auf alle 500 populären die heute noch gespielt werden, und weil ich gerade auf Spiele getroffen bin die nicht gut mit der Kyro funktionierten, bin ich ein Fundamentalist, weil meine Erfahrungen dir schlichtweg nicht passen. Die Kyro-Bug Listen bestätigen meine Erfahrungen, es ist eine Frechheit zu behaupten daß ich Argumente erfinde, bin von dir aber diesen Ton gewohnt, die Kyro ist ja nachdem 3dfx tot ist deine neue heilige Kuh, gegen die nichts gesagt werden kann.

Wie viele Kyro Karten wurden verkauft? 300.000? Wie viele Leute sagen hier im Forum daß Kyro Karten gut bei denen laufen/liefen? 10? Dann muß es ja repräsentativ sein. Von den 10 werden die meisten auch kaum mehr als 10 Spiele haben.

Du wirst sehen, Kyro 2 verschwindet bald vom Markt, weil ich nicht der Einzige bin mit der Meinung daß sie ein schlechtes Produkt ist und nichts mehr auf dem Markt zu suchen hat.

Es ist mir egal ob sie bei dir nicht so gut funktionieren, bei mir gehen alle!

Labberlippe
2002-01-22, 13:38:35
Originally posted by Pengo

Du behauptest CS liefe ned auf ner Kyro2 - ergo bist Du nicht fähig CS auf ner Kyro zum laufen zu bringen, denn Deine eigene Liste beinhaltet kein CS - also läuft es. Mit CS hat kein Kyro2 Besitzer den ich kenne Probleme...
Und ich habe alleine für 20 Kyro2 gesorgt... und fast keine davon selber installiert. Trotzdem gehen deren Games. Mein Kumpel erfreut sich nach wie vor an seiner äh meiner Savage2000.

Ich habe nicht behauptet daß CS nicht läuft, auf dem System des Kumpels gibt es Probleme mit dem Sound, deshalb hielt ich auch zuerst die SBLive für den Schuldigen. Erst als ich die TNT eingebaut habe und die Soundprobs verschwunden sind, dachte ich daß es ein Problem zwischen der SBLive und der Kyro sein muß, was das Problem genau ist weiß ich allerdings bis heute nicht. Ist ja auch egal, anfang Februar kommt eine andere Karte in seinen Rechner rein, entweder GF2 Ti oder Radeon 7500, je nachdem was er bei seinem Händler in Würzburg vorrätig und preiswert findet.

Deine Preise kommen mir irgendwie komisch vor...
unter www.ccomp.ch gibts ne Kyro2 Hercules mit TV Out - ohne Myst3 für 124.- also ~80€.

Schau bei preistrend.de nach. noname gf2 ti retail tvout für €122, bei KM-Elektronik, die Gainwards für 139 bei e-bug oder 148 bei avitos.

Mir ist klar daß es Händler gibt wo man die sachen noch billiger bekommt (auch kyro2), aber preistrend.de zeigt daß die Preisunterschiede zwichen Kyro2, GF2 Ti und Radeon 7500 nicht mehr die Welt sind.

Diese Preise decken sich sehr genau mit dem, was ich bei Distributoren sehe - daher glaube ich diese auch, aber 139€ und nen Webshop wo ich mich einloggen muss, damit ich was bestellen darf, sind mir halt nicht ganz geheuer...

Noch nie was bei Amazon bestellt?

Eine Gainward für 139 habei ich bei E-Bug nicht gesehen.
Aber wohl Deine Angesprochen TI und zusätzlich werden 11,5 Euro Versandkosten in Deutschland verlangt.
Nach Österreich weiss nicht.
Allerdings diese TI ist eine NoName und die K2 Hercules eine Markenkarte RETAIL.
Kurz:
100€ Hercules K2 (64MB wohlgemerkt.) Retail

No-Name GeForce2 Ti mit Transport kosten ca. 135€
Dann bleibt die Frage der Qualität offen´.

Da kann man dann aber gleich die ASUS nehmen.

Asus 32MB V7700-Ti GeForce2 TV-Out Retai
ArtNr. 576
32 MB DDR-RAM // 250/400 MHZ // TV-Out
NVidia Titanium 2 // 3 Jahre Garantie
inkl. Spiele Bundle

Preis:140 ca. 151 mit Versandkosten.
Womit wir wieder bei meinen angebenen Preisen sind.

Das ist ein fairer Vergleich.
Marken-Retail gegen Marken-Retail

Ansonsten ziehe ich auch einen Link mit einer No-Name Kyro raus, welche nochmal günstiger ist.

Nochmal:
Bei allen Händlern in meiner Stadt bekomme ich die K2 Hercules um 100€.
Die GeForce2 und R7500 bekomme ich auch aber um 190 No Names mit gut Glück 160€.
So wie Sie in den Regalen stehen.
Das ist nunmal die Realität.

Manche Online Händler geben ein Schnäppchen mit ein paar Stück an.
Teilweise sogar nichtmal lagernd.

Mit Speck fängt man Mäuse.

Im Gesammt Schnitt, welches Du auf www.geizhals.at sehen kannst werden meine Aussagen belegt.
Aber beim Vergleichen geht es mir um Marken Name gegen Marken Name.
NICHT NO-NAME

Gruss Labberlippe

Pengo
2002-01-22, 15:07:20
Eine Gainward für 139 habei ich bei E-Bug nicht gesehen.


In der Gainward Sektion bei E-Bug, nicht zu übersehen.

Kurz:
100€ Hercules K2 (64MB wohlgemerkt.) Retail

Laut preistrend.de €119 + Versandkosten, für wie viel du sie bekommst ist mir egal, ich bin auf preistrend angewiesen.

Das ist ein fairer Vergleich.
Marken-Retail gegen Marken-Retail

Genau, deshalb habe ich in preistrend Gainward Retail GS TVOut gegen Hercules Retail TVOut verglichen und das billigste Hercules Angebot war bei www.computeruniverse.net für €119 + Versand.

Nochmal:
Bei allen Händlern in meiner Stadt bekomme ich die K2 Hercules um 100€.

Da lebst du wohl in einer besonderen Stadt - bei preistrend ist die Preisspanne für eine Hercules 4500 Retail TVOut €119-200

Das ist nunmal die Realität.

Bei Media Markt bei uns gabs mal die Hercules für 499 DM, jedoch derzeit nicht mehr zu kaufen, wohl aus dem Programm rausgeflogen wie bei Alternate. Eine Leadtek GF3 ist für €399 zu haben (nicht Ti500!). Versandhandel ist meist viel günstiger als lokale Händler.

Richthofen
2002-01-22, 15:12:53
Was hat der gegen Gainward????

Gainward und Leadtek haben nach meiner Kentniss derzeit die besten GF3 Karten, sowohl was 2D als auch Performance angeht.
Direkt dahinter würd ich die Asus ansiedeln.
Die Deluxe Version gleichstellen auf Grund der Ausstattung.

Allerdings sehe ich nicht was bei Hercules Marken Retail sein soll.
Du meinst die Bude die wegen Unfähigkeit pleite gegangen ist und von Guillmot die bis dahin eher mittelprächtig waren aufgekauft wurden?
Najud woll mer mal nicht so gemein sein und Hercules als Marke noch gelten lassen aber ganz sicher nicht Kyro bzw PowerVR - das ist Schmuddel Low Cost Image aber sicher keine Marke.
Spieleconsolen hin oder her. Davon hat keiner der normalen Käufer jemals was gehört.

Also ATI als Marke lass ich ja auch noch gelten aber PowerVR - lol ne sicher nicht.

Labberlippe
2002-01-22, 15:16:03
Originally posted by Pengo

Eine Gainward für 139 habei ich bei E-Bug nicht gesehen.


In der Gainward Sektion bei E-Bug, nicht zu übersehen.

Kurz:
100€ Hercules K2 (64MB wohlgemerkt.) Retail

Laut preistrend.de €119 + Versandkosten, für wie viel du sie bekommst ist mir egal, ich bin auf preistrend angewiesen.

Das ist ein fairer Vergleich.
Marken-Retail gegen Marken-Retail

Genau, deshalb habe ich in preistrend Gainward Retail GS TVOut gegen Hercules Retail TVOut verglichen und das billigste Hercules Angebot war bei www.computeruniverse.net für €119 + Versand.

Nochmal:
Bei allen Händlern in meiner Stadt bekomme ich die K2 Hercules um 100€.

Da lebst du wohl in einer besonderen Stadt - bei preistrend ist die Preisspanne für eine Hercules 4500 Retail TVOut €119-200

Das ist nunmal die Realität.

Bei Media Markt bei uns gabs mal die Hercules für 499 DM, jedoch derzeit nicht mehr zu kaufen, wohl aus dem Programm rausgeflogen wie bei Alternate. Eine Leadtek GF3 ist für €399 zu haben (nicht Ti500!). Versandhandel ist meist viel günstiger als lokale Händler.

Nein in Österreich sind die Preise K2 überall so.

Ich habe vergessen das mit der Gainward zu löschen. :)
Unten habe ich ja einen Preisvergleich gemacht. *ggg*

Gruss Labberlippe

Pengo
2002-01-22, 15:24:27
Ich habe einige Freunde in Österreich und normalerweise beklagen die sich daß dort Hardware/Software im Schnitt 20% teurer als in Deutschland ist.

Iceman346
2002-01-22, 17:03:12
Ich hatte mal eine Kyro 2 in meinem PC und zwar ein paar Probleme aber ich kann nicht sagen, daß es mehr waren als mit der GF1 DDR die ich vorher drin hatte. Jetzt hab ich eine Radeon 8500 LE in meinem PC und die Kyro steck im PC meines Bruders der auch voll zufrieden ist mit der Karte.

Zur FSAA Speed der Radeon: Mag sein das sie langsamer ist als die der GF3 (hab noch nie eine GF3 in Aktion gesehen) aber für meine Zwecke reicht sie völlig aus. CS spiele ich mit 2x Quality SV + max Aniso in 1024 (und nein, ich bin kein schlechter Spieler) auf durchgehend 100 fps und DAoC kann ich problemlos mit 6x Performance SV + max Aniso auf 1024 spielen. Ich bin mehr als zufrieden mit der Karte.

aths
2002-01-22, 17:09:04
Ral,

dann werde ich mal versuchen, zu argumentieren.


Richthofen,

du schreibst zur Kyro/2: "Die Karte hat ihre Aufmerksamkeit zur Einführung gehabt und ist sang und klanglos untergegangen."

Das sehe ich anders. Für einen Newcomer ist sie erstaunlich bekannt. Hier im Forum gibt es einige mit Kyro2-Karte. Sie hat derzeit noch nicht eine große Verbreitung, aber einen verdammt guten Ruf: Günstig und schnell.

"wie schnell die GF2 Pro Karten die eindeutig besser waren massiv im Preis vielen."

Die GF2 Pro ist, wenn überhaupt, nur ein wenig besser. Das belegen Benchmarks.

"Nicht schnell genug, Preisvorteil eher minimal und unerheblich, und nicht die Basis für die Spieleentwicklung."

Bei Serious Sam zum Beispiel ist schon die normale Kyro2 schneller als eine Ultra. Geht es in höhere Auflösungs-Regionen und um 32-Bit-Grafik, hat sie gegen die GF2-Linie generell einen sehr guten Stand. Dass sie nicht Basis für die Entwicklung ist, ist wahrlich kein Nachteil, da sie kompatibel ist.

"Aber sicher geh ich nich das Risiko eines eventuellen PowerVR Abentheuers ein für lächerliche 25 Euro die ich spaare."

Die meisten User im Forum, die eine Kyro2 haben, äußerten sich sehr lobend über die Karte.

"Ich empfehle außnahmslos Nvidia. Da ich des öfteren für andere Rechner fertig mache, sind das schon ne Menge.
Noch keiner hat sich beschwert."

Ich kenne persönlich Leute, die sich über nVidia-Karten beschweren: TV-Out sei schlechter als bei der Voodoo, es gäbe ein Treiber-Wirrwarr oder es gäbe Probleme mit dem Board. Auch hier im Forum werden ständig Probleme besprochen: Spiel XYZ laufe nicht oder nur mit Grafikfehlern usw.

"Bei Nvidia bekomm ich eben für jeden Geschmack etwas. Vom absoluten Hardcore Gerät über Upper Mid Range, Mid Range, Upper Low Cost und totalem Low Cost Produkt.
Freu mich schon auf den GF4."

Über die GF4 freue ich mich auch. Allerdings musst zu zugeben, dass das totale Low Cost Produkt von nVidia jeweils Bauernfängerei ist: Die GF2-MX200 ist ein paar "lächerliche" € günstiger als die MX400, aber nur halb so schnell. Das gleiche galt für die TNT2 M64. Die MX-Reihe kann generell nur 128 Bit SDRAM oder 64 Bit DDRRAM haben. Das haben sie limitiert. Nicht jedoch die Größe des lokalen RAMs, so gibt es MX-200 Karten mit 64 MB. Für welchen Geschmack soll diese Karte gut sein?

Thowe
2002-01-22, 17:28:54
Der Reihe nach, Gainward ist in Deutschland NoName. Was aber nichts daran ändert das ich die Karten für gut halte und besser als viele andere. Was allerdings auch für PowerColor zutrifft, ich finde die Kyro Karten von denen sehr gut. Da Gainward und PowerColor etwa gleichzusetzen sind, meinentwegen als günstiger Hersteller, sehe ich auch nicht ein das man diese nicht miteinander vergleichen sollte. Würde Gainward eine Karte mit Kyro II anbieten, dann wäre der Preis sicher derer der PowerColor sehr ähnlich.

Die Hercules wird z.B. von Mindfactory für 107 € angeboten, auch nur mal am Rande.

Hier wird eine Hercules Prophet 4500 mit TV gegen eine Gainward GeForce2TI450 mit TV verglichen, dies halte ich für nicht legetim. Da ein Grossteil aller Kunden (der Grossteil ist nuneinmal DAU) sich eine Karte eines Herstellers kaufen und das ist z.B. Elsa, Hercules, Asus.

Wenn ich Karten vergleiche, dann auch die eines Herstellers und das wäre im Moment, als Basis nehme ich hier mal die Preise eines Versenders wie z.B. www.grafikkarten55.de

Hercules Prophet 4500 TV mit 64MB für € 115,55
Hercules 3D Prophet II TI200 64MB für € 187,55

oder aber wenn wir bei einen NoName Hersteller bleiben, nehmen wir mal PowerColor und als Quelle dann www.3d-gamecard.de

PowerColor Radeon 7500 Pro 64MB TV für € 149,-
PowerColor GeForce2TI200 64MB TV für € 130,-
PowerColor Kyro II 4500 64MB TV für € 82,-

Wenn man jetzt Preise von Karten ranziehen würde ohne TV-Out, was auch angemessener wäre, da der der Kyro wenigstens ohne hacks overscan bietet, sähe das Ganze noch anders aus.

Das die GF2 Karten in Ö und CH teurer sind ist eigentlich bekannt, somit hat Haarman die Ganze Zeit über, sein Land mit Deutschland verglichen. Naja wird ja in Zukunft hoffentlich besser und auch ausserhalb von D gibt es gute Preise.

Liszca
2002-01-22, 18:44:20
Originally posted by aths
Über die GF4 freue ich mich auch. Allerdings musst zu zugeben, dass das totale Low Cost Produkt von nVidia jeweils Bauernfängerei ist: Die GF2-MX200 ist ein paar "lächerliche" € günstiger als die MX400, aber nur halb so schnell. Das gleiche galt für die TNT2 M64. Die MX-Reihe kann generell nur 128 Bit SDRAM oder 64 Bit DDRRAM haben. Das haben sie limitiert. Nicht jedoch die Größe des lokalen RAMs, so gibt es MX-200 Karten mit 64 MB. Für welchen Geschmack soll diese Karte gut sein?

Nvidia karten sind anstrengend! Ich war so stolz das ich mir ne geforce 3 geklauft hatte, da kam plötzlich ne ti 500 raus. Erst war ich verärgert, weil meine nur ein paar wochen "die Beste" war, dann aber war ich sauer weil: es ist nur eine höher getaktete gf3 na zum glück habe ich nichts für dieses sch****teil gezahlt!

Bei PowerVR ist das ganz anders, die habe schon seit über einem halben jahr die kyro 2 als top model! Die Ultra dürfte im durchschnitt knapp über der gf2 ti liegen, da ist mir powervr sympathischer!

Und vor allem dieses rendersystem ist schon revolutioner!
Wie damals:

3dfx mit voodoo Graphics (addon karten finde ich sollten wieder kommen!)
danach die voodoo 5 kein T&L <--brauchte auch noch keiner dafür fsaa das war wirklich gut und funktionierte ohne unterstützung von seiten des spieles

S3: Es gibt wenig spiele die ohne texturkompression arbeiten! (Ihr wisst was ich meine oder?)

Nun mal was anderes:
Zum zeitpunkt der gf2 gab es nur ganz wenig cvhips mit t&l! FSAA hatte hingegen jeder sogar nvidia hat eine fsaa option nachträglich eingeführt durhc den treiber (war aber meiner meinung nach eine schreckliche missgeburt, auch das der gf3 ist nicht sonderlich!

Liszca
2002-01-22, 18:46:36
Originally posted by aths
Über die GF4 freue ich mich auch. Allerdings musst zu zugeben, dass das totale Low Cost Produkt von nVidia jeweils Bauernfängerei ist: Die GF2-MX200 ist ein paar "lächerliche" € günstiger als die MX400, aber nur halb so schnell. Das gleiche galt für die TNT2 M64. Die MX-Reihe kann generell nur 128 Bit SDRAM oder 64 Bit DDRRAM haben. Das haben sie limitiert. Nicht jedoch die Größe des lokalen RAMs, so gibt es MX-200 Karten mit 64 MB. Für welchen Geschmack soll diese Karte gut sein?

Nvidia karten sind anstrengend! Ich war so stolz das ich mir ne geforce 3 geklauft hatte, da kam plötzlich ne ti 500 raus. Erst war ich verärgert, weil meine nur ein paar wochen "die Beste" war, dann aber war ich sauer weil: es ist nur eine höher getaktete gf3 na zum glück habe ich nichts für dieses sch****teil gezahlt!

Bei PowerVR ist das ganz anders, die habe schon seit über einem halben jahr die kyro 2 als top model! Die Ultra dürfte im durchschnitt knapp über der gf2 ti liegen, da ist mir powervr sympathischer!

Und vor allem dieses rendersystem ist schon revolutioner!
Wie damals:

3dfx mit voodoo Graphics (addon karten finde ich sollten wieder kommen!)
danach die voodoo 5 kein T&L <--brauchte auch noch keiner dafür fsaa das war wirklich gut und funktionierte ohne unterstützung von seiten des spieles

S3: Es gibt wenig spiele die ohne texturkompression arbeiten! (Ihr wisst was ich meine oder?)

Kyro: Sowas Bandbreiten scvhonendes wie der kyro habe ich noch nie gesehen! P.S.: Könnte mir mal jemand erklären wie man anhand des overdraw faktor die tatsächliche bandbreite in einem spiel errechnen kann? Ich weiss schon das jedes spiel einen anderen overdraw faktor hat aber ich würde gerne mal wissen wie viel ein nvidia karte haben müsste!

Nun mal was anderes:
Zum zeitpunkt der gf2 gab es nur ganz wenig cvhips mit t&l! FSAA hatte hingegen jeder sogar nvidia hat eine fsaa option nachträglich eingeführt durhc den treiber (war aber meiner meinung nach eine schreckliche missgeburt, auch das der gf3 ist nicht sonderlich!

Quasar
2002-01-22, 19:00:38
Ja, genau. Und nun überleg mal, wieviele Chips mit TnL es heute geben würde, wenn nicht einer den Anfang gemacht hätte. Wieviele Spiele mit 3D-Beschleunigungsunterstützung waren denn auf dem Markt, als die Voodoo Graphics rauskam? Wieviele Spiele konnten EMBM, als die G400 rauskam? Wie häufig wurde 32Bit Farbtiefe unterstützt, als die G200 (TNT? ich weiß nicht, wer's eher konnte) rauskam? Wieviele Spiele haben Texturkompression genutzt, als die Savage3 rauskam? Wieviele Games haben DX8-ähnliche Effekte genutzt, als die GF3 erschien? Wieviele Spiele haben 1024x768 unterstützt, als die Voodoo2 rauskam?

Es wird klar, worauf ich hinaus will, oder? Heutzutage funktioniert die Chris-Roberts-Masche nicht mehr. Hardware muss vorhanden sein, ehe mögliche Effekte umgesetzt werden. Und zwangsläufig finanzieren dei sog. Early-Adopters diese Technologie für andere mit, indem sie bereit sind (aus welchen Gründen auch immer), die überhöhten Preise der neuesten Generation zu zahlen.

ow
2002-01-22, 19:04:08
Originally posted by aths

Richthofen,

du schreibst zur Kyro/2: "Die Karte hat ihre Aufmerksamkeit zur Einführung gehabt und ist sang und klanglos untergegangen."

Das sehe ich anders. Für einen Newcomer ist sie erstaunlich bekannt. Hier im Forum gibt es einige mit Kyro2-Karte. Sie hat derzeit noch nicht eine große Verbreitung, aber einen verdammt guten Ruf: Günstig und schnell.




Das sehe ich wiederum anders;).
Die K2 ist kein Newcomer, schon die K1 war sehr günstig und brachte überzeugende Leistung dafür.
Aber interessiert hat es keinen und ich denke, das wäre mit der K2 genauso, wenn da nicht zwischendurch sich ein paar Grafikchiphersteller aus der Szene verabschiedet hätten.




"wie schnell die GF2 Pro Karten die eindeutig besser waren massiv im Preis vielen."

Die GF2 Pro ist, wenn überhaupt, nur ein wenig besser. Das belegen Benchmarks.



Naja, der Unterschied reicht von nichts bis recht deutlich.
Langsamer als die Kyro2 ist die Gf2pro nur in Ausnahmefällen.
In Preis/Leistung ist´s recht ausgeglichen.


"Aber sicher geh ich nich das Risiko eines eventuellen PowerVR Abentheuers ein für lächerliche 25 Euro die ich spaare."

Die meisten User im Forum, die eine Kyro2 haben, äußerten sich sehr lobend über die Karte.




Hehe, sind ja auch groesstenteils Freaks, die wissen (oder hier fragen) wie man das Teil in Gang bekommt.;);)



"Ich empfehle außnahmslos Nvidia. Da ich des öfteren für andere Rechner fertig mache, sind das schon ne Menge.
Noch keiner hat sich beschwert."

Ich kenne persönlich Leute, die sich über nVidia-Karten beschweren: TV-Out sei schlechter als bei der Voodoo, es gäbe ein Treiber-Wirrwarr oder es gäbe Probleme mit dem Board. Auch hier im Forum werden ständig Probleme besprochen: Spiel XYZ laufe nicht oder nur mit Grafikfehlern usw.


Das mit dem TV-out der NVs kriegt man in den Griff. Es ist eigentlich Sache des Kartenherstellers, funktionierende Tools bereitzustellen.
Die ASUS Tools machen doch einen sehr anständigen Eindruck, leider sind die meisten anderen Hersteller wesentlich fauler, so dass man sich mit 3rd party SW behelfen muss.

Grafikfehler bei NV Treibern sind äusserst selten.



"Bei Nvidia bekomm ich eben für jeden Geschmack etwas. Vom absoluten Hardcore Gerät über Upper Mid Range, Mid Range, Upper Low Cost und totalem Low Cost Produkt.
Freu mich schon auf den GF4."

Über die GF4 freue ich mich auch. Allerdings musst zu zugeben, dass das totale Low Cost Produkt von nVidia jeweils Bauernfängerei ist: Die GF2-MX200 ist ein paar "lächerliche" € günstiger als die MX400, aber nur halb so schnell. Das gleiche galt für die TNT2 M64. Die MX-Reihe kann generell nur 128 Bit SDRAM oder 64 Bit DDRRAM haben. Das haben sie limitiert. Nicht jedoch die Größe des lokalen RAMs, so gibt es MX-200 Karten mit 64 MB. Für welchen Geschmack soll diese Karte gut sein?



GEIL!! SIS315 mit 128MB

Jaja, die Kartenhersteller.......:D:D

ow
2002-01-22, 19:11:41
@Quasar

Volle Zustimmung.

Andersherum kann die Entwicklung nicht laufen bzw. gäbe es gar keine.

Haarmann
2002-01-22, 19:39:22
Quasar,

Die Chris Roberts Masche funzt durchaus noch ;-). Man muss sich nur drauf verlassen können, dass die Industrie auch binnen 6 Monaten Geräte herstellt, die das Game sauber laufen lassen...
Das is natürlich bei ner CPU einfacher gewesen, als mit ner 3D Karte - denken wohl bis Heute viele hier... Das is leider ziemlich falsch. Selbst die alten VGA Karten machten durchaus was aus bei 320*200 256 Farben. Ich z.B. gab meiner uralten ET4000AX ISA den Vorzug vor den neueren CL 5228 VLB (und die ersten S3 waren ja der Horror unter DOS) und als C+C rauskam, lief bei mir trotz weniger CPU das Intro flüssig ... Gerade bei dem linearen Frambuffer unter DOS spielte die Graka eine grosse Rolle - eine Trident 8900 z.B. war grauenhaft langsam. Noch tragischer waren eigentlich glaubs nur die OAK ...

Aber damit ich mal nen paar Deiner Fragen beantworte ...

"Wieviele Spiele mit 3D-Beschleunigungsunterstützung waren denn auf dem Markt, als die Voodoo Graphics rauskam?"

GLQuake war da...

"Wieviele Spiele konnten EMBM, als die G400 rauskam?"

Und wieviele Games nutzen das Heute?

"Wie häufig wurde 32Bit Farbtiefe unterstützt, als die G200 (TNT? ich weiß nicht, wer's eher konnte) rauskam?"

32Bit Farbtiefe wurde schon unterstützt durch D3D und OGL - und der Unterschied is sogar bei 16 Bit Texturen marginal sichtbar.

"Wieviele Spiele haben Texturkompression genutzt, als die Savage3 rauskam?"

Wieviele Spiele kommen denn Heute mit vorkomprimierten Texturen daher? Mit nem einfachen Treibertrick kann ich jede Textur zur Laufzeit komprimieren - also brauchten die Games das gar ned zu unterstützen - wie FSAA.

Wieviele Games haben DX8-ähnliche Effekte genutzt, als die GF3
erschien?

Also laut Reactorcritical kam DX8 am 10.11.2000 raus... Und die Sampels der GF3 waren doch schon vor dieser Zeit im Einsatz... Wie sollte jemand ohne Final Version DX8 denn auch DX8 Proggen ???

"Wieviele Spiele haben 1024x768 unterstützt, als die Voodoo2 rauskam?"

Mindestens Quake, Quake2 und alle Derivate davon, was schon ne ganze Menge ist. Dazu gings unter D3D mit jedem Game (wobei ich eigentlich das nur aus meiner Sicht und meinen Games sagen kann) ...
Aber das grössere Problem waren wohl damals die viele 15" CRT Schrime...

OK, ich bin sicher teils etwas fies zu Deinen Fragen resp Behauptungen, aber überleg einfach mal, welche dieser Errungenschaften wirklich sich durchgesetzt hat - und ob die ned alle die Gemeinsamkeit hatten, dass die alle einfach sofort da waren - und eben ohne Unterstützung bereits funktioniert haben.

P.S. FSAA haste da noch vergessen ...

aths
2002-01-22, 19:48:39
Was Quasar anspricht, würde ich anders formulieren. Die Chris Roberts Masche funktioniert tatsächlich nicht mehr, aber ist das ein Vorteil?

Die Voodoo Graphics war ihrer Zeit weit voraus und gut geplant, so dass die wesentliche Technik bis zur Voodoo3 durchhielt. Obwohl es damals (von nVidia) schon Neuerungen gab!

nVidia hat mit dem NV20 etwas wirklich gutes entwickelt, und schlachtet das mit dem NV25 nun auch schon zum dritten mal aus (Ti-Serie mitgezählt.) Obwohl ATI teilweise schon weiter ist!

Ist ein Feature gut genug, wird es auch genutzt: Siehe TruForm. Man sollte sich davon lösen, auf seinem System alles aktivieren zu wollen, sondern wissen, was man will. Zum Beispiel ob MSAA oder SSAA. Da müssen die Vor- und Nachteile besprochen werden, und das sollte hier im Forum geschehen. Das erfordert aber auch ein Grundverständis der Technik, und nicht Vermutungen als Fakten darzustellen.

Man braucht meines Erachtens nicht ständig die neusten Technologien auf der Karte. Ich persönlich kaufte bislang jedenfalls nur Hardware, die sich schon lange bewährte und setzte voll auf die Voodoo-Schiene. Die neusten Neuerungen blieben mir jeweils verborgen, aber alles was ich spiele, läuft gut und ohne Probleme. Für mich persönlich ist das das Wichtigste. Ich bin kein Bastler-Typ.

So ließe sich auch pro nVidia argumentieren: Der GeForce-Chip hat sich bewährt. Dass der NV25 technologisch nicht ganz zum R200 aufschließen wird, ist kein Nachteil, so lange der Preis stimmt.

Pengo
2002-01-22, 20:21:45
dann werde ich mal versuchen, zu argumentieren.


Ist wohl bei dem Versuch geblieben.

Bei Serious Sam zum Beispiel ist schon die normale Kyro2 schneller als eine Ultra. Geht es in höhere Auflösungs-Regionen und um 32-Bit-Grafik, hat sie gegen die GF2-Linie generell einen sehr guten Stand. Dass sie nicht Basis für die Entwicklung ist, ist wahrlich kein Nachteil, da sie kompatibel ist.

vom Anandtech:

Quasar
2002-01-22, 20:44:04
Schade...wir waren schon soo weit auf dem Weg zu einer anständigen Diskussion...

@Haarman:
FSAA hab' ich nicht vergessen..... ;)
Klar lassen sich die meisten meiner Beispiele widerlegen (genauso, wie man es mit deinen Gegenbeispielen machen könnte *g*), es kam mir auch mehr auf's Prinzip an, das kaum ein Spielehersteller, wie damals Chris Roberts, Software auf den Markt bringt, die mit weit verbreiteter HW nicht anständig läuft (außer MadOnion ;) ). Erst wenn ein gegebenes Feature eine gewisse Marktduchdringung (Installed Base?) hat, wird es auch in der Mehrzahl der Spiele angewandt. Ebenso verhält es sich mit der Gesamtleistung. Wenn wir heute auf einen Schlag alle Grakas von der Füllrate einer R8500 hätten, was meinst du, wie uns morgen die Augen ob der Grafikqualität der neuen Games rausfallen würden. Sehr schön zu sehen ist dies an den Neuerscheinungen begleitenden Techdemos. Quake3-Models à la Zoltar, ein Rennspiel à la Car Chase, ein Rollenspiel à la Dragothic oder ein Echtzeitstrategiespiel à la Inseldemo von ATi....sicher nicht notwendig für einen dauerhaften Spielspaß, aber das Auge gamed nunmal mit.

Nur wird leider von den meisten Games, die rauskommen, der worst-case "angenommen", nämlich, dass auch der Media-Markt-Kunde mit MX200 oder TNTM64 (ok, RageIIc), das Spiel auch noch spielen will. Und soweit, wie die Leistungsspanne zwischen diesen Wurstkarten und einer modernen High-End Karte reichen die Detailregler in keinem mir bekannten Game, leider.

@aths:
Du triffst mit einem deiner Sätze einen zentralen Punkt. Man kann nur in äußerst seltenen Fällen wirklich alles aktivieren. Mir z.B. gehen die Aliasing-Treppchen lange nicht so gegen den Strich, wie verwaschene Texturen in der Ferne. Umso erfreuter war ich, als dies mit einem Feature zu korrigieren war, daß endlich mal wieder nicht der direkten Unterstützung des Spiels bedurfte ((nach FSAA, gell Haarman?). Auch wenn es bei älteren Spielen aufgrund der schon niedrig aufgelösten dichteren Mipmap-Stufen nicht soo viel bringt, finde ich grade moderne Games mit aktiviertem AF deutlich ansehnlicher als ohne.
In einem muss ich dir allerdings widersprechen: Man (zumindest einige) brauchen sehr wohl die neueste Technologie auf den Grafikkarten, nämlich Entwickler und Early Adopters, ansonsten würde sich ein neues Feature so gut wie nie durchgesetzt haben und die Chipentwickler würden davor zurückschrecken, neue Features einzubauen.

Haarmann
2002-01-22, 21:10:49
Hey Pengo,

ich hab auch einen...
http://images.anandtech.com/reviews/video/Kyro2/SS_1024.gif

Und der is auch von Anand... Der is sich wohl mit sich selber ned so ganz einig :) - Armer Schizo dieser Anand ;D

Was war das fürn Testsystem, welches bei Deinem Screen zum Einsatz kam?

Quasar,

Wie gesagt, JC verdient auch ned mit Q3, sondern mit der Engine... Wenn also ein 2er CR kommt, wird er die Engine sicher zu Gold machen ;D - Dazu braucht er ein Game, welches quasi eine Techdemo darstellt - mehr auch nicht.

Neue "Features" wie z.B. T+L ala DX7... sind A inzwischen alt und B werdens wohl nie notwendig sein - auch bei U2 nicht...

aths
2002-01-22, 22:21:57
Quasar,

natürlich brauchen Entwickler die neusten Features. Ich bin jedoch nur Spieler und kaufe meine Karte nicht für zukünftige Spiele, sondern für jene, die es zu kaufen gibt.

Du legst viel Wert auf AF. Ich lege viel Wert auf AA und auf trilineare Filterung, wenns geht. Das AA der GF3 gefällt mir nicht, dass die R8500 nicht trilinear filtert auch nicht.

Es sollten Auseinandersetzungen um solche Fragen stattfinden. Man sollte sich aber nicht auf den Standpunkt stellen "Feature XYZ ist auf der Karte ABC besser, da dies und das so ist" und dabei die Nachteile ausblenden.

(Dass ich fehlende trilineare Filterung absolut indiskutabel finde, mögen viele nicht einsehen, da die Radeon beweist, dass sich auch ohne sehr gute Ergebnisse erzielen lassen. Hier kann man schwer mit mir diskutieren, da die Meinung sachlich angreifbar ist. Deshalb halte ich mich da sehr zurück.)

Frank
2002-01-22, 22:29:18
Jetzt muss ich auch mal was zu der ganzen Geschichte hier sagen. Erstmal sollten sich einige und vor allem Pengo das zu Herzen nehmen, was Ceiser geschreiben hat.

Deine Argumente Pengo (welch Lob das überhaupt als Argumente zu bezeichnen) sind einfach nur in jeder Hinsicht lächerlich. Und je weiter du versuchst deine Überzeugung anderen aufzudrücken, desto lächerlicher wird die ganze Angelegenheit. Eine Kyro 2Karte von Hercules bekommt man in einer Großhandelskette wie Atelco für 105€. 30 bis 80€ für eine andere Karte ist für viele Leute entscheidend - und eben auch einfach mehr Geld! Um das zu sehen reicht wohl Elementarmathematik.

Deine Rumhackerei auf BugfixListen... siehe Thowe's Posting. Das sollte eigentlich alles sagen.

Zur Spielekompatibelität kann man nur sagen, das die Karte mit einer der problemlosesten Karten ist. Ich hab selber kürzlich erst eine verbaut und war zu faul mir 7MB neue Treiber zu ziehen und hab einfach den von der Orginal CD genommen (steinalt). Es läuft alles! Ohne auch nur einziges Problem. (unter Windows 2000) Zu XP kann ich nur sagen, wundert es mich, wie schnell dieses Betriebssystem sich unter 15-25 Jährigen ausbreitet. War mir gar nicht bewusst, das wir so viele Microsoftfans hier haben, die sich sofort das neuste Produkt von denen kaufen.

Zu Benchmarks solle man evtl. mehr als nur eine Quelle in Betracht ziehen, da das Risiko Fehlinformationen zu erhalten viel zu groß ist.

Alles im Allem eine für den Preis sehr empfehlenswerte Karte.

Für mich ist PowerVR genauso eine Marke wie nVidia. Stellen eben Grafikchips her, die Andere verbauen. Und das seit PCX 1.

Quasar
2002-01-22, 23:02:58
Originally posted by aths
Quasar,
natürlich brauchen Entwickler die neusten Features. Ich bin jedoch nur Spieler und kaufe meine Karte nicht für zukünftige Spiele, sondern für jene, die es zu kaufen gibt.
Du legst viel Wert auf AF. Ich lege viel Wert auf AA und auf trilineare Filterung, wenns geht. Das AA der GF3 gefällt mir nicht, dass die R8500 nicht trilinear filtert auch nicht.
Es sollten Auseinandersetzungen um solche Fragen stattfinden. Man sollte sich aber nicht auf den Standpunkt stellen "Feature XYZ ist auf der Karte ABC besser, da dies und das so ist" und dabei die Nachteile ausblenden.
(Dass ich fehlende trilineare Filterung absolut indiskutabel finde, mögen viele nicht einsehen, da die Radeon beweist, dass sich auch ohne sehr gute Ergebnisse erzielen lassen. Hier kann man schwer mit mir diskutieren, da die Meinung sachlich angreifbar ist. Deshalb halte ich mich da sehr zurück.)

Das AA der GF ist sicherlich nicht der Weisheit letzter Schluß, jedoch empfinde ich es als Vorteil gegenüber anderen Karten, namentlich denen, die Supersampling betreiben, daß man quasi getrennt die Kanten- und Texturenglättung einstellen kann, und nicht immer nur beides als Gesamtpaket bekommt, da dies des öfteren zu einer suboptimalen Einstellung führt (2xFSAA gut spielbar, 4xFSAA nicht mehr, was fehlt, wäre ein "3xFSAA").
Dies könnte ich bei der GF3 separat einstellen, auch wenn hier das korrekte anisotropische + trilineare Filtern offenbar mehr Leistung kostet, als das "RIP"-Mapping+AF bei der R8500. Ich kann mit einem niedrigen Grad an Kantenglättung vorlieb nehmen, aber gleichzeitig einen höheren Grad an Texturfilterung auswählen.
Ich weiß, das das bei der Radeon8500 auch ginge, nur muss ich hier befürchten, daß aufgrund des Bandbreitennachteils bei SSAA wegen der quasi integrierten Texturenglättung die Performance mehr leidet, als ich in Kauf zu nehmen gewillt bin.
Insofern bin ich in der Wahl meiner Möglichkeiten bei der GF3 ein wenig weniger eingeschränkt.
Ich glaube, das "fehlerhafte" trilineare Filtern der R8500 sieht man in Bewegung genausowenig, wie den Unterschied zwischen 8 und 16fachem AF, so daß bei den praktisch nutzbaren höchsten Qualitätseinstellungen die BQ sich kaum unterscheiden dürfte.
Was ich an der GF3 nicht verstehe, warum nV den seit der GF2 bekannten DXTC-Bug mit sich herumschleppt, warum LMA offenbar unter 16Bit deaktiviert ist (wie ich schon des öfteren sagte, sehe ich 16Bit als Fallback an, um eine Karte noch ein halbes Jahr länger nutzen zu können. Nur wird das leider völlig wertlos, wenn die 16Bit Leistung nicht deutlich besser als die 32Bit-Leistung ist). Das von vielen kritisierte späte Erscheinen von Treibern, die das Potential der GF3 nutzbar machten, finde ich dagegen weniger schlimm, da es in der Anfangszeit mangels Konkurrenz eh nicht negativ auffiel und wer mit der Leistung unter damaligen Treibern nicht zufrieden war, kaufte eben keine...nV's eigenes Problem!
Was mich am meisten an der ATi gestört hat, war die Softwarekomponente. Das Silikon war dem von nVidia überlegen, wie schon bei der Radeon I, von der ich ein Exemplar besaß. Dort habe ich auch angefangen, eher schlechte Erfahrungen mit den Treibern zu sammeln und war deshalb nicht gerade optimistisch, daß sich die Situtaion bei der R8500 deutlich bessern würde.
Die Geschichte mit den Quack-Treibern, sowie das Anfangs nicht unterstützte SV schienen mir Recht zu geben. Aber mittlerweile scheint ATi sich ja wirklich am Riemen zu reißen und was für die Treiber zu tun. Es gibt mittlerweile glaube ich häufiger leaked Drivers von ATi als von nVidia. Wenn sie so weitermachen, werde ich bei meiner nächsten Graka sicherlich warten, bis beide oder eventuell alle drei bis vier DX9-Lösungen auf dem Markt sind.

P.S.:
Man kann mit dir also doch vernünftig reden :)

aths
2002-01-22, 23:27:52
Quasar,

3x FSAA ist mit SV möglich. SSAA hat primär keinen Bandbreiten- sondern Füllraten-Nachteil (woraus dann natürlich auch ein Bandbreiten-Nachteil resultiert.)

Ich sehe AA und AF als Teile eines "IQ-Gesamptpaketes". Ich würde bei einer modernen Graka nicht nur das eine oder nur das andere haben wollen. Mit geringerer AF-Stufe und 2x oder 4x SSAA hat man quasi eine höhere AF-Stufe. Auch mit SSAA ist eine getrennte Einstellung möglich. Die GF3 ist hier in der Tat, wie du geschrieben hast, weniger eingeschränkt. Doch zu welchem Preis? Hast du mal Alpha-Texturen bei CS gesehen, wenn eine hohe AF-Stufe aktiviert wurde? Das sieht fürcherlich aus. Warum bietet die GF3 nicht sowohl MS als auch SSAA? Wo wir bei der GF3 sind: Pengo vergleicht die Geschwindigkeit 4x MS vs. 4x SV. Das ist in meinen Augen Schwachsinn², weil bei SV die Samplepositionen viel effektiver gesetzt werden als beim GF3-4x-AA - und nebenbei die Texturen schärfer sind. Man kann die Framerate nicht vergleichen, wenn ganz andere Qualität erzeugt wird!

Argumentiert man nun, auch bei SV sei in hohen Auflösungen der Vorteil von 4x ggü. 2x nicht sooo gewaltig, dann zieht der Vorwurf der schlechten SSAA-Performance erst recht nicht mehr: Bei 2x hat die Radeon aktuell keine Geschwindigkeits-Probleme. Kurz, einige argumentieren um ihre Sichtweise zu verteidigen, und kümmern sich nicht um die Fakten.

Mit der GF4 wird der Geschwindigkeitsverlust beim MSAA weiter minimiert. Ein Vorteil. Ich möchte jedoch auf einer Karte nach Wunsch auch SSAA nutzen können. Das bietet die GF3 (mit den offiziellen Treibern) nicht. Des weiteren möchte ich auch bei hohen Auflösungen mindestens 4x RGAA-Qualität haben. Das bietet eine GF3 auch nicht. Stattdessen machte nVidia einen Riesenwirbel um Quincunx.

16-Bit-Grafik halte ich auf die alten Tage einer GF3 für nutzlos, die Qualität wird man vermutlich nicht mehr antun wollen. Das Feature fällt für mich also eher unter "Kompatibelität". Bei DXT1 mache ich nVidia schwere Vorwürfe: Wegen ihrem Pfusch wurde die Bedeutung von TC zurück gedrängt. Nun bringen sie 128 MB RAM auf der GF4. Sicherlich nützlich, aber breit angewendete TC wäre für uns kostengünstiger...

ATIs Image bekam mit dem Quake-Cheat einen schweren Kratzer. Ich war jedenfalls sehr enttäuscht von dem, was sie sich da geleistet haben. Dass die Radeon8500 bei trilinearer Einstellung nicht wirklich trilinear filtert, sondern lediglich einen verbesserten bilinearen Filter mit 50%-Übergängen verwendet, finde ich ebenfalls kritikwürdig. Beim Anti-Aliasing jedoch bieten sie die höchste Qualität.

Zu deinem postscriptum, da hast du doch nie wirklich dran gezweifelt? Hehe...

Quasar
2002-01-23, 00:17:53
...ehrlich gesagt, hab ich manchmal etwas dran gezweifelt... ;)

Ich würde auch lieber noch die zusätzliche Option des SSAA haben, aber der (inoffiziell) verfügbare 2+2-Modus (von Razor gerne "mix" genannt) ist schon ein netter Anfang, aber noch nicht der Weisheit letzter Schluss.

Was die GF4 angeht, so denke ich, daß nVidia hier außer der Geschwindigkeit, die ja allein durch die höheren Taktraten schon steigen sollte, auch auf zusätzliche Qualitätsoptionen setzen wird, wie der xBit-Labs-Name "AccuView AA" ja schon andeutet. Der Pixelshader wird mangels Bereitschaft, ATis technologischen Vorsprung anzuerkennen, sicher nicht verwirklicht werden, sondern mit Verweis auf Version 2.0 in DX9 ad acta gelegt.

Desweiteren bin ich noch gespannt, was noch so alles im Treiber der GF3 verborgen ist, da auf Guru3d kurz nach dessen Wiederauferstehung zu lesen war, daß Unwinder, seines Zeichens Programmierer des RivaTuners, etwas ganz spezielles in die nächste Version einbinden würde.

Den Wirbel um Quincunx kann ich, wie du, nicht nachvollziehen, allerdings aus anderen Gründen. Es mag jedoch durchaus Leute geben, denen glatte Kanten wichtiger sind, als alles andere. Mir jedenfalls reicht eine hohe Auflösung. Dort sind zwar die "Jaggies" immer noch deutlich sichtbar, aber mein subjektives Sehempfinden stören sie nicht mehr allzusehr.

16Bit macht für mich, bei den entsprechenden Karten wie GF2, RadeonI und Voodoo5, als Fallback durchaus Sinn: Besser schlecht gefahren, als gut gelaufen, will heißen, in der Not akzeptiert der Quasar 16Bit eher als Geruckel ;), auch wenn das ein eindeutiges Anzeichen wäre, das mal wieder eine neue Grafikkarte fällig ist.

Ob nun nVidia durch ihren Bug der TC geschadet haben oder ob die Entwickler einfach meinten, aktuelle Grafikkarten hätten genug RAM onobard, so daß ein Auslagern ins System-RAM entfallen kann, weiß ich nicht. Fest steht nur, dass der Verzicht auf TC, bei aktueller Verwendung, eigentlich eher einen Rückschritt in der BQ bedeutet, da auch dieses Verfahren nicht verlustfrei ist...Sinn macht es erst, wenn wirklich grosse und damit fotorealistische Texturen verwandt werden.

Naja, ich muss morgen früh raus, deswegen erstmal Gute N8.

Quasar
2002-01-23, 01:55:19
grad noch bei Reactorcritical gefunden:

Accuview AA is also supported by the GeForce4 MX. Accuview AA is a new multisampling type of antialiasing with new, more efficient antialiasing mask and algorithm that saves one frame buffer write cycle causing smaller perfomance penalty compared to the GeForce3.

Liszca
2002-01-23, 02:15:38
Originally posted by Quasar
grad noch bei Reactorcritical gefunden:


Merkt man es extrem wenn ein frame buffer gespart wird?

aths
2002-01-23, 03:23:36
Quasar,

dann haben sie tatsächlich den Voodoo-Trick übernommen :)

TC mindert die Qualität ein wenig, gut. Bei mir bringt TC im 32-Bit-Modus bei Quake3 25% mehr fps. Der Qualitätsverlust ist dabei kaum zu sehen. Quake wird von den Profis eh fast in den "Blockout-Modus" geschaltet. Da könnte man mit TC einen besseren Tradeoff aus Geschwindigkeit und Qualität erreichen.


Liszca,

man merkt es nicht extrem, aber man merkt es. MSAA ist nicht füllraten- sondern bandbreitenlimitiert. Alles, was an Bandbreite gespart wird, erhöht die Framerate. Spätestens zusammen mit dem anisotropen Filter sollte sich das in den Frameraten niederschlagen.

Sehr viel wichtiger ist allerdings, dass sie eine 4x-Methode mit rotiertem Raster anbieten.

Exxtreme
2002-01-23, 07:16:18
@ aths
Mit den 6011'er Treibern bietet auch die R8500 echtes trilineares Filtering. Das haben die Treiber wieder freigeschaltet.


Gruß
Alex

Pengo
2002-01-23, 11:13:27
Originally posted by Haarmann
Hey Pengo,

Und der is auch von Anand... Der is sich wohl mit sich selber ned so ganz einig :) - Armer Schizo dieser Anand ;D

Was war das fürn Testsystem, welches bei Deinem Screen zum Einsatz kam?


P4 2 GHz, sein Standardsystem neuerdings.

Pengo
2002-01-23, 11:16:38
Originally posted by aths
(Dass ich fehlende trilineare Filterung absolut indiskutabel finde, mögen viele nicht einsehen, da die Radeon beweist, dass sich auch ohne sehr gute Ergebnisse erzielen lassen. Hier kann man schwer mit mir diskutieren, da die Meinung sachlich angreifbar ist. Deshalb halte ich mich da sehr zurück.)

Ich sehe es wirklich nicht ein, bilinear + aniso unterscheidet sich so wenig von trilinear + aniso, daß ich sogar auf meiner GF3 bilinear + aniso nehme um paar fps mehr zu bekommen.

Pengo
2002-01-23, 11:19:00
Originally posted by Haarmann
Hey Pengo,

ich hab auch einen...

Und der is auch von Anand... Der is sich wohl mit sich selber ned so ganz einig :) - Armer Schizo dieser Anand ;D


Ich denke daß dein Screenshot schon sehr alt ist, ich hab mich nämlich vor längerer Zeit selbst gewundert wie gut die Kyro 2 unter SS performt. Paar Wochen später kam die Ernüchterung, ich weiß nicht woran es lag, vielleicht wurde nicht mit der final Version von SS gebencht oder neue Detos haben hier sehr viel gebracht.

Haarmann
2002-01-23, 16:13:43
Tja Pengo... ich weiss auch nicht woran das liegt... Anands Testsystem war ein 1GHz Athlon TB und das Bild is ausm Kyro2 Review. Eigentlich müsste somit die Kyro2 mitm P4 ja noch zulegen. Weswegen das nun so unterschiedlich ist, kann ich nicht beantworten, aber ev haste ja mal schnell dir URL zum Artikel, dem Deine Grafik entstammt... Dann kann ich ja mal nachlesen - ev finde ich raus was es is.

Vor langer Zeit mal, hat RAM auf 3dconcept auch SerSam gebencht. Und zwar mit der Kyro out of the Box, also ohne Treibertweaks - ich hab dann bei mir selber nachgebencht mit seinem HQ++ Skript und glaubs rund 66% oder sowas in der Art mehr Frames bekommen - Razor mag sich ev noch daran erinnern - bei der Kyro kannste z.B. im Schnitt im OpenGL Force Single Buffer aktivieren - ein Feature, das kein nicht TBR hat (ich erwähne das, weil 3dm2001 wohl absichtlich den single buffer modus entfernt hat...) - unter W2K machte dies damals bei den SS Rockets ein Problem, weswegen ich mal bei PVR nachgefragt hab - nach paar Wochen kamen die neuen Treiber - und es lief, unter W9x lief es eh immer ohne Probleme.

Wie gesagt, man kann ne Kyro2 gut ausbremsen, wenn man will ;D

aths
2002-01-23, 16:21:59
Pengo,

der Unterschied mag gering sein, ich würde bei einer modernen Graka darauf eben achten. Genau so, wie ich statt 8x AF eher 16x AF "verlangen" würde.


Exxtreme,

dann warte ich mal ab, ob es bald irgendwo im Netz Screenies zu sehen gibt.

Pengo
2002-01-23, 17:51:56
Originally posted by Haarmann
Tja Pengo... ich weiss auch nicht woran das liegt... Anands Testsystem war ein 1GHz Athlon TB und das Bild is ausm Kyro2 Review. Eigentlich müsste somit die Kyro2 mitm P4 ja noch zulegen. Weswegen das nun so unterschiedlich ist, kann ich nicht beantworten, aber ev haste ja mal schnell dir URL zum Artikel, dem Deine Grafik entstammt... Dann kann ich ja mal nachlesen - ev finde ich raus was es is.

http://www.anandtech.com/showdoc.html?i=1539

Ich habe auch in anderen Anand Artikeln nachgeschaut und da sind die K2 Werte gleich, ich denke wirklich daß die allerersten nicht mit SS Final gemacht wurden.

Pengo
2002-01-23, 17:54:15
Originally posted by aths
Pengo,

der Unterschied mag gering sein, ich würde bei einer modernen Graka darauf eben achten. Genau so, wie ich statt 8x AF eher 16x AF "verlangen" würde.


Ich sehe zwischen 2x und 4x aniso noch einen großen Unterschied, zum 8x jedoch nicht mehr, deshalb ist mir 8x den Performanceverlust bei meiner GF3 nicht Wert, deshalb spiele ich fast alles mit 4x.

Haarmann
2002-01-24, 01:48:15
Es ist Final Pengo ... ich kann die Werte eigentlich auch erreichen... resp etwas bessere Werte, aber das kann ja ned der Grund sein... mich würde schon interessieren, was da eben sein soll und was nicht.

Quasar
2002-01-25, 02:44:09
Pengo's Werte sind mit "max. Quality" erreicht worden. IMHO wird dabei trilinear+AF aktivert, was (ebenso) IMHO auf der GF2 nicht geht, auf der KyroII aber massiv Leistung kostet, weil sie die schietige Implementation vom Neon250 übernommen haben...
(Toll, was man in Dialekt alles so sagen darf. "scheissige" klänge gleich viel härter, oder?)