PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Enttäuschende Leistung von GeForce FX 5900 Ultra


Darkman.X
2003-08-24, 00:47:09
Hi,
es geht um meine GF FX 5900 Ultra von MSI. Irgendwie bin ich von ihr enttäuscht. Ich habe die Karte mal mit Unreal 2 und Splinter Cell getestet. Da ich dachte, dass die Karte so viel Power hat, habe ich standardmäßig mit 0xAA (ist mir nicht wichtig) und 8xAF (keine Texturschärfung) auf 1024x768 mit 32Bit gespielt. In Unreal 2 hatte ich alle Einstellungen auf maximum, außer Schatten. Diese hatte ich in der Master-Einstellung auf Mittel. Das selbe auch bei Splinter Cell.
Nun mußte ich feststellen, dass in Unreal 2 schon am Anfang (Hauptquartier) und in der ersten Mission die Framerate auf 30 einbricht. Es ist zwar noch einigermaßen flüssig, aber es könnte ruhig mehr sein, ich empfinde es nicht als absolut flüssig. In Splinter Cell ist es sogar noch schlimmer. Schon in der Trainingsmission habe ich, bevor ich die erste Leiter rausklettere, nur noch 20-25 fps. Wenn ich die Leiter rausklettere und mich oben umschaue, habe ich nur noch 20 fps. Das empfand ich als ganz schön heftig. Also hatte ich zum Testen AF auf 0 gestellt gehabt. Und siehe da, in Unreal 2 und Splinter Cell habe ich an den beschriebenen Stellen fast die doppelte Framerate.

Bisher dachte ich immer, dass die Unreal-Engine so stark CPU-Limitiert sei, dass zeigt sich schon bei UT2003. Es gab mal ein Artikel, der zeigt, dass es ab einer GF3 Ti500 keine wirkliche Verbesserung mehr gab. Und auch wenn ich den Standard-Benchmark bei mir starte, macht es beim Botmatch auch keinen Unterschied, ob ich AF auf 8x oder 0x habe. Deshalb wundert es mich, das U2 und Splinter Cell so stark auf AF reagieren. Wo ich mir die Karte kaufte, dachte ich, ich könnte jedes Spiel mit 8xAF zocken und würde erst ab HL2, Doom3, FarCry usw. Probleme bekommen. Nun muß ich aber schon bei heutigen Spielen das AF runterschrauben, deshalb bin ich doch sehr enttäuscht.

Also ist es normal, dass die GraKa bei diesen beiden Spielen mit 8xAF so stark einbricht oder kann es sein, dass etwas nicht in Ordnung ist ? Aber das glaube ich auch irgendwie nicht, denn in 3DMark03 (ich weiß, dass der Müll ist) habe ich 5900 Punkte, was normal ist. Wovon ist AF eigentlich abhängig ? Bandbreite ? Rohpower der GPU ?

Ist das bei ATI auch so, falls mir das einer hier im Nvidia-Bereich überhaupt beantworten kann :) ?

Darkman

PS: Mein System...
P4, 3GHz
Asus P4C800 Deluxe
1024 MB RAM
Audigy 2
MSI FX5900 Ultra (Detonator 45.23)

Gast
2003-08-24, 01:05:48
hi,

habe eine fx5800 und 8xaf gemacht, als ich auf die leiter nach oben geklettert bin, hatte ich denke ich mal nur noch 10fps :kotz:
mein freund hat eine 9700pro und bei ihn läuft splinter cell sau flüssig aber du musst selber wissen, welche firma du wählst....ich sag mal so: ati die nummer eins was leistung angeht aber sehr viele fehldarstellungen in spielen, bei nvidia scheiss leistung aber keine darstellungsfehler in spielen, tja das leben ist hart *heul*

cu

Byteschlumpf
2003-08-24, 01:09:52
Das mit den Fehldarstellungen stimmt mittlerweile bei ATi auch nicht mehr so ganz! ;)
Je nach Deto kommt es bei diversen Geforce-Modellen auch zu unschönen Fehldarstellungen (Gf2/3).

Gast
2003-08-24, 01:13:04
Original geschrieben von Byteschlumpf
Das mit den Fehldarstellungen stimmt mittlerweile bei ATi auch nicht mehr so ganz! ;)
Je nach Deto kommt es bei diversen Geforce-Modellen auch zu unschönen Fehldarstellungen (Gf2/3).

dann schau mal hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=75527&goto=lastpost

in jedem spiel, was keine z-buffer einstellung hat hat eine ati karte voll die probleme, nv regelt es wohl irgendwie und diese pünktchen sind auch erste sahne, mit einer nv karte hat man sowas nicht.

Byteschlumpf
2003-08-24, 01:18:40
Original geschrieben von Gast
dann schau mal hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=75527&goto=lastpost

in jedem spiel, was keine z-buffer einstellung hat hat eine ati karte voll die probleme, nv regelt es wohl irgendwie und diese pünktchen sind auch erste sahne, mit einer nv karte hat man sowas nicht.
Kann man das auch in verständlichem Deutsch ausdrücken?
Was meinst Du mit "diese pünktchen sind auch erste sahne"?

BlackArchon
2003-08-24, 01:21:04
Lass ihn, das ist ein Unreg, die wollen eh alle nur flamen.

Demirug
2003-08-24, 01:25:33
Bei Splinter Cell brechen beide ein wenn man AF einschaltet. Die GF um bis zu etwa 25% die Radeon etwas weniger was primär aber daher kommt das die GF das etwas bessere (aber damit auch Leistungsfressenderes) AF-Verfahren hat. Nur muss man auch sagen das eine 9800 Pro bei Splinter Cell derzeit einfach immer etwas schneller als eine 5900 Ultra ist.

Zu Unreal 2 kann ich nicht viel sagen es sollte sich aber was den Einbruch durch AF angeht ähnlich verhalten.

Wovon ist AF eigentlich abhängig ? Bandbreite ? Rohpower der GPU ?

Beides. Aber primär ist es die Fillrate die dabei aufgebraucht wird. tri 8xAF kann immerhin den bis zu 16 fachen Aufwand wie der normale bi-linare Filter benötigen. Die zusätzliche Bandbreite dafür fällt nicht ins Gewicht weil der Chip ja auch mehr Zeit hat die Daten aus dem Speicher zu holen.

Gast
2003-08-24, 01:45:39
Original geschrieben von Byteschlumpf
Kann man das auch in verständlichem Deutsch ausdrücken?
Was meinst Du mit "diese pünktchen sind auch erste sahne"?

ich habe doch ein link gegeben, da kannst du alles genau durchlesen. extreme meint das man das polygongaps nennt.

@ black sonstwas, ich will nicht flamen.

wie ich schon schrieb, mit einer 9700pro kann man das spiel mit 16xaf total flüssig spielen aber mal was anderes, habt ihr eine ati und eine nv karte und könnt splinter cell vergleichen z.b training level ? bei der fx sind mehr efeckte als bei der radeon! da sind ja fenster wo licht einstrahlt z.b wo die erste leiter ist schaut mal nach links an diese holzwand wo die strahlen sind, dass sieht bei einer fx viel besser aus weil noch mehr efeckte, bei der radeon sind diese strahlen nur weiß! ich kann es nicht erklären aber am besten schaut ihr das mal selbst an.

Coolj100
2003-08-24, 02:16:00
Original geschrieben von Darkman.X
Hi,
es geht um meine GF FX 5900 Ultra von MSI. Irgendwie bin ich von ihr enttäuscht. Ich habe die Karte mal mit Unreal 2 und Splinter Cell getestet. Da ich dachte, dass die Karte so viel Power hat, habe ich standardmäßig mit 0xAA (ist mir nicht wichtig) und 8xAF (keine Texturschärfung) auf 1024x768 mit 32Bit gespielt. In Unreal 2 hatte ich alle Einstellungen auf maximum, außer Schatten. Diese hatte ich in der Master-Einstellung auf Mittel. Das selbe auch bei Splinter Cell.
Nun mußte ich feststellen, dass in Unreal 2 schon am Anfang (Hauptquartier) und in der ersten Mission die Framerate auf 30 einbricht. Es ist zwar noch einigermaßen flüssig, aber es könnte ruhig mehr sein, ich empfinde es nicht als absolut flüssig. In Splinter Cell ist es sogar noch schlimmer. Schon in der Trainingsmission habe ich, bevor ich die erste Leiter rausklettere, nur noch 20-25 fps. Wenn ich die Leiter rausklettere und mich oben umschaue, habe ich nur noch 20 fps. Das empfand ich als ganz schön heftig. Also hatte ich zum Testen AF auf 0 gestellt gehabt. Und siehe da, in Unreal 2 und Splinter Cell habe ich an den beschriebenen Stellen fast die doppelte Framerate.

Bisher dachte ich immer, dass die Unreal-Engine so stark CPU-Limitiert sei, dass zeigt sich schon bei UT2003. Es gab mal ein Artikel, der zeigt, dass es ab einer GF3 Ti500 keine wirkliche Verbesserung mehr gab. Und auch wenn ich den Standard-Benchmark bei mir starte, macht es beim Botmatch auch keinen Unterschied, ob ich AF auf 8x oder 0x habe. Deshalb wundert es mich, das U2 und Splinter Cell so stark auf AF reagieren. Wo ich mir die Karte kaufte, dachte ich, ich könnte jedes Spiel mit 8xAF zocken und würde erst ab HL2, Doom3, FarCry usw. Probleme bekommen. Nun muß ich aber schon bei heutigen Spielen das AF runterschrauben, deshalb bin ich doch sehr enttäuscht.

Also ist es normal, dass die GraKa bei diesen beiden Spielen mit 8xAF so stark einbricht oder kann es sein, dass etwas nicht in Ordnung ist ? Aber das glaube ich auch irgendwie nicht, denn in 3DMark03 (ich weiß, dass der Müll ist) habe ich 5900 Punkte, was normal ist. Wovon ist AF eigentlich abhängig ? Bandbreite ? Rohpower der GPU ?

Ist das bei ATI auch so, falls mir das einer hier im Nvidia-Bereich überhaupt beantworten kann :) ?

Darkman

PS: Mein System...
P4, 3GHz
Asus P4C800 Deluxe
1024 MB RAM
Audigy 2
MSI FX5900 Ultra (Detonator 45.23)

Wie demirug schon sagte, bei splinter cell ist die fps mit keiner der heutigen top karten die fps so hoch, dass man sagen kann das ist richtig flüssig. Für mich ist richtig flüssig erst ab der 40-60 fps marke(spieleabhängig) und da man das sowieso nicht immer erreicht...

Und unreal 2 hehe bei meiner radeon9700 gab es so starke performance einbrüche manchmal, dass ich auch gestaunt habe. Es liegt irgendwie an dieser unreal engine glaube ich!!!

@BYTESCHLUMPF

Auf jedenfall hast du kein recht. Ich kann dir so viele spiele aufzählen wo ich z-fighting oder diese weissen pünktchen hatte da würdest du staunen und ich war nicht der einzigste...
z.B. Unreal2(z-fighting weisse punkte), gta vice city(z-fighting), ut2003(z-fighting), chaser(z-fighting weisse punkte), generals(z-fighting), vietcong(z-fighting), never winter nights(z-fighting), fifa2003(weisse farbe wird sehr hell dargestellt) und ich könnte noch eine ganze reihe aufzählen. Also lüge bitte nicht das es besser geworden ist.

Aber ganz klar ist die radeon bei der af leistung besser als die fx!!!
So ist es nicht das die radeon schlecht ist, wie der gast schon meinte man muss sich zwischen grafikfehlern und bessere performance entscheiden. Ich habe mich für die fx entschieden habe vor kurzen meine r9700 gegen eine fx5800 getausch und bin glücklich. Ohne af ist die fx schneller.

Iceman346
2003-08-24, 02:48:22
Original geschrieben von Gast

wie ich schon schrieb, mit einer 9700pro kann man das spiel mit 16xaf total flüssig spielen aber mal was anderes, habt ihr eine ati und eine nv karte und könnt splinter cell vergleichen z.b training level ? bei der fx sind mehr efeckte als bei der radeon! da sind ja fenster wo licht einstrahlt z.b wo die erste leiter ist schaut mal nach links an diese holzwand wo die strahlen sind, dass sieht bei einer fx viel besser aus weil noch mehr efeckte, bei der radeon sind diese strahlen nur weiß! ich kann es nicht erklären aber am besten schaut ihr das mal selbst an.

Das liegt an der Faulheit der Programmierer. Diese Schatteneffekte wären theoretisch auch auf jeder Radeon die mit einem R300 Chip oder einem Ableger davon ausgestattet ist möglich, aber die Entwickler haben sie aus irgendeinem Grund nicht eingebaut.

Darkman.X
2003-08-24, 03:12:10
@Demirug & Coolj100:
Vielen Dank für die Infos. Ich hatte echt gedacht, das Splinter Cell auch CPU-Limitiert sei. Man sieht immer so viel Benchmarks, wo die FX5900U oder Radeon8900Pro bei vielen Spielen (RTCW, Comanche4, UT2003, usw.) erst mit extremen Settings (4xAA, 8xAF, sehr hohe Auflösung) einbrechen, da dachte ich, dass ich locker jedes Spiel mit 8xAF zocken kann...
Da sollten Nvidia und ATI sich endlich etwas einfallen lassen, um AF zu beschleunigen, statt alle 2-3 Monaten einen neuen Chip nur mit mehr MHz raus zu bringen. Hatte mal irgendwo gelesen, dass deren Chips für bilineares Filtering optimiert seien...

In Zukunft werde ich wohl nur noch max. 4xAF benutzen, sieht fast genauso gut aus wie 8xAF, hat aber nur noch halb so viel Aufwand.

@Gast:
Das Splinter Cell bei Nvidia besser aussieht als bei ATI wußte ich gar nicht :o Gibt's irgendwo Screenshots, wo man den Unterschied sehen kann ?

Coolj100
2003-08-24, 03:25:38
Original geschrieben von Iceman346
Das liegt an der Faulheit der Programmierer. Diese Schatteneffekte wären theoretisch auch auf jeder Radeon die mit einem R300 Chip oder einem Ableger davon ausgestattet ist möglich, aber die Entwickler haben sie aus irgendeinem Grund nicht eingebaut.

Das liegt einerseits an der faulheit der programmierer, aber die radeon ist zu genau und zeigt halt diese grafikfehler viel intensiver. Obwohl diese grafikfehler auch bei einer nvidia karte erscheinen müssten sind sie nicht vorhanden...

Nvidia hat es irgendwie hinbekommen diese grafikfehler unsichtbar zu machen per treiber, was ati leider noch nicht gelungen ist. Aber vielleicht geht das mit einer radeon garnicht weg vielleicht ist das ein hardware seitiger fehler das weiss leider nur ati.

@ Darkman.X

Ich habe auch bemerkt das splinter cell mit 8xaf viel besser aussieht als radeon mit 8xaf. Irgendwie sieht man bei der nvidia auch mehr schattendetails. Leider habe ich keine radeon mehr sonst würde ich einen vergleich machen.

try2fixit
2003-08-24, 03:56:59
Na ja, man kann sich auch was schönreden.

Ich spiele ziemlich viel (hauptsächlich 3d-Shooter) und mir ist noch kein Z-Fighting Problem aufgefallen. Auch nicht in GTA-Vice-City, wo einige Screen-Shot´s gemacht haben. Ich habe mich vor die gleiche Szene gestellt (mit 4xAA und 8xAF) und bei mir sieht´s normal aus.

Ich bin jedenfalls mit meiner Radeon 9800Pro top zufrieden. Sowohl, was die Leistung angeht, als auch, was die Bild- und Treiberqualität betrifft. Und ich bin da ziemlich pingelig.

Und ich wehre mich einfach dagegen, daß immer wieder Leute versuchen die Radeon madig zu reden. Ich hatte vorher einen ganzen Haufen Geforce Karten (bis zur Ti-4600) und auch die FX5800Ultra zum Testen.
Und da hatte ich erheblich mehr Probs, als mit den Radeons. Und daß Splinter Cell auf der Radeon anders aussieht, als auf der Geforce FX kann ich nicht bestätigen. Und von der Leistung ist die Radeon sowieso Oberklasse.

MfG

Mario

LovesuckZ
2003-08-24, 07:49:29
Original geschrieben von Darkman.X
Da sollten Nvidia und ATI sich endlich etwas einfallen lassen, um AF zu beschleunigen, statt alle 2-3 Monaten einen neuen Chip nur mit mehr MHz raus zu bringen. Hatte mal irgendwo gelesen, dass deren Chips für bilineares Filtering optimiert seien...

ATi tut dies doch schon gewaltig: Winkelabhaengigkeit und Stageoptimierung machen deren AF sehr schnell, was jedoch auf Kosten der Qualitaet geht.
Sollte Quality AF bei dir zu langsam sein, du jedoch mit 8AF Spielen willst, benutzt mal Performance.

/edit: Ich hab grad die U2 Demo mit 8QAF gespielt. Und die Frames waren nur in extremen Situatuin auf 40. Sonst liegen sie zwischen 50 -70.

Byteschlumpf
2003-08-24, 12:23:04
Original geschrieben von Coolj100
@BYTESCHLUMPF

Auf jedenfall hast du kein recht. Ich kann dir so viele spiele aufzählen wo ich z-fighting oder diese weissen pünktchen hatte da würdest du staunen und ich war nicht der einzigste...
z.B. Unreal2(z-fighting weisse punkte), gta vice city(z-fighting), ut2003(z-fighting), chaser(z-fighting weisse punkte), generals(z-fighting), vietcong(z-fighting), never winter nights(z-fighting), fifa2003(weisse farbe wird sehr hell dargestellt) und ich könnte noch eine ganze reihe aufzählen. Also lüge bitte nicht das es besser geworden ist.

Aber ganz klar ist die radeon bei der af leistung besser als die fx!!!
So ist es nicht das die radeon schlecht ist, wie der gast schon meinte man muss sich zwischen grafikfehlern und bessere performance entscheiden. Ich habe mich für die fx entschieden habe vor kurzen meine r9700 gegen eine fx5800 getausch und bin glücklich. Ohne af ist die fx schneller.

Das schreibt sich: Auf jeden Fall hast Du Unrecht! (MS Word)

Solange Du keine Fachbegriffe zu verwenden vermagst ("diese weissen pünktchen"), ist eine weitere Diskussion über dieses Thema reichlich sinnlos mit Dir! ;)

Ich LÜGE nicht, da ich diverse Games auf einer Gf3 und 9700np direkt nacheinander zocken und die Bildqualität unmittelbar vergleichen kann (Zwei-PCs)!
Was ich feststelle ist, dass die Darstellung keinesfalls so schlecht ist, dass ich meine 9700np gegen eine Ti4x00 oder FX 5900 tauschen würde!
Und was die jeweils richtige Treiberwahl für ein Spiel bei Geforce-Karten angeht, davon kann ich Dir ein Liedchen singen - wohl eher doch eine Oper!!!

Jeder vertritt hier wohl einen anderen Standpunkt, weshalb hier die Devise gilt: jedem das Sein!

Razor
2003-08-24, 12:58:13
Original geschrieben von Darkman.X
Das Splinter Cell bei Nvidia besser aussieht als bei ATI wußte ich gar nicht :o Gibt's irgendwo Screenshots, wo man den Unterschied sehen kann ?
Kannst Du selber nachprüfen...

In den Settings gibt es eine Einstellung "Effects Quality".
Bei Radeon Karten kann man dort maximal "High" auswählen. Für nVidia-Karten (ab gf3) steht hier noch die Einstellung "Very High" zur Verfügung und beschert einem zusätzliche (Licht- und Schatten-) Effekte.

Beim Vergleichen zwischen Radeon- und nVidia-Karten wird leider oft der Fehler gemacht, diese Einstellung bei nVidia-Karten nicht zu überprüfen. Möchte man also einen Vergleich durchführen, müssen beide mit der Einstellung "High" gebencht werden.

Im übrigen kostet die "Very High" Einstellung eine ganze Menge Performace. Solltest Du also mehr davon brauchen... einfach auf "High" herunter schrauben. Dann siehts zwar nur noch aus, wie auf der Radeon, sollte aber locker 10-30% Performance bringen.

Much fun !

Razor

P.S.: Bei U2 kann heutzutage keine Karte mit Quality-Einstellungen so richtig punkten... ;)

Gast
2003-08-24, 13:15:31
Original geschrieben von Razor
Kannst Du selber nachprüfen...

In den Settings gibt es eine Einstellung "Effects Quality".
Bei Radeon Karten kann man dort maximal "High" auswählen. Für nVidia-Karten (ab gf3) steht hier noch die Einstellung "Very High" zur Verfügung und beschert einem zusätzliche (Licht- und Schatten-) Effekte.

Beim Vergleichen zwischen Radeon- und nVidia-Karten wird leider oft der Fehler gemacht, diese Einstellung bei nVidia-Karten nicht zu überprüfen. Möchte man also einen Vergleich durchführen, müssen beide mit der Einstellung "High" gebencht werden.

Im übrigen kostet die "Very High" Einstellung eine ganze Menge Performace. Solltest Du also mehr davon brauchen... einfach auf "High" herunter schrauben. Dann siehts zwar nur noch aus, wie auf der Radeon, sollte aber locker 10-30% Performance bringen.

Much fun !

Razor

P.S.: Bei U2 kann heutzutage keine Karte mit Quality-Einstellungen so richtig punkten... ;)

moment mal, also es gibt 3 einstellungen in sc, 2 mal kann man High auswählen und einmal very high mit einer radeon, gibt es noch etwas bei der fx oder was meinst du jetzt ? bei der radeon kann man auch 2 mal high und einmal very high auswählen und trotzdem sieht es schlechter aus als auf einer fx ;)

Razor
2003-08-24, 19:33:08
Schau mal in die INI (im System-Verzeichnis):

[D3DDrv.D3DRenderDevice]
; ForceShadowMode flag : 0==projector, 1==buffer, unspecified==auto-detect
;ForceShadowMode=0
Das Semikolon bedeutet, dass dieser Parameter 'ForceShadowMode' nicht gesetzt ist (= "auto detect") und damit das Programm selbst entscheidet, welcher Modus genutzt wird.

nVidia-Karten unterstützen 'projector' und 'buffer' (also 0 oder 1), der "auto detect" Modus wählt dann 'buffer' und damit die erweiterten visuellen Möglichkeiten mit nVidia-Karten

ATI-Karten unterstützen lediglich den 'projector' Modus und somit führt auch die "auto detect" Funktion zu diesem.

Nimm also einfach das Semikolon vor dem Parameter weg und schon wird's auf beiden gleich aussehen (und die Performance ist dann auch vergleichbar ;-) :
[D3DDrv.D3DRenderDevice]
; ForceShadowMode flag : 0==projector, 1==buffer, unspecified==auto-detect
ForceShadowMode=0
Sorry, im vorherigen Post hab' ich da was verwechselt...
;-)

Razor

Performer
2003-08-25, 00:32:28
@ Darkman.X: Also mit 8xAF zocken ist übertrieben, 4x reicht vollkommen aus, bei nVidia
im Prinzip auch 2x ohne Optimierung, sieht ja fast doppelt so gut aus wie bei Ati (die ja
sogar lustige 16xAF anbieten anstatt mal ordentlich 2x und 4x zu machen), naja egal. ;)

aths
2003-08-25, 02:09:23
Original geschrieben von Performer
@ Darkman.X: Also mit 8xAF zocken ist übertrieben, 4x reicht vollkommen aus, bei nVidia im Prinzip auch 2x ohne Optimierung, sieht ja fast doppelt so gut aus wie bei Ati (die ja sogar lustige 16xAF anbieten anstatt mal ordentlich 2x und 4x zu machen), naja egal. ;) 8x bringt bei mir ein besseres Bild als 4x. Max Payne spiele ich mit 8x AF.

ATIs 16xAF bringt auf R300 und Nachfolger mindestens 2x AF. "Wichtige" Winkel, bei herkömmlichen Engines die 90°-Winkel, werden sogar mit 16x statt 8x gefiltert.

Coolj100
2003-08-25, 02:12:57
Original geschrieben von Byteschlumpf
Das schreibt sich: Auf jeden Fall hast Du Unrecht! (MS Word)

Solange Du keine Fachbegriffe zu verwenden vermagst ("diese weissen pünktchen"), ist eine weitere Diskussion über dieses Thema reichlich sinnlos mit Dir! ;)

Ich LÜGE nicht, da ich diverse Games auf einer Gf3 und 9700np direkt nacheinander zocken und die Bildqualität unmittelbar vergleichen kann (Zwei-PCs)!
Was ich feststelle ist, dass die Darstellung keinesfalls so schlecht ist, dass ich meine 9700np gegen eine Ti4x00 oder FX 5900 tauschen würde!
Und was die jeweils richtige Treiberwahl für ein Spiel bei Geforce-Karten angeht, davon kann ich Dir ein Liedchen singen - wohl eher doch eine Oper!!!

Jeder vertritt hier wohl einen anderen Standpunkt, weshalb hier die Devise gilt: jedem das Sein!

Ich kann das so ausdrücken wie ich will, woher nimmst du dir das recht mich zu verbessern!!!
Kommst dir wohl besonders schlau vor was du ...!!!

Aber egal deine versuche mich wütend zu machen sind gescheitert du besserwisser. Du bist doch nur ein Marken fanatiker der nicht die warheit verkraftet. Ati ist sicherlich in der leistung schneller mit af aber normale leistung(und aa) ist die fx schneller.
Und sicherlich hat die ati eine menge zu verbessern, die treiber sind nicht besonders gut und deshalb habe ich gegen eine fx getauscht. Nvidia hat eben mehr erfahrung im programmieren der treiber.

Fanatische standpunkte brauchst du nicht von dir zu geben das interessiert niemanden.
Warum du die fx5900ultra schlecht zu machen versuchst ist ja wohl deinem fanatismus zu berechnen.

Performer
2003-08-25, 03:32:49
8x bringt bei mir ein besseres Bild als 4x. Max Payne spiele ich mit 8x AF.
Meinst du, 8x bringt nur bei DIR ein besseres Bild ? Der Speedverlust von 4x zu 8x
steht wohl in keiner Relation zur minimal verbesserten Bildqualität, schon gar nicht
bei Action Games wie Max Payne oder spielst du gerne mit lahmen 20 - 30 Frames ?

mirp
2003-08-25, 08:33:09
Original geschrieben von Performer
Meinst du, 8x bringt nur bei DIR ein besseres Bild ? Der Speedverlust von 4x zu 8x
steht wohl in keiner Relation zur minimal verbesserten Bildqualität, schon gar nicht
bei Action Games wie Max Payne oder spielst du gerne mit lahmen 20 - 30 Frames ? aths benutzt ein optimiertes AF. Im aTuner gibts jetzt extra vordefinierte Einstellungen für Max Payne.

(s. Sticky (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=42055))

Byteschlumpf
2003-08-25, 12:16:55
Original geschrieben von Coolj100
Ich kann das so ausdrücken wie ich will, woher nimmst du dir das recht mich zu verbessern!!!
Kommst dir wohl besonders schlau vor was du ...!!!

Aber egal deine versuche mich wütend zu machen sind gescheitert du besserwisser. Du bist doch nur ein Marken fanatiker der nicht die warheit verkraftet. Ati ist sicherlich in der leistung schneller mit af aber normale leistung(und aa) ist die fx schneller.
Und sicherlich hat die ati eine menge zu verbessern, die treiber sind nicht besonders gut und deshalb habe ich gegen eine fx getauscht. Nvidia hat eben mehr erfahrung im programmieren der treiber.

Fanatische standpunkte brauchst du nicht von dir zu geben das interessiert niemanden.
Warum du die fx5900ultra schlecht zu machen versuchst ist ja wohl deinem fanatismus zu berechnen.

Vor der 9700np hatte ich fünf nVidia-Karten im PC und konnte mir auch garnicht vorstellen, eine "verbugte" Ati im PC zu haben.

Als es im MM ein Angebot der Sapphire 9500Pro gab, habe ich mir kurzerhand diese gekauft und meine erst wenige Tage zuvor erworbene PNY Verto Ti4600 wieder ausgebaut, um das "Ati-Experiment" zu wagen!

Der Treiber (Cat 3.4) war damals, Anfang 2003, bei weitem noch nicht so gut, wie der aktuelle, sehr gute Cat 3.6.
Dennoch gab es keinen Grund, die Ati wieder zurückzugeben, insbesondere wegen der deutlich besseren AA/AF-Leistung gegenüber der Ti4600.
Somit mußte die Ti4600 ihr Lager räumen und ist wieder zum MM zurückgewandert - die Ati durfte bleiben.

Die FX5800 existierte damals nur auf dem Papier und Berichte von deren Fön-Kühlung hätten mich ohnehin von deren Kauf abgehalten.

Somit habe ich mich zu diesem Zeitpunkt also für das beste erhältliche, bezahlbare Produkt entschieden.

Dann kam endlich die FX5900 Ultra, die deutlich besser performte, als deren Vorgänger, und auch noch leiser gekühlt werden konnte.
Interesse am erneuten Wechsel der Grafikkarte hatte ich dann allerdings nicht mehr.


Damit will ich ausdrücken, dass ich das kaufen möchte, was zum jeweiligem Zeitpunkt das bessere Produkt ist - das soll also nicht als Pro-ATi und Anti-nVidia Gesülze aufgefaßt werden (für einen solchen "Schaiß" bin ich wohl mittlerweile zu alt).

Wieso soll ich ausgerechnet Deine Ehre und Deinen Stolz verletzen, indem ich angeblich die FX5900Ultra schlecht mache - was eine glatte Unterstellung Deinerseits ist?

Meine nächste Grafikkarte könnte durchaus wieder eine nVidia sein.


Nochwas:
Für Deinen Nick und Avatar bist Du doch einiges zu überhitzt, und
die Aufregung ist deutlich aus Deinem Beitrag herauszulesen.

Also nix mit "cool" und Neo! ;)

Torian.cc
2003-08-25, 14:01:36
[B]
Nochwas:
Für Deinen Nick und Avatar bist Du doch einiges zu überhitzt, und
die Aufregung ist deutlich aus Deinem Beitrag herauszulesen.

Also nix mit "cool" und Neo! ;)


Dem gibt´s nix mehr hinzuzufügen! ;)

Und Byteschlumpfs Statement ist vollkommen in Ordnung! Keine Ahnung, was es daran auszusetzen gab???

Nun zum Thema :

Hab` jetzt auch mal einige meiner Favoriten (Spiele) ausprobiert, und ich muss sagen, daß die Performance absolut SUPI ist!!
Ich habe mir deshalb auch die 256MB-Variante gekauft, weil ich Spiele gerne in "ihrer ganzen Schönheit" sehen möchte und auch in hohen Auflösungen spiele (wenn´s geht : 1600x1200).
Und unter 1600x1200 hat die FX5900 Ultra ´nen gewaltigen Sprung gemacht! Das kann man von Auflösungen unterhalb der 1280er NICHT sagen..., da ist sogar teilweise (bei manchen, NICHT bei allen Spielen!) eine TI4600 schneller! Das sagen zumindest einige Benchmarks aus.

Ich fand den Umstieg von ASUS V8460 Ultra Deluxe - ASUS V9950 Ultra absolut lohnenswert!
Hätte ich vorher anstatt der TI4600 eine ATI9700 (Pro oder NonePro) im Rechner gehabt, wäre wahrscheinlich DIE jetzt immer noch meine aktuelle Graka! Denn dafür ist der Leistungsunterschied zwischen FX5900 und R300 wahrscheinlich zu gering!

Das kann ich aber nicht mit Bestimmtheit sagen, da noch nie eine ATI-Graka in meinem Rechner werkelte..., aber anscheinend ist ATI mit den R300 und R350 Modellen ein "Malplatinchen" gelungen, welches nVidia den Angstschweiss auf die Stirn getrieben hat ;)

MfG
Tori

Coolj100
2003-08-25, 15:05:45
Original geschrieben von Byteschlumpf
Vor der 9700np hatte ich fünf nVidia-Karten im PC und konnte mir auch garnicht vorstellen, eine "verbugte" Ati im PC zu haben.

Als es im MM ein Angebot der Sapphire 9500Pro gab, habe ich mir kurzerhand diese gekauft und meine erst wenige Tage zuvor erworbene PNY Verto Ti4600 wieder ausgebaut, um das "Ati-Experiment" zu wagen!

Der Treiber (Cat 3.4) war damals, Anfang 2003, bei weitem noch nicht so gut, wie der aktuelle, sehr gute Cat 3.6.
Dennoch gab es keinen Grund, die Ati wieder zurückzugeben, insbesondere wegen der deutlich besseren AA/AF-Leistung gegenüber der Ti4600.
Somit mußte die Ti4600 ihr Lager räumen und ist wieder zum MM zurückgewandert - die Ati durfte bleiben.

Die FX5800 existierte damals nur auf dem Papier und Berichte von deren Fön-Kühlung hätten mich ohnehin von deren Kauf abgehalten.

Somit habe ich mich zu diesem Zeitpunkt also für das beste erhältliche, bezahlbare Produkt entschieden.

Dann kam endlich die FX5900 Ultra, die deutlich besser performte, als deren Vorgänger, und auch noch leiser gekühlt werden konnte.
Interesse am erneuten Wechsel der Grafikkarte hatte ich dann allerdings nicht mehr.


Damit will ich ausdrücken, dass ich das kaufen möchte, was zum jeweiligem Zeitpunkt das bessere Produkt ist - das soll also nicht als Pro-ATi und Anti-nVidia Gesülze aufgefaßt werden (für einen solchen "Schaiß" bin ich wohl mittlerweile zu alt).

Wieso soll ich ausgerechnet Deine Ehre und Deinen Stolz verletzen, indem ich angeblich die FX5900Ultra schlecht mache - was eine glatte Unterstellung Deinerseits ist?

Meine nächste Grafikkarte könnte durchaus wieder eine nVidia sein.


Nochwas:
Für Deinen Nick und Avatar bist Du doch einiges zu überhitzt, und
die Aufregung ist deutlich aus Deinem Beitrag herauszulesen.

Also nix mit "cool" und Neo! ;)

Ich weiss jetzt zwar nicht was das jetzt mit "Vor der 9700np..." aber egal.
Hier im forum versucht doch jeder seine grafikkarte(hersteller) irgendwie zu verteidigen. Wenn man einen hersteller einmal ein bisschen schlecht macht dann kommen solche leute wie du und wollen einen weiss machen das es diese fehler nicht gibt.

Also war ich wohl blind oder ich habe geister gesehen...
Ich hatte probleme mit grafikfehlern in diversen spielen. Ich verstehe nicht warum mir dann andauernd eingetrichtert wird, dass ich diese fehler nicht hatte?? Vielleicht kannst du mir das mal mit deiner erfahrung mir erklären??!! Der einzigste war ich auch nicht mit den fehlern!!!
Und der cat. 3.6 war nicht besser als der cat. 3.5 oder cat. 3.4...

Mit der nvidia habe ich diese fehler nicht mehr. Die diverse spiele mit denen ich probleme hatte, habe durchgetestet und die bilder verglichen und bin zu einem ergebniss gekommen, dass nvidia diese fehler nicht hat.

Und ich sage das nicht nur so...

Also ich stmme dir nicht zu das die ati immer verbugt war als ich meinen ersten beschleuniger in dem sinne bekam, nämlich die ati rage pro turbo 4mb graka hatte ich keinerlei probleme. Obwohl man darmals sowieso nicht sooo darauf geachtet hat.Danach hatte ich nur nvidia angefangen von der riva tnt bis hin zur geforce4 ti alle karten egal ob die mx karten waren oder die ganz teuren karten. Nach der ti habe ich auch ein experiment gemacht und mir die 9700np geholt. War auch von der leistung begeistert, aber mit den grafikfehlern die die karte verursacht hat kam ich nicht klar.

Du hast recht die 9700np war darmals die besste alternative zu allen karten. Sie war billig und sehr schnell und die fx war noch nicht draußen. Deswegen habe ich dir aber auch nicht einen vorwurf gemacht, wenn dass so rübergekommen ist endschuldige ich mich darfür.

Solange man mich nicht anmacht bin ich eigendlich immer cool...:D

mfg

Coolj100
2003-08-25, 15:09:39
Original geschrieben von Byteschlumpf
Das schreibt sich: Auf jeden Fall hast Du Unrecht! (MS Word)

Solange Du keine Fachbegriffe zu verwenden vermagst ("diese weissen pünktchen"), ist eine weitere Diskussion über dieses Thema reichlich sinnlos mit Dir! ;)

@ Torian.cc

Wenn ich so angemacht werde gibt es immer was hinzuzufügen ok!!

Nur damit du es weisst...

Ich darf so schreiben wie ich will wusste garnicht das wir hier in einer schule sind sonst hätte ich mehr aufgepasst.

Byteschlumpf
2003-08-25, 15:49:16
Original geschrieben von Coolj100
Also war ich wohl blind oder ich habe geister gesehen...
Ich hatte probleme mit grafikfehlern in diversen spielen. Ich verstehe nicht warum mir dann andauernd eingetrichtert wird, dass ich diese fehler nicht hatte?? Vielleicht kannst du mir das mal mit deiner erfahrung mir erklären??!! Der einzigste war ich auch nicht mit den fehlern!!!
Und der cat. 3.6 war nicht besser als der cat. 3.5 oder cat. 3.4...

Zwischen dem Cat3.4 und Cat3.6 liegen in der Tat Welten, wenn nicht ganze Galaxien! ;)

Natürlich gibt es auch einige Games, die besser auf nVidia laufen und umgekehrt.
Insgesamt gesehen läuft jetzt mit der Ati bei mir nahezu alles schön rund. Ich bin schon sehr gespannt, was der Cat 3.7 so alles bewirken wird. :)

Tigerchen
2003-08-25, 16:40:30
Original geschrieben von Byteschlumpf
Zwischen dem Cat3.4 und Cat3.6 liegen in der Tat Welten, wenn nicht ganze Galaxien! ;)

Natürlich gibt es auch einige Games, die besser auf nVidia laufen und umgekehrt.
Insgesamt gesehen läuft jetzt mit der Ati bei mir nahezu alles schön rund. Ich bin schon sehr gespannt, was der Cat 3.7 so alles bewirken wird. :)

Kann auch nicht behaupten die ATI Treiber wären besser oder schlechter als die nV-Treiber.Fehler in Treibern gabs immer mal in meiner nV-Karriere.Genau wie bei ATI.Wobei die Catalyst seit der Version 3.2 wirklich gut sind.

Dass winkelabhängige AF wird auch immer überbewertet.Ich weiß nicht was das soll da immer drauf rumzureiten.Soll sich jeder selbst anschauen und für sich entscheiden.

Und was nutzen mir Licht und Schattenfeatures bei Splinter Cell wenn sie dazu führen daß das Spiel unspielbar wird.

Performer
2003-08-25, 17:18:33
aths benutzt ein optimiertes AF. Im aTuner gibts jetzt extra vordefinierte Einstellungen

Hab mal die Optimierung der AF bei Vietcong verglichen, ist ja wohl ziemlich
schlechte Bildquali, also da ist mit 2x normal, leiber als 4x mit Optimierung ;)

Razor
2003-08-25, 20:29:41
Original geschrieben von Byteschlumpf
Zwischen dem Cat3.4 und Cat3.6 liegen in der Tat Welten, wenn nicht ganze Galaxien! ;)

Natürlich gibt es auch einige Games, die besser auf nVidia laufen und umgekehrt.
Insgesamt gesehen läuft jetzt mit der Ati bei mir nahezu alles schön rund. Ich bin schon sehr gespannt, was der Cat 3.7 so alles bewirken wird. :)
Willst Du damit sagen, dass ATI locker ein Jahr gebraucht hat, um vernünftige Treiber zu bringen ?
???

Razor

Gast1307
2003-08-25, 21:31:00
Das sollte doch schon langsam bekannt sein, das die ATI Karten besser sind.

Byteschlumpf
2003-08-25, 21:46:56
Original geschrieben von Razor
Willst Du damit sagen, dass ATI locker ein Jahr gebraucht hat, um vernünftige Treiber zu bringen ?
???

Razor
Ich bin erst seit dem Cat 3.4 dabei. Wären die Treiber zu diesem Zeitpunkt "unzumutbar" gewesen, hätte ich doch nie den R300 behalten.

Diese Haltung spricht nun wirklich nicht für einen Marken-Fanatiker. ;)

Piffan
2003-08-26, 00:25:47
Original geschrieben von Darkman.X
Hi,
es geht um meine GF FX 5900 Ultra von MSI. Irgendwie bin ich von ihr enttäuscht. Ich habe die Karte mal mit Unreal 2 und Splinter Cell getestet. Da ich dachte, dass die Karte so viel Power hat, habe ich standardmäßig mit 0xAA (ist mir nicht wichtig) und 8xAF (keine Texturschärfung) auf 1024x768 mit 32Bit gespielt. In Unreal 2 hatte ich alle Einstellungen auf maximum, außer Schatten. Diese hatte ich in der Master-Einstellung auf Mittel. Das selbe auch bei Splinter Cell.
Nun mußte ich feststellen, dass in Unreal 2 schon am Anfang (Hauptquartier) und in der ersten Mission die Framerate auf 30 einbricht. Es ist zwar noch einigermaßen flüssig, aber es könnte ruhig mehr sein, ich empfinde es nicht als absolut flüssig. In Splinter Cell ist es sogar noch schlimmer. Schon in der Trainingsmission habe ich, bevor ich die erste Leiter rausklettere, nur noch 20-25 fps. Wenn ich die Leiter rausklettere und mich oben umschaue, habe ich nur noch 20 fps. Das empfand ich als ganz schön heftig. Also hatte ich zum Testen AF auf 0 gestellt gehabt. Und siehe da, in Unreal 2 und Splinter Cell habe ich an den beschriebenen Stellen fast die doppelte Framerate.

Bisher dachte ich immer, dass die Unreal-Engine so stark CPU-Limitiert sei, dass zeigt sich schon bei UT2003. Es gab mal ein Artikel, der zeigt, dass es ab einer GF3 Ti500 keine wirkliche Verbesserung mehr gab. Und auch wenn ich den Standard-Benchmark bei mir starte, macht es beim Botmatch auch keinen Unterschied, ob ich AF auf 8x oder 0x habe. Deshalb wundert es mich, das U2 und Splinter Cell so stark auf AF reagieren. Wo ich mir die Karte kaufte, dachte ich, ich könnte jedes Spiel mit 8xAF zocken und würde erst ab HL2, Doom3, FarCry usw. Probleme bekommen. Nun muß ich aber schon bei heutigen Spielen das AF runterschrauben, deshalb bin ich doch sehr enttäuscht.

Also ist es normal, dass die GraKa bei diesen beiden Spielen mit 8xAF so stark einbricht oder kann es sein, dass etwas nicht in Ordnung ist ? Aber das glaube ich auch irgendwie nicht, denn in 3DMark03 (ich weiß, dass der Müll ist) habe ich 5900 Punkte, was normal ist. Wovon ist AF eigentlich abhängig ? Bandbreite ? Rohpower der GPU ?

Ist das bei ATI auch so, falls mir das einer hier im Nvidia-Bereich überhaupt beantworten kann :) ?

Darkman

PS: Mein System...
P4, 3GHz
Asus P4C800 Deluxe
1024 MB RAM
Audigy 2
MSI FX5900 Ultra (Detonator 45.23)


Nun hast Du aber auch zwei Spiele gewählt, die ziemlich krasse Beispiele abgeben. Unreal 2 ist einfach nur mies.....Da bricht es an Stellen katastrophal ein, ohne dass man den Grund sieht. Spiele mal die Sumpfmission und berichte mal, wie es bei dir stockt und ruckt, wenn dort die Verteidigungsmission läuft.....:(

Bei Splintercell werden in der höchsten Qualitätsstufe besondere Techniken zur Schattenberechnung verwendet, die derzeit nur auf NV- karten laufen. Zwar wäre es möglich gewesen, dass auch die Ati- Hardware dieses könnte, aber die Progger haben ein NV- only Modus verwendet...Mit voller Absicht übrigens, da NV nachgeholfen hat...

Was ist aber nun der Lohn dieser speziellen Schattenberechnung: Selbst die neueste NV- Hardware schwächelt so stark, dass man sich nicht wirklich diese Einstellungen im Spiel antuen sollte....Es läuft sogar auf ner alten GF2 besser als auf einer G3/G4 oder FX; denn die Gf2 ist so "alt", dass sie viele Effekte auslassen muß..

Ist schon komisch: Werden bei Splintercell die neuesten Graka-Techniken eingesetzt um schönste Effekte darzustellen, ist die Performance unzumutbar! Erst wenn man einen Gang zurückschaltet, wird die Performance einigermaßen. Darum läuft es auf der Radeon 9700/9800 besser als auf einer FX: Die Radeon muß bei bestimmten Schatteneffekten passen, und was sie nicht darstellen muß, kann sie auch nicht ausbremsen...hat Razor ja schon gesagt, was man wie einstellen muß, damit "Waffengleichheit" zwischen den Karten besteht...

Bin ja mal gespannt, ob dieser Effekt jetzt spezifisch die Unreal- Engine betrifft (Splinter Cell und Unreal 2 beruhen auf der gleichen Engine), oder ob dies generell so ist...Gute Nacht für Deus Ex 2 oder Half life 2: Da wird es auf derbste Art ruckeln, wenn man alle Effekte einstellt...Denke mal, dass man für Shots alle Shader aktiviert, aber zum Gamen dann auf DX7- Niveau runtergayt.....

Wenn der 3dMark03 irgendeinen Bezug zu den kommenden Spielen hat, dann werden Szenen, wo DX7- Technik zum Einsatz kommt, auf heutiger Hardware recht schnell laufen UND gut aussehen. In Szenen, wo zu viel in dx8/9- Technik rumgemacht wird, wird die Performance trotz gar nicht mal so stark verbesserter Optik stark einknicken. Man sieht es im 3dMark sehr schön an den Gamedemos.....

Bei Tombraider 6 ist die Peformance übrigens eine einzige Katastrophe, wenn ich alle Shaderversionen zulasse und das Spiel Tiefenunschärfe berechnet (Nach Pixelshader 2.0)....

Bei den genannten Beispielen ist die Power der Graka einfach noch nicht da, wenn man sie noch mit AF quält, dann geht nichts mehr in manchen Szenen...

Darkman.X
2003-08-26, 01:08:11
Hi,
danke dass du es mit TR6 erwähnst. Ich hatte es mir mal zum Testen ausgeliehen. Da fing es schon damit an, dass ich in den Hardware-Optionen geradezu erschlagen wurde von Einstellmöglichkeiten. Wie soll dort ein normaler Mensch durchsteigen ? Also hatte ich alles auf Standard gelassen. Und dann kam das erste Level: Ich dachte, ich guck nicht richtig......das hatte so geruckelt (ohne AF), da dachte ich, ich hätte eine TNT-Karte eingebaut gehabt ;) TR6 ist nur eine billige PS2-Konvertierung und dann solch ein Geruckel......nun weiß ich, dass es normal ist. Ich hatte auch schon irgendwo mal gelesen gehabt, dass man PS auf 1.1 (oder so ähnlich) beschränken sollte.

Aber heftig, dass eine billige PS2-Konvertierung so stark DirectX9-Effekte ausnutzt. Das hätte man sicherlich hardwareschonender programmieren können.......aber wahrscheinlich liegt es wieder am Compiler, welcher für ATI optimiert wurde.......wäre Interessant zu wissen, wie die ATI-Karten in TR6 abschneiden...

Demirug
2003-08-26, 01:48:00
Zum Thema TR6 haben wir dort schon einen recht langen Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=88196 Ist aber aufgrund der Länge nur was für einsame Stunden.

Darkman.X
2003-08-26, 10:57:38
Hi Demirug,
so, alles durchgelesen. Schon ein weiters Problemkind für die GeForce FX 5900 Ultra. Erst "Rthdribl v1.2", nun TR6.

So langsam bereue ich meinen Kauf wirklich. Die FX5900U mag vielleicht in aktuellen Spielen schnell sein, aber sobald modernere Effekte (PS 2.0) benutzt werden, wird sie immer langsamer gegenüber der R8900P256. Klar, es liegt auch an den ATI-optimierten PS-Profilen, aber so langsam frage ich mich, ob das der Fehlkauf meines Lebens ist, ich war mit Nvidia bis jetzt immer zufrieden. Ich weiß, du hast keine Glaskugel, aber ist in absehbarer Zukunft noch Besserung in Sicht, z.B. durch die neuen 2.A-Profile oder durch Detonator 50.xx ? Ansonsten war es wohl meine letzte Nvidia-Karte. Es kann doch nicht sein, dass ich mir eine High End-DirectX9-Karte kaufe, diese aber mit DX9-Effekten so langsam ist, dass man die Karte vergessen kann. Da hätte ich mir auch eine FX5200 kaufen können.

Mal etwas OT: Was machst du eigentlich beruflich ? Chip-Entwickler bei Nvidia oder ATI ? Spieleprogrammierer (Bruder von John Carmack ;)) ? So gut wie du dich mit der Materie auskennst....beim TR6-Thread habe ich nur die Hälfte verstanden......fp16, fp24, fp32, irgendwelche großen Listen über PS.....usw.
Der Rang "3D-Guru" wird dir gar nicht gerecht, man müßte es für dich in "3D-Gott" oder "Erfinder der 3. Dimension" umändern :D

Darkman.X (ein deprimierter FX5900U-Besitzer :()

Coolj100
2003-08-26, 11:25:07
Original geschrieben von Byteschlumpf
Ich bin erst seit dem Cat 3.4 dabei. Wären die Treiber zu diesem Zeitpunkt "unzumutbar" gewesen, hätte ich doch nie den R300 behalten.

Diese Haltung spricht nun wirklich nicht für einen Marken-Fanatiker. ;)

Wer sagt das die treiber unzumutbar waren der weiss nicht was unzumutbar bedeutet. Ich war seit dem cat. 3.0 dabei und nach meiner meiner meinung waren nur die cat. 3.2 mal wirklich eine verbesserung. Danach die treiber waren jetzt nichts besonderes, da wurden meistens spiele gefixt die ich nicht mehr spiele zum teil hatte ich sogar mehr probs mit den neuen(cat.3.6).

Das was mich immerwieder genervt hat, war dass die grafikfehler nie verbessert wurden.

Byteschlumpf
2003-08-26, 12:53:53
SplinterCell läuft bestens mit dem Cat3.6 und Patch 1,2b. ;)

Piffan
2003-08-26, 13:20:12
Original geschrieben von Coolj100
Wer sagt das die treiber unzumutbar waren der weiss nicht was unzumutbar bedeutet. Ich war seit dem cat. 3.0 dabei und nach meiner meiner meinung waren nur die cat. 3.2 mal wirklich eine verbesserung. Danach die treiber waren jetzt nichts besonderes, da wurden meistens spiele gefixt die ich nicht mehr spiele zum teil hatte ich sogar mehr probs mit den neuen(cat.3.6).

Das was mich immerwieder genervt hat, war dass die grafikfehler nie verbessert wurden.

Kannste nicht mal einen dieser ominösen Fehler posten? Ich spiele ja nun fast alles, was an brauchbaren Spielen rauskommt, dennoch kann ich deine Angaben in keiner Weise nachvollziehen!

Ehe Du so vom Leder ziehst und die Treiber in Bausch und Bogen abqualifizierst, zeige doch bitte mal Belege. Schließlich habe ich vor gar nicht langer Zeit meine Gf4 in Rente geschickt und bin seitdem von der Rad 9700 begeistert. Nach Deinen hanebüchenen Aussagen muß ich ja blind sein oder einäugig oder was auch immer. Zeigs mir mal! ;)

P.S. Dein Schreibstil ist ne Spur zu agressiv/provokant. Natürlich nur imho :)

M.Ü.C.
2003-08-26, 13:24:04
Nun, da der Fokus dieses Threads so eindeutig auf die Treiberqualitäten ATIs geschwenkt ist, muss ich auch mal meinen Quark beisteuern.

Ich habe wirklich lange gezögert, die Seiten zu wechseln, (hatte natürlich auch finanzielle Gründe) so sympathisch mir Kanada ist, so sehr war ich auf eine in allen Lebenslagen funktionierende Grafikkarte angewiesen. Nach den sich häufenden Querelen um die FX Serie habe ich mich schließlich für eine 9800 non pro von Sapphire entschieden.

Soviel dazu..

Nun zu der Sache, die ich nach wie vor kaum glauben mag: Die Karte hat sich in meine wirklich überbordene Windows Installation eingefügt wie ein Traum, Nvidia Treiber entfernt (Naja, schon mit der gebotenen Umsicht, also restlos), Cat 3.6 installiert... Es funktioniert, ich habe NICHTS, gar nichts an jedweden Systemeinstellungen ändern müssen. Keine Workarounds, kein Gefrickel mit irgendwelchen Hardwarebeschleunigungsoptionen, das Teil läuft kugelrund.

Keins der Spiele (und das waren einige, auch in diesen Foren vieldiskutierte *Problemfälle*) hat irgendwelche Anomalien gezeigt, kein Z-Fighting, keine Flackertexturen,keine Gaps, nur blendende, überirdisch performante Grafikpracht, so weit das ungläubige Auge reicht.

Ich war wirklich skeptisch, aber meine Resentiments gegenüber ATI und ihrem Status als technologisch zwar glänzender, jedoch eher unzuverlässiger Alternative sind weggefegt, vollständig...

Ach ja, ich nutze übrigens Windows ME :), das nur am Rande

Piffan
2003-08-26, 13:31:47
Original geschrieben von M.Ü.C.
Nun, da der Fokus dieses Threads so eindeutig auf die Treiberqualitäten ATIs geschwenkt ist, muss ich auch mal meinen Quark beisteuern.

Ich habe wirklich lange gezögert, die Seiten zu wechseln, (hatte natürlich auch finanzielle Gründe) so sympathisch mir Kanada ist, so sehr war ich auf eine in allen Lebenslagen funktionierende Grafikkarte angewiesen. Nach den sich häufenden Querelen um die FX Serie habe ich mich schließlich für eine 9800 non pro von Sapphire entschieden.

Soviel dazu..

Nun zu der Sache, die ich nach wie vor kaum glauben mag: Die Karte hat sich in meine wirklich überbordene Windows Installation eingefügt wie ein Traum, Nvidia Treiber entfernt (Naja, schon mit der gebotenen Umsicht, also restlos), Cat 3.6 installiert... Es funktioniert, ich habe NICHTS, gar nichts an jedweden Systemeinstellungen ändern müssen. Keine Workarounds, kein Gefrickel mit irgendwelchen Hardwarebeschleunigungsoptionen, das Teil läuft kugelrund.

Keins der Spiele (und das waren einige, auch in diesen Foren vieldiskutierte *Problemfälle*) hat irgendwelche Anomalien gezeigt, kein Z-Fighting, keine Flackertexturen,keine Gaps, nur blendende, überirdisch performante Grafikpracht, so weit das ungläubige Auge reicht.

Ich war wirklich skeptisch, aber meine Resentiments gegenüber ATI und ihrem Status als technologisch zwar glänzender, jedoch eher unzuverlässiger Alternative sind weggefegt, vollständig...

Ach ja, ich nutze übrigens Windows ME :), das nur am Rande

Full ack! Windows XP....

Szilard
2003-08-26, 13:34:51
Original geschrieben von M.Ü.C.
Nun, da der Fokus dieses Threads so eindeutig auf die Treiberqualitäten ATIs geschwenkt ist, muss ich auch mal meinen Quark beisteuern.

Ich habe wirklich lange gezögert, die Seiten zu wechseln, (hatte natürlich auch finanzielle Gründe) so sympathisch mir Kanada ist, so sehr war ich auf eine in allen Lebenslagen funktionierende Grafikkarte angewiesen. Nach den sich häufenden Querelen um die FX Serie habe ich mich schließlich für eine 9800 non pro von Sapphire entschieden.

Soviel dazu..

Nun zu der Sache, die ich nach wie vor kaum glauben mag: Die Karte hat sich in meine wirklich überbordene Windows Installation eingefügt wie ein Traum, Nvidia Treiber entfernt (Naja, schon mit der gebotenen Umsicht, also restlos), Cat 3.6 installiert... Es funktioniert, ich habe NICHTS, gar nichts an jedweden Systemeinstellungen ändern müssen. Keine Workarounds, kein Gefrickel mit irgendwelchen Hardwarebeschleunigungsoptionen, das Teil läuft kugelrund.

Keins der Spiele (und das waren einige, auch in diesen Foren vieldiskutierte *Problemfälle*) hat irgendwelche Anomalien gezeigt, kein Z-Fighting, keine Flackertexturen,keine Gaps, nur blendende, überirdisch performante Grafikpracht, so weit das ungläubige Auge reicht.

Ich war wirklich skeptisch, aber meine Resentiments gegenüber ATI und ihrem Status als technologisch zwar glänzender, jedoch eher unzuverlässiger Alternative sind weggefegt, vollständig...

Ach ja, ich nutze übrigens Windows ME :), das nur am Rande

Alles klar :lol:

1. ist es ein Spielproblem
2. wird Ati selbst dagegen nichts unternehmen!
3. ist das Problem bei Ati bekannt (SPIELPROBLEM) kein Treiberproblem!

Fazit: Setz doch mal Deine Brille auf und schau nochmal genau hin ;)

aber naja ein gast, wie immer..... :asshole:

Matrix316
2003-08-26, 13:36:04
Original geschrieben von M.Ü.C.
Nun, da der Fokus dieses Threads so eindeutig auf die Treiberqualitäten ATIs geschwenkt ist, muss ich auch mal meinen Quark beisteuern.

Ich habe wirklich lange gezögert, die Seiten zu wechseln, (hatte natürlich auch finanzielle Gründe) so sympathisch mir Kanada ist, so sehr war ich auf eine in allen Lebenslagen funktionierende Grafikkarte angewiesen. Nach den sich häufenden Querelen um die FX Serie habe ich mich schließlich für eine 9800 non pro von Sapphire entschieden.

Soviel dazu..

Nun zu der Sache, die ich nach wie vor kaum glauben mag: Die Karte hat sich in meine wirklich überbordene Windows Installation eingefügt wie ein Traum, Nvidia Treiber entfernt (Naja, schon mit der gebotenen Umsicht, also restlos), Cat 3.6 installiert... Es funktioniert, ich habe NICHTS, gar nichts an jedweden Systemeinstellungen ändern müssen. Keine Workarounds, kein Gefrickel mit irgendwelchen Hardwarebeschleunigungsoptionen, das Teil läuft kugelrund.

Keins der Spiele (und das waren einige, auch in diesen Foren vieldiskutierte *Problemfälle*) hat irgendwelche Anomalien gezeigt, kein Z-Fighting, keine Flackertexturen,keine Gaps, nur blendende, überirdisch performante Grafikpracht, so weit das ungläubige Auge reicht.

Ich war wirklich skeptisch, aber meine Resentiments gegenüber ATI und ihrem Status als technologisch zwar glänzender, jedoch eher unzuverlässiger Alternative sind weggefegt, vollständig...

Ach ja, ich nutze übrigens Windows ME :), das nur am Rande

Wenn du dir vor einem jahr eine ATI gekauft hättest, würdest du anders reden, denn da waren die Treiber noch nicht so das Wahre.

DrFreaK666
2003-08-26, 13:38:16
Original geschrieben von Szilard
Alles klar :lol:

1. ist es ein Spielproblem
2. wird Ati selbst dagegen nichts unternehmen!
3. ist das Problem bei Ati bekannt (SPIELPROBLEM) kein Treiberproblem!

Fazit: Setz doch mal Deine Brille auf und schau nochmal genau hin ;)

aber naja ein gast, wie immer..... :asshole:

Wer ist hier ein Arsch..??

Auch ich habe eine radeon9700Pro, auch ich finde keine fehler (nur in Grandia 2).
Ausserdem posten in diesem Forum mehr als genug registrierte leutz, die keine probleme mit ihrer radeon haben.

Also Augen auf bevor du etwas postest..

M.Ü.C.
2003-08-26, 13:41:39
Naja, da ich mich schon seit ziemlich langer Zeit sehr intensiv mit 3D Grafik beschäftige, sehe ich prinzipiell ZIEMLICH genau hin, keine Sorge...

Und was Letzteres betrifft bin ich froh, zu den Zeiten eines Cat 3.6 zu ATI gewechselt zu sein, denn ich habe, wie für alle tollwütigen, blinden Trolle bereits oben eigentlich recht deutlich ausgeführt, lange gezögert.. Schon ein paar Jährchen :)

Szilard
2003-08-26, 13:49:05
Alles klar, dieses MEGA THREAD ist frei erfunden: Klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=75527) :(

So und nun kannst du dort, falls du die spiele hast vergleichen, posten und am besten mit (Screenshot) beweisen.

Exxtreme
2003-08-26, 14:38:22
Original geschrieben von Matrix316
Wenn du dir vor einem jahr eine ATI gekauft hättest, würdest du anders reden, denn da waren die Treiber noch nicht so das Wahre.
Also ich bin seit der Radeon 64 bei ATi und grössere Probleme hatte ich nie. :)

Exxtreme
2003-08-26, 14:42:14
Original geschrieben von Coolj100
Wirfst du mir vor das ich lüge du ati fanatiker. Hier haben eine menge leute reingeschrieben die fehler haben mit bildern (ich auch).

http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=75527

Es sind, rein technisch gesehen, keine Fehler. :)

Die Grafikkarte wird angewiesen Z-Fighting zu produzieren, so einfach ist das. Und ich glaube nicht, daß man es ohne Weiteres per Treiber fixen kann.

Warum es bei Nvidia nicht auftritt? Keine Ahnung. Ich tippe einfach mal "Toleranzen".

Piffan
2003-08-26, 20:22:41
Tjo, habe den Thread nicht komplett durchgelesen....aber weil ich nicht Krösus bin, habe ich nicht alle dort besprochenen Spiele...

Bei UT2 habe ich mit dem 3.6 keinerlei Bildfehler, mit älteren Cats auch in Unreal 2 nicht gehabt....Bei Splinter Cell hatte ich nur das Prob, dass manche Glanzeffekte an den Wänden extrem scheiße aussahen, aber dieses war wohl von den Proggern so gewollt......

Derzeit zocke ich TR6, dass vor Clippingfehlern nur so strotzt, wenn ich die Shader aktiviere. Mit Fixed Function habe ich keine Clippingfehler...Denke, dass es am Spiel liegen wird. TR6 ist übrigens so mies, dass ich den Kauf bitter bereue.....off topic, aber vielleicht warnt es ja noch andere ;)

Habe gerade Star Trek Elite Force am Wickel: absolut keine Fehler....

Nolf 2: Bombige Performance, null Fehler

Gothic 2 vor einiger Zeit durchgezockt, null Fehler....

Wenn ich mal einen Fehler in einem Spiel finde, werde ich ihn im betreffenden Thread posten, Ehrenwort!

So habe ich ja auch lange genug gemotzt, weil mein F1 Racing Simulation Championship nicht auf der Radeon lief. Aber das ist ja nun auch Geschichte :)

Piffan
2003-08-26, 20:29:18
Original geschrieben von Szilard
Alles klar, dieses MEGA THREAD ist frei erfunden: Klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=75527) :(

So und nun kannst du dort, falls du die spiele hast vergleichen, posten und am besten mit (Screenshot) beweisen.

Dieser "Megathread" zeigt mir, dass dort eigentlich nur sehr wenige sehr verbissen posten und die Sache wohl kaum repräsentativ für alle User ist......Vor allem habe ich die komischen weißen Punkte noch nie gesehen, obwohl ich von 3dfx über NV (TNT und alle Geforces bis Gf4) bis hin zur Rad 9700 (meine erste Ati) schon ne Menge Grakas im aktiven Dienst hatte....

Mephisto
2003-08-26, 20:37:41
Original geschrieben von Piffan
TR6 ist übrigens so mies, dass ich den Kauf bitter bereue.....off topic, aber vielleicht warnt es ja noch andere ;)Mich deucht, Du hättest kürzlich noch einen lobenden Thread über TR6 gestartet?! ;)

Szilard
2003-08-26, 20:38:41
@ Piffan

keine grossen sprüche, wir wollen beweise sehen ;)

mfg

szilard

Piffan
2003-08-26, 21:30:51
Original geschrieben von Mephisto
Mich deucht, Du hättest kürzlich noch einen lobenden Thread über TR6 gestartet?! ;)

Ja, da war ich anfangs ja auch noch anderer Meinung....:D

Piffan
2003-08-26, 21:36:53
Original geschrieben von Szilard
@ Piffan

keine grossen sprüche, wir wollen beweise sehen ;)

mfg

szilard

Also wenn Du denkst, dass ich mir jetzt etra noch mal Splinter Cell installiere, nur um da in dem Tutorial dieses Bild zu suchen....Nee, null Bock. Als ich dieses Spiel durchhatte, war ich nämlich froh...Außerdem habe ich das Spiel meinem Neffen gegeben, und der ist nicht der Schnellste ;9 Bei Unreal 2 dito......

Szilard
2003-08-26, 21:42:42
u2 reicht mir auch schon, ganz am anfang hinter der treppe ein screen machen ;)

mfg

szilard

Piffan
2003-08-26, 21:54:39
Ich habe es zur Zeit nicht, vielleicht morgen.....es ist beim Neffen.

mirovb
2003-08-26, 21:57:48
Ich hab mir von meiner MSI GF FX 5900 eigentlich auch mehr erhofft, was die Leistung des Pixel - und Vertex Shader angeht. Im Grunde bin Ich begeistert von der Bildqualität, die die Karte abliefert...Ich hatte schon zum Testen zwei R9800Pro's im Rechner, die konnten es nicht mit der Bildquali aufnehmen...glasklare Texte und lupenreine klare Farben...was das angeht bin Ich begeistert von meiner MSI...ebenso von dem superleisen Lüfter und den Overclocking Möglichkeiten....

zum negativen: Ich denke mal, das zur Zeit bei Nvidia wirklich ein Treiberproblem besteht, da die Karte(n) der FX 5900'er Reihe rein qualitativ und technisch gesehen über den Radeon9800 'er Karten stehen. Bitte nicht falsch verstehen, Ich erkenne ATi's tolle Arbeit an der R9700Pro an, aber die R9800 Pro ist technisch gesehen leider nicht viel weiter...aber batürlich eine schnelle und affengeile Karte..

ATi hat halt wirklich sehr viel dazu gelernt und macht seit ca. 1/2 Jahr die besseren Treiber als Nvidia (Schrott seit dem Deto40.xx), davon hab Ich mich auch überzeugen können. Jedoch darf man nicht vergessen, das sie dafür auch fast ein Jahr Zeit hatten (seit der 9700PRO), um dahin zu kommen, wo sie jetzt sind...

Ich setze jedoch meine Hoffnung in die Treiberprogrammierer von NV, und Denke das in naher Zukunft die Leistung der Karten stark zunehemen wird (wenn es bis dahin mal nicht zu spät ist)...die werden wohl oder übel jedoch die Compiler neu umschreiben müssen, damit die Leistung besser wird. Und das auf die Waage mit der Kompatibilität zu den älteren Karten / Spielen zu bringen wird bestimmt nicht einfach sein...

Ich probiere halt gerne mal immer wieder was neues aus....ob das die ATi oder NV Karten sind, ist mir dabei egal. Jedenfalls hab Ich mir die neue Karte erst vor ein paar Wochen gekauft, also gebe Ich den Programmierern noch eine Chance...

Genauso habe Ich bei der R9700Pro verfahren...die Treiber hierfür waren erst auch nach einem HALBEN Jahr perfekt...vorher hatte Ich andauernd Probleme mit dem z.B. VIA Chipsatz, der AGP Beschleunigung,andauernden Abstürzen, anfänglichen DirectX9 Problemen, etc.....bis der NForce2 kam, dann lief alles besser...

Also, nicht gleich durchdrehen und erst mal abwarten, ist meine Meinung...das ist wirklich ganz neue Technik, und wenn die Techniker nach ein paar Monaten nicht vernünftiges Programmieren werden, bin Ich der ertste der meine Karte wieder loswird...aber bis dahin: Ball flach halten

CU

Miro

Grindcore
2003-08-27, 00:04:17
So, nachdem ich dieses Forum nun schon seit über anderthalb Jahren besuche, hab ich mich nun mal angemeldet... (Vorher M.Ü.C. bzw. M.I.C.> wird leider schon benutzt).

Da ich keine große Lust verspüre, auf die Suche nach Webspace zu gehen (Und es mir die Sache auch nicht wert ist), hänge ich mal dieses Bild an.

Grindcore
2003-08-27, 00:06:08
Wer hier Z-Fighting entdeckt, darf es behalten... Die Texturen stehen wie die Wand, die sie darstellen. Da zuckt und flackert überhaupt nichts.

Szilard
2003-08-27, 00:07:05
Original geschrieben von Grindcore
So, nachdem ich dieses Forum nun schon seit über anderthalb Jahren besuche, hab ich mich nun mal angemeldet... (Vorher M.Ü.C. bzw. M.I.C.> wird leider schon benutzt).

Da ich keine große Lust verspüre, auf die Suche nach Webspace zu gehen (Und es mir die Sache auch nicht wert ist), hänge ich mal dieses Bild an.

was soll das jetzt sein? 1. mit ati oder nv karte und 2. ist es nicht die gleiche stelle, wie auf meinen bild. aus dieser sicht hatte ich auch keine fehler, mit meiner r9700pro :o

mach das genau so, wie auf diesen bild bitte:

http://home.arcor.de/The-Burner/SC.jpg

Coolj100
2003-08-27, 00:10:34
Original geschrieben von Grindcore
So, nachdem ich dieses Forum nun schon seit über anderthalb Jahren besuche, hab ich mich nun mal angemeldet... (Vorher M.Ü.C. bzw. M.I.C.> wird leider schon benutzt).

Da ich keine große Lust verspüre, auf die Suche nach Webspace zu gehen (Und es mir die Sache auch nicht wert ist), hänge ich mal dieses Bild an.

Das bild kam nur bei einem bestimmten winkel das was du machst ist blödsinn. Obwohl du bist jetzt wohl im mom. der ehrlichste. Jetzt mal ehrlich ich hatte dieses problem genau wie szilard und andere leute auch. Sowas nennt sich z-fighting und taucht bei jeder radeon auf wie Exxtrem ja auch schon bestätigte. Was für einen grund haben szilard und ich zum lügen. Ich bin für keine marke sondern für die die auch die wenigsten probs macht. Obwohl die etwas schnellere karte ati heisst bin ich für nv im moment wegen diesen z-fighting problemen.

Grindcore
2003-08-27, 00:10:55
Na gut, dann nenne mir die Stelle, die diese grässlichen Resultate bei Dir produziert hat... Und es ist, wie schon in meinem ersten Posting erwähnt, eine 9800 non pro mit Cat 3.6.

Wobei das vollkommen Wurst ist, weils da nirgendwo Z-Fighting gibt, im ganzen Tutorial nicht, es ist schlicht nicht vorhanden...

Coolj100
2003-08-27, 00:16:02
Original geschrieben von Grindcore
Na gut, dann nenne mir die Stelle, die diese grässlichen Resultate bei Dir produziert hat... Und es ist, wie schon in meinem ersten Posting erwähnt, eine 9800 non pro mit Cat 3.6.

Wobei das vollkommen Wurst ist, weils da nirgendwo Z-Fighting gibt, im ganzen Tutorial nicht, es ist schlicht nicht vorhanden...

Man ich habe die radeon genug getestet und diese probleme waren bei folgenden karten vorhanden,

9500pro, 9600pro, 9700np, 9700pro immer das gleiche was ich beweisen kann oder zum teil auch z.B. szilard bewiesen hat...

Piffan
2003-08-27, 00:28:53
Original geschrieben von Coolj100
Man ich habe die radeon genug getestet und diese probleme waren bei folgenden karten vorhanden,

9500pro, 9600pro, 9700np, 9700pro immer das gleiche was ich beweisen kann oder zum teil auch z.B. szilard bewiesen hat...

*Beleidigung entfernt* und mich noch mal als unehrlich bezeichnest, werde ich jetzt extra für Dich mal Jedi 2 neu installieren. Splinter Cell und Unreal 2 gehen aus besagtem Grund nicht! Allerdings habe ich auch keinen Webspace, sondern werde es anhängen müssen. Wo genau sind die schröcklichen Fehler am Gitter? Nicht dass ich jetzt 2 Std bis zu der Stelle hinspielen muß....

Also wenn da was nicht stimmt, wäre das kehr somisch. Bei Elite Force 2 habe ich bis jetzt nicht das geringste Flackern gesehen und bin gerade von der Basis der Attrexianer zurück.....

Szilard
2003-08-27, 00:35:19
ist der erste fahrstuhl ganz am anfang, wo man sich die tür zu diesen fahrstuhl freischießen muss.

so und ich gehe jetzt pennen, gute nacht ;)

mfg

szilard

Coolj100
2003-08-27, 00:50:15
Original geschrieben von Piffan
*Beleidigung entfernt* und mich noch mal als unehrlich bezeichnest, werde ich jetzt extra für Dich mal Jedi 2 neu installieren. Splinter Cell und Unreal 2 gehen aus besagtem Grund nicht! Allerdings habe ich auch keinen Webspace, sondern werde es anhängen müssen. Wo genau sind die schröcklichen Fehler am Gitter? Nicht dass ich jetzt 2 Std bis zu der Stelle hinspielen muß....

Also wenn da was nicht stimmt, wäre das kehr somisch. Bei Elite Force 2 habe ich bis jetzt nicht das geringste Flackern gesehen und bin gerade von der Basis der Attrexianer zurück.....

*Beleidigung entfernt*

Man soll ich ati in den himmel loben, obwohl ich diese fehler hatte?? Ich krieche bestimmt nicht wie manche leute irgendeinen hersteller in den arsch nur weil ich die karte besitze. Findest du es falsch das ich sage, dass ich einfach diese probleme hatte??!!

Wie ich schon sagte ich habe es mit mindestens 6 verschiedenen ati karten getestet was ich auch beweisen kann und immer hatte ich den gleichen fehler. Da wunderst du dich das es mir schwer fällt dir zu glauben!!?? Und ich hatte die fehler mit cat.3.4, cat.3.5, cat.3.6 immer das gleiche. Wenn es sogar leute wie exxtreme oder demirug sagen, dass ati diese probleme hat.

Also bleib ruhig mein lieber bevor ich auch so richtig sauer werde und dir zeige wer hier sich in die hosen pisst!!!

mfg
Coolj100
*edit Ich habe das game mit meiner geforce4 ti durchgezockt als ichs dann mit der radeon gespielt habe, habe ich gleich ein flackern festgestellt.

Grindcore
2003-08-27, 01:12:37
*Beleidigung entfernt*

Nun denn, es stimmt tatsächlich, an dieser bestimmten Stelle gibt es Z-Fighting, zwar maximal für ne Millisekunde sichtbar, aber es ist vorhanden, da hab ich vorschnell getönt...

Das exakte Gegenteil kann ich allerdings von Chaser berichten, dort hatte ich in der ersten Mission in der Raumbasis mit einer GF4 4200 und einer GF3 mit den Det. 41.09 und 30.82 eine einzige Flimmershow.
Mit der 9800 ist dieses Phänomen deutlich reduziert, in den übrigen Leveln, die ich angetestet habe, gar nicht vorhanden.

Wenn ich dann die übrigen Qualitäten der Karte bedenke, hätte ich nicht übel Lust, um den Karton herum einen Altar zu formieren, vor dem ich einmal am Abend für die Diskussionsfähigkeit einiger Leute in diesem Forum bete.

Piffan
2003-08-27, 01:17:36
Ich habe nie gesagt, dass Du lügst! Bitte mal quoten, wenn ich es getan habe. Ausfallend und beleidigend bist Du geworden.

Übrigens habe ich eben Jedi installiert und habe die Tür aufgeschossen. Anfangs bin ich wie blöde auf dem Gitter rumgerannt und habe den Fehler gesucht. Wollte schon aufgeben und sagen, dass da nix ist. Dann, als der Aufzug für ne Sekunde stehenbleibt UND ich mich auf der Stelle drehe (ja, ich muß mich drehen, in Ruhe passiert nix), da habe ich den Fehler gefunden. Stark, was? ;)

Also dieser Fehler juckt mich gar nicht, da man 1. kaum entdeckt und 2. er nicht wirklich stört. Dazu ist er viel zu mickrig. Da schaue dir mal TR6 an, dann weißt Du, was störende Fehler sind...

Wie unbedeutend dieser Fehler ist, sieht man ja daran, dass Du ein Vegleichsbild posten mußt, um die korrekte Darstellung zu zeigen. Also: Dieser Fehler ist nicht leicht zu finden, nur für ganz kurze Zeit zu reporduzieren und kann nur Leute stören, die imho einen leicht übersteigerten Hang zur Perfektion haben. Wenn Du deswegen die Graka wechselst, dann hoffe ich mal für Dich, dass die nächste diese Fehler nie hat

Spaßeshalber werde ich das Spiel mal bei Gelegenheit auf dem Rechner der Kinder installieren, dass ist nämlich ein Intel- System mit einer Geforce 2 Ultra....mal sehen, ob da nicht auch dieser glitzekleine Fehler auftritt.....

Wo der zweite gepostete Fehler?

Piffan
2003-08-27, 01:23:29
Original geschrieben von Grindcore

Wenn ich dann die übrigen Qualitäten der Karte bedenke, hätte ich nicht übel Lust, um den Karton herum einen Altar zu formieren, vor dem ich einmal am Abend für die Diskussionsfähigkeit einiger Leute in diesem Forum bete.

So wie die zwei sich an der Sache hochziehen, da frage ich mich, was die für Probleme haben......

Ich bemitleide mich schon selbst, überhaupt auf den Shice reagiert zu haben :-(

Ach, ich tue jetzt das einzig Vernünftige und steige aus dem Ring aus. Nix als Mäusekacke........

Coolj100
2003-08-27, 01:25:54
Original geschrieben von Grindcore

*Beleidigung entfernt*

Nun denn, es stimmt tatsächlich, an dieser bestimmten Stelle gibt es Z-Fighting, zwar maximal für ne Millisekunde sichtbar, aber es ist vorhanden, da hab ich vorschnell getönt...

Das exakte Gegenteil kann ich allerdings von Chaser berichten, dort hatte ich in der ersten Mission in der Raumbasis mit einer GF4 4200 und einer GF3 mit den Det. 41.09 und 30.82 eine einzige Flimmershow.
Mit der 9800 ist dieses Phänomen deutlich reduziert, in den übrigen Leveln, die ich angetestet habe, gar nicht vorhanden.

Wenn ich dann die übrigen Qualitäten der Karte bedenke, hätte ich nicht übel Lust, um den Karton herum einen Altar zu formieren, vor dem ich einmal am Abend für die Diskussionsfähigkeit einiger Leute in diesem Forum bete.

*Beleidigung entfernt*

Naja ok solange du jetzt einsiehst das es diese fehler gibt, immerhin bist du so ehrlich und gibst es zu das es diesen fehler gibt. Dafür danke erstmal nicht alle von ati geblendeten geben dies zu, ist ein guter zug von dir.

Mit chaser kann ich nicht bestätigen ich weiss aber leider jetzt nicht wie es mit einer geforce3/4 ist, deswegen kann ich es nicht bestätigen/dementieren. Bei meiner fx5800 sind auf jedenfall keinerlei grafikfehler vorhanden.

Naja jedem des seinem, mich haben diese grafikfehler gestört, weil sie auch öfters vorkommen deswegen habe ich von der r9700 zur fx5800 gewechselt. Wenn du damit keine probs hast ist das i.o., aber du musst verstehen als du mich als lügner dargestellt hast wurde ich sauer. Ich trage keine brille beider firmen wie manch einer hier im forum die garkeine unparteiische antwort mehr geben, denen ich auch nicht glaube. Und das was ich schreibe kannste mir glauben ist 100% immer unparteiisch und keine lügen.

Hoffe du verstehst mich endlich, somit ist das ja geklärt...

Gehe jetzt schlafen gute nacht.

cu...

mfg
coolj100

Coolj100
2003-08-27, 01:34:37
Original geschrieben von Piffan
Ich habe nie gesagt, dass Du lügst! Bitte mal quoten, wenn ich es getan habe. Ausfallend und beleidigend bist Du geworden.

Übrigens habe ich eben Jedi installiert und habe die Tür aufgeschossen. Anfangs bin ich wie blöde auf dem Gitter rumgerannt und habe den Fehler gesucht. Wollte schon aufgeben und sagen, dass da nix ist. Dann, als der Aufzug für ne Sekunde stehenbleibt UND ich mich auf der Stelle drehe (ja, ich muß mich drehen, in Ruhe passiert nix), da habe ich den Fehler gefunden. Stark, was? ;)

Also dieser Fehler juckt mich gar nicht, da man 1. kaum entdeckt und 2. er nicht wirklich stört. Dazu ist er viel zu mickrig. Da schaue dir mal TR6 an, dann weißt Du, was störende Fehler sind...

Wie unbedeutend dieser Fehler ist, sieht man ja daran, dass Du ein Vegleichsbild posten mußt, um die korrekte Darstellung zu zeigen. Also: Dieser Fehler ist nicht leicht zu finden, nur für ganz kurze Zeit zu reporduzieren und kann nur Leute stören, die imho einen leicht übersteigerten Hang zur Perfektion haben. Wenn Du deswegen die Graka wechselst, dann hoffe ich mal für Dich, dass die nächste diese Fehler nie hat

Spaßeshalber werde ich das Spiel mal bei Gelegenheit auf dem Rechner der Kinder installieren, dass ist nämlich ein Intel- System mit einer Geforce 2 Ultra....mal sehen, ob da nicht auch dieser glitzekleine Fehler auftritt.....

Wo der zweite gepostete Fehler?

Wäre es nur der eine fehler dann wäre das kein problem es sind viele!!! Werde morgen mittag mal einen haufen bilder mit einer r9500pro meines freundes posten dann kannste ja vergleichen ok. Dann gebe ich auch genauere angaben.

Meine fx produziert diese fehler nicht... Manchmal rauben diese fehler einen den spielspass wenn sie öfters auftretten, aber wie gesagt ich poste dir morgen viiiiele bilder mal sehen was du dann sagst.

Naja ich weiss nicht was ihr immer mit tr6 habt ist einfach das beschissenste beispiel, dass game ist nichtmal 5eur wert.

mfg
coolj100

mirovb
2003-08-27, 02:35:53
@cooljo

überprüf mal deine Wortwahl....

Du hättest wahrscheinlich mehr erreicht, wenn Du etwas freundlicher wärst...reagier doch nicht auf jede Antwort persönlich, schliesslich will doch jeder nur helfen...

also:

Piffan Versus Cooljo

schliesst Waffenstillstand

Das ist ein Forum, und kein Schlachtfeld !!!!

CU

Miro

-X-
2003-08-27, 05:59:31
manche spielen games nicht, sondern stellen sich hin und suchen nach fehlern.

mirp
2003-08-27, 08:07:15
Leute, hört mit den Beleidigungen auf. Wenn das so weiter geht, hilft wohl nur das Schließen des Threads.

Szilard
2003-08-27, 09:24:44
Original geschrieben von Piffan
So wie die zwei sich an der Sache hochziehen, da frage ich mich, was die für Probleme haben......


wie bitte? wenn jemand behauptet er hätte keine fehler, obwohl diese fehler durch ATI bestätigt ist, soll man sowas einfach stehen lassen ohne richtigstellung..... ?

schade das die suchfunktion nicht funktioniert, dann hätte ich dein thema raus gesucht, wo du dich in ut2003 voll aufgeregt hast wegen den schattenfehlern, da hätte man auch sagen können, was hat der piffan für ein problem ;)

aber naja, du änderst ja andauernd deine meinungen :(

mfg

szilard

ps: ende! sagt was ihr wollt, lobt die firmen in den himmel o.ä. ;D

ShadowXX
2003-08-27, 09:42:00
Was für den einen Fehler sind...das sieht der andere gar nicht.
Und ganz ehrlich...wenn nicht dauert irgendwelche Leute irgendwelche minimalen Grafikfehlerchen bei irgendwelchen Spielen anmeckern würden, würden Sie sehr wahrscheinlich höchstens 1% der User bemerken (gilt für ATI und nV).

Man kann sich auch an sachen Hochziehen...Hab auch Splinter Cell durchgespielt. Mir ist während des Games kein Grafikfehler (ATI)aufgefallen (nix dramatischen zumindest...war aber damals auch noch ohne update)...erst nach dem ich im Forum darüber gelsen hatte, habe ich mal nachgeguckt..und er war da...nachdem ich danach gesucht habe!!!

Es wäre viel freundlicher im Forum wenn nicht jeder sich sofort persönlich angegriffen fühlt, wenn jemand sagt: ich habe da keine Fehler...er hat die (vielleicht) vorhandenen eben nicht gesehen / wahrgenommen...für Ihn gab es also keine Grafikfehler.

Und ehrlich gesagt...diese mini-Fehler bei SC,,,der ist wirklich für die Tonne....TR6, das sind Grafikfehler....

J.S.Shadow

Szilard
2003-08-27, 10:57:40
@ ShadowXX bitte erst genau lesen :)

sc war nur ein BEISPIEL ! Schau in mein thread, da kriegste grafikfehler zu sehen und auch noch sehr sehr viele, dann wirste das bestimmt nicht mehr so locker nehmen oder etwa doch (naja jedem das seine)? naja.... mir persöhnlich nervt es, daher habe ich meine r9700pro verkauft und gut is ;)

mfg

szilard :)

ShadowXX
2003-08-27, 11:44:43
SC war auch von mir nur ein Beispiel....
Ich persönlich sehe von diesen Grafikfehlern während des Spielens kaum etwas oder gar nicht.
Wie schon erwähnt musste ich bei ca. 90% der erwähnten 'Fehler' danach suchen. (das es Fehler sind bestreite ich nicht...)

Bei den fx'en gibts aber auch genug Fehler...nur wäre auch das mir egal wenn ich diese Karte besitzen würde.

Es geht um die Aufbauschung solcher Fehler (und da war SC nunmal ein gutes Beispiel).

Jeder soll mit seiner Karte glücklich werden.
Meine momentane Preferenz für ATI liegt nur daran, weil ich auf AA mehr Wert legen als auf AF....
Wenn der nv40 besser als der r420 ist, werde ich einen nv40 kaufen...und wenn die PVR5 oder der Deltachrome besser ist, kaufe ich diese......

Ich bilde mir immer meine persönliche Meinung über jeden Gfx-Chip...und dabei Spielen teilweise andere Sachen eine Rolle als die, die Ausführlich getestet werden und auch mit fps nicht immer was zu tun haben.

btw. hat nv immer noch das MidtownMadness2 Problem?? (will ein fx-Besitzer Kumpel von mir wissen.)

J.S.Shadow

Piffan
2003-08-27, 13:43:46
Original geschrieben von Szilard
wie bitte? wenn jemand behauptet er hätte keine fehler, obwohl diese fehler durch ATI bestätigt ist, soll man sowas einfach stehen lassen ohne richtigstellung..... ?

schade das die suchfunktion nicht funktioniert, dann hätte ich dein thema raus gesucht, wo du dich in ut2003 voll aufgeregt hast wegen den schattenfehlern, da hätte man auch sagen können, was hat der piffan für ein problem ;)

aber naja, du änderst ja andauernd deine meinungen :(

mfg

szilard

ps: ende! sagt was ihr wollt, lobt die firmen in den himmel o.ä. ;D

Ok, ich habe behauptet, dass ich keine Fehler habe und daraus gefolgert, dass andere die auch nicht hätten. Sorry, war nicht völlig korrekt. Aber warum habe ich das so pauschal gesagt? Weil mir die Fehler wirklich schnuppe sind, ich sie nicht wahrgenommen habe und ich es ätzend finde, wie der coolj vom Leder zieht und die Ati- Karten als den letzten Dreck hinstellt...

Zu dem Thread mit den Fehlern in UT2: Die habe ich mal erwähnt und gefragt, woran dass wohl liegt. Da gab mir einer von den Gurus die Antwort, dass es an fehlender Präzision bei irgendwelchen Berechnungen liegt. Habe dann auch klar gesagt, dass diese Fehler nicht wirklich nerven... Inzwischen ist der Fehler komplett behoben, also was sollen die alten Kamellen....Aber weil ich im Dialog mit Dir stand, sage ich dir auch gar nix neues, also weißt du, dass ich die Fehler erwähnte, ich aber die Jaulerei darüber nicht nachvollziehen kann, da in keinem Falle Spielspaß mindernd.

Was die Änderung meiner Meinung angeht: Dieses Recht nehme ich mir als denkender Mensch einfach mal raus! Gerade TR6 gefiel mir anfangs gar nicht sooo übel....inzwischen habe ich es dicke und finde es schlecht. Und ? Muß ich jetzt auf Teufel komm raus behaupten, dass TR6 gut ist? Dass die grafische Qualität in manchen Szenen superb ist, stimmt ja auch nach wie vor...nur das Gesamtpaket ist unausgegoren, komplett unfertig auf den Markt gerotzt worden....

Piffan
2003-08-27, 13:50:12
Original geschrieben von Piffan
Ok, ich habe behauptet, dass ich keine Fehler habe und daraus gefolgert, dass andere die auch nicht hätten. Sorry, war nicht völlig korrekt. Aber warum habe ich das so pauschal gesagt? Weil mir die Fehler wirklich schnuppe sind, ich sie nicht wahrgenommen habe und ich es ätzend finde, wie der coolj vom Leder zieht und die Ati- Karten als den letzten Dreck hinstellt...

Zu dem Thread mit den Fehlern in UT2: Die habe ich mal erwähnt und gefragt, woran dass wohl liegt. Da gab mir einer von den Gurus die Antwort, dass es an fehlender Präzision bei irgendwelchen Berechnungen liegt. Habe dann auch klar gesagt, dass diese Fehler nicht wirklich nerven... Inzwischen ist der Fehler komplett behoben, also was sollen die alten Kamellen....Aber weil ich im Dialog mit Dir stand, sage ich dir auch gar nix neues, also weißt du, dass ich die Fehler erwähnte, ich aber die Jaulerei darüber nicht nachvollziehen kann, da in keinem Falle Spielspaß mindernd.

Was die Änderung meiner Meinung angeht: Dieses Recht nehme ich mir als denkender Mensch einfach mal raus! Gerade TR6 gefiel mir anfangs gar nicht sooo übel....inzwischen habe ich es dicke und finde es schlecht. Und ? Muß ich jetzt auf Teufel komm raus behaupten, dass TR6 gut ist? Dass die grafische Qualität in manchen Szenen superb ist, stimmt ja auch nach wie vor...nur das Gesamtpaket ist unausgegoren, komplett unfertig auf den Markt gerotzt worden....

edit: Weiteres Nachboxen ist sinnlos, da ab heute zwei Personen auf meiner Ignoreliste stehen. Die Beiträge sinds nicht wirklich wert, dass ich mich wieder aufrege. :balla:

Werde mit meiner Drecksati das feine Spiel Elite Force weiterhin bei bester Bildqualität und Performance genießen und danach das hoffentlich leckere Gothic 2- Addon. - Ich gebe ja nun schon viel zu viel Geld für die Zockerei aus, aber wenn ich sehe, dass einige Fetischisten hier jedes Spiel auf der Platte haben und scheinbar verbissen nach Fehlern suchen, dann stimmt doch da was nicht! :kratz2:

mirovb
2003-08-27, 14:11:42
@piffan

als Du noch "Nvidianer" mit Leib und Seele warst, hast Du genau so emotional und verbissen reagiert, wie heute , wo Du von "ATi" überzeugt bist..kann mich daran noch sehr gut erinnern, weil Ich damals dran "glauben" musste.

Ich kann heute nur genau dasselbe sagen wie damals: sowohl ATi als auch Nvidia haben Ihre Vor- und Nachteile. Es ist subjektiv gesehen dann sein eigenes "Problem" welche Karte man sich kauft....Ich glaube nicht, das Cooljo die ATi Karten schlecht machen wollte, nur hat er seine Probleme mit der Karte etwas "forsch" aufgetragen hat... nach der ersten Beleidung hätte Ich darauf nicht mehr reagiert...

denn das ist niveaulos, sich einen ganzen Thread lang zu beleidigen...

mein Motto im Forum: der klügere gibt nach...

zu den Grafikkfehlern: manch einen stört es wirklich nicht, weil die kleinen Grafikkfehler nicht auffallen...es ist aber so (bei mir auf jeden Fall): wenn Ich erst mal solche Fehler entdeckt habe und diese dann ständig vor meiner "Linse" auftauchen, würde mir das auch ständig auf den Keks gehen...auch wenn diese noch so klein sind. Man sieht die Fehler halt immer und es nervt einen !! (unwissenheit ist doch so schön, oder ??

;D

CU

Miro

Szilard
2003-08-27, 14:22:37
Original geschrieben von mirovb
@piffan

als Du noch "Nvidianer" mit Leib und Seele warst, hast Du genau so emotional und verbissen reagiert, wie heute , wo Du von "ATi" überzeugt bist..kann mich daran noch sehr gut erinnern, weil Ich damals dran "glauben" musste.

Ich kann heute nur genau dasselbe sagen wie damals: sowohl ATi als auch Nvidia haben Ihre Vor- und Nachteile. Es ist subjektiv gesehen dann sein eigenes "Problem" welche Karte man sich kauft....Ich glaube nicht, das Cooljo die ATi Karten schlecht machen wollte, nur hat er seine Probleme mit der Karte etwas "forsch" aufgetragen hat... nach der ersten Beleidung hätte Ich darauf nicht mehr reagiert...

denn das ist niveaulos, sich einen ganzen Thread lang zu beleidigen...

mein Motto im Forum: der klügere gibt nach...

CU

Miro

hi,

du bist der einzige, der coolj wohl verstanden hat ;)
er macht ati nicht schlecht. er hat den nachteil bei seiner fx, dass er weniger leistung hat als mit seiner radeon aber ein vorteil gegenüber der radeon KAUM z-buffer-fehler und GARKEINE polygongap's mehr zu haben ;)

mfg

szilard

ps: wieso ich in piffan's ignorelist stehe, verstehe ich jetzt auch nicht. wurde ich agressiv oder beleidigend ? NEIN :)

Piffan
2003-08-27, 14:23:24
Original geschrieben von mirovb
@piffan

als Du noch "Nvidianer" mit Leib und Seele warst, hast Du genau so emotional und verbissen reagiert, wie heute , wo Du von "ATi" überzeugt bist..kann mich daran noch sehr gut erinnern, weil Ich damals dran "glauben" musste.

Ich kann heute nur genau dasselbe sagen wie damals: sowohl ATi als auch Nvidia haben Ihre Vor- und Nachteile. Es ist subjektiv gesehen dann sein eigenes "Problem" welche Karte man sich kauft....Ich glaube nicht, das Cooljo die ATi Karten schlecht machen wollte, nur hat er seine Probleme mit der Karte etwas "forsch" aufgetragen hat... nach der ersten Beleidung hätte Ich darauf nicht mehr reagiert...

denn das ist niveaulos, sich einen ganzen Thread lang zu beleidigen...

mein Motto im Forum: der klügere gibt nach...

zu den Grafikkfehlern: manch einen stört es wirklich nicht, weil die kleinen Grafikkfehler nicht auffallen...es ist aber so (bei mir auf jeden Fall): wenn Ich erst mal solche Fehler entdeckt habe und diese dann ständig vor meiner "Linse" auftauchen, würde mir das auch ständig auf den Keks gehen...auch wenn diese noch so klein sind. Man sieht die Fehler halt immer und es nervt einen !! (unwissenheit ist doch so schön, oder ??

;D

CU

Miro

Schöner kann man es einfach nicht ausdrücken! Full ack :)

edit: Dass mit der Emotionalität stimmt schon......ist vielleicht bei den meisten so, die ihr Hobby ein wenig übertreiben ;)

Tigerchen
2003-08-27, 16:01:56
Original geschrieben von Exxtreme
Es sind, rein technisch gesehen, keine Fehler. :)

Die Grafikkarte wird angewiesen Z-Fighting zu produzieren, so einfach ist das. Und ich glaube nicht, daß man es ohne Weiteres per Treiber fixen kann.

Warum es bei Nvidia nicht auftritt? Keine Ahnung. Ich tippe einfach mal "Toleranzen".

Hab selbst keine Ahnung von 3D Programmieren.Aber mir hat einer der sowas macht mal gesagt daß nVIDIA's Treiber kleinere Fehler beim programmieren selbst ausbügeln.Er hatte sich da ziemlich drüber aufgeregt weil es dadurch zu Fehldarstellungen auf anderen Grafikkarten kam die er sich zunächst gar nicht erklären konnte.Er meinte diese Fehlertoleranz würde ihm das Leben unnötig schwer machen und nVIDIA sollte sowas sein lassen.

Exxtreme
2003-08-27, 16:03:27
Original geschrieben von Tigerchen

Hab selbst keine Ahnung von 3D Programmieren.Aber mir hat einer der sowas macht mal gesagt daß nVIDIA's Treiber kleinere Fehler beim programmieren selbst ausbügeln.Er hatte sich da ziemlich drüber aufgeregt weil es dadurch zu Fehldarstellungen auf anderen Grafikkarten kam die er sich zunächst gar nicht erklären konnte.Er meinte diese Fehlertoleranz würde ihm das Leben unnötig schwer machen und nVIDIA sollte sowas sein lassen.

RS-Forum?

Demirug
2003-08-27, 17:32:12
Mhm das erinert mich an etwas.

Es gab da bei nVidia mal ein Problem mit Z-Fighting wenn man Fixed HT&L und Vertexshader gemischt eingesetzt hat. Vorallem bei Multipass-Technik konnte das passieren wenn man für einen Pass das Fixed HT&L und für einen anderen Vertexshader benutzte. nVidia hat das dann irgendwann abgestellt indem sie im Treiber das ganze homonisiert haben.

Ob das auch bei anderen Chips ein Problem ist kann ich jetzt nicht genau sagen aber ATI rät davon ab fixed HT&L und Vertexschader gemischt zu benutzten. Als Grund werden allerdings performance Gründe angegeben.

Szilard
2003-08-27, 17:51:59
Original geschrieben von Demirug
Mhm das erinert mich an etwas.

Es gab da bei nVidia mal ein Problem mit Z-Fighting wenn man Fixed HT&L und Vertexshader gemischt eingesetzt hat. Vorallem bei Multipass-Technik konnte das passieren wenn man für einen Pass das Fixed HT&L und für einen anderen Vertexshader benutzte. nVidia hat das dann irgendwann abgestellt indem sie im Treiber das ganze homonisiert haben.

Ob das auch bei anderen Chips ein Problem ist kann ich jetzt nicht genau sagen aber ATI rät davon ab fixed HT&L und Vertexschader gemischt zu benutzten. Als Grund werden allerdings performance Gründe angegeben.

danke für diese info. :)

mfg

szilard

Piffan
2003-08-27, 18:07:33
Original geschrieben von Demirug
Mhm das erinert mich an etwas.

Es gab da bei nVidia mal ein Problem mit Z-Fighting wenn man Fixed HT&L und Vertexshader gemischt eingesetzt hat. Vorallem bei Multipass-Technik konnte das passieren wenn man für einen Pass das Fixed HT&L und für einen anderen Vertexshader benutzte. nVidia hat das dann irgendwann abgestellt indem sie im Treiber das ganze homonisiert haben.

Ob das auch bei anderen Chips ein Problem ist kann ich jetzt nicht genau sagen aber ATI rät davon ab fixed HT&L und Vertexschader gemischt zu benutzten. Als Grund werden allerdings performance Gründe angegeben.

Ist schon sehr lustig. Das würde erklären, warum TR6 die schlimmsten Fehler nicht mehr zeigt, wenn ich Fixed Function einsetze. Sobald geshadert wird, gibts in bestimmten Situationen hässliche Clippingfehler.

So auf meiner Radeon.....

Tigerchen
2003-08-27, 19:42:14
Original geschrieben von Exxtreme
RS-Forum?

So ist es.

The Rasmus
2003-08-27, 23:09:44
Original geschrieben von Coolj100
Wäre es nur der eine fehler dann wäre das kein problem es sind viele!!! Werde morgen mittag mal einen haufen bilder mit einer r9500pro meines freundes posten dann kannste ja vergleichen ok. Dann gebe ich auch genauere angaben.

Meine fx produziert diese fehler nicht... Manchmal rauben diese fehler einen den spielspass wenn sie öfters auftretten, aber wie gesagt ich poste dir morgen viiiiele bilder mal sehen was du dann sagst.

Naja ich weiss nicht was ihr immer mit tr6 habt ist einfach das beschissenste beispiel, dass game ist nichtmal 5eur wert.

mfg
coolj100
Lasst gut sein.

- eben. aths


Mit freundlichen Grüßen

The Rasmus

__________
AMD Athlon XP 2700+
Abit NF7-S Rev. 2.0
160GB Western Digital
Hercules Radeon 9800Pro
2x512MB PC400 Geil (Dual)

Piffan
2003-08-27, 23:51:12
Nachdem ich gestern mal "kurz" Jedi 2 installiert habe, zocke ich das Game nun schon wieder bestimmt 3- 4 Std...(feines Spiel, vor allem die Musik und der Starwars- Sound)
Bis auf den schröcklichen Fehler am Gitter (*g*) gabs doch schon wieder einen unerhörten Fehler: Wie ich da über die Röhre über den tiefen Canoyn tripple, da sehe ich Sie! Ja, die Punkte zwischen zwei Polygonen. Schade, dass dies immer nur so kurz ist, aber immerhin kann ich nun mitreden und weiß endlich, was mit "Polygongnapping" gemeint ist.

Wer extra stehen bleibt und sich so exakt ausrichtet, dass er sie länger als Sekundenbruchteile sieht, der will sich einfach aufregen......

Genauso Splintercell: Da sind mir Fehler gar nicht zu Bewußtsein gekommen, aber wenn der coole Boy sagt, dass sie da sind, muß es wohl stimmen......Vielleicht muß ich in Zukunft mal besser aufpassen und FEhler erkennen, damit mir die Freude an der Radeon 9700 endlich wieder vergeht :|

Aber ich hoffe, er ist auch so ehrlich und meldet sich mal, wenn er z-Fehler bei der FX findet...BTW: Als ich neulich mit meiner Radeon mal wieder Rune zocken wollte, da fielen mir drastische FEhler auf: Z- FEhler oder was auch immer, jedenfalls flackerten ganze Texturen und die Klamotten der Genossen sahen seltsam auf, die Münder standen permanent offen usw.... Zum Glück hatte ich aber noch ne Partition mit einer Installation, wo ich die GF4 betrieben hatte. Also Radeon raus, Gf4 rein. Nun kam es so, wie es kmf mir prophezeit hatte: Genau das Gleiche! Also was kann das sein: Liegt es an der DX- Version oder am OS, dass Rune (Wheel of Time auch) nun gar nicht mehr so schön aussieht? Das letzte Mal hatte ich Rune auf ner GF2 unter Win98 gezockt, völlig ohne FEhler....

Nachdem der Thread sowieso geschreddert ist, nimmt doch wohl keiner dieses Post übel, oder ;)

Coolj100
2003-08-28, 00:28:17
@ Piffan, Grindcore, Byteschlumpf

Hier sind die bilder angefangen mit

Chaser,

http://www.ystart.de/upload/1062022745.jpg

http://www.ystart.de/upload/1062022794.jpg

http://www.ystart.de/upload/1062022829.jpg

http://www.ystart.de/upload/1062022849.jpg

http://www.ystart.de/upload/1062022868.jpg

UT2003(level phobos),

http://www.ystart.de/upload/1062022901.jpg

GTA Vice City,

http://www.ystart.de/upload/1062023049.jpg

http://www.ystart.de/upload/1062023078.jpg

Alles wurde nicht mit meinem system getestet wo die z-fightings auch vorhanden waren mit r9700pro,
sondern mit einem,

P4 2,26 GHz
mit einer 9500pro
cat.3.6

Also dann findet jetzt mal bitte ausreden bin mal ganz gespannt ;D

mfg

The Rasmus
2003-08-28, 00:33:28
Das ist Dein vergleich? Wir wollten von Deiner SUPER-TOLLEN-FEHLERLOSEN Nvidia Grafikkarte Bilder sehen aber anscheinend kriegst Du nicht's gebacken! Du haben Nvidia, wir haben Ati. Du müßen mit Nvidia Bilder machen und wir Ati Besitzer wollten dann vergleichen, Junge Junge! Wie bitte sollen wir jetzt vergleichen?

The Rasmus

DrFreaK666
2003-08-28, 00:39:06
Original geschrieben von Szilard
Alles klar, dieses MEGA THREAD ist frei erfunden: Klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=75527) :(

So und nun kannst du dort, falls du die spiele hast vergleichen, posten und am besten mit (Screenshot) beweisen.

Schon der erste, der eine Antwort postet, beweisst, dass es nicht unbedingt an ATI liegen muss.
Muss aber auch gestehen, dass ich nicht den ganzen thread durchgelesen habe. Wenn man nicht selbst Fehler hat, dann ist es ziemlich uninteressant... ;)

Szilard
2003-08-28, 00:43:27
Original geschrieben von DrFreaK666
Schon der erste, der eine Antwort postet, beweisst, dass es nicht unbedingt an ATI liegen muss.
Muss aber auch gestehen, dass ich nicht den ganzen thread durchgelesen habe. Wenn man nicht selbst Fehler hat, dann ist es ziemlich uninteressant... ;)

Es ist ein spieleproblem aber nvidia hat es wohl auf ihrer art und weise gefixed, siehe demirug's beitrag ;)

mfg

szilard :)

Coolj100
2003-08-28, 00:54:48
Original geschrieben von The Rasmus
Das ist Dein vergleich? Wir wollten von Deiner SUPER-TOLLEN-FEHLERLOSEN Nvidia Grafikkarte Bilder sehen aber anscheinend kriegst Du nicht's gebacken! Du haben Nvidia, wir haben Ati. Du müßen mit Nvidia Bilder machen und wir Ati Besitzer wollten dann vergleichen, Junge Junge! Wie bitte sollen wir jetzt vergleichen? Also erlich, werd erstmal erwachsen.

The Rasmus

Das bild reicht und mehr habe ich heute keinen bock...

Ich habe auch noch was anderes zutun.

Chaser,

http://www.ystart.de/upload/1062024625.jpg

Sys. AthlonXp 2400+
geforcefx5800
winxp sp1

Das bild reicht wohl erstmal na dann macht mal weiter ihr ***** ;D

DrFreaK666
2003-08-28, 00:56:58
Noch zu der Z-fighting-Sache: ich habe es bisher nur bei grandia 2 bemerkt und da auch nicht immer.
Aber sonst kenne ich kein Game, wo ich solche fehler sah. Muss aber auch dazu sagen, dass ich nicht mehr so viel zocke...

Coolj100
2003-08-28, 01:02:41
Original geschrieben von DrFreaK666
Noch zu der Z-fighting-Sache: ich habe es bisher nur bei grandia 2 bemerkt und da auch nicht immer.
Aber sonst kenne ich kein Game, wo ich solche fehler sah. Muss aber auch dazu sagen, dass ich nicht mehr so viel zocke...

Ja aber diese fehler sind vorhanden ich und szilard sagen das doch nicht nur so...

Und szilard hatte die 9700pro ich hatte die 9700np und eben habe ich es mit der 9500pro getestet.

Exxtreme
2003-08-28, 01:16:17
Original geschrieben von Tigerchen

So ist es.

Ja, an den Thread kann ich mich auch erinnern. Dort meinte einer (Nemnonical Yves??), daß die NV-Treiber "fehlertollerant" seien und ATi's Treiber nicht. D.h. wenn der Entwickler Mist baut (z.B. er vergisst was zu initialisieren), dann versucht der Treiber zu erkennen, was der Entwickler eigentlich wollte und tut das auch.

Ob's stimmt weiss ich nicht. Ich kann's mir auch schlecht vorstellen, daß das funktionieren könnte.

Omnicron
2003-08-28, 01:33:24
Original geschrieben von Exxtreme
Ja, an den Thread kann ich mich auch erinnern. Dort meinte einer (Nemnonical Yves??), daß die NV-Treiber "fehlertollerant" seien und ATi's Treiber nicht. D.h. wenn der Entwickler Mist baut (z.B. er vergisst was zu initialisieren), dann versucht der Treiber zu erkennen, was der Entwickler eigentlich wollte und tut das auch.

Ob's stimmt weiss ich nicht. Ich kann's mir auch schlecht vorstellen, daß das funktionieren könnte.

Vielleicht kann der Treiber erkennen, wenn eine senkrechte u. eine horizontale Fläche nicht genau aufeinanderliegen, und verschiebt diese dann ?
Bsp. innerhalb eines bestimmten (sehr kleinen) Abstandsbereiches den Abstand gleich auf 0 setzt ? (So eine Art Magneteffekt)
Das würde doch den Polygap wie auf dem Chaserpic verhindern.

Demirug
2003-08-28, 01:41:26
Original geschrieben von Omnicron
Vielleicht kann der Treiber erkennen, wenn eine senkrechte u. eine horizontale Fläche nicht genau aufeinanderliegen, und verschiebt diese dann ?
Bsp. innerhalb eines bestimmten (sehr kleinen) Abstandsbereiches den Abstand gleich auf 0 setzt ?
Das würde doch den Polygap wie auf dem Chaserpic verhindern.

Da hätte er aber viel zu tun. Polygaps gibt es (wenn die Geometrie korrekt ist) dann wenn die eigentlich gleiche Kante beim Rasterisieren nicht genau auf den gleichen Pixeln zum liegen kommt wenn sie bei zwei unterschiedlichen Dreiecken benutzt wird. Die Gründe für so etwas können vielfältig sein. Fehler im Rasterisierungverfahren, zu wenig Rechengenauigkeit, eine misslungen Optimierung welche mal schnell einen Kantenpixel entfernt weil er ungünstig liegt.

Demirug
2003-08-28, 01:49:03
Original geschrieben von Exxtreme
Ja, an den Thread kann ich mich auch erinnern. Dort meinte einer (Nemnonical Yves??), daß die NV-Treiber "fehlertollerant" seien und ATi's Treiber nicht. D.h. wenn der Entwickler Mist baut (z.B. er vergisst was zu initialisieren), dann versucht der Treiber zu erkennen, was der Entwickler eigentlich wollte und tut das auch.

Ob's stimmt weiss ich nicht. Ich kann's mir auch schlecht vorstellen, daß das funktionieren könnte.

Also diese "Mach was ich will" Funktion habe ich noch nicht gefunden. Der Treiber macht bei mir immer eher das was ich programmiert haben und das stimmt leider nicht immer mit dem was ich eigentlich wollte überein. Was aber durchaus richtig ist wäre folgendes. Der nVidia-Treiber neigt dazu für bestimmte Renderstates schon mal sinnvolle Vorbestzungen zu machen. Ich weiss nicht ob du dich noch an das Problem erinnerst als mit meinem AF-Tester bei den ATI-Karten plötzlich die Stages 1-7 nicht mehr funktioniert haben. Da habe ich auf einen Wert zurückgeriffen den ich nicht explizit gesetzt habe und nVidia und ATI hatten da unterschiedliche Vorbesetzungen. Nachdem ich dann den benötigten Wert erzwungen haben hat es überall funktioniert.

zeckensack
2003-08-28, 01:49:17
Zelda auf UHLE->Glide->Radeon 8500 hat exakt die gleichen polygon gaps wie das Zelda-Remake auf dem Gamecube :stolz:

Hat schonmal jemand versucht, mit dem Deto 45.23 Ultima IX zu spielen? Solltet ihr mal machen. Hochinteressant.

Iceman346
2003-08-28, 01:59:52
Das einzigste Spiel wo ich wirklich derbes Z-Fighting auf der Radeon hab ist Anarchy Online. Vor kurzem hatte ich ja die FX 5900 Ultra zum testen da und da dacht ich mir, vielleicht ists mir der Karte ja weg, immerhin unterstützt die ja auch den W-Buffer mit dem es besser aussehen soll. Also Anarchy Online gestartet, W-Buffer aktiviert und etwas gespielt. Was soll ich sagen: Das Z-Fighting war genauso schlimm wie auf der Radeon...

aths
2003-08-28, 06:46:56
Ich habe jetzt im großen Stil Postings getrasht. Es wäre schön, wenn die Betroffenen nicht so weiter machen, wie bisher.

aths
2003-08-28, 07:32:41
Original geschrieben von Darkman.X
ist in absehbarer Zukunft noch Besserung in Sicht, z.B. durch die neuen 2.A-Profile oder durch Detonator 50.xx ?Ja, sobald die Shader vernünftig für CineFX II optimiert werden, kann sich die Shaderleistung der FX 5900 praktisch fast verdoppeln, wenn ich jetzt keinen Denkfehler habe.

Exxtreme
2003-08-28, 09:10:59
Original geschrieben von Demirug
Also diese "Mach was ich will" Funktion habe ich noch nicht gefunden. Der Treiber macht bei mir immer eher das was ich programmiert haben und das stimmt leider nicht immer mit dem was ich eigentlich wollte überein. Was aber durchaus richtig ist wäre folgendes. Der nVidia-Treiber neigt dazu für bestimmte Renderstates schon mal sinnvolle Vorbestzungen zu machen. Ich weiss nicht ob du dich noch an das Problem erinnerst als mit meinem AF-Tester bei den ATI-Karten plötzlich die Stages 1-7 nicht mehr funktioniert haben. Da habe ich auf einen Wert zurückgeriffen den ich nicht explizit gesetzt habe und nVidia und ATI hatten da unterschiedliche Vorbesetzungen. Nachdem ich dann den benötigten Wert erzwungen haben hat es überall funktioniert.
Also in den Thread ging's darum, daß der Treiber angeblich z.B. fehlende Initialisierungen erkennt und selbstständig ausgleicht etc.

Wie gesagt, glauben tue ich daran nicht, daß das im Treiber drin ist.

Quasar
2003-08-28, 10:14:23
Original geschrieben von zeckensack
Hat schonmal jemand versucht, mit dem Deto 45.23 Ultima IX zu spielen? Solltet ihr mal machen. Hochinteressant.

Irgendein spezieller Level? Hab'ch grad gemacht und bin etwas im Schloßpark rumgestiefelt. Mir ist auf Anhieb nix aufgefallen...

Demirug
2003-08-28, 10:49:15
Original geschrieben von Exxtreme
Also in den Thread ging's darum, daß der Treiber angeblich z.B. fehlende Initialisierungen erkennt und selbstständig ausgleicht etc.

Wie gesagt, glauben tue ich daran nicht, daß das im Treiber drin ist.

Möglicherweise hatte er das gleiche Problem wie ich das die standardwerte von bestimmten settings einfach nicht überall gleich sind und bei nVidia die standard settings eben dem entsprachen was er brauchte.

Piffan
2003-08-28, 13:40:53
Original geschrieben von Demirug
Möglicherweise hatte er das gleiche Problem wie ich das die standardwerte von bestimmten settings einfach nicht überall gleich sind und bei nVidia die standard settings eben dem entsprachen was er brauchte.

Tja, und wenn es da ne statistische Häufung gibt dergestalt, dass die NV- Settings halt eher den Proggern "liegen", dann sollte Ati doch einfach seine Standards anpassen...:) Weil ja statistisch gesehen dann die Fehler bei Ati- Karten zurückgehen müsstem :)

Exxtreme
2003-08-28, 13:46:12
Original geschrieben von Piffan
Tja, und wenn es da ne statistische Häufung gibt dergestalt, dass die NV- Settings halt eher den Proggern "liegen", dann sollte Ati doch einfach seine Standards anpassen...:) Weil ja statistisch gesehen dann die Fehler bei Ati- Karten zurückgehen müsstem :)
Also ich bin eher der Meinung, daß die Progger einen definierten Zustand ihrer Einstellungen herstellen und nicht darauf vertrauen, daß irgendwelche "Standardsettings" zufällig stimmen.

Coolj100
2003-08-28, 14:36:56
Irgendwie hat es aber nvidia hinbekommen es entweder zu kaschieren oder dafür zu sorgen das die texturen wieder korrekt übereinander sind, nur wie ist doch die frage??!!

Und das das ati bis jetzt nicht geschafft hat ist doch irgendwie komisch. Kann es angehen das es bei ati eher hardware mäßig probleme gibt oder wie manche schon gesagt haben, dass die radeon zu genau ist und es einfach software technisch nicht zu lösen ist??

Weil ich kann mir nicht vorstellen warum sie diese fehler sonst nicht behoben haben...
Es kommt ja nicht nur manchmal vor sondern in 80 prozent der games die ich besitze.

Radeonator@Work
2003-08-28, 15:27:15
Zu Splinter Cell : AFAIK werden Shadow modes benutzt, die nur NV Karten zu verbuchen haben, daher kann es doch gar nicht gleich aussehen.

Den unterschied sieht man direkt im Trainingslevel : Auf den Holzwänden sieht man Schatten die von den Bäumen ausserhalb der halle geworfen werden und so zieht sich das durchs ganze Game. Es sieht sogar viel besser als auf einer R300 aus!!!

Wenn ATi Karten diese Tables/Buffer oder wie auch immer Methoden auch können, schauts euch mal an, vielleicht macht mal jemand nen Screen ???

StefanV
2003-08-28, 15:31:04
Mit anderen WOrten:

Der Hersteller von Splintercell war nicht in der Lage die gleiche BQ auf allen Karten herzustellen und hat einige Chips bevorzugt behandelt...

Shame on the Progger of SC...

Iceman346
2003-08-28, 15:40:55
Original geschrieben von Radeonator@Work

Wenn ATi Karten diese Tables/Buffer oder wie auch immer Methoden auch können, schauts euch mal an, vielleicht macht mal jemand nen Screen ???

Theoretisch können es alle ATi Chips ab dem R300, aktivierbar ists auf diesen trotzdem nicht, liegt aber an der Faulheit der Programmierer.

zeckensack
2003-08-28, 16:23:15
Original geschrieben von Iceman346
Theoretisch können es alle ATi Chips ab dem R300, aktivierbar ists auf diesen trotzdem nicht, liegt aber an der Faulheit der Programmierer. Kann auch an der Architektur von DirectX Graphics liegen. Wäre nicht der erste Design-Fehler.

R300-Chips können das aber definitiv (http://www.delphi3d.net/hardware/extsupport.php?extension=GL_ARB_shadow) auch.