Archiv verlassen und diese Seite im Standarddesign anzeigen : 6800 ultra(golden sample) vs. x800xt
erwingage
2005-10-19, 11:48:23
mal ne frage ich könnte meine ultra(siehe sig) gegen eine x800xt (3 monate alt)
tauschen und noch einen betrag euronen dafür bekommen :wink:
welche ist denn besser von den beiden?
lohnt sich der deal? :confused:
Würde ich persönlich nicht machen! Bei der x800xt fehlt auch noch das "pe" und selbst wen das vorhanden wäre, würde sie noch immer kein SM 3.0 besitzen obwohl das kein grossen Zweck derzeit hat.
Ich hab ne X800XT-PE und würde nicht tauschen wenn mir einer eine 6800 U
anbietet... und die 20 mhz gpu und 60 mhz ram welche die XT-PE mehr hat als die XT machen den braten auch nich fett...
ich empfehle daher: nimm die karte mit der die spiele die du hast besser laufen. ;)
MfG
eXodia
2005-10-19, 15:11:13
Kommt drauf an wieviel Geld du bekommst. Tauschen würde ich nicht.
GrUß
Nvidia5
2005-10-19, 17:17:15
ich würde mir die 6800ultra behalten weil sie sm3 und hdr kann.
überhaupt laufen die meisten spiele mit nVidia grakas besser als
mit atis
Faster
2005-10-19, 19:00:26
ich würde mir die 6800ultra behalten weil sie sm3 und hdr kann.
ok.
(afaik können auch ATIs theoretisch HDR, hat ja nix mit SM3 zu tun)
überhaupt laufen die meisten spiele mit nVidia grakas besser als
mit atis
wie kommst du auf diese theorie?
ok.
(afaik können auch ATIs theoretisch HDR, hat ja nix mit SM3 zu tun)
Nein. Alles was bis zur X850XT PE kam, kann weder SM3, noch HDR, weder theoretisch, noch praktisch. Erst bei den neueren X1xxx Karten
siehts anders aus.
ok. wie kommst du auf diese theorie?
Frag ich mich auch. Vielleicht weil sie einfach schneller sind und mehr Features haben, als ATI Karten. Das wäre ein gültiges Pro Argument. Siehe Benchmarks allgemein, z.B. den letzten @ CB. Aber in Sachen Bildqualität und beim Feature AA + HDR (wenn man das bei den neuen ATI Karten so nenn kann, da offenbar die Spezifikationen seitens ATI nicht in dem Maße abgedeckt werden, wie bei nVidia), schauts zur Zeit anders aus.
@ Threadstarter. Wenn du SM3 und HDR willst, dann behalt die nVidia! (Ich würde sie aufjedenfall behalten)
mindfaq
2005-10-19, 21:19:37
ok.
(afaik können auch ATIs theoretisch HDR, hat ja nix mit SM3 zu tun)Hat nichts mit SM3 zu tun, sondern mit FP16-Blending, was der R420/R480 aber nicht kann.
Silent3sniper
2005-10-19, 21:22:22
6800 Ultra ist, ausser in D00m³ in 95% der Fälle langsamer als eine X850XT/PE.
Blaze
2005-10-19, 21:24:23
6800 Ultra ist, ausser in D00m³ in 95% der Fälle langsamer als eine X850XT/PE.
Du vergisst Riddiiiiick...und alle anderen zahlreichen (joke) OpenGL Games... ;)
6800 Ultra ist, ausser in D00m³ in 95% der Fälle langsamer als eine X850XT/PE.
Ja. Sry ich drückte mich wohl etwas ungeschickt aus. Mit dem "nV hat zZ mehr Features und Performance" geblubber meinte ich die GeForce 7 Reihe...und stellte dies dann so hin, als wenn alle nVidia Karten grundsätlich schneller wären, als deren ATI Kontrahenten... weil derjenige, der das Argument "nV funzt mit Games besser als ATI" in die Runde warf, sprach auch allgemein...
egal :D
Seine 68er ist wohl n Tick schneller als eine X800XT bis gleich schnell. Zusätzlich hat er dann aber noch o.g. Features...
6800 Ultra ist, ausser in D00m³ in 95% der Fälle langsamer als eine X850XT/PE.
:) wie wahr...
http://www.xbitlabs.com/articles/video/display/2004-27gpu2.html
hier kannst du dir selbst ein bild machen... aber nicht zu ernst nehmen die haben glaub ich n paar fehlmessungen gemacht...
mfg
Assemblerguru
2005-10-20, 14:54:28
Nein. Alles was bis zur X850XT PE kam, kann weder SM3, noch HDR, weder theoretisch, noch praktisch. Erst bei den neueren X1xxx Karten
siehts anders aus.
Das ist definitiv nicht richtig !
Als ich vor einigen Monaten von HDR und "High Dynamic light Rendering" gelesen habe, musste ich feststellen, dass es nichts neues für mich war weil:
Auf der Homepage von ATI ist bereits seit dem 9700er Modell ein Demo vorhanden, welches ein Beitrag eines SiGraph-Teilnehmers von ATI ist. Dieses Demo zeigt Beispielhaft die theoretischen Möglichkeiten von HDR. Auf einer 9700 und zwar flüssig !
Wer selber schauen will, hier der Link:
http://www2.ati.com/misc/demos/ATI-9700-DebevecRNL-Demo-v1.1.exe
Klar ist es möglich, dass dieses Verfahren viel Rechenpower braucht, und dass man es mit Shader 3.0 leicher machen kann, aber möglich ist das schon - nur die Spielefirmen lassen sich ja grundsätzlich nicht selbst was neues einfallen. Nur wenn es offizielle Tech-Demos der GFX-Hersteller gibt, mit Beispielen zur Programmierung, dann bauen die Softwarefirmen das in ihre Spiele ein.
(Beispiel Bumpmapping: Diese Technik wurde bereits 1993 eindrucksvoll in verschiedenen Demos auf dem Amiga vorgestellt - und das sah exakt genauso aus wie heute. Und als die ATI, NVidia und Co. das hardwaremäßig mittels DX eingeführt hatten, war es plötztlich die neueste Sensation schlechthin.... Sogar "virtual displacement mapping" habe ich schon auf dem Amiga gesehen....).
A.
Assemblerguru
2005-10-20, 14:59:49
6800 Ultra ist, ausser in D00m³ in 95% der Fälle langsamer als eine X850XT/PE.
Der Meinung bin ich nicht !
Ich habe nämlich eine 6800Ultra (430/1200). Ich hatte zum testen eine ASUS X850XT-PE bestellt. Dann habe ich getestet:
Bei Spielen wie BF2, CallOfDuty, Magic Battleground, etc.. habe ich einen FPS-Meter mitlaufen lassen.
Das Ergebnis: Die 6800Ultra ist teilweise 3 FPS schneller, machmal auch 5 FPS langsamer. Also vollkommen unbedeutend.
Aber: Die 6800 kann eben PS3.0 und dadurch in aktuellen Spielen bessere GFX (die natürlich dann langsamer wird, als bei einer ATI...logo...).
Also ich habe die ATI enttäuscht zurückgeschickt (obwohl ich vor der 6800 immer eine ATI hatte....)
A.
Mumins
2005-10-20, 15:06:52
überhaupt laufen die meisten spiele mit nVidia grakas besser als
mit atis
Was für ein Unsinn.
Gerade Games die unbekannt sind laufen auf ATI Karten oft wesentlich besser.
Das ist definitiv nicht richtig !
Als ich vor einigen Monaten von HDR und "High Dynamic light Rendering" gelesen habe, musste ich feststellen, dass es nichts neues für mich war weil:
Auf der Homepage von ATI ist bereits seit dem 9700er Modell ein Demo vorhanden, welches ein Beitrag eines SiGraph-Teilnehmers von ATI ist. Dieses Demo zeigt Beispielhaft die theoretischen Möglichkeiten von HDR. Auf einer 9700 und zwar flüssig !
Wer selber schauen will, hier der Link:
http://www2.ati.com/misc/demos/ATI-9700-DebevecRNL-Demo-v1.1.exe
Klar ist es möglich, dass dieses Verfahren viel Rechenpower braucht, und dass man es mit Shader 3.0 leicher machen kann, aber möglich ist das schon - nur die Spielefirmen lassen sich ja grundsätzlich nicht selbst was neues einfallen. Nur wenn es offizielle Tech-Demos der GFX-Hersteller gibt, mit Beispielen zur Programmierung, dann bauen die Softwarefirmen das in ihre Spiele ein.
(Beispiel Bumpmapping: Diese Technik wurde bereits 1993 eindrucksvoll in verschiedenen Demos auf dem Amiga vorgestellt - und das sah exakt genauso aus wie heute. Und als die ATI, NVidia und Co. das hardwaremäßig mittels DX eingeführt hatten, war es plötztlich die neueste Sensation schlechthin.... Sogar "virtual displacement mapping" habe ich schon auf dem Amiga gesehen....).
A.
Mir neu, ich les mir s durch. Thx for info!
Du vergisst Riddiiiiick...und alle anderen zahlreichen (joke) OpenGL Games... ;)
Naja, es sind schon einige Open GL Games, um nur mal ein paar aktuelle zu nennen, neben Doom 3 (+ Resurrection of Evil) und Riddick, wären da z.B.:
Call Of Duty 2, Serious Sam 2 und Quake 4...
Faster
2005-10-20, 16:35:17
Mir neu, ich les mir s durch. Thx for info!
gibt dazu wenn ich mich recht erinner auch nen thread hier im forum...
Naja, es sind schon einige Open GL Games, um nur mal ein paar aktuelle zu nennen, neben Doom 3 (+ Resurrection of Evil) und Riddick, wären da z.B.:
Call Of Duty 2, Serious Sam 2 und Quake 4...
Bei etwa 300 Spielen, die jährlich für den PC rauskommen, kaum erwähnenswert...
OpenGL wird im Spielesektor wahrscheinlich aussterben.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3589346&postcount=1633
Was für ein Unsinn.
Gerade Games die unbekannt sind laufen auf ATI Karten oft wesentlich besser.
Genau.
Dabei sind die meisten Benchmarks im Netz verfälscht, da mit unterschiedlicher BQ gemessen wurde. Die NV-Karten werden mit Quality gebencht, das Flimmern bei dieser Einstellung kennt wohl jeder, der eine GF6-Karte besitzt.
Deswegen empfehle ich das Review von CB:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/1/#abschnitt_einleitung
Die X800XT liegt zwischen der X800XL und X850XT, näher bei der X850XT.
TobiWahnKenobi
2005-10-20, 17:48:31
ich empfehle den gästen
- sich anzumelden
- sich ganz schnell die aktuelle c't zu besorgen (22/2005)
passt doch. in der c't stehen die infos und als angemelderter user, kann man seine fehler selbst "editieren" und "korrigieren". ist doch klasse. spart einen grabenkrieg der halbwahrheiten und gleichzeitig die nerven, der teilnehmer, die es meinen besser zu wissen und die, ob der zahl der immer und ewig gleichen beiträge, keine lust mehr haben, alles immer wieder neu zu erklären oder zurechtzubiegen. immer wieder dieses hdr und flimmergequatsche. dass man NV karten auf Q und ATI karten auf HQ bencht, ist logisch und zumindest als c't leser, nachvollziehbar.
(..)
mfg
tobi
ich empfehle den gästen
- sich anzumelden
- sich ganz schnell die aktuelle c't zu besorgen (22/2005)
:confused:
Die c´t und Grakas. :lol:
Ist jetzt nicht dein Ernst?
Die sind so schlecht beim Thema Grakas, daß sie sich mit der Computerbild duelieren sollten...:wink:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=254881
Wohl ins Fettnäpfchen getreten...
Allerdings. Einige sagen, sie wären in Sachen Grafikkarten dort stehen geblieben, als die 3D Beschleuniger Karten neu rauskamen, andere sagen, sie seien bei Direct X8 Karten stehen geblieben :D
Ich weiss nur, dass der neuste Artikel über Grakas von denen (wieder) weniger gut gelungen ist.
Faster
2005-10-20, 19:06:18
Allerdings. Einige sagen, sie wären in Sachen Grafikkarten dort stehen geblieben, als die 3D Beschleuniger Karten neu rauskamen, andere sagen, sie seien bei Direct X8 Karten stehen geblieben :D
Ich weiss nur, dass der neuste Artikel über Grakas von denen (wieder) weniger gut gelungen ist.
stimmt, deren fachgebiete liegen eindeutig wo anders...
mustrum
2005-10-20, 19:07:16
Ich hatte erst eine XT PE und dann eine 6800 U. Nicht tauschen würde ich sagen.
Die Karten sind gleich schnell. Damals war die XT PE minimal schneller (nicht spürbar) aber die nvidia Treiber haben gewaltige Fortschritte gemacht.
Du würdest minimal Performance gewinnen, gibts dafür aber PS 3.0 auf die gerade jetzt erst so richtig aktuell werden.
MikBach
2005-10-21, 21:05:26
Ich hatte erst eine XT PE und dann eine 6800 U. Nicht tauschen würde ich sagen.
Die Karten sind gleich schnell.
Nicht wirklich...
Ich habe von einer 6800GT@Ultra zur X800XT PE (übertaktet) gewechselt.
Die ATI ist deutlich schneller.
Dabei kann man noch TAA einschalten. Da hat die 6800 keine Chance... :)
PS der Gast war ich. :wink:
The_Invisible
2005-10-21, 21:22:56
Nicht wirklich...
Ich habe von einer 6800GT@Ultra zur X800XT PE (übertaktet) gewechselt.
Die ATI ist deutlich schneller.
Dabei kann man noch TAA einschalten. Da hat die 6800 keine Chance... :)
PS der Gast war ich. :wink:
was bei manchen alles "deutlich" heißt ist mir nicht mehr egal, zudem würde ich nicht von ner karte mit mehr features auf eine mit weniger wechseln... außerdem hat die 6800er auch die hybrid-modi und zwar schon SEHR lange
mfg
Mumins
2005-10-21, 21:43:02
Nicht wirklich...
Ich habe von einer 6800GT@Ultra zur X800XT PE (übertaktet) gewechselt.
Die ATI ist deutlich schneller.
Dabei kann man noch TAA einschalten. Da hat die 6800 keine Chance... :)
PS der Gast war ich. :wink:
Vor allem bei Rennspielen kackt die Nvidia regelmässig ab. Ich hatte auch mal ne 6800GT. NFSU2 war die GT richtig scheiße, ebenso in Colin McRaeRally05, da ist ne X800Pro 50% schneller. Im neuen GTLegends siehts für Nvidia ähnlich kacke aus. Über die breite Masse, das sind vor allem unoptimierte Games, da ist ATI oft deutlich schneller.
MikBach
2005-10-21, 21:49:39
was bei manchen alles "deutlich" heißt ist mir nicht mehr egal, zudem würde ich nicht von ner karte mit mehr features auf eine mit weniger wechseln...
Würde ich auch nicht tun...
Aufgrund des "Killer-Features" TAA fühle ich mich bei der X800 deutlich besser aufgehoben. =)
außerdem hat die 6800er auch die hybrid-modi und zwar schon SEHR lange
mfg
Die sind aber recht lahm...
TobiWahnKenobi
2005-10-22, 09:58:03
Die c´t und Grakas.
Ist jetzt nicht dein Ernst?
Die sind so schlecht beim Thema Grakas, daß sie sich mit der Computerbild duelieren sollten...
darum gehts doch gar nicht. es geht darum, dass selbst die blindestes endlich kapieren, warum ATI auf HQ und NV auf Q gebencht wird. --> zusammenhänge verstehen und sich selbst in die lage zu versetzen, marketing-geblubber von realitäts-relevanten features zu unterscheiden bzw. bewerten oder gewichten zu können.
(..)
mfg
tobi
MikBach
2005-10-22, 12:39:42
darum gehts doch gar nicht. es geht darum, dass selbst die blindestes endlich kapieren, warum ATI auf HQ und NV auf Q gebencht wird.
Warum? :confused:
Warum sollte man mit unterschiedlicher BQ testen?
Nur weil NV das in ihre Reviewguides schreibt.
Lies dir mal diesen Bericht (http://3dcenter.de/artikel/g70_flimmern/index2.php) durch, dann weisst du warum man nicht ATIs HQ gegen NVs Q benchen sollte...
Falls du noch Fragen hast... :)
Das ist definitiv nicht richtig !
Als ich vor einigen Monaten von HDR und "High Dynamic light Rendering" gelesen habe, musste ich feststellen, dass es nichts neues für mich war weil:
Auf der Homepage von ATI ist bereits seit dem 9700er Modell ein Demo vorhanden, welches ein Beitrag eines SiGraph-Teilnehmers von ATI ist. Dieses Demo zeigt Beispielhaft die theoretischen Möglichkeiten von HDR. Auf einer 9700 und zwar flüssig !
Wer selber schauen will, hier der Link:
http://www2.ati.com/misc/demos/ATI-9700-DebevecRNL-Demo-v1.1.exe
Klar ist es möglich, dass dieses Verfahren viel Rechenpower braucht, und dass man es mit Shader 3.0 leicher machen kann, aber möglich ist das schon - nur die Spielefirmen lassen sich ja grundsätzlich nicht selbst was neues einfallen. Nur wenn es offizielle Tech-Demos der GFX-Hersteller gibt, mit Beispielen zur Programmierung, dann bauen die Softwarefirmen das in ihre Spiele ein.
(Beispiel Bumpmapping: Diese Technik wurde bereits 1993 eindrucksvoll in verschiedenen Demos auf dem Amiga vorgestellt - und das sah exakt genauso aus wie heute. Und als die ATI, NVidia und Co. das hardwaremäßig mittels DX eingeführt hatten, war es plötztlich die neueste Sensation schlechthin.... Sogar "virtual displacement mapping" habe ich schon auf dem Amiga gesehen....).
A.
Ja,die seligen AMIGA 68000er Zeiten....
Habe anno 93 mal ein Renderfilm-Weltraum Action-gesehen.Einfach ohne Worte was da aufm A4000 (glaub) gemacht wurde,echt hart!
Und die Render/Raytraycing-Programme waren immer viel viel günstiger als auf PC.Von der Bedienung ganz abgesehen.
Ich wäre dafür das jemand eine neue Schnitstelle(Nix DirectX)entwickelt.
Es verpufft viel zu viel Rechenleistung durch DX9.Wieso ist SeriousSam unter OGL schneller?Richtig,weil DX9 nix taugt.
Segas neue AC-Hardware basiert aufn Pentium+NV Chip(G7x?).
Welche Schnittstelle verwenden Die eigentlich??Wenn ich bedenke was die aus ner PowerVR2(Dreamcast)rausgeholt haben...Und heute aufm PC mit 300Mio Trnsistormonster-einfach nur lame,das es immer noch nicht möglich ist mit weinigstens 60Hz/Frames+VSync zocken zu können.Immer diese Ruckelanfälle.
HDR auf meiner 6800U wirklich toll!!!
Fragt sich nur bei wieviel Frames...
Will mal FarCry HDR auf ner 6200er sehen und mich gesund kringeln.
Alles nur fiktiver Hype um etwas nicht Anwendbares.
Vor allem bei Rennspielen kackt die Nvidia regelmässig ab. Ich hatte auch mal ne 6800GT. NFSU2 war die GT richtig scheiße, ebenso in Colin McRaeRally05, da ist ne X800Pro 50% schneller. Im neuen GTLegends siehts für Nvidia ähnlich kacke aus. Über die breite Masse, das sind vor allem unoptimierte Games, da ist ATI oft deutlich schneller.
RICHTIG!Collin ruckelt erbärmlich selbst in der 640er Res.auf GF68u!
Auf X-box GF3 absolut smooth.
Hab Collin leider nie auf ATI gesehen.
HDR auf meiner 6800U wirklich toll!!!
Fragt sich nur bei wieviel Frames...
Will mal FarCry HDR auf ner 6200er sehen und mich gesund kringeln.
Alles nur fiktiver Hype um etwas nicht Anwendbares.
Die 6200 kann gar kein FP16-HDR...
Hype? Naja, es zeigt halt, was in der Zukunft machbar ist.
Wenn man nicht auf AA steht, ist es sogar heute schon praktikabel.
RICHTIG!Collin ruckelt erbärmlich selbst in der 640er Res.auf GF68u!
Ja ne, ist klar...:rolleyes:
MikBach
2005-10-22, 21:50:59
Das letzte Posting war von mir. :)
TobiWahnKenobi
2005-10-23, 09:32:47
Warum?
Warum sollte man mit unterschiedlicher BQ testen?
Nur weil NV das in ihre Reviewguides schreibt.
Lies dir mal diesen Bericht durch, dann weisst du warum man nicht ATIs HQ gegen NVs Q benchen sollte...
Falls du noch Fragen hast...
du hast echt keinen plan von abschaltbaren und nichtabschaltbaren optimierungen beider IHVs, oder? und nein, fragen hab' ich keine - ich
lebe seit 20 jahren sehr gut mit der c't. :|
(..)
mfg
tobi
Arschhulio
2005-10-23, 12:03:02
Also dieses, die ATI ist bei unbekannetn spielen schneller, nein aber die NVIDIA bei Open GL, bla bla bla.
Was soll das, man wird nie alle unter einem Hut bringen, ich hatte bis zur 6800er auch nur ATI, bis auf den fehltritt 5900Ultra von Nvidia.
Ich für meinen Teil werde trozdem nie wieder auf ATI umsteigen, warum ist meine Sache!
ATI ist für mich einfach nicht das was ich haben möchte, ob Treibertechnich (Anwendungsfreundlichkeit) oder Kompatibilität, ich hatte viele Probleme mit ATI und bin deswegen zu NV gewchselt, ohne es je zu bereuen, aber wie gesagt das ist meine Persönliche Meinung, wie sie jeder hier hat, nur versuche ich meine Meinung nicht anderen auf zu drengen!
Man wird nie eine Karte besitzen die überall besser ist als das Konkurenz Modell, man muss für sich ausmachen welche Eigenschaften wichtig sind und sollte sich danach aus suchen welche man nimmt!
"" ICH SPIELE COLLIN MC RAE 2005 mit 4xAA und 8xAF auf 1024x768, keinerlei FPS einbrüche, du weisst schon wie man ein System Konfiguriert oder?""
""NACHTRAG: Ich habe sogar F.E.A.R. in 1024x768 und 4AA+4AF alles auf MAX bis auf Sound, Shadows und SP Engine auf MId ohne schwerwiegende Performence einbrüche gespielt, natürlich SoftShadows aus, es ruckelt zwar ab und an aber es war nicht nervend, zumindest für mich nicht""
du hast echt keinen plan von abschaltbaren und nichtabschaltbaren optimierungen beider IHVs, oder?
Nein, könntest du es mir bitte erklären...;D
Ich glaube, ich weiss wovon ich rede. Hab hier auch heftig mit ATI- und Nvidia-Karten heftig getestet. :)
Es geht auch nicht um Optimierungen an sich, sondern wie die BQ aussieht...;)
ich lebe seit 20 jahren sehr gut mit der c't. :|
Dann wirst du aber auf dem Gebiet von Grafikkarten leider dumm sterben, wenn sich etws bei der c´t nicht ändert... :)
MikBach
2005-10-23, 18:44:02
Schon wieder nicht eingelogt gewesen. :rolleyes:
MikBach
2005-10-23, 18:52:24
ATI ist für mich einfach nicht das was ich haben möchte, ob Treibertechnich (Anwendungsfreundlichkeit) oder Kompatibilität, ich hatte viele Probleme mit ATI und bin deswegen zu NV gewchselt,
Das stimmt. vor Jahren war ATI bei den Treibern teilweise deutlich unterlegen.
Das ist aber nicht mehr so.
IMO sind die ATI-Treiber sogar besser.
Als ich noch meine 6800GT hatte, ging es mir voll auf den Sack, dass ich für fast jedes Spiel einen anderen Treiber brauchte, um das Optimum zu erreichen.
Dabei waren es meistens Betatreiber, die bei anderen Sachen vermurkst waren.
Ich wünschte mir echt NV würde regelmässig Treiber bringen, die man installieren kann ohne neue Probleme zu haben.
Es zwickt halt immer irgendwo.
Klar, bei ATI funktioniert auch nicht alles perfekt. Nur ist im Regelfall ein neuer Treiber besser als der ältere. Das kann man von NV nicht behaupten.
TobiWahnKenobi
2005-10-23, 19:18:37
Nein, könntest du es mir bitte erklären...
nö, das solltest du als fachmann eigentlich wissen.
Ich glaube, ich weiss wovon ich rede.
glaube ich, speziell in diesem kontext, eigentlich nicht.
auszug aus c't 22/2005 S.111-135
"..die optimale Grundeinstellung für den Qualitätsregler, ist die vorgegebene: In ATIs Catalyst Control Center sollte der Regler auf der höhsten und bei NV auf der zweithöhsten Position stehen. NV's höchste Einstellung schaltet lediglich einige der inzwischen gängigen Filteroptimierungen ab, die kaum sichtbare Qualitätseinbussen mit sich bringen und mit denen ATI grundsätzlich arbeitet.. bei ATI ist dieser Mechanismus fest im Chip verdrahtet.."
usw. kannst du ja selbst lesen, wenn du 3€ in eine zeitung investieren gehst. bin hier nicht zuständig, jedem die c't für lau abzutippen. zumal die infos so alt sind, dass sie schon zu FX zeiten vor 2.5 jahren gültigkeit hatten.
und was du mit NV und ATI getestet haben willst, ist für mich schall und rauch. weder der mehrschirmbetrieb, noch der openGL teil oder die nutzbarkeit unter non-XP-Betriebssystemen, taugt auf ATI karten etwas.
Als ich noch meine 6800GT hatte, ging es mir voll auf den Sack, dass ich für fast jedes Spiel einen anderen Treiber brauchte, um das Optimum zu erreichen.
Dabei waren es meistens Betatreiber, die bei anderen Sachen vermurkst waren.
Ich wünschte mir echt NV würde regelmässig Treiber bringen, die man installieren kann ohne neue Probleme zu haben.
wieder so etwas. ich denke, du kennst du voll gut aus? ich hab' mit NV's treibern so gut wie keine probleme. nicht unter DX, nicht unter openGL, nicht beim rendern von overlays und auch nicht beim betrieb mit 2 TFTs und einem fernseher.
die eventuellen kleinen fehler in irgendwelchen gameprofilen oder im nview, konnte ich in der vergangenheit immer lösen..
der einzige mir noch gegenwärtige fehler, war das farcry profil.. das hab' ich mit razor aber ratz-fatz in den griff bekommen.
naja, dafür kannst du vielleicht besser standbilder auf flimmerneigung untersuchen od. die karten in grund und boden benchen; die interessen liegen ja bei jedem woanders.
ich benchmurkse im 05er übrigens auch über 6.000 punkte; so gaaanz schlecht wird mein kenntnisstand also nicht sein.
..und jetzt geh' ich wieder ins bett.
(..)
mfg
tobi
MikBach
2005-10-23, 19:29:02
nö, das solltest du als fachmann eigentlich wissen.
Weiss ich doch... :wink:
glaube ich, speziell in diesem kontext, eigentlich nicht.
auszug aus c't 22/2005 S.111-135
"..die optimale Grundeinstellung für den Qualitätsregler, ist die vorgegebene: In ATIs Catalyst Control Center sollte der Regler auf der höhsten und bei NV auf der zweithöhsten Position stehen. NV's höchste Einstellung schaltet lediglich einige der inzwischen gängigen Filteroptimierungen ab, die kaum sichtbare Qualitätseinbussen mit sich bringen und mit denen ATI grundsätzlich arbeitet.. bei ATI ist dieser Mechanismus fest im Chip verdrahtet.."
Einfach nur LOL.
Schau dir mal RICHTIGE Profis an...
usw. kannst du ja selbst lesen, wenn du 3€ in eine zeitung investieren gehst. bin hier nicht zuständig, jedem die c't für lau abzutippen. zumal die infos so alt sind, dass sie schon zu FX zeiten vor 2.5 jahren gültigkeit hatten.
Ich lese die c´t regelmässig. Die Grakatests aber nur flüchtig, da ich keinen Herzkasper bekommen will... :D
boeser
2005-10-23, 19:50:44
sag mal MikBach,
gehts noch?
geh zu Mami oder in die KITA
wenn ich solche Treads lese bekomme ich regelmäßig das Ko... :mad:
ehrlich so ein rumgeblöcke, Tobi hat weiß Gott mehr Ahnung
Sorry für den Spam aber da platzt mir die Galle
erwingage
2005-10-23, 19:54:44
sag mal MikBach,
gehts noch?
geh zu Mami oder in die KITA
wenn ich solche Treads lese bekomme ich regelmäßig das Ko... :mad:
ehrlich so ein rumgeblöcke, Tobi hat weiß Gott mehr Ahnung
Sorry für den Spam aber da platzt mir die Galle
hier gehts um 2 grafikkarten und nicht wer mehr ahnung hat! :P
boeser
2005-10-23, 19:56:47
hier gehts um 2 grafikkarten und nicht wer mehr ahnung hat! :P
sicher aber höflich kann man doch bleiben oder.....
abgesehen davon kann ich Tobi aus eigener Erfahrung beipflichten,
meine 9700 damals war ein einziges Ärgernis wenn man von 3D-Murks mal absieht
MikBach
2005-10-23, 19:56:58
sag mal MikBach,
gehts noch?
geh zu Mami oder in die KITA
wenn ich solche Treads lese bekomme ich regelmäßig das Ko... :mad:
ehrlich so ein rumgeblöcke, Tobi hat weiß Gott mehr Ahnung
Sorry für den Spam aber da platzt mir die Galle
Hi,
warum so angesäuert?
Geh auf meine Behauptungen konkret ein, dann kann sich daraus vielleicht eine interessante Diskussion entwickeln. :)
PS ich glaube nicht, dass Tobi mehr Ahnung hat, zumindest nicht, wenn es um Grakas geht. Lasse mich aber gerne eines besseren belehren. :)
boeser
2005-10-23, 20:03:05
Hi,
warum so angesäuert?
Geh auf meine Behauptungen konkret ein, dann kann sich daraus vielleicht eine interessante Diskussion entwickeln. :)
weil du auf sachliche Argumente unsachlich mit Marketing geblubber und Pseudo Wissen Antwortest.
Aber egal
:frown:
MikBach
2005-10-23, 20:05:29
weil du auf sachliche Argumente unsachlich mit Marketing geblubber und Pseudo Wissen Antwortest.
Aber egal
:frown:
LOOOOOOOL.
Werd mal konkreter.
Meine Postings bieten genug Angriffsfläche... oder auch nicht :D
Fang mal an, ich warte. :)
boeser
2005-10-23, 20:07:07
LOOOOOOOL.
Werd mal konkreter.
Meine Postings bieten genug Angriffsfläche... oder auch nicht :D
Fang mal an, ich warte. :)
ach was ..... du hast recht alles super bei ATI :biggrin:
Mumins
2005-10-23, 20:08:03
"..die optimale Grundeinstellung für den Qualitätsregler, ist die vorgegebene: In ATIs Catalyst Control Center sollte der Regler auf der höhsten und bei NV auf der zweithöhsten Position stehen. NV's höchste Einstellung schaltet lediglich einige der inzwischen gängigen Filteroptimierungen ab, die kaum sichtbare Qualitätseinbussen mit sich bringen und mit denen ATI grundsätzlich arbeitet.. bei ATI ist dieser Mechanismus fest im Chip verdrahtet.."
Das ist doch absoluter Unsinn. Entscheidend ist was ich sehe, da muss man bei Nvidia auf HQ stellen, damit ich ähnliche Qualität wie bei ATIs Grundeinstellung habe. Wie und was da optimiert wird juckt keinen.
MikBach
2005-10-23, 20:08:45
ach was ..... du hast recht alles super bei ATI :biggrin:
Wo habe ich das behauptet?
Das kann man einfach nicht so einseitig sehen.
Beide haben noch leichte Probs, wobei ich mehr bei Nvidia sehe... :)
Beide haben noch leichte Probs, wobei ich mehr bei Nvidia sehe... :)
*grübel welcher hersteller hatte nochmal seine neue Graka ein 1/2 jahr später als gewollt nach hinten geschoben ???. Klar war Nvidia :D .
Das was Ihr da immer sehen tut mit bildflimmern bildverschlächterung interessiert zu 90 % der user nicht weil es einfach fast nicht zu sehen ist..
in meinen augen ist war x8xx schon zur zeit als sie das licht der welt erblickte schon veraltert.
Also ich würde die 6800 behalten und sie nicht gegen ne x8xx tauschen.
die paar FPS die ne ATI schneller ist, ist es einfach nicht wert..
MikBach
2005-10-23, 20:29:28
*grübel welcher hersteller hatte nochmal seine neue Graka ein 1/2 jahr später als gewollt nach hinten geschoben ???. Klar war Nvidia :D .
:confused:
Nix kapische, könntest du mich aufklären, was das heute mit der 6800 und X800 zu tun haben soll?
Das was Ihr da immer sehen tut mit bildflimmern bildverschlächterung interessiert zu 90 % der user nicht weil es einfach fast nicht zu sehen ist..
:confused:
Dann ist man blind...
in meinen augen ist war x8xx schon zur zeit als sie das licht der welt erblickte schon veraltert.
LOL.
Wieso das?`
Der NV40 bietet das "Killer-Feature" TAA nicht an, demnach ist eine X800 deutlich überlegen...
Also ich würde die 6800 behalten und sie nicht gegen ne x8xx tauschen.
die paar FPS die ne ATI schneller ist, ist es einfach nicht wert..
Es sind nicht nur ein paar fps. Dann hätte ein Umstieg keinen Sinn...
Ich würde die 6800 gegen die X800 tauschen.
Meine Meinung. :)
boeser
2005-10-23, 20:35:18
oh je :rolleyes:
also noch mal zum Thema,
-beide Karten spielen in der gleichen Liga (Leistungsklasse)
-selbst wenn eine 10% schneller wäre würde man es nicht sehen,
was auf der einen nicht läuft(Geschwindigkeits mäßig) läuft auch auf der anderen nicht
-eine von beiden hat die Modernere Architektur ;)
-mit einer von beiden hat man Spaß auch unter zb. Linux mit der anderen nicht und damit meine ich nichtmal das selbst ne alte
FX5900 die PE versägt da liegen mir eher so Sachen wie zweiter XServer und so im Sinn
also ich würde immer die 68k Nehmen
gruß boeser
Black-Scorpion
2005-10-23, 20:36:00
nö, das solltest du als fachmann eigentlich wissen.
glaube ich, speziell in diesem kontext, eigentlich nicht.
auszug aus c't 22/2005 S.111-135
"..die optimale Grundeinstellung für den Qualitätsregler, ist die vorgegebene: In ATIs Catalyst Control Center sollte der Regler auf der höhsten und bei NV auf der zweithöhsten Position stehen. NV's höchste Einstellung schaltet lediglich einige der inzwischen gängigen Filteroptimierungen ab, die kaum sichtbare Qualitätseinbussen mit sich bringen und mit denen ATI grundsätzlich arbeitet.. bei ATI ist dieser Mechanismus fest im Chip verdrahtet.."
usw. kannst du ja selbst lesen, wenn du 3€ in eine zeitung investieren gehst. bin hier nicht zuständig, jedem die c't für lau abzutippen. zumal die infos so alt sind, dass sie schon zu FX zeiten vor 2.5 jahren gültigkeit hatten.
und was du mit NV und ATI getestet haben willst, ist für mich schall und rauch. weder der mehrschirmbetrieb, noch der openGL teil oder die nutzbarkeit unter non-XP-Betriebssystemen, taugt auf ATI karten etwas.
wieder so etwas. ich denke, du kennst du voll gut aus? ich hab' mit NV's treibern so gut wie keine probleme. nicht unter DX, nicht unter openGL, nicht beim rendern von overlays und auch nicht beim betrieb mit 2 TFTs und einem fernseher.
die eventuellen kleinen fehler in irgendwelchen gameprofilen oder im nview, konnte ich in der vergangenheit immer lösen..
der einzige mir noch gegenwärtige fehler, war das farcry profil.. das hab' ich mit razor aber ratz-fatz in den griff bekommen.
naja, dafür kannst du vielleicht besser standbilder auf flimmerneigung untersuchen od. die karten in grund und boden benchen; die interessen liegen ja bei jedem woanders.
ich benchmurkse im 05er übrigens auch über 6.000 punkte; so gaaanz schlecht wird mein kenntnisstand also nicht sein.
..und jetzt geh' ich wieder ins bett.
(..)
mfg
tobi
Wie heißt es so schön, Schuster bleib bei deinen Leisten.
Die c't hat ihre Qualitäten (z.B. Brenner und Rohlinge) und das bestreitet auch keiner.
Aber Grafikkarten gehören bestimmt nicht dazu.
Wenn du dich darauf verläßt und glaubst was dort steht ist das dein Problem.
Dazu gibt es im Grafichips Forum einen Thread zu dem Test.
Den solltest du dir vielleicht mal ansehen.
MikBach
2005-10-23, 20:41:16
-eine von beiden hat die Modernere Architektur ;)
Ja, die X800, weil sie TAA anbietet? :D :eek:
-mit einer von beiden hat man Spaß auch unter zb. Linux mit der anderen nicht und damit meine ich nichtmal das selbst ne alte
FX5900 die PE versägt da liegen mir eher so Sachen wie zweiter XServer und so im Sinn
Wayne...?
Wir reden hier über Spiele...
Ich verwende zwar auch Linux, aber bestimmt nicht zum SPielen...
also ich würde immer die 68k Nehmen
Echt? Begündung?
Und komm mir jetzt nicht mit Linux... :rolleyes:
Die miesten wissen nichtmal wie Linux geschrieben wird... :rolleyes:
boeser
2005-10-23, 20:42:59
Ja, die X800, weil sie TAA anbietet? :D :eek:
Wayne...?
Wir reden hier über Spiele...
Ich verwende zwar auch Linux, aber bestimmt nicht zum SPielen...
Echt? Begündung?
Und komm mir jetzt nicht mit Linux... :rolleyes:
Die miesten wissen nichtmal wie Linux geschrieben wird... :rolleyes:
LOL
schon klar geht auch nicht....
ich spiele css ut2k4 dumm3 unter linux
TobiWahnKenobi
2005-10-23, 20:48:58
aha.. hast ja gründlich gelesen.. alle achtung!
gib' mir doch bitte mal einen link. ich kann leider keinen thread finden, der etwas mit dieser ausgabe "c't 22/2005 S.111-135" zu tun hat.. oder der diese aussage widerlegen würde:
"..die optimale Grundeinstellung für den Qualitätsregler, ist die vorgegebene: In ATIs Catalyst Control Center sollte der Regler auf der höhsten und bei NV auf der zweithöhsten Position stehen. NV's höchste Einstellung schaltet lediglich einige der inzwischen gängigen Filteroptimierungen ab, die kaum sichtbare Qualitätseinbussen mit sich bringen und mit denen ATI grundsätzlich arbeitet.. bei ATI ist dieser Mechanismus fest im Chip verdrahtet.."
(..)
mfg
tobi
MikBach
2005-10-23, 20:51:59
LOL
schon klar geht auch nicht....
ich spiele css ut2k4 dumm3 unter linux
:confused:
Und was willst du mir jetzt damit sagen? :confused:
Linux ist nicht für Spiele gedacht. Ausserdem sind Linux-Spiele seeeehr rar.
Wenn man zocken will, benutzt man Windoof. :D
Black-Scorpion
2005-10-23, 20:52:14
aha.. hast ja gründlich gelesen.. alle achtung!
gib' mir doch bitte mal einen link. ich kann leider keinen thread finden, der etwas mit dieser ausgabe "c't 22/2005 S.111-135" zu tun hat.. oder der diese aussage widerlegen würde:
"..die optimale Grundeinstellung für den Qualitätsregler, ist die vorgegebene: In ATIs Catalyst Control Center sollte der Regler auf der höhsten und bei NV auf der zweithöhsten Position stehen. NV's höchste Einstellung schaltet lediglich einige der inzwischen gängigen Filteroptimierungen ab, die kaum sichtbare Qualitätseinbussen mit sich bringen und mit denen ATI grundsätzlich arbeitet.. bei ATI ist dieser Mechanismus fest im Chip verdrahtet.."
(..)
mfg
tobi
Mal wieder Grakatest in der c't (22/05)... (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=254881)
MikBach
2005-10-23, 20:54:46
aha.. hast ja gründlich gelesen.. alle achtung!
gib' mir doch bitte mal einen link. ich kann leider keinen thread finden, der etwas mit dieser ausgabe "c't 22/2005 S.111-135" zu tun hat.. oder der diese aussage widerlegen würde:
"..die optimale Grundeinstellung für den Qualitätsregler, ist die vorgegebene: In ATIs Catalyst Control Center sollte der Regler auf der höhsten und bei NV auf der zweithöhsten Position stehen. NV's höchste Einstellung schaltet lediglich einige der inzwischen gängigen Filteroptimierungen ab, die kaum sichtbare Qualitätseinbussen mit sich bringen und mit denen ATI grundsätzlich arbeitet.. bei ATI ist dieser Mechanismus fest im Chip verdrahtet.."
Ok, dann sage ich es direkt:
DIE C´T SCHREIBT BULLSHIT...
Jetzt besser?
boeser
2005-10-23, 20:55:23
:confused:
Und was willst du mir jetzt damit sagen? :confused:
Linux ist nicht für Spiele gedacht. Ausserdem sind Linux-Spiele seeeehr rar.
Wenn man zocken will, benutzt man Windoof. :D
äääähmm
na das ich UT2K4,Doom3,HL2,CSS,WC3 und einiges andere sehr gut unter Linux spiele
war das oben so unverständlich....sorry
schon klar du nat. nicht....nur warum?
:biggrin:
TobiWahnKenobi
2005-10-23, 20:59:10
Wenn man zocken will, benutzt man Windoof.
ich arbeite vorwiegend mit dem PC. wenn "man" zocken will, benutzt man ne konsole. und ich denke, dass nur die besonders reichen unter euch, also die, die sich anscheinend jedes spiel und jeden film kaufen können, noch lange spass mit windoof haben werden.
(..)
mfg
tobi
MikBach
2005-10-23, 21:01:54
äääähmm
na das ich UT2K4,Doom3,HL2,CSS,WC3 und einiges andere sehr gut unter Linux spiele
war das oben so unverständlich....sorry
schon klar du nat. nicht....nur warum?
:biggrin:
Und? Wayne...
Die paar Spiele, die du aufgezählt hast, sind nicht aussachlaggebend. Es gibt über 1000 Spiele, die nicht laufen, die so in den Geschäften rumschwirren... :D
edit: mein Satzbau war unter aller Sau.. ich meinte eigentlich was anderes... :redface:
MikBach
2005-10-23, 21:04:46
ich arbeite vorwiegend mit dem PC. wenn "man" zocken will, benutzt man ne konsole.
Nicht wirklich...
Ich habe 2 Rechner, einen fürs Arbeiten (linux), einen zum Zocken...(Windoof)
und ich denke, dass nur die besonders reichen unter euch, also die, die sich anscheinend jedes spiel und jeden film kaufen können, noch lange spass mit windoof haben werden.
:confused:
boeser
2005-10-23, 21:07:10
Und? Wayne...
Von den paar Spielen, die du aufgezählt hast, laufen über 1000 nicht, die so in den Geschäften rumschwirren... :D
ja sicher und mit ATI (unter linux)kaum eines..
aber darum ging es glaub ich nicht, ich wollte nur deutlich machen
das die Unterschiede in der Leistung gering sind und dadurch(zumindest für mich) kein Kriterium darstellen
in allen anderen Belangen ist die ATi unterlegen
smockdogx
2005-10-23, 21:07:32
also ich würde nicht tauschen
von speed sind eigehntlich beide gleich schnel, kommt halt drauf an mit was man benchen tut
nv ist halt bischen in opelgl ati unter directx schneller und besser bei weniger verbreiteten games also ohne drauf optimirt zu sein :biggrin:
was eigehntlich ergal ist solange man nicht mit mörder einstellungen spielen tut
die 6800u hat PS 3.0
ich weiss brauchen nicht viele games , aber zumbeispiel splinter cell 3 konnte man vor denn patch nur mit ps1.1 spielen , ohne e ps.3 karte
wenn du die karte also 1 jahr oder länger benutzen willst behalt die 68....
meine meinug :redface:
MikBach
2005-10-23, 21:11:45
in allen anderen Belangen ist die ATi unterlegen
Diese wären...? :|
boeser
2005-10-23, 21:14:18
Diese wären...? :|
zb. PS 3.0 und Flexibilität
MikBach
2005-10-23, 21:19:16
zb. PS 3.0 und Flexibilität
Das bitte erweitern, sonst hat es 0 Aussagekraft.
Ich kann ja schon mal anfangen:
Die 6800 bietet kein TAA an.
Habe ich jetzt die 4 Asse? :D
Mr. Lolman
2005-10-23, 21:21:00
Flexibilität
Ich will dat Ding doch nicht biegen :|
TobiWahnKenobi
2005-10-23, 21:23:46
Diese wären...?
24bittige shader präzision gegenüber 32bittiger präzision
openGL part bei ATI scheisse / besonders schmerzhaft beim overlay-rendern
mehrschirmtauglichkeit (betr. SPAN modus u. unterschiedl. auflösungen auf allen 3 anschliessbaren displays)
kein shader3.0 vorhanden (erst ab R520)
kein FP Blending (erst ab R520)
keine FP Filterung für HDR texturen (nichtmal beim R520)
kein supersampling oder mixed mode AA bei ATI
nicht komplett abschaltbare aniso-optimierungen, da fest verdrahtet
nicht wirklich linux-tauglich
Zitat:
Zitat von TobiWahnKenobi
und ich denke, dass nur die besonders reichen unter euch, also die, die sich anscheinend jedes spiel und jeden film kaufen können, noch lange spass mit windoof haben werden.
muss ich das echt ausführen? warum ist denn der PC so erfolgreich ? und speziell der windows-PC unter spielkiddies so beliebt ? -> weils die letzten 30 jahre, alles umsonst gab und weil alles so schön simple klicki-bunti ist. wer weiter auf windows setzt, wird wohl genug geld haben, um sich jeden film, jedes musikstück und jedes game zu kaufen. grüsse vom DRM und kopierschutz -fanclub.
Ich kann ja schon mal anfangen:
Die 6800 bietet kein TAA an.
Habe ich jetzt die 4 Asse?
mit ner x800 hast du gar nichts. nichtmal ein päärchen zweien. die geforce karten haben super-sampling und mixed modi. die glätten auch alpha-texturen. wer auf der NV karte zuwenig leistung hat, kann auch seit einem jahr, zwei karten verSLI'en. dieser jemand hätte dann schonmal 2 asse.
verglichen damit ist crossfire eher die piek7. allein schon der umstand, dass man ne masterkarte braucht.. LOL
schau' doch mal ins ATI forum, da gewinnst du mit dem fanATIschen gequatsche vielleicht ne rote fahne. erfahrungsgemäß sind's spieler, die sich ATI kaufen. wahrscheinlich so das grundschul- oder überhaupt schüler-alter ohne wirklich anspruch an die schreibtisch-umgebung.
(..)
mfg
tobi
boeser
2005-10-23, 21:26:41
Das bitte erweitern, sonst hat es 0 Aussagekraft.
Ich kann ja schon mal anfangen:
Die 6800 bietet kein TAA an.
Habe ich jetzt die 4 Asse? :D
ich hab meine Meinung dargelegt es muß nat. nicht auch deine sein.
ich finde es Halt nur etwas .... das du dich hier als ATI Fanboy auffürst und andere Meinungen überhaupt nicht gelten läßt.
aber egal ich freue mich für alle die mit ihrer Hardware glücklich sind ;D
Black-Scorpion
2005-10-23, 21:30:13
kein supersampling oder mixed mode AA bei ATI
(..)
mfg
tobi
Für was soll ich die brauchen?
Im Gegensatz zu 6800er kann die XT AAA. ;)
MikBach
2005-10-23, 21:35:43
ich hab meine Meinung dargelegt es muß nat. nicht auch deine sein.
Weil deine falsch ist? hehe...
ich finde es Halt nur etwas .... das du dich hier als ATI Fanboy auffürst und andere Meinungen überhaupt nicht gelten läßt.
Das Wort Fanboy solltest du dir hinter die Ohren klemmen, aber das ist hier OT..
Ich bin von keiner Firma ein Fanboy und habe auch schon über ATI hergezogen..
Besonders, wenn es um den RV530 geht. :|
Mr. Lolman
2005-10-23, 21:36:57
24bittige shader präzision gegenüber 32bittiger präzision
openGL part bei ATI scheisse / besonders schmerzhaft beim overlay-rendern
mehrschirmtauglichkeit (betr. SPAN modus u. unterschiedl. auflösungen auf allen 3 anschliessbaren displays)
kein shader3.0 vorhanden (erst ab R520)
kein FP Blending (erst ab R520)
keine FP Filterung für HDR texturen (nichtmal beim R520)
kein supersampling oder mixed mode AA bei ATI
nicht komplett abschaltbare aniso-optimierungen, da fest verdrahtet
nicht wirklich linux-tauglich
x) Linux rennt auf Atis mittlerweile super.
x) Bei SM3 pfeift meine 6800GT aus dem letzen Loch (an AA ist da nicht mehr zu denken)
x) HDR macht mit 1280 auch kein Spaß. (TFT)
x) Die Mixedmode sind nur deswegen da, weil NV kein Multisampling >4x kann und außerdem noch ineffizient wegen dem OGSSAA.
x) ATis R3x0/4x0/5x0 Karten können AAA.
x) SLI ist für den Normalverbraucher Overkill und braucht außerdem ein passendes MB.
x) OpenGL Spiele rennen mittlerweile auch super. D³ auf R420 nur mehr minimal langsamer. Serious Sam 2 deutlich flotter. (und Call of Duty 1 auch)
x) Lt. PCGH filtert ein R420 selbst mit Ati AI schöner als ein NV40 mit HQ
x) Du bist dran schuld, falls ich heut noch die NV Community mit nem Video,über die Kacke die der kaputte NV40 Videoprozessor fast tagtäglich mit meinem Desktop anstellt, nerve.
boeser
2005-10-23, 21:45:01
x) Linux rennt auf Atis mittlerweile super.
x) Bei SM3 pfeift meine 6800GT aus dem letzen Loch (an AA ist da nicht mehr zu denken)
x) HDR macht mit 1280 auch kein Spaß. (TFT)
x) Die Mixedmode sind nur deswegen da, weil NV kein Multisampling >4x kann und außerdem noch ineffizient wegen dem OGSSAA.
x) ATis R3x0/4x0/5x0 Karten können AAA.
x) SLI ist für den Normalverbraucher Overkill und braucht außerdem ein passendes MB.
x) OpenGL Spiele rennen mittlerweile auch super. D³ auf R420 nur mehr minimal langsamer. Serious Sam 2 deutlich flotter. (und Call of Duty 1 auch)
x) Lt. PCGH filtert ein R420 selbst mit Ati AI schöner als ein NV40 mit HQ
x) Du bist dran schuld, falls ich heut noch die NV Community mit nem Video,über die Kacke die der kaputte NV40 Videoprozessor fast tagtäglich mit meinem Desktop anstellt, nerve.
zumindest Punkt1
kannst du Knicken oder kann ATI mitlerweile zwei Simultane XServer aufmachen oder auch nur annähernd NV Performance erreichen?
TobiWahnKenobi
2005-10-23, 21:47:57
x) Linux rennt auf Atis mittlerweile super.
erzähl doch keine märchen. erst vor 3 tagen haben wir uns bei meinem kollegen drüber aufgeregt, dass es eben nicht anständig funzt (2 displays unter linux im span betrieb). unter windows hab' ich es noch nicht geschafft stabil mit HSPAN zu arbeiten. nicht mit videos und nicht mit zugehöriger software.
x) Bei SM3 pfeift meine 6800GT aus dem letzen Loch (an AA ist da nicht mehr zu denken)
schade für deine karte.
x) HDR macht mit 1280 auch kein Spaß. (TFT)
nicht? wird wohl daran liegen, dass es für 1024pixel gedacht ist (auf 256mb karten der GF68 generation). ich kann HDR FC wunderbar zocken @1280x1024 auf dem TFT.klick (http://people.freenet.de/Home_of_the_pro_bios/FCHDR.htm)
vielleicht liegt dein spass-defizit auch in deiner natur. würde ich meinen tag damit verbringen einzelbilder zu vergleichen und fehler zu suchen, wäre ich dessen auch irgendwann überdrüssig - zum glück hab' ich für sowas, neben job und familie weder zeit, noch faible.
x) Die Mixedmode sind nur deswegen da, weil NV kein Multisampling >4x kann und außerdem noch ineffizient wegen dem OGSSAA.
na und? die meiste zeit hab' ich auf dem TFT AA aus. reichen tut in 1280x1024pixeln locker 2x oder 4x AA. supersampling oder die mixed modi setzt man idR dort ein, wo überschuss an leistung vorhanden ist, und man auch alpha-texturen glätten möchte. wer noch mehr vermatschen will, kann ja quincunx nehmen und zusätzlich blurren.
x) ATis R3x0/4x0/5x0 Karten können AAA.
irgendwas müssen sie ja auch können, wenn man sie als grafikadapter verkauft.
x) SLI ist für den Normalverbraucher Overkill und braucht außerdem ein passendes MB.
bissl anmaßend, mich von den normal-verbrauchern auszuklammern, oder nicht? bist du gott, dass du bestimmst, was normal ist, oder was nicht? dachte eben echt, du bist ramm-man, den fand ich schon bei he-man ähm.. nicht so toll ;)
x) OpenGL Spiele rennen mittlerweile auch super. D³ auf R420 nur mehr minimal langsamer. Serious Sam 2 deutlich flotter. (und Call of Duty 1 auch)
x) Lt. PCGH filtert ein R420 selbst mit Ati AI schöner als ein NV40 mit HQ
x) Du bist dran schuld, falls ich heut noch die NV Community mit nem Video,über die Kacke die der kaputte NV40 Videoprozessor fast tagtäglich mit meinem Desktop anstellt, nerve.
tut mir wirklich leid, dass du deine videos nicht im griff hast. ich gucke zwar niemals am PC filme, aber wenn ich es dir zuliebe mal versuche, habe ich bei mpeg2 ca. 15% CPU last. HD filmchen hab' ich keine und wmv nutze ich nicht, weil ich kein M$ fanboy bin (hab' den zug wohl verschlafen). mit XVid hab' ich auf dem NV40 keine schwierigkeiten. normales DivX nutze ich nicht.
sonst noch was zu scheissen, was auf der ATI hardware (technischer stand von vor 2 jahren) besser und schöner ist.. ausser der preis für leute ohne kohle?
(..)
mfg
tobi
Mr. Lolman
2005-10-23, 22:09:16
erzähl doch keine märchen. erst vor 3 tagen haben wir uns bei meinem kollegen drüber aufgeregt, dass es eben nicht anständig funzt (2 displays unter linux im span betrieb)
ok. Da war ich etwas voreilig. Sry.
schade für deine karte
Find ich auch. Hätt mir mehr erwartet.
nicht? wird wohl daran liegen, dass es für 1024pixel gedacht ist (auf 256mb karten der GF68 generation). ich kann HDR FC wunderbar zocken @1280x1024 auf dem TFT. klick (http://people.freenet.de/Home_of_the_pro_bios/FCHDR.htm)
Was jetzt? Auf deiner Website sind die Screenshits auch nur mit 1024x768.
na und? die meiste zeit hab' ich auf dem TFT AA aus. reichen tut in 1280x1024pixeln locker 2x oder 4x AA. supersampling oder die mixed modi setzt man idR dort ein, wo überschuss an leistung vorhanden ist, und man auch alpha-texturen glätten möchte.
Leider ist kaum ein Überschuß an Leistung vorhanden.
irgendwas müssen sie ja auch können, wenn man sie als grafikadapter verkauft.
Ja zB Alphatests glätten, ohne performanceraubenden OGSSAA.
bissl anmaßend mich von den normal-verbrauchern auszuklammern, oder nicht? bist du gott, dass du bestimmst, was normal ist, oder was nicht? dachte eben echt, du bist ramm-man, den fand ich schon bei he-man ähm.. nicht so toll ;)
Du wirst dich doch nicht mit dem Normalverbraucher auf eine Stufe stellen. Schließlich bist du ja Vertreter der Sternenflotte der Vereinten Föderation der Planeten :ulol:
tut mir wirklich leid, dass du deine videos nicht im griff hast. ich gucke zwar niemals am PC filme, aber wenn ich es dir zuliebe mal versuche, habe ich bei mpeg2 ca. 15% CPU last. HD filmchen hab' ich keine und wmv nutze ich nicht, weil ich kein M$ fanboy bin (hab' den zug wohl verschlafen). mit XVid hab' ich auf dem NV40 keine schwierigkeiten. normales DivX nutze ich nicht.
Ich hab sie schon im Griff. Und meine GraKa auch. solang nicht Browser + bestimmte Webinhalte aktiv sind.
sonst noch was zu scheissen?
Nö. Momentan nicht. Aber wenns wieder soweit ist, kannst du ja gern abermals dein Maul aufreissen...
TobiWahnKenobi
2005-10-23, 22:26:06
Zitat:
Zitat von TobiWahnKenobi
nicht? wird wohl daran liegen, dass es für 1024pixel gedacht ist (auf 256mb karten der GF68 generation). ich kann HDR FC wunderbar zocken @1280x1024 auf dem TFT. klick
Was jetzt? Auf deiner Website sind die Screenshits auch nur mit 1024x768.
rede ich doch von. entweder spielt man mit 1024 pixeln und HDR (FC) oder mit 1280 ohne HDR und mit AA. ist beides smooth nutzbar. es gingen sogar noch 1280 mit HDR, aber auch ich spiele gern in jeder situation mit über 40fps und bei 1024 pixeln kann ich mit dem TFT auch noch anständig skalieren. bestimmte modi wirken dabei dann ähnlich, wie AA. übrigens ohne leistungsverlust und auch auf zäune ;) - ist ja nun nicht so, als könnte der NV40 nicht auch ohne HDR anständig performen. 1280 pixel mit AA statt HDR bringt doch lässig noch 80-100 fps in FC. ich find's auf jeden fall flexibel, wenn man die art der darstellung wählen kann. das fixiert dann nicht auf einen festen modus und gleichzeitig wird's nicht so schnell langweilig.
Du wirst dich doch nicht mit dem Normalverbraucher auf eine Stufe stellen.
doch. muss ich - immerhin kenne ich mehr SLI board user, als leute mit nur einem graka-slot. ob die's brauchen oder peng.. nahezu jeder, der den nf4 haben wollte, hat damals die SLI fassung gekauft. ich war die rühmliche ausnahme und hab auch noch ein PEG board mit dem normalen nf4 und nur einem PCIx16 slot im regal liegen. war auch sehr ok -> und kompl. passiv!
ps. den letzten satz meines letzten postings hatte ich noch nicht fertig, als du ihn gequotet hast.
(..)
mfg
tobi
The_Invisible
2005-10-23, 22:31:50
@Mr. Lolman
ich verstehe nich ganz warum du ne 6800gt hast wenn die eh so scheiße und langsam ist und bei ATI eh alles besser ist
gibt die gt doch einfach bei ebay oder sonst wo rein und kauf dir ne R420/480/520 und du bist rundum zufrieden
btw
wegen treiber unter linux: da von super treiber sprechen ist nicht das wahre. habe zwar auch oft probleme mit nvidia treibern gehabt, aber wenn man wirklich mehr will als nur 2d darstellung sind die nativen ATI treiber einfach nur müll. wenn man da features will für linux (ausgenommen 3d) kauft man sich ne fx 5200er und gut ist
mfg
Mr. Lolman
2005-10-23, 22:35:54
doch. muss ich - immerhin kenne ich mehr SLI board user, als leute mit nur einem graka-slot. ob die's brauchen oder peng.. nahezu jeder, der den nf4 haben wollte, hat damals die SLI fassung gekauft. ich war die rühmliche ausnahme und hab auch noch PEG board mit dem normalen nf4 im regal liegen.
Musst du garnicht. Du raufst dich nur mit deinesgleichen zusammen. In meinem Freundeskreis, bin ich so ziemlich der größte PC-Freak, und werde tw. schon für meine "Highendgeschoße" á la XP@2.4GHz und meine 6800GT@Ultra, bewundert/belächelt. Soll heissen: Ich kenn in meinem Freundeskreis niemanden der einen besseren Rechner hat. Die haben alle auch ganz andere Prioritäten beim HWkauf. Also versuch nicht uns weiszumachen, dass der Normalverbraucher scharf auf SLI ist. Imo ist das nichtmal der Querschnitt im 3DC. Und selbst da tummeln sich beleibe nicht die üblichen PC-DAUs...
ps. den letzten satz meines letzten postings hatte ich noch nicht fertig, als du ihn gequotet hast.
np.
rede ich doch von. entweder spielt man mit 1024 pixeln und HDR (FC) oder mit 1280 ohne HDR und mit AA. ist beides smooth nutzbar. es gingen sogar noch 1280 mit HDR, aber auch ich spiele gern in jeder situation mit über 40fps und bei 1024 pixeln kann ich mit dem TFT auch noch anständig skalieren. bestimmte modi wirken dabei dann ähnlich, wie AA. übrigens ohne leistungsverlust und auch auf zäune ;)
Imo wirken bestimmt nicht auch nur irgendwelche HDR Modi wie AA. Sicher das Bild ist weicher, unschärfer, aber Kantenflimmern gibts trotzdem genauso wie mit fehlendem AA.
Mr. Lolman
2005-10-23, 22:41:51
@Mr. Lolman
ich verstehe nich ganz warum du ne 6800gt hast wenn die eh so scheiße und langsam ist und bei ATI eh alles besser ist
gibt die gt doch einfach bei ebay oder sonst wo rein und kauf dir ne R420/480/520 und du bist rundum zufrieden
Dauert nichtmehr lang, dann seid ihr mich eh los. War halt neugierig, als vor ~1 Jahr selbst die ganzen Gurus dem Nv Chip absolute Überlegenheit angedichtet haben (was man natürlich im Laufe der Zeit relativieren musste. Ähnlich wie beim NV3x, nur dass der dann im Nachhinein wirklich unterlegen war, während man jetzt mit einem gewissen Wohlwollen einen ungefähren Leistungsgleichstand zw. NV40 und R420 sehen kann)
btw
wegen treiber unter linux: da von super treiber sprechen ist nicht das wahre. habe zwar auch oft probleme mit nvidia treibern gehabt, aber wenn man wirklich mehr will als nur 2d darstellung sind die nativen ATI treiber einfach nur müll.
Stimmt schon tw, ist aber nicht die ganze Wahrheit. Z.B ists so, dass bei UT2004 NV Karten nur besser absschneiden, weil da nicht die kompletten Details dargestellt werden.
derMeister
2005-10-24, 00:05:50
Welcher np braucht für 1280x1024 SLI, ahja sicher, die nV-SLI Gemeinde rofl...schon arm, wenn man für so'ne halbstarke Auflösung zwei 7800GTX braucht -mich gerade in die Ecke schmeiß und kringel vor lachen-
Blaze
2005-10-24, 00:08:34
Welcher np braucht für 1280x1024 SLI, ahja sicher, die nV-SLI Gemeinde rofl...schon arm, wenn man für so'ne halbstarke Auflösung zwei 7800GTX braucht -mich gerade in die Ecke schmeiß und kringel vor lachen-
Schonmal was von 8xS-AA gehört? Oder 16x? Oder Soft Shadows in FEAR?
Nein? Dann sabbel nicht so nen Quatsch und geh zurück ins ATI-Forum...
derMeister
2005-10-24, 00:11:06
Wenn die Ohren schon blau anlaufen, einfach mal Luft raus lassen ne.
Blaze
2005-10-24, 00:12:15
Wenn die Ohren schon blau anlaufen, einfach mal Luft raus lassen ne.
Wieso blau? Ich bin ich deinen Augen doch sowieso NV-Fanboy, also wenn dann müssten sie grün anlaufen ;)
Stimmt schon tw, ist aber nicht die ganze Wahrheit. Z.B ists so, dass bei UT2004 NV Karten nur besser absschneiden, weil da nicht die kompletten Details dargestellt werden.Welche Details? Du meinst z.B. die fehlenden Env-Maps in OpenGL? Das ist IHV-unabhängig.
Duke3d
2005-10-24, 01:06:41
:D
Mr. Lolman
2005-10-24, 01:19:38
Welche Details? Du meinst z.B. die fehlenden Env-Maps in OpenGL? Das ist IHV-unabhängig.
http://www.rage3d.com/board/showthread.php?t=33800643
mike49
2005-10-24, 01:43:20
http://www.rage3d.com/board/showthread.php?t=33800643
Und die - IMHO - passende Antwort dazu:
http://www.rage3d.com/board/showpost.php?p=1333789598&postcount=29
thade
2005-10-24, 02:03:38
ich würde gegen die ATI tauschen.
Ich hatte schon sehr viele Graks in nem Jahr und muss sagen mit ATI war ich immer zufriedener. Die Treiber sind einfach traumhaft, die Leistung sowieso konkurenzlos, vor allem mit FSAA.
NV40 VS R420 geht eindeutig an R420. Vor allem mit FSAA und hohen Auflöungen hat der NV40 keine Chance.
Shader 3 und HDR ist kein Argument. Der NV40 hat war diese Features, ist aber zu lahm um sie ordentlich einzusetzen.
Faster
2005-10-24, 15:27:43
doch. muss ich - immerhin kenne ich mehr SLI board user, als leute mit nur einem graka-slot.
zufall.
ich kenn zb keinen mit SLI-brett.
und da allein der SLI-port selbst noch nicht gerade sehr weit verbreitet ist, nicht mal hier im forum (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=249291&highlight=agp+pcie) oder bei der PCGH-umfrage (http://www.pcgameshardware.de/external/popup/poll/?poll_id=50576&site_id=42), bezweifle ich das SLI was für den normal-user ist - dafür wars auch nie gedacht (ebensowenig als günstige aufrüstplattform!).
OT:
ich finds (mal wieder) schade das bei zugegeben sehr brisanten themen/diskussionen wie dieser mach ein user nicht fähig ist, rein sachlich zu argumentieren und immer wieder sticheleien oder beleidigungen fallen...
nehmt euch doch mal ein beispiel an so manch einem der hier mitdiskutiert ohne solche aussetzter...
Gerhard
2005-10-24, 16:48:02
Meine Erfahrungen zum Thema Bildqualität:
Ich habe eine Geforce 6800 und eine ATI 9600Pro, wobei ich davon ausgehe das die Bildqualität der ATI Karte mit der x800xt vergleichbar ist.
Wenn dir eine hohe Bildqualität in den derzeitigen Spielen wichtig ist und du sowiso bald wieder aufrüsten wirst würde ich auf jeden Fall tauschen.
NVidia fehlt hier einfach der AAA Modus, welcher einen enormen Fortschritt in der Bildqualität bei relativ geringen Geschwindigkeitsverlusten bringt.
Weiters verliert die 6800 deutlich bei HQ an Geschwindigkeit und sieht dann immer noch minimal schlechter aus als die ATI Karte bei AI ein. Dann sieht es aber wenn man den üblichen Benchmarks glauben kann nicht mehr so gut für die NVidia Karte aus.
Der üblicherweise getestet Quality Modus ist in meinen Augen von der Bildqualität grauenhaft.
Wenn du die Karte dagegen länger behalten wirst könnten die HDR Features interessant werden, was natürlich wieder für die 6800er spricht.
erwingage
2005-10-24, 17:20:18
Meine Erfahrungen zum Thema Bildqualität:
Ich habe eine Geforce 6800 und eine ATI 9600Pro, wobei ich davon ausgehe das die Bildqualität der ATI Karte mit der x800xt vergleichbar ist.
Wenn dir eine hohe Bildqualität in den derzeitigen Spielen wichtig ist und du sowiso bald wieder aufrüsten wirst würde ich auf jeden Fall tauschen.
NVidia fehlt hier einfach der AAA Modus, welcher einen enormen Fortschritt in der Bildqualität bei relativ geringen Geschwindigkeitsverlusten bringt.
Weiters verliert die 6800 deutlich bei HQ an Geschwindigkeit und sieht dann immer noch minimal schlechter aus als die ATI Karte bei AI ein. Dann sieht es aber wenn man den üblichen Benchmarks glauben kann nicht mehr so gut für die NVidia Karte aus.
Der üblicherweise getestet Quality Modus ist in meinen Augen von der Bildqualität grauenhaft.
Wenn du die Karte dagegen länger behalten wirst könnten die HDR Features interessant werden, was natürlich wieder für die 6800er spricht.
ne ne ich tausche nicht!
ne ne ich tausche nicht!
:confused:
Du fragst, ob du tauschen sollst. Die meisten sagen ja und nun willst du doch nicht tauschen?
Verstehe ich nicht. Wofür überhaupt fragen?
erwingage
2005-10-24, 18:58:25
:confused:
Du fragst, ob du tauschen sollst. Die meisten sagen ja und nun willst du doch nicht tauschen?
Verstehe ich nicht. Wofür überhaupt fragen?
der aufwand ist mir zu groß :wink:
die paar monate komme ich am ende doch noch mit meiner karte aus! :cool:
dann sollte es sicher schon ne 7800gtx mit höherer taktung und 512mb videospeicher geben und da schlage ich gnadenlos zu!(SLI) :wink:
The_Invisible
2005-10-24, 19:40:05
ne ne ich tausche nicht!
... was in meinen augen sowieso sinnfrei ist ...
manchmal ist die eine karte schneller mal die andere, wennste pech hast laufen DEINE spiele dann sogar langsamer bzw mit weniger details (ich für meinen Teil sag nur AoE3) ... da lohnt der ganze aufwand garnicht
aber wennst du sowieso gleich mal aufrüsten willst wärs in dem sinne auch egal... eigentlich ist es mir sowieso egal, ist ja eh nicht meine zeit :D
mfg
Johnny
2005-10-24, 20:44:30
Hallo, ich habe vor kurzem meinem Bruder ein System zusammengebaut welches ziemlich genau das gleiche wie meins ist, nur halt mit einer Leadtek 6800 Ultra, so das ich auch einen direkten Vergleich hatte. Fazit: die X800XT-PE ist die schnellere von den beiden(Doom3 hin oder her), vor allem unter 1028*1024 4AA/8AF ist die ATi karte haushoch überlegen (Sachen wie Lautstärke oder Grösse des PCB zähle ich erst gar nicht mit).
Zum Thema HDR kann ich nur volgendes sagen:
1. Es sieht aus, als ob jemand böswillig an der Helligkeit meines Monitors rumgespielt hat(ok, ist Geschmackssache).
2. Ausser AoE3 ist die Performance mit HDR in keinem anderen Spiel hinnehmbar.
3. Es bleibt doch sowieso immer aus, da HDR + AA= No No
Daher kann man sagen, daß die Argumentation "nimm nVidia wgen SM 3.0 und HDR" nur bei noobs einschlagen wird!
Zum Thema: Nein, der Tausch lohnt sich nicht, 6800 Ultra ist trotzdem eine sehr gute Karte und der Unterschied zu einer X800XT ist zu gering.
Dunkeltier
2005-10-25, 07:42:36
Was für ein Unsinn.
Gerade Games die unbekannt sind laufen auf ATI Karten oft wesentlich besser.
Dem schließe ich mich an. Außerdem zeigen ATIs Treiber weniger Abnormalitäten mit unbekannten Spielen.
Dem schließe ich mich an. Außerdem zeigen ATIs Treiber weniger Abnormalitäten mit unbekannten Spielen.Was für ein Bullshit, sorry.
Hast Du Dir eigentlich schon mal die Release-Notes der Treiber angeschaut?
Ist manchmal ganz interessant, darin zu schmökern...
:D
Razor
Mr. Lolman
2005-10-26, 10:27:09
Was für ein Bullshit, sorry.
Hast Du Dir eigentlich schon mal die Release-Notes der Treiber angeschaut?
Ist manchmal ganz interessant, darin zu schmökern...
:D
Razor
Garkein Bullshit. Und die Release Notes sind ja auch lächerlich. Lässt man was weg, existiert das Problem nicht (mehr) ;)
Exlua
2005-10-26, 12:31:53
Ich will nicht noch viel mehr Salz in die Wunder streuen ,aber ich würde auch ein NV Karte in 5 Jahren kaufen auch wenn sie langsmaer wär. Da ich aber weiss das Nvidia Stereo Treiber hat ist das meine erste Wahl. Für die die nicht wissen was ein Stereo Treiber ist. Über den kann man games ala HL² mit einer Shooter Brille spielen. Und hat eine Dimension mehr :redface: Leider geht das nur mit CRT und hoher Hz zahl und die Grafikkarte muss 2 Bilder renden ...
Aber es macht schon viel mehr spass mit einer Shooter Brille zuspielen :)
caio
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.