PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 6800GT gegen X800XL


Seiten : [1] 2

Gastkartengrafik
2005-03-18, 20:16:22
Ich habe meine XL gegen eine 6800GT getauscht.Leider kann ich mit der GT meine Games nicht mit denselben Einstellungen spielen wie mit der XL.
Habe zum Vergleich mal FarCry und Republic Commando hergenommen.Beide auf 1280x1024 mit 4X und 8x AF u. AA.VSync an.

Bei der XL liefen alle 2 Games wunderbar flüssig und kamen nie unter 35 frames.
Mit der GT kommt FarCry manchmal auf 20-25 Frames runter und Republic Commando ist auch ca. 10 Frames langsamer als mit der XL.

Liegts an nem Treiber oder ist die GT einfach langsamer?

Radeon-Man
2005-03-18, 20:22:18
ich hatte es genau umgekehrt.zuerst die GT und dann die XL!
Wobei ich sagen muss, das die XL wirklich schneller ist.

ich habe es bei battlefield vietnam gemerkt.die XL rennt da flüssiger!
der einzige vorteil der Gt ist der Shader 3.0, für den die GT aber leider zu schwach ist.
Siehe Farcry mit hoher AUflösung.
Um Shader 3.0 optimal nutzen zu können, würde die GT 100 Mhz mehr benötigen.

Cyv
2005-03-18, 20:30:09
Is BFVietnam Opengl oder Direct3d?
Würde mich mal interessieren, denn meine 6800 GT is bestellt :frown:

dildo4u
2005-03-18, 20:33:02
Tjo mach mal V-Sync aus dann Klappst auch mit den FPS


Und zu BFV man krass die x800XL ist 2fps schneller das macht wikrlich den unterschied zwischen spielbar und nicht spielbar aus :rolleyes:
http://i138.exs.cx/img138/6120/image0207fj.gif

Cyv
2005-03-18, 20:35:16
Naja, ich muss bei meiner GT ja bei ultra guxx0rn, das beruhigt mich dann wieder :biggrin:

StefanV
2005-03-18, 20:39:30
Tjo mach mal V-Sync aus dann Klappst auch mit den FPS


Und zu BFV man krass die x800XL ist 2fps schneller das macht wikrlich den unterschied zwischen spielbar und nicht spielbar aus :rolleyes:
http://i138.exs.cx/img138/6120/image0207fj.gif
1s 100fps und 1s 1fps macht im Schnitt ~50fps
1s 25 und 1s 75fps macht im Schnitt auch 50fps.

Welche von beiden ist schneller?

dildo4u
2005-03-18, 20:42:00
1s 100fps und 1s 1fps macht im Schnitt ~50fps
1s 25 und 1s 75fps macht im Schnitt auch 50fps.

Welche von beiden ist schneller?
Ja nee is klar BFV ist unspielbar auf der 6800GT weil die is von nvidia das kennen wa schon lass gut sein SP.

Cyv
2005-03-18, 20:44:29
1s 100fps und 1s 1fps macht im Schnitt ~50fps
1s 25 und 1s 75fps macht im Schnitt auch 50fps.

Welche von beiden ist schneller?


Muss ich das verstehen?
ich tue es ehrlichgesagt nicht ;)

dildo4u
2005-03-18, 20:46:58
Muss ich das verstehen?
ich tue es ehrlichgesagt nicht ;)
SP meint die 6800GT macht ihre fps nur wenn man in den himmel guckt wenn richtig aktion ist ist jede X300 schnneller weil ATI owned einfach das musst du wissen.

Dunkeltier
2005-03-18, 20:47:03
Geforce-Karten haben schlimmeres Tearing als Radeon-Karten. So jedenfalls mein subjektiver Eindruck. Außerdem muß ich bezüglich den höheren MSAA-Einstellungen und der besseren Spielbarkeit auf XL-Karten Gastkartengrafik einfach Recht geben. Ist 'ne Tatsache. Manche Spiele mögen einfach mehr Rohleistung (400 Mhz Chiptakt gegenüber den 350 Mhz der Geforce) oder überhaupt ATI lieber...

P.S.: Hatte selbst 3x verschiedene (!) Geforce 6800 GT@Ultra Karten...

StefanV
2005-03-18, 20:48:15
Ja nee is klar BFV ist unspielbar auf der 6800GT weil die is von nvidia das kennen wa schon lass gut sein SP.
Nein, aber deinen Benchmark kannst in die Tonne kloppen, da wir hier über MINIMALE FPS sprechen und nicht über DURCHSCHNITTLICHE.


Mein obiges Beispiel sollte eigentlich einleuchtend sein, worauf ich hinaus will.

ABer nee, ist klar, alle, die 'ne x800 und 6800 hatten und die 6800 nicht besser finden, sind Lügner und können nicht mit dem Rechner umgehen :bonk: :bonk:

Schonmal dran gedacht, das diesejenen welchen eventuell doch recht haben könnten und das an deren Aussagen eventuell doch was dran sein könnte?!

PS: man kann auch die Spielbarkeit faken, in dem man 'ne Karte baut, die möglichst viel möglichst hohe FPS Werte schafft, denn so kann man gut einbrüche in den Unspielbaren Bereich (ie: unter 25-30fps) in Benchmarks kaschieren...

Schau dir mal das (http://www.hardocp.com/article.html?art=NzI2LDQ=) an, das sollte selbst dir Beweis genug sein, oder?!

dildo4u
2005-03-18, 20:48:46
Geforce-Karten haben schlimmeres Tearing als Radeon-Karten. So jedenfalls mein subjektiver Eindruck. Außerdem muß ich bezüglich den höheren MSAA-Einstellungen und der besseren Spielbarkeit auf XL-Karten Gastkartengrafik einfach Recht geben. Ist 'ne Tatsache.
^V-scny on gamer

dildo4u
2005-03-18, 20:49:54
Nein, aber deinen Benchmark kannst in die Tonne kloppen, da wir hier über MINIMALE FPS sprechen und nicht über DURCHSCHNITTLICHE.


Mein obiges Beispiel sollte eigentlich einleuchtend sein, worauf ich hinaus will.

ABer nee, ist klar, alle, die 'ne x800 und 6800 hatten und die 6800 nicht besser finden, sind Lügner und können nicht mit dem Rechner umgehen :bonk: :bonk:

Schonmal dran gedacht, das diesejenen welchen eventuell doch recht haben könnten und das an deren Aussagen eventuell doch was dran sein könnte?!

PS: man kann auch die Spielbarkeit faken, in dem man 'ne Karte baut, die möglichst viel möglichst hohe FPS Werte schafft, denn so kann man gut einbrüche in den Unspielbaren Bereich (ie: unter 25-30fps) in Benchmarks kaschieren...

Ich hab doch gesagt ATI owned einfach.

Dunkeltier
2005-03-18, 20:52:22
^V-scny on gamer


Nicht nur. Bei Half-Life² habe ich es derzeit abgestellt, weil ich mir einfach das Spiel im zweiten Durchlauf mit noch mehr Kantenglättung gönnen will. Um genau zu sein, fahre ich HL² derzeit mit 1280x960@32 Bit/ 16x tri-aF/ 4x MSAA/ VSync off.

Mit der Geforce war man häufig so oder so gezwungen VSync aufgrund der Framedrops auszuschalten, was insbesondere in Battlefield 1942 übermäßig starkes Tearing trotz kaum vorhandener Objekte und Bewegung verursachte.

Aber allgemein hast du Recht, normalerweise habe ich VSync insofern möglich an, da mir so das Bild einfach ruhiger erscheint. :)

Cyv
2005-03-18, 20:54:51
Naja, die X800Xl hat mich abgeschreckt.
Ich glaube schon, dass sm3 wichtig ist.
Wenns gar nich geht, geht die karte zurück und ne x800xl kommt her

Dunkeltier
2005-03-18, 20:54:57
*gelöscht*

Dunkeltier
2005-03-18, 20:56:03
Naja, die X800Xl hat mich abgeschreckt.
Ich glaube schon, dass sm3 wichtig ist.
Wenns gar nich geht, geht die karte zurück und ne x800xl kommt her

Was hat dich denn an der Radeon X800 XL abgeschreckt? :confused:

Cyv
2005-03-18, 20:58:03
Kein SM 3 und kein Stromanschluss.
dachte mir irgendwie das is nix richtiges

dildo4u
2005-03-18, 20:59:41
Schau dir mal das (http://www.hardocp.com/article.html?art=NzI2LDQ=) an, das sollte selbst dir Beweis genug sein, oder?!
Ich dachte hier gehts um X800XL vs 6800GT da hab ich noch das zu bieten ATI powerd HL2

X800XL min23fps 6800GT min20 fps
http://www.hardocp.com/article.html?art=NzAwLDU=

StefanV
2005-03-18, 21:01:14
1. Kein Stromanschluss -> wozu, wenn das Teil (weit) weniger als 75W verbrät, ich sehe das eher als VORTEIL.
Es gibt aber auch x800XL mit Stromanschluss...

2. SM3 ist irrelevant, wichtig ist ordentliche Performance...

Adam D.
2005-03-18, 21:01:50
Ich weiß auch nicht mehr, was ich von alle dem halten soll. Paynes Einstellung zu Nvidia und Ati kennen wir jetzt so langsam :mad:
Die Benchmarks zeigen, dass X800XL und 6800GT etwa gleich auf sind. Die einen meinen, dass ihre letzte Ati deutlich schneller war, andere sagen, dass ihre letzte Nvidia schneller war und ein klareres Bild etc. hatte.
Letztendlich ist das - so denke ich - reine Einbildung. Das eine Karte hier und da mal schneller oder langsamer ist, sollte jedem klar sein. Aber dieses ganze Gebashe gegen Nvidia nervt mich schon tierisch.

dildo4u
2005-03-18, 21:02:58
2. SM3 ist irrelevant, wichtig ist ordentliche Performance...
Exakt dann kann man all die schönen neuen Games ohne PS3.0 in PS1.1 bei 200fps zocken*G* Ja SP ich weiss die 6800GT is sowie so zu lahm für jede art von PS3.0 effekt.

Dunkeltier
2005-03-18, 21:03:24
Kein SM 3 und kein Stromanschluss.
dachte mir irgendwie das is nix richtiges


Tschuldigung, aber :crazy:.

1) SM3 ist derzeit kein "must have". Die zwei bis drei Spiele, die bisher entsprechende Effekte bieten, laufen auf der jetzigen Kartengeneration eh viel zu langsam. Es sei denn, du bezeichnest die 30-40 FPS in Splinter Cell als flüssig. Oder HDR in FarCry... Gut, wenn man auf tri-aF und Kantenglättung verzichtet geht vielleicht, aber da kann ich mir das Quentchen Plus an Bildqualität eh schenken, wenn ichs gleichzeitig mit diesen Einstellungen verzichte.

2) Kein Stromanschluß würde ich eher positiv sehen - weniger Energieaufnahme. Wobei es auch Radeon X800 XL Karten mit Stromanschluß gibt, und zwar die ViVo-Karten. Die Club 3D Radeon X800 XL ViVo zum Beispiel...

StefanV
2005-03-18, 21:04:38
Ich dachte hier gehts um X800XL vs 6800GT da hab ich noch das zu bieten ATI powerd HL2

X800XL min23fps 6800GT min20 fps
http://www.hardocp.com/article.html?art=NzAwLDU=
Ach, die Rosinen kann ich mir auch mal rauspicken :rolleyes:
http://www.hardocp.com/article.html?art=NzAwLDg=

26 zu 31fps, oder hier (http://www.hardocp.com/image.html?image=MTEwMzA1Mjg0Mlg3OXo2aGt4MU9fOV8zX2wuZ2lm), FarCry mit FSAA, 20 (6800GT) zu 31 (x800XL)

Cyv
2005-03-18, 21:05:30
Aber gerade Ohne Stromanschluss hat mich geschockt.
Da alle Karten, sogar ne 9700Pro nochmal seperat saft bezieht.
Und dann so ne Karte nimmer - war mir irgendwie nich wohl.
:biggrin:
Bei meinem Abit zweifel ich sowieso immer an der optimalen Stromversorgung ;)

dildo4u
2005-03-18, 21:06:08
Ach, die Rosinen kann ich mir auch mal rauspicken :rolleyes:
http://www.hardocp.com/article.html?art=NzAwLDg=

26 zu 31fps, oder hier (http://www.hardocp.com/image.html?image=MTEwMzA1Mjg0Mlg3OXo2aGt4MU9fOV8zX2wuZ2lm), FarCry mit FSAA, 20 (6800GT) zu 31 (x800XL)
wieso rosinen? das ist ATI powerd kannst ja mal bei Riddick oder Doom3 gucken da sind die rosinen.

Bei doom3 X800XL 27FPS 6800GT 36fps min

StefanV
2005-03-18, 21:07:26
Aber gerade Ohne Stromanschluss hat mich geschockt.
Da alle Karten, sogar ne 9700Pro nochmal seperat saft bezieht.
Und dann so ne Karte nimmer - war mir irgendwie nich wohl.
:biggrin:
Bei meinem Abit zweifel ich sowieso immer an der optimalen Stromversorgung ;)
AGP -> maximal 45W
PCIe -> maximal 75W.

Dunkeltier
2005-03-18, 21:08:23
Ich weiß auch nicht mehr, was ich von alle dem halten soll. Paynes Einstellung zu Nvidia und Ati kennen wir jetzt so langsam :mad:
Die Benchmarks zeigen, dass X800XL und 6800GT etwa gleich auf sind. Die einen meinen, dass ihre letzte Ati deutlich schneller war, andere sagen, dass ihre letzte Nvidia schneller war und ein klareres Bild etc. hatte.
Letztendlich ist das - so denke ich - reine Einbildung. Das eine Karte hier und da mal schneller oder langsamer ist, sollte jedem klar sein. Aber dieses ganze Gebashe gegen Nvidia nervt mich schon tierisch.


Man wird sich doch wohl eine eigene Meinung bilden dürfen, oder nicht? Und ich persönlich denke, ich kann nach 3x Geforce 6800 GT Karten mir sehr wohl meine eigene Meinung bilden. Wie damals auch derzeit klar unter Windows die schlechteren Treiber (Spieleprobleme, unübersichtliches Control Panel), in den von mir bevorzugten Spielen schlechtere Leistung, optisch schlechteres MSAA, etc. Genauso Gurken wie die Geforce 5900 Ultra oder die Geforce 4 Ti die ich besaß. Einfach nicht auf meiner Gamer-Bedürfnisse zugeschnitten.

Eine richtig gute Karte war aus meiner Sicht dagegen die Geforce 2 Ti damals. Aber seitdem kommt irgendwie nichts mehr, was mich bei nVidia begeistern kann.

Dunkeltier
2005-03-18, 21:10:00
Ach, die Rosinen kann ich mir auch mal rauspicken :rolleyes:
http://www.hardocp.com/article.html?art=NzAwLDg=

26 zu 31fps, oder hier (http://www.hardocp.com/image.html?image=MTEwMzA1Mjg0Mlg3OXo2aGt4MU9fOV8zX2wuZ2lm), FarCry mit FSAA, 20 (6800GT) zu 31 (x800XL)


Daher rühren auch die Slow-Downs die ich meine, eine nVidia bricht halt öfters und tiefer ein. Mit VSync an bricht dir sowas erst recht das Genick.

dildo4u
2005-03-18, 21:11:33
Daher rühren auch die Slow-Downs die ich meine, eine nVidia bricht halt öfters und tiefer ein. Mit VSync an bricht dir sowas erst recht das Genick.
Ja und dafür bricht die X800XL bei opengl spielen ein jede karte hat ihre Stärken und Schwächen.

Dunkeltier
2005-03-18, 21:12:16
wieso rosinen? das ist ATI powerd kannst ja mal bei Riddick oder Doom3 gucken da sind die rosinen.

Bei doom3 X800XL 27FPS 6800GT 36fps min


Meinst du das hier:
http://www.hardocp.com/images/articles/1103052842X79z6hkx1O_3_3.gif?

Oder was? Wenn ja, du weiß das hier zwei unterschiedliche Settings ausgebencht werden?

Cyv
2005-03-18, 21:12:36
Die GF4ti46 war irgendwie arm- schade ums geld. :frown:
Die 9800Pro war sehr gut- hat sich gelohnt
Will diesmal wieder Nvidia ausprobieren und meine 3d-shutterbrille mal wieder nutzen. Schade das Ati keine Stereo Treiber integriert. Das regt mich auf.

Naja hab halt nur nen AGP-Port SP. Deswegen war ich da sehr unsicher

dildo4u
2005-03-18, 21:15:52
Meinst du das hier:

Oder was? Wenn ja, du weiß das hier zwei unterschiedliche Settings ausgebencht werden?
ähm ja sorry hier aber nicht

28 X800XL 37 6800GT gleiche settings
http://www.hardocp.com/article.html?art=NzAwLDk=

Dunkeltier
2005-03-18, 21:16:19
Ja und dafür bricht die X800XL bei opengl spielen ein jede karte hat ihre Stärken und Schwächen.


Ein weiterer Punkt wo ich aus Erfahrung lachen muß. Ich sehe eine Radeon-Karte auch unter OpenGL als eine Rakete an. Zumal es genügend Benchmarks gibt, die genau das Gegenteil deiner Aussage bezeugen könnten. Mir gehts hier nicht um 1-2 FPS am langen Penis-Mark Balken, mir gehts um die Spielbarkeit. Besser gesagt um das "subjektive Spiel- und Flüssigkeitsempfinden". Und dies ist bei ATI-Karten eindeutig besser, sonst hätte ich ja derzeit nicht wieder eine ATI-Karte nach mehreren Ausflügen hin zu nVidia.

dildo4u
2005-03-18, 21:18:42
Ein weiterer Punkt wo ich aus Erfahrung lachen muß. Ich sehe eine Radeon-Karte auch unter OpenGL als eine Rakete an. Zumal es genügend Benchmarks gibt, die genau das Gegenteil deiner Aussage bezeugen könnten. Mir gehts hier nicht um 1-2 FPS am langen Penis-Mark Balken, mir gehts um die Spielbarkeit. Besser gesagt um das "subjektive Spiel- und Flüssigkeitsempfinden". Und dies ist bei ATI-Karten eindeutig besser, sonst hätte ich ja derzeit nicht wieder eine ATI-Karte nach mehreren Ausflügen hin zu nVidia.
opengl war und ist eine Schwäche von ati karten und das schon seid anudazumal daran wirds sich whol nie was ändern auch nicht wenn du dir das schön redest so hab besseres zu tun geh wieder GT4 zocken Cya
http://img208.exs.cx/img208/5473/image0112tl.gif

Dunkeltier
2005-03-18, 21:21:55
Soll ich mal lachen? Wenn du mir so ankommst, kann ich auch mal die längeren Balken (TM) auspacken: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/sapphire_radeon_x850_xt/10/#abschnitt_rtcw_enemy_territory

StefanV
2005-03-18, 21:23:19
Sorry, Dildo, aber das ist bei <100fps absolut unerheblich, zumal du hier mal wieder mit der Durchschnittfps scheiße ankommt, die zu wirklichen Vergleichen absolut für die Tonne ist (min FPS sind da schon sinniger oder solch hübschen Diagramme wie bei HardOCP)...

130 zu 140fps sind absolut irrelevant, ja, man könnte sogar scheißegal sagen.

20fps zu 30fps hingegen sind alles als andere als irrelevant!!

Gast
2005-03-18, 21:24:08
Oder was? Wenn ja, du weiß das hier zwei unterschiedliche Settings ausgebencht werden?


komischerweise hat die 6800GT aber die deutlich höhere auflösung und ist trotzdem schneller ;)

IVN
2005-03-18, 21:24:37
Ein weiterer Punkt wo ich aus Erfahrung lachen muß. Ich sehe eine Radeon-Karte auch unter OpenGL als eine Rakete an. Zumal es genügend Benchmarks gibt, die genau das Gegenteil deiner Aussage bezeugen könnten. Mir gehts hier nicht um 1-2 FPS am langen Penis-Mark Balken, mir gehts um die Spielbarkeit. Besser gesagt um das "subjektive Spiel- und Flüssigkeitsempfinden". Und dies ist bei ATI-Karten eindeutig besser, sonst hätte ich ja derzeit nicht wieder eine ATI-Karte nach mehreren Ausflügen hin zu nVidia.


68oo GT and x800xl are s*it,Gamma Chrome rules :biggrin:




P.S. It's always funny to read those fan boy outings.
P.S.2 ''My dick is 20 cm larger becouse i have a graphics card from manufacturer x or y.'' :ass:

dildo4u
2005-03-18, 21:25:17
Soll ich mal lachen? Wenn du mir so ankommst, kann ich auch mal die längeren Balken (TM) auspacken: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/sapphire_radeon_x850_xt/10/#abschnitt_rtcw_enemy_territory
schau mal ganz unten
cpu limitiert auflösung zu niedrig trotzdem ist die 6800GT vor einer X800XT und weit vor einer X800XL so jetzt bin ich aber weg.

reunion
2005-03-18, 21:25:36
Ja und dafür bricht die X800XL bei opengl spielen ein jede karte hat ihre Stärken und Schwächen.

Nicht wenn man wie der Threadstarter mit Vsync ON spielt, da man bei ATi Karten in OpenGL Tripple Buffering erzwingen kann, was einen deutlichen Vorteil bringt.

dildo4u
2005-03-18, 21:27:06
Sorry, Dildo, aber das ist bei <100fps absolut unerheblich, zumal du hier mal wieder mit der Durchschnittfps scheiße ankommt, die zu wirklichen Vergleichen absolut für die Tonne ist (min FPS sind da schon sinniger oder solch hübschen Diagramme wie bei HardOCP)...

!
Tja nur pech das so wenige seiten so testen und nur auf eine seite verlasse ich mich nie.

dildo4u
2005-03-18, 21:29:07
Nicht wenn man wie der Threadstarter mit Vsync ON spielt, da man bei ATi Karten in OpenGL Tripple Buffering erzwingen kann, was einen deutlichen Vorteil bringt.
Jo kann sein ich kann nur von v-scny off berichten da ich ein tft hab und tearing nicht wikrlich ausmachen kann der tft an sich is ganz gut hat 20ms wenn er wirklich auf V-scny on besteht ist die X800XL möglicher weise besser.

PingpiN
2005-03-18, 21:36:46
Kommt Leute beruigt euch :redface: ;D .Beide KArten haben ihre vorteile,aber es stimmt schon eine NV Karte bricht schneller ein als eine Ati KArte.

Dunkeltier
2005-03-18, 21:38:26
Jo kann sein ich kann nur von v-scny off berichten da ich ein tft hab und tearing nicht wikrlich ausmachen kann der tft an sich is ganz gut hat 20ms wenn er wirklich auf V-scny on besteht ist die X800XL möglicher weise besser.


Dann mußt du blind sein. Die Bilddurchbrüche und Verschieberei ohne die VSync konnte selbst ich auf meinen TFT damals mehr als deutlich ausmachen. Ich sehe schon, dein Name ist Programm. Hart im nehmen. :ulol:

dildo4u
2005-03-18, 21:39:29
Kommt Leute beruigt euch :redface: ;D .Beide KArten haben ihre vorteile,aber es stimmt schon eine NV Karte bricht schneller ein als eine Ati KArte.
Schon gestestet? ziehmlich teuer 2 300€ karten auf Bruchsicherheit zu testen :ucrazy3:

dildo4u
2005-03-18, 21:43:17
Dann mußt du blind sein. Die Bilddurchbrüche und Verschieberei ohne die VSync konnte selbst ich auf meinen TFT damals mehr als deutlich ausmachen. Ich sehe schon, dein Name ist Programm. Hart im nehmen. :ulol:
Ja ich bin bekennender Low FPS Gamer bin von den Konsolen einfach keine High FPS gewöhnt das musst du entschludigen und CS ich muss immer 100FPS haben kiddi bin ich auch nicht ich geh jetzt in die ecke meines zimmers und schäme mich. :redface:

Radeon-Man
2005-03-18, 21:46:34
Da ich auch auf nem TFT mit 16ms zocke, ist Vsync pflicht!
Die einzigen Games wo die GT Vorsprung hat ist doom3 und CoD!
und bei 1280x1024 4x und 8x verschwindet auch hier der unterschied in weniger als 5 frames.
Also finde ich das 100.- Mehr Preis für die GT, absolut nicht mehr mit der Performance zu rechtfertigen ist.

dildo4u
2005-03-18, 21:52:22
Da ich auch auf nem TFT mit 16ms zocke, ist Vsync pflicht!
Die einzigen Games wo die GT Vorsprung hat ist doom3 und CoD!
und bei 1280x1024 4x und 8x verschwindet auch hier der unterschied in weniger als 5 frames.
Also finde ich das 100.- Mehr Preis für die GT, absolut nicht mehr mit der Performance zu rechtfertigen ist.
Seid wann das? so lange ich denken kann war hier im forum der erste tipp bei low fsp problemem mach mal V-snyc aus und keiner hat sich über tearing beschwert.

StefanV
2005-03-18, 21:56:06
Dann mußt du blind sein. Die Bilddurchbrüche und Verschieberei ohne die VSync konnte selbst ich auf meinen TFT damals mehr als deutlich ausmachen. Ich sehe schon, dein Name ist Programm. Hart im nehmen. :ulol:
Ja, dieser Zustand geht mir auch ganz schön auf die Nerven, weswegen ich auch meist mit VSync On spiele...

Radeon-Man
2005-03-18, 21:56:06
das kann schon sein, ich allerdings hasse den Tearing Effekt!
Aber da ich ne Radeon habe, kann ich Vsync getrost aktiviert lassen da ich auch so genügend frames bekomme!*gg*

ICh finde eben einige Games ohne Vsync extrem Störend!Heisst ja nicht das sie auf dich deshalb auch störend wirken müssen!

Cyv
2005-03-18, 22:17:04
Buhu.
Ich kann mich nicht entscheiden, ob ich meine Karte nun stornieren soll oder nicht. :(

Hab nen CRT und mich hat das VSync-off bei der 9800 Pro nie gestört.

aber ich denke ne 6800 GT @ 400/1200 für 420 ocen sind in ordnung, oder?


danke

Dunkeltier
2005-03-18, 22:30:33
Buhu.
Ich kann mich nicht entscheiden, ob ich meine Karte nun stornieren soll oder nicht. :(

Hab nen CRT und mich hat das VSync-off bei der 9800 Pro nie gestört.

aber ich denke ne 6800 GT @ 400/1200 für 420 ocen sind in ordnung, oder?


danke


Keiner meiner drei Karten ging ohne weiteres so hoch. Die Gainward war absolut schrottig und ging nur ein paar Mhz (der Speicher überhaupt nicht!!!). Die Galaxy Zeus war etwas besser, und die PoV die Krönung. Allerdings haben alle Karten eine Spannungserhöhung auf 1,4 Volt gebraucht. Sonst war tote Hose mit den 400 Mhz plus... Die neueren Radeons die ich bis jetzt hatte dagegen sind nicht so störrisch gewesen. Dort konnte man ordentlich Mhz zubuttern ohne größere Probleme.

Wie zum Beispiel die Einfrierei (4-5 Sekunden Hänger) bei zu starker Übertaktung in Battlefield 1942, 3D Mark 2005 oder in anderen Sachen. Kommt eine Radeon an ihre Grenzen gibts einfach nur Bildfehler. Aber keine Hänger oder Zurücktakter. Das war auch noch eine Sache, die mich geärgert hatte. Das ewige zurücktakten der Geforce-Karten, obwohl ich unter der automatisch ermittelten Taktrate blieb. *kotz* Gerade deswegen mußte ich ja von allen drei Karten das Bios flashen.

Schrotti
2005-03-18, 22:31:26
Buhu.
Ich kann mich nicht entscheiden, ob ich meine Karte nun stornieren soll oder nicht. :(

Hab nen CRT und mich hat das VSync-off bei der 9800 Pro nie gestört.

aber ich denke ne 6800 GT @ 400/1200 für 420 ocen sind in ordnung, oder?


danke

Ich hab auch ne 6800GT GS (400/1100 von Gainward) und hatte noch kein Spiel was ruckelt in 1280x1024.

Sollen die sich weiter streiten.
Nimm das wo du denkst das es besser ist (nach den Postings ja kein Problem mehr).

open.gl -->nvidia
dx games --> entweder ati oder nv

Mfg Schrotti

Dunkeltier
2005-03-18, 22:35:42
Buhu.
Ich kann mich nicht entscheiden, ob ich meine Karte nun stornieren soll oder nicht. :(

Hab nen CRT und mich hat das VSync-off bei der 9800 Pro nie gestört.

aber ich denke ne 6800 GT @ 400/1200 für 420 ocen sind in ordnung, oder?


danke


Wäre nicht eine Radeon X800 Pro@XT ViVo eher was für dich? Für diesen Preis würdest du so erheblich mehr Leistung kriegen. Bedenke, betrachte das Gesamtpaket.

Cyv
2005-03-18, 22:48:40
Wäre nicht eine Radeon X800 Pro@XT ViVo eher was für dich? Für diesen Preis würdest du so erheblich mehr Leistung kriegen. Bedenke, betrachte das Gesamtpaket.

Bist du dir da sicher.
Du musst bei der Karte dieser Ausführung mindestens mit ner 6800 Ultra rechnen. Sogar noch minimal mehr

Chronicle
2005-03-18, 22:57:54
Bash bumm bamm bash bing :rolleyes: :rolleyes:
ihr seids welche...
Die ati is hier besser die Gforce is da besser.
VERSTEHT ES DOCH: ES GIBT KEINE BESTE KARTE!
ich hab auch ne 6800gt u nd ja ich bin mit der performance zufrieden.
und ich konnte auch BFV mit meiner 4200 in hohen einstellungen spielen bei 1024*768 :wink:

mann ihr macht euch nen kopp...
Kauft euch die KArte die in den Spielen die ihr gerne spielt besser ist und gut. und wie es mit der realitätsnahe der internet benchs steht wissen wir doch auch alle

Gast
2005-03-18, 23:01:27
Es ist vllt. etwas OT aber das musste jetzt mal raus, wenn ich hier so einige Leute lese.

"Wenn ich der König von Deutschland währ ... dann fände ich hier die ersten Kopfschusskanidaten für meine Amtseinführung."

Ich entschuldige mich aufrichtig dafür das ich mich auf dieses(euer) Niveau herablassen musste, ich hoffe diejehnigen die es betrifft "schalten" jetzt endlich mal ihr Gehirn ein.

del_4901
2005-03-18, 23:02:45
Es ist vllt. etwas OT aber das musste jetzt mal raus, wenn ich hier so einige Leute lese.

"Wenn ich der König von Deutschland währ ... dann fände ich hier die ersten Kopfschusskanidaten für meine Amtseinführung."

Ich entschuldige mich aufrichtig dafür das ich mich auf dieses(euer) Niveau herablassen musste, ich hoffe diejehnigen die es betrifft "schalten" jetzt endlich mal ihr Gehirn ein.

Oh scheiss cookies ... das war ich

Hellknight[FA]
2005-03-18, 23:57:42
Ein weiterer Punkt wo ich aus Erfahrung lachen muß. Ich sehe eine Radeon-Karte auch unter OpenGL als eine Rakete an. Zumal es genügend Benchmarks gibt, die genau das Gegenteil deiner Aussage bezeugen könnten. Mir gehts hier nicht um 1-2 FPS am langen Penis-Mark Balken, mir gehts um die Spielbarkeit. Besser gesagt um das "subjektive Spiel- und Flüssigkeitsempfinden". Und dies ist bei ATI-Karten eindeutig besser, sonst hätte ich ja derzeit nicht wieder eine ATI-Karte nach mehreren Ausflügen hin zu nVidia.

Also "aus Erfahrung" was?

Komisch, dass z. B. in Doom 3 eine Radeon X800 XT trotz besserer Timedemo-Werte an manchen Stellen (Außenareale) ziemlich in die Knie geht. Das resultiert dann in einer schwammigen Maussteuerung. Dabei sieht das Game auf dieser Karte - um es höflich zu sagen - sogar noch "anders" aus (z. B. übertriebene Glanzeffekte).

Meine GT bleibt da immer gleich gut spielbar - trotz schlechterer Timedemo-Werte :rolleyes:

Ach so - "subjektives Spiel- und Flüssigkeitsempfinden" - was?

Da habe ich z. B. weder in FarCry noch in Half-Life 2 oder beim Stresstest von CSS Unterschiede feststellen können.

Aber hey - wir sind ja alle blöd - wie konnten wir nur nicht ATi kaufen ;D ;D

Hellknight[FA]
2005-03-19, 00:05:34
Schon gestestet? ziehmlich teuer 2 300€ karten auf Bruchsicherheit zu testen :ucrazy3:


Staubtrocken ausgekontert :D :ugly: ;D

hmx
2005-03-19, 00:31:57
']Also "aus Erfahrung" was?

Komisch, dass z. B. in Doom 3 eine Radeon X800 XT trotz besserer Timedemo-Werte an manchen Stellen (Außenareale) ziemlich in die Knie geht. Das resultiert dann in einer schwammigen Maussteuerung. Dabei sieht das Game auf dieser Karte - um es höflich zu sagen - sogar noch "anders" aus (z. B. übertriebene Glanzeffekte).

Meine GT bleibt da immer gleich gut spielbar - trotz schlechterer Timedemo-Werte :rolleyes:

Ach so - "subjektives Spiel- und Flüssigkeitsempfinden" - was?

Da habe ich z. B. weder in FarCry noch in Half-Life 2 oder beim Stresstest von CSS Unterschiede feststellen können.

Aber hey - wir sind ja alle blöd - wie konnten wir nur nicht ATi kaufen ;D ;D

Es ist doch immer das selbe. Wenn man keine vernünftigen Argumente findet, da die Fakten gegen einen sprechen wird eben der Zauberstab rausgeholt und von irgendwelchen subjektiven Eindrücken ala "kommt mir Trotzdem flüssiger vor". Nur dumm, dass man diese Aussagen genausowenig wiederlegen wie beweisen kann, aber das hat sicherlich überhaupt nichts mit den Gründen wegen den man solche Ausflüchte macht zu tun :rolleyes:. So ist das ahlt mit den Subjektiven Eindrücken. Die werden halt von jedem anders wahrgenommen. Und wenn Herr Payne sagt ihm kommen Spiele auf einer Ati-Karte "einfach flüssiger" vor dann glaub ich ihm das sogar :D.


@threadstarter

Wie lang willst du die Karte denn behalten? Wenn du sie lange behalten willst sollte es wg SM3 schon die 6800gt sein andernfalls wenn du nach einem 1/2 Jahr die Karte eh wieder rausschmeisst kommst du wohl auch ohne hin.

kmf
2005-03-19, 00:57:31
Gell, ich brauche hier nicht moderierend einzugreifen? Ihr habt das auch ohne mich voll im Griff. :)

Radeon-Man
2005-03-19, 02:51:31
Hab hier nen super test gefunden!
Heir sieht man die unterschiede bei AA und AF von ATI und Nvidia KArten!

Jetzt weiss ich wieder warum ich nicht gern mit nvidia gezockt hab!

der unterschied ist absolut krass!

http://www.zdnet.de/enterprise/client/0,39023248,39125640-11,00.htm

Radeon-Man
2005-03-19, 02:56:51
info zdnet:
Mit dem jetzigen Produkt-Refresh von ATI könnte sich das Blatt aber wenden: Der X800 XL geht im Vergleich zum 6800 GT meist als Sieger vom Platz. Lediglich bei Doom3 bietet der Geforce klare Vorteile.
....
Geht man von dem jetzigen Preis einer X800 Pro-Grafikkarte aus, würde damit der Preis für eine leistungsfähige High-end-Grafikkarten um etwa 150 Euro sinken

hmx
2005-03-19, 03:27:08
Also an den Streckenbegrenzungen kann man den Unterschied beim AA schlecht festmachen, denn dass ist nur eine Textur und die wird vom AA nicht geglättet.
Der Übergang von der weissen Streckenbegrenzung zur grauen Strasse liegt definitiv innerhalb einer Textur und daher hat der Unterschied nichts mit dem AA zu tun.
Am ehesten geht das beim Kran etwas in der Mitte des Bildes oder an den Leitplanken.
Ich denke mal das liegt an der Texturfilterung. Sonst sieht das AA nämlich an fast allen anderen Kanten mehr oder weniger gleich aus. Im unterem Abschnitt ist übrigens auch von schlechterem AF bzw unschärferen Zuschauern die reden (was im übrigen im Posting schön unterschlagen wurde).

edit: Hab die anderen Bilder mal durchgeguckt und da ist mir ausfgefallen, dass es dort das selbe ist: innerhalb der Streckenbegrenzungstextur Aliasing und tw auch Moiree beim NV40. Ich denke mal das mit aktiviertem LOD-Clamp das Bild genauso aussehen würde wie bei den Atis denn ansonsten ist die Kantenglättung an den Polygonkanten gleichwertig (auf meinem Monitor imo sogar etwas besser aber es kann sein, dass das Gammakorrekte Downfiltering bei Atis AA bei mir eher Kontraproduktiv wirkt).
Sehr schön kann mans im Übrigen auch hier auf der Motorhaube sehen:
http://www.zdnet.de/i/et/client/Grafikkarten/Geforce6800GT/2_nvidia4xaa8xaf_101824.jpg

Das hat nix mit der AA-Qualität zu tun sondern eher mit Negativem LOD.

Dunkeltier
2005-03-19, 04:36:42
']Also "aus Erfahrung" was?

Komisch, dass z. B. in Doom 3 eine Radeon X800 XT trotz besserer Timedemo-Werte an manchen Stellen (Außenareale) ziemlich in die Knie geht. Das resultiert dann in einer schwammigen Maussteuerung. Dabei sieht das Game auf dieser Karte - um es höflich zu sagen - sogar noch "anders" aus (z. B. übertriebene Glanzeffekte).

Meine GT bleibt da immer gleich gut spielbar - trotz schlechterer Timedemo-Werte :rolleyes:

Ach so - "subjektives Spiel- und Flüssigkeitsempfinden" - was?

Da habe ich z. B. weder in FarCry noch in Half-Life 2 oder beim Stresstest von CSS Unterschiede feststellen können.

Aber hey - wir sind ja alle blöd - wie konnten wir nur nicht ATi kaufen ;D ;D

Wohl immer noch nicht verstanden, dann lieb bitte noch einmal *das hier* (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2833501&postcount=28). Dort habe ich eindeutig und klar geschrieben, das es auf mehrere Gesichtspunkte ankommt! Was zählt ist nicht nur ein Spiel, oder ein Feature. Schon vergessen? Die:
- verkackten Treiber
- fehlerhafte bzw. fehlende Videobeschleunigung
- miserabler TV-Out
- kein gammakorrigiertes MSAA
- laute Referenzlüfter
- smootheres Spielgefühl
- etc.

Und falls jemand noch einmal meint mit Doom III kommen zu müssen, den erinnere ich dann mal daran das die derzeit populärsten Shooter-Engines fast alle ausnahmslos auf Direct 3D basieren und auch die meisten Spiele (der überwiegende Teil) dafür erscheinen. Die Unreal-Engine, die FarCry-Engine und zu guter letzt die Half-Life² Engine sei hier genannt (für die auch hoffentlich bald meine Lieblingsmodifikation "Natural Selection 2.0" erscheint).

Und nur weil die X800-Reihe in einem OpenGL-Spiel wie Doom III auch mal zurückstecken muß, heißt es noch lange nicht das diese eine allgemeine OpenGL-Schwäche haben - wie es sich manche gerne wünschten. Dazu verweise ich zum Beispiel auf *diesen Computerbase-Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/ati_radeon_x850_xt_platinum_edition/10/#abschnitt_rtcw_enemy_territory), wo nVidias Spitzenmodelle gegenüber der ATI-Konkurrenz überwiegend schlicht im Regen stehen. Oder auf den damaligen Jedi Knight Benchmark...

Und zu guter letzt der Preis. 380 Euro für eine Radeon X850 XT (bzw. 438 Euro für die Radeon X850 XT PE, wobei diese doch eigentlich gegen die eh niemals erhältliche Geforce 6800 Ultra Extreme positioniert ist) und 492 Euro für eine sehr schwer lieferbare Geforce 6800 Ultra. Wenn wir nach den Preis gehen, müßte man eigentlich ganz anders vergleichen.

Gleiches auch im Midrange-Bereich, die Radeon X800XL Karten (273 Euro) leistungsmäßig auf gleicher Augenhöhe mit der Geforce 6800 GT (372 Euro) - und dazu noch bedeutend günstiger. Was solls, wozu noch lang rumdiskutieren?

XC4
2005-03-19, 06:23:03
John Carmack hat seine Seele doch an Nvidia verkauft.
Das hat doch nichts mit den OpenGL Fähigkeiten der ATI Karten zu tun.

TobiWahnKenobi
2005-03-19, 07:21:34
hmm.. schön das mich das nicht betrifft (das mit der 1600er auflösung, meine ich). hier ist die GT für die maximale TFT auflösung stark genug. für alles.. auch mit AA/AF..

bei NV gefällt mir der mehrschirm-support besser, als bei ATI. auch ist der treiber funktioneller, schneller geladen, stabiler und einfach "runder"..

aktuelle spiele laufen mehr als sauber.. oft "braucht" man den vsync, damit die frames nicht zerreissen..
probleme mit treibern (gelbes wasser in HL² oder ähnlich) gibt's hier nicht. ich hab zwar auch ab und an ne billigkarte am start, aber wenn die zickt, wird sie ausgetauscht (bsp. 66GT und GTe).die 68 GT macht jedenfalls keine zicken und stürzt auch ab..

das auf seite eins erwähnte rep-commando spiele ich auch sehr gern. mit über 60fps (1280x1024 3fachAA, vsync per forceware off).. dass die frames mit Vsync in hohen auflösungen mit AA droppen können, liegt an was ganz anderem (hier also an einer falschen einstellung des users / er kann ja vsync in der FW disablen).

ansonsten soll sich doch jeder kaufen, was er gut findet. über geschmack kann man nicht streiten und man kann immer situationen suchen respektive darstellen, wo die ein oder andere karte einbricht (bsp. FX cooler demo auf FX karten, ATI karten und doom3 shadows, etc.).. es wird immer stellen in games geben, wo es drastische einbrüche gibt. mit einer karte hier - mit der anderen da..

treiber hickhack kann ich gegenwärtig nicht nachvollziehen. bei ATI gibt's treiber, die die fps erhöhen - bei NV auch.. problematische hardware/treiber hatte ich bisher bei noch keinem hersteller.. wenn man von ATIs VIVO funktionen und dem controlcenter mal absieht (funktionen und ladezeiten sind nicht so mein geschmack, VIVO ist matschiger kinderkram).

ich würde nicht so sehr auf bereits erschienenen titeln rumreiten, die laufen eigentlich auf jeder high-end generation sauber.. meist (mit gesunden settings) sogar auf middle oder entryclass karten. man sollte vielleicht die games auf D3 und Q4 engine mit einbeziehen.. und selbige auch nicht unterschätzen. viele echt gute shooter aus der vergangenheit basieren auf der Q3 engine. das wird mit D3 und Q4 nicht anders sein; ATI ist hier immer im hintertreffen.. da kann man auch flamen, was man will -> den umstand ändert es nicht.

die ID titel werden ebenfalls einen gehörigen marktanteil haben und codetechnisch auch sauberer sein, als die crytek oder valve derivate. auf ID konnte man bisher immer bauen.. da kam noch nie schrott (besonders nicht für nv user)..

schön dass man eine graka tauschen kann, oder? kann man sich reinstecken, was man will und was der geldbeutel hergibt..

einen pauschalen flamewar zu führen, nach dem "motto was ist besser", ist doch echt quatsch. das ist wie ein vergleich mit äpfel und birnen..

wer also hier einen pauschalvergleich sucht, hat echt langeweile und ist (aus meiner sicht) auf dem falschen dampfer unterwegs. Es gibt verschiedene nutzerprofile und ansprüche; die meisten meiner eigenen bekannten, sind auch schon zu weit entwickelt (im geiste und alterstechnisch), als dass sie eine karte, nur an den zockframes festmachen oder bewerten würden.

ich werde das im juni oder juli mal checken. dann sollte wieder ein neuer rechner angeschafft werden und vielleicht teste ich das mal mit der ATI aus.. sie ist ja billig genug, um nicht zuviel geld ans bein zu binden.. ;)

ich bin dafür, dass noch absurdere einstellmöglichkeiten in die games einzug halten.. damit kann man dann die ganzen high-end chips an die grenze bewegen.. wie wärs denn mit 32fach AA oder 128fach AF ?? es gibt sicher dullies, die sowas dann auch aktivieren und hinterher schreiben, dass es in 1960x2048 einfach scheisse läuft, selbst mit 64facher kantenglättung.. LOL

schön wäre es auch, würde sich jeder 2 TFTs kaufen. dann wären sicher auch noch die letzten ATI user, ins NV lager gewechselt; bei matrox bekommt man ja leider zu wenig zockperformance zum erstklassigen bildschirm-support geboten..

greets
tobi

The_Invisible
2005-03-19, 08:26:33
John Carmack hat seine Seele doch an Nvidia verkauft.
Das hat doch nichts mit den OpenGL Fähigkeiten der ATI Karten zu tun.

achso, deswegen ist ne fx5900 in opengl LINUX so schnell wie ne x800XT, schon klar ;D

das zeigt wohl am deutlichsten wie es um ATI und OpenGL steht, und ist für mich auch immer wieder ein Grund zu Nvidia zu greifen. das jede Karte ihre schwächen und stärken hat sollte eigentlich jeder wissen, einfach zu behaupten bei ATI ist alles besser ist für mich kindergartenniveau.

und zu SC3: manche ATI User waren/sind so angefressen das sie das game nicht mit SM3.0 spielen können das sie es garnicht kaufen und sogar für schlecht halten (obwohl die vorigen teile geliebt)

naja, mir kanns egal sein, meine 6800gt halte ich für eine potente karte mit vielen features und sehr guter bildqualität. vsync hatte ich schon seit tnt2 zeiten nicht mehr an.

mfg

dildo4u
2005-03-19, 08:36:28
info zdnet:
Mit dem jetzigen Produkt-Refresh von ATI könnte sich das Blatt aber wenden: Der X800 XL geht im Vergleich zum 6800 GT meist als Sieger vom Platz. Lediglich bei Doom3 bietet der Geforce klare Vorteile.
....
Geht man von dem jetzigen Preis einer X800 Pro-Grafikkarte aus, würde damit der Preis für eine leistungsfähige High-end-Grafikkarten um etwa 150 Euro sinken
Seid wann ist denn zdnet eine super quelle für tests? das 3Dcenter review sieht das deutlich anders http://www.3dcenter.org/artikel/ati_radeon_x850/

SamLombardo
2005-03-19, 09:11:59
@Threadstarter: Mit der 6800GT (256mb) machst Du nichts falsch.
Die R420 Karten sind durchaus sehr schnell, werden aber sehr bald (mit diem R520 wird SM3.0 deutlich an Bedeutung zunehmen, da dann beide großen Hersteller dieses anbieten) nicht mehr alle Effekte darstellen können. (ist ja eigentlich schon jetzt der Fall.)

Ati bringt im Q2 2005 den R520 der SM3.0 unterstützt, d.h. schneller als hier so manchen lieb ist wird SM3.0 in die Spiele einzug halten - ganz einfach deswegen, weil in Kürze alle High End Karten damit ausgestattet sind. Der R420 ist tech level von 2002, wenn auch wegen hoher Taktraten für einige HEUTIGE Games die schnellste Karte! Wenn du mit dem Sys aber bis 2006 up to date sein willst sollte es eine SM3.0 Karte sein, aus oben genanntem Grund.
Viele für 2005 angekündigte Games nutzen SM3.0 (Gothic 3. Elder Scrolls Oblivion, Stalker...) Diese wirst Du mit einer R420 wohl gut spielen können, musst aber wohl auf einige optische Schmankerl verzichten...


Sam

StefanV
2005-03-19, 09:57:11
Und falls jemand noch einmal meint mit Doom III kommen zu müssen, den erinnere ich dann mal daran das die derzeit populärsten Shooter-Engines fast alle ausnahmslos auf Direct 3D basieren und auch die meisten Spiele (der überwiegende Teil) dafür erscheinen. Die Unreal-Engine, die FarCry-Engine und zu guter letzt die Half-Life² Engine sei hier genannt (für die auch hoffentlich bald meine Lieblingsmodifikation "Natural Selection 2.0" erscheint).
Richtig, einmal das, zum anderen sind manche aktuelle OGL Games einfach nur Schrott!!

Sprich die hätten noch 3-6 Monate gebraucht, um richtig fertig zu werden, besonders krass fällts bei KOTOR2 auf, welches ja bekanntlich nur ein halbes Ende hat und am Ende etwas unlogisch und 'holprig' wird...

dildo4u
2005-03-19, 10:01:14
Richtig, einmal das, zum anderen sind manche aktuelle OGL Games einfach nur Schrott!!

Sprich die hätten noch 3-6 Monate gebraucht, um richtig fertig zu werden, besonders krass fällts bei KOTOR2 auf, welches ja bekanntlich nur ein halbes Ende hat und am Ende etwas unlogisch und 'holprig' wird...
Ja ne is klar die games sind schrott weil sie auf OPENGL Basieren. :hammer:

dildo4u
2005-03-19, 10:10:26
*diesen Computerbase-Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/ati_radeon_x850_xt_platinum_edition/10/#abschnitt_rtcw_enemy_territory), wo nVidias Spitzenmodelle gegenüber der ATI-Konkurrenz überwiegend schlicht im Regen stehen. Oder auf den damaligen Jedi Knight Benchmark...

Hä bei Hoher auflösung mit AA und Aniso ist eine 6800 für 230€ schhneller als eine 400€ X800XT ich frag mich wo das was für ATI spricht?

StefanV
2005-03-19, 10:10:28
Ja ne is klar die games sind schrott weil sie auf OPENGL Basieren. :hammer:
Nein, die Games sind schrott, weil sie nicht ordentlich geproggt sind und mehr Bugs als Features und Storyelemente haben.

Vielleicht solltest du mal drübern nachdenken und mal akzeptieren, das es so ist, anstatt irgendeinen dummen Kommentar loszulassen, besonders wenn du von den Games, die ich meinen könnte, keine Ahnung hast :rolleyes:

Und eben, bei Kotor2 ists offensichtlich, das da irgendwas große scheiße ist, bzw irgendwer große scheiße gebaut hat, was du aber erst merkst, wenn dus durch hast :rolleyes:

Sprich:
Man merkt irgendwie, das denen am Ende das Geld und die Zeit ausging und es mit Gewalt auf den Markt geworfen wurde, mit massig Fehlern, unfertigen Storys und ähnlichem Müll...

dildo4u
2005-03-19, 10:11:31
Und eben, bei Kotor2 ists offensichtlich, das da irgendwas große scheiße ist, was du aber erst merkst, wenn dus durch hast :rolleyes:
Aha und was hat opengl mit der Schlechten Story oder so zu tun?BTW Doom3 war eins der bugfreiesten Games im letzten jahr wenn man sich dagegen mal das Farcry patch debakel anschaut.

StefanV
2005-03-19, 10:14:07
Aha und was hat opengl mit der Schlechten Story oder so zu tun?
Richtig, einmal das, zum anderen sind manche aktuelle OGL Games einfach nur Schrott!!
Irgendwie hab ich das Gefühl, das du dir:
a) keine Mühe machst, meine Postings zu verstehen
b) einfach nur irgendwas wild drauflos postest, hauptsache es untermauert deine Meinung :rolleyes:

Du hast sicher schonmal drüber nachgedacht, das es unter D3D einfacher ist, alle Karten gleich zu behandeln als unter OGL, oder?!

Du weißt ja auch, das man unter OGL ganz große scheiße bauen kann und somit einen Hersteller stark bevorzugen kann, stichwort NWN, oder?!

€dit:

Nochmal für dich:
Die Story bei KotoR2 ist _NICHT_ schlecht, sie ist nur nicht ganz fertig geworden und das ganze macht den Anschein, das das Game auf den Markt geprügelt wurde...

Mastersdeath
2005-03-19, 10:25:18
I
Die Story bei KotoR2 ist _NICHT_ schlecht, sie ist nur nicht ganz fertig geworden und das ganze macht den Anschein, das das Game auf den Markt geprügelt wurde...

Was hat da mit Nvidia und ATI zu tun ? ;D :|

Coda
2005-03-19, 10:34:34
Also man kann sich vieles einbilden, aber ATis OpenGL Treiber ist wirklich nicht auf dem gleichen Stand wie nVidias.

Ich weiß nicht woran es liegt, aber die Messungen die ich gemacht habe sind eindeutig und mir fällt jetzt gerade auch kein OpenGL Benchmark ein wo ATi vorne liegt.

Strayed
2005-03-19, 10:36:14
Buhu.
Ich kann mich nicht entscheiden, ob ich meine Karte nun stornieren soll oder nicht. :(

Erstmal die Frage: Wo willst du überhaupt eine X800XL für AGP herbekommen?
Und AGP-X800XL ohne Stromanschluss->wird es niemals geben

TobiWahnKenobi
2005-03-19, 10:44:10
Und eben, bei Kotor2 ists offensichtlich, das da irgendwas große scheiße ist, bzw irgendwer große scheiße gebaut hat, was du aber erst merkst, wenn dus durch hast

ich hab das nur auf der xbox gezockt, aber von gravierenden fehlern habe ich nichts bemerkt.. ist das so heftig, dass ich vielleicht mein geld wiederbekommen kann?? die 50€ könnte ich gut vertanken.. ;) und nochmal spiele ich's eh nicht.

mfg
tobi

Hellknight[FA]
2005-03-19, 11:03:18
Fassen wir den Thread zusammen:

Mr. Payne sagt "Kauft Euch ATi-Karten" und wir...

Halt - Moment mal :ugly:

Ist das hier nicht ein nVidia Forum? Wieso trollen hier fast ausschließlich FanATiker rum? Wieso ist der Thread welcher sich offensichtlich in Richtung "meiner ist größer..." bewegt immer noch offen?

Fragen über Fragen...


Timo

Cyv
2005-03-19, 11:07:57
Mhh, wenn der R520 erst im Q2 rauskommt dann wären sie im Winter verfügbar und dann genau in einem Jahr zu humanen preisen zu haben. :biggrin:
SM 3.0 ist mir doch dann irgendwie wichtig.
Und ne Karte die schneller is als ne 6800U ist mir die 420€ wert.

mustrum
2005-03-19, 11:15:00
Die x800 XL ist sicher eine gute Karte für ihr Geld. Das Problem: Mit dem r520 am Horizont werden sich die Entwickler nun endgültig auf SM3.0 stürzen was das Todesurteil für 2.0b bedeuten wird.
Ich denke, daß sich Fälle wie Splinter Cell häufen werden. Aus diesem Grund würde ich keine x800 XL kaufen. Wer die Karte sowieso nicht so lange behalten will, dam kanns natürlich egal sein.

Akira20
2005-03-19, 12:10:42
Sorry, aber dieses Forum ist immer wieder für ein "Drop-Down" in ihrem Niveau gut.

Man hat das Gefühl, dass Herr Payne mehr Zeit im NV-Forum verbringt, als im Ati-Forum. Aber wir sollten ihm dankbar sein, dass er so fleißig missioniert.
Hut ab!
Ich persönlich bin von einer Radeon 9700 auf eine (Herr Payne bitte nicht schlagen) GF6800GT umgestiegen. Und was soll ich sagen?! Es hat sich gelohnt. Atis X800-Reihe ist leider nur ein Aufguss der alten R300-Reihe und war somit uninteressant.
NV hat mit dem NV40 ein gänzlich neues Design rausgebracht, was für mich den Ausschlag gebracht hat. Ich kaufe gerne fortschrittliche Technik.
Natürlich weiß ich, dass die wirklichen SM3-Hammer auf der GF6800GT nicht mit 100FPS laufen werden, aber den Athlon 64 habe ich mir auch gekauft, obwohl es noch keine richtigen (von Betas abgesehen) 64-Bit Anwendungen gibt.
Ich für meinen Teil könnte es nicht akzeptieren, dass ich mächtig viel Geld ausgebe, aber trotzdem nicht die fortschrittlichste Technik habe.
Aber alle Ati-Käufer sehen, dass aber scheinbar anders. Wenn dann aber ein Spiel rauskommt, dass SM3 unterstützt (=>SC3), dann ist das Gejaule bei den Ati-Anhängern groß.
Ati-Anhänger:
"Wieso benutzen die SM3? Mit SM2.0b siehts doch fast genauso gut aus!"
Ich:
"Tja Leute, es wird halt neuere Technik benutzt. Man kann nicht ewig mit der alten Technik rumdümpeln. That`s Life!"

So und nun zum Threadstarter:
Es ist schon eine schwierige Entscheidung, sich eine neue GraKa zu kaufen.
Es gibt im I-Net tausende von Benchmarks/Reviews, die das Thema x800XL gegen 6800Gt zum Thema haben. Wer Google benutzten kann ist hier im Vorteil.
Aber ich ersehe es natürlich als noble Geste, dass du uns im NV-Forum mit so einem Flame-Thread (alleine schon der Titel "x800XL gg. 6800Gt", klingt schon fast wie "Alien vs. Predator" LOL) beehrst.
Natürlich gibt es hier im 3DC das Kaufberatungs-Forum nur als lustiges Spassforum.
Wir sind im Nv-Forum doch immer dankbar für etwas Zunder.
Also lieber Threadstarter:
Da du scheinbar genug Geld hast, um dir eine der beiden Karten zu kaufen, solltest du auch alt genug sein, dir eine eigene Meinung zu bilden und dir zu kaufen, was dir am meisten zu sagt. Pro und Kontras findest du im jeweiligen Forum (Pro x800 => Ati-Forum, Pro 6800GT => NV-Forum).

So ich habe meinen Teil zu der Diskussion beigetragen, jetzt kann weiter geflammed werden ;D ;D ;D ;D ;D ;D

MfG
Akira20

kmf
2005-03-19, 12:28:16
Hört mir bloß auf, unangemessen polemisch zu werden. Ihr könnt wegen meiner hier um das Thema diskutieren, bis die Fetzen fliegen. Ich will aber keine Infragestellerei, warum der Thread noch offen ist - Keine Angst, ich hab den Thread im Auge, weder will ich, daß ihr persönlich werdet. Und schon garnicht will ich lesen, daß sich hier FanATiker oder nvIdioten tummeln und als solche beschimpft werden. Ist das soweit klar?

Dr.Dirt
2005-03-19, 12:36:23
Ich hatte ja auch 7 Monate eine 6800GT. Die Karte ist an sich nicht schlecht und war zum damaligen Zeitpunkt die beste Wahl. Fortschrittliche Technik, besseres Preis/Leistungsverhätnis und ich hatte zuvor bereits 2 ATI Karten und wollte mal was anderes probieren.
Positiv: Im Bereich 3D-Leistung war ich mit der Karte zufrieden, deutlich spürbare Mehrleistung gegenüber 9800 Pro 256MB, die ich davor hatte.

Doch leider gab es auch gravierende Bugs in Bezug auf Videos mit den NV Treibern. Ich habe in den 7 Monaten nicht einen Treiber gefunden, der bugfrei war, angefangen bei 61.77 bis hin zum 75.90 (den jetzigen offiziellen hab ich nicht mehr mitbekommen).
Das ist echt ein Trauerspiel, was NV da abliefert.

Bisher klapt das Abspielen von Videos bei ATI fast reibungslos (die TV-Out settings haben teilweise ein merkwürdiges Eigenleben) und die 3D leistung ist auch in ausreichender Leistungsfähigkeit ;D vorhanden.

Nach meinen bisherigen Erfahrungen kann ich nur von NV abraten, wenn die Karte auf dem TV Videos anzeigen soll.
Wenn nur gezoggt wird, ist es egal, welche man nimmt.

reunion
2005-03-19, 12:36:49
Seid wann ist denn zdnet eine super quelle für tests? das 3Dcenter review sieht das deutlich anders http://www.3dcenter.org/artikel/ati_radeon_x850/

Bei diesem Preview ist Leo wohl einges durcheinander gekommen, immerhin schlägt eine 6800U in HL2 eine X850XT PE, es gibt Seiten da schafft das nichtmal ein 6800U SLI System.

dildo4u
2005-03-19, 12:45:29
Bei diesem Preview ist Leo wohl einges durcheinander gekommen, immerhin schlägt eine 6800U in HL2 eine X850XT PE, es gibt Seiten da schafft das nichtmal ein 6800U SLI System.
Hängt sher davon ab welche timedemo HL2 is eh CPU limitiert in den meisten Timedemos .

StefanV
2005-03-19, 13:03:33
Nach meinen bisherigen Erfahrungen kann ich nur von NV abraten, wenn die Karte auf dem TV Videos anzeigen soll.
Wenn nur gezoggt wird, ist es egal, welche man nimmt.
Stimmt, ein ähnliches Problem hatte ich mit meiner PCI Express 6600 auch, die partout nicht den Film auf dem TV im Vollbild abspielen wollte.

Dafür gings aber umgekehrt sprich Vollbild auf dem TFT, was ja äußerst wünschenswert bei einem 28" TV und 17" TFT ist...

gruntzmaker
2005-03-19, 13:06:03
Hängt sher davon ab welche timedemo HL2 is eh CPU limitiert in den meisten Timedemos .

Was auch mit einem kleinen Seitenhieb auf anandtech versehen, beschrieben ist.
-Die Geforce 6800 Ultra ist in dem Fall schneller
-Dass 3dcenter sich auch eigene Timedemos macht, finde ich klasse, das nenn' ich mal Objektivität, könnte sich manch eine andere Seite was von abschneiden

Die Diskussion wegen X800Xl vs GT halte ich aber auch für son ne Sache, beide Karten erscheinen auf gleichem Niveau in derzeitigen Spielen zu liegen,

@threadersteller ich geb dir nen guten Rat: Werf die Münze!
@stefan payne: normalerweise würde ich nicht alles schlucken was HardOCp so von sich gibt ;), deren Tests, was meine Asus V9999 GT angeht hab ich gesehen, nett aber die der PCGH stimmten und die von OCP nicht... aber das Forum ist wenigstens *hust* nicht parteiisch.

Dunkeltier
2005-03-19, 13:50:56
Aha und was hat opengl mit der Schlechten Story oder so zu tun?BTW Doom3 war eins der bugfreiesten Games im letzten jahr wenn man sich dagegen mal das Farcry patch debakel anschaut.


Bugfrei mag sein. Dafür technisch sehr schwach. Massig Indoor-Level. Grafik auf den Technik-Stand einer nVidia Geforce. So eckige Gegner, das Half-Life² wie die Rundung einer Brust aussieht. Schatten, die mit Realismus genauso wenig am Hut haben wie die aus FarCry oder Half-Life². Und dann die verdammt niedrig aufgelösten und undetaillierten Texturen - oh Gott.

Welch ein wunderbarer Preis, für solch ein Durchschnittsspiel auf welches tausende von Spielern jahrelang gewartet haben. Das konnte weder technisch, noch inhaltlich überzeugen. Da sind mir die Füße eingeschlafen. Viel eher halten mich dagegen so Sachen wie AVP² vor dem Monitor gefesselt - obwohl...das ist für mich zu hart. X-D

Jedenfalls traue ich zukünftig der Lightech- und der Unreal-Engine schlichtweg mehr zu.

Dunkeltier
2005-03-19, 13:54:34
Ich hatte ja auch 7 Monate eine 6800GT. Die Karte ist an sich nicht schlecht und war zum damaligen Zeitpunkt die beste Wahl. Fortschrittliche Technik, besseres Preis/Leistungsverhätnis und ich hatte zuvor bereits 2 ATI Karten und wollte mal was anderes probieren.
Positiv: Im Bereich 3D-Leistung war ich mit der Karte zufrieden, deutlich spürbare Mehrleistung gegenüber 9800 Pro 256MB, die ich davor hatte.

Doch leider gab es auch gravierende Bugs in Bezug auf Videos mit den NV Treibern. Ich habe in den 7 Monaten nicht einen Treiber gefunden, der bugfrei war, angefangen bei 61.77 bis hin zum 75.90 (den jetzigen offiziellen hab ich nicht mehr mitbekommen).
Das ist echt ein Trauerspiel, was NV da abliefert.

Bisher klapt das Abspielen von Videos bei ATI fast reibungslos (die TV-Out settings haben teilweise ein merkwürdiges Eigenleben) und die 3D leistung ist auch in ausreichender Leistungsfähigkeit ;D vorhanden.

Nach meinen bisherigen Erfahrungen kann ich nur von NV abraten, wenn die Karte auf dem TV Videos anzeigen soll.
Wenn nur gezoggt wird, ist es egal, welche man nimmt.


Die Krönung an den nVidia-Treibern war, das nach dem abspielen von Videos jedesmal meine ganzen Bildschirmsettings verstellt waren. :urolleyes Das war für mich die allerkotzigste Angelegenheit. Da habe ich echt geflucht.

TobiWahnKenobi
2005-03-19, 14:32:54
dann freue ich mich mal, dass ich die GT erst gekauft habe, als der letzte offizielle treiber raus kam.. 71.84 meine ich..

damit habe ich absolut keine probleme. ihr wisst ja sicher, dass
ich schon seit jahren mit video/dv und mehreren TFTs rumhantiere (weshalb ich auch die FX so mochte)..

habe absolut keine probleme mein overlay auf den TV-out zu legen. auch nicht auf display eins oder zwei..

absolut gewohntes niveau.. nur die profile wollen noch nicht
so, wie ich gern möchte. aber das kann auch daran liegen, dass
ich sie einfach von dem barton/fx system importiert habe..

werde die bei gelegenheit neu anlegen und dann mal sehen, ob da wirklich was im argen liegt.

wenn ich bei meiner arbeit (so nennt man wohl das, was ich mit dem rechner vorrangig mache) nicht auf bugs treffe, wenn spiele in besten auflösungen freeze- und absturzfrei laufen und wenn ich auch noch bestnoten bei benchmarks einfahre, kann ich einfach nicht glauben, was ihr hier so zum thema treiberprobs etc. lese.

mit grausen erinnere ich mich da an die übergangszeit zurück (als ich im A64 noch eine ATI karte hatte) --> lausige treiber, controllcenter mit ladezeiten, unmögliche konfiguration der beiden TFTs und des TV-out.. von SVHS in/out probs und bildschwächen ganz zu schweigen, hat die karte falsche frequenzen an mein TFT geschickt, wenn ich mit eingestöpselter VIVOpeitsche im VESA mode unterwegs war.. auch games liessen sich nicht mit jedem treiber und in jeder auflösung nutzen.. eigenlich liefen die wenigsten games anständig.

ich bin der meinung, dass jemand, der ausser spielen und benchmarken, nichts von seiner grafikkarte fordert, ungeeignet ist, ein gültiges urteil abzugeben.

ich führe das jetzt auch nicht weiter aus - jeder, der ähnliche ambitionen hat, wird wissen was ich meine und sicher auch keine ATI karte kaufen.

ATI baue ich bei leuten ein, die vorrangig mit ihrem PC zocken, die mit einem schirm auskommen und ggf. mal den TV out nutzen wollen. für VIVO und fortgeschrittene mehrschirmgeschichten entweder matrox bzw wenn man auch zocken will: NV.

mfg
tobi

Dunkeltier
2005-03-19, 14:43:14
(...)

ich bin der meinung, dass jemand, der ausser spielen und benchmarken, nichts von seiner grafikkarte fordert, ungeeignet ist, ein gültiges urteil abzugeben.

(...)


Tja, gut das ich mich nicht nur aufs spielen und benchmarken beschränke. Nicht umsonst habe ich noch eine DVB-T Karte im System, einen DV-Camcorder sowie die Glotze am PC hängen. ;) Und spiele auf meiner Kiste entsprechend DVDs ab... Tja, dumm nur das nVidia von Haus aus Trauerahmen und Macrovision-Schutz mitbringt. :P

TobiWahnKenobi
2005-03-19, 14:53:31
cool. dvb-t hab' ich auch.. im PC und stationär am TV..

aber ich habe leider keine trauerränder und auch keine probs mit macrovision..

das letzte mal, das ich den overscan mode mit tv-tool aktivieren musste,
war zu zeiten von geforce2.

meine FX und auch die GT haben beide wunderbares vollbild auf dem tv-out..
(nicht dass ich es zum fernsehen verwenden würde, aber als videovorschau für lichtschwerter und explosionen, ist das OK)

teste das grad in diesem moment mit planet der affen.. astrein und schrimfüllend - könnte man echt so nehmen und damit fernsehen..
(auf dem TV-out) schade dass ich für's filmegucken auf der glotze die xbox nehme und die filme über's lan streame.. ist irendwie mehr "wohnzimmer like",
als auf dem TV-out zu gucken.

machen muss man für schirmfüllenden filmgenuss übrigens nichts. clonebetrieb mit TFT1 und TV (overlay-spiegelung auf sek. device) funzt super. wenn billigkarten auf externe chips zurückgreifen (für VIVO) kann man deren trauer-ränder wohl kaum nvidia anlasten. warum sollte auch ein chiphersteller, wie NV einen overscan button für fremdchips (meist philipps) implementieren.. das wäre eher aufgabe des board-herstellers (graka-board).

zum thema macrovision fällt mir nur ein, dass man nicht die aktuellen wdm capture-treiber benutzen sollte, um analoge quellen zu digitalisieren.. bei macrovisionsgeschützen VHS tapes, bekommt man da nur den ton. wenn man aber wdm treiber 1.10 oder 1.08 verwendet, kann man auch macrovision-geschütze tapes capturen.

bei der normalen wiedergabe (teste das grad mit powerDVD5) steht mv nicht im weg.. sonst würde es ja nicht funzen..

mfg
tobi

TobiWahnKenobi
2005-03-19, 14:57:23
ich sehe grad, dass man das bild sogar stufenlos verkleinern könnte, bis man schwarze ränder bekommt.. sowas sollte aber unnötig sein.

wen's interessiert: das stellt man im nview ein, wenn man mit der rechten maustaste auf den fernseher klickt und anpassung wählt..

wie gesagt: ist auf der FX und der GT unnötig -> weil es einfach passt!

sind echt alte klischees und vorurteile, die hier aufgerollt werden.

mfg
tobi

reunion
2005-03-19, 15:08:18
Die beiden Karten nehmen sich bis auf seltene Ausnahmen wenig bis gar nichts was die Leistung betrifft. Die 6800GT bietet natürlich noch den SM3.0 Support, der in Zukunft mit Sicherheit Vorteile bringt. Speziell nachdem auch ATi bald auf den SM3.0 Zug aufspringen wird, wird man mit der X800XL in zukünftigen Spielen IMO auf einige Effekte verzichten müssen. Natürlich muss jeder selbst entscheiden ob man bereit ist dafür in die teurere 6800GT zu investieren. Ich persöhnlich würde mir jetzt jedenfalls keine SM2.0 Karte mehr zulegen.

GastATI
2005-03-19, 16:21:53
Will man einen Flotten robusten Mercedes nimmt man die XL.Will man hingegen in neue Technik investieren, greift man eben vergleichsmässig zu japanischen modellen ala Toyota!

TobiWahnKenobi
2005-03-19, 16:59:43
die 100. antwort in diesem thread, angepasst an die 99igste..

"dann ist dein XL daimler aber ein viertürer, bei dem 3 türen klemmen" :whistle:

mfg
tobi

Radeon-Man
2005-03-19, 17:24:55
*lol*
Ich liebe diesen Thread!

Und nun ein Beispiel zum Shader 3.0 der GT:
Ein Auto mit zusätzlichem Elektromotor, das aber bei Gebrauch von ihm, nur ruckelnd dahinfährt.

Ist ja auch kein Kaufgrund oder?

Gast
2005-03-19, 17:31:15
Und nun ein Beispiel zum Shader 3.0 der GT:
Ein Auto mit zusätzlichem Elektromotor, das aber bei Gebrauch von ihm, nur ruckelnd dahinfährt.



wie kommst du darauf dass SM3 langsamer als SM2 sein soll? den gleichen shader kann man in SM3 eher schneller als langsamer programmieren (weniger passes, branches etc.). dass zusätzliche effekte leistung kosten wird immer so sein, aber dann kosten sie in SM2 eher mehr als weniger. sowohl 3dmark05 als auch SC3 profitieren deutlich von SM3.

TobiWahnKenobi
2005-03-19, 17:52:09
ich habe mir die shader 3.0 noch gar net angeschaut.. muss man dazu irgendwelche umwege gehen, oder sind neue spiele "schlau" genug.. hab' jetzt grad keine böcke auf suche und dieser thread ist ja eh sinnig -> da sollte das bisschen OT nicht auffallen..

meine kaufmotivation ist:

1. 2x DVI :rolleyes:
2. NView :redface:
3. OpenGL :biggrin:
4. 30GB füllrate :tongue:
5. Gewohnheit/Vertrauen :)
6. Mitglied mit ID&JohnCarmack fanclub ;D

mfg
tobi

edit:

die gründe 7-9 habe ich noch nicht benutzt

7. SLI :tongue:
8. HDR :|
9. Shader 3.0 :eek:

q@h
2005-03-19, 17:54:08
4. 30GB füllrate :tongue:
Das gedällt mir dabei am besten... :lol:

Gummikuh
2005-03-19, 17:58:58
@ Tobi:

Komisch vor nicht allzulanger Zeit haste an ner 6800 noch null interesse gehabt...ähmm...wie war das???

"Unfertiger Chip"...oder so ähnlich... :usweet:

Kann mich noch ziemlich gut daran erinnern *g*.

Und dieser Thread ist echt cool...los weiterbashen Jungs :uup:

Aber ich mach net mit...geh gleich zu nem Kumpel ne Kiste Kromi plattmachen...und paar Games zocken :ujump2:

StefanV
2005-03-19, 18:01:02
meine kaufmotivation ist:

1. 2x DVI
2. NView
3. OpenGL
4. 30GB füllrate
5. Gewohnheit/Vertrauen
6. Mitglied mit ID&JohnCarmack fanclub

1. hat meine x850 auch, die x800XL gibts auch mit 2 DVIs
2. nView, Hydravision, alles shit, Dual Head ist das einzig wahre :devil:
3. hm, das sollte eigentlich jede aktuelle Karte beherrschen...
4. ;D ;D ;D :crazy:
5. eben, deswegen hab ich 'ne x850 :devil:
6. Dumm3 ist irgendwie Schrott -> keine Action, immer mehr Munition als man braucht.
Habs irgendwann nciht mehr zuende gespielt, weils mir einfach zu blöd war, durch irgendwelche Gänge zu latschen und drauf zu hoffen, das da 1-2 Gegner rumrennen...

Dr.Dirt
2005-03-19, 18:01:49
dann freue ich mich mal, dass ich die GT erst gekauft habe, als der letzte offizielle treiber raus kam.. 71.84 meine ich..

damit habe ich absolut keine probleme. ihr wisst ja sicher, dass
ich schon seit jahren mit video/dv und mehreren TFTs rumhantiere (weshalb ich auch die FX so mochte)..

habe absolut keine probleme mein overlay auf den TV-out zu legen. auch nicht auf display eins oder zwei..

absolut gewohntes niveau.. nur die profile wollen noch nicht
so, wie ich gern möchte. aber das kann auch daran liegen, dass
ich sie einfach von dem barton/fx system importiert habe..

werde die bei gelegenheit neu anlegen und dann mal sehen, ob da wirklich was im argen liegt.

wenn ich bei meiner arbeit (so nennt man wohl das, was ich mit dem rechner vorrangig mache) nicht auf bugs treffe, wenn spiele in besten auflösungen freeze- und absturzfrei laufen und wenn ich auch noch bestnoten bei benchmarks einfahre, kann ich einfach nicht glauben, was ihr hier so zum thema treiberprobs etc. lese.

mit grausen erinnere ich mich da an die übergangszeit zurück (als ich im A64 noch eine ATI karte hatte) --> lausige treiber, controllcenter mit ladezeiten, unmögliche konfiguration der beiden TFTs und des TV-out.. von SVHS in/out probs und bildschwächen ganz zu schweigen, hat die karte falsche frequenzen an mein TFT geschickt, wenn ich mit eingestöpselter VIVOpeitsche im VESA mode unterwegs war.. auch games liessen sich nicht mit jedem treiber und in jeder auflösung nutzen.. eigenlich liefen die wenigsten games anständig.

ich bin der meinung, dass jemand, der ausser spielen und benchmarken, nichts von seiner grafikkarte fordert, ungeeignet ist, ein gültiges urteil abzugeben.

ich führe das jetzt auch nicht weiter aus - jeder, der ähnliche ambitionen hat, wird wissen was ich meine und sicher auch keine ATI karte kaufen.

ATI baue ich bei leuten ein, die vorrangig mit ihrem PC zocken, die mit einem schirm auskommen und ggf. mal den TV out nutzen wollen. für VIVO und fortgeschrittene mehrschirmgeschichten entweder matrox bzw wenn man auch zocken will: NV.

mfg
tobi

Nur schade, daß der NV Treiber einem den möglichen Filmgenuß auch ganz schnell vermiesen kann, wie ich feststellen mußte:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=207045

Solch ein krasses fehlverhalten hab ich mit ATI noch nicht erlebt:
http://home.arcor.de/volker_luetje/HW_Bilder/aufgeblaeht.JPG

TobiWahnKenobi
2005-03-19, 18:05:53
@ Tobi:

Komisch vor nicht allzulanger Zeit haste an ner 6800 noch null interesse gehabt...ähmm...wie war das???

"Unfertiger Chip"...oder so ähnlich...

Kann mich noch ziemlich gut daran erinnern *g*.

Und dieser Thread ist echt cool...los weiterbashen Jungs

Aber ich mach net mit...geh gleich zu nem Kumpel ne Kiste Kromi plattmachen...und paar Games zocken

reiner zufall. mir sind letzte und vorletzte woche einige karten zugekommen.. da konnte ich ausgiebig testen, was meinem profil hinreichend entspricht. ich wollte erst eine adäquate PCIe karte kaufen, wenn auch der VP für mich nutzbar ist. ist ist jetzt aber amtlich, dass meine software anpassbar ist
(wg. OpenGL) und somit stand der karte nichts im weg.

die GT ist der logische schluss meiner auswahl. die 66er, die ich als GT, GTe und VIVO hier hatte (mit funzendem VP und SVHS in), waren allesamt nicht für mich brauchbar. die ultra war zu hitzig und laut. die GT ist jetzt der kompromiss aus unhörbarkeit und leistung.

zur zeit muss ich aber weiter auf dem barton system mit der FX meine explosionen rendern. stört aber nicht, weil ich jetzt nebenbei zeit habe, die GT zu nutzen (zocken, benchen usw.) - ausserdem habe ich so rechenzeit frei, um mich hier im forum um diesen wirklich wichtigen thread zu kümmern. ;)

mfg
tobi

Dr.Dirt
2005-03-19, 18:06:11
@ Tobi:

Komisch vor nicht allzulanger Zeit haste an ner 6800 noch null interesse gehabt...ähmm...wie war das???

Ist halt das übliche Verhalten: Die Hardware, die man selbst gerade besitzt, ist die einzig Wahre und mutiert vom letzten Schrott vor dem Kauf zur besten Hardware nach dem Kauf.

Welcher user gibt schon zu, einen Fehlkauf getätigt zu haben? :rolleyes:

Dunkeltier
2005-03-19, 18:07:00
ich habe mir die SM3 noch gar net angeschaut.. muss man dazu irgendwelche
umwege gehen, oder sind neue spiele "schlau" genug.. hab' jetzt grad keine böcke auf suche und dieser thread ist ja eh sinnig -> da sollte das bisschen OT nicht auffallen..

meine kaufmotivation ist:

1. 2x DVI :rolleyes:
2. NView :redface:
3. OpenGL :biggrin:
4. 30GB füllrate :tongue:
5. Gewohnheit/Vertrauen :)
6. Mitglied mit ID&JohnCarmack fanclub ;D

mfg
tobi

edit:

die gründe 7-9 habe ich noch nicht benutzt

7. SLI
8. HDR
9. SM3

1. Gibts bei ATI auch.
2. Kenn ich nur unter SurroundView...
3. D3D & OpenGL :rolleyes:
4. Autsch. Deine Geforce 6800 GT hat gerade mal 5600 MPix/s gegenüber den 8320 MPix/s einer Radeon X850 XT. Falls du die Speicherbandbreite meinst, die ist mit 32000 MB/s gegenüber den 34560 MB/s einer Radeon X850 XT auch nicht gerade ein Plus-Argument.
5. Das überlegenere und insbesondere problemlosere Produkt.
6. -
7. War für mich kein Kaufkriterium, allerdings werde ich es wohl eventuell bald nach 'nem Boardwechsel nutzen können. Aber eher werde ich mir eh die allerneueste Karte zulegen. Inbesondere da ich auch ein anderes Netzteil dann bräuchte, wäre mir wieder zuviel Aufwand. Ich brauche einfach die schnellste Single-Karte.
8. HDR ist auch mit SM2.0b darstellbar.
9. Mehr Speed. Was nützt mir SM3.0, wenn die Karte eh an sich vom Grundspeed her zu lahm ist.

TobiWahnKenobi
2005-03-19, 18:10:21
@dr. dirt

ich kenne eure sorgen nicht. bei mir geht seit jeher alles. gerade von video und overlay kann ich ein lied singen, weil ich damit sehr viel mache.

ich verstehe das geheule über macrovision, overscan oder konfigurationprobleme einfach nicht.

wäre hier in den letzten 2 jahren auch nur irgendwas derartig madig und unlösbar gewesen, wie es immer wieder dargestellt wird, wär' ich schon lange zurück bei matrox.

man sollte nicht vergessen, dass ich nur zocke, weil es möglich ist. ich bin kein spieler. und wenn ich mal lust bekomme ein spiel zu starten, dann mit kumpels oder frau auf der xbox. den PC shice tue ich mir nur an, weil es möglich ist. muss man ja mal gesehen haben, wenn die hardware es schon hergibt. ist ja auch schön, wenn man bei den benchmarks mal einen längeren hat.. zumindest wenn man so ein looser ist, wie ich es bin. also jemand der beruflich und sexuell immer total versagt.. da geht mir wenigstens beim benchen einer ab ;)

ps. die ebay geschichte mit der ultra ist jetzt beendet. mein nachbar behält die karte jetzt in seinem PC.

mfg
tobi

TobiWahnKenobi
2005-03-19, 18:14:03
@dunkeltier

hast du schonmal ein lichtschwert (http://home.t-online.de/home/TobiWahnKenobi/FILES/vids/Buffer.avi) auf der ATI gerendert ?


mfg
tobi

Dr.Dirt
2005-03-19, 18:17:58
@dr. dirt

ich kenne eure sorgen nicht. bei mir geht seit jeher alles. gerade von video und overlay kann ich ein lied singen, weil ich damit sehr viel mache.

Schön für Dich, da hast Du möglicherweise Glück gehabt, oder einige andere und ich haben Pech gahabt, aber Fakt ist:

Es gibt IMHO deutlich mehr user mit Problemen bei NV als bei ATI im Bereich Video.

TobiWahnKenobi
2005-03-19, 18:19:20
ich bin video profi.

mfg
tobi

Dunkeltier
2005-03-19, 18:21:00
@dunkeltier

hast du schonmal ein lichtschwert (http://home.t-online.de/home/TobiWahnKenobi/FILES/vids/Buffer.avi) auf der ATI gerendert ?


mfg
tobi


Ne, da ich meine Videos lediglich schneide. Und mit Titel, Überblendungen und evtl. einer neuen Tonspur versehe. Die einzigen male wo ich was gerendert habe, gings wenn überhaupt auf die CPU. Und zwar Landschaften mit Terragen damals... Es muß ja nicht jeder das absolut gleiche Einsatzgebiet haben. :rolleyes:

Dunkeltier
2005-03-19, 18:22:19
ich bin video profi.

mfg
tobi


Streich bitte das Profi, und ersetze dies durch Freizeit-Amateur. Denn sonst wären die Effekte "besser". Nicht das ich damit sagen will das ich es besser könnte, aber Profi ist für mich mehr Richtung Godlike.

Kinehs
2005-03-19, 18:23:38
Also die X800XL und die 6800GT nehmen sich nicht viel bis auf die Doom3 Engine, wobei ich nicht weiß, inwieweit da ATI mittlerweile mit neuen Treibern "nachgeholfen" hat.

Ich habe die Club3D X800XL und die ist schön leise.

6800GT PCIe waren/sind schlecht verfügbar, teuer und die meisten (Standard) Kühllösungen waren einfach laut.

Also hab ich 100 Euro gespart bei der X800XL und warte einfach mal etwas ab, der Wiederverkaufswert auf Ebay dürfte ja auch net so gering sein. :)

SM3 ist nicht wichtig in naher Zukunft, und bis es wichtig werden sollte hab ich sowieso schon eine neue Karte von ATI oder NVidia. ;D ;D

TobiWahnKenobi
2005-03-19, 18:26:33
Ne, da ich meine Videos lediglich schneide. Und mit Titel, Überblendungen und evtl. einer neuen Tonspur versehe. Die einzigen male wo ich was gerendert habe, gings wenn überhaupt auf die CPU. Und zwar Landschaften mit Terragen damals... Es muß ja nicht jeder das absolut gleiche Einsatzgebiet haben.

siehste. und da ich 8 von 10 der geeigneten programme (aus der "für jedermann
erhältlich" kollektion) kenne, weiss ich, dass man da mit einer openGL karte mit nv treibern wunderbar aufgehoben ist. und das schon seit bestimmt 6 oder 8 jahren.

also selbst zu einer zeit, wo der 16bit openGL modus bei ATI dieses leckere moire muster hatte.

also erzähl mir keiner was, davon dass ATi im openGL bereich irgendwas aufgeholt hätte, oder reissen könnte. die haben vielleicht ihr moire wegbekommen, aber software entwicklern für effektsoftware stützt diese firma nicht den rücken.

allenfalls mit pinnacle produkten kann man bei ATI etwas anfangen (die hatten vor 2-3 jahren sogar ein bundle mit einer modifizierten 8500er im angebot)

leider kann ich mit pinnacle nichts anfangen. das bemühe ich nichtmal für rudimentären schnitt.

mfg
tobi

edit: ich schliesse nicht aus, dass auch ATIs openGL treiber anpassbar ist.. aber da greift dann punkt 5 meiner liste. das vertrauen und die gewohnheit. es ist schwierig systeme anzupassen und es ist mir zu teuer experiemente zu starten. wenn ich z.b. 10 stunde gearbeitet habe und hinterher merke, dass ich alles nochmal machen muss, weil's eben nicht das gleiche ist. ATI und NV.

schlussendlich brauche ich nview. mit hydravision bin ich zu beschränkt.

Dunkeltier
2005-03-19, 18:31:02
siehste. und da ich 8 von 10 der geeigneten programme (aus der "für jedermann
erhältlich" kollektion) kenne, weiss ich, dass man da mit einer openGL karte mit nv treibern wunderbar aufgehoben ist. und das schon seit bestimmt 6 oder 8 jahren.

also selbst zu einer zeit, wo der 16bit openGL modus bei ATI dieses leckere moire muster hatte.

also erzähl mir keiner was, davon dass ATi im openGL bereich irgendwas aufgeholt hätte, oder reissen könnte. die haben vielleicht ihr moire wegbekommen, aber software entwicklern für effektsoftware stützt diese firma nicht den rücken.

allenfalls mit pinnacle produkten kann man bei ATI etwas anfangen (die hatten vor 2-3 jahren sogar ein bundle mit einer modifizierten 8500er im angebot)

leider kann ich mit pinnacle nichts anfangen. das bemühe ich nichtmal für rudimentären schnitt.

mfg
tobi

Mal sachte. Erstens haben auch Geforce-Karten ein deutliches Muster unter 16 Bit. Außerdem möchte ich an den "Himmel-Bug" in Quake III bei den älteren Geforce-Karten erinnern, was nVidia jahrelang nicht in den Griff bekam! Zudem waren schon damals sehr früh die Radeon-Karten auf den Betrieb unter 32 Bit Farbtiefe ausgelegt, sie verloren bedeutend weniger Performance als nVidia-Karten.

Dunkeltier
2005-03-19, 18:32:57
(...)

schlussendlich brauche ich nview. mit hydravision bin ich zu beschränkt.


Erläuter mir dies mal bitte. Vielleicht wird es dann nachvollziehbar(er) für mich.

TobiWahnKenobi
2005-03-19, 18:35:01
Streich bitte das Profi, und ersetze dies durch Freizeit-Amateur. Denn sonst wären die Effekte "besser". Nicht das ich damit sagen will das ich es besser könnte, aber Profi ist für mich mehr Richtung Godlike.

profi triffts schon. nach mehr als 10 jahren ist man profi.

ATI probleme..

also:

wenn ich die vivo peitsche einstöpsle, bekommt mein TFT1 (das am analogen ATI port) falsche frequenzen verpasst (im VESA mode)

ansonsten wäre noch das problem mit den unterschiedlichen auflösungen unter windows, die "independent" konfiguration der display (auflösung, BWF usw), der (bis vor kurzem) fehlende spanmode.

das wären dann schon die wichtigsten probs mit ATI karten.

mfg
tobi

Dunkeltier
2005-03-19, 18:37:35
profi triffts schon. nach mehr als 10 jahren ist man profi.

mfg
tobi


Dann hast du dich aber in den 10 Jahren nicht gerade sonderlich weit fortentwickelt.


/edit: Und lenk bitte nicht vom Thema ab.

TobiWahnKenobi
2005-03-19, 18:44:02
kennen wir uns oder was ist jetzt dein problem?

mein beruf hat mit lichtschwertern wenig zu tun.
das ist athlon spielerei. die qualität ist in anbetracht der geringen auflösung
und der starken komprimierung noch wirklich gut. auf den 10mb t-online webspace konnte ich 4 demo-videos und trotzdem noch die ganzen biosfiles unterbringen. schon darauf kann man stolz sein..

in der regel mache ich vertonungen, angleichungen, restauration
und ganz weit hinten auch schnitt, kopien und overlay und cromakeying effekte.

nur vieles darf ich nicht zuhause machen oder mit nach hause nehmen.

mfg
tobi

Hellknight[FA]
2005-03-19, 19:01:11
Dann hast du dich aber in den 10 Jahren nicht gerade sonderlich weit fortentwickelt.


/edit: Und lenk bitte nicht vom Thema ab.

Der Einzige der hier ablenkt bist Du - *zensiert* aufreissen, aber selbst keine (besseren) Ergebnisse vorlegen - jaja - solche "Über-Profis" wie Dich gibt's genug.

Und jetzt bitte back 2 topic...

deekey777
2005-03-19, 19:04:24
1. Gibts bei ATI auch.
2. Kenn ich nur unter SurroundView...
3. D3D & OpenGL :rolleyes:
4. Autsch. Deine Geforce 6800 GT hat gerade mal 5600 MPix/s gegenüber den 8320 MPix/s einer Radeon X850 XT. Falls du die Speicherbandbreite meinst, die ist mit 32000 MB/s gegenüber den 34560 MB/s einer Radeon X850 XT auch nicht gerade ein Plus-Argument.
5. Das überlegenere und insbesondere problemlosere Produkt.
6. -
7. War für mich kein Kaufkriterium, allerdings werde ich es wohl eventuell bald nach 'nem Boardwechsel nutzen können. Aber eher werde ich mir eh die allerneueste Karte zulegen. Inbesondere da ich auch ein anderes Netzteil dann bräuchte, wäre mir wieder zuviel Aufwand. Ich brauche einfach die schnellste Single-Karte.
8. HDR ist auch mit SM2.0b darstellbar.
9. Mehr Speed. Was nützt mir SM3.0, wenn die Karte eh an sich vom Grundspeed her zu lahm ist.


Zu 3: Das kann jede Grafikkarte
Zu 4: X800XL gegen 6800GT
Zu 5: Bei den nVidia Treibern ist der Durchblick zwar etwas schwer, aber nicht unmöglich, sonst Gleichstand
Zu 8: Das ist auch mit einer R300 möglich, nur ist es bei der NV40 einfacher
Zu 9: Schnarch. Mal sehen wie sich die Basherei gegen SM3.0 aussieht, wenn Spiele in naher Zukunft nur SM 2.0 und SM3.0 (als Speedupgrade wie Far Cry oder aber auch weitere Eyecandies) anbieten, aber keinen SM2.0b Pfad.

Zu Doom 3 Engine: Wayne interessiert Doom 3, wenn zB Quake 4 auf dieser Engine basiert? :|

StefanV
2005-03-19, 19:12:08
Zu 4: X800XL gegen 6800GT
Nope, die 6800GT muss sich den Vergleich mit der x850XT gefallen lassen, da beide preislich nicht so weit auseinander liegen.

Siehe Geizhals, die PCI Express 6800GTs liegen bei um die 380-400€, in dem Bereich fängt die x850XT auch an, die x800XL liegt bei ~300€, ist also weit günstiger als die 6800GT.

deekey777
2005-03-19, 19:17:15
Nope, die 6800GT muss sich den Vergleich mit der x850XT gefallen lassen, da beide preislich nicht so weit auseinander liegen.

Siehe Geizhals, die PCI Express 6800GTs liegen bei um die 380-400€, in dem Bereich fängt die x850XT auch an, die x800XL liegt bei ~300€, ist also weit günstiger als die 6800GT.

http://www.geizhals.at/deutschland/?fs=x850xt&in=

http://www.geizhals.at/deutschland/?fs=6800+gt+pcie&in=

Im meinen Augen beginnen die Preise für die lieferbareb 6800GT PCIe ab etwa 350€ (Gigabyte), die X850XT ist um die 100€teurer, die Preisangaben für die nichtlieferbaren X850XT sind wie immer nur Augenwichserei.

€dit: Eine lieferbare X850XT für 429 -> http://www.geizhals.at/deutschland/a138990.html

Man sollte auch nicht vergessen, daß die 50 € fast 100 DM sind. :)


Hm: http://www.funcomputer.de/default.aspx?page=Produktdetails&promo=geizhals&do=17&go=3035 , "nur" 390€ für eine X850XT? :confused:

TobiWahnKenobi
2005-03-19, 19:20:24
korrekt.
bei uns vor ort kosten sie um die 340€ --> in geschäften - nix mit online bestellen

wenn jemanden die leistung stört, kann er doch eine zweite dazustecken (wenn's wirklich irgendwann nicht mehr reicht, gibt's die karten für etwas mehr, als die hälfte).

nicht mehr ausreichen wird es dann, wenn auch die mainstreamkarten mit 16 pipes oder einem 8x2 design daherkommen..

das dauert noch 2 jahre.

mfg
tobi

Majestic
2005-03-19, 19:27:25
Nope, die 6800GT muss sich den Vergleich mit der x850XT gefallen lassen, da beide preislich nicht so weit auseinander liegen.


Naja über die Preispolitik von Nvidia kann man streiten aber ne 6800GT einer X850Xt gegenüber zu stellen ist schon ein wenig übertrieben.... :rolleyes:
Paßt aber so manchen ATI Liebhaber bestimmt gut ins Konzept...

Gast
2005-03-19, 19:36:29
korrekt.
bei uns vor ort kosten sie um die 340€ --> in geschäften - nix mit online bestellen

Wir haben es kapiert. Bei dir

- gibts absolut keine Probleme die seltsamerweise alle anderen User haben
- Gibts Karten super günstig im "Geschäft" die es sonst in ganze Europa nicht so günstig gibt.
- ist sowieso alles anders

*gähn*

TobiWahnKenobi
2005-03-19, 19:40:53
ok - der gast kommt schonmal nicht aus hannover.

hier ist das strassenpreis.

Computerhändler in Hannover (http://www.kolpack.de/)

mfg
tobi

del_4901
2005-03-19, 19:53:55
Also dieser Fred hat mir die Augen geöffnet ... solchen Stuß habe ich schon lange nicht mehr gehört. Und jetzt zu meinen beiden Lieblingen: Außergewöhnliche Situationen erfordern Außergewöhnliche Maßnahmen!

Payne & Dunkeltier ... Welcome to my ignore List.

Tigerchen
2005-03-20, 05:44:29
Tjo mach mal V-Sync aus dann Klappst auch mit den FPS


Und zu BFV man krass die x800XL ist 2fps schneller das macht wikrlich den unterschied zwischen spielbar und nicht spielbar aus :rolleyes:
http://i138.exs.cx/img138/6120/image0207fj.gif

Man sollte nur noch mit VSync benchen. Denn nur mit Vsync macht daddeln Spaß.

Tigerchen
2005-03-20, 05:51:07
Ja und dafür bricht die X800XL bei opengl spielen ein jede karte hat ihre Stärken und Schwächen.

Das kann man auch ganz anders sehen. Ohne VSync steht nVidia in OpenGL Klasse da. Ich brauche aber VSync. Ist ein "must have" für mich. So und wenn ich jetzt noch den ATI Triplebuffer dazuschalte führt ATI auch in OpenGL! Wobei ich mich frage warum nV keine solche Option bietet. :confused:

SamLombardo
2005-03-20, 08:12:34
@ SP und Dunkeltier,
Bitte seid mal ehrlich und versucht persönliche Vorlieben außen vor zu lassen:

Würdet Ihr heute tatsächlich jemandem, der sich ein High End System zulegen will, empfehlen eine SM2.0 Karte zu kaufen?
Bitte um ehrliche Meinung, abseits von "Lagerzwang" :)

Sam

StefanV
2005-03-20, 08:55:58
Das einzige, was zählt, ist die Leistung, die die Karte hier und jetzt bietet und das, alles, was irgendwann mal sein kann, ist irrelevant und äußerst schwachsinnig und dämlich, darauf hinzuweisen, denn es kann auch ganz anders kommen...

The_Invisible
2005-03-20, 09:11:57
Das einzige, was zählt, ist die Leistung, die die Karte hier und jetzt bietet und das, alles, was irgendwann mal sein kann, ist irrelevant und äußerst schwachsinnig und dämlich, darauf hinzuweisen, denn es kann auch ganz anders kommen...

klar, SM3.0 wird ausgelassen, darum setzt die nächste ATI Generation auch darauf, weil es nix bringen wird :rolleyes:

also wenn ich daran denken muss das ich mit ner 500€ Karte heute nichtmehr alle details in JETZIGEN Spielen darstellen kann wärs mir schade um das geld

und Vsync? wers braucht der brauchts, genauso wie AA/AF, ich hab nix dagegen aber setz es auch nie ein

mfg

Dunkeltier
2005-03-20, 09:27:30
(...)
Hm: http://www.funcomputer.de/default.aspx?page=Produktdetails&promo=geizhals&do=17&go=3035 , "nur" 390€ für eine X850XT? :confused:



Für meine Radeon X850 XT habe ich nur 380 Euro bei Fortknox bezahlt. Ich habe sie innerhalb von 2 Tagen erhalten.

Fruli-Tier
2005-03-20, 09:29:36
http://www.prad.de/new/monitore/shownews_faq105.html

Hier eine Erklärung, wenn auch recht simpel, warum mit aktiviertem VSync überhaupt Framedrops entstehen, obwohl die Karte schneller könnte. Ich hab schonmal was besseres gelesen, aber das hier reicht glaub ich auch zum verstehen.

Das wäre eine Erklärung, weshalb die nVidia Chips mit VSync etwas unsmoother (was ein beklopptes Wort) gefuehlt werden, als die ATi Karten. Es sind vielleicht einfach nur ein paar Frames mehr, die die ATi Karten vor diesem VSync bedingten Framedrop abhalten (bei gleicher Technik vorausgesetzt, also ohne irgendwelchen Buffering Tricks)

*edit*
der letzte Abschnitt im Artikel ist das was ich meine
4. Wir spielen ein bischen Counter-Strike!

Dunkeltier
2005-03-20, 09:29:41
Naja über die Preispolitik von Nvidia kann man streiten aber ne 6800GT einer X850Xt gegenüber zu stellen ist schon ein wenig übertrieben.... :rolleyes:
Paßt aber so manchen ATI Liebhaber bestimmt gut ins Konzept...


Tja, wie willst du sonst vergleichen? Man kann:
- nach Preis vergleichen
- nach den Spitzenmodell her immer weiter runter gehen
- ungefähr gleiche Techlevel als Ausbaustufe zugrunde legen.

Dunkeltier
2005-03-20, 09:39:33
@ SP und Dunkeltier,
Bitte seid mal ehrlich und versucht persönliche Vorlieben außen vor zu lassen:

Würdet Ihr heute tatsächlich jemandem, der sich ein High End System zulegen will, empfehlen eine SM2.0 Karte zu kaufen?
Bitte um ehrliche Meinung, abseits von "Lagerzwang" :)

Sam


Ja. Sonst hätte ich ja selbst zur nVidia Geforce 6800 Ultra nach meinen neuerlichen Berg an nVidia-Karten gegriffen. Für mich stellt SM3.0 derzeit einfach noch kein Kaufgrund da, mangels vorhandener breiter Basis. Das es schon 2-3 Spielchen dafür gibt stört mich nicht. Da ich Splinter Cell noch nie gezockt habe und auch niemals zocken werde. Es gefällt mir halt nicht. Zudem würde das hinzuschalten dieser Effekte mir dermaßen die FPS runterziehen, das ich von meinen hohen Auflösungen mit VSync runtergehen müßte. Schlimmstenfalls müßte ich sogar auf VSync verzichten.

Bei der Wahl der neuen Karte haben für mich erst mal nur drei Sachen gezählt: Preis, Balkenlänge und das Gesamtpaket. Nun ja, deshalb diese Entscheidung. Die Karte soll eh nur bis zum erscheinen der neuen Generation taugen, dann kommt wieder was neues unter die Haube.

Ganz ähnlich bin ich übrigens beim Athlon 64 VS P4 verfahren. Geguckt was mir wichtig war (Preis, Verlustleistung, Spieleleistung da es für den Rest sowieso in der Regel reicht was ich mache), und zum Athlon 64 gegriffen. Das er 64 Bit kann mag schön sein, ist mir aber genauso unwichtig wie SM3.0. Ein nettes "must have", aber für mich halt kein muß.

Dunkeltier
2005-03-20, 09:40:41
Man sollte nur noch mit VSync benchen. Denn nur mit Vsync macht daddeln Spaß.



Das würde aber manchmal zur Unvergleichbarkeit führen, wenn beide längere Balken als der VSync-Wert haben. ;) Dann hieß es Gleichstand.

Dunkeltier
2005-03-20, 09:43:07
klar, SM3.0 wird ausgelassen, darum setzt die nächste ATI Generation auch darauf, weil es nix bringen wird :rolleyes:

also wenn ich daran denken muss das ich mit ner 500€ Karte heute nichtmehr alle details in JETZIGEN Spielen darstellen kann wärs mir schade um das geld

und Vsync? wers braucht der brauchts, genauso wie AA/AF, ich hab nix dagegen aber setz es auch nie ein

mfg


Dann dürften alle nur noch Athlon 64 Prozessoren oder die 600'er Intel Reihe kaufen. Ansonsten läßt man ja auch in Spielen Details aus... In der PCGH waren letztens ein paar Spiele aufgeführt, die mit 64 Bit zusätzliche Effekte oder mehr Speed bieten würden. Nun, dann hat hoffentlich jeder SM3.0-Karten Besitzer einen entsprechenden 64-Bit Unterbau. ;)

Mich nerven einfach die Leute die SM3.0 zur Religion erheben, so sturrsinnig sind noch nicht einmal Athlon 64 oder P4 Besitzer untereinander.

XC4
2005-03-20, 09:57:16
achso, deswegen ist ne fx5900 in opengl LINUX so schnell wie ne x800XT, schon klar ;D

das zeigt wohl am deutlichsten wie es um ATI und OpenGL steht, und ist für mich auch immer wieder ein Grund zu Nvidia zu greifen. das jede Karte ihre schwächen und stärken hat sollte eigentlich jeder wissen, einfach zu behaupten bei ATI ist alles besser ist für mich kindergartenniveau.

und zu SC3: manche ATI User waren/sind so angefressen das sie das game nicht mit SM3.0 spielen können das sie es garnicht kaufen und sogar für schlecht halten (obwohl die vorigen teile geliebt)

naja, mir kanns egal sein, meine 6800gt halte ich für eine potente karte mit vielen features und sehr guter bildqualität. vsync hatte ich schon seit tnt2 zeiten nicht mehr an.

mfg
Was interessiert mich das unsägliche Linux?
Das spielt doch keine Rolle außer für unverbesserliche Freaks.

The_Invisible
2005-03-20, 09:57:43
Dann dürften alle nur noch Athlon 64 Prozessoren oder die 600'er Intel Reihe kaufen. Ansonsten läßt man ja auch in Spielen Details aus... In der PCGH waren letztens ein paar Spiele aufgeführt, die mit 64 Bit zusätzliche Effekte oder mehr Speed bieten würden. Nun, dann hat hoffentlich jeder SM3.0-Karten Besitzer einen entsprechenden 64-Bit Unterbau. ;)

Mich nerven einfach die Leute die SM3.0 zur Religion erheben, so sturrsinnig sind noch nicht einmal Athlon 64 oder P4 Besitzer untereinander.

das ist aber eher ein vergleich äpfel mit birnen...

es gibt nichtmal offiziell ein 64bit Windows, für SM3.0 gibt es derzeit alles offiziell (hardware,treiber,spiele)

aber wie schon gesagt, hängt von jedem selber ab, mich würde es nur ärgern wenn ich nicht mehr die vollen details einstellen könnte

mfg

The_Invisible
2005-03-20, 10:00:38
Was interessiert mich das unsägliche Linux?
Das spielt doch keine Rolle außer für unverbesserliche Freaks.

dich interessierts vielleicht nicht, mir aber schon wie auch viele andere

dafür interessiert mich Vsync soviel wie dir linux... na, kommen wir langsam auf nen grünen zweig ?

mfg

StefanV
2005-03-20, 10:03:46
das ist aber eher ein vergleich äpfel mit birnen...

Nope, der Vergleich passt wie Arsch auf Eimer.


es gibt nichtmal offiziell ein 64bit Windows, für SM3.0 gibt es derzeit alles offiziell (hardware,treiber,spiele)
Ja, und?!
Es gibt aber schon einige 64bit Programme, ja auch 64bit Spiele gibts!!



aber wie schon gesagt, hängt von jedem selber ab, mich würde es nur ärgern wenn ich nicht mehr die vollen details einstellen könnte
Jaja, immer schön SM3 als unverzichtbar darstellen, nicht wahr? ;)

Ist dir ev. schonmal in den Sinn gekommen, das einige Programme die nV4x Serie auf SM2 beschränken könnte, wenns Game Sm3 nur für IQ benutzt wird und jene zu lahm sein würden?!

Schonmal dran gedacht, das die Performance in ein paar Tagen letztendlich wichtiger ist als irgendwelche sinnlosen Features, die man eh nicht nutzen kann, mangels Performance?!

Dunkeltier
2005-03-20, 10:05:07
das ist aber eher ein vergleich äpfel mit birnen...

es gibt nichtmal offiziell ein 64bit Windows, für SM3.0 gibt es derzeit alles offiziell (hardware,treiber,spiele)

aber wie schon gesagt, hängt von jedem selber ab, mich würde es nur ärgern wenn ich nicht mehr die vollen details einstellen könnte

mfg

1) Es gibt Windows XP 64-Bit Edition als durchaus nutzbare Beta.
2) Es gibt Linux.
3) Es existiert für 64-Bit Anwendungen sowie 64-Bit Spiele einfach noch kein breiter Markt. Alles ist auf die Zukunft ausgerichtet. Und das die Zukunft manchmal auf sich warten läßt, sieht man am Beispiel AMD Athlon 64 sehr schön.

Und selbst wenn man für die Zukunft sich rüsten wolle - Geforce 6800 Karten sind ebenso wie die Radeon X800 Serie mit erscheinen von Windows Longhorn und dem WGF-Zeugs Schnee von gestern. Ganz zu schweigen davon, das man in 2-3 Jahren eh alle Effekte ausschalten muß um mit spielbaren Frames zu zocken. Von daher ist "für die Zukunft kaufen" einfach Unsinn.

Es gibt keine Zukunft, nur das hier und jetzt, dass ist das was zählt.

StefanV
2005-03-20, 10:05:34
dich interessierts vielleicht nicht, mir aber schon wie auch viele andere
Schön, für dich, die große Mehrheit dürfte Linux am Hintern vorbei gehen, zumal das ganze auch nur ein uraltes Bastel OS ist, nichts halbes und nichts ganzes, mangels Standards...


dafür interessiert mich Vsync soviel wie dir linux... na, kommen wir langsam auf nen grünen zweig ?
Nö, VSynic ist weit wichtiger als Linux, aber schon klar, das einige ein 'geteiltes Bild' nicht sehen wollen, denn wenn man drauf achten würde, dann würd man sich ja dran stören und dann müsste man sich ja 'ne ATi Karte kaufen, das geht nun wirklich nicht...

SamLombardo
2005-03-20, 10:29:26
SP, warum so aggressiv? Von Dunkeltier hab ich eine akzeptabele Antwort erhalten (auch wenn ich seine Meinung nicht teile), Du dagegen reagierst mit Polemik und Gebashe.
Du erinnerst mich irgendwie an mich selbst zu Zeiten der FX5900 vs. 9800pro Diskussion. Damals hab ich auch versucht, den Sinn von PS2.0 in Frage zu stellen weil "meine Karte" damit nicht viel anfangen konnte. (hab mich aber weiterentwickelt :) )

Sollte mich nicht wundern (im Fall dass der R520 den NV40 in Punkto SM3.0 Leistung schlagen sollte) wenn SM3.0 binnen weniger Monate eines Deiner Hauptargumente pro Ati werden würde.

bedunet
2005-03-20, 10:31:53
Sorry, aber ich habe mir jetzt den ganzen Thread durchgelesen und habe einige Male ziemlich losgelacht. Eigentlich habt ihr alle irgendwo recht - und alle irgendwo nicht. Wonach suche ich mir eine Grafikkarte aus?

1. Nach Preis.
2. Nach Leistung.
3. Nach Verfügbarkeit.
4. Nach den Spielen, die ich zocke.

Punkt 4 kann man heute ruhigen Gewissens vernachlässigen (IMHO). Alle aktuellen Grafikkarten sind schnell genug um aktuelle Games flüssig wiederzugeben.

Der erste Punkt spricht für Ati. Die sind im Augenblick einfach preiswerter als NV-Karten (ich habe selbst eine 6800GT). Leistungsmäßig sind beide Karten mehr als ausreichend für aktuelle Games. Was in einem Jahr sein wird interessiert mich heute noch nicht. Punkt 3 ist auch zu vernachlässigen - beide sind in ausreichenden Stückzahlen verfügbar. Dies war als ich mir die 6800GT zugelegt habe nicht der Fall - im November waren die Karten von Ati noch nicht in ausreichend hoher Stückzahl lieferbar.

Abschließend möchte ich erwähnen, das mir der Hersteller der GPU auf meiner Grafikkarte schnurz ist. Ich hatte schon Matrox, Kyro, Ati und NVidia.

Dunkeltier
2005-03-20, 10:40:43
Sorry, aber ich habe mir jetzt den ganzen Thread durchgelesen und habe einige Male ziemlich losgelacht. Eigentlich habt ihr alle irgendwo recht - und alle irgendwo nicht. Wonach suche ich mir eine Grafikkarte aus?

1. Nach Preis.
2. Nach Leistung.
3. Nach Verfügbarkeit.
4. Nach den Spielen, die ich zocke.

Punkt 4 kann man heute ruhigen Gewissens vernachlässigen (IMHO). Alle aktuellen Grafikkarten sind schnell genug um aktuelle Games flüssig wiederzugeben.

Der erste Punkt spricht für Ati. Die sind im Augenblick einfach preiswerter als NV-Karten (ich habe selbst eine 6800GT). Leistungsmäßig sind beide Karten mehr als ausreichend für aktuelle Games. Was in einem Jahr sein wird interessiert mich heute noch nicht. Punkt 3 ist auch zu vernachlässigen - beide sind in ausreichenden Stückzahlen verfügbar. Dies war als ich mir die 6800GT zugelegt habe nicht der Fall - im November waren die Karten von Ati noch nicht in ausreichend hoher Stückzahl lieferbar.

Abschließend möchte ich erwähnen, das mir der Hersteller der GPU auf meiner Grafikkarte schnurz ist. Ich hatte schon Matrox, Kyro, Ati und NVidia.


Gerade Punkt 4 ist aber nicht zu vernachlässigen. Insbesondere weil die großen Shooter halt ihren "speziellen Unterbau" ('ne Engine) haben. Und da gibt ATI nun mal da, nVidia nun mal da extrem Gas. Teilweise machen die Balkenlängenunterschiede ganze Auflösungsunterschiede in der Praxis aus.

Die meisten Spiele fernab der Shooter unter Windows basieren meist auf D3D... Jedenfalls das was ich im Kopf, und hier am rumliegen habe. Autorennen, Wirtschafts- und Strategiespiele, etc.

Für mich gehts sogar so weit, das ich extreme Balkenlängen stur in MSAA und tri-aF packe. Worauf ich seit jeher, seit der Radeon 9700 Pro nicht mehr verzichten möchte. Seitdem fahre ich immer mind. 8xtri-aF mit 2xMSAA - oder höher.

Und zu Punkt 4. Damals habe ich versucht verzweifelt an eine Geforce 6800 Ultra und Radeon X800 XT (PE) zu kommen. Was meinst du wie ich geflucht habe, nur mit 'ner minderwertigen Geforce 6800 GT abgespeist zu werden. Das sollte man beiden Herstellern extrem rot ankreiden. Klappe aufreißen aber nicht liefern können. Mit der neuen Radeon X800 XL und der Radeon X850 XT war es ja zum Glück dieses mal etwas besser.

SamLombardo
2005-03-20, 10:43:32
Abschließend möchte ich erwähnen, das mir der Hersteller der GPU auf meiner Grafikkarte schnurz ist.

Mir ebenso, solange Qualität und Leistung stimmen. Habe z.Z eine 9800pro und bin zufrieden damit. Was meine nächste Karte sein wird entscheide ich nach Release des R520. (Mit Sicherheit wird es keine SM2.0 Karte :) )

StefanV
2005-03-20, 10:47:39
SP, warum so aggressiv? Von Dunkeltier hab ich eine akzeptabele Antwort erhalten (auch wenn ich seine Meinung nicht teile), Du dagegen reagierst mit Polemik und Gebashe.
Du erinnerst mich irgendwie an mich selbst zu Zeiten der FX5900 vs. 9800pro Diskussion. Damals hab ich auch versucht, den Sinn von PS2.0 in Frage zu stellen weil "meine Karte" damit nicht viel anfangen konnte. (hab mich aber weiterentwickelt :)
Der Unterschied ist aber, das es damals, zu Zeiten der 5900 schon:

a) Spiele gab, die SM2 nutzten
b) es schon Anzeichen für die mieserable Shaderperformance gab.
c) es einige Spiele gab, die mit der FX5800/5900 ziemlich beschissen laufen, mit den R300ern aber sehr gut, zum Beispiel NFSU (2)...
d) war die R300 der 5900 meist weit überlegen, wenn Shader zum Einsatz kamen, schaute es für die 5900 ganz übel aus...
Von dem Schrott von Referenzkühlung bei der 5900 reden wir lieber nicht...

Hellknight[FA]
2005-03-20, 10:51:39
Nope, der Vergleich passt wie Arsch auf Eimer.




Jaja, immer schön SM3 als unverzichtbar darstellen, nicht wahr? ;)





Auch ich sehe SM3 als durchaus verzichtbar an, da z. B. (echtes) HDR, etc. auch mit SM2 realisiert werden kann. Jedoch ist das SM3 für den Programmierer einfacher zu handhaben und auch schneller als das SM2. Und Leute welche sagen, dass "SM3 beim NV40 eh' nix bringt, da die Graka momentan einfach noch zu schwach ist", vergessen wohl, dass die Programmierer die durch SM3 freigewordenen Leistungsreserven häufig wieder in aufwänderige Effekte investieren, weshalb die Geschwindigkeit im Endeffekt doch langsamer als SM2 (welches ohne besagte Effekte auskommen muß) ist.

Und dass Splinter Cell 3 auf NV40 Karten langsamer läuft als auf ATi-Karten (welche in diesem Spiel ja nichtmal auf das SM2 zurückgreifen können), liegt schlicht und einfach daran, dass beim SM 3 all die netten Effekte (vor allem HDR), welche meiner Meinung nach dem Spiel die Atmosphäre geben, aktiviert werden. Deaktiviert man diese (auf die Qualitäts-Stufe, welche ATi-Karten bei diesem Spiel maximal fahren können), so fällt die Geschwindigkeit mit SM 3 natürlich deutlich höher aus (ob dies reicht um z. B. eine XL zu schnupfen kann ich jedoch aufgrund mangelnder Erfahrung nicht sagen).

Um Geld in der Entwicklung zu sparen führt in Zukunft wohl kein Weg am SM3 vorbei. Das SM 2 wird dann wohl nicht mal mehr als Fallback zur Verfügung stehen, wie das Beispiel Splinter Cell 3 zeigt.

Und wenn die Effekte der Zukunft zu heftig für meine GraKa werden, schalte ich diese "Goodies" einfach ab - wo ist da das Problem. Mit einer SM2 Karte kann man diese Effekte nämlich nicht mal ausprobieren um zu checken, ob der PC leistungsfähig genug dazu ist...


Grüße

Timo

Undertaker
2005-03-20, 11:08:15
echt lustig eure diskussion hier...

aber mal ein paar harte fakten:

pcie:

x850xt 390€ lieferbar http://www.geizhals.at/deutschland/a136180.html
6800gt 355€ lieferbar http://www.geizhals.at/deutschland/a139807.html
x800xl 270€ lieferbar http://www.geizhals.at/deutschland/a134096.html

agp:

x800xl nicht wirklich verfügbar
x800xt pe 375€ lieferbar http://www.geizhals.at/deutschland/a109731.html
6800gt 325€ lieferbar http://www.geizhals.at/deutschland/a108336.html

leistungsrating von computerbase mit aa und af:

x800xt pe 97%
x850xt 93,4%
x800xl 82,2%
6800gt 80,4%

fazit pcie:

je nach geldbeutel x850xt oder x800xl

fazit agp:

ja nach geldbeutel x800xt pe oder 6800gt


fazit nv40:

+ sm3 (noch wenige spiele + rel. langsam)
+ opengl speed

- lautstärke standartkühlung
- dx speed
- wohl zu langsam für künftige sm3 spiele auf maximalen details

fazit r420:

+ sm2b (nur wenige spiele)
+ dx speed
+ lautstärke standartkühlung

- kein sm3
- opengl speed
- ebenfalls zu langsam für sm3 spiele mit maximalen details


meine meinung zum problem sm3:

wichtig bei zukünftigen karten, bei heutigen noch zu langsam um nützlich zu sein (unreal 3: 6800gt 800x600 sm3 30fps; x800xl 1024x768 sm2 30fps -> beides von der bild quali nicht wirklich toll bzw. schnell genug... (diese zahlen hab ich aus bestehenden erkenntnissen geschätzt)

ein ähnliches beispiel ist die fx5200 mit sm2 :D

mfg undertaker

Undertaker
2005-03-20, 11:13:06
sry doppelpost

SamLombardo
2005-03-20, 11:17:24
Der Unterschied ist aber, das es damals, zu Zeiten der 5900 schon:
a) Spiele gab, die SM2 nutzten
b) es schon Anzeichen für die mieserable Shaderperformance gab.
c) es einige Spiele gab, die mit der FX5800/5900 ziemlich beschissen laufen, mit den R300ern aber sehr gut, zum Beispiel NFSU (2)...
d) war die R300 der 5900 meist weit überlegen, wenn Shader zum Einsatz kamen, schaute es für die 5900 ganz übel aus...
Von dem Schrott von Referenzkühlung bei der 5900 reden wir lieber nicht...

Naja ich denke die Situation lässt sich schon vergleichen weil (bissel OT :) )

a) Diese Spiele konnte man an einer Hand abzählen, TRAOD und FC (analog zu heute)
c) unter PS1.1 liefen sie sehr gut, aber nicht mit allen Effekten (analog zu heute)
d) Der NV40 ist dem R420 auch "überlegen" wenn es um SM3.0 Effekte geht (Der NV 35 war bei PS2.0 schlecht, der R420 beitet SM3.0 gar nicht erst)
Mit der Kühlung haste Recht.

md
2005-03-20, 11:19:31
@ threadstarter,

schau doch mal ob du die GT zu einer ULTRA modden kannst. dann ist sie garantiert besser als eine x800xl (denke das weisst du schon). hast du schonmal probiert deine GT zu modden?

Undertaker
2005-03-20, 11:26:49
übertakten kann man alle karten (mehr oder weniger), das ist nicht wirklich ein argument

Hellknight[FA]
2005-03-20, 11:34:55
fazit nv40:

+ sm3 (noch wenige spiele + rel. langsam)
+ opengl speed

- lautstärke standartkühlung
- dx speed
- wohl zu langsam für künftige sm3 spiele auf maximalen details

fazit r420:

+ sm2b (nur wenige spiele)
+ dx speed
+ lautstärke standartkühlung

- kein sm3
- opengl speed
- ebenfalls zu langsam für sm3 spiele mit maximalen details


meine meinung zum problem sm3:

wichtig bei zukünftigen karten, bei heutigen noch zu langsam um nützlich zu sein (unreal 3: 6800gt 800x600 sm3 30fps; x800xl 1024x768 sm2 30fps -> beides von der bild quali nicht wirklich toll bzw. schnell genug... (diese zahlen hab ich aus bestehenden erkenntnissen geschätzt)

ein ähnliches beispiel ist die fx5200 mit sm2 :D

mfg undertaker


LOL - seit meiner Mitgliedschaft in diesem Forum habe ich noch nicht so gelacht. Was hier an unqualifiziertem Geblubber (aleine schon die Aussage SM3 zu langsam ;D ;D ) auf engstem Raum gepfercht wurde, läßt jede Computer-Bild Ausgabe als kompetentes Magazin erscheinen - wirklich köstlich :ugly:

Und dann erst der Vergleich mit einer FX5200 :D - nein - ich kann nicht mehr.


So - jetzt nochmal für die allerhintersten Reihen:

- SM3 ist NICHT langsam (dazu bitte mein voriges Posting)
- SM3 wird lediglich durch das Hinufügen von Effekten (welche unter SM2 nicht eingesetzt werden) wie HDR langsam.
- Da HDR kein exklusiver SM3 Feature ist, würde das wohl auf SM2 Karten die Performance auf "nicht ganz still stehen" drücken.

Deiner Logik zufolge könnten alle ATi-Karten dann wohl nur SM1x Andwendungen in akzeptabler Geschwindigkeit darstellen.

Aber hey - wenn wir uns jetzt unter Computer-Bild Niveau begeben müssen...

schätze mal schön weiter :ugly:

Undertaker
2005-03-20, 11:54:12
']LOL - seit meiner Mitgliedschaft in diesem Forum habe ich noch nicht so gelacht. Was hier an unqualifiziertem Geblubber (aleine schon die Aussage SM3 zu langsam :

1. damit waren natürlich die mittels sm3 dargestellten effekte gemeint, mitdenken wäre angebracht; sc läuft mit sm3 ja schon hart an der grenze was die fps angeht

']

Und dann erst der Vergleich mit einer FX5200 :D - nein - ich kann nicht mehr.



wenn du behaupten willst, das die performance einer 5200 in sm2 spielen akzeptabel ist, bewegst du dich noch VIIIEL weiter unter bild niveau - und das dies bei zukünftigen spielen auch bei den heutigen highend grakas der fall ist (und die ganzen schönen features dann viel bedeutungsloser als die eigentliche performance sein werden) wollte ich damit verdeutlichen, nicht mehr und nicht weniger

So - jetzt nochmal für die allerhintersten Reihen:

']

- SM3 ist NICHT langsam (dazu bitte mein voriges Posting)
- SM3 wird lediglich durch das Hinufügen von Effekten (welche unter SM2 nicht eingesetzt werden) wie HDR langsam.
- Da HDR kein exklusiver SM3 Feature ist, würde das wohl auf SM2 Karten die Performance auf "nicht ganz still stehen" drücken.



dito, das wollte ich bloß nicht lang und breit erleutern und hab es deshalb kürzer gefasst - das krümelka.... wie du dran rummäkeln hätte ich wissen müssen

']

Deiner Logik zufolge könnten alle ATi-Karten dann wohl nur SM1x Andwendungen in akzeptabler Geschwindigkeit darstellen.



das wird bei spielen zb. mit der u3 engine, sofern möglich, wohl auch einen gewaltigen performance-schub geben - mit meiner 9700 hab ich durch sm1.1 in css:s auch ~30% mehr fps gehabt (und somit >100fps in 1280x1024)

']

schätze mal schön weiter :ugly:



die zahlen sind wie bereits erwähnt frei aus der luft gegriffen (möglicherweise wird es auch noch langsamer laufen)

in der sache ist es aber 100%ig richtig, mit sm2 werden zukünftige spiele etwas schlechter aussehen, aber aufgrund der fehlenden effekte auch schneller laufen -> was dann wieder in bessere bildquali investiert werden kann

wenn an dieser argumentation etwas falsch sein sollte kannst du mir das gerne erläutern, es wäre allerding schön wenn du deinen ton etwas "freundschaftlicher" gestalten könntest

mfg undertaker

Gast
2005-03-20, 11:54:16
oh bitte ...

Zeig mir ein, nur ein aktuelles Spiel mit akzeptabler SM3 Performance, das auch nur eine einzige ATI Karte dadurch aussticht. Du wirst keines finden.

Es wird jetzt schon seit knapp einem Jahr gepredigt wie toll SM3 ist und wie schnell die NV KArten dadurch einen "performancevorteil" ziehen können und die ATI Karten gnadenlos in den Boden stampfen werden.

Die Realität sieht wie immer anders aus: Alle bisherigen "SM3" spiele sind UNSPIELBAR langsam mit allen zugeschalteten Effekten, bzw. sind NICHT schneller als ihre SM2.x Pendants (FarCry) sondern eher immer noch langsamer!

=> Die NV Karten sind entweder zu langsam für SM3 oder die Spiele sind allesamt einfach nur schlecht programmiert. Was ist jetzt wahrscheinlicher? :)

Undertaker
2005-03-20, 11:55:07
oh bitte ...

Zeig mir ein, nur ein aktuelles Spiel mit akzeptabler SM3 Performance, das auch nur eine einzige ATI Karte dadurch aussticht. Du wirst keines finden.

Es wird jetzt schon seit knapp einem Jahr gepredigt wie toll SM3 ist und wie schnell die NV KArten dadurch einen "performancevorteil" ziehen können und die ATI Karten gnadenlos in den Boden stampfen werden.

Die Realität sieht wie immer anders aus: Alle bisherigen "SM3" spiele sind UNSPIELBAR langsam mit allen zugeschalteten Effekten, bzw. sind NICHT schneller als ihre SM2.x Pendants (FarCry) sondern eher immer noch langsamer!

=> Die NV Karten sind entweder zu langsam für SM3 oder die Spiele sind allesamt einfach nur schlecht programmiert. Was ist jetzt wahrscheinlicher? :)

genau das meinte ich

Coda
2005-03-20, 11:58:50
Zeig mir ein, nur ein aktuelles Spiel mit akzeptabler SM3 Performance, das auch nur eine einzige ATI Karte dadurch aussticht. Du wirst keines finden.Splinter Cell 3?

Das läuft ohne HDR (HDR hat nichts mit SM 3 zu tun) mit allen SM 3 Effekten schneller als mit SM 1.1 bei mir.

Die Realität sieht wie immer anders aus: Alle bisherigen "SM3" spiele sind UNSPIELBAR langsam mit allen zugeschalteten Effekten, bzw. sind NICHT schneller als ihre SM2.x Pendants (FarCry) sondern eher immer noch langsamer!

=> Die NV Karten sind entweder zu langsam für SM3 oder die Spiele sind allesamt einfach nur schlecht programmiert. Was ist jetzt wahrscheinlicher? Keins von beidem. Ihr bringt nur Sachen durcheinander.

Ihr müsst euch mal klarmachen, dass SM 3 nichts anderes ist als SM 2 mit Branching. Und solange man kein dynamisches branching benützt hat NV40 exakt den gleichen Durchsatz mit SM 3 als mit SM 2.

HLSL als SM 3 kompiliert ist auf NV40 meistens schneller aber niemals langsamer wie als SM 2 kompiliert.

Die Aussage, dass SM 3 auf NV40 langsam ist, ist absolut unhaltbar. Je länger die Shader sind desto mehr dürfte NV40 R4xx sogar ausstechen, weil die Fragmentprozessoren effizienter sind.

Com.Chakotey
2005-03-20, 12:22:58
Nur mal ne kurze frage ;)
Hat eigentlich gar nix mit dem Threadtitel zu tun ;)
ABER worum gings nochmal??? Ne 6800GT gegen ne X800XL ;)

Ist ja schön daß sich manche hier richtig ausleben können und mit ihren fahcbegriffen um sich werfen ich bezweifle jedoch daß dem der den Thread gestartet daß sehr viel hilft...das wäre das gleiche wie wenn ich in den Baumarkt gehe ne TÜR kaufen will und die fangen an über diverse Holz und Verleimungsmethoden zu diskutieren ;)
Was ich damit sagen will...versucht doch einfach mal die fragen die gestellt werden kurz und bündig zu beantworten ;) jeder weiß daß hier ein paar im Forum fast den Proffessortitel haben und ein paar andere von diversen Garfikkartenherstellern so überzeugt sind wie ein Vorwerksvertreter von seinen eigenen Produkten....
ABER DAS HILFT DOCH NET WEITER!!!!??!?!?!

Also ;) einfach mal den dicken Macker stecken lassen und ne gescheite Antwort geben ;)

p.s. für rechtschreibfehler kann ich nix hab mir den finger vorgestern gebrochen ;)

Undertaker
2005-03-20, 12:41:12
80% aller posts ziehen ja auch den schluss, das es performancemäßig relativ egal ist welche entscheidung man fällt, die jeweiligen vor- und nachteile der x800xl und der 6800gt wurden ja schon zur genüge aufgelistet

letztendlich hängt es vom geldbeutel, dem nutzen von den jeweiligen features und der persönlichen vorliebe ab - einen wirklichen fehler kann man mit keiner der karten machen

mfg undertaker

Mosjoe
2005-03-20, 12:46:15
Also jetzt will ich mich auch mal zu dem Thema äußern, obwohl ich diesen Thread und dessen Inhalt für ziemlich schwachsinnig halte. Dass das ATI-Forum vom Nvidia-Forum voneinander abgegrenzt wurde hatte sicherlich einen Sinn, und zwar genau den solche Threads zu vermeiden, wo sich die Parteien gegenseitig die Vorteile ihre verwendeten Hardware um die Ohren schmeißen.

Zur Problematik SM3.0:
Ich und viele andere hier können wohl kaum hellsehen und wissen nicht was auf uns zukommt, aber die Chancen, dass sich SM3.0 durchsetzt stehen gut (bitte entschuldigt den Hang zur Untertreibung). Das Problem dabei ist, dass wir nicht wissen in welchen Maße es eingesetzt wird und ob unsere derzeitige Hardware auf längere Sicht ausreichen wird.
Speziell was Splinter Cell CT betrifft haben die Entwickler meines Erachtens nach einen ziemlich großen Fehler gemacht indem sie die Option für das HDR hinter den Einstellungen für das Shadermodell 3.0 versteckt haben. Das muss ja zu Mißverständnissen führen und die Vermutung aufkommen lassen, dass die heutigen SM3.0-Karten für ihre Aufgabe als solche zu langsam wären. Dass die teilweise miesen FPS-Zahlen aber durch das HDR und nicht durch SM3.0 zustande kommen wissen wir ja nun alle, gelle?! OOder gibt es immernoch Zweifler?
Der zweite große Fehler war zweifellos das fehlende SM2.0 für ATI-Karten. Manchmal wünschte selbst ich als 6800GT-User, dass sie das getan und gleichzeitig das HDR auch auf ATI-Karten möglich gemacht hätten. Dann wäre wohl der Vergleich etwas leichter.
Was die Shaderperformance (SM3.0) der neuen noch kommenden ATI-Reihe betrifft ist eigentlich nicht relevant, da die neue Grakageneration von ATI sowieso außer Konkurrenz steht und das auch sollte. In letzter Zeit häufen sich einfach zuviel Aussagen wie: "Lass ATI erstmal eine SM3.0-Karte auf den Markt bringen. Dann sehen wir ja welche Karte die schnellere SM3.0-Performance hat." Rein von den Specs her wäre es ja auch höchst verwunderlich wenn die neuen Karten nicht schneller wären als die von Nvidia, welche dann schon wieder eine Generation zurückliegen.

Coda
2005-03-20, 13:37:22
Speziell was Splinter Cell CT betrifft haben die Entwickler meines Erachtens nach einen ziemlich großen Fehler gemacht indem sie die Option für das HDR hinter den Einstellungen für das Shadermodell 3.0 versteckt haben.Ack! Das führt nur zu Verwirrungen und ist eher nachteilig von nVidia. Schon allein deshalb glaube ich nicht dass da Geld geflossen ist.

Mosjoe
2005-03-20, 13:47:33
Ack! Das führt nur zu Verwirrungen und ist eher nachteilig von nVidia. Schon allein deshalb glaube ich nicht dass da Geld geflossen ist.

Sag ich ja. Genau das wollte ich damit ausdrücken. Das mit dem Geld hab ich noch nicht mal bedacht, da ich auch nicht davon ausgehe, dass da Moneten geflossen sind.

Jesus
2005-03-20, 14:28:18
Splinter Cell 3?

Das läuft ohne HDR (HDR hat nichts mit SM 3 zu tun) mit allen SM 3 Effekten schneller als mit SM 1.1 bei mir.

Keins von beidem. Ihr bringt nur Sachen durcheinander.

Ihr müsst euch mal klarmachen, dass SM 3 nichts anderes ist als SM 2 mit Branching. Und solange man kein dynamisches branching benützt hat NV40 exakt den gleichen Durchsatz mit SM 3 als mit SM 2.

HLSL als SM 3 kompiliert ist auf NV40 meistens schneller aber niemals langsamer wie als SM 2 kompiliert.

Die Aussage, dass SM 3 auf NV40 langsam ist, ist absolut unhaltbar. Je länger die Shader sind desto mehr dürfte NV40 R4xx sogar ausstechen, weil die Fragmentprozessoren effizienter sind.

Dürfte, täte, würde*... tut aber nicht bisher und ich bezweifle das er das noch zu lebzeiten tun wird. :)

Und bitte SC3 läuft so schon quälend langsam und selbst wenn es 3 fps schneller ist wie SM1.1, was sagt das dann aus, dass die CPU last etwas geringer ist? Oder der SM1.1 Pfad schlecht umgesetzt wurde von der Xbox ? ;) Da kann man 1000 Sachen reininterpretieren.


*das hört man jetzt wirklich schon mehr als ein Jahr, siehe FXen :)

IVN
2005-03-20, 14:34:18
Dürfte, täte, würde... tut aber nicht bisher und ich bezweifle das er das noch zu lebzeiten tun wird. :)

Und bitte SC3 läuft so schon quälend langsam und selbst wenn es 3 fps schneller ist wie SM1.1, was sagt das dann aus, dass die CPU last etwas geringer ist? Oder der SM1.1 Pfad schlecht umgesetzt wurde von der Xbox ? ;) Da kann man 1000 Sachen reininterpretieren.

How nice..... no comment. :uhammer2:

IVN
2005-03-20, 14:35:06
Dürfte, täte, würde*... tut aber nicht bisher und ich bezweifle das er das noch zu lebzeiten tun wird. :)

Und bitte SC3 läuft so schon quälend langsam und selbst wenn es 3 fps schneller ist wie SM1.1, was sagt das dann aus, dass die CPU last etwas geringer ist? Oder der SM1.1 Pfad schlecht umgesetzt wurde von der Xbox ? ;) Da kann man 1000 Sachen reininterpretieren.


*das hört man jetzt wirklich schon mehr als ein Jahr, siehe FXen :)

als

Hellknight[FA]
2005-03-20, 14:44:48
wenn du behaupten willst, das die performance einer 5200 in sm2 spielen akzeptabel ist, bewegst du dich noch VIIIEL weiter unter bild niveau - und das dies bei zukünftigen spielen auch bei den heutigen highend grakas der fall ist (und die ganzen schönen features dann viel bedeutungsloser als die eigentliche performance sein werden) wollte ich damit verdeutlichen, nicht mehr und nicht weniger



Eben WEIL die Performance einer 5200 unter sm2 praktisch nicht vorhanden ist, finde ich Deinen Vergleich viel zu übertrieben bzw nicht angebracht, da der NV4x sehr wohl aus SM3 bei gleichen Voraussetzungen einen Performance-Gewinn erziehlt.

Nochmal sorry, wenn ich vorher etwas am Rad gedreht habe - aber bei sowas flipp' ich einfach aus :D ;D :ugly: ;)


Grüße

Timo

Gast
2005-03-20, 14:50:41
Dürfte, täte, würde*... tut aber nicht bisher und ich bezweifle das er das noch zu lebzeiten tun wird. :)

Und bitte SC3 läuft so schon quälend langsam und selbst wenn es 3 fps schneller ist wie SM1.1, was sagt das dann aus, dass die CPU last etwas geringer ist (SC3 ist CPU limitiert)? Oder der SM1.1 Pfad schlecht umgesetzt wurde von der Xbox ? ;) Da kann man 1000 Sachen reininterpretieren.


*das hört man jetzt wirklich schon mehr als ein Jahr, siehe FXen :)

Coda
2005-03-20, 14:51:02
Dürfte, täte, würde*... tut aber nicht bisher und ich bezweifle das er das noch zu lebzeiten tun wird.Das kommt drauf an wie lang man die Karte behalten will. In UE3 Spielen wird NV4x sicherlich Vorteile haben.

Und bitte SC3 läuft so schon quälend langsam und selbst wenn es 3 fps schneller ist wie SM1.1, was sagt das dann aus, dass die CPU last etwas geringer ist (SC3 ist CPU limitiert)? Oder der SM1.1 Pfad schlecht umgesetzt wurde von der Xbox ? Da kann man 1000 Sachen reininterpretieren.Nö, das liegt einfach daran dass man weniger Passes braucht.
Die Passes könnte man mit SM 2 natürlich auch sparen, dafür kann man viel weniger Polygone in einem Pass erledigen.

*das hört man jetzt wirklich schon mehr als ein Jahr, siehe FXen Das ist was anderes. Die FXen sind so lahm, NV40 hat noch Reserven, auch wenn es dir nicht passt.

Hellknight[FA]
2005-03-20, 14:55:49
Nochwas ist auffällig hier:

Wenn ich mir die Sigs der einzelnen Poster hier anschaue (ich schließe mich da nicht aus :D), verteidigt praktisch hier jeder "seine" Grafikkarte bzw Grafikkartenfirma.

Wie soll da eine vernünftige Diskussion zustande kommen? Man wird immer irgendetwas finden was den Kauf seiner eigenen Graka gerechtfertigt. Schließlich will man ja keinen Fehlkauf getätigt haben.

Die X800XL ist zwar momentan Preis/Leistungs-King, dennoch würde ich trotz der GT-ähnlichen Performance meine GT nicht für eine X800 XL (+ Differenzbetrag) eintauschen wollen, obwohl das ATi-Produkt nicht so "wählerisch" ist, was Spiele angeht.

Schließlich will ich auch für die (nähere) Zukunft nicht auf Details in Games verzichten müssen.

Anders sähe die Sache bei ner X850 XT aus :D. Die bietet zur Zeit eine der GT überlegene Leistung. Die mangelnde Zukunftssicherheit würde ich dafür in Kauf nehmen :D ;D


Grüße

Timo

Coda
2005-03-20, 14:58:05
Wenn ich mir die Sigs der einzelnen Poster hier anschaue (ich schließe mich da nicht aus ), verteidigt praktisch hier jeder "seine" Grafikkarte bzw Grafikkartenfirma.Das ist nicht wahr. Ich versuche hier nur Sachen richtigzustellen. Das "SM 3 auf NV40 ist langsam" Gerücht geht mir einfach auf die Nerven.
Ich hatte davor auch ne 9700 Pro, weil sie die bessere Technologie hatte. Mir ist es prinzipiell scheiß egal was draufsteht.

Ach ja: Ich würde hier jedem Spieler auch eine X800XL empfehlen, der Mehrpreis für die 6800GT lohnt sich nicht.

Radeon-Man
2005-03-20, 15:15:42
Ich habe meine X850XT um 370.- bei nem Online Shop gekauft.
Da dachte ich mir zuerst auch 350.- für ne GT oder 370.- für ATI´s Flaggschiff!
Nun bin ich froh die neuesten Games mit Top Frames zu zocken.

Aber die XL ist und bleibt der derzeitge Preis Leistungs Hammer.
Für 280.- so ne Karte anzubieten, war sicher eine kluge entscheidung von ATI.
Egal in welchem Forum man liest, fast jeder mit nem neuen PCI-E. Board greift zu dieser Karte

Undertaker
2005-03-20, 15:17:05
']Eben WEIL die Performance einer 5200 unter sm2 praktisch nicht vorhanden ist, finde ich Deinen Vergleich viel zu übertrieben bzw nicht angebracht, da der NV4x sehr wohl aus SM3 bei gleichen Voraussetzungen einen Performance-Gewinn erziehlt.

Nochmal sorry, wenn ich vorher etwas am Rad gedreht habe - aber bei sowas flipp' ich einfach aus :D ;D :ugly: ;)


Grüße

Timo

schon ok ;)

aber die aussage das zb. bei der unreal 3 - engine eine 6800 (das wird bei der x800 nicht anders sein) nur für 640x480 reicht stammt nicht von mir...

http://www.google.de/search?sourceid=navclient&hl=de&ie=UTF-8&rls=GGLD,GGLD:2004-43,GGLD:de&q=%22unreal+3%22+6800+640x480

bis dahin wird sm3 nur sporadisch unterstützung finden - und wenn die obengenannt engine erscheint werden die meisten spieler wohl schon längst eine deutlich leistungsfähigere graka besitzen - dann natürlich mit sm3 ;)

del_4901
2005-03-20, 16:14:08
schon ok ;)

aber die aussage das zb. bei der unreal 3 - engine eine 6800 (das wird bei der x800 nicht anders sein) nur für 640x480 reicht stammt nicht von mir...

http://www.google.de/search?sourceid=navclient&hl=de&ie=UTF-8&rls=GGLD,GGLD:2004-43,GGLD:de&q=%22unreal+3%22+6800+640x480

bis dahin wird sm3 nur sporadisch unterstützung finden - und wenn die obengenannt engine erscheint werden die meisten spieler wohl schon längst eine deutlich leistungsfähigere graka besitzen - dann natürlich mit sm3 ;)

Du hast da ja mal richtig vertrauenserweckende Quellen aufgegriffen!

Nachdem was ich gehört habe (damals als die erste Techdemo gezeigt wurde) hieß es noch das auf einer 6800GT/U gerade mal so 25-30fps möglich sind. Auf Karten die kein SM3.0 unterstützen (also alle anderen) nicht mehr als 3fps. Und das hat mir der Typ aus dem Video geflüstert ... und nicht irgendsoein Forum Futzie. Es ist durchaus möglich das durch Weiterentwicklung der Engine das nichtmehr ganz so krass ist wie damals.

Ice-Man
2005-03-20, 20:46:57
Ich habe meine X850XT um 370.- bei nem Online Shop gekauft.

:eek: In welchem Online Shop gibt es die denn so günstig?
noch ne kleine frage: gibt es die X850XT auch als AGP?

MfG

The_Invisible
2005-03-20, 22:08:54
Ich habe meine X850XT um 370.- bei nem Online Shop gekauft.
Da dachte ich mir zuerst auch 350.- für ne GT oder 370.- für ATI´s Flaggschiff!
Nun bin ich froh die neuesten Games mit Top Frames zu zocken.

Aber die XL ist und bleibt der derzeitge Preis Leistungs Hammer.
Für 280.- so ne Karte anzubieten, war sicher eine kluge entscheidung von ATI.
Egal in welchem Forum man liest, fast jeder mit nem neuen PCI-E. Board greift zu dieser Karte

cool, ich kann die neuesten games auch mit top frames zocken, net schlecht oder? ich kann sogar mit max details spielen, auch net schlecht oder? und das coolste ist ich hab sogar zu ner 6800gt pcie gegriffen und nicht x800xl :)

mfg

The_Invisible
2005-03-20, 22:10:44
:eek: In welchem Online Shop gibt es die denn so günstig?
noch ne kleine frage: gibt es die X850XT auch als AGP?

MfG

gelistet schon, aber nicht lieferbar

genauso wie ne x800xl

mfg

Tigershark
2005-03-20, 23:08:50
cool, ich kann die neuesten games auch mit top frames zocken, net schlecht oder? ich kann sogar mit max details spielen, auch net schlecht oder? und das coolste ist ich hab sogar zu ner 6800gt pcie gegriffen und nicht x800xl :)

mfg


Man bist du doof!
Du musst doch die ATI kaufen, ey!
Die rul0r0 doch voll! Bei nvidia zählt das nicht was aufm Frame counter steht, glaubs mir!!!!
Die minimalen Frames sind mit den SCHEISS nvidia Karten IMMER schlechter! Ich schwörs! ;D;D;D

Dunkeltier
2005-03-20, 23:18:49
Ich habe meine X850XT um 370.- bei nem Online Shop gekauft.
Da dachte ich mir zuerst auch 350.- für ne GT oder 370.- für ATI´s Flaggschiff!
Nun bin ich froh die neuesten Games mit Top Frames zu zocken.

Aber die XL ist und bleibt der derzeitge Preis Leistungs Hammer.
Für 280.- so ne Karte anzubieten, war sicher eine kluge entscheidung von ATI.
Egal in welchem Forum man liest, fast jeder mit nem neuen PCI-E. Board greift zu dieser Karte


Klar ist es klug für wenig Geld diese Karte anzubieten. Erstens betontiert Ati damit seine Marktposition in der unter 300 Euro Retail-Markt Klasse sowie bei den mittleren High-End Mainstream Rechnern. Zweitens verdienen sie noch genügend dran, weil die Herstellung der geshrinkten GPU einfach günstig ist.

Dunkeltier
2005-03-20, 23:23:42
Das kommt drauf an wie lang man die Karte behalten will. In UE3 Spielen wird NV4x sicherlich Vorteile haben.

Nö, das liegt einfach daran dass man weniger Passes braucht.
Die Passes könnte man mit SM 2 natürlich auch sparen, dafür kann man viel weniger Polygone in einem Pass erledigen.

Das ist was anderes. Die FXen sind so lahm, NV40 hat noch Reserven, auch wenn es dir nicht passt.

Die Aussage nagel ich mir an die Wand, was UE3 betrifft. Reisen wir mal in die Zukunft:
Fall 1) Die Geforce 6800 Ultra stellt SM3.0 Effekte da, auf der Radeon X850 XT PE darf ich auf diese verzichten. Die Geforce krebst mit minimalen Bildwiederholraten wie schon heute in Splinter Cell rum, so das man in UE3 auch noch sein 16xtri-aF und seine Kantenglättung ausschalten darf. Womöglich die Auflösung noch runterschaltet... Hurra!
Fall 2) Ich schalte die SM3.0 Effekte aus, und will einfach nur mehr die Rohleistung nutzen. Aufgrund dessen das ATI-Karten mit teilweise viel brutalerer Füllrate und Bandbreite daherkommen, ziehen sie noch immer den nVidia-Karten die Hosen aus. Na klasse.

Dunkeltier
2005-03-20, 23:25:18
Also jetzt will ich mich auch mal zu dem Thema äußern, obwohl ich diesen Thread und dessen Inhalt für ziemlich schwachsinnig halte. Dass das ATI-Forum vom Nvidia-Forum voneinander abgegrenzt wurde hatte sicherlich einen Sinn, und zwar genau den solche Threads zu vermeiden, wo sich die Parteien gegenseitig die Vorteile ihre verwendeten Hardware um die Ohren schmeißen.

Zur Problematik SM3.0:
Ich und viele andere hier können wohl kaum hellsehen und wissen nicht was auf uns zukommt, aber die Chancen, dass sich SM3.0 durchsetzt stehen gut (bitte entschuldigt den Hang zur Untertreibung). Das Problem dabei ist, dass wir nicht wissen in welchen Maße es eingesetzt wird und ob unsere derzeitige Hardware auf längere Sicht ausreichen wird.
Speziell was Splinter Cell CT betrifft haben die Entwickler meines Erachtens nach einen ziemlich großen Fehler gemacht indem sie die Option für das HDR hinter den Einstellungen für das Shadermodell 3.0 versteckt haben. Das muss ja zu Mißverständnissen führen und die Vermutung aufkommen lassen, dass die heutigen SM3.0-Karten für ihre Aufgabe als solche zu langsam wären. Dass die teilweise miesen FPS-Zahlen aber durch das HDR und nicht durch SM3.0 zustande kommen wissen wir ja nun alle, gelle?! OOder gibt es immernoch Zweifler?
Der zweite große Fehler war zweifellos das fehlende SM2.0 für ATI-Karten. Manchmal wünschte selbst ich als 6800GT-User, dass sie das getan und gleichzeitig das HDR auch auf ATI-Karten möglich gemacht hätten. Dann wäre wohl der Vergleich etwas leichter.
Was die Shaderperformance (SM3.0) der neuen noch kommenden ATI-Reihe betrifft ist eigentlich nicht relevant, da die neue Grakageneration von ATI sowieso außer Konkurrenz steht und das auch sollte. In letzter Zeit häufen sich einfach zuviel Aussagen wie: "Lass ATI erstmal eine SM3.0-Karte auf den Markt bringen. Dann sehen wir ja welche Karte die schnellere SM3.0-Performance hat." Rein von den Specs her wäre es ja auch höchst verwunderlich wenn die neuen Karten nicht schneller wären als die von Nvidia, welche dann schon wieder eine Generation zurückliegen.


Schon zu Radeon 9800 XT und Geforce 5950 Ultra Zeiten war die Shader-Performance der nVidias nicht gerade überragend.

Mosjoe
2005-03-21, 00:29:34
Schon zu Radeon 9800 XT und Geforce 5950 Ultra Zeiten war die Shader-Performance der nVidias nicht gerade überragend.

Na und! Was soll denn das für eine Aussage sein? Dafür kann doch die 6800er Serie nichts. Das heißt doch noch lange nicht, dass das jetzt immernoch so ist. Die Geforce 4 Serie hat im Vergleich zu ATI auch alles weggerockt. Und? Ist das jetzt noch relevant?

Manche versuchen aber auch aus allem ein Argument zu stricken *kopfschüttel*

OCPerformance
2005-03-21, 00:47:34
ich weiss gar nicht warum man sich streiten soll die 6800Gt ist zwar bisl langsamer lässt aber auch gut clocken und dann hat man die leistung die man braucht ansonsten hebt man die Vcore per Bios an und fertig ganz einfach

deekey777
2005-03-21, 00:54:42
Die Aussage nagel ich mir an die Wand, was UE3 betrifft. Reisen wir mal in die Zukunft:
Fall 1) Die Geforce 6800 Ultra stellt SM3.0 Effekte da, auf der Radeon X850 XT PE darf ich auf diese verzichten. Die Geforce krebst mit minimalen Bildwiederholraten wie schon heute in Splinter Cell rum, so das man in UE3 auch noch sein 16xtri-aF und seine Kantenglättung ausschalten darf. Womöglich die Auflösung noch runterschaltet... Hurra!
Fall 2) Ich schalte die SM3.0 Effekte aus, und will einfach nur mehr die Rohleistung nutzen. Aufgrund dessen das ATI-Karten mit teilweise viel brutalerer Füllrate und Bandbreite daherkommen, ziehen sie noch immer den nVidia-Karten die Hosen aus. Na klasse.


Beides ist schon falsch, denn es gibt zuerst beinahe keine "SM 3.0 Effekte", die nicht mit einer SM 2.0 Karte darstellbar sind. SC3 ist auf einer NV40 mit SM 3.0 schneller als mit SM1.1* (wurde schon tausendmal gesagt), erst mit weiteren Effekten à la HDR, was an sich kein SM3.0 Effekt ist, geht die Performance arg in die Knie. Und UE3 ist kein gelungenes Beispiel überhaupt, denn die NV40/R42x&R48x werden einie Monate auf dem Buckel haben, wenn die UE3 basierten Spiele kommen. Dennoch wird die NV40 ihre Vorteile in UE3 Spielen haben - wegen SM3.0.

Wieviele Spiele wurden jetzt angekündigt, die mit SM2.0b Pfad kommen? Bisher gibt es nur ein einziges Spiel mit SM2.0b als Speed Upgrade. Die Füllrate der X800er wird für den Popo sein, wenn sie mehrere Renderpässe bei sehr langen Shadern brauchen werden, als es bei einer NV40 der Fall ist.




*Ich wette, einer kommt jetzt mit der Frage, ob SC3 mit SM1.1 auf einer Radeon oder einer nVidia schneller läuft.

Akira20
2005-03-21, 01:17:20
Die Geforce krebst mit minimalen Bildwiederholraten wie schon heute in Splinter Cell rum, so das man in UE3 auch noch sein 16xtri-aF und seine Kantenglättung ausschalten darf. Womöglich die Auflösung noch runterschaltet... Hurra!

Sorry, aber liest du dir die anderen Posts garnicht durch?
Es wurde mittlerweile schon in mindestens zehn Posts über SC3 gesprochen und warum die Performance bei SM3-Auswahl so schlecht ist (=> ich sage nur HDR).
Also hätte ich PCI-E würde ich auch auf jedenfall eine x800XL kaufen (=> wegen dem Preis), aber bei AGP bleibt meine erste Wahl die 6800GT ;) .

MfG
Akira20

del_4901
2005-03-21, 03:42:01
Beides ist schon falsch, denn es gibt zuerst beinahe keine "SM 3.0 Effekte", die nicht mit einer SM 2.0 Karte darstellbar sind. SC3 ist auf einer NV40 mit SM 3.0 schneller als mit SM1.1* (wurde schon tausendmal gesagt), erst mit weiteren Effekten à la HDR, was an sich kein SM3.0 Effekt ist, geht die Performance arg in die Knie. Und UE3 ist kein gelungenes Beispiel überhaupt, denn die NV40/R42x&R48x werden einie Monate auf dem Buckel haben, wenn die UE3 basierten Spiele kommen. Dennoch wird die NV40 ihre Vorteile in UE3 Spielen haben - wegen SM3.0.

Wieviele Spiele wurden jetzt angekündigt, die mit SM2.0b Pfad kommen? Bisher gibt es nur ein einziges Spiel mit SM2.0b als Speed Upgrade. Die Füllrate der X800er wird für den Popo sein, wenn sie mehrere Renderpässe bei sehr langen Shadern brauchen werden, als es bei einer NV40 der Fall ist.




*Ich wette, einer kommt jetzt mit der Frage, ob SC3 mit SM1.1 auf einer Radeon oder einer nVidia schneller läuft.

Ja schoen das ich auchmal wieder was von Dunkeltier lese :-)
Die letzte Aussage von ihm hat mich zu dem Entschluss gebracht, das er nicht verstehen will!


Zitat von Dunkeltier
Die Aussage nagel ich mir an die Wand, was UE3 betrifft. Reisen wir mal in die Zukunft:
Fall 1) Die Geforce 6800 Ultra stellt SM3.0 Effekte da, auf der Radeon X850 XT PE darf ich auf diese verzichten. Die Geforce krebst mit minimalen Bildwiederholraten wie schon heute in Splinter Cell rum, so das man in UE3 auch noch sein 16xtri-aF und seine Kantenglättung ausschalten darf. Womöglich die Auflösung noch runterschaltet... Hurra!
Fall 2) Ich schalte die SM3.0 Effekte aus, und will einfach nur mehr die Rohleistung nutzen. Aufgrund dessen das ATI-Karten mit teilweise viel brutalerer Füllrate und Bandbreite daherkommen, ziehen sie noch immer den nVidia-Karten die Hosen aus. Na klasse.


DunkelTier wenn du das hier ließt dann ließ dir bitte vllt. auch einmal diesen Artikel durch: http://www.3dcenter.org/artikel/2004/03-31_a.php

Genauso muss ich Deekey recht geben wenn er sagt das es keine SM3 Effekte gibt. Und auch Ati hat(te) mit der Aussage recht das alles was mit SM3 möglich ist auch mit SM2 geht ... die Frage ist nur ist es denn auch tragbar für ein Spiel Effekte zu bringen die deutlich unter 25fps liegen ... NEIN. Deswegen kommen bestimme Effekte erst mit SM3 richtig in Fahrt. SM3 ist also der Sprichwörtliche "Turbolader" für SM2. Wenn beide den gleichen Sprit tanken (GLSL/HLSL Code) der nur anders zubereitet wurde (einmal "komprimiert" mit SM3 und einmal unkomprimiert mit SM2 ... vergleiche mit Autos sind gewollt) so ist der Chip der den Turbolader hat schneller.
Ändere ich aber was an den Bedingungen (z.B der Einspritzung) sprich der eine Chip kriegt mehr Sprit (mehr Shader) so ist das Mischungsverhältniss nichtmehr optimal und die Karre säuft mir vllt. sogar ab bzw. die Zylinderkopfdichtung fliegt mir um die Ohren.
Ich hoffe das wird jetzt jedem klar. SM3 ist nicht langsamer als SM2 bei gleichen Bedingungen ... ich kann mir natürlich die Effekte welche nur mit SM3 tragbar sind noch unterjubeln, wenn sich Ati gut und Nvidia unbedingt schlecht reden will. Aber das ist ein unfairer Vergleich. Um es fairer zu machen kann auch die SM2 Chips mit diesen Effekten füttern die nur mit SM3 vernünftig laufen ... aber frage nicht nach Sonnenschein auf SM2 Karten! Davor verschließt ihr Ati-Jünger ja lieber die Augen anstatt mal einen fairen Vergleich anzustreben.

Und wie Coda schon sagte SM3 ist NIEMALS langsamer als SM2 bei gleichen HLSL / GLSL code ... eher lässt sich da nochwas bei raushohlen ... auch wenn der Gewinn bei einigen Bedingungen gegen 0 tendiert.

Amen!

PS: Wenn was >vernünftiges< von Dunkeltier als Antwort kommt, dann möge das bitte einer zitieren. .. vllt nehm ich ihn wieder von der Blacklist.

zeckensack
2005-03-21, 08:15:08
DunkelTier wenn du das hier ließt dann ließ dir bitte vllt. auch einmal diesen Artikel durch: http://www.3dcenter.org/artikel/2004/03-31_a.phpDer Artikel von Demirug war spekulativ. Schau mal auf's Datum.
Mittlerweile hat sich das alles als falsch herausgestellt. Ein Branch-Konstrukt verbraucht immer mindestens sechs Takte extra, während denen nichts gerechnet werden kann. Es macht keinen Sinn, mit dynamsichen Verzweigungen kurze Berechnungen zu überspringen.
Auch bei langen Berechnungen macht es nicht immer Sinn, weil NV40, wie von mir prophezeit, immer noch ein SIMD-Design ohne nennenswerte Granularität ist, und somit fast immer beide Zweige ausführen muss. Wenn zB 1000 Pixel Pfad A nehmen und 5 Pixel Pfad B, dann werden praktisch für alle 1005 Pixel beide Pfade durchgerechnet. Branching senkt in diesem Fall die Performance.
SM3 ist also der Sprichwörtliche "Turbolader" für SM2. Wenn beide den gleichen Sprit tanken (GLSL/HLSL Code) der nur anders zubereitet wurde (einmal "komprimiert" mit SM3 und einmal unkomprimiert mit SM2 ... vergleiche mit Autos sind gewollt) so ist der Chip der den Turbolader hat schneller."OMGLOL", oder wie sagt man das richtig? :|

Demirug
2005-03-21, 08:37:16
Der Artikel von Demirug war spekulativ. Schau mal auf's Datum.
Mittlerweile hat sich das alles als falsch herausgestellt. Ein Branch-Konstrukt verbraucht immer mindestens sechs Takte extra, während denen nichts gerechnet werden kann. Es macht keinen Sinn, mit dynamsichen Verzweigungen kurze Berechnungen zu überspringen.

Genau. Wobei man hier noch ergänzen sollte das wir von dynamischen Branches in den Pixelshader sprechen. Wenn man nur einen Zweig hat kommt man auch mit 4 Takten aus. Ber aktuelle Treiber ist in dieser Beziehung aber inzwischen schlauer geworden und ersetzt kurze Branches durch Predications.

Auch bei langen Berechnungen macht es nicht immer Sinn, weil NV40, wie von mir prophezeit, immer noch ein SIMD-Design ohne nennenswerte Granularität ist, und somit fast immer beide Zweige ausführen muss. Wenn zB 1000 Pixel Pfad A nehmen und 5 Pixel Pfad B, dann werden praktisch für alle 1005 Pixel beide Pfade durchgerechnet. Branching senkt in diesem Fall die Performance.

Die Ursache für die großen Blöcke liegt allerdings nicht im SIMD Design sonst dürften es ja nur 4 Pixel sein die den gleichen Pfad nehmen müssen. Von ATI hört man in diese Richtung allerdings auch bereits Warnungen.

kmf
2005-03-21, 08:57:28
Spricht ja nix dagegen diesen Thread ins Grakachips-Forum zu moven? Mit Hilfestellung an sich und so, hat er ja wenig zu tun. ;)

seahawk
2005-03-21, 09:25:34
Den Sinn von SM3.0 sieht man ja auch daran, dass auchTI plant im Laufe des Jahres fast sein gesamtes Line-Up auf SM3.0 zu bringen. Ich behaupte jetzt einfach mal, dass dadurch fast niemand SM2.0b unterstützen wird, weil die Verbreitung von SM3.0 Karten wahrscheinlich schon heute über der von SM2.0b liegt.
Evtl. wird man auch öfters Spiele wie SC3 sehen. SM1.1 und SM3.0. Mit 1.1 erschlägt man alles von der GeForce 3 bis hin zur X850XT. Mit SM3.0 bedient man die aktuellen High-End-Karten und erreicht eine optimale Grafikdarstellung, die für die Bewertungen in den Test wichtig sein werden.

In einem Jahr wird man die Wahl haben ob man mit einer 6800GT/Ultra mit vollen Effekten (evtl. ohne HDR) und dafür evtl. ohne AA+AF und nur in 1280 oder 1024 zocken kann, oder mit ner X800XL-X850XT mit reduzierten Effekten und ohne HDR in 1600x1200 oder in 1280/1024 mit AA+AF.

Die richtige Entscheidung gibt es da imho nicht. Jeder muss selber für sich entschieden was ihm wichtiger ist.

Mr. Lolman
2005-03-21, 09:37:19
Das ist was anderes. Die FXen sind so lahm, NV40 hat noch Reserven, auch wenn es dir nicht passt.

Auf die bin ich gespannt. Denn auch bei TM Sunrise sind die fps, trotz ~UE Takt (425/575) nicht besonders hoch: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2825286#post2825286

dildo4u
2005-03-21, 09:47:41
Auf die bin ich gespannt. Denn auch bei TM Sunrise sind die fps, trotz ~UE Takt (425/575) nicht besonders hoch: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2825286#post2825286
Naja hmm die Kombination von FSAA und und Blureffekten scheint nicht so wirklich performant zu sein und ich kenn auch kein anderes Game was bei dieser Kombination High fps bringt ohne blur und mit 1280*1024 mit 4XAA 16XAniso und allen Details wo ich mir noch nicht sicher bin ob der NV40 da SM3 wasser darstellt das anders ist als das auf ATI karten sinds 60-90fps.


http://img223.exs.cx/img223/5708/tmsr6es.jpg

Mr. Lolman
2005-03-21, 10:00:36
Naja hmm die Kombination von FSAA und und Blureffekten scheint nicht so wirklich performant zu sein und ich kenn auch kein anderes Game was bei dieser Kombination High fps bringt ohne blur und mit 1280*1024 mit 4XAA 16XAniso und allen Details wo ich mir noch nicht sicher bin ob der NV40 da SM3 wasser darstellt das anders ist als das auf ATI karten sinds 60-90fps.
http://img223.exs.cx/img223/5708/tmsr6es.jpg

Das liegt nicht am MSAA, sondern an den Blureffekten generell. MSAA kostet bei aktiven Motionblur kaum Performance.

Mich würd die NV40 Performance auch bei wirklich aktiven AF mal interessieren.Nur erlauben dass die aktuellen Forcewaretreiber nicht (komischerweise auch nicht direkt per App)


/edit: Auch "HDR" (force dynamic Colors) haut bei weitem nicht so rein, wie Motion Blur...

Coda
2005-03-21, 10:11:50
Ich sprach ja auch von Shaderleistung. Das Motionblur braucht wohl eher verdammt viel Füllrate :rolleyes:

The_Invisible
2005-03-21, 10:52:57
Man bist du doof!
Du musst doch die ATI kaufen, ey!
Die rul0r0 doch voll! Bei nvidia zählt das nicht was aufm Frame counter steht, glaubs mir!!!!
Die minimalen Frames sind mit den SCHEISS nvidia Karten IMMER schlechter! Ich schwörs! ;D;D;D

ich versteh das einfach mal als guten (schlechten) Witz :rolleyes:

BTT:
manche glauben anscheinend HDR kostet auf ner x800 nichts, sowie auch andere Eye-Candies, ein test wär mal schön wo x800 und 6800 getestet werden mit gleichen einstellungen

mfg

The_Invisible
2005-03-21, 11:29:24
Ich sprach ja auch von Shaderleistung. Das Motionblur braucht wohl eher verdammt viel Füllrate :rolleyes:

laut shadermark dürfte ein NV40/45 bei gleicher Taktrate viel effizienter wie ein R420/480 sein

mfg

Dunkeltier
2005-03-21, 11:31:33
laut shadermark dürfte ein NV40/45 bei gleicher Taktrate viel effizienter wie ein R420/480 sein

mfg


Sicher. Aber schau dir mal an, was die Radeon für Taktraten dafür an den Start legt. Zum Beispiel die 540/590 Mhz der Radeon X850 XT PE gegenüber den 400/500 Mhz bei den Geforce 6800 Ultra-Karten.

Coda
2005-03-21, 11:42:45
Jain. Man müsste mal eine Messung von Shadermark mit neueren Treibern machen...

Dunkeltier
2005-03-21, 11:45:14
Jain. Man müsste mal eine Messung von Shadermark mit neueren Treibern machen...


Und wer macht sowas? Ich habe keine Geforce 6800 GT@Ultra Karte mehr... Müßte wenn schon jemand machen, der die beiden Karten auf dem identischen System ausbencht.

Coda
2005-03-21, 11:56:10
Bei Shadermark dürfte die CPU extrem unwichtig sein.

The_Invisible
2005-03-21, 12:07:18
Sicher. Aber schau dir mal an, was die Radeon für Taktraten dafür an den Start legt. Zum Beispiel die 540/590 Mhz der Radeon X850 XT PE gegenüber den 400/500 Mhz bei den Geforce 6800 Ultra-Karten.

naja, schau dir mal den Transistorcount an, dürfte dann klar sein warum die NV40 niedriger taktet... interessant wäre natürlich wenn man beim NV40 den SM3.0 Part weglässt, weniger Transis hat und auch höher taktet ob dann noch immer die gute Shaderperformance da ist

mfg

dildo4u
2005-03-21, 12:09:35
naja, schau dir mal den Transistorcount an, dürfte dann klar sein warum die NV40 niedriger taktet... interessant wäre natürlich wenn man beim NV40 den SM3.0 Part weglässt, weniger Transis hat und auch höher taktet ob dann noch immer die gute Shaderperformance da ist

mfg

Guck einfach mal hier 6800U auf 600mhz
http://www.xtremesystems.org/forums/showthread.php?t=54643

Mr. Lolman
2005-03-21, 12:37:22
Ich sprach ja auch von Shaderleistung. Das Motionblur braucht wohl eher verdammt viel Füllrate :rolleyes:

Hoppla. :redface:

Ok, TM Sunrise ist wohl generell kein gutes Beispiel um die Shaderleistung zu testen, da das Spiel selbst auf einem XP2000+ (noOC, 133FSB) mit ner 64MB Radeon 9500@pro(350/300) noch ganz ansprechend läuft* (2xAA/4xAF, very High Details, kein Motionblur dafür dynamic Colors (frisst auf der Karte je nach Szene 0-50% der fps)):

http://i137.exs.cx/img137/9621/tmsunrisedemomag200503211da.jpg (http://www.imageshack.us)
(die hoch aufgelöste Strassentextur hat wegen dem AA nicht mehr ganz in den Speicher gepasst. Der Rest ist aber schon mit hohen Texturdetails)


*edit: Blödsinn. Die Shaderleistung der GraKa ist ja garnicht so schlecht. (v.a. im Vergleich zum Rest)

HOT
2005-03-21, 12:47:54
Der Fall stellt sich für mich sehr einfach dar. Da der Threadstarter ein AGP System hat, gibt es z.Z. keine X800XL für sein System (dazu müsste man auf die MArkteinführung von ATIs PCI-E Bridge warten oder ein neues Board kaufen).
Von daher stellt sich hier eher die Frage X800Pro oder Geforce6800GT und hier ist meiner Meinung nach die 6800GT die bessere Wahl.
Die X800XL (eben nur für PEG) ist jedenfalls preistechnisch keine Konkurrenz, oder besser gesagt für ihren Preis konkurrenzlos schnell.
Was noch hinzukommt: Die ATIs haben nur ~150Mio Transistoren und sind deshalb nicht so verschwenderisch und weniger aufwändig zu kühlen als die NV40/45 Teile. Vor allem die X800XL ist für eine Karte ihrer Klasse erstaunlich sparsam. Das ist allerdings nur für wenig Leute überhaupt ein Argument und muss jeder für sich selbst wissen.
Ob SM3.0 jetzt nötig ist oder nicht, ist eine Frage, die noch nicht beantwortet werden kann. Ich weiss jetzt auch nicht, ob SC3 mit SM3.0 so viel besser aussieht als mit SM1.1 und ob das jetzt ein Kaufgrund wäre. Allerdings kann ATI für solche Verfehlungen des Designers auch nichts. Andere Games aber sehen auf ATI wie auf NV gut aus, ATI hat hier noch den Vorteil des 6x SGMSAA, dafür kann NV Supersampling. Aber auch das ist Geschmackssache. Videobearbeitung wird man mit beiden Chips gut machen können, seit NV die neueren Treiber anbietet geht das auch. Hydravision kann eigentlich auch nur unwesentlich mehr als Twinview (wenn es auch ungleich komplizierter zu bedienen ist) und beide Techniken sind ggü. Matrox Dualhead relativ arm aber dennoch nutzbar.
NV ist in Sachen OpenGL Features und Speed spezieller Techniken besser dabei, ich glaube, das lässt sich auch kaum abstreiten, ist aber für 99% der Käufer dieser Karte vollkommen irrelevant. Auswirkungen hat das nur bei ein paar speziellen Shootern (D3 oder CoD), die aber auf ATI genauso spielbar sind. Bei AA+AF kann hier ATI ggü. NV sogar den Abstand weiter verkleinern.
Aus meinen eigenen Erfahrungen muss ich leider sagen, dass die 6800Gt auch nicht unfehlbar ist, und es lange (genaugenommen seit Release) keinen vernünftigen offiziellen Treiber gab.
Der 71.84 taugt als erster Treiber nach Release was, denn er ist der erste offizielle Treiber, auf dem man AF aktivieren kann, ohne Augenkrebs zu bekommen (wegen dem Clamp Schalter. Wieso ist der Standardmässig net default eigentlich?). Bisher war das ein Kaufgrund für ATI IMHO. Solche Verfehlungen sollte man nicht ausser Acht lassen, ich halte das für wichtig. NV ist mit seinen Treibern immernoch nicht im Reinen, aber das wird. Immerhin haben sie ja ggü. ATI neue Technologie eingeführt und deshalb finde ich das auch verschmerzlich, wenn man sich ab und zu Betatreiber installieren muss. Mir persönlich ist der Status der Treiber egal, aber Leute, denen offizielle Treiber wichtig sind eben nicht, was ich durchaus verstehen kann.

Es gibt viele Gründe, sich für oder gegen eine Karte zu entscheiden, es gibt für beide Varianten Vor- und Nachteile.
Die einzigen Fakten, die man objektiv auswerten kann, sind Preis/Leistung. Wenn um AGP geht, führt im Moment kein Weg an NV vorbei, bei PEG hat ATI im Moment deutlich bessere Preise. Das kann sich aber wieder ändern und bei P/L Gleichstand gewinnen, die o.g. Dinge immer mehr an Bedeutung ;)

Mr. Lolman
2005-03-21, 13:08:05
Sehe ich fast genauso :up:


Das Einzige was ich als problematisch betrachte ist, dass viele OpenGL Benchmarks im Netz zu NVs Gunsten verfälscht sind, in dem man fast immer (hoffentlich unwissenderweise) NV biAF gegen ATi triAF getestet hat. Denn wenn man auf Treibern =< 71.84 Quality+ Optimierungen wählt spuckt die Karte nur biAF aus. (was übrigens deutlich hässlicher, als das biAF der ATi Karten aussieht (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2796940#post2796940))

The_Invisible
2005-03-21, 14:19:09
Sehe ich fast genauso :up:


Das Einzige was ich als problematisch betrachte ist, dass viele OpenGL Benchmarks im Netz zu NVs Gunsten verfälscht sind, in dem man fast immer (hoffentlich unwissenderweise) NV biAF gegen ATi triAF getestet hat. Denn wenn man auf Treibern =< 71.84 Quality+ Optimierungen wählt spuckt die Karte nur biAF aus. (was übrigens deutlich hässlicher, als das biAF der ATi Karten aussieht (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2796940#post2796940))

Problematisch ist für mich das fast keine Site schreibt mit welchen Einstellungen sie benchen, gerade das sie den Treiber und die Einstellungen im Spiel erwähnen.

@dildo4u
ja, das wäre ne hübsche Serienkarte :D

mfg

seahawk
2005-03-21, 14:24:52
@ Hot

Da kann ich nur bedingt zu stimmen. Wesentlich ist die Haltedauer der Karte. Soll sie nur jetzige Spiele erledigen und innerhalb von 2005 durch einen andere ersetzt werden, dann spricht bei PCE wirklich alles für ATI.
Soll die Karte hingegen 1,5-2 Jahre halten, dann würde ich SM3.0 durchaus als wichtig bewerten undzur NV raten. Bei dieser HAltedauer wird man zumindest im zwiten JAhr fast nur noch DM3.0 neukaufen können und auch ATI wird dann schon mindestens 1 Jahr lang SM3.0 Karten ausliefern. Dies wird auch an der Software nicht ohne Auswirkung vorbei gehen.

bedunet
2005-03-21, 14:39:30
Seh ich genauso. Eine Grafikkarte muß bei mir schon 18-24 Monate durchhalten - besonders bei den heutigen Preisen.

DrumDub
2005-03-21, 14:40:30
seahawk

haltbarkeit klingt imho besser als haltedauer. ;)

im nachhinhein ärger ich mich jetzt auch ein wenig, dass ich mir die x800xl geholt habe, wo die 6800gt pcie jetzt schon für 345,- eur (http://www.overclockers.de/produkt.php?pid=1540&kat=232) zu bekommen ist. na ja, letztlich werd ich aber bis ende 2006 mit der karte auskommen.

seahawk
2005-03-21, 15:01:06
@ Haltbarkeit würde ja bedeuten, dass die KArte nach der Frist irgendwie kaputt ist. Haltedauer paßt da imho besser, da dies den Zeitraum bezeichnet in dem man die Karte nutzen will.

Ich will ja schon lange aufrüsten, aber momentan habe ich kein Spiel, dass auf meiner 9700pro nicht zumindest in 1024x768 und ohne AA ausreichend llief.

Coda
2005-03-21, 15:06:10
besonders bei den heutigen Preisen.Die waren früher auch nicht anders

HOT
2005-03-21, 15:11:27
@ Hot

Da kann ich nur bedingt zu stimmen. Wesentlich ist die Haltedauer der Karte. Soll sie nur jetzige Spiele erledigen und innerhalb von 2005 durch einen andere ersetzt werden, dann spricht bei PCE wirklich alles für ATI.
Soll die Karte hingegen 1,5-2 Jahre halten, dann würde ich SM3.0 durchaus als wichtig bewerten undzur NV raten. Bei dieser HAltedauer wird man zumindest im zwiten JAhr fast nur noch DM3.0 neukaufen können und auch ATI wird dann schon mindestens 1 Jahr lang SM3.0 Karten ausliefern. Dies wird auch an der Software nicht ohne Auswirkung vorbei gehen.

Die Haltbarkeit der Karte ist komplett abhängig von der Leistungsfähigkeit dieser. Würden demnächst Spiele rauskommen, die dank SM3.0 wesentlich (damit meine ich wirklich wesentlich) schneller laufen und/oder wesentlich besser aussehen, könnte ich dir rechtgeben. Aber das ist höchst spekulativ und somit höchst unwahrscheinlich. Ausnahmen nicht ausgeschlossen. Du wirst im Grossteil mit ner schnellen SM2.0b Karten nicht weniger lange auskommen als mit ner heutigen SM3.0 Karte, weil die Performance nahezu identisch ist.

HOT
2005-03-21, 15:13:17
Sehe ich fast genauso :up:


Das Einzige was ich als problematisch betrachte ist, dass viele OpenGL Benchmarks im Netz zu NVs Gunsten verfälscht sind, in dem man fast immer (hoffentlich unwissenderweise) NV biAF gegen ATi triAF getestet hat. Denn wenn man auf Treibern =< 71.84 Quality+ Optimierungen wählt spuckt die Karte nur biAF aus. (was übrigens deutlich hässlicher, als das biAF der ATi Karten aussieht (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2796940#post2796940))

Hochinteressant. Ist mir nie aufgefallen, da ich immer auf HQ spiele.

Tarkin
2005-03-21, 15:18:19
neues Review... X800 XL gegen 6800 GT

http://www.bit-tech.net/review/394/10

http://www.bit-tech.net/images/review/394/doom3apples.png

http://www.bit-tech.net/images/review/394/hl2apples.png

http://www.bit-tech.net/images/review/394/farcryapples.png

... ich kann hier das Leid gewisser Leute (DrumDub) echt nicht nachvollziehen. Aktuell ist die XL gut 60,- günstiger als ne GT und dazu noch schneller.

DrumDub
2005-03-21, 15:23:30
@ Haltbarkeit würde ja bedeuten, dass die KArte nach der Frist irgendwie kaputt ist. Haltedauer paßt da imho besser, da dies den Zeitraum bezeichnet in dem man die Karte nutzen will.
mhhh... stimmt auch wiederum. vielleicht ist nutzungsdauer der bessere begriff. aber ist auch egal...

Ich will ja schon lange aufrüsten, aber momentan habe ich kein Spiel, dass auf meiner 9700pro nicht zumindest in 1024x768 und ohne AA ausreichend llief.
1024x768 ist mir zu wenig gewesen mit meiner 9700. ohne aa isses auch blöde. bin da doch sehr verwöhnt in dieser richtung. mit meiner x800xl läuft auf jeden fall jetzt alles bei 1280x960 und mindestens 4xaa.

DrumDub
2005-03-21, 15:35:17
Die waren früher auch nicht anders

genau. ne geforce 2 ultra hat damals auch 1200,- dm gekostet. für ne gute karte im oberen mainstram/unteren highend musste man früher auch ca. 400-600,- dm zahlen.

DrumDub
2005-03-21, 15:43:41
... ich kann hier das Leid gewisser Leute (DrumDub) echt nicht nachvollziehen. Aktuell ist die XL gut 60,- günstiger als ne GT und dazu noch schneller.

ich bin ja auch von der speed her voll und ganz zufrieden. :)
die installation war abolut problemlos. die lüfttersteuerung übers traytool ist klasse, vivo hat die karte auch. ich habe eben nur etwas mehr bezahlt (312,- eur), weil ich alles beim gleichen händler geholt habe, der jetzt eben eine 6800gt pcie für 345,- eur hat. mittlerweile kostet dort die x800xl aber auch nur noch 299,- eur.

lediglich ssaa bzw. hybridmodi vermisse ich etwas gegenüber der 6800er. das ist für mich bisher der einzige kritikpunkt bei der x800xl. hdr gefällt mir eh nicht, von daher kann ich drauf verzichten. far cry läuft z.b. supersmooth bei 1280x960 6xmsaa/4xaf. das ist shcon nen augenschmauß. :)

The_Invisible
2005-03-21, 15:46:19
Höchstinteressant. Ist mir nie aufgefallen, da ich immer auf HQ spiele.

me too, verstehe nicht wie man bei so "monsterkarten" qualität opfern kann, kann ich mir ja gleich ne billigere kaufen

btw
ich schätze mal wenn ne x800 zu langsam ist ist es auch ne 6800, so gleichwertig war die performance nämlich fast nie wie jetzt zwischen ATI u. NVIDIA

btw2
ich persönlich steuer auch meine eigenen Erfahrungen mit einem hersteller zu einer kaufentscheidung bei... warum soll ich mir was anderes kaufen wenn ich 6jahre schon keine probs damit habe bzw deren probs kenne und lösen kann, und dann plötzlich auf einen anderen hersteller setzen soll? das macht bei mir eigentlich schon einen großteil beim kauf aus. dann gibts wieder andere die einfach auf pures preis/leistungs-verhältnis schauen. ich gehöre dazu aber nicht.

mfg

dildo4u
2005-03-21, 15:48:59
neues Review... X800 XL gegen 6800 GT



... ich kann hier das Leid gewisser Leute (DrumDub) echt nicht nachvollziehen. Aktuell ist die XL gut 60,- günstiger als ne GT und dazu noch schneller.

Auch ein neues review Hier liegen beide Karten bei HL2 und FC sher dicht beisammen.
http://www.gamepc.com/labs/view_content.asp?id=x800xl&page=7


http://www.gamepc.com/labs/view_content.asp?id=x800xl&page=11

Deutlicher vorsprung bei Doom3 für die 6800GT
http://www.gamepc.com/labs/view_content.asp?id=x800xl&page=10

PingpiN
2005-03-21, 16:34:51
Auch ein neues review Hier liegen beide Karten bei HL2 und FC sher dicht beisammen.
http://www.gamepc.com/labs/view_content.asp?id=x800xl&page=7


http://www.gamepc.com/labs/view_content.asp?id=x800xl&page=11

Deutlicher vorsprung bei Doom3 für die 6800GT
http://www.gamepc.com/labs/view_content.asp?id=x800xl&page=10

Deutlich ist da garnichts :rolleyes: :redface: .Die 15 Frames unterschied machen nicht viel aus.Mit jeden Treiber denn Ati veröffentlich wirds immer änger bei Doom3 für NV,bald sind nur noch 5 Framesunterschied dann hat sich das Thema erledigt das die NV KArten ja viel besser bei Doom3 performen.*VOTE*wer spielt eigentlich noch doom3? :|Doom3 ist geschichte. :eek: Ic glaube jder hier spielt lieber CSS und HL2,und da performt die x800 Xl viel besser.

hmx
2005-03-21, 16:56:03
Und was ist mit dem bald kommendem Q4? Und ich spiele weder HL2 noch CSS.
Und was die Treiber angeht, wie kommst du darauf, dass die noch weiter schneller werden? Irgendwann ist auch mal schluss. Und das die ROPs des NV40 32 zixel/Takt leisten können sollte doch schon ein Vorteil für NV bei D3 sein.

Mr. Lolman
2005-03-21, 16:56:47
Außerdem weiss man wiedermal nicht mit welchen Settings gebencht wurde (biAF vs tri?)...

Majestic
2005-03-21, 17:36:57
neues Review... X800 XL gegen 6800 GT
... ich kann hier das Leid gewisser Leute (DrumDub) echt nicht nachvollziehen. Aktuell ist die XL gut 60,- günstiger als ne GT und dazu noch schneller.

Hast du auch noch andere Benches außer auf ATI Karten sowieso gut laufenden Spielen wie HL2 oder Farcry....? (Doom3 sei hier mal die Ausnahme)

deekey777
2005-03-21, 17:51:35
Hast du auch noch andere Benches außer auf ATI Karten sowieso gut laufenden Spielen wie HL2 oder Farcry....? (Doom3 sei hier mal die Ausnahme)

Was willste noch? Solitär?

Wenn man auf die Links klickt, bekommt man auch weitere Bildchen mit Balken.
Sehr interessant ist SC3:
http://www.bit-tech.net/images/review/394/scct.png
Auch in Riddik ist die 6800GT schneller.
Es gibt aber einige Sonderfälle wie zB CMR 2005.

dildo4u
2005-03-21, 17:57:45
Was willste noch? Solitär?

Wenn man auf die Links klickt, bekommt man auch weitere Bildchen mit Balken.
Sehr interessant ist SC3:
http://www.bit-tech.net/images/review/394/scct.png
Auch in Riddik ist die 6800GT schneller.
Es gibt aber einige Sonderfälle wie zB CMR 2005.
Der SC3 vergleich ist mist da die 6800GT mit SM3.0 Lief.

deekey777
2005-03-21, 17:58:29
Der SC3 vergleich ist mist das die mit SM3.0 Lief.

Nein, ist er nicht. ;)
Nicht nur SM3.0 wurde verwendet, sondern 2xAA auch noch.

dildo4u
2005-03-21, 18:01:25
Nein, ist er nicht. ;)
Nicht nur SM3.0 wurde verwendet, sondern 2xAA auch noch.
Jo und wenn man bencht dann doch mit 100% gleichen settings bitte.Und wegen 2XAA die X800XL Läuft in einer höheren Auflösung bei diesem bench.

deekey777
2005-03-21, 18:11:53
Jo und wenn man bencht dann doch mit 100% gleichen settings bitte.Und wegen 2XAA die X800XL Läuft in einer höheren Auflösung bei diesem bench.

Argh, ich muß wieder zu Fielmann, denn die höhere Auflösung habe ich übersehen. Aber was kann die 6800GT, daß die X800XL kein SM3.0 kann?

Andererseits wissen nur Leute mit einer X800XL, wie groß der Unterschied zw. 1024 <-> 1200 ist.

Majestic
2005-03-21, 18:28:50
*doppelt*

Majestic
2005-03-21, 18:29:06
Was willste noch? Solitär?


Ja bench mal mit Solitär.....:tongue: Darf man jetzt nicht mal fragen oder warum regst dich auf? Ich meinte auch mal ein Review mit nicht diesen üblichen bekannten Spielen. Mich würde mal interessieren wie groß der Unterschied zischen XL unf GT mit nicht so bekannten/oft gebenchten Titeln ist...

deekey777
2005-03-21, 18:34:02
Ja bench mal mit Solitär.....:tongue: Darf man jetzt nicht mal fragen oder warum regst dich auf? Ich meinte auch mal ein Review mit nicht diesen üblichen bekannten Spielen. Mich würde mal interessieren wie groß der Unterschied zischen XL unf GT mit nicht so bekannten/oft gebenchten Titeln ist...

Du könntest auch etwas Eigeninitiative zeigen und selbst nach Reviews suchen. ;)
Und ich reg mich nicht auf, ich bin die Ruhe in Person.

Majestic
2005-03-21, 18:40:04
Könnte.. hätte.. sollte... Hätte ja immerhin sein können das er oder ein anderer mal nen Link aus dem Ärmel schüttelt....;)

Radeon-Man
2005-03-22, 10:53:28
*g*
von bit-tech.net:
There is slightly improved lighting with the Shader Model 3.0 path, but the additional features were of no use with the GeForce 6800 GT - the card was simply not fast enough to make good use of HDR Rendering, Parallax Mapping, and High Quality Soft Shadows

gnomi
2005-03-22, 11:45:04
*g*
von bit-tech.net:
There is slightly improved lighting with the Shader Model 3.0 path, but the additional features were of no use with the GeForce 6800 GT - the card was simply not fast enough to make good use of HDR Rendering, Parallax Mapping, and High Quality Soft Shadows

Zumindest im Bezug auf die Demo teile ich diese Aussage nicht wirklich.
Diese konnte ich mit knapp 40 fps avg. in 1024 mit allen Details im SM 3 Pfad spielen. Das ist zugegeben nicht völlig optimal (da es z.t. auch mal mit nur ~ 25 Bildern lief), aber voll spielbar und geht wohl für ein Spiel wie Splinter Cell auch ganz in Ordnung.
In der Vollversion mag es wirklich noch anspruchsvollere Stellen geben- unterm Strich siehts aber dennoch trotzdem so aus, daß es zweifelsfrei nett ist, eine Karte zu haben, die ausnahmslos alle derzeit gängigen Effekte unabhängig von der Art der Implimentierung darstellen kann.
Ich kann ja wahlweise immer noch Einstellungsänderungen vornehmen... Selbiges Prinzip gilt mal generell gesehen auch für die Geforce 6 Serie im Allgemeinen. Bei SLI passe ich die Einstellungen halt nach oben, bei der 6600 Serie nach unten an. Die Performance, mit der ein Effekt dargestellt wird, ist nach meinem Dafürhalten zwar beileibe nicht unwichtig, aber halt sozusagen eher zweitrangig und das kleinere Problem. =)

Dunkeltier
2005-03-22, 11:57:57
Zumindest im Bezug auf die Demo teile ich diese Aussage nicht wirklich.
Diese konnte ich mit knapp 40 fps avg. in 1024 mit allen Details im SM 3 Pfad spielen. Das ist zugegeben nicht völlig optimal (da es z.t. auch mal mit nur ~ 25 Bildern lief), aber voll spielbar und geht wohl für ein Spiel wie Splinter Cell auch ganz in Ordnung.
In der Vollversion mag es wirklich noch anspruchsvollere Stellen geben- unterm Strich siehts aber dennoch trotzdem so aus, daß es zweifelsfrei nett ist, eine Karte zu haben, die ausnahmslos alle derzeit gängigen Effekte unabhängig von der Art der Implimentierung darstellen kann.
Ich kann ja wahlweise immer noch Einstellungsänderungen vornehmen... Selbiges Prinzip gilt mal generell gesehen auch für die Geforce 6 Serie im Allgemeinen. Bei SLI passe ich die Einstellungen halt nach oben, bei der 6600 Serie nach unten an. Die Performance, mit der ein Effekt dargestellt wird, ist nach meinem Dafürhalten zwar beileibe nicht unwichtig, aber halt sozusagen eher zweitrangig und das kleinere Problem. =)

40 FPS bei 1024x768? Sorry, aber X-D.

Für die meisten TFT-Besitzer sowie Besitzer von Groß-CRTs (wie ich es einer in wenigen Tagen sein werde) kommen nur Auflösungen jenseits von 1280x1024 in die Tüte.

Und wenn ich drüber nachdenke das ich es mit 16xtri-aF sowie Kantenglättung und aktivierter VSync "treibe"... ;D Wem willst du da diese 40 FPS als "spielbar" verkaufen? Nettes "must have", für mich allerdings nicht wirklich sinnig. Lieber mehr dumpfe Rohleistung in der Tüte.

Gast
2005-03-22, 12:17:02
40 FPS bei 1024x768? Sorry, aber X-D.

Für die meisten TFT-Besitzer sowie Besitzer von Groß-CRTs (wie ich es einer in wenigen Tagen sein werde) kommen nur Auflösungen jenseits von 1280x1024 in die Tüte.

Und wenn ich drüber nachdenke das ich es mit 16xtri-aF sowie Kantenglättung und aktivierter VSync "treibe"... ;D Wem willst du da diese 40 FPS als "spielbar" verkaufen? Nettes "must have", für mich allerdings nicht wirklich sinnig. Lieber mehr dumpfe Rohleistung in der Tüte.
man kann ja auch hdr separat abschalten, dann ist die performance praktisch gleich mit dem sm1.1-pfad und es sieht trotzdem noch besser aus. das hdr auf derzeitigen karten nicht vernünftig läuft wurde ja schon oft genug durchgekaut.

gnomi
2005-03-22, 12:30:41
40 FPS bei 1024x768? Sorry, aber X-D.

Für die meisten TFT-Besitzer sowie Besitzer von Groß-CRTs (wie ich es einer in wenigen Tagen sein werde) kommen nur Auflösungen jenseits von 1280x1024 in die Tüte.



Und wenn ich drüber nachdenke das ich es mit 16xtri-aF sowie Kantenglättung und aktivierter VSync "treibe"... ;D Wem willst du da diese 40 FPS als "spielbar" verkaufen? Nettes "must have", für mich allerdings nicht wirklich sinnig. Lieber mehr dumpfe Rohleistung in der Tüte.

Splinter Cell 3 sieht in 1024 mit allen Details IMHO klar besser aus als im 1.1 Pfad mit AA & AF eine Auflösung höher. (zumindest bis zu den am verbreitesten 19 Zoll Monitorgrößen)
Und falls jemand anderer Ansicht als ich sein sollte, einen TFT einsetzt oder 40 fps avg. als zu gering ansieht, spielt er halt ohne HDR, Parallax Mapping oder Softshadows, und schaltet dafür AA und/oder AF zu und erhöht gegebenfalls die Auflösung. :)
Auf SM 3 Karten gehen halt alle denkbaren Szenarien- man muß sich nicht festlegen. :)
Der einzige unschöne aktuelle Nachteil im Bezug auf die größten Geforce 6 Karten ist die leichte Unterlegenheit in brutal füllratenlimitierenden Szenarien. Dieser Nachteil ist aber nur übergangsweise und für eingefleischte Freaks von Bedeutung.
In naher Zukunft werden beide Hersteller (leistungsstäkere) SM 3 Karten nachschieben, die auch in solchen Szenarien ohne SLI/AMR eine X850 XT versenken werden. =)

Dunkeltier
2005-03-22, 12:38:36
Splinter Cell 3 sieht in 1024 mit allen Details IMHO klar besser aus als im 1.1 Pfad mit AA & AF eine Auflösung höher. (zumindest bis zu den am verbreitesten 19 Zoll Monitorgrößen)
(...)


X-((n) Ne, ich stehe nicht auf schwarze Streifen und geringere Details durch die niedrigere Auflösung.

Coda
2005-03-22, 12:40:58
Wieso wird HDR eigentlich immer noch mit SM 3.0 vermischt?

Dunkeltier
2005-03-22, 12:42:54
Wieso wird HDR eigentlich immer noch mit SM 3.0 vermischt?


Weils mit SM3.0 halt einfacher als mit SM2.0 zu realisieren ist?

Holundermann
2005-03-22, 12:45:17
Ne, ich stehe nicht auf schwarze Streifen und geringere Details durch die niedrigere Auflösung.

achso, du stehst mehr auf geringere details die deine karte nicht darstellen kann :P

reunion
2005-03-22, 12:45:41
Weils mit SM3.0 halt einfacher als mit SM2.0 zu realisieren ist?

Warum?
Ich sehe keine Grund.