PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X800 qualitativ besser?


[VII]
2004-07-02, 07:25:38
Hi @ll

Nun da ich mittlerweile schon unzählige Tests in Bezug auf X800 und 6800 durchgelesen habe habe ich mal so ein paar Fragen.

Habe ich es in den Test richtig interpretiert, dass bei den optimierten Bildern mit FSAA und AF die ATI Karte meist weiter vorne ist?

Die Nvidia Karte hat ja schon Shader 3.0 Unterstützung. Glaubt Ihr, dass es in Bezug auf den FarCry Patch 1.2 und kommendes Doom3 viel bringen wird oder meint Ihr, dass ATI es ausgleichen kann evtl. durch Treiber o. ä.?

THX

[VII]

daztro
2004-07-02, 14:34:44
schade das hier keiner drauf eingeht... war doch eine wohl formulierte und auch diskutierbare frage.

de daz

Sphinx
2004-07-02, 14:47:48
Original geschrieben von [VII]
Habe ich es in den Test richtig interpretiert, dass bei den optimierten Bildern mit FSAA und AF die ATI Karte meist weiter vorne ist?


Ja

Original geschrieben von [VII]
Die Nvidia Karte hat ja schon Shader 3.0 Unterstützung. Glaubt Ihr, dass es in Bezug auf den FarCry Patch 1.2 und kommendes Doom3 viel bringen wird oder meint Ihr, dass ATI es ausgleichen kann evtl. durch Treiber o. ä.?


Viel ist relativ - sollte die vorgestellte Präsentationsdemo von FC von NV sich mit dem bald veröffentlichten Patch 1.2 auf das gesamte Spiel auswirken bringt es eventuell 30% Mehrleistung aber auch nur wenn DX9.0c erst im -Spekuliert- September erscheint...

ZU D3 - when it´s done kann man sich darüber bestimmt besser unterhalten welche Karte denn nun die bessere Wahl ist - wobei Nvidia in OpenGL bekanntermaßen schneller war und ist als Ati *Zeitpunkt jetzt* Q3-Engine Games, Benchmarks...

Gast
2004-07-02, 15:30:40
Original geschrieben von Sphinx
Viel ist relativ - sollte die vorgestellte Präsentationsdemo von FC von NV sich mit dem bald veröffentlichten Patch 1.2 auf das gesamte Spiel auswirken bringt es eventuell 30% Mehrleistung aber auch nur wenn DX9.0c erst im -Spekuliert- September erscheint...


Wenn man XP RC2 installiert, hat man es jetzt schon!
Dort wird 9.0c mitgeliefert.

Gast
2004-07-02, 20:54:53
30% Mehrlesitungdurch Pixelshader 3 und DirectX 9.0c???

vielleicht theoretisch.

Ich würde so nen shcwachsinn nicht mal denken, geschweige denn hier posten.

Sorry, aber es wurde in unzähligen Tests schon darauf eingegangen, das die Performance von Shader 3.0 unterstützenden Spielen mit der aktuelllen Nvidia Generation in den Keller gehen würde.

Cheers

LovesuckZ
2004-07-02, 21:02:15
Original geschrieben von Gast
Sorry, aber es wurde in unzähligen Tests schon darauf eingegangen, das die Performance von Shader 3.0 unterstützenden Spielen mit der aktuelllen Nvidia Generation in den Keller gehen würde.
Cheers

Du weißt, was jetzt kommt?
Richtig, zeige doch mal eines dieser "unzähligen Tests".
Ironischer Weise ist der Leistungsanstieg in Farcry irgendwo zwischen 1- 30%.

deekey777
2004-07-02, 21:07:15
Original geschrieben von LovesuckZ
Du weißt, was jetzt kommt?
Richtig, zeige doch mal eines dieser "unzähligen Tests".
Ironischer Weise ist der Leistungsanstieg in Farcry irgendwo zwischen 1- 30%.

Es waren keine Tests, sondern so etwas wie "Inside NV40":
Braucht man Pixelshader 3.0? (http://www.3d-center.de/artikel/nv40_technik/index5.php)

Dennoch scheint der Patch 1.2 iVm DX9.0c wirklich Geschwindigkeitsvorteile zu bringen.

LovesuckZ
2004-07-02, 21:19:04
Original geschrieben von deekey777
Es waren keine Tests, sondern so etwas wie "Inside NV40":
Braucht man Pixelshader 3.0? (http://www.3d-center.de/artikel/nv40_technik/index5.php)

aths schrieb ohne "richtiges" Wissen zu diesem Zeitpunkt, wie die User.
Jetzt weiß er mehr, auch wir. Und da wurde bewiesen, dass dynamisches Branching zum beispiel auf dem NV40bis zu 100% Mehrleistung bringen kann.
Farcry ist mit dem SM3.0 nicht langsamer, an vielen Stellen deutlich schneller.
Und, wir haben nach 3 Monaten da erste SM3.0 faehige Spiel.
Wann kam nochmal TR:6?

deekey777
2004-07-02, 21:32:46
Das ist der falsche Fred.

Kleiner Rat: Du nimmst eine Münze, malst die eine Seite rot an und die ander grün...

Mad-Marty
2004-07-02, 21:36:23
Original geschrieben von LovesuckZ
aths schrieb ohne "richtiges" Wissen zu diesem Zeitpunkt, wie die User.
Jetzt weiß er mehr, auch wir. Und da wurde bewiesen, dass dynamisches Branching zum beispiel auf dem NV40bis zu 100% Mehrleistung bringen kann.
Farcry ist mit dem SM3.0 nicht langsamer, an vielen Stellen deutlich schneller.
Und, wir haben nach 3 Monaten da erste SM3.0 faehige Spiel.
Wann kam nochmal TR:6?

Leider wurde auch bewiesen, dass dynamisches Branching zum beispiel auf dem NV40bis zu -100% Leistung bringen kann (in rein theoretischen szenarien).

Stichwort Quad Branches etc.

Der Gewinn dürfte sich im regelfall äusserst dünn bemerkbar machen.
Ich würde auf keinen Fall von einem SPEKULIERTEN PATCH meinen GFX Kauf abhängig machen.

Und nochweniger von der aktuellen skalierung der Q3 Engine auf ATI Karten.


Ich würde wohl die X800 bevorzugen, aber das ist natürlich jedem seine freie wahl.

@LS : jaja, gleich kommt wieder blabla von dir das SM3 da sein MÜSSEN, es kann ohne gar nicht gehen ... etc.
spars dir, ich will nicht drüber diskutieren
sie sind sicher sinnvoll, aber in momentaner implementierung weder ein muss noch die erlösung.

Endorphine
2004-07-02, 21:47:01
Original geschrieben von [VII]
Habe ich es in den Test richtig interpretiert, dass bei den optimierten Bildern mit FSAA und AF die ATI Karte meist weiter vorne ist? Nein. Original geschrieben von [VII]
Die Nvidia Karte hat ja schon Shader 3.0 Unterstützung. Glaubt Ihr, dass es in Bezug auf den FarCry Patch 1.2 und kommendes Doom3 viel bringen wird oder meint Ihr, dass ATI es ausgleichen kann evtl. durch Treiber o. ä.? Nein. Mangels Hardware kann ATI in der Hinsicht momentan nicht zum NV40 aufschliessen. SM 3.0 wurde von nVidia ja nicht aus Jux und Dallerei für viel Geld implementiert, wenn es auch ein aufgebohrter NV38 und neue Treiber getan hätten...

Schrotti
2004-07-02, 21:58:28
Original geschrieben von Endorphine
Nein. Nein. Mangels Hardware kann ATI in der Hinsicht momentan nicht zum NV40 aufschliessen. SM 3.0 wurde von nVidia ja nicht aus Jux und Dallerei für viel Geld implementiert, wenn es auch ein aufgebohrter NV38 und neue Treiber getan hätten...

Mag ja sein was du schreibst.

Nur bis entsprechende Games da sind die SM 3.0 auch intensiv nutzen gibts die nächste Chipgeneration.

Also X800 Reihe das ist meine Meinung.

Mfg Schrotti

Frolic
2004-07-03, 10:24:22
Original geschrieben von Schrotti
Nur bis entsprechende Games da sind die SM 3.0 auch intensiv nutzen gibts die nächste Chipgeneration.
Mfg Schrotti

ich denke mal dass die spiele mit SM 3.0-unterstützung früher kommen werden als eine neue graka-generation. nächstes jahr werden mit sicherheit erstmal aufgebohrte chips präsentiert. ich denke, mit einer neuen generation wird man erst wieder in (ab) 3 jahren rechnen können.
hol dir eine nvidia :D

Tigerchen
2004-07-03, 10:59:41
Original geschrieben von Endorphine
Mangels Hardware kann ATI in der Hinsicht momentan nicht zum NV40 aufschliessen. SM 3.0 wurde von nVidia ja nicht aus Jux und Dallerei für viel Geld implementiert, wenn es auch ein aufgebohrter NV38 und neue Treiber getan hätten...


Nein. Optimierte 2.x Shader würden in etwa dasselbe bringen. nV hat wohl ordentlich Kohle springen lassen damit Crytec handoptimierte 3.0 Shader schreibt. Würde mich doch sehr wundern wenn da in nächster Zeit noch was ähnliches für ein anderes Spiel gemacht wird.

Branching werden se wohl weitgehend vermieden haben. :)

LovesuckZ
2004-07-03, 11:04:48
Original geschrieben von Tigerchen

Nein. Optimierte 2.x Shader [...]

Stop:
Auch "Optimierte 2.x Shader" waeren nutzlos, da sie nichts außer Speed bringen.
Bitte bleibe bei deiner Meinung!

Mumins
2004-07-03, 11:05:31
mit einer neuen generation wird man erst wieder in (ab) 3 jahren rechnen können.

Ja klar in 3 Jahren! Muahahahaaa

Mad-Marty
2004-07-03, 13:24:01
Original geschrieben von Mummins
Ja klar in 3 Jahren! Muahahahaaa


So abwegig ist das gar nicht, ich würde allerdings auf 2 J Tippen.

Das trifft in etwa die lebenszeit der R300 Architektur bzw. NV3x

Beachte bitte das NV 35 / R350 nur geringfügig anders waren.

Mumins
2004-07-03, 13:33:01
Der X800 ist aber nur eine Zwischenlösung! Spätestens in einem Jahr muss ATI nen Chip mit PS 3.0 bringen. Sonst werden sie gegen Nvidia ins Hintertreffen geraten.

Tigerchen
2004-07-03, 14:01:27
Original geschrieben von Mummins
Der X800 ist aber nur eine Zwischenlösung! Spätestens in einem Jahr muss ATI nen Chip mit PS 3.0 bringen. Sonst werden sie gegen Nvidia ins Hintertreffen geraten.


Das auf jeden Fall.

Mr. Lolman
2004-07-03, 14:16:42
Original geschrieben von LovesuckZ
aths schrieb ohne "richtiges" Wissen zu diesem Zeitpunkt, wie die User.
Jetzt weiß er mehr, auch wir. Und da wurde bewiesen, dass dynamisches Branching zum beispiel auf dem NV40bis zu 100% Mehrleistung bringen kann.
Farcry ist mit dem SM3.0 nicht langsamer, an vielen Stellen deutlich schneller.
Und, wir haben nach 3 Monaten da erste SM3.0 faehige Spiel.
Wann kam nochmal TR:6?

Daran glaub ich erst, wennn ich ein Spiel sehe, in dem SM3.0 Effekte vorkommen, die mit SM2.x HW definitiv nicht machbar sind.

LovesuckZ
2004-07-03, 14:20:04
Original geschrieben von Mr. Lolman
Daran glaub ich erst, wennn ich ein Spiel sehe, in dem SM3.0 Effekte vorkommen, die mit SM2.x HW definitiv nicht machbar sind.

SM2.x zaehlt nicht, da es alles sein kann!
Entweder SM2.0 oder SM3.0.
Ahso, leider gibt es auch keine SM2.0 Effekte, "die mit [CPU] definitiv nicht machbar sind". Womit klar ist: Wir braeuchten keine SM2.0 faehige Hardware.
Ironisch, hast du doch die 9500 auch wegen ihrer SM2.0 Einheiten gegenueber einer TI4200 mal empfohlen.
Daher meine bitte: Koenntet ihr nicht bitte bei einer Meinung bleiben ohne jedem Tag zu hoppen?

/edit: Ich habe das schonmal zu Tigerchen gesagt:
Mit dieser Meinung muesstes du alles, was keine neuen Effekte ermoeglicht ueber die CPU laufen lassen: Videodecoding, Vertexshader bis 2.a, PS bis 3.0, TßL etc.

Mr. Lolman
2004-07-03, 14:25:00
Original geschrieben von LovesuckZ
...

Wo liegt das Problem, solang' die GPU schnell genug ist? Du hast auch den wunderbar hohen möglichen Instruction Count bei SM3.0 ggü SM2.0 in den Himmel gelobt, und dabei ist die UE3 Demo schon bei einem Bruchteil davon tw. ruckelig...


edit: Wegen der 9500: Der Sprung zw. SM1.3 und SM2.0 ist grösser als bei SM2.0 und 2.0, auch wenn einem die Zahlen was anderes glauben machen wollen ;)

Ausserdem hab ich die Karte hauptsächlich wegen der z.T. enormen OCbarkeit, dem schönerem AA, dem schnellerem AF, und der eventuellen Modbarkeit empfohlen, aber lass mer das jetzt, um die 9500 gehts jetzt garnicht...

LovesuckZ
2004-07-03, 14:39:28
Original geschrieben von Mr. Lolman
Wo liegt das Problem, solang' die GPU schnell genug ist? Du hast auch den wunderbar hohen möglichen Instruction Count bei SM3.0 ggü SM2.0 in den Himmel gelobt, und dabei ist die UE3 Demo schon bei einem Bruchteil davon tw. ruckelig...

Weil es dann kein Fortschritt gibt?
Ausserdem kann man viele Dinge nicht emulieren. FP Genauigkeit zum Beispiel.
Oder durch "Emulierung" (viele Passes) man deutlich Leistungseinbußen in Kauf nehmen muss. Ansonsten, warum weiter als ein r300 entwickeln. Er kann ja alles, nur schnell genug muss er sein :lol:
Und was machst du mit GPU's, die nicht schnell genug sind? Ignorieren?

edit: Wegen der 9500: Der Sprung zw. SM1.3 und SM2.0 ist grösser als bei SM2.0 und 2.0, auch wenn einem die Zahlen was anderes glauben machen wollen ;)

FP Genauigkeit und laengere Shader. Nicht mehr als was SM3.0 gegenueber SM2.0 bietet.

[...] aber lass mer das jetzt, um die 9500 gehts jetzt garnicht...

Analogiesierendes Argument bezueglich der These: Ihr aendert eure Meinung von einem zu anderem Tag.
Entweder ich empfehle etwas aufgrund der Tatsache, es ist darin besser und halte meine Meinung oder ich lasse es. Bei einigen faellt aber auf, dass sie ploetzlich ihre Empfehlungensstrategien nicht mehr einhalten...

Mr. Lolman
2004-07-03, 14:52:06
Original geschrieben von LovesuckZ
Weil es dann kein Fortschritt gibt?


Meine Meinung bezüglich Fortschritt hab ich schon in einem anderen Post deutlichst kundgetan. Ich bin ganz froh, dass meine 85€ CPU immernoch ganz oben mitschwebt, die GraKa in meinem Rechner ~1 1/2 Jahre HighEnd war, und dass der Fortschritt quasi eine Zeitlang still stand.


Dass was hier propagiert wird, ist, sich wieder eine neue GraKa zu kaufen, weil SM3.0 bald ein Muss wird, und man sonst auf Effekte verzichten müsste.

Noch kenn ich kein Beispiel, wo SM3.0 wirklich optisch sichtbare Vorteile bringen würde, ohne dass ein (u.U. nicht einmal langsameres) Fallback auch möglich wäre. Aber klar hauen wir weiter Geld raus, ärgern wir uns (wie schon ein paar mal, wenn man länger schon dabeio ist) dass dann aus den tollen Features doch wieder nix spielbares geworden ist, und wixxen uns den Frust an den tollen Techdemos weg, die wir immer wieder ansehen, um die im Rechner schlummernde Technologie doch ansatzweise ausreizen zu können.




Falls man mein Post richtig versteht, wird man sich auch nicht am sarkastischen letzten Absatz aufhängen, sondern vielleicht sogar Freude haben, dass es noch keine Geforce 7000 ,Radeon XI9900 gibt, die vom P5 6.9Ghz befeuert werden, nur damit wir ein 3D Spiel spielen können.

VooDoo7mx
2004-07-03, 14:59:57
So, da haben wir nun wieder die selbe Diskussion und das schon zum 187. Mal :bonk:
Das lustigste ist aber, die Teilnehmer sind genau die selben Leute wie aus der 186. Runde ;)

@Threadstarter

Was wiillst du mit diesen Thread bewirken und wieso ist der im ATi Forum?
Fragst du vielleichet auch in einen Mercedes-Benz Autohaus ob du nicht doch lieber einen BMW kaufen sollst? :bonk:

Mr. Lolman
2004-07-03, 15:01:13
Original geschrieben von VooDoo7mx
So, da haben wir nun wieder die selbe Diskussion und das schon zum 187. Mal :bonk:
Das lustigste ist aber, die Teilnehmer sind genau die selben Leute wie aus der 186. Runde ;)


Stimmt. Der Thread sollte geschlossen werden :)

LovesuckZ
2004-07-03, 15:01:23
Original geschrieben von Mr. Lolman
Dass was hier propagiert wird, ist, sich wieder eine neue GraKa zu kaufen, weil SM3.0 bald ein Muss wird, und man sonst auf Effekte verzichten müsste.

Aehm, nein.
Es wird von einigen bei einem Vergleich r420 vs. NV40 "propagiert", dass SM3.0 nutzlos waere und SM2.x reiche. Abgesehen davon, dass dies ein Widerspruch ist, wird niemand gezwungen, seine alte Karte gegen einen NV40 auszutauschen.
Hier scheinst du dir etwas einzureden.

Noch kenn ich kein Beispiel, wo SM3.0 wirklich optisch sichtbare Vorteile bringen würde, ohne dass ein (u.U. nicht einmal langsamers Fallback) auch möglich wäre.

Es gibt sovieles, was keine "wirklich optisch sichtbaren Vorteile bring[t]", trotzdem ist es fuer uns sinnvoll.
Aus dieser Argumentation schließe ich, dass du bei jeder Anwendung alles ueber die CPU laufen laesst, was keine "wirklich optisch sichtbaren Vorteile bring[t]".
Denn ein Fallback ist auch eine CPU und damit langsamer. Und was ganz schlimm ist: Dann muesstes du ja auch eine FX Karte gegenueber einer r3xx empfehlen (schoeneres AF, SSAA, schnelelr unter DX8, geringerer Stromverbrauch im 2D Modus etc.): Denn ATi's SM2.0 bringt keine "wirklich optisch sichtbaren Vorteile"
Ironie, nicht?

[VII]
2004-07-03, 15:04:03
Also dann doch lieber ne NV40 Karte?

[VII]

Mr. Lolman
2004-07-03, 15:05:17
Original geschrieben von LovesuckZ
Dann muesstes du ja auch eine FX Karte gegenueber einer r3xx empfehlen: Denn ATi's SM2.0 bringt keine "wirklich optisch sichtbaren Vorteile"
Ironisch, nicht?

Wieso eine FX kann ja auch viel mehr als ne R3x0. Hauptsächlich Dinge von denen der (normale) User zu Lebzeiten nix hatte. Hier verwechselt du jetzt was.

LovesuckZ
2004-07-03, 15:07:55
Original geschrieben von Mr. Lolman
Wieso eine FX kann ja auch viel mehr als ne R3x0. Hauptsächlich Dinge von denen der (normale) User zu Lebzeiten nix hatte. Hier verwechselt du jetzt was.

Nein: Es geht darum, dass Speed nicht das Kaufargument waere, nach dir. IQ sollte es sein.

Mr. Lolman
2004-07-03, 15:09:19
Original geschrieben von [VII]
Also dann doch lieber ne NV40 Karte?

[VII]

Es ist sowas von egal. Kauf, was dir sympatischer ist. Optische, oder leistungstechnische Kompromisse wirst du wohl bei keiner Karte in Kauf nehmen müssen.

NV Karten haben halt unter der Motorhaube mehr Technik drinnen stecken. Dafür frisst bei ATi die Klimaanlage nicht soviel PS, und Allrad ist in Extremsituation besser nutzbar.

Mr. Lolman
2004-07-03, 15:13:16
Original geschrieben von LovesuckZ
Nein: Es geht darum, dass Speed nicht das Kaufargument waere, nach dir. IQ sollte es sein.

Wenn ich dich jetzt frage wo der NV40 so viel schneller ist (und nicht irgendwann vielleicht sein könnte), dann komm mir bitte nicht mit dem Anandtech test, oder dem von Guru3d, da beide Reviews, von neutralen Forenmitgliedern (was ich in deinen Augen ja offensichtlich nicht bin) schon genug kritisiert wurden.


Der wunderbare SM3.0 Vorteil ist halt ebensowenig greifbar, wie schon CineFX, usw...

LovesuckZ
2004-07-03, 15:21:10
Original geschrieben von Mr. Lolman
Wenn ich dich jetzt frage wo der NV40 so viel schneller ist [...]

Speed? ich dachte wir waeren uns einig, dass nur IQ zaehlt...
Ich sage nicht, dass der NV40 schneller sei. Er ist aber pro Takt nicht langsamer als der r420 und hat trotzdem die weitaus bessere Technik. Und warum sich dann fuer den r420 entscheiden? Strom ist kein Argument, da es trotzdem zuviel ist (abgesehen davon, dass einige den Stromvorteil der NV30/5/8 Karten verschwiegen haben). Einzig die Lautstaerke des Referenzkuehler und die Laenge der Karte sind wirklich wiegend.

Der wunderbare SM3.0 Vorteil ist halt ebensowenig greifbar, wie schon CineFX, usw...

Farcry wird vom SM3.0 beschleunigt. Kein greifbarer Vorteil?
Abgesehen davon, dass wir jetzt ploetzlich wieder beim IQ Aspekt sind: Ja, was denn nun?

Mr. Lolman
2004-07-03, 15:33:36
Original geschrieben von LovesuckZ
Speed? ich dachte wir waeren uns einigen, dass nur IQ zaehlt...
Ich sage nicht, dass der NV40 schneller sei. Er ist aber pro Takt nicht langsamer als der r420 und hat trotzdem die weitaus bessere Technik. Und warum sich dann fuer den r420 entscheiden? Strom ist kein Argument, da es trotzdem zuviel ist (abgesehen davon, dass einige den Stromvorteil der NV30/5/8 Karten verschwiegen haben). Einzig die Lautstaerke des Referenzkuehler und die Laenge der Karte sind wirklich wiegend.

Man du bringst mich an den Rand des Wahnsinns...

Du kommst mit SM3.0. Ich ging darauf ein, nud meinte, dass SM3.0 optisch wohl nicht viel bringt, und speedmässig vielleicht schon. Was aber keine Relevanz hat, solang man sich nicht deutlich vom Konkurrenten absetzen kann.


Meine Karten kauf ich übrigens nicht taktbereinigt, sondern mit eben diesen Takten die sie lt- Reviews auch haben sollten.
Diese pro takt Leistungsfähigkeit ist m.E. sowieso ein Fanboy Argument. Beim Nv3x wars noch nicht so, jetzt sind sie pro takt aufienmal schneller, und deswegen ist das so toll? Das wäre es allerhöchstens, wenn die Abwärme, taktbereinigt dementsprechend auch geringer ist. In Wahrheit ist sie beim NV40 aber höher. Oder ist die Kühllösung einfach nur furchtbar inneffizient


Farcry wird vom SM3.0 beschleunigt. Kein greifbarer Vorteil?
Abgesehen davon, dass wir jetzt ploetzlich wieder beim IQ Aspekt sind: Ja, was denn nun?

Bei Anand ganz viel, bei allen anderen nur recht wenig ;)
Nach wieviel Monaten hat jetzt endlich NV bei Farcry zu ATi aufgeholt, und es dabei auch bewerkstelligt gleiche BQ zu liefern?


Wer weiss, vielleicht wiederholt sich das ja bei anderen Spielen. Ich in der Vergangenheit musste man schon immer auf div. Wundertreiber warten.



So das wars erst jetzt mal von mir, weil ich mich mit meinen Aussagen unter heiklen Naturen nur als Fanboy tituliere und ich so eine Art Diskussion eigentlich garnicht angestrebt hatte. Nur verstehst es du lieber Lovesuckz, einem wunderbar alle Aussagen im Mund umzudrehen*, was ich hier nicht einfach so stehen lassen konnte.

*andernfalls müsst ich dir eine leichte Begriffstutzigkeit attestieren, nur daran glaub ich nicht so ganz ;)

[VII]
2004-07-03, 15:57:20
Und wie sieht es denn mit den Treibern aus...da habe ich mit ATI keinerlei Erfahrung...sind die ebenbürtig mit den NV Treibern?

[VII]

Gast
2004-07-03, 16:01:10
Warum geht Ihr auf diesen Lovesuckz überhaupt noch ein? Er ist es doch nicht wert, an eine vernünftige Diskussion mit ihm ist gar nicht zu denken.
Sein Verhalten ist fundamentalistisch. Solche Leute lässt man besser in Ruhe und unterhält sich mit denen, die nicht mit Biegen und Brechen alles schlechtmachen wollen.

reunion
2004-07-03, 16:27:39
Original geschrieben von Mummins
Der X800 ist aber nur eine Zwischenlösung! Spätestens in einem Jahr muss ATI nen Chip mit PS 3.0 bringen. Sonst werden sie gegen Nvidia ins Hintertreffen geraten.

Laut Aussagen eines ATI Fuzzis soll der R500 noch diese Jahr sein Tape-Out haben und in 90nm lowk hergestellt werden...

Tigerchen
2004-07-03, 16:28:08
Original geschrieben von [VII]
Und wie sieht es denn mit den Treibern aus...da habe ich mit ATI keinerlei Erfahrung...sind die ebenbürtig mit den NV Treibern?

[VII]

Absolut. Hab mit ATI-Treibern genau so wenig Ärger wie mit den nV-Treibern. Perfekte Treiber gibts ja leider nirgends, wär wahrscheinlich auch zu viel verlangt.

reunion
2004-07-03, 16:30:21
Original geschrieben von Mr. Lolman
Bei Anand ganz viel, bei allen anderen nur recht wenig ;)



Anand hat beim NV40 "vergessen" AA einzuschalten...

Neon3D
2004-07-03, 16:43:17
ich würde mir die ati x800xt pe kaufen, weil:

sie die bessere bildqualität hat, besonders bei aa und af.

sie schneller hohe aa und af darstellen.

mein system nicht so ultraheiß wird, wodurch ich overclocken kann.

ich kein neues 500watt netzteil kaufen will.

die x800 gra.karten leisere lüfter verwenden könne (weil nicht so heiß).

die xt pe das beste preis/leistungsverhältnis der highend gra.karten hat

http://www.de.tomshardware.com/graphic/20040504/ati-x800-40.html

http://www.chip.de/artikel/c_artikelunterseite_11828970.html?tid1=14923&tid2=0

Mumins
2004-07-03, 17:08:10
sie die bessere bildqualität hat, besonders bei aa und af.
Ganz so ist es nicht. Nvidia ist da inzwischen ebenbürtig. Was Tests von Chip angeht, die kann man in die Tonne treten. Die Seite ist mittlerweile so vom Kommerz geprägt, dass nur geschrieben wird, was der der am meisten zahlt will.

[VII]
2004-07-03, 18:58:32
Also weder Strom oder Temps sollten ein Problem darstellen...meine Kandidaten wären entweder die

ASUS V9999 oder die HIS X800 XT Ice Q II

?

[VII]

Neon3D
2004-07-05, 01:11:19
[SIZE=1][B] Nvidia ist da inzwischen ebenbürtig. /SIZE]

ich habe einige qualitätsvergleiche von aa und af gesehen, wobei das af um einiges schlechter aussieht als das der ati.

aths
2004-07-05, 01:48:02
Original geschrieben von LovesuckZ
aths schrieb ohne "richtiges" Wissen zu diesem Zeitpunkt, wie die User.
Jetzt weiß er mehr, auch wir. Und da wurde bewiesen, dass dynamisches Branching zum beispiel auf dem NV40bis zu 100% Mehrleistung bringen kann. In konstruierten Sonderfällen. In Real-World-Shadern bringt es wenig. Der HLSL kompiliert für das 3_0-Profil mit Absicht so, dass er Branches nach Möglichkeit vermeidet und lieber herkömmlich mit CMP arbeitet.

5T1NK4
2004-07-05, 02:12:30
*sinnfrei*

Gast
2004-07-05, 12:18:11
Original geschrieben von aths
In konstruierten Sonderfällen. In Real-World-Shadern bringt es wenig. Der HLSL kompiliert für das 3_0-Profil mit Absicht so, dass er Branches nach Möglichkeit vermeidet und lieber herkömmlich mit CMP arbeitet.

Moechte MS NVidia vielleicht damit ausbremsen oder was soll das?

Neon3D
2004-07-07, 00:44:49
Original geschrieben von Gast
Moechte MS NVidia vielleicht damit ausbremsen oder was soll das?

das macht ms doch schon seit einger zeit.

seahawk
2004-07-07, 07:38:10
Original geschrieben von Tigerchen

Nein. Optimierte 2.x Shader würden in etwa dasselbe bringen. nV hat wohl ordentlich Kohle springen lassen damit Crytec handoptimierte 3.0 Shader schreibt. Würde mich doch sehr wundern wenn da in nächster Zeit noch was ähnliches für ein anderes Spiel gemacht wird.

Branching werden se wohl weitgehend vermieden haben. :)


Aber nicht die ATI Version :D

q@w
2004-07-07, 08:58:14
Original geschrieben von [VII]
Also dann doch lieber ne NV40 Karte?

[VII]

Ich würde das nicht so pauschal sagen.
Welches Preissegment peilst du an? UHE - dann ist die X800 XT "PE" (Auf das "PE" achten!) wirklich meist schneller, als die GF6800u - inkl. aller bekannten vor- und nachteile, wie sie mittlerweile unzählige Male durchgekaut worden sind.

Im Segment um 400 EUR, wo X800 Pro und GF6800GT zur Wahl stehen, würde ich mich ziemlich eindeutig für letztere entscheiden - denn hier fällt der 30%ige Füllratenvorteil weg, den ATi mit der XT PE ggü. der Ultra hat.

Und i.d.R. zeigt sich, daß der nV40 mehr aus einem MTex nomineller Füllrate herausholen kann, als der R420.

[VII]
2004-07-07, 09:02:25
Aber für DOOM III und HL 2 sollte man damit schon gewappnet sein oder?

[VII]

seahawk
2004-07-07, 11:09:12
Doch ziemlich sicher.

Allerdings ist es wahrscheinlich, dass bei Doom die eine KArte vorne sein wird und bei HL2 die andere. Für welche man sich somit entscheidet könnte egal sein.

deekey777
2004-07-07, 11:11:00
Original geschrieben von seahawk
Doch ziemlich sicher.

Allerdings ist es wahrscheinlich, dass bei Doom die eine KArte vorne sein wird und bei HL2 die andere. Für welche man sich somit entscheidet könnte egal sein.

Nein, das würde ich so nicht sagen - eher ausgegliechen und das in beiden Spielen.

[VII]
2004-07-07, 11:30:06
Verwendet DOOM III eigentlich schon SM 3?

[VII]

seahawk
2004-07-07, 11:34:23
Doom ist OGL

StefanV
2004-07-07, 11:48:44
Original geschrieben von [VII]
Also dann doch lieber ne NV40 Karte?

[VII]

Nö, lieber eine X800, die sollen nahezu unhörbar sein und verbrauchen auch etwas weniger.

Das die Karten etwas kürzer sind, brauch ich ja nicht erwähnen, oder? ;)

StefanV
2004-07-07, 11:51:53
Original geschrieben von LovesuckZ
Aehm, nein.
Es wird von einigen bei einem Vergleich r420 vs. NV40 "propagiert", dass SM3.0 nutzlos waere und SM2.x reiche. Abgesehen davon, dass dies ein Widerspruch ist, wird niemand gezwungen, seine alte Karte gegen einen NV40 auszutauschen.
Hier scheinst du dir etwas einzureden.

LS, da du hier so SM3 vermarktest, die Frage an dich, warum du nicht auch PS1.4 so 'vermarktet' hast?
Der Unterschied von PS1.3 zu PS1.4 ist nicht gerade gering, PS1.4 kann weitaus mehr als PS1.3.
Dennoch wurde damals (IIRC auch von dir) behauptet, daß PS1.4 unnütz sei.

Warum, wo SM3 doch jetzt unentbehrlich und fortschrittlich ist??

Irgendwie verstehe ich das ganze nicht soo recht, aber egal...

seahawk
2004-07-07, 11:58:00
Original geschrieben von Stefan Payne
Nö, lieber eine X800, die sollen nahezu unhörbar sein und verbrauchen auch etwas weniger.

Das die Karten etwas kürzer sind, brauch ich ja nicht erwähnen, oder? ;)

3.6 Sone im 3D Betrieb gegen 3.7 Sone.

Nur die X800PROs sind mit etwas 1.8 Sone deutlich leiser.

LovesuckZ
2004-07-07, 12:00:26
Original geschrieben von Stefan Payne
LS, da du hier so SM3 vermarktest, die Frage an dich, warum du nicht auch PS1.4 so 'vermarktet' hast?
Der Unterschied von PS1.3 zu PS1.4 ist nicht gerade gering, PS1.4 kann weitaus mehr als PS1.3.
Dennoch wurde damals (IIRC auch von dir) behauptet, daß PS1.4 unnütz sei.


Kannst du auch beweisen, dass ich den PS1.4 die Nutzbarkeit abgesprochen haette?

/edit: Oder besser: Habe ich das SM2.0 fuer nutzlos ergoren, weil es nur in wenigen Spielen zum Einsatz kommt und daher eine FX Karte reicht? Denn, selbst truform findet man in genauso vielen Spielen vor :freak:

ironMonkey
2004-07-07, 12:02:46
@Stefan Payne, wenn demnächst ATI technologisch wieder vorne sein würde, dann würde laut LS auch die alte Technik wieder genügen, er will halt nicht einsehen das das was ATI grad macht, auch schon NV genutzt hatte.

Zu Doom 3 und HL² also ich bin mir auch sicher das es hier 2 unterschiedliche Gewinner gibt, HL² ist ja eigentlich das erste Get In The Game Spiel, aber bei den ganzen rumgebenche sollte man sich vor Augen halte das man ja erst einen Unterschied ab 20% auch bemerken kann und wenn sich der Unterschied in dem berreich hält kann man ja kaufen was man will, ohne FPS Zähler wirds dann nähmlich recht schwer die Karten von einander zu unterscheiden.



Gruß

Holundermann
2004-07-07, 12:05:02
ich würde zur nv40 greifen, finde es recht überzeugend was nv abliefert bzw. crytek mit dem neuen 1.2er patch. für mich ist farcry die technische referenz und nv überholt da ati knapp.

von daher ist mein persönlicher sieger: nvidia :)

in niedrigeren auflösungen, qualitätststufen ist die gt oft sehr knapp an der xt pe dran:

http://graphics.tomshardware.com/graphic/20040705/images/image012.gif

der ganze artikel: http://graphics.tomshardware.com/graphic/20040705/index.html

deekey777
2004-07-07, 12:10:25
Original geschrieben von seahawk
Doom ist OGL

Was aber nicht gleich bedeutet, dass Doom 3 die HW der DX9 Generation nicht ausreizt. D3 wird einen ARB2 Pfad(ua Rendern mit floating point Genauigkeit...) mitbringen, der nun mal nur auf DX9 Chip läuft.

Und der Patch 1.2 sollte nicht überbewertet werden.

Grestorn
2004-07-07, 12:13:49
Original geschrieben von LovesuckZ
Kannst du auch beweisen, dass ich den PS1.4 die Nutzlosigkeit abgesprochen haette?

Ich denke, alle ATI Anwender wären Dir sehr dankbar gewesen, wenn Du dessen Nutzlosigkeit abgesprochen hättest! ;D

Sorry für den :spam: :stareup:

/edit: Och, schon editiert... schaaade :)

ironMonkey
2004-07-07, 12:16:47
Das farcry die Referenz ist, da geb ich dir nicht recht, was machst du jetzt wenn Crytek es hinbekommt den X800er Karten noch gut Leistung zu entlocken und ATI wird auch wohl noch n bissl mit den Treibern brauchen.

Wenn du eine Nv willst dann kauf sie, keine Frage, der Unterschied der Karten was die Leistung betrifft ist eh so gering das es nur Messbar ist.



Gruß

seahawk
2004-07-07, 12:22:05
Original geschrieben von deekey777
Was aber nicht gleich bedeutet, dass Doom 3 die HW der DX9 Generation nicht ausreizt. D3 wird einen ARB2 Pfad(ua Rendern mit floating point Genauigkeit...) mitbringen, der nun mal nur auf DX9 Chip läuft.

Und der Patch 1.2 sollte nicht überbewertet werden.

Exakt, trotzdem kann man nicht sagen, dass DOOM3 SM3.0 nutzt.

deekey777
2004-07-07, 12:30:47
Original geschrieben von seahawk
Exakt, trotzdem kann man nicht sagen, dass DOOM3 SM3.0 nutzt.

Das habe ich auch nicht bezweifelt. Erst die nächste id Engine soll die NV40 HW/Fähigkeiten vollständig einsetzen.

q@w
2004-07-07, 12:43:00
Hm, HL2 dürfte auf beiden Karten "gut" laufen - hier hat die X800 XT PE den Vorteil von höherem Chiptakt - sollte IMO schneller sein.

"Pro" vs. "GT" sieht schon anders aus - hier könnte die höhere pro MTex-Leistung (aka Effizienz) der NV40 sich durchsetzen.

Wenn Doom3 nicht völlig verkehrt läuft, sollte es IMO auf nV40 deutlich schneller sein, da sowohl die Möglichkeit besteht, die Z-/Stencil-Optimierung auszuschöpfen, als auch, eine Menge Berechnungen durch Ultra-Shadow einzusparen (wenn es denn funktioniert, wie es soll).

Cpl. Dwayne Hicks
2004-07-07, 13:51:05
Original geschrieben von Endorphine
Nein. Nein. Mangels Hardware kann ATI in der Hinsicht momentan nicht zum NV40 aufschliessen. SM 3.0 wurde von nVidia ja nicht aus Jux und Dallerei für viel Geld implementiert, wenn es auch ein aufgebohrter NV38 und neue Treiber getan hätten...


Nein. Nein. Mangels Hardware kann Nvidia in der Hinsicht momentan nicht zum R200 aufschliessen. SM 1.4 wurde von Ati ja nicht aus Jux und Dallerei für viel Geld implementiert, wenn es auch ein aufgebohrter R100 und neue Treiber getan hätten...




na klingeln bei dir so langsam die fanboy glocken?

daztro
2004-07-07, 13:52:28
bin mir auch wirklich nicht schlüssig, ob ich nun ne x800pro oder ne 6800gt nehmen soll. fahre nun schon recht lange ati, null probs, davor ewig nv, auch keine probs. also ati oda nv ist mir wurst, will mich nur für die besser karte, in allen punkten entscheiden. roh leistung, ocbarkeit, usw


de daz

Gast
2004-07-07, 13:53:12
Original geschrieben von [VII]
Hi @ll

Nun da ich mittlerweile schon unzählige Tests in Bezug auf X800 und 6800 durchgelesen habe habe ich mal so ein paar Fragen.

Habe ich es in den Test richtig interpretiert, dass bei den optimierten Bildern mit FSAA und AF die ATI Karte meist weiter vorne ist?

Die Nvidia Karte hat ja schon Shader 3.0 Unterstützung. Glaubt Ihr, dass es in Bezug auf den FarCry Patch 1.2 und kommendes Doom3 viel bringen wird oder meint Ihr, dass ATI es ausgleichen kann evtl. durch Treiber o. ä.?

THX

[VII]

Mach dir mal Gedanken warum die X800 Karten mit 2x AF schneller sind als ohne AF. ;)

Tigerchen
2004-07-07, 14:14:47
Original geschrieben von Odai Hussein
Nein. Nein. Mangels Hardware kann Nvidia in der Hinsicht momentan nicht zum R200 aufschliessen. SM 1.4 wurde von Ati ja nicht aus Jux und Dallerei für viel Geld implementiert, wenn es auch ein aufgebohrter R100 und neue Treiber getan hätten...




na klingeln bei dir so langsam die fanboy glocken?

Treffer, versenkt! :biggrin: :up:

seahawk
2004-07-07, 14:34:39
Original geschrieben von daztro
bin mir auch wirklich nicht schlüssig, ob ich nun ne x800pro oder ne 6800gt nehmen soll. fahre nun schon recht lange ati, null probs, davor ewig nv, auch keine probs. also ati oda nv ist mir wurst, will mich nur für die besser karte, in allen punkten entscheiden. roh leistung, ocbarkeit, usw
de daz

Es gibt nicht die in allen Punkten bessere Karte.

- AA besser bei ATI
- AF besser bei NV
- Filterqualität besser NV
- Stromverbrauch besser bei ATI
- Lautstärke besser bei ATI
- Übertaktung besser bei ATI
- Grundleistung besser NV
- Preis besser (billiger) ATI
- Zukunftssicherheit besser NV

macht ein 5:4 für ATI, jetzt mußt Du nur noch entscheiden wie Du welche Punkte für Dich gewichtest.

betasilie
2004-07-07, 14:36:15
Original geschrieben von seahawk
Es gibt nicht die in allen Punkten bessere Karte.

- AA besser bei ATI
- AF besser bei NV
- Filterqualität besser NV
- Stromverbrauch besser bei ATI
- Lautstärke besser bei ATI
- Übertaktung besser bei ATI
- Grundleistung besser NV
- Preis besser (billiger) ATI
- Zukunftssicherheit besser NV

macht ein 5:4 für ATI, jetzt mußt Du nur noch entscheiden wie Du welche Punkte für Dich gewichtest.
Was meinst Du bitte mit Filterqualität?

seahawk
2004-07-07, 15:00:53
Bri-Filterung bzw. die möglichkeit sie zu beseitigen
LOD-BIAS

ironMonkey
2004-07-07, 15:05:11
Bei eingeschaltetem AF und du hast ja schon aufgezählt das NV besser filtert.


Gruß

seahawk
2004-07-07, 20:03:31
Vergiss nicht die die Layer spezifische Bri / Bi Filterung ...