PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF??


Seiten : 1 2 3 [4]

aths
2004-11-13, 20:16:38
Ack. Deshalb hätte ich mich gefreut, wenn die starke Winkelbahängikeit beim NV40 zwar per default an ist, um gerechte Benchmarks zu bekommen, aber halt irgendwie abschaltbar, für Leute, die sich etwas mehr mit der Thematik beschäftigen.

Das finde ich sehr flamig formuliert. :| Ja, aber ohne die große Akzeptanz von ATIs "Filtertricks" hätte sich das NV nicht leisten können.

Ich bin mir ziemlich sicher, dass es der NV40 besser kann und es sich um eine Treiberfrage handelt.

Man kann das ATI zuschreiben, aber den Usern bestimmt nicht. Ich für meinen Teil bin kein ATI Anhänger, aber habe mich ganz bewusst für die R300 Serie entschieden, trotz des AFs. Das ATI AF ist in vielen Fällen von der IQ sehr gut und sehr schnell. Es gibt aber Spiele wo das nicht so ist und da würde man sich als Kunde gerne mehr Einstellmöglichkeiten wünschen, wie gefiltert wird. ... Das hätte NV beim NV40 aufgreifen sollen.

Deine kompromisslose Art ist manchmal sehr ermüdend. Weder Features alleine noch Speed alleine sind der Schlüssel für eine gute Gpu. Es ist ein Mischung aus beiden. Hätte ich damals den PC später gekauft, wäre ich heilfroh gewesen keine DX8-Ti4600, sondern eine Radeon 9700 gehabt zu haben. Im Gegensatz zum R200 kann man beim R300 AF grundsätzlich als qualitätssteigernde Maßnahme nutzen. Was die Antialiasing-Qualität angeht ist der R300 bis heute unübertroffen, wie wir wissen.

Natürlich kommt es auf eine gute Mischung an. In vielen meiner Postings steht sinngemäß, dass der R300 für Spieler die bessere Mischung hat, als die GeForce FX.

betasilie
2004-11-13, 20:18:31
Ich preise beim NV40 das umfangreiche Featureset, ja; weil ich offenbar zu den wenigen Leuten gehöre die in der Lage sind, dieses richtig einzuschätzen. (Das ist so arrogant gemeint wie es klingt. Man kann nicht von einem durchschnittlichen Computerspieler erwarten, die Nützlichkeit von "Nexgen-Features" fachgerecht zu bewerten.)
Nun, Du gehörst sicherlich zu den Leuten, die über die Architektur was kompetentes sagen können.

Allerdings halte ich dich nicht für kompetent (oder neutral), was die Prognose über den Nutzen von SM3.0 für 2005/6 angeht.

War das HDR oder waren das nur Glowing-Effekte? Mit welcher Performance lief HDR-Lighting auf dem R360? Demirugs Posting zum Thema hast du doch gelesen, und – wenn ich nachfragen darf – auch verstanden.
Es war HDR. So wurde es von CryTek jedenfalls angepriesen. Es war ein erheblicher Gegenlichtblendeffekt zu sehen, der nicht mit dem Gloweffekt in einerm der FS-Rendermodi vergleichbar ist.


Deine ständigen Verschwörungstheorien, wie und wo NV Geld habe fließen lassen, zeugen nicht gerade von Neutralität.
Danke für die Bestätigung, dass hier offensichtliches vom Tisch gefegt wird, wenn es gegen NV geht.

Wieso sollte CryTek, die offensichtlich kein Interesse mehr am Support von FarCry haben durch die Trennung von Ubisoft, noch einen recourcenfressenden neuen, inoffiziellen HDR Mode in den Patch 1.3 einbauen, wenn nicht NV sowas zugesichert wurde? Der normale Kunde hat da garnichts von, weil er entweder keinen NV40 hat oder garnicht weiß, wie das zu aktivieren ist. ... Darüber denke einfach nochmal nach.

Und neutral bin ich, denn ich bin mir sicher, dass ATi mindestens die selben Ressourcen aufwendet, um ISVs zum einen oder anderen Mehraufwand zu bewegen.

Quasar
2004-11-13, 20:18:59
Ich suche immernoch den DXTweaker... :rolleyes:
Schau mal in Demirugs Signatur.

aths
2004-11-13, 20:20:43
LOL
99,999% der Menschheit interessieren diese NextGen Features einen Shice,weil sie es einfach was besseres zu tun haben.
Bist du jetzt toller als diese 99,999 %,weil du erkannt hast,was wir in Zukunft brauchen.Nein, aber ich bin Student am Fachbereich Elektrotechnik und Informatik, und habe interessenbedingt ein gewisses Grundverständis von der Mathematik hinter der 3D-Technik bzw. Farbverknüpfungsoperationen. Wenn alles so klappt wie erhofft werde ich eine Diplomarbeit zum Thema anisotroper Texturfilterung schreiben.

StefanV
2004-11-13, 20:25:35
Aths, du scheinst aber eins zu vergessen:

a) wir leben in einer Marktwirtschaft
b) die Technik ist irrelevant, wenn man sie nicht verkaufen kann, ist sie nutzlos
c) es regiert nicht die Technik den Markt...

Erwähnte ich schon, das ich BWL hasse?!

betasilie
2004-11-13, 20:28:16
Ja, aber ohne die große Akzeptanz von ATIs "Filtertricks" hätte sich das NV nicht leisten können.
Nun, da halte ich dagegen, dass die ATI Kunden durch die miserable Performance der FX-Serie dazu gezwungen wurde, so ein AF zu akzeptieren.

Ich bin mir ziemlich sicher, dass es der NV40 besser kann und es sich um eine Treiberfrage handelt.

Hätte ich damals den PC später gekauft, wäre ich heilfroh gewesen keine DX8-Ti4600, sondern eine Radeon 9700 gehabt zu haben. Im Gegensatz zum R200 kann man beim R300 AF grundsätzlich als qualitätssteigernde Maßnahme nutzen. Was die Antialiasing-Qualität angeht ist der R300 bis heute unübertroffen, wie wir wissen.

Natürlich kommt es auf eine gute Mischung an. In vielen meiner Postings steht sinngemäß, dass der R300 für Spieler die bessere Mischung hat, als die GeForce FX.
Ja, und meine Meinung zum Thema NV40 vs. R420 ist, dass der R420 für Spieler die bessere Mischung hat, der NV40.

Ausgenommen Spieler die gerne alte Spiele mit SSAA spielen wollen oder ein Linuxsystem haben.

Ich jedenfalls sehe nicht ein eine 6800Ultra zu behalten, die bei neuen Games teilweise annähernd nur 60% der Leistung bietet, wie eine X800XT-PE. ... 1600*1200 oder 1152*864 mit einer Topkarte. Die Frage ist bei den meisten schnell beantwortet.

Und der Techlevel einer 6800er ist auch irrelevant für die meisten Kunden einer solchen Karte, denn diese wird in 2006 sowieso nicht mehr aktuell sein, wo SM3.0 interessant wird.

aths
2004-11-13, 20:29:30
Nun, Du gehörst sicherlich zu den Leuten, die über die Architektur was kompetentes sagen können.Danke. Immerhin brachte meine Beschäftigung mit dem NV40-Aufbau vor allem Dinge zutage, über die NV nicht so gerne spricht. Demirug könnte natürlich die Optimierungstipps für Entwickler entsprechend deuten, und ehrlich gesagt hätte ich ohne Leute wie Demirug vom NV40 vor allem das Bild, das NV in den Papers "fürs Volk" schreibt.

Allerdings halte ich dich nicht für kompetent (oder neutral), was die Prognose über den Nutzen von SM3.0 für 2005/6 angeht.Wichtig ist mir, dass man mir glaubt, dass ich glaube was ich sage. Wie jeder kann ich mich vergaloppieren oder schlicht mal irren. Dass es 2005 weitere Effekte geben wird, die man zwar auf dem NV40 aber nicht auf dem R420 zuschalten kann, halte ich aber für äußerst wahrscheinlich.

Es war HDR. So wurde es von CryTek jedenfalls angepriesen. Es war ein erheblicher Gegenlichtblendeffekt zu sehen, der nicht mit dem Gloweffekt in einerm der FS-Rendermodi vergleichbar ist.Ok, nun wissen wir allerdings, dass "HDR" öfter mal gesagt wird obwohl es gar kein HDR ist. Von der Vorführung von der du sprichst, gibts da Screenshots?

Danke für die Bestätigung, dass hier offensichtliches vom Tisch gefegt wird, wenn es gegen NV geht.

Wieso sollte CryTek, die offensichtlich kein Interesse mehr am Support von FarCry haben durch die Trennung von Ubisoft, noch einen recourcenfressenden neuen, inoffiziellen HDR Mode in den Patch 1.3 einbauen, wenn nicht NV sowas zugesichert wurde? Der normale Kunde hat da garnichts von, weil er entweder keinen NV40 hat oder garnicht weiß, wie das zu aktivieren ist. ... Darüber denke einfach nochmal nach.Nur der Kunde, der nie im Internet ist oder sich nicht sonderlich für das Spiel interessiert weiß nichts davon. Crytek möchte vielleicht einfach mal zeigen, was sie können? Oder sie planen für die nächste Engine (oder nächsten großen Version der Engine) ohnehin HDR und haben schon mal jetzt rumexperimentiert und wollen das Ergebnis auch dem Spieler zugänglich machen; ohne dafür die Dialogboxen erweitern zu müssen? Vielleicht hat auch ein NV-Supporter die Jungs von Crytek zu HDR-Lighting überreden müssen; wer weiß. Weißt du es?

Und neutral bin ich, denn ich bin mir sicher, dass ATi mindestens die selben Ressourcen aufwendet, um ISVs zum einen oder anderen Mehraufwand zu bewegen. Da bin ich mir gar nicht sicher, denn ATI hat meines Wissens nicht die Ressourcen wie NV.

aths
2004-11-13, 20:32:58
Aths, du scheinst aber eins zu vergessen:

a) wir leben in einer Marktwirtschaft
b) die Technik ist irrelevant, wenn man sie nicht verkaufen kann, ist sie nutzlos
c) es regiert nicht die Technik den Markt...

Erwähnte ich schon, das ich BWL hasse?!a) sry, ich dachte seit der Wende leben wir jetzt alle im Sozialismus.

b) Die FX wurde trotz allem ganz gut verkauft. Besonders die 5200, die die wenigste Technik und die absolut schwächste Leistung der FX-Serie hat.

c) Das hängt vom Marktsegment ab.

aths
2004-11-13, 20:37:33
Das kommt aber nicht rüber, eher das Gegenteil.
Ja, in der Umgebung wo aktuell ATI-Anhänger überwiegen, gewichte ich natürlich besonders die Anti-ATI bzw. Pro-NV-Argumente.


Wie du schon sagst, ist es für dich nicht alles.
Aber du stellst diesen Vorteil so dar als wenn jeder andere das auch braucht.So möchte ich eigentlich nicht verstanden werden.

Wenn ein Spieler nichts davon hat ist das völlig egal was die GPU noch kann.
Was bringen einem Spieler die tollsten Features einer Karte wenn er sie nicht braucht, aber bei jeder besten Gelegenheit als Vorteil und Nützlich vorgetragen bekommt.
Damit lädst du gerade dazu ein auf diesee Argumente einzugehen und das Spiel geht von vorne los.

Vielleicht solltest du versuchen nicht alles was für dich ein Vorteil ist Allgemeingültig darzustellen.Ich sehe da zwei Phasen:

- Sachliche Feststellung, wer die besseren Features hat.

- Gegenüberstellung mit den Dingen, worauf es dem Individuum ankommt.

Dass ich mich aktuell nach einer Radeon umsehe hat z. B. solche banalen Ursachen wie, dass ich damit auf dem TFT eine 1280x960 4:3-Auflösung fahren könnte. Da ist mir SM3 Wurst, wenn ich Max Payne und Warcraft auf dem TFT in 4:3, aber mit größtmöglicher Auflösung spielen will.

BodyLove
2004-11-13, 20:40:27
Wichtig ist mir, dass man mir glaubt, dass ich glaube was ich sage. Wie jeder kann ich mich vergaloppieren oder schlicht mal irren. Dass es 2005 weitere Effekte geben wird, die man zwar auf dem NV40 aber nicht auf dem R420 zuschalten kann, halte ich aber für äußerst wahrscheinlich.


Zum Beispiel?

Speziell in anebtracht der Tatsache, dass ATI enorm an Marktanteile gewonnen hat, und das durchgehend in jedem Segment, halte ich es, mit meiner naiven Meinung, eher für unwahrscheinlich, das dies eintrifft. Zumal das Spiel mit diesem Feature auch durchgehend flüssig spielbar sein sollte. Dies ist natürlich Voraussetzung.

aths
2004-11-13, 20:46:12
Nun, da halte ich dagegen, dass die ATI Kunden durch die miserable Performance der FX-Serie dazu gezwungen wurde, so ein AF zu akzeptieren.

Ja, und meine Meinung zum Thema NV40 vs. R420 ist, dass der R420 für Spieler die bessere Mischung hat, der NV40.

Ausgenommen Spieler die gerne alte Spiele mit SSAA spielen wollen oder ein Linuxsystem haben."Miserabel" ist die Performance nur beim Einsatz von DX9-Pixelshadern. Das ist selbst heute noch die Ausnahme. Ich weiß ja nicht, was du so alles spielst. Meinereiner könnte bei 70% der Spielzeit mit einer FX 5200 auskommen, ohne zu klagen. Mit der 9600 hätte ich vielleicht bei 10% der Zeit noch Wünsche.

Der R420 hat auf der Habenseite das 6x MSAA und den höheren Takt bei oftmals leiserer Kühlung, außerdem sind die Treiber praktisch ausoptimiert, und in vielen Spielen wird die NV40-Leistung übertroffen. Der NV40 hat auf der Habenseite, in anderen Spielen die beste Leistung zu bringen und dank SM3 und FP-TMUs bzw. FP-Alphablender und der auf arithmetischen Berechnungen optimierten Pixelshader-Pipe auch in Zukunft ausreichend schnell zu sein. Klar wird es dann längst andere Highend-HW geben, aber die meisten Spiele richten sich eher nach der Mittelklasse aus, im Vergleich dazu steht der NV40 performancemäßig nicht schlecht, aber featuremäßig noch aktuell da.

Ich jedenfalls sehe nicht ein eine 6800Ultra zu behalten, die bei neuen Games teilweise annähernd nur 60% der Leistung bietet, wie eine X800XT-PE. ... 1600*1200 oder 1152*864 mit einer Topkarte. Die Frage ist bei den meisten schnell beantwortet.

Und der Techlevel einer 6800er ist auch irrelevant für die meisten Kunden einer solchen Karte, denn diese wird in 2006 sowieso nicht mehr aktuell sein, wo SM3.0 interessant wird."Interessant" für Enthusiasten ist der NV40 schon heute, 2005 wird es sehr wahrscheinlich weitere Spiele geben die auf dem R420 nicht mehr alle Effekte darstellen. Alle großen Techniksprünge, wie GeForce, GeForce3, oder Radeon 9700 boten langfristigen Spielspaß. Zunächst war GF3 kaum schneller als die GF2 U. Später, wo 32 Bit längst Standard war, sah es für die GF3 deutlich besser aus. Die 6800 GT/Ultra sehe ich in diesem Kontext.

Mantikor
2004-11-13, 20:51:26
Schau mal in Demirugs Signatur.

Danke.

Ich weiß gar nicht, was alle gegen die FXen haben, ich finde die Vorzüge der Reihe wie SSAA & AF, welches auf 4x schon (subjektiv) besser aussieht, als das auf den 16x geposteten von den ganzen XT Besitzern, sind nützlicher als FarCry Performance. :rolleyes:

betasilie
2004-11-13, 20:54:08
Dass es 2005 weitere Effekte geben wird, die man zwar auf dem NV40 aber nicht auf dem R420 zuschalten kann, halte ich aber für äußerst wahrscheinlich.
Das halte ich auch nicht für unmöglich, aber nur in sehr wenigen Games und bei schlechter Performance und die 6800Ultra ist ohnehin schon langsamer, als die X800XT, so dass man teilweise eine Auflösungsstufe runterschalten muss. Und auf AA will ich ohnehin nicht verzichten, wie beim HDR in FarCry.

Ok, nun wissen wir allerdings, dass "HDR" öfter mal gesagt wird obwohl es gar kein HDR ist. Von der Vorführung von der du sprichst, gibts da Screenshots?
Leider finde ich da nix. Ich erinnere mich noch an die Bilder. Da kam man gerade in einen Inneraum Tageslicht und man sah nur alles völlig überbelichtet und den tiefschwarzen Türrahmen.

Auch einer der Moderatoren bei Giga hat einen der Entwickler mal in einem Interview gefragt, wieso dieser tolle Effekt nicht in der Final zusehen ist, wo das doch in der von ihnen gespielten Presseversion zu sehen war. Da wurde dann gesagt, dass das vielleicht später nachgereicht wird. ;)

Nur der Kunde, der nie im Internet ist oder sich nicht sonderlich für das Spiel interessiert weiß nichts davon. Crytek möchte vielleicht einfach mal zeigen, was sie können? Oder sie planen für die nächste Engine (oder nächsten großen Version der Engine) ohnehin HDR und haben schon mal jetzt rumexperimentiert und wollen das Ergebnis auch dem Spieler zugänglich machen; ohne dafür die Dialogboxen erweitern zu müssen? Vielleicht hat auch ein NV-Supporter die Jungs von Crytek zu HDR-Lighting überreden müssen; wer weiß. Weißt du es?
Nein, wissen tu ich es nicht, und wenn ich darüber etwas wissen würde, wäre es Bestandteil eines NDA.

Deine Ausführungen finde ich persönlich übrigens unwahrscheinlich. CryTek hätte offensichtlich gerne garkeinen Patch mehr gebracht. Außerdem hat NV ja mit HDR geworben für FarCry im Vorfeld, womit schon daher klar sein dürfte, dass es da schon Zusicherungen bzgl. HDR für den NV40 gab, was CryTek sicherlich nicht für Peanuts macht, bei einem Spiel, dass sie nicht mehr supporten wollen.

Da bin ich mir gar nicht sicher, denn ATI hat meines Wissens nicht die Ressourcen wie NV.
Wieviel Ressourcen ATI breit ist zu investieren, sieht man ja an HL². ;)

aths
2004-11-13, 20:54:53
Zum Beispiel?

Speziell in anebtracht der Tatsache, dass ATI enorm an Marktanteile gewonnen hat, und das durchgehend in jedem Segment, halte ich es, mit meiner naiven Meinung, eher für unwahrscheinlich, das dies eintrifft. Zumal das Spiel mit diesem Feature auch durchgehend flüssig spielbar sein sollte. Dies ist natürlich Voraussetzung.Ist es nicht, wie man bei PF sieht :)

Es kursiert eine Liste mit afaik über 10 Titeln im Netz die für 2005 erwartet werden, wo angeblich SM3 genutzt werden soll. Da kann ich es mir nur sehr schwer vorstellen, dass SM3 dort immer nur für Performancesteigerung eingesetzt wird.

Auch kann ich es mir nur schwer vorstellen, dass die mit heißer Nadel gestrickte HDR-Lighting-Performance das Maximum an NV40-HDR-Performance darstellen soll.

aths
2004-11-13, 21:04:40
Das halte ich auch nicht für unmöglich, aber nur in sehr wenigen Games und bei schlechter Performance und die 6800Ultra ist ohnehin schon langsamer, als die X800XT, so dass man teilweise eine Auflösungsstufe runterschalten muss. Und auf AA will ich ohnehin nicht verzichten, wie beim HDR in FarCry.Die 6800 ist nicht "ohnehin langsamer", das ist sie nur bei Spiele-Engines "der alten Schule", die überwiegend texturfüllratenlimitiert sind. Nun könnten wir allerdings für die 2005-er Spiele noch vergleichsweise starke Texturfüllratenabhängigkeit prognostizieren. Genau das ist aber auch der "Trumpf", denn wenn der NV40 ohnehin auf die Textursamplings warten muss, kann er ja in der Zwischenzeit "kostenlos" arithmetische Rechnungen ausführen. Wenn NVs Entwicklersupport schlau ist, werden sie entsprechende Arithmetik-intensive Effekte vorschlagen. Da kommt auch SM3 zum Tragen, dass möglichst nur dort gerechnet wird, wo man es auch sieht. Bei Nalu nützt das dynamic Branching im PS übrigens fast nix (das ist architekturbedingt und hat nix mit den unter OpenGL eingesetzten "SM3-Fähigkeiten" zu tun.) Es sind aber Effekte vorstellbar, wo es was bringt. Vor allem kann auch der VS branchen, und das dank SIMD-Architektur sehr effizient.

Dass R520 entsprechende "HDR-Einheiten" hat, ist wohl so gut wie sicher. Doch um gleichzeitig MSAA zu ermöglichen wäre ein 512-Bit-Interface oder der Einsatz von "QDR" praktisch unumgänglich. Ansonsten fällt die Performance noch weiter in den Keller. Auch beim NV50 erwarte ich noch kein "MSAA-HDR".

Nein, wissen tu ich es nicht, und wenn ich darüber etwas wissen würde, wäre es Bestandteil eines NDA.Trotzdem stellst du es laufend so da, als könne man davon ausgehen.

Deine Ausführungen finde ich persönlich übrigens unwahrscheinlich. CryTek hätte offensichtlich gerne garkeinen Patch mehr gebracht. Außerdem hat NV ja mit HDR geworben für FarCry im Vorfeld, womit schon daher klar sein dürfte, dass es da schon Zusicherungen bzgl. HDR für den NV40 gab, was CryTek sicherlich nicht für Peanuts macht, bei einem Spiel, dass sie nicht mehr supporten wollen.Wo haben sie für HDR geworben? Im gleichen Zusammenhang wo Offset Mapping zu sehen war? Offset Mapping gibts auch mit Patch 1.3 nicht.

Wieviel Ressourcen ATI breit ist zu investieren, sieht man ja an HL². ;)Das ist ein einziger Titel. Als zweites fiele mir noch SeSam2 ein. Bei NV ist die Liste etwas länger.

Gast
2004-11-13, 21:05:19
Irgendwie scheint ihr noch nicht erkannt zu haben das Beta eher der Ultra Highend Betrachter ist, und Aths eher Mittelklasse und Lowend betrachtet.
Stoßen also 2 verschiedene Ansichten aufeinander, und ihr werft euch nur Argumente an den Kopf "dada schneller der is langsamer" & "kann man auch über längere zeit nutzen"...

Da ich Verallgemeinerungen hasse, sage ich gleich mal das meine Version der NV40 (GT) jede ihr Preislich gleichgestellte Version des R420 (Pro) in die Tasche steckt, und ja ich habe beide Karten und mir isses schnurz, da ich beide PC´s brauche und die Unterschiede nicht so gravierend sind wie hier immer dargestellt. Wer Highend Speed brauch hat 2 möglichkeiten und wird sich irgendwann in den Hintern beisen das seine R420XTPE einen Effekt nicht darstellen kann, dann is aus mit Highend muss er sich was neues kaufen, was es dann auch geben wird, aber den anderen der sich ne NV40 Ultra gekauft hat in den boden zu beschimpfen ist arm.
Wenn ihr schon als "Experten" Forum gelten wollt, lasst das doch, hier wird dauerhaft zwischen der "guten und bösen" seite hin und her beworben...

Black-Scorpion
2004-11-13, 21:06:57
Ja, in der Umgebung wo aktuell ATI-Anhänger überwiegen, gewichte ich natürlich besonders die Anti-ATI bzw. Pro-NV-Argumente.


So möchte ich eigentlich nicht verstanden werden.
Und gerade diese Gewichtung ist es die mir, und wie es scheint auch anderen, sauer aufstößt.
Damit erzeugst du nur Spannungen in einem Thread, was völlig unnötig ist*.

*Das geschieht auch ohne deine Mithilfe. ;)
Ich sehe da zwei Phasen:

- Sachliche Feststellung, wer die besseren Features hat.

- Gegenüberstellung mit den Dingen, worauf es dem Individuum ankommt.

Dass ich mich aktuell nach einer Radeon umsehe hat z. B. solche banalen Ursachen wie, dass ich damit auf dem TFT eine 1280x960 4:3-Auflösung fahren könnte. Da ist mir SM3 Wurst, wenn ich Max Payne und Warcraft auf dem TFT in 4:3, abe mit größtmöglicher Auflösung spielen will.
Dann schreibe doch mal eine Kolumne oder einen Artikel dazu.
Aber so wie es manchmal den Anschein hat, hast du ein Talent dafür diese Argumente zur falschen Zeit am falschen Ort zu bringen.

PS. 1280 x 960 ist die falsche Auflösung für einen TFT.
Im Gegensatz zum CRT verzerrt diese Auflösung beim TFT die Darstellung.
Die Standardauflösung ist 1280 x 1024.

SentinelBorg
2004-11-13, 21:07:54
Für die meisten intelligenten Spieler ist somit klar, dass der R420 die bessere Wahl ist.
Aber auch das nur, wenn überhaupt, in der oberen Oberklasse. Denn in der mittleren Oberklasse ist die GF6800GT der X800Pro meist gleichwertig, bietet aber mehr Features. Und in der unteren Oberklasse, hat ATI derzeit der GF6800nu gar nichts entgegenzusetzen.

Ihr denkt hier in viel zu großem Masse in der Powergamer/Graka-Freaks Liga. Der normale Vielspieler, tauscht seine Grafikkarte im Schnitt rund aller 2 Jahre und spielt in einer durchschnittlichen Auflösung von 1280x1024. Zudem kauft er sich nicht das super-teure Spitzenmodell, sondern meist den kleineren Bruder dessen. Also im Preisbereich von 250 bis 350€. Und mit diesen Parametern muss man hier vergleichen und nicht mit den Spitzenmodellen in irgendwelchen altbackenen Games, in denen zwar beide Karte genug FPS selbst auf 1600x1200 mit 4xAA und 16xAF bringen, aber die eine halt noch mehr als die andere. Das ist dem Vielspieler nämlich ziemlich egal, für den zählt nur die Frage: Ist die Karte schnell genug für das Game ?
Und diese Frage kann man sowohl beim X800, als auch beim NV40 atm bei nahezu allen Games mit "ja" beantworten.
Wichtig ist also, wie die Antwort auf diese Frage bei richtig modernen zukünftigen Games lautet. Solche Games sind imo Far Cry, Doom 3, Stalker, Halflife 2, Vampire 2, Splinter Cell 3, Quake 4, Unreal 3. Bei den ersten beiden, die ja schon auf dem Markt sind, sieht es für den NV40 alles andere als schlecht aus. Und Halflife 2 scheint ja auch nicht der erwartete ATI Gegenschlag zur NV40-Doom3-Performance zu werden.

Sentinel

ShadowXX
2004-11-13, 21:12:06
Und um nur mal ganz kurz nebenbei einzuwerfen, das FC mit HDR auf einer 6800Ultra durchaus in 1280x1024 mit 4xAF gespielt werden kann...und zwar ungefähr auf dem Level einer 9800Pro mit ebenfalls 4xAF (und auch ohne AA).

Und ich bin nicht der einzige bei dem das so ist.....

Und noch mal zum SSAA Kommentar von beta....ich habe gerade mal 2 Games auf meiner Platte (DeusEx2 und FC) bei denen ich nicht 8xS + 8xAF bei 1280x1024 anschmeissen kann.

Dagegen habe ich sehr viele andere (auch akutuell bzw. höchsten bis ein Jahr alte) Games, wo dieses eben ohne jedes Problem funktioniert...

Ich will der x800xt-pe gar nicht absprechen, das Sie teilweise sehr schnell ist, aber wie hier viele vom nv40 reden, hat man das Gefühl, als wenn der Chip noch langsamer wäre als der nv30 (bei Games)....

Ich hatte vorher eine 9800Pro und zu Testzwecken auch mal eine x800Pro zuhause und muss sagen, das das Gesamtpacket des nv40 mich wesentlich stärker überzeugt hat (auch wenn das mit dem etwas vermurksten VP des nv40 schade ist). Und dabei meine ich nicht mal SM3.0.

aths
2004-11-13, 21:13:42
Aber so wie es manchmal den Anschein hat, hast du ein Talent dafür diese Argumente zur falschen Zeit am falschen Ort zu bringen.Zugegebenermaßen nehme ich keine Rücksicht auf Gefühle von Leuten die mit der R420 liebäugeln und nicht wahrhaben wollen, dass die Karte nicht nur Vorteile hat. Würde in diesem Forum die X800 ständig als Uralt-Technik abgekanzelt, während fast alle den NV40 loben, würde ich mit einer mir eigenen Penetranz darauf hinweisen dass der passionierte Spieler mit der X800 XT keinen Fehlkauf machen kann.

PS. 1280 x 960 ist die falsche Auflösung für einen TFT.
Im Gegensatz zum CRT verzerrt diese Auflösung beim TFT die Darstellung.
Die Standardauflösung ist 1280 x 1024.Sowohl Max Payne als auch Warcraft3 setzen 4:3 voraus, unabhängig von der Auflösung. In 1280x1024 ist das Bild entsprechend um knapp 7% in der Vertikalen verzerrt.

Black-Scorpion
2004-11-13, 21:13:47
Crytek möchte vielleicht einfach mal zeigen, was sie können?
Wenn ich den Beitrag von Demirug in einem anderen Thread so durchlese kann davon keine Rede sein. ;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2439769&postcount=47

Quasar
2004-11-13, 21:14:37
Was war die Aussage ?nv30 schneller als x800xt ?
Stimmt nicht. Aussage endkräftigt.


--------------------------------------------------------------------------
Instruction Issue
--------------------------------------------------------------------------
[...]
512 1.1264 SIN 4 61
512 0.9748 COS 4 53
512 1.4966 SCS 4 64
[...]
Quelle: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2323269&postcount=20



--------------------------------------------------------------------------
Instruction Issue
--------------------------------------------------------------------------
[...]
12 1.8032 SIN 4 64
512 1.8016 COS 4 64
512 1.7015 SCS 4 64
[...]
Quelle: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2322864&postcount=16


Klar ist die Aussage an sich falsch. Zeig mir einen Benchmark der sie unterstützt. Ob es dabei um irgendwelchen Architekturspezifischen Eigenheiten (womöglich noch taktnormalisiert ) geht ist eine völlig andere Frage.
Oh - keine architekturspezifischen Eigenheiten? :lolaway: Sorry, aber damit widersprichst du quasi jedem Vergleich, der überhaupt möglich ist.

edit:
VJs X800XTPE war dabei sogar noch um mehrere Dutzend MHz übertaktet - meine nV30u nicht.

Quasar
2004-11-13, 21:18:49
Kam die 9600 (r(v)360) vor den FXen raus ? Ist sie das konkurrenzprodukt zu einer 5950 ?

und r200 etc hatten afaik, nur einen bi-filter. Es gab auch mal Karten die gar nicht Anisotrop gefiltert haben (ja wirklich!). :wink:

Aber lassen wir das. :rolleyes:
Rauskommen? Du sprachst von "angewendet haben" - das war IIRC der 45.23er, der zuerst den reduziert-trilinearen Filter für UT2003 einführte.

Da war die 9600 schon lange am Markt.

edit:
Über die R200 habe ich i.Ü. auch gar nicht gesprochen, wie du vielleicht bemerkt hast.

Quasar
2004-11-13, 21:20:57
Bei der Fx Reihe kann man es mit "relativ" neuen Forcewares aber deaktivieren, außerdem haben sie nicht die verdammte Winkelabhänigkeit.

Mit 'alten' Detonatoren gab es sie noch nichtmal.

Black-Scorpion
2004-11-13, 21:24:21
Sowohl Max Payne als auch Warcraft3 setzen 4:3 voraus, unabhängig von der Auflösung. In 1280x1024 ist das Bild entsprechend um knapp 7% in der Vertikalen verzerrt.
Da meine Karte nicht die neueste ist, spiele ich MP mit 1024 x 768 auf dem TFT.
Die schlechtere Qualität stört mich dabei nicht und wenn doch setze ich die Brille ab, dann stimmts wieder. ;)

betasilie
2004-11-13, 21:26:49
Aber auch das nur, wenn überhaupt, in der oberen Oberklasse. Denn in der mittleren Oberklasse ist die GF6800GT der X800Pro meist gleichwertig, bietet aber mehr Features. Und in der unteren Oberklasse, hat ATI derzeit der GF6800nu gar nichts entgegenzusetzen.

Da ich Verallgemeinerungen hasse, sage ich gleich mal das meine Version der NV40 (GT) jede ihr Preislich gleichgestellte Version des R420 (Pro) in die Tasche steckt, ...
Als die X800XT ist z.Zt. preislich näher an der 6800GT, als die X800Pro. ;)



Die 6800 und die 6800LE finde ich übrigens auch Klasse, gerade für preisbewusste Kunden, die gerne Modden und OCen. :up:


Und ja, ich beschränke mich nur auf die Highendmodelle, weil diese die technolgische Spitze darstellen und weil es auch Topic ist. ... ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF?? ;)

Quasar
2004-11-13, 21:29:26
Ich bin mir ziemlich sicher, dass es der NV40 besser kann und es sich um eine Treiberfrage handelt.

Davon bin ich allerdings auch zu 95% überzeugt. =)

ShadowXX
2004-11-13, 21:32:22
Und ja, ich beschränke mich nur auf die Highendmodelle, weil diese die technolgische Spitze darstellen und weil es auch Topic ist. ... ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF?? ;)

Irgendwo sehe ich in dem Topic kein "xt-pe" oder "Ultra" auftauchen??

Und AFAIK ist auch ein GT bzw. ein x800pro ein nv40 bzw. r420....

mapel110
2004-11-13, 21:35:01
Als die X800XT ist z.Zt. preislich näher an der 6800GT, als die X800Pro. ;)


http://www.geizhals.at/deutschland/?fs=radeon+x800+pro&in=&x=0&y=0
x800 pro

http://www.geizhals.at/deutschland/?fs=radeon+x800+pro&in=&x=0&y=0
x800 xt

http://www.geizhals.at/deutschland/?fs=geforce+6800+gt&in=&x=0&y=0
6800 gt

Wenn man sich so die Preisübersichten anschaut, kommt man nur zu dem Schluss, dass die GT gegen die Pro antritt. Aber spielst wohl auf die tollen Preisbrecher im PCIe-Bereich von Sapphire an, was?!
Ausnahmen bestätigen die Regel. :P

Und AFAIK ist auch ein GT bzw. ein x800pro ein nv40 bzw. r420....

korrekt.

ShadowXX
2004-11-13, 21:41:47
korrekt.

Das "AFAIK" war eher ironisch gemeint......aber so sind wir ja schon mal 2, die sich dieser tatsache bewusst sind.

Tjell
2004-11-13, 21:43:17
Ich bin mir ziemlich sicher, dass es der NV40 besser kann und es sich um eine Treiberfrage handelt.
Frage mich nicht nach der Quelle, aber in einem Interview zum NV40 (vielleicht in PCGH?) hat nVIDIA bestätigt, daß die Winkelabhängigkeit bei AF ein Kompromiß im Chipdesign war, den sie bei einer nachfolgenden Chipgeneration nicht wieder eingehen wollen.

Dabei blieb ungenannt, in welcher Chipgeneration.

SentinelBorg
2004-11-13, 21:44:11
Und ja, ich beschränke mich nur auf die Highendmodelle, weil diese die technolgische Spitze darstellen und weil es auch Topic ist. ... ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF?? ;)
Dieses Topic ist aber sowieso irreführend. Denn zwar ist Flat Out tatsächlich ein neues Game, technologisch aber ziemlich alt. Für einen Ausblick auf die Leistung kommender, wirklich moderner Games, taugt dieses Spiel also absolut nicht. Der unbedarfte Leser könnte aber genau das denken...

Sentinel

betasilie
2004-11-13, 21:44:24
Die 6800 ist nicht "ohnehin langsamer", das ist sie nur bei Spiele-Engines "der alten Schule", die überwiegend texturfüllratenlimitiert sind. Nun könnten wir allerdings für die 2005-er Spiele noch vergleichsweise starke Texturfüllratenabhängigkeit prognostizieren. Genau das ist aber auch der "Trumpf", denn wenn der NV40 ohnehin auf die Textursamplings warten muss, kann er ja in der Zwischenzeit "kostenlos" arithmetische Rechnungen ausführen. Wenn NVs Entwicklersupport schlau ist, werden sie entsprechende Arithmetik-intensive Effekte vorschlagen. Da kommt auch SM3 zum Tragen, dass möglichst nur dort gerechnet wird, wo man es auch sieht. Bei Nalu nützt das dynamic Branching im PS übrigens fast nix (das ist architekturbedingt und hat nix mit den unter OpenGL eingesetzten "SM3-Fähigkeiten" zu tun.) Es sind aber Effekte vorstellbar, wo es was bringt. Vor allem kann auch der VS branchen, und das dank SIMD-Architektur sehr effizient.

Nun, ich hoffe für die NV40-Besitzer, dass deine Prognose stimmt, was die Spiele für 2005 angeht. Nicht alles was theoretisch für den NV40 spricht, wird auch genutzt werden in 2005. ... Ich bin da skeptisch, dass NV die Entwickler im großen Stile dazu bewegen kann.

Dass R520 entsprechende "HDR-Einheiten" hat, ist wohl so gut wie sicher. Doch um gleichzeitig MSAA zu ermöglichen wäre ein 512-Bit-Interface oder der Einsatz von "QDR" praktisch unumgänglich. Ansonsten fällt die Performance noch weiter in den Keller. Auch beim NV50 erwarte ich noch kein "MSAA-HDR".
Das ist natürlich unfein, wo wir bei der spannenden wären wären, wann wir einen Bandbreitensprung erleben werden. Der R520 wird es nicht sein. Beim NV50 halte ich das nicht für völlig ausgeschlossen. Schön wäre es jedenfalls.

Trotzdem stellst du es laufend so da, als könne man davon ausgehen.
Weil es imho offensichtlich ist, wenn auch natürlich nicht nachweißbar, was wohl in der NAtur der Sache liegt. Wäre ja total toll für die IHV, wenn jeder nachweißlichn wissen würde, dass einige Spiele nur so toll auf den eigneen karten laufen, weil man ISVs Zuwendungen erbringt. :rolleyes:

Wo haben sie für HDR geworben? Im gleichen Zusammenhang wo Offset Mapping zu sehen war? Offset Mapping gibts auch mit Patch 1.3 nicht.
Genau. Da war HDR das mideste, was noch kommen muss, um diese Bilder nicht bis ins Letzte lächerlich erscheinen zu lassen. Und beim Offsetmapping wäre ATI ggf. schneller gewesen, was sicherlich auch nicht in NVs Interesse gewesen wäre, mal abgesehen vom Aufwand den content fürs offsetmapping zu liefern.

Das ist ein einziger Titel. Als zweites fiele mir noch SeSam2 ein. Bei NV ist die Liste etwas länger.
Ja, die ganze TWIMTBP-Liste, wo gerade bei den neuen Games, die ATIs erheblich schneller sind? :confused:

NV ist ja nichtmal in der Lage dafür zu sorgen, dass SM3.0 zum beschleunigen in aktuellen TWIMTBP-Games genutzt wird. :rolleyes:

betasilie
2004-11-13, 21:47:17
Dieses Topic ist aber sowieso irreführend. Denn zwar ist Flat Out tatsächlich ein neues Game, technologisch aber ziemlich alt. Für einen Ausblick auf die Leistung kommender, wirklich moderner Games, taugt dieses Spiel also absolut nicht. Der unbedarfte Leser könnte aber genau das denken...

Sentinel
Die Liste ist viel, viel änger, als nur Flatout, was auch die ersten Seiten dieses Threads zeigen.

betasilie
2004-11-13, 21:49:04
http://www.geizhals.at/deutschland/?fs=radeon+x800+pro&in=&x=0&y=0
x800 pro

http://www.geizhals.at/deutschland/?fs=radeon+x800+pro&in=&x=0&y=0
x800 xt

http://www.geizhals.at/deutschland/?fs=geforce+6800+gt&in=&x=0&y=0
6800 gt

Wenn man sich so die Preisübersichten anschaut, kommt man nur zu dem Schluss, dass die GT gegen die Pro antritt. Aber spielst wohl auf die tollen Preisbrecher im PCIe-Bereich von Sapphire an, was?!
Ausnahmen bestätigen die Regel. :P



korrekt.
Geizhals ist doch für solche Vergleiche ungeeignet, da die Listen größtenteils aus Dummypreisen bestehen.

LovesuckZ
2004-11-13, 21:49:10
Aber spielst wohl auf die tollen Preisbrecher im PCIe-Bereich von Sapphire an, was?!


Man vergleicht keine Preise von unterschiedlichen Märkten!

SentinelBorg
2004-11-13, 21:51:17
Ja, die ganze TWIMTBP-Liste, wo gerade bei den neuen Games, die ATIs erheblich schneller sind? :confused:

NV ist ja nichtmal in der Lage dafür zu sorgen, dass SM3.0 zum beschleunigen in aktuellen TWIMTBP-Games genutzt wird. :rolleyes:
Was soll man auch mit SM3.0 noch beschleunigen, wenn das Game eh max. DX8 Shader einsetzt und somit eigentlich nur Füllraten-limitiert ist ?

Sentinel

Quasar
2004-11-13, 21:55:50
Frage mich nicht nach der Quelle, aber in einem Interview zum NV40 (vielleicht in PCGH?) hat nVIDIA bestätigt, daß die Winkelabhängigkeit bei AF ein Kompromiß im Chipdesign war, den sie bei einer nachfolgenden Chipgeneration nicht wieder eingehen wollen.

Dabei blieb ungenannt, in welcher Chipgeneration.

Das Interview war sogar hier auf 3DCenter.

aths
2004-11-13, 21:58:48
Frage mich nicht nach der Quelle, aber in einem Interview zum NV40 (vielleicht in PCGH?) hat nVIDIA bestätigt, daß die Winkelabhängigkeit bei AF ein Kompromiß im Chipdesign war, den sie bei einer nachfolgenden Chipgeneration nicht wieder eingehen wollen.

Dabei blieb ungenannt, in welcher Chipgeneration.Sowas in der Art ist bei einem 3DC-Interview zu lesen, ja. Allerdings kann das auch heißen, dass nicht geplant ist, ein mögliches anderes AF jemals freizuschalten.

aths
2004-11-13, 22:05:43
Nun, ich hoffe für die NV40-Besitzer, dass deine Prognose stimmt, was die Spiele für 2005 angeht. Nicht alles was theoretisch für den NV40 spricht, wird auch genutzt werden in 2005. ... Ich bin da skeptisch, dass NV die Entwickler im großen Stile dazu bewegen kann.Natürlich wird nicht schon 2005 das volle Potenzial erschlossen. Doch dass der NV40 mehr als 30% mehr Transistoren als R420 hat, hat schon was zu sagen.

Genau. Da war HDR das mideste, was noch kommen muss, um diese Bilder nicht bis ins Letzte lächerlich erscheinen zu lassen. Und beim Offsetmapping wäre ATI ggf. schneller gewesen, was sicherlich auch nicht in NVs Interesse gewesen wäre, mal abgesehen vom Aufwand den content fürs offsetmapping zu liefern.Schon wieder – du bastelst es dir so zurecht, dass sinistre NV-Machenschaften Crytek antrieben. Fakt ist doch, dass FC auf der Radeon deutlich schneller (und dabei noch schöner) lief als auf der GF FX, dabei kann man mit dem R300-Pfad mit PP auf einer FX sowohl gute Qualität als auch Performance hinbekommen. Aber jetzt plötzlich soll NV die Finger im Spiel haben und Crytek von etwas abhalten, was auf der Konkurrenz angeblich schneller laufen könnte?

Du vermutest, Offset Mapping könnte schnellers sein, und nutzt die Hypothese um eine weitere Hypothese (NV hat die Finger im Spiel) zu stützen. Das halte ich für verwegen.

Ja, die ganze TWIMTBP-Liste, wo gerade bei den neuen Games, die ATIs erheblich schneller sind? :confused:... das ist doch ein guter Beweis dafür, was NVs Support nicht erreichen kann. Deine verschwurbelten Andeutungen sind imo damit durch die Praxis widerlegt.

NV ist ja nichtmal in der Lage dafür zu sorgen, dass SM3.0 zum beschleunigen in aktuellen TWIMTBP-Games genutzt wird. :rolleyes:NV kann Support (= Unterstützung) geben. Das kann vom Entwickler angenommen werden oder auch nicht.

CompEx
2004-11-15, 13:06:58
Dieses Topic ist aber sowieso irreführend. Denn zwar ist Flat Out tatsächlich ein neues Game, technologisch aber ziemlich alt. Für einen Ausblick auf die Leistung kommender, wirklich moderner Games, taugt dieses Spiel also absolut nicht. Der unbedarfte Leser könnte aber genau das denken...

Sentinel

Guckst du hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=182664

20:5 für ATI!

xL|Sonic
2004-11-15, 13:48:31
http://www.geizhals.at/deutschland/?fs=radeon+x800+pro&in=&x=0&y=0
x800 pro

http://www.geizhals.at/deutschland/?fs=radeon+x800+pro&in=&x=0&y=0
x800 xt

http://www.geizhals.at/deutschland/?fs=geforce+6800+gt&in=&x=0&y=0
6800 gt

Wenn man sich so die Preisübersichten anschaut, kommt man nur zu dem Schluss, dass die GT gegen die Pro antritt. Aber spielst wohl auf die tollen Preisbrecher im PCIe-Bereich von Sapphire an, was?!
Ausnahmen bestätigen die Regel. :P



korrekt.


Wie oft wir das hier schon hatten...der neue Astra tritt wohl auch nicht mehr gegen den neuen Golf an, weil er billiger ist und der BMW 1'er fällt da auch raus, weil er 2000€ mehr kostet? Somit haben wir keinen Vergleich mehr in der Golfklasse sondern jedes Auto für sich stellt eine eigene Klasse dar und lässt sich nach eurer absolut unsinnigen Logik miteinander vergleichen.
Der Preis ist nicht das ausschlagebende Kriterium dafür, seht es doch einfach mal ein das die XT der Konterpart zur GT ist, sonst hätte ATI die Karte ja auch nicht auf den Markt geworfen.

Gast
2004-11-15, 13:54:40
Der Preis ist nicht das ausschlagebende Kriterium dafür,

Aha, was ist es dann?

seht es doch einfach mal ein das die XT der Konterpart zur GT ist,

Argumente? Belege? Beweise?

sonst hätte ATI die Karte ja auch nicht auf den Markt geworfen.

ATi bringt die XT, weil die Ausbeute der XTPE mehr schlecht als recht ist.

xL|Sonic
2004-11-15, 14:01:12
Aha, was ist es dann?

Argumente? Belege? Beweise?

ATi bringt die XT, weil die Ausbeute der XTPE mehr schlecht als recht ist.

Lies dir doch mal bitte mein Posting durch und dann denk nochmal drüber nach. Der Preis fliesst bei der Kaufentscheidung mit ein, ist aber für einen objektiven Vergleich minder wichtig als andere Punkte.
Du musst halt gucken, dass du die Karten vergleichst, die halt die meisten Gemeinsamkeiten aufweisen und da hat die XT mehr im Vergleich zur GT als eine x800 Pro, siehe gleiche Anzahl an Pipes z.B..

Das ATI die XT wegen der Ausbeute bringt ist Blödsinn, weil die XTs genaus mangelware sind wie die XT PE's, was den AGP Markt angeht.

Gast
2004-11-15, 14:06:16
Lies dir doch mal bitte mein Posting durch und dann denk nochmal drüber nach. Der Preis fliesst bei der Kaufentscheidung mit ein, ist aber für einen objektiven Vergleich minder wichtig als andere Punkte.

Durch den Auschluss des Preises als gleichgewichtigem Punkt ist dein Vergleich subjektiv. Alleine aus der Natur kann ein Mensch nicht objektiv sein.

Du musst halt gucken, dass du die Karten vergleichst, die halt die meisten Gemeinsamkeiten aufweisen und da hat die XT mehr im Vergleich zur GT als eine x800 Pro, siehe gleiche Anzahl an Pipes z.B..

Pipes vs Pipes.
Fillrate vs Fillrate.
Shadermodell vs Shadermodel
Kühlung vs Kühlung
Länge vs Länge...
Du merkst, es ist unmöglich die "meisten Gemeinsamkeiten" zu finden

Das ATI die XT wegen der Ausbeute bringt ist Blödsinn, weil die XTs genaus mangelware sind wie die XT PE's, was den AGP Markt angeht.

Wo ist die XTPE im PCI-E Markt?

Dr Hake
2004-11-15, 14:06:48
Wie oft wir das hier schon hatten...der neue Astra tritt wohl auch nicht mehr gegen den neuen Golf an, weil er billiger ist und der BMW 1'er fällt da auch raus, weil er 2000€ mehr kostet? Somit haben wir keinen Vergleich mehr in der Golfklasse sondern jedes Auto für sich stellt eine eigene Klasse dar und lässt sich nach eurer absolut unsinnigen Logik miteinander vergleichen.
Der Preis ist nicht das ausschlagebende Kriterium dafür, seht es doch einfach mal ein das die XT der Konterpart zur GT ist, sonst hätte ATI die Karte ja auch nicht auf den Markt geworfen.
Wie ueberall sind die Grenzen fliessend. Fuer User welche max Eur 400 ausgeben wollen ist der Konkurrent der Gt die Pro, wo die Pro ein bisserl billiger ist, fuer Leute die bis 440 springen lassen heisst der Konkurrent Xt (welche wiederum etwas mehr kostet und falls als AGP erhaeltlich).

xL|Sonic
2004-11-15, 14:12:42
Wie gesagt, das Autobeispiel zeigt recht einfach wie hinfällig dieser Vergleich über das Preismodell ist.
Deswegen sagte ich auch, der Preis ist beim Kauf entscheidend, wenn man aber von Benchmarks spricht und diese Seiten offiziell vorstellt irgendwo in einem Review oder Magazin oder was auch immer, dann sollte anders vergleichen, es sei denn man legt vorher bestimmte Preiskategorien fest, ala bis 250€ Karten und dadrüber.
Im Vergleich einer GT zur XT kannst du der GT zu gute halten, dass sie billiger ist, was dann nen pluspunkt wäre, im Speed usw. ist sie aber unterlegen.
Was ist denn mit Usern die maximal 450€ ausgeben wollen? Wer legt denn fest, dass es nur max. 400€ sein dürfen? Wo ist da die Grenze? Wer bestimmt das?

Gast
2004-11-15, 14:26:12
Deswegen sagte ich auch, der Preis ist beim Kauf entscheidend, wenn man aber von Benchmarks spricht und diese Seiten offiziell vorstellt irgendwo in einem Review oder Magazin oder was auch immer, dann sollte anders vergleichen,

Wie?

es sei denn man legt vorher bestimmte Preiskategorien fest, ala bis 250€ Karten und dadrüber.

Der Preis würde keine Rolle beieinem Vergleich spielen...

Im Vergleich einer GT zur XT kannst du der GT zu gute halten, dass sie billiger ist, was dann nen pluspunkt wäre, im Speed usw. ist sie aber
unterlegen.

Eine GT ist bis zu 100€ billiger auf dem AGP Markt.
Also waere es legitim, dass man eine 6800Ultra mit einer GT vergleiche?
Oder eine XTPE mit einer X800

Was ist denn mit Usern die maximal 450€ ausgeben wollen? Wer legt denn fest, dass es nur max. 400€ sein dürfen? Wo ist da die Grenze? Wer bestimmt das?

Was ist mit dem Kunden, der eine AGP karte sucht, dem helfen 450€ nicht.
Wer 450€ ausgeben will, der hat einen groeßeren markt als der 400€ user.
Und wer 200€ ausgeben moechte, dem interesse keine XT/GT, weil zu teuer.

Gast
2004-11-15, 14:27:57
X800SE, natuerlich.

xL|Sonic
2004-11-15, 14:40:45
Wie?

Der Preis würde keine Rolle beieinem Vergleich spielen...

Eine GT ist bis zu 100€ billiger auf dem AGP Markt.
Also waere es legitim, dass man eine 6800Ultra mit einer GT vergleiche?
Oder eine XTPE mit einer X800

Was ist mit dem Kunden, der eine AGP karte sucht, dem helfen 450€ nicht.
Wer 450€ ausgeben will, der hat einen groeßeren markt als der 400€ user.
Und wer 200€ ausgeben moechte, dem interesse keine XT/GT, weil zu teuer.

Wie man vergleichen kann steht weiter oben schon, lernt doch mal lesen ihr Gäste. Das eine GT bis zu 100€billiger ist, ist falsch. Wenn wir mal auf den tollen Preisvergleich von geizhals oder evendi oder was auch immer zu sprechen kommen, dann sind wir bei ca. 50€ Nur wie gesagt, du kannst nicht generell festlegen, wo da Schluss sein soll und wer wieviel Geld hat und wer bereit ist wieviel auszugeben, von daher ist dieses Argument einfach kein gutes Argument um die Karten zu vergleichen, was die reinen Leistungsdaten, Features, Speed usw. angeht.
Ist nur blöd, dass einem dann die Argumente für eine nvidia Karte ausgehen...und wie hier einige Leute ihre heiligen NV Karten hochleben lassen nervt mich einfach nur als Besitzer einer nv Karte, weil sie einfach nunmal nicht ganz so toll sind, wie es hier viele behaupten (und selbige Karte nicht einmal besitzen). Es sind ohne Zweifel sehr gute Karten, nur liegt ATI halt nen Tick vor Nvidia wieder einmal, und das sollte man auch einfach mal akzeptieren(abgesehen von dem lower highend sektor mit der 6800nu).
Wie es in nem halben oder ganzen Jahr aussieht kann niemand prognostizieren, aths kann Recht haben und der n40 könnte sich nochmal erheblich steigern, was die Treiber, Featureausnutzung usw. angeht, genauso gut kann es aber auch sein, dass sich rein gar nichts ändert. Derzeit sind die ATI Karten halt schneller, wie eine Vielzahl an Benchmarks vieler Spiele beweist.

hmx
2004-11-15, 14:46:39
Lies dir doch mal bitte mein Posting durch und dann denk nochmal drüber nach. Der Preis fliesst bei der Kaufentscheidung mit ein, ist aber für einen objektiven Vergleich minder wichtig als andere Punkte.
Du musst halt gucken, dass du die Karten vergleichst, die halt die meisten Gemeinsamkeiten aufweisen und da hat die XT mehr im Vergleich zur GT als eine x800 Pro, siehe gleiche Anzahl an Pipes z.B..

Das ATI die XT wegen der Ausbeute bringt ist Blödsinn, weil die XTs genaus mangelware sind wie die XT PE's, was den AGP Markt angeht.

Hats du es noch nicht verstanden? Les doch mal mein Beispiel im Thread weiter hinten und erkläre mir, wie ich mit 380 Euro eine Karte die min 420 Euro kostet kaufen soll. Wonach sollen die Karten sonst eingeteilt werden? Nach der Leistung? Bitte, dann dürfte die x800xt ja erst recht nicht gegen die 6800gt antreten...

xL|Sonic
2004-11-15, 14:52:54
Hats du es noch nicht verstanden? Les doch mal mein Beispiel im Thread weiter hinten und erkläre mir, wie ich mit 380 Euro eine Karte die min 420 Euro kostet kaufen soll. Wonach sollen die Karten sonst eingeteilt werden? Nach der Leistung? Bitte, dann dürfte die x800xt ja erst recht nicht gegen die 6800gt antreten...

Tjo und wie willst du dann CPU's vergleichen? SoKa, Autos usw.? Soll es plötzlich ne Ausnahmeregelung für GrKas geben?

Mantikor
2004-11-15, 15:06:34
Tjo und wie willst du dann CPU's vergleichen? SoKa, Autos usw.? Soll es plötzlich ne Ausnahmeregelung für GrKas geben?

Es wird nach Budget entschieden. Bei CPUs (wo auch zwei "Großhersteller vertreten sind) herrscht eine andere Gegebenehti, nämlich Intel, von daher ist diese Situation schon gar nicht mit dem Graphikkartenmarkt vergleichbar.
Bei Autos gibt es hunderte von Herstellern, sodass ein Vergleichbarkeit nicht gegeben sein kann.
Der Preis der XT ist im 'Markt' (Der Markt ist AGP) genau dort eingeordnet, wo sie mit ihrer Leistung auch hin soll, bei etwa 450-460 Euro.
Und komm bitte nicht wieder mit solchen Argumenten wie "Das wird der Makt regeln", denn Markt setzt die PRO als Konkurrent zu der GT fest, genauso wie es ATi und Nvidia machen.
Es geht hier nicht darum den NV40 hochzuloben oder son Käse, sondern einfach klar Schiff zu machen, dass für den, der eine Karte für genau(+/-20)400 Euro sucht bei NVidia diesesmal (Im Gegensatz zu andere( n ) Preisklassen) mehr bekommt.

betasilie
2004-11-15, 15:10:11
Natürlich wird nicht schon 2005 das volle Potenzial erschlossen.
Nun, wenn ich sowas geschrieben hätte, wäre von die eine Aufforderung gekommen, sowas als Meinung zu kennzeichnen. :uclap:

Ich bin übrigens nicht deiner Meinung.

Tigerchen
2004-11-15, 15:43:11
Der R420 hat auf der Habenseite das 6x MSAA und den höheren Takt bei oftmals leiserer Kühlung, außerdem sind die Treiber praktisch ausoptimiert, und in vielen Spielen wird die NV40-Leistung übertroffen. Der NV40 hat auf der Habenseite, in anderen Spielen die beste Leistung zu bringen und dank SM3 und FP-TMUs bzw. FP-Alphablender und der auf arithmetischen Berechnungen optimierten Pixelshader-Pipe auch in Zukunft ausreichend schnell zu sein. Klar wird es dann längst andere Highend-HW geben, aber die meisten Spiele richten sich eher nach der Mittelklasse aus, im Vergleich dazu steht der NV40 performancemäßig nicht schlecht, aber featuremäßig noch aktuell da.


Jetzt ist ja der Catalyst 4.12b erschienen. Würdest du deine Behauptung vom 13.11 die ATI-Treiber seien bereits ausoptimiert bitte überdenken.

betasilie
2004-11-15, 15:45:50
Jetzt ist ja der Catalyst 4.12b erschienen. Würdest du deine Behauptung vom 13.11 die ATI-Treiber seien bereits ausoptimiert bitte überdenken.

Ack. Er wirft anderen immer vor die eigenen Meinung nicht offensichtlich zu kennzeichnen, aber stellt seine eigenen Behauptungen immmer als Faktum dar, obwohl es sich hinterher oft ganz anders darstellt.

xL|Sonic
2004-11-15, 15:51:11
Ist es nicht auch erstaunlich, dass ATI aus so einer alten Hardware immer noch soviel treibermäßig herausholen kann und nvidia im Vergleich dazu relativ wenig, obwohl nv ja angeblich die besseren Treiber hat (und somit wohl auch fähigere Leute die diese Treiber schreiben)und viel mehr Potential haben müsste :o

MechWOLLIer
2004-11-15, 16:36:16
Ist es nicht auch erstaunlich, dass ATI aus so einer alten Hardware immer noch soviel treibermäßig herausholen kann und nvidia im Vergleich dazu relativ wenig, obwohl nv ja angeblich die besseren Treiber hat (und somit wohl auch fähigere Leute die diese Treiber schreiben)und viel mehr Potential haben müsste :o
STellt sich nur die Frage, ob ATI die selbe Leistung nicht schon früher raushohlen konnte:)
Du kannst mir nicht erklären, dass ATI Monat zu Monat bei einer alten Architektur immer wieder neue Leistungsbremsen findet und diese dann behebt.
Ich könnte mir gut vorstellen, dass man diese bereits zu R3x0 Zeiten kannte, diese da aber nie behoben hat, da man der Konkurrenz eh überlegen war.
Jetzt wurden die Nvidia Karten schneller und ATI hat so nach und nach die Reserven freigeschaltet.

Gast
2004-11-15, 16:44:23
STellt sich nur die Frage, ob ATI die selbe Leistung nicht schon früher raushohlen konnte:)
Du kannst mir nicht erklären, dass ATI Monat zu Monat bei einer alten Architektur immer wieder neue Leistungsbremsen findet und diese dann behebt.
Ich könnte mir gut vorstellen, dass man diese bereits zu R3x0 Zeiten kannte, diese da aber nie behoben hat, da man der Konkurrenz eh überlegen war.
Jetzt wurden die Nvidia Karten schneller und ATI hat so nach und nach die Reserven freigeschaltet.
So sehe ich das auch. Allerdings denke ich nicht, daß ATI mit Absicht die Treiberentwicklung verlangsamt hat. Die ATI Treiber hatten ab und zu Probleme (Bugs) bei einigen Spielen. Das hat man mittlerweile ausgemerzt. Die Treiber scheinen fast perfekt zu sein. Jetzt konzentriert man sich auf den Speed. :)

StefanV
2004-11-15, 16:50:28
Ich könnte mir gut vorstellen, dass man diese bereits zu R3x0 Zeiten kannte, diese da aber nie behoben hat, da man der Konkurrenz eh überlegen war.
Jetzt wurden die Nvidia Karten schneller und ATI hat so nach und nach die Reserven freigeschaltet.
Nicht zu vergessen das damals andere Dinge 'aufm Zettel standen', die weit wichter waren als a bisserl Performance rauszukitzeln.

So a la:

Ingeneur: du, wir können eigentlich noch ein wenig rauskitzeln, aus unseren Teilen, kostet nur a bisserl Zeit.
Chef: nee, lass mal, das hat keine Proirität, wir müssen noch ein paar andere Dinge erledigen, bevor wir das in Angriff nemen können, halt das aber fest, irgendwann werden wirs behben :)

LovesuckZ
2004-11-15, 16:52:12
Shaderreplacement.

Gast
2004-11-15, 16:53:53
Nö. ;D
Bei Doom3, ja.

Gast
2004-11-15, 16:56:26
@ LS
Ach so, du meinst also daß ATI bei neuen Spielen und Demos so auf die schnelle Shaderreplacement macht, ja?
Unwahrscheinlich.

Labberlippe
2004-11-15, 16:56:37
Shaderreplacement.

Hi

Richtig nVIDIA zeigts vor, Ati machts nach......

Im Ernst die Treiberprogrammierer wachsen ja auch ständig mit deren Aufgaben.
Zum Thema optimieren.
Neue PCGH lesen und dann noch mal einige Ansagen überdenken.

Gruss Labberlippe

LovesuckZ
2004-11-15, 17:14:31
@ LS
Ach so, du meinst also daß ATI bei neuen Spielen und Demos so auf die schnelle Shaderreplacement macht, ja?
Unwahrscheinlich.

Warum gibt es einen neuen Betatreiber bei ATi, der extra für HL2 rausgegeben wurde?
Doom 3 hat ATi gezeigt, wie es ist, wenn man schlaeft.
Fakt ist einfach, dass beide hersteller tatkraeftig an ihrer Shaderdatenbank arbeiten werden.
Hoffen wir nur, dass der Compiler nicht vergessen werde...

Demirug
2004-11-15, 17:27:42
Also bei HL2 glaube ich nicht an Shaderreplacments. Weder bei ATI noch bei nVidia. Das sind einfach zu viele Shader um das noch effektiv auf diese Art und Weise zu machen.

ATI hat laut Eigenauskunft ja sowieso eher Probleme im Bereich des Speicherzugriffs. Kann dort aber im gegenzug auch einiges einstellen. Nur gibt es die perfekte Einstellung für alle Spiele nicht. Nachdem ATI ja nun App Spezifischen Optimierungen auch nicht mehr abgeneigt ist könnten sie entsprechen Einstellungen für jedes Spiel im treiber hinterlegen.

Gast
2004-11-15, 17:34:22
Warum gibt es einen neuen Betatreiber bei ATi, der extra für HL2 rausgegeben wurde?
Aufgrund der engen ($) Zusammenarbeit von ATI und Valve kann ich das nicht ganz nachvollziehen.

Doom 3 hat ATi gezeigt, wie es ist, wenn man schlaeft.
Ich denke, daß bis Doom3 bei ATI kein Shaderreplacement in Spielen nötig war.

Fakt ist einfach, dass beide hersteller tatkraeftig an ihrer Shaderdatenbank arbeiten werden.
Davon ist auszugehen. Könnte aber böse enden für Nvidia, wenn ATI richtig loslegt. Vielleicht ist ja die stetig (deutlich) steigende Performance seit Cat 4.8 ein Zeichen dafür. Oder aber man hat den Compiler deutlich für den R420 verbessert.
Ich vermute, außer Doom3, eher den Compiler bei ATI. Oder wie will man erklären, daß die neusten Spiele und auch Demos auf ATI besser laufen?

Hoffen wir nur, dass der Compiler nicht vergessen werde...
Den Compiler zu optimieren wäre natürlich am Besten. Allerdings hat der Compiler auch seine Grenzen, deswegen kann man von Hand mehr Speed rausholen.

Tigerchen
2004-11-15, 17:38:49
STellt sich nur die Frage, ob ATI die selbe Leistung nicht schon früher raushohlen konnte:)
Du kannst mir nicht erklären, dass ATI Monat zu Monat bei einer alten Architektur immer wieder neue Leistungsbremsen findet und diese dann behebt.
Ich könnte mir gut vorstellen, dass man diese bereits zu R3x0 Zeiten kannte, diese da aber nie behoben hat, da man der Konkurrenz eh überlegen war.
Jetzt wurden die Nvidia Karten schneller und ATI hat so nach und nach die Reserven freigeschaltet.

Als ehemaliger Assemblerprogrammierer kann ich dir sagen daß es immer wieder Neues zu entdecken gibt wenn man so richtig hardwarenah programmiert. Wenn ich da an den Z-80 denke. Zum Schluß konnte ich sogar mit illegalen Opcodes jonglieren. Sowas erschließt sich einem aber nur in einem evolutionären Prozeß.

Quasar
2004-11-15, 17:56:05
Die Sachen, die ich meinem M9700 zum Fraß vorwarf, haben sich allerdings vom 4.10er zum 4.11er um keinen Deut geändert. Generische Shader scheinen wohl bereits ausoptimiert zu sein - aber vielleicht gibt es ja noch Spezialfälle, die man verbessern kann.

Gast
2004-11-15, 18:03:30
Die Sachen, die ich meinem M9700 zum Fraß vorwarf, haben sich allerdings vom 4.10er zum 4.11er um keinen Deut geändert.
Deswegen habe ich auch R420 geschrieben:
"Oder aber man hat den Compiler deutlich für den R420 verbessert." ;)
Außerdem sollten die Speicherprobleme, die Demi andeutet, nicht außer Acht gelassen werden.
IMHO eine einfache aber plausible Erklärung.

Demirug
2004-11-15, 18:07:45
Deswegen habe ich auch R420 geschrieben:
"Oder aber man hat den Compiler deutlich für den R420 verbessert." ;)

Das wäre dann aber eine bewusste Benachteiligung der R3XX Besitzer. Bei Shadern im 2.0 Umfang gelten nämlich die gleichen Optimierungeregeln. Spiele die 2.B nutzen gibt es ja noch kaum.

Quasar
2004-11-15, 18:12:29
Deswegen habe ich auch R420 geschrieben:
"Oder aber man hat den Compiler deutlich für den R420 verbessert." ;)
Außerdem sollten die Speicherprobleme, die Demi andeutet, nicht außer Acht gelassen werden.
IMHO eine einfache aber plausible Erklärung.

Ist ja auch alles schön und gut - Speicherperformance kann ich fast noch besser gebrauchen.

Gast
2004-11-15, 18:13:52
Das wäre dann aber eine bewusste Benachteiligung der R3XX Besitzer. Bei Shadern im 2.0 Umfang gelten nämlich die gleichen Optimierungeregeln. Spiele die 2.B nutzen gibt es ja noch kaum.
Ich weiß nicht wie weit die Architekturen wirklich identisch sind. Man sagt zwar immer, daß der R420 ein lauer Aufguss des R3x0 ist, aber wie das aus der programmiertechnischen Sicht aussieht?
Vielleicht ist beim R420 mehr Potenzial zum optimieren da.

Jesus
2004-11-15, 19:35:49
wäre möglich.


hier nochmal mein PK Bild, beim vorherigen warn leider vsync noch an ;)

jetzt von 35 -> 47 :P (1280x1024 2xAA, 8xAF, alles auf High + selfshadows)

http://nemesis.rushers.net/Shot0000.jpg

Mr. Lolman
2004-11-15, 19:39:27
Die Sachen, die ich meinem M9700 zum Fraß vorwarf, haben sich allerdings vom 4.10er zum 4.11er um keinen Deut geändert. Generische Shader scheinen wohl bereits ausoptimiert zu sein - aber vielleicht gibt es ja noch Spezialfälle, die man verbessern kann.


Ich auf meinen R300 hab bis jetzt konkret 3 Sachen getestet (4.11b vs. 4.12b):

rthdribl: Gleich schnell
Doom3: minimalst schneller (1%)
Flatout Demo: merkbar schneller (weniger Slowdowns, +5% @ Radeon 9700pro@400/350, +10% bei 64MB Radeon 9500pro@350/300 bei Startszene/Hochsprungwertbewerb)

Jesus
2004-11-15, 19:44:36
Ich auf meinen R300 hab bis jetzt konkret 3 Sachen getestet (4.11b vs. 4.12b):

rthdribl: Gleich schnell
Doom3: minimalst schneller (1%)
Flatout Demo: merkbar schneller (weniger Slowdowns, +5% @ Radeon 9700pro@400/350, +10% bei 64MB Radeon 9500pro@350/300 bei Startszene/Hochsprungwertbewerb)

intressant, spricht für verbessertes Speichermanagement ...

Mr. Lolman
2004-11-15, 19:56:09
intressant, spricht für verbessertes Speichermanagement ...

Allerdings. Mit dem 4.12b ist die Demo jetzt perfekt in 1024x768/4xAA/biAF spielbar, auf dem 64MB Teil. 67 fps in der besagten Szene.

LovesuckZ
2004-11-15, 20:02:43
Euch ist aber schon bewusst, dass der 300 keinen programmierbaren Memorycontroller besitzt?

Demirug
2004-11-15, 20:05:31
Euch ist aber schon bewusst, dass der 300 keinen programmierbaren Memorycontroller besitzt?

Aber am Speicherlayout kann man fummeln und der Cachecontroller für die Texturen ist zumindestens in bestimmten Grenzen beeinflussbar.

Jesus
2004-11-15, 20:10:46
Aber am Speicherlayout kann man fummeln und der Cachecontroller für die Texturen ist zumindestens in bestimmten Grenzen beeinflussbar.

HyperZ auch ?

Demirug
2004-11-15, 20:30:04
HyperZ auch ?

Was soll man da gross ändern? Mehr als aktivieren/deaktivieren der einzelnen Teile kann man nicht machen.

Jesus
2004-11-15, 20:33:37
Was soll man da gross ändern? Mehr als aktivieren/deaktivieren der einzelnen Teile kann man nicht machen.

Keine Ahnung. Kann man den Z Kompresionsalgorithmus nicht über Parameter steuern / ändern ?

Gast
2004-11-15, 20:37:54
Was soll man da gross ändern? Mehr als aktivieren/deaktivieren der einzelnen Teile kann man nicht machen.
Der Algorithmus ist doch nicht in Hardware gegossen?
Da muß man doch was ändern können. Oder ist der schon so optimal, daß da nichts mehr zu machen ist?

Majestic
2004-11-15, 20:48:40
STellt sich nur die Frage, ob ATI die selbe Leistung nicht schon früher raushohlen konnte:)
Du kannst mir nicht erklären, dass ATI Monat zu Monat bei einer alten Architektur immer wieder neue Leistungsbremsen findet und diese dann behebt.
Ich könnte mir gut vorstellen, dass man diese bereits zu R3x0 Zeiten kannte, diese da aber nie behoben hat, da man der Konkurrenz eh überlegen war.
Jetzt wurden die Nvidia Karten schneller und ATI hat so nach und nach die Reserven freigeschaltet.


Könnte das Nvidia nicht auch bei dem NV40 schaffen? Immerhin ist der NV40 nicht bloß ein Aufguss eine alten Designs und die Technik noch recht neu....Wer weiß wie viele Leistungsbremsen noch in den aktuellen Treibern schlummern....

Demirug
2004-11-15, 20:49:33
Der Algorithmus ist doch nicht in Hardware gegossen?
Da muß man doch was ändern können. Oder ist der schon so optimal, daß da nichts mehr zu machen ist?

Natürlich ist der in Hardware gegossen und nein er ist noch nicht optimal. Abver alles was man programmierbar/konfigurierbar macht kostet zusätzliche Transitoren und bei Hyper Z kann man damit Leistungstechnisch nichts rausholen. Entweder es funktioniert weil sich die App HyperZ Freundlich verhält oder es funktioniert eben nicht.

Gast
2004-11-15, 20:56:42
Könnte das Nvidia nicht auch bei dem NV40 schaffen? Immerhin ist der NV40 nicht bloß ein Aufguss eine alten Designs und die Technik noch recht neu....Wer weiß wie viele Leistungsbremsen noch in den aktuellen Treibern schlummern....
Das ist aufgrund der recht komplexen Architektur sehr aufwendig. Ohne Shaderreplacement und ggf. pp_hints ist da nicht viel zu machen.

Entweder es funktioniert weil sich die App HyperZ Freundlich verhält oder es funktioniert eben nicht.

Wann verhält sich ein Spiel unfreundlich gegenüber HyperZ?

hmx
2004-11-15, 21:00:34
Das ist aufgrund der recht komplexen Architektur sehr aufwendig. Ohne Shaderreplacement und ggf. pp_hints ist da nicht viel zu machen.

Wann verhält sich ein Spiel unfreundlich gegenüber HyperZ?

Bei Doom3 z.B. und dann wohl auch bei Spielen die ähnliche techniken für die Schattenberechnung benutzen.

Gast
2004-11-15, 21:03:25
Bei Doom3 z.B. und dann wohl auch bei Spielen die ähnliche techniken für die Schattenberechnung benutzen.
Es gibt keine anderen Spiele, die diese Schattenberechnung einsetzen. Doom3 ist in dieser Beziehung einzigartig.
Aber bei Doom3 wird es sicherlich nicht an HyperZ liegen.

Demirug
2004-11-15, 21:13:47
Wann verhält sich ein Spiel unfreundlich gegenüber HyperZ?

Zum Beispiel die Z-Function nicht innerhalb eines Frames verändern. Wenn möglich von vorne nach hinten rendern.

Gast
2004-11-15, 21:19:05
Zum Beispiel die Z-Function nicht innerhalb eines Frames verändern. Wenn möglich von vorne nach hinten rendern.
Von vorne nach hinten rendern ist klar.
Aber was meinst Du innerhalb eines Frames?
Wie kann man die Z-Funktion innerhalb eines Frames verändern, wenn wir hier von Standbildern sprechen.
Oder meinst Du andere Frames?

Quasar
2004-11-15, 21:23:30
Das ist aufgrund der recht komplexen Architektur sehr aufwendig. Ohne Shaderreplacement und ggf. pp_hints ist da nicht viel zu machen.
Mit dem aktuell aktuellen Referenztreiber (66.93) hat man gegenüber dem Launch-Treiber der 6800u (60.72) bei längeren Shadern (um 50-70 Instruktionen bsw.) schon über 20% mehr herausgeholt - vermutlich ohne PP und Shaderreplacement.

Gast
2004-11-15, 21:26:05
Mit dem aktuell aktuellen Referenztreiber (66.93) hat man gegenüber dem Launch-Treiber der 6800u (60.72) bei längeren Shadern (um 50-70 Instruktionen bsw.) schon über 20% mehr herausgeholt - vermutlich ohne PP und Shaderreplacement.
Ich habe mich auf die aktuelle Lage bozogen. :)

Demirug
2004-11-15, 21:32:37
Von vorne nach hinten rendern ist klar.
Aber was meinst Du innerhalb eines Frames?
Wie kann man die Z-Funktion innerhalb eines Frames verändern, wenn wir hier von Standbildern sprechen.
Oder meinst Du andere Frames?

Ein Frame ist ein einzelnes Bild oder für die GPU die Summe aller Anweisungen die zu diesem Bild führen. Innerhalb dieser Anweisungsfolge kann man die Funktion für den Z-test beliebig oft ändern. D3 macht das zum Beispiel mehrmals. Hyper-Z ist nun so aufgebaut das es die Z-Funktion die beim ersten Einsatz des Z-Tests in einem Frame aktive ist als Referenz nimmt. Rendert man dann im gleichen mit einer anderen Z-Funktion wird der entsprechenden Teil von Hyper-Z deaktiviert. Geht man dann aber wieder auf die Referenz zurück wird es auch wieder aktiviert.

Gast
2004-11-15, 21:35:02
Ein Frame ist ein einzelnes Bild oder für die GPU die Summe aller Anweisungen die zu diesem Bild führen. Innerhalb dieser Anweisungsfolge kann man die Funktion für den Z-test beliebig oft ändern. D3 macht das zum Beispiel mehrmals. Hyper-Z ist nun so aufgebaut das es die Z-Funktion die beim ersten Einsatz des Z-Tests in einem Frame aktive ist als Referenz nimmt. Rendert man dann im gleichen mit einer anderen Z-Funktion wird der entsprechenden Teil von Hyper-Z deaktiviert. Geht man dann aber wieder auf die Referenz zurück wird es auch wieder aktiviert.
WOW!
Danke, wieder bisschen schlauer geworden.

Pirx
2004-11-24, 20:32:09
...Offenbar verstehst du wirklich nicht. Die 30% resultieren aus 120MHz mehr Takt der GPU - diese 30% sollte die XTPE immer schneller sein. Alles was darüber hinaus geht (oder merklich drunter bleibt), kann man sich mal anschauen, ob es eine plausible Erklärung gibt...

Vergisst du da nicht die annähernd gleiche Speicherbandbreite/Takt, die die XT-PE daran hindern könnte und wird 30% schneller zu sein?

Mantikor
2004-11-24, 20:42:17
Vergisst du da nicht die annähernd gleiche Speicherbandbreite/Takt, die die XT-PE daran hindern könnte und wird 30% schneller zu sein?

Wenn die Fillrate der Flaschenhals ist, dann ist es recht egal, ob die Speicherbandbreite gleich ist.

Pirx
2004-11-24, 20:57:32
Nicht unbedingt, im Vergleich z.B. zum R300 hat sich die Füllrate ja bald vervierfacht, aber die Bandbreite nur verdoppelt, so daß es ab gewissen Auflösungen (und wenn AA dazukommt erst recht) sein kann, daß 6800U und XT-PE bandbreitenlimitiert sind.
Und dann hängen eben beide ungefähr bei gleichen fps fest.

Oder auch nicht;).

Quasar
2004-11-24, 21:17:02
Vergisst du da nicht die annähernd gleiche Speicherbandbreite/Takt, die die XT-PE daran hindern könnte und wird 30% schneller zu sein?
Ja und ich vergesse auch die CPU-Limitierung oder die AGP-Interface-Limitierung oder die VRAM-Mengen-Limitierung.


Spaß beiseite, eigentlich war das schon im Kontext auf Situationen bezogen, wo man eher zwei oder mehr Takte pro Pixel braucht um es zu rendern, so daß hauptsächlich die Füllrate (ob Pixel-, Texel- oder Shader sei jetzt mal egal) limitiert.

rince
2004-12-03, 23:17:18
Hab mir mal grad den 6600gt-test auf tweakpc durchgelesen.
Wie haben die denn da getestet?
Auf einmal ist schon die 6800gt in fast allen games und allen auflösungen schneller al die x800xt...sogar in far cry.
Und die 6600gt ist meistens genauso schnell wie die x800pro.
:|

klick (http://www.tweakpc.de/hardware/tests/graka/geforce6600gt/s06.php?benchmark=farcry)

Godmode
2004-12-03, 23:25:33
Hab mir mal grad den 6600gt-test auf tweakpc durchgelesen.
Wie haben die denn da getestet?
Auf einmal ist schon die 6800gt in fast allen games und allen auflösungen schneller al die x800xt...sogar in far cry.
Und die 6600gt ist meistens genauso schnell wie die x800pro.
:|

klick (http://www.tweakpc.de/hardware/tests/graka/geforce6600gt/s06.php?benchmark=farcry)

Ja das ist schon klar, die PRO hat ja nur 12 Pipes und die testen die PRO halt mit XT Takt.

edit: doch nicht so klar :)