PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Vorerst kein SM3.0 Support von EA


xL|Sonic
2004-09-02, 19:45:02
Wenn man dem Artikel von Gamestar glauben schenken darf http://www.gamestar.de/news/hardware/19870/
dann wird wohl nvidia wohl noch größere Probleme bekommen SM3.0 als Must-Have Feature zu verkaufen, weil dann doch ein erheblicher Teil an Softwaretiteln wegfallen wird.
Die Frage ist, ob sich das wirklich bewahrheitet und sich nicht noch weitere Firmen EA anschließen und wie das nv Forum angebliche Infos zu Spielen mit SM3.0 support erhalten hat, wenn diese doch nicht stimmen :o

Kladderadatsch
2004-09-02, 19:49:09
ob das nun wirklich für nv schädigender als für ea ist, ist mehr als fraglich...

dildo4u
2004-09-02, 19:53:04
Na und das ea meist sowieso nur für konsolen entwickelt is doch kein wunder das sie keine High End grafik Engine einsetzen möchten.Ist whol einfach zu teuer jedesmal mher geld in die pc version zu investieren.Hat EA denn zur zeit überhaupt was next gen mäßig in der entwicklung? Ausser BF2 is da ja nicht viel und das ist ein multiplayer shooter der whol auch auf DX8 Hardware noch gut laufen soll.Da EA verkaufs teschnisch die PS2 sher am herzen liegt wird meist zur erst dafür entwickelt siehe NFSU2 oder die ganzen EA Sports titel und danach wird dann portiert.

M@g
2004-09-02, 19:58:09
KA ob EA oder die Tochterfirmen was in der Entwicklung haben, da EA aber viele Spiele auf Multiplatform Entwicklung auslegt, dauerts bei denen sicher bis zu den Next-Gen Konsolen, vieleicht kann ja das "eingekaufte" FarCry noch etwas dran drehn. Aber schaut euch die EA Grafiken doch mal an, da is auch mit der besten Technik nix mehr zu retten ^^

xL|Sonic
2004-09-02, 20:05:48
Ihr vergesst dabei, dass EA oftmals nur als Publisher mit an Board ist und bei diesen Titeln stellt sich dann auch die Frage, ob das ausreicht um keinen SM3.0 Support zu bieten.
Sehr viele Spiele werden durch EA released, schließlich sind sie einer der größten Spieleproduzenten/vertreiber...

winter
2004-09-02, 20:31:23
Das heißt dann jetzt einfach nur dass EA als Publisher von seinen Clienten keine Shader3.0 Unterstützung fordert, da sie selbige nicht vermarkten werden.

*Verschwörung*
Nvidia hat zuwenig Schmiere geblecht / ATI hat den Einsatz erhöht
*/Verschwörung*

:ugly:

Nein, spätestens für den R520 werden EA-Spiele mit Shader3.0 bereit stehen, sonst risktiert EA, als Techbremse verschriehen zu werden.

Aqualon
2004-09-02, 20:58:21
Ein Publisher ist doch in erster Linie daran interessiert, dass seine Spiele möglichst gut verkauft werden. Und solch technische Angaben, die rein gar nichts über den Spielspaß aussagen, werden wohl nicht wirklich verkaufsfördernd sein können.

Oder würdet ihr euch ein Spiel kaufen, nur weil "Support for Shader 3.0" auf der Packung steht?

Aqua

mapel110
2004-09-02, 21:03:11
Oder würdet ihr euch ein Spiel kaufen, nur weil "Support for Shader 3.0" auf der Packung steht?

Aqua

als User, der sich vor dem Kauf seiner 400 € Graka informiert hat, wäre es zumindest kein Hinderniss für mich. ;)

btw ich glaube von der Meldung 0.

Kladderadatsch
2004-09-02, 21:07:13
Oder würdet ihr euch ein Spiel kaufen, nur weil "Support for Shader 3.0" auf der Packung steht?

Aqua

wenn dadurch grafische verbesserungen, wie es die baldige mod für fc zeigen wird, gebracht werden und sich die performance gegenüber ps 2.0 dazu verbessert, ist das auf jeden fall ein kaufgrund. (ja, far cry und doom3 habe ich zu 99% der grafik wegen gekauft)
ich glaube, der "verschwörungspost" ist garnicht so weit hergeholt...

Aqualon
2004-09-02, 21:17:47
wenn dadurch grafische verbesserungen, wie es die baldige mod für fc zeigen wird, gebracht werden und sich die performance gegenüber ps 2.0 dazu verbessert, ist das auf jeden fall ein kaufgrund. (ja, far cry und doom3 habe ich zu 99% der grafik wegen gekauft)
Nehmen wir das doch mal als Beispiel und gehen davon aus, der User ein Spiel aufgrund der grafischen Qualität kaufen würde. Denkst der sich bspw. "boah, sieht das geil aus" aber liest dann bei den Anforderungen SM2.0 für optimale Qualität erforderlich. Wird der das Spiel dann nicht kaufen, nur weil es nicht die neueste Technologie unterstützt? Woher will man denn wissen, dass ein Spiel durch SM3.0 wirklich besser aussehen oder bessere Performance liefern würde?

Deine Aussage wäre ein Grund, sich eine SM3.0 Karte zu kaufen, aber kein Grund ein Spiel abzulehnen, nur weil es keinen SM3.0 Support anbietet.

Aqua

Gast
2004-09-02, 22:32:21
hmm..welche EA Games gibt´s denn, die überhaupt irgendwelche Shader sinnvoll umzusetzen wissen? das ist doch größtenteils nur grafischer müll was von denen kommt. shader 3.0 brauchen die ganz gewiss nicht.

IVN
2004-09-02, 22:36:20
hmm..welche EA Games gibt´s denn, die überhaupt irgendwelche Shader sinnvoll umzusetzen wissen? das ist doch größtenteils nur grafischer müll was von denen kommt. shader 3.0 brauchen die ganz gewiss nicht.


NFSU1 and 2.

xL|Sonic
2004-09-02, 22:43:21
Medal of Honor: Pacific Assault.

cRaZy78
2004-09-02, 22:50:15
Soll nicht Battle of Middle Earth SM3.0 nutzen? Oder verwechsel ich irgendwas...

winter
2004-09-02, 23:23:03
cRaZy78: Stand auch in der Liste drinnen, da allerdings ein EA-Game, und wenn Gamestar da nich ma wida n bissl übertrieben hat, dann wird es keinen Speziellen Shader3.0 Support haben...

xL|Sonic
2004-09-03, 01:58:44
Hier noch der passende Link zum inquirer Artikel: http://www.the-inquirer.com/?article=18228

Kladderadatsch
2004-09-03, 06:14:31
Deine Aussage wäre ein Grund, sich eine SM3.0 Karte zu kaufen, aber kein Grund ein Spiel abzulehnen, nur weil es keinen SM3.0 Support anbietet.

Aqua
das habe ich auch nicht behauptet. aber der rückschluss auf "ein Grund, sich eine SM3.0 Karte zu kaufen" ist ja wohl gerade games mit sm3.0-support zu privilegieren...denn dafür habe ich mindestens 300 euro ausgegeben...

Tomi
2004-09-03, 11:38:11
Oder würdet ihr euch ein Spiel kaufen, nur weil "Support for Shader 3.0" auf der Packung steht?
Aqua

Nö, aber damit argumentieren viele "pro 6800". SM 3.0 sei ja so toll und da ATI das nicht hat, sollte man besser keine X800 kaufen, weil die ja nicht "zukunftssicher" sei. Und viele fallen darauf rein.

DrumDub
2004-09-03, 12:10:27
Nö, aber damit argumentieren viele "pro 6800". SM 3.0 sei ja so toll und da ATI das nicht hat, sollte man besser keine X800 kaufen, weil die ja nicht "zukunftssicher" sei. Und viele fallen darauf rein.

na ja, als alleiniges argument ist es ziemlicher quatsch. die frage ist doch, was man für sein geld bekommt und da steht imho numal die 6800gt momentan als das ausgeglichenste produkt im highend da.

(del676)
2004-09-03, 12:11:25
Nö, aber damit argumentieren viele "pro 6800". SM 3.0 sei ja so toll und da ATI das nicht hat, sollte man besser keine X800 kaufen, weil die ja nicht "zukunftssicher" sei. Und viele fallen darauf rein.

jo die armen fallen drauf herein und bekommen so einen nvidia drecksmüll wobei doch jeder weiss ATI RULZ

:rolleyes:

winter
2004-09-03, 14:51:00
Ulukay, das war jetzt aber doch ein wenig viel des Sarkasmus X-D
Als 6800 Besitzer findet man Shader3.0 Support natürlich schön, der is aber keineswegs essenziell, denn der NV40 ist nunmal auch mit Shader2.0 schnell genug

mapel110
2004-09-03, 23:18:14
Hm, also die Mohpa-demo erkennt zumindest die VS und PS Version 3.0 im setup, hab aber sonst keine Hinweise auf Verwendung finden können. (hab die pk3-file abgesucht nach Auffälligem.)

tRpii
2004-09-03, 23:31:52
naja, ich würde erstmal abwarten.. Wenn die entwickler SM3.0 vorgesehen und schon eingebaut haben dann wird ea nen dreck tun und den entwicklern vorschriften zu machen welches dann bedeutet dass der titel etwas später released werden würde.

Maybe wird das nicht großartig beworben aber naja.. schauma mal

DanMan
2004-09-04, 00:31:39
EA hatte auch anfangs verweigert für Dreamcast Spiele zu veröffentlichen. Bis es sich dann rentiert hat.... Schmeisfliegen!

HOT
2004-09-04, 02:43:15
Tjo ich könnt mir vorstellen, dass EA mit dieser Aktion ATI Spieler nicht beunruhigen möchte, um weiterhin möglichst viele Spieler anzusprechen. Einen anderen Grund könnte ich mir eigentlich nicht vorstellen, warum ein Publischer solche poititsche Order an seine Entwickler geben sollte.
Wahrscheinlich handelt es sich hier um viel Lärm um nichts, da eh keine brauchbaren SM3.0 Titel vor dem Erscheinen vom R520 zu erwarten sind.

LovesuckZ
2004-09-04, 10:23:52
Wahrscheinlich handelt es sich hier um viel Lärm um nichts, da eh keine brauchbaren SM3.0 Titel vor dem Erscheinen vom R520 zu erwarten sind.

Nun, leider werden aber ATi user ja nicht den ueberfluessigen SM3.0 Pfad benutzen.
Dadurch sehe ich keinen Grund auch nur etwas in diese Richtung zu uebernehmen, wenn ich ein Entwickler waere.

Gast
2004-09-04, 10:54:03
SM3.0 bringt nix, zum 1.000 - mal,

Es keinen Effekt der mit 2.0b nicht darstellbar wäre!


Bezüglich NV40 und SM2.0 genügend PErformance stimme ich dir zu, aber leider nicht so schnell wie R420!

tokugawa
2004-09-04, 16:25:55
Nö, aber damit argumentieren viele "pro 6800". SM 3.0 sei ja so toll und da ATI das nicht hat, sollte man besser keine X800 kaufen, weil die ja nicht "zukunftssicher" sei. Und viele fallen darauf rein.

Ich hab noch von keinem Spieler gehört, der eine 6800 wegen SM 3.0 kauft.

Die, die es "wegen SM 3.0" kaufen, denen bringt es tatsächlich was. Denn das sind wohl Entwickler. Ich würd's mir auch "wegen SM 3.0" kaufen, unter anderem. Wenn ich das Geld hätte :D

tokugawa
2004-09-04, 16:31:19
SM3.0 bringt nix, zum 1.000 - mal,

Es keinen Effekt der mit 2.0b nicht darstellbar wäre!


Bezüglich NV40 und SM2.0 genügend PErformance stimme ich dir zu, aber leider nicht so schnell wie R420!

Das ist falsch, es gibt schon Dinge, die nur mit den Features von SM 3.0 möglich sind. Stichwort Vertex Texture Fetch. Bei den experimentellen Entwicklungen um Raycasting im Pixel Shader hilft SM 3.0 auch, auch wenn es derzeit auch mit ATI in gewissem Maß möglich ist.

Es ist doch trivial, dass SM 3.0 einfach mehr bietet, und daher Effekte möglich sind, die über die Limitationen von SM 2.0 oder SM 2.0b oder auch SM 2.0a hinausgehen. Was du vermutlich meinst, ist dass es noch keine konkreten SM 3.0 Effekte gibt, aber das ist doch eine komplett andere Geschichte.

Egal, SM 3.0 auf der 6800 bringt schon was, nämlich für Entwickler. Ich bezweifle, dass es sich Spieler kaufen nur wegen SM 3.0. Entwickler aber unter Umständen schon.

Und es ist nicht grad so als ob SM 3.0 das einzige neue Feature auf der NV40 wäre. Weiters für Entwickler interessant: die großflächige Unterstützung von ATI-spezifischen (!!!) OpenGL-Extensions. Damit kann die NV40 in manchen Programmen den ATI Pfad durchlaufen. Wollt ich nur mal erwähnen weil noch fast nie erwähnt. Obwohl für Spieler wohl weniger interessant, geb ich zu.

PS: ich glaube, dass die EA Meldung einfach bedeutet, dass in den In-House-Entwicklungen kein SM 3.0 forciert wird. Das heißt aber nicht, dass in EA-gepublishten Titeln SM 3.0 aktiv verhindert wird. Wenn es das Entwicklerstudio implementiert, wird EA sicher nicht das Entfernen von SM 3.0 fordern (wär ja extrem dämlich).

Außerdem sollte dem Wort "vorerst" Beachtung geschenkt werden. Bedeutet wohl dass die einfach keine SM 3.0 Patches für existierende oder fast fertige Spiele nachreichen werden.

SamLombardo
2004-09-04, 16:36:32
SM3.0 bringt nix, zum 1.000 - mal,

Es keinen Effekt der mit 2.0b nicht darstellbar wäre!


Bezüglich NV40 und SM2.0 genügend PErformance stimme ich dir zu, aber leider nicht so schnell wie R420!

lool. Fanboy ahoi
Es gibt keinen Effekt den man nicht mit Hilfe der CPU darstellen könnte. Mit 0,... frames/s

betasilie
2004-09-04, 16:36:52
Nein, spätestens für den R520 werden EA-Spiele mit Shader3.0 bereit stehen, sonst risktiert EA, als Techbremse verschriehen zu werden.
So ein Quatsch. Auch wenn ATI SM3.0 bringt heißt das noch lange nicht, dass SM3.0 massiv eingesetzt wird.

tokugawa
2004-09-04, 16:43:31
So ein Quatsch. Auch wenn ATI SM3.0 bringt heißt das noch lange nicht, dass SM3.0 massiv eingesetzt wird.

Ich halte es allerdings für wahrscheinlich (ist aber zugegebenermaßen Spekulation). Vielleicht aber nicht von EA :)

Aber allgemein gesehen schon. Vor allem, da sich ja alles in Richtung Shader-Hochsprache entwickelt (trotz der teilweisen - verständlichen - Skepsis mancher Programmierer). Da gibt es dann SM 3.0 Support ziemlich billig (einfach anderes Profil wählen).

Wobei, du sagst "massiv", ja, "massiv" wird auch SM 2.0 nicht wirklich eingesetzt, oder müsste zumindest nicht. Mittlerweile findet ja auch ATI, dass man die minimale Shader-Version verwenden soll, die einen Effekt darstellen kann.

HOT
2004-09-04, 16:56:04
Nun, leider werden aber ATi user ja nicht den ueberfluessigen SM3.0 Pfad benutzen.
Dadurch sehe ich keinen Grund auch nur etwas in diese Richtung zu uebernehmen, wenn ich ein Entwickler waere.

Wie wärs wenn du richtig verstehst was ich schreibe ;)
ich wollte nur damit ausdrücken, dass SM3.0 Spiele sowieso net grossflächig zum Einsatz kommen werden, bevor net beide Hersteller es auch einsetzen. Man will sich ja net die Spieler auf der einen Seite vergraulen, man wird abwägen müssen, denn man wird bei EA sehr gut wissen, wie schnell die Medien sowas in den falschen Hals bekommen.. SM3.0 Support werden IMHO schon einige EA Spiele bekommen, aber es wird nunmal nicht damit geworben oder NV ein Vorteil mit EA Titeln verschafft, ich denke, darum geht es in Wirklichkeit. EA möchte neutral bleiben, so wie es bei EA immer der Fall war und nicht von einem Grafikchiphersteller "missbraucht" werden. Die Botschaft ist ganz klar: "Unsere Titel sind kompatibel zu allen gängigen Grafikchips und Platformen", deshalb gibts keine extra SM3.0 Werbung.

betasilie
2004-09-04, 16:56:48
Wobei, du sagst "massiv", ja, "massiv" wird auch SM 2.0 nicht wirklich eingesetzt, oder müsste zumindest nicht. Mittlerweile findet ja auch ATI, dass man die minimale Shader-Version verwenden soll, die einen Effekt darstellen kann.
Genau das ist es doch. Selbst SM2.0 wird noch lange nicht "massiv" eingesetzt. Weder was die Anzahl der Spiele angeht, noch was die Spiele angeht, die SM2.0 Technolgien nutzen.

Klar, fast jedes kommende DX9 Spiel wird durch das entsprechende Profil SM3.0 beim NV40 nutzen, aber nur weil dann der NV40 die SM2.0 Berechnungen mit seinen SM3.0 Einheiten macht, mit gleichem Resultat, ist das doch kein echter SM3.0 Support.

SM3.0-only Features werden imho nur sehr, sehr spärlich unterstützt werden von ganz wenigen Spielen. Ich wäre schon froh, wenn es mehr Spiele/Engines geben würde, die SM2.0 mal richtig ausreizen würden in Bezug auf die Optik und Performance.

Imo wird SM3.0 ein ähnliches Schicksal erleben wie PS1.4. Es werden nur wenige Spiele sichtbare Vorzüge des höheren Techlevel zeigen und sehr spät, wenn schon der nächste Techlevel vor der Tür steht.

DX8 wird min. Vorraussetzung (bleiben) und SM2.0 wird in fast allen Fällen das Optimum darstellen. Schau dir doch mal an wieviel SM2.0 Hardware auf dem Markt ist und in 12 Monaten auf dem markt sein wird. Das kann SM3.0 Hardware garnicht mehr anstzweise aufholen, bis SM4.0 da ist.

tokugawa
2004-09-04, 17:21:37
Genau das ist es doch. Selbst SM2.0 wird noch lange nicht "massiv" eingesetzt. Weder was die Anzahl der Spiele angeht, noch was die Spiele angeht, die SM2.0 Technolgien nutzen.

Klar, fast jedes kommende DX9 Spiel wird durch das entsprechende Profil SM3.0 beim NV40 nutzen, aber nur weil dann der NV40 die SM2.0 Berechnungen mit seinen SM3.0 Einheiten macht, mit gleichem Resultat, ist das doch kein echter SM3.0 Support.

SM3.0-only Features werden imho nur sehr, sehr spärlich unterstützt werden von ganz wenigen Spielen. Ich wäre schon froh, wenn es mehr Spiele/Engines geben würde, die SM2.0 mal richtig ausreizen würden in Bezug auf die Optik und Performance.

Imo wird SM3.0 ein ähnliches Schicksal erleben wie PS1.4. Es werden nur wenige Spiele sichtbare Vorzüge des höheren Techlevel zeigen und sehr spät, wenn schon der nächste Techlevel vor der Tür steht.

DX8 wird min. Vorraussetzung (bleiben) und SM2.0 wird in fast allen Fällen das Optimum darstellen. Schau dir doch mal an wieviel SM2.0 Hardware auf dem Markt ist und in 12 Monaten auf dem markt sein wird. Das kann SM3.0 Hardware garnicht mehr anstzweise aufholen, bis SM4.0 da ist.

Das ist allerdings eine gute Frage, ja.

IMO kommt alles auf die Forschung an. Es werden ja heute bereits neue Algorithmen und Techniken entwickelt, die wirklich SM 3.0 vorraussetzen. Die Frage ist halt, wie lang die brauchen bis zur "Marktreife" bzw. bis sie für Spiele "feasible" sind.

Andererseits hat sich NVIDIA ja entschieden dazu, die Produktzyklen länger zu halten. Daher kann's schon sein, dass einfach die NV4x Derivate so lange am Markt sind, bis der Markt mit SM 3.0 Hardware penetriert ist (zumindest sobald ATI auch mit SM 3.0 kommt).

Was ich auch glaube ist, dass SM 3.0 auch reifen muß. SM3.0 auf der NV40 ist super (bevor das Geflame losgeht: aus Entwicklersicht), keine Frage, aber es gibt trotzdem einige Schnitzer drin, die man beachten muß, wenn die Performance nicht einbrechen soll (speziell im Zusammenhang mit Branching). Wenn ein NV40 Refresh in diesem Bezug weniger anfällig wäre, also es nicht so leicht ist, die Performance mit Branching einbrechen zu lassen, wär das sehr zu begrüßen.

Nichtsdestotrotz hat der NV40 die Entwicklung von SM 3.0 basierten Algorithmen und Techniken geradezu wie eine Lawine losgetreten (das ist keine Übertreibung!). Das ist Faktum (weiß ich nämlich mit Bestimmtheit, da ich einige Leute kenne, die im Forschungs- und Entwicklungsbereich damit arbeiten).

Es wäre ja mal interessant, die SIGGRAPH 2004 Papers zu durchforsten und zu schauen, welche neuen Algorithmen und Techniken vielleicht gerade mit SM 3.0 gut umzusetzen sind. Würd ich ja tun, aber ich hab keine NV40. Sponsort mir wer eine? :)

Es liegt also, wie immer bei neuen Features, an den Entwicklern im Forschungs- und Spielebereich, wie schnell sie zu Ergebnissen kommen.

Hauwech
2004-09-04, 17:49:03
@beta

Ich glaube wenn ein Spiel "mal richtig" SM2 ausnutzen würde dann würden mehr oder weniger praktisch alle Grafikchips in die Knie gehen und wir bekämen dann eher spf.

LovesuckZ
2004-09-04, 17:50:01
Ich glaube wenn ein Spiel "mal richtig" SM2 ausnutzen würde dann würden mehr oder weniger praktisch alle Grafikchips in die Knie gehen und wir bekämen dann eher spf.

Farcry mit dem Patch 1.2 macht es schon und es ist in spielbaren Bereich darstellbar.

tRpii
2004-09-04, 18:46:50
wenn man sich anschaut wielange nun SM2.0 schon draussen ist.. (mit de 9700Pro? bei ATI und DX9) und dann noch nach titel guckt die diese wirklich richtig benutzen..dann fallen mir effektiv vielleicht maximal 5 ein.. sm3.0 ist schön und gut aber solange es niemand wirklich nutzt hat es einfach keinen nutzen ob es nun die Hardware kann oder nicht.. ist schön dass NV in ihrem NV40 SM3.0 implementiert hat und es nun bewirbt bis zum geht nicht mehr aber wie schon gesagt muss es erstmal games geben die überhaupt davon nutzen ziehen, reden kann man nämlich viel.. und es gilt die Entwickler zu überzeugen.. User sind eh blöd genug und kaufen alles was als toll und revolutionär angepriesen wird, obs nun gebraucht wird oder nicht ist da zweitrangig ;)

ZipKaffee
2004-09-04, 19:05:33
Das ganze wiederholt sich doch, wie bei den "T&L" Zeiten.
Schön das was neues raus kommt aber wie es nun mal so ist, werden die Spiele mit SM 3 erst in einem Jahr oder noch viel später breitflächig rauskommen.

Ist doch wie bei Intel und AMD: Intel bringt mmx...sse...ht und AMD zieht später nach ;-) bzw. umgekehrt wie bei 64bit.

LovesuckZ
2004-09-04, 19:10:41
tRpii,
dank Nvidia kann man SM3.0 frueher in Spiele sehen.
Du kannst aber gerne darlegen, wie es eine Unterstuetzung geben sollte, wenn es keinen Hersteller gaebe, der dieses Feature anbieten würde.
Oder denkt ihr, dass die Features ploetzlich in Spiele auftauchen?

betasilie
2004-09-04, 19:20:15
Ja LS! NV ist toll. NV ist dafür verantwortlich, dass wir ganz schnell ganz tolle SM3.0 Effekte in Spielen sehen werden. Und überhaupt wird von deiner Seite NV viel zu selten in den Himmel gehoben.

Bitte müll woanders rum. Du nervst mal wieder mit deinem hohlem Fanboyscheiß. ;)

SamLombardo
2004-09-04, 19:43:23
Betareverse, was ist denn an Lovesuckz Posting nicht korrekt, dass Du so reagierst?

mrdigital
2004-09-04, 20:29:14
Wie groß ist der Marktanteil von Karten mit SM3.0 Fähigkeiten? Wie wird sich der Marktanteil innerhalb der nächsten 12 Monate entwickeln? Lohnt es sich für diesen (wahrscheinlich doch recht kleinen Anteil) des Marktes exlusiv zu entwickeln? Wenn man sich diese Fragen stellt und mal nüchtern beantwortet, dann sieht man, dass es sicherlich in den nächsten 12 Monaten keine Spiele geben wird, die ernsthaft von SM3 gebrauch machen werden. Das was an SM3 kommt, wird dann bestenfalls unter der Rubrik nettes extra laufen, das ist für die Entwickler ein Testballon, man kann mal sehen, was mit diesen neuen Features möglich ist und wie man diese anwendet, aber wie gesagt, von Marktrelevanz wird das nicht sein.

betasilie
2004-09-04, 20:49:06
Wie groß ist der Marktanteil von Karten mit SM3.0 Fähigkeiten? Wie wird sich der Marktanteil innerhalb der nächsten 12 Monate entwickeln? Lohnt es sich für diesen (wahrscheinlich doch recht kleinen Anteil) des Marktes exlusiv zu entwickeln? Wenn man sich diese Fragen stellt und mal nüchtern beantwortet, dann sieht man, dass es sicherlich in den nächsten 12 Monaten keine Spiele geben wird, die ernsthaft von SM3 gebrauch machen werden. Das was an SM3 kommt, wird dann bestenfalls unter der Rubrik nettes extra laufen, das ist für die Entwickler ein Testballon, man kann mal sehen, was mit diesen neuen Features möglich ist und wie man diese anwendet, aber wie gesagt, von Marktrelevanz wird das nicht sein.
Schön, dass das noch jemand so sieht. :)

Betareverse, was ist denn an Lovesuckz Posting nicht korrekt, dass Du so reagierst?
Es geht nicht um die Korrektheit, sondern darum, dass der typ diese Laier Tag für Tag hier im Forum abspult, ganz so wie das auch ein paar andere Herren für ATI tun. Das nervt.

mapel110
2004-09-04, 21:22:59
Bitte müll woanders rum. Du nervst mal wieder mit deinem hohlem Fanboyscheiß. ;)

Dafür gibts einen Punkt. Da hilft auch der Smilie nix. Mag für dich so sein, dass es dir auf die Nerven geht, aber dafür gibts Ignorelist des Forums und geistige Ignorelist.

Nur vorsorglich für alle:
Eine Diskussion über die Verwarnung hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Dir oder auch euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046

Gast
2004-09-04, 21:40:26
tRpii,
dank Nvidia kann man SM3.0 frueher in Spiele sehen.
Du kannst aber gerne darlegen, wie es eine Unterstuetzung geben sollte, wenn es keinen Hersteller gaebe, der dieses Feature anbieten würde.
Oder denkt ihr, dass die Features ploetzlich in Spiele auftauchen?
Das ist schon richtig. Das Problem ist nur, dass du das oft in Verbindung mit dem NV40 bringst. Man sollte langsam gepeilt haben, dass SM3.0 beim NV40 nicht wirklich viel bringt.
Du brigst es aber oft als ein Argument den Nv40 zu kaufen. Dieses Argument ist für Gamer einfach nicht existent. Bei den Entwicklern sieht es anders aus.

Hauwech
2004-09-04, 21:44:20
Wie groß ist der Marktanteil von Karten mit SM3.0 Fähigkeiten? Wie wird sich der Marktanteil innerhalb der nächsten 12 Monate entwickeln? Lohnt es sich für diesen (wahrscheinlich doch recht kleinen Anteil) des Marktes exlusiv zu entwickeln? Wenn man sich diese Fragen stellt und mal nüchtern beantwortet, dann sieht man, dass es sicherlich in den nächsten 12 Monaten keine Spiele geben wird, die ernsthaft von SM3 gebrauch machen werden. Das was an SM3 kommt, wird dann bestenfalls unter der Rubrik nettes extra laufen, das ist für die Entwickler ein Testballon, man kann mal sehen, was mit diesen neuen Features möglich ist und wie man diese anwendet, aber wie gesagt, von Marktrelevanz wird das nicht sein.

Hmm sehe ich nicht so. Bei SM2 liegt bzw lag ATI im Mid- und HighEnd Bereich vorne. Im LowCost Segment aber NV mit der berühmt berüchtigten 5200. Gerade durch solche Produkte wird dank OEM Deals neue Technologie, ob nutzbar oder nicht interessiert eher nicht, massiv in den Markt gedrückt. "Für die paar" Mid- und HighEnd Grafikkarten für den normalen Enduser wird bestimmt nicht grossartig entwickelt. Dazu sind die Prozentzahlen einfach zu klein. Ich warte eigentlich darauf das NV demnaechst eine "neue 5200" mit der 6 vorne bringt und hoffentlich zieht ATI diesmal mit und macht nicht den gleichen Fehler nochmal. Dann können wir sicher sein das innerhalb der nächsten 12 Monate was passieren wird. Ob die Verbreitung durch PCIe Versionen noch weiter gesteigert werden kann, keine Ahnung.

SM3 hat schon seine Vorteile. Ob es als nettes extra angesehen wird oder nicht, zumindest erfolgte die Einführung und vor allem Nutzung ggü SM2 diesmal eher fix. Nicht nur deshalb werden es mehr und mehr Leute einsetzen. Natürlich ist es nicht das NonPlusUltra wie von einigen gepriesen aber mit dem NV40 kann man schon mal üben denn ATI wird nachziehen. Ob es Anfang oder Mitte 2005 wird ist eigentlich egal denn der R520 _wird_ kommen und ich sehe es als so sicher wie das Amen in der Kirche an das er SM3 an Bord hat. Wie die Geschwindigkeit sein wird werden wir sehen. Davon mal abgesehen und auch wenn es von vielen als alte Laier von Fanboys abgetan wird, ich muss LS recht geben. Ohne Hardware keine Entwicklung.
Guckt euch doch mal an wie schnell SM3 Support für FarCry nachgeliefert wurde. Ich gehe davon aus das mit kommenden Patches da auch noch mehr abgeliefert wird.

Zumindest bei den Toptiteln könnte ich mir vorstellen das SM3 per Patch nachgerüstet wird oder sogar, wenn die Grakapower dafür vorhanden ist, immer weiter ausgebaut wird, neue Sachen für SM3 als "Spielwiese" genutzt werden. Experimente hinter verschlossenen Türen helfen nicht gerade dabei zu zeigen das man SM3 'beherrscht'. Es geht dabei auch nicht darum das exklusiv für den SM3 Markt entwickelt wird. Nein, ATI wird nachziehen _müssen_ um nicht als Technologiebremse zu gelten. Hoffen wir mal das sie Anfang 2005 einhalten können.

Bei OEM zählt natürlich auch der Preis aber selbst wenn eine SM3 Karte teurer als eine SM2 Karte ist, im Endeffekt zahlt es ja der Kunde und ich als OEM kann mich als 'fortschrittlich' bezeichnen lassen -> besseres Image.

Longhorn ist auch ein Grund warum SM3 sich recht schnell durchsetzen wird auch wenn es wahrscheinlich erst Ende 2006 kommt.

Meine Sicht der Dinge

Majestic
2004-09-04, 22:00:46
Das ist schon richtig. Das Problem ist nur, dass du das oft in Verbindung mit dem NV40 bringst. Man sollte langsam gepeilt haben, dass SM3.0 beim NV40 nicht wirklich viel bringt.
Du brigst es aber oft als ein Argument den Nv40 zu kaufen. Dieses Argument ist für Gamer einfach nicht existent. Bei den Entwicklern sieht es anders aus.

Wieso nicht? Meinst du der NV40 ist zu "langsam" die Anforderungen für SM3.0 zu erfüllen. Oder meinst du eher das zu Lebzeiten der auf den Nv40 basierenden Karte nicht genug Spiele mit SM3.0 Support kommen werden?

Hauwech
2004-09-04, 22:00:58
Das ist schon richtig. Das Problem ist nur, dass du das oft in Verbindung mit dem NV40 bringst. Man sollte langsam gepeilt haben, dass SM3.0 beim NV40 nicht wirklich viel bringt.
Du brigst es aber oft als ein Argument den Nv40 zu kaufen. Dieses Argument ist für Gamer einfach nicht existent. Bei den Entwicklern sieht es anders aus.

Das gleiche kannst du aber auch mit SM2b auf den R420 münzen. SM2b bringt beim R420 auch nicht viel aber je mehr Leute SM3 Hardware kaufen, desto eher sehen wir mehr von SM3. Balkenlänge ist im aktuellen Kampf zwischen R420 und NV40 auch eher uninteressant denn mit beiden Karten ist jedes Spiel bei gleichwertigen Einstellungen spielbar.

Trotzdem kann ich LS hier nur unterstützen. Käme ATI Anfang 2005 (was für mich persönlich auch nicht gerade eine sehr präzise Aussage ist) mit SM3 als erster raus würden wir heute noch nichts von SM3 sehen und könnten entsprechend spät erst SM3 "bewundern".

Freue dich für jeden der _jetzt_ Karten mit NV Chips drauf kauft denn der R520 wird davon profitieren. :)

mrdigital
2004-09-04, 22:12:57
nochmal, wie viele Karten gibt es Momentan auf dem Markt, die SM3 können? Wie viele können SM2? Wie lange dauert die Entwicklung eines Spiels? --> keine (oder nur seeeehr wenige) die ernsthaft auf SM3 setzten werden. Das was an Spielen kommen wird, wird auch ohne SM3 gut funktionieren und bestenfalls auf SM2 setzten (es soll ja gerüchteweise noch Leute mit ner GF4Ti geben ;)) Der SM3 Support wird optisch wie auch Geschwindigkeitstechnisch in den nächsten 12 Monaten nichts grundlegendes reissen.
Ich hab nichts gegen nV, im Gegenteil, aber wenn man das mal realisitsch sieht, dann muß man halt sagen, dass man mit einer SM3 Karte ein so genannter "Early Adaptor" ist und das hat zur Folge, dass man bestenfalls Techdemos für SM3 zu sehen bekommen wird.
Mit Features, die über den Durchschnitt der im Makrt vorhandenen Karten rausgeht, kann man leider nur den Pokal für schöne Technik gewinnen, aber Auswirkungen auf die Spiele hat das erstmal keine, das hat die Vergangenheit oft genug gezeigt. Das war auch schon beim R200 so (oder auch bei früheren Karten). nV war ja "schlau" genug, diesmal nicht nur neue Features zu implementieren, sondern auch die "alten" richtig schnell zu machen, deswegen bleibt der nV ein heißes Eisen und zurecht eine (die?) Highend Karte. Aber ich glaube nicht, dass der nV40 zu Lebzeiten mit richtig viel SM3 Software gefüttert wird. Die 9700pro wird ja (leider) auch nicht mit jeder Menge SM2 Software gefüttert und die ist nun auch schon ein bissi länger am Markt.

tRpii
2004-09-04, 22:12:59
Ist ist doch wurscht wer mit was zuerst gekommen ist.. FAKT ist, wie mrdigital so schön sagte, ich zitiere: "Wenn man sich diese Fragen stellt und mal nüchtern beantwortet, dann sieht man, dass es sicherlich in den nächsten 12 Monaten keine Spiele geben wird, die ernsthaft von SM3 gebrauch machen werden."

Und genau das traf bzw. trifft doch auch auf SM2.0 etc. zu.. die hersteller wollten doch die breite Masse mit ihren Games ansprechen und wer bitte kauft sich denn prozentual gesehen eine 6800GT/Ultra etc. (die Lowendausführungen lasse ich mal weg da dort SM3.0 zwar funktioniert aber mehr schlecht als recht).. also werden sich die Entwickler erstrangig darauf beschrenken dass die Grafik zwar ansprechend ist aber eben nicht übertrieben.. auch wenn es kein großer aufwand sein mag SM3.0 im nachhinein zu integrieren.. es ist dennoch ein aufwand und das kostet geld und zeit und wer hat das schon?

Spiele auf SM3.0 basis kommen, ob dank NV früher darüber lässt sich streiten.. NV preisst es ja an dass es total einfach wäre Spiele anzupassen und wenn das so ist dann fällt das argument mit "NV" und "früher kommen" ja irgendwie sehr schnell weg..

Entwickler wollen jeden ansprechen der games zockt und der großteil hat entweder nen relativ alten rechner (ohne SM3.0 wenn nicht sogar SM2.0) oder hat nen günstigen Komplettrechner wo an jeder ecke gespart wurde (preis/leistung) und in meisten fällen werden die OEM's da nicht unbedingt ne GT oder Ultra reinpappen..

Schaut euch an welches game exzessiv SM2.0 benutzt.. hmm, ja welches? fc?...

tokugawa
2004-09-04, 23:11:40
Das ganze wiederholt sich doch, wie bei den "T&L" Zeiten.
Schön das was neues raus kommt aber wie es nun mal so ist, werden die Spiele mit SM 3 erst in einem Jahr oder noch viel später breitflächig rauskommen.

Ist doch wie bei Intel und AMD: Intel bringt mmx...sse...ht und AMD zieht später nach ;-) bzw. umgekehrt wie bei 64bit.

Ist schon klar, nur würde SM 3.0 nicht jetzt in Hardware verfügbar sein, würde es noch viel später als ein Jahr erst konkrete Spiele damit geben. Alles würde sich nach hinten verschieben. Wie bei TnL.

ALso irgendwann muß man beginnen. Man kann der NV40 viel vorwerfen, aber doch bitte nicht SM 3.0. Und dem Marketing kann man sowieso immer alles vorwerfen - aber ehrlich: MIR ist das Marketing wurscht. Marketing ist weder die Firma selbst, noch hat die irgendwas mit den Technik-Abteilungen zu tun. Und das ist auch gut so. Ich mag Marketing-Fuzzis nämlich nicht, weder von ATI noch von NVIDIA noch von sonst irgendwem.

Wer zuviel Gewicht in die Aussagen von Marketing-Fuzzis legt, ist selber schuld. SM 3.0 ist ein gutes Feature, und es ist schon gut, dass es jetzt kommt, als später. Je früher es in Hardware verfügbar ist, desto früher sieht man es auch in Software.

tokugawa
2004-09-04, 23:14:36
wenn man sich anschaut wielange nun SM2.0 schon draussen ist.. (mit de 9700Pro? bei ATI und DX9) und dann noch nach titel guckt die diese wirklich richtig benutzen..dann fallen mir effektiv vielleicht maximal 5 ein.. sm3.0 ist schön und gut aber solange es niemand wirklich nutzt hat es einfach keinen nutzen ob es nun die Hardware kann oder nicht.. ist schön dass NV in ihrem NV40 SM3.0 implementiert hat und es nun bewirbt bis zum geht nicht mehr aber wie schon gesagt muss es erstmal games geben die überhaupt davon nutzen ziehen, reden kann man nämlich viel.. und es gilt die Entwickler zu überzeugen.. User sind eh blöd genug und kaufen alles was als toll und revolutionär angepriesen wird, obs nun gebraucht wird oder nicht ist da zweitrangig ;)

Naja, von Entwicklerseite wird SM 3.0 durchgehend positiv bewertet. Und wie gesagt, es gibt bereits Entwicklungen in Sachen SM3.0. Aber die brauchen Zeit.

Gäbe es SM 3.0 nicht jetzt, in Form des NV40, könnte es auch keine Entwicklungen diesbezüglich geben, und die Verfügbarkeit der Software und der SM3.0-basierten Techniken würde sich noch weiter verschieben.

Und nochmals zur Betonung: Entwickler verwenden schon SM 3.0. Aber mit ein paar einfachen Illuminationseffekten reizt man halt die SM 3.0 Features nicht wirklich aus. Da gehören schon komplexere Dinge - wie etwa Collision Detection im Shader (?) oder ganz andere witzige Dinge.

Übrigens:
http://www.heise.de/newsticker/meldung/50667

Ganz frisch, und ich bin mir sicher, diese Anwendung (die jedoch zugegebenermaßen eher nur für Musiker im semiprofessionellen Umfeld interessant ist) würde selbst SM 3.0 ordentlich fordern.

tokugawa
2004-09-04, 23:16:19
Ja LS! NV ist toll. NV ist dafür verantwortlich, dass wir ganz schnell ganz tolle SM3.0 Effekte in Spielen sehen werden. Und überhaupt wird von deiner Seite NV viel zu selten in den Himmel gehoben.

Bitte müll woanders rum. Du nervst mal wieder mit deinem hohlem Fanboyscheiß. ;)

Ich glaub du tust ihm Unrecht. Er hat doch recht.

Entwickler arbeiten schon jetzt mit SM 3.0. Aber bis die Algorithmen und Techniken fertig sind, dauert es halt.

Hätte NVIDIA nicht SM 3.0 in die NV40 eingebaut, gäbe es all diese Entwicklungen nicht. Es würde sich alles nach hinten verschieben.

Entwickler arbeiten schon jetzt mit SM 3.0. Und warum können sie das? Weil es die NV40 gibt. Und wer hat die NV40 gemacht? Richtig, NVIDIA.

tokugawa
2004-09-04, 23:21:44
Wie groß ist der Marktanteil von Karten mit SM3.0 Fähigkeiten? Wie wird sich der Marktanteil innerhalb der nächsten 12 Monate entwickeln? Lohnt es sich für diesen (wahrscheinlich doch recht kleinen Anteil) des Marktes exlusiv zu entwickeln? Wenn man sich diese Fragen stellt und mal nüchtern beantwortet, dann sieht man, dass es sicherlich in den nächsten 12 Monaten keine Spiele geben wird, die ernsthaft von SM3 gebrauch machen werden. Das was an SM3 kommt, wird dann bestenfalls unter der Rubrik nettes extra laufen, das ist für die Entwickler ein Testballon, man kann mal sehen, was mit diesen neuen Features möglich ist und wie man diese anwendet, aber wie gesagt, von Marktrelevanz wird das nicht sein.

Die Penetration von SM 3.0 im Markt wird sicher ein Faktor sein, wie schnell sich SM 3.0 durchgehend durchsetzt, da hast du absolut recht. Es wird Zeit, dass die 6600er und 6200er auch in den AGP-Versionen endlich verfügbar sind.

Aber betrachte es auch mal von einer anderen Seite: Gerade SM 3.0 ist ein Sprung von SM 2.0 in einer Größenordnung, wo tatsächlich neue komplette Algorithmen möglich werden (anstatt nur eine neue Illuminationsformel per Pixel). Etwa raycasting oder collision detection im Shader.

Diese Techniken werden schon heute entwickelt. Diese Entwickler sind meistens Forscher - auch bei NVIDIA, auch bei Spielefirmen, aber vor allem auch an Universitäten und Forschungsinstituten - die eben mit SM 3.0 entwickeln, damit sie Dinge implementieren können, die vorher nicht möglich waren. Oder ganz neue Sachen erfinden.

Und zwar jetzt schon (das weiß ich mit Bestimmtheit, denn ich kenn da ein paar).

Bei Firmen wie EA, wo das Marketing und die Marktforschung viel bei der Entwicklung mitzureden hat, werden die Entwickler wohl weder die Zeit noch die Resourcen bekommen, um mit SM 3.0 zu experimentieren.

Aber es gibt auch ganz andere Entwickler; bei Spielefirmen, die innovationsfreudig sind, bei Forschungs-Instituten, die bei State-of-the-Art Echtzeit-Rendering-Techniken schon mit der NV40 arbeiten.

Genau diese Personen sind es, die uns in 12 Monaten oder was auch immer dann jene Techniken bringen, die SM 3.0 erfordern.

Gäbe es die NV40 nicht, könnten diese Personen nicht damit arbeiten.

Jesus
2004-09-04, 23:27:22
Ja LS! NV ist toll. NV ist dafür verantwortlich, dass wir ganz schnell ganz tolle SM3.0 Effekte in Spielen sehen werden. Und überhaupt wird von deiner Seite NV viel zu selten in den Himmel gehoben.

Bitte müll woanders rum. Du nervst mal wieder mit deinem hohlem Fanboyscheiß. ;)

da stimm ich jetz mal zu :redface: !

tokugawa
2004-09-04, 23:32:24
Spiele auf SM3.0 basis kommen, ob dank NV früher darüber lässt sich streiten..


Nein, darüber lässt sich nicht streiten. Es wird jetzt schon an SM 3.0 basierten Algorithmen gearbeitet. Auf der NV40. Ein paar Kollegen von mir arbeiten in einem Forschungsinstitut für Visualisierung und Computergrafik, und dort gibt's eine Echtzeitgrafik-Forschungsabteilung, die bereits jetzt auf NV40 entwickeln.

Und rat einmal, woher dann Spieleentwickler fertige Algorithmen und Software-Techniken herkriegen. Richtig, aus der Wissenschaft und Forschung.

Es gibt die natürliche Entwicklung und Abhängigkeit Hardware -> Forschung&Entwicklung in der Wissenschaft -> Wissenschaftliche Publikation -> Implementation in Spielen -> Verfügbarkeit in Spielen.

Wir sind derzeit im zweiten Punkt (Forschung), der ganz stark vom ersten Punkt abhängt (Hardware). Daraus lässt sich trivialerweise ableiten, dass durch die jetzige Verfügbarkeit von SM 3.0 die Entwicklung früher fertig ist, als wenn SM 3.0 später kommen würde. Dasselbe galt damals auch für TnL.

Nur "einfache Gamer" ignorieren die Forschung. Und genau das find ich ziemlich dämlich, denn aus der Forschung beziehen Spieleentwickler dann nämlich ihre Effekte und Grafiktechniken.



NV preisst es ja an dass es total einfach wäre Spiele anzupassen und wenn das so ist dann fällt das argument mit "NV" und "früher kommen" ja irgendwie sehr schnell weg..


Da haben sie eh recht. Da Shader (speziell im Zusammenhang mit dem DirectX FX Format, wo man komplette Render-Passes in einer einzelnen Datei konfigurieren kann) heutzutage ziemlich modular sind, kann man - sobald es Shader gibt, die SM 3.0 ausnutzen (etwa in HLSL Form) - ziemlich einfach integrieren. Zumindest muß man am Engine-Code nicht viel ändern.

Der Punkt ist aber natürlich, dass eben erst Techniken, Effekte, und Algorithmen entwickelt werden müssen, die SM 3.0 vorraussetzen. Aber hier liegt die Entwicklung grad im Forschungsstadium.


Entwickler wollen jeden ansprechen der games zockt und der großteil hat entweder nen relativ alten rechner (ohne SM3.0 wenn nicht sogar SM2.0) oder hat nen günstigen Komplettrechner wo an jeder ecke gespart wurde (preis/leistung) und in meisten fällen werden die OEM's da nicht unbedingt ne GT oder Ultra reinpappen..


Nein, das sind die Marketing-Experten die das wollen.

Richtige Entwickler, die nicht durch die Marketing-Abteilung ihrer Firma gebunden sind, und denen Freiraum gewährt wird, können auch schon mit SM 3.0 experimentieren.

Und die meisten Entwickler finden SM 3.0 gut, und üben sich schon ein. Nur für ein konkretes Spiel, um von Seiten der Projektleitung Resourcen in SM 3.0 Entwicklung zu stecken, fehlt die Userbasis. Aber das ist eh immer so.

Aber wie gesagt, es wird schon heute mit SM 3.0 gearbeitet.


Schaut euch an welches game exzessiv SM2.0 benutzt.. hmm, ja welches? fc?...

Und es wird heute noch mit SM 2.0 gearbeitet. Noch sind viele Dinge, die erst mit SM 2.0 möglich sind, noch im Forschungsstadium. Die Anzahl der Dinge, die SM 2.0 vorraussetzen, wird noch steigen. SM 2.0 ist aber schon ein Stück weiter in der "Unterstützung" und in der Verbreitung von SM 2.0 Techniken als SM 3.0. Nichtsdestotrotz ist es kein Fehler, jetzt schon SM 3.0 in Hardware zu haben - denn dann kann man die Entwicklung an SM 3.0 heute beginnen und nicht morgen.

tokugawa
2004-09-04, 23:36:07
da stimm ich jetz mal zu :redface: !

Wie oft soll ich noch wiederholen, dass die Techniken, die SM 3.0 einmal ausreizen werden, bereits heute entwickelt werden? Die Entwicklung beginnt heute, und wird irgendwann mal fertig sein.

Und dass diese Techniken nicht jetzt, sondern später entwickelt worden wären, hätte die NV40 kein SM 3.0. Und damit auch später fertig geworden wären.

Folglich ist es absolut korrekt, dass die NV40 die Unterstützung von SM 3.0 fördert, und durch NVIDIA dadurch SM 3.0 früher zu sehen sein wird.

Jesus
2004-09-04, 23:43:52
sorry, aber jetzt musst du mich mal aufklären...

Welche seriöse Foruschungseinrichtung stützt sich denn auf sowas wie DX9 SM3 um ihre Forschung voranzutreiben ?

Ich hab mittlerweile schon in 3 verschiedenen Firmen gerarbeitet aber in keiner wurde MS DX 9 als wichtiges Entwicklungswerkzeug verwendet, wozu auch ? ( wenn dann OGL für Simulationen etc., allerdings braucht man da auch extrem selten sowas wie SM 3 um Echtzeiteffekte schnell genug darzustellen ).

Btw. wenn es einem zuzuschreiben ist dann MS, und nicht NV, denn die haben schliesslich das SM entwickelt.

MikBach
2004-09-04, 23:45:31
Wie oft soll ich noch wiederholen, dass die Techniken, die SM 3.0 einmal ausreizen werden, bereits heute entwickelt werden? Die Entwicklung beginnt heute, und wird irgendwann mal fertig sein.

:lol:
Zeig mal paar praktische Beispiele.
Sonst ist es nur heisse Luft. ;)

tokugawa
2004-09-04, 23:50:20
Das ist schon richtig. Das Problem ist nur, dass du das oft in Verbindung mit dem NV40 bringst. Man sollte langsam gepeilt haben, dass SM3.0 beim NV40 nicht wirklich viel bringt.
Du brigst es aber oft als ein Argument den Nv40 zu kaufen. Dieses Argument ist für Gamer einfach nicht existent. Bei den Entwicklern sieht es anders aus.

Genau! Aber weder ist es der heilige Graal, noch ist es komplett "sinnlos".

Es ist gut, dass der NV40 neben guter Performance noch "huckepack" SM 3.0 bietet. Dem Spieler bringt es direkt nichts, aber indirekt schon.

Mir geht es nur gegen den Strich, wenn jeder den NV40 basht, weil er SM 3.0 hat.

Es gibt wesentlich weniger Fälle, wo gesagt wird, dass SM 3.0 der heilige Graal ist.

Außer vom NVIDIA-Marketing. Und dem NVIDIA-Marketing braucht man keine Beachtung schenken. Ich frag mich immer wieder wieso gerade ATI-Fans jene sind, die dem NVIDIA-Marketing übermäßig Beachtung schenken.

Marketing ist immer schlimm. Und Marketing ist unabhängig von der Technik.

Lasst uns wieder über die TECHNIK diskutieren, und nicht mehr über das besch*ne Marketing, ok?

Gast
2004-09-04, 23:51:33
Btw. wenn es einem zuzuschreiben ist dann MS, und nicht NV, denn die haben schliesslich das SM entwickelt.

Stimmt so nicht, afaik waren alle IHV´s mit am Tisch und noch andere Firmen die bei solchen Standarts mitmischen/Entwickeln.

Jesus
2004-09-04, 23:56:09
Mir geht es nur gegen den Strich, wenn jeder den NV40 basht, weil er SM 3.0 hat.

Es gibt wesentlich weniger Fälle, wo gesagt wird, dass SM 3.0 der heilige Graal ist.


sorry, aber das stimmt so auch nicht. Vorallem hier ( im 3dc ) wurde anfangs das SM 3 als das Nonplusultra und absolutes Kaufargument des nv40 dargestellt, und als dem ältern SM absolut überlegen.

Niemand spricht mehr von SM 3 seit dem ATI mit SM2.0b in FC NV wieder überflügeln konnte, also nahm man sich das nächste vor was so kam - D3. Seitdem ist US 2 (& co. ) das totale Kaufargument ( hier auf 3dc ) für einen nv40 ( und gegen einen R420 ).

Frag mich was als nächstes noch kommt. ..

tokugawa
2004-09-04, 23:56:14
:lol:
Zeig mal paar praktische Beispiele.
Sonst ist es nur heisse Luft. ;)

Ich bin nicht in diesem Raycasting Forschungsprojekt, aber so wie ich das verstanden hab, gibt's hier mit SM 3.0 eindeutige Vorteile. Es lassen sich etwa Loops implementieren, die den Strahl so verfolgen können, indem der Strahl halbiert wird, und die zwei neuen Endpunkte ein Liniensegment bilden, die mit Ebenen geschnitten werden. So kommt man irgendwie iterativ zu einem finalen Ergebnis. Sorry für die fehlenden Details.

Collision Detection im Pixel Shader muß ich wohl nicht extra erklären hoffentlich.

Und dir ist hoffentlich trivialerweise klar, dass ich da wohl nicht zu viel ausplaudern darf. Oder kann. Ich hab den Source Code nicht, ich kenn's von Kollegen, die dort arbeiten.

Jedenfalls sind beides enorm interessante Entwicklungen, die auch sicher einmal in Spielen Relevanz finden werden.

Falls dir das nicht "praktisch genug" ist, dann sollte dir mal endlich klar werden, dass vor einem "praktischem Nutzen" in Spielen immer die Theorie steht. Soll heißen, man entwickelt in der Forschung Techniken, BEVOR sie praktisch in Spielen zur Verfügung stehen.

Ohne diese "nichtpraktische" Vorarbeit würde man niemals die praktischen Endergebnisse sehen.

Von daher ist es keine heiße Luft.

Jede der Grafikeffekte und Techniken, die du heute in Spielen genießt, war ursprünglich "Theorie" in der Forschung.

tokugawa
2004-09-05, 00:01:57
sorry, aber das stimmt so auch nicht. Vorallem hier ( im 3dc ) wurde anfangs das SM 3 als das Nonplusultra und absolutes Kaufargument des nv40 dargestellt, und als dem ältern SM absolut überlegen.


Für Entwickler ist es das auch.

Und wenn ich mich recht erinnere, waren jene, die das SM 3.0 als ein Kaufargument sahen, allesamt Entwickler. Oder sahen zumindest die Sache aus der Entwicklerperspektive, von der aus gesehen das ja vollkommen richtig ist.

Zeig mir lieber einen Gamer, der aus Gamerperspektive das Feature SM 3.0 als Nonplusultra gesehen hat.


Niemand spricht mehr von SM 3 seit dem ATI mit SM2.0b in FC NV wieder überflügeln konnte, also nahm man sich das nächste vor was so kam - D3.


Von wegen niemand spricht mehr von SM 3.0. Vielleicht hier nicht - aber jene, die damit arbeiten, sind jetzt wohl zu beschäftigt.


Seitdem ist US 2 (& co. ) das totale Kaufargument ( hier auf 3dc ) für einen nv40 ( und gegen einen R420 ).


Naja, für Spieler ist das derzeit zumindest ein besseres Kaufargument als SM 3.0.


Frag mich was als nächstes noch kommt. ..

Du mischt leider die Ansichtsweisen von Entwicklern und Spielern gründlich.

Aus Entwicklersicht ist SM 3.0 super, selbst heute. Spieler haben das eher selten als ein Spielerfeature gehypt. Zumindest jene Spieler die etwas Hirn haben :). Jene Spieler, die SM 3.0 auch gut fanden, waren jene, die auch die Entwicklerseite gesehen haben, was eine absolute lobenswerte Einstellung ist.

Aus Spielersicht bringt US2 durch Doom 3 natürlich "mehr" als SM 3.0. Obwohl ich nicht glaube, dass US2 das einzige ausschlaggebende Feature ist, das Doom 3 auf NV40 schnell macht. Dürfte auch in gutem Ausmaß am Early Z Algorithmus liegen, der ja nicht zu UltraShadow 2 gehört.

Jesus
2004-09-05, 00:03:47
Jede der Grafikeffekte und Techniken, die du heute in Spielen genießt, war ursprünglich "Theorie" in der Forschung.

Ein grosser teil dessen was heute genutzt wird stammt wohl aus der Demo Szene und stellt nur Einzelentwicklung dar. Mit Forschung hat das ganze herzlich wenig zu tun.

Wenn Forschung, dann zu militärischem nutzen, aber mit richtige Forschung hat das nicht mehr viel zu tun imho.

tokugawa
2004-09-05, 00:08:35
sorry, aber jetzt musst du mich mal aufklären...

Welche seriöse Foruschungseinrichtung stützt sich denn auf sowas wie DX9 SM3 um ihre Forschung voranzutreiben ?


Da gibt's schon einige. Aber zugegebenermaßen ist eher OpenGL relevant. Und das Äquivalent zu SM 3.0 unter OpenGL ist die entsprechende NVIDIA Extension. Von daher sollte ich vielleicht eher "CineFX 3" sagen.

Aber das ist irrelevant, denn letztendlich sind diese zwei äquivalent - soll heißen eine Technik die CineFX 3 vorraussetzt, ließe sich 1:1 portieren auf DX9 SM 3.0, funktionell. Ist ja dasselbe nur unter anderem Interface.


Ich hab mittlerweile schon in 3 verschiedenen Firmen gerarbeitet aber in keiner wurde MS DX 9 als wichtiges Entwicklungswerkzeug verwendet, wozu auch ? ( wenn dann OGL für Simulationen etc., allerdings braucht man da auch extrem selten sowas wie SM 3 um Echtzeiteffekte schnell genug darzustellen ).


Es gibt viele Bereiche in der Forschung. Unter anderem gibt's auch den Bereich des Realtime Rendering, das für Spiele die 100% relevante ist.

Ich kenne folgende Institute, die unter anderem damit zu tun haben.
www.cg.tuwien.ac.at
www.vrvis.at

In was für Firmen hast du gearbeitet? "Simulationen" gehören nicht unbedingt zu Realtime Rendering. Bei Realtime Rendering geht's ja mehr um Effekte bzw. Algorithmen für die Echtzeitgrafik.


Btw. wenn es einem zuzuschreiben ist dann MS, und nicht NV, denn die haben schliesslich das SM entwickelt.

Naja, es gab ja ein Konsortium.

Aber es ist natürlich auch NVIDIA zuzuschreiben, dass sie die Hardware dafür entwickelt haben. Das ist nämlich weniger trivial als einen Papierstandard festzulegen. Willst du etwa die Entwicklung SM 3.0 fähiger Hardware kleinreden?

Und der Mut, den höheren Transistorencount (und alle verbundenen Nachteile wie Lautstärke, Hitze, Kühlergröße und -gewicht) auf sich zu nehmen, anstatt "play safe" zu befolgen und einfach einen schnellen Chip zu machen der keinerlei neue Technologien bietet. Na gut, das hätten sie gar nicht können, da sie mit der FX schon in Richtung SM 3.0 unterwegs waren (da hätten sie sonst sogar einen technologischen Rückschritt gemacht wenn die einfach einen neuen pfeilschnellen SM 2.0 Chip gemacht hätten).

Gast
2004-09-05, 00:13:13
Ich bin nicht in diesem Raycasting Forschungsprojekt, aber so wie ich das verstanden hab, gibt's hier mit SM 3.0 eindeutige Vorteile. Es lassen sich etwa Loops implementieren, die den Strahl so verfolgen können, indem der Strahl halbiert wird, und die zwei neuen Endpunkte ein Liniensegment bilden, die mit Ebenen geschnitten werden. So kommt man irgendwie iterativ zu einem finalen Ergebnis. Sorry für die fehlenden Details.

Collision Detection im Pixel Shader muß ich wohl nicht extra erklären hoffentlich.

Und dir ist hoffentlich trivialerweise klar, dass ich da wohl nicht zu viel ausplaudern darf. Oder kann. Ich hab den Source Code nicht, ich kenn's von Kollegen, die dort arbeiten.

Jedenfalls sind beides enorm interessante Entwicklungen, die auch sicher einmal in Spielen Relevanz finden werden.

Falls dir das nicht "praktisch genug" ist, dann sollte dir mal endlich klar werden, dass vor einem "praktischem Nutzen" in Spielen immer die Theorie steht. Soll heißen, man entwickelt in der Forschung Techniken, BEVOR sie praktisch in Spielen zur Verfügung stehen.

Ohne diese "nichtpraktische" Vorarbeit würde man niemals die praktischen Endergebnisse sehen.

Von daher ist es keine heiße Luft.

Jede der Grafikeffekte und Techniken, die du heute in Spielen genießt, war ursprünglich "Theorie" in der Forschung.
:lol:
Ich rede von praktischen Beispielen für Zocker. Verstehst du mich überhaupt oder spreche ich Chinesich?

MikBach
2004-09-05, 00:14:16
Das war wieder ich. :rolleyes:

tokugawa
2004-09-05, 00:16:43
Ein grosser teil dessen was heute genutzt wird stammt wohl aus der Demo Szene und stellt nur Einzelentwicklung dar. Mit Forschung hat das ganze herzlich wenig zu tun.


Die Demoszene hat es auch aus Forschungsergebnissen. Es mag schon sein, dass manchmal auch was in der Demoszene "erfunden" wurde, aber das meiste war vorher schon aus der Computergrafik-Forschung und Wissenschaft bekannt.

Beweis? Fast jede der Algorithmen und Techniken, die heute in Spielen benutzt wird, basiert auf einem wissenschaftlichen Paper, einige Beispiele der Spiele-Techniken, die heute verwendet werden und aus der Wissenschaft stammen:

- Matrizenalgebra (Lineare Algebra)7
- Collision Detection (Geometrie, Lineare Algebra, Numerische Mathematik)
- Quaternione, etwa für Rotationsrepräsentation und natürlich SLERP (Algebra)
- B-Reps (Boundary Representations, die heute gängige Art, "Grafik" darzustellen. Also indem man einfach die "Hülle" der Objekte rendert)
- Binary Space Partioning Trees, Octrees, Quadtrees
- Visibility Culling/Frustum Culling
- Occlusion Culling
- Shadow Mapping
- Shadow Volumes
- ZFail und ZPass bei Shadow Volumes
- Lightmapping
- Lambiertsche Formel, Phong-Beleuchtung
- Gouraud, Phong Shading (und damit essentiell auch Per Pixel lighting und Normalmapping)
- Lightspace Perspective Shadowmapping
- Dynamic Mesh Level of Detail Algorithmen wie ROAM
- Triangle Stripping Algorithmen
- Static Recalculation Level of Detail (also runterrechnen von Polygonen)
- Shading Languages
- Dynamic Cloud Generation
- uvm.

ALLES DAS stammt aus der Forschung und Wissenschaft, und vieles mehr. Manches davon lässt sich mit Shadern implementieren oder erweitern/verbessern/vereinfachen.

Und das inkludiert nicht mal die neuesten Entwicklungen, aber du kannst ruhig einen Blick in die Papers der SIGGRAPH 2003 oder 2004 werfen.


Wenn Forschung, dann zu militärischem nutzen, aber mit richtige Forschung hat das nicht mehr viel zu tun imho.

Nein. Du kennst anscheinend die Forschung in der Echtzeitgrafik nicht.

Darf ich dich auf www.cg.tuwien.ac.at aufmerksam machen. Unter "Research" gibt's da einige spielerelevante Techniken, z.B. hier:

http://www.cg.tuwien.ac.at/research/vr/urbanviz/

PS: Es sind viele, die ich in der Forschung kenne, sogar aus der Demoszene. So unrecht hast du also nicht. Aber die wirklich neuen Ergebnisse gibt es halt in der Forschung, vor allem da die dort dann wissenschaftlich analysiert werden und als Paper gepublisht werden.

tokugawa
2004-09-05, 00:19:09
:lol:
Ich rede von praktischen Beispielen für Zocker. Verstehst du mich überhaupt oder spreche ich Chinesich?

WIE OFT NOCH???? Sorry, aber bist du schwer von Begriff?


(Fast) ALLES, was an praktischen Beispielen für Zocker existiert und existieren wird, STAMMT AUS DER FORSCHUNG.

Ohne die Forschung gäbe es das meiste, was du als Zocker an praktischen Beispielen von Software-Techniken und Grafik-Algorithmen hast, nicht.

Verstehst du den Zusammenhang? Dadurch, dass jetzt schon in der Forschung SM 3.0 (bzw das OpenGL Äquivalent) verwendet wird, wird es für Zocker auch praktisch relevant.

Gäbe es SM 3.0 nicht jetzt schon, würden sich auch die praktischen Beispiele für Zocker nach hinten verschieben und später kommen.

Sagen wir, etwas, was jetzt in der Forschung an SM 3.0 Techniken entwickelt wird, kommt in 12 Monaten in einem Spiel. Gut so. Würde der NV40 kein SM 3.0 haben, würde es viel länger noch als 12 Monate dauern, bis es in einem Spiel ist. Denn erst dadurch, dass es den NV40 MIT SM 3.0 gibt, können die Forscher und Entwickler Techniken basierend darauf entwickeln.

Dieses Collision Detection im Shader ist ein praktisches Beispiel. Denn es funktioniert in der Praxis. Und irgendwann wird es auch in Spielen verwendet werden, daher ist es auch ein praktisches Beispiel für Zocker. Kapiert?

Mensch Leute, wenn es um Hardware geht, seht ihr so gern in die Zukunft, aber bei Software-Techniken wagt ihr nicht mal einen Blick in die GEGENWART?

MikBach
2004-09-05, 00:36:22
WIE OFT NOCH???? Sorry, aber bist du schwer von Begriff?

Ja, ich bin so schwer von Begriff, dass ich es damals geahnt habe, dass die 9800PRO in shaderlastigen Spielen eine FX5900 ungespitzt in den Boden rammen wird. Siehe FC ;)
:lol:

tokugawa
2004-09-05, 00:47:11
Ja, ich bin so schwer von Begriff, dass ich es damals geahnt habe, dass die 9800PRO in shaderlastigen Spielen eine FX5900 ungespitzt in den Boden rammen wird. Siehe FC ;)
:lol:

Falscher Thread.

Und nicht jeder mag Far Cry. Und der Performance-Unterschied liegt vielleicht bei maximal 30%. Das ist nicht "ungespitzt in den Boden rammen". Ist schon eher gespitzt in den Boden gerammt. "Ungespitzt in den Boden rammen" heißt für mich mindestens DOPPELTE Performance. Auch die NV40 rammt die X800 nicht ungespitzt in den Boden, sondern ist einfach nur etwas schneller, aber spiel- und genießbar auf beiden.

Auch Far Cry ist spiel- und genießbar auf einer FX. Daher ist sie für Gamer auch was, wenn man zusätzlich SSAA für ältere Spiele möchte.

Deine Aussage, dass die 9800 Pro immer besser ist als eine FX, ist also falsch. Vor allem unter Einbeziehung von sowas wie "persönlichem Geschmack". Man kann auch zufälligerweise jene Spiele mögen, bei denen die FX besser dasteht. Oder überhaupt ältere Spiele, wo die FX auch besser dasteht dank SSAA u.a.

Aber leider, falscher Thread.

Zum eigentlichen Posting fällt dir nichts mehr ein?

mrdigital
2004-09-05, 01:07:07
Bitte achtet auf euren Tonfall

mrdigital
2004-09-05, 01:15:36
Ich sage mit keinem Wort, das SM3 sinnlos, oder doof oder schlecht oder sonstwas wäre. Ich finde Features auch klasse. SM3 ist eine sinnvolle Sache, das steht nicht zur Diskussion. Das sowas in Forschungsprojekten schnell Einsatz findet ist klar, Forschung ist nunmal ein "Early Adaptor" und Forschungsprojekte müssen sich nicht um die Marktsituationen kümmern. Das Spieleentwickler in diese Richtung entwickeln ist auch klar, wenn man sich die Entwicklungszeiten für Spiele ansieht, so vergehen da gut ein zwei Jahre. Spieleentwickler müssen ausserdem auf die Marktverhältnisse Rücksicht nehmen und da siehts halt nicht nach einer grossen Marktdurchdringung von SM3 in den nächsten 12 Monaten aus. So und hier kommt der SM3 Haken für den Anwender. Die erste SM3 Hardware ist nichtmal ein halbes Jahr auf dem Markt, d.h. es kann erst seit einem halben Jahr vernünfitg mit SM3 entwickelt werden. Und da sieht man dann, dass die Zeit zu knapp wird, als dass man im nächsten Jahr mit Spielen rechnen könnte, die voll auf SM3 setzten. Daher mein Fazit, jeder der sich eine SM3 Hardware kauft, ist ein Early Adaptor, der leider auch damit rechnen muss, dass die tollen Features seiner Karte erst dann zum Einsatz kommen werden, wenn die Karte nur noch Mittelklasse ist. Das selbe erleben doch gerade die ganzen 9700pro Besitzer warum sollte es bei SM3 anders ablaufen?

Asyan
2004-09-05, 01:15:51
tRpii,
dank Nvidia kann man SM3.0 frueher in Spiele sehen.
Du kannst aber gerne darlegen, wie es eine Unterstuetzung geben sollte, wenn es keinen Hersteller gaebe, der dieses Feature anbieten würde.
Oder denkt ihr, dass die Features ploetzlich in Spiele auftauchen?
Hängt damit zusammen, dass nVidia sozusagen die Reinkarnation aller Götterväter ist, die, die alles gut machen, die gelben Engel, wenn du so willst.
Aber eine Frage habsch noch, was passiert wohl wenn deine Graka explodiert und dich so unglücklich vom Stuhl reisst, dass du querschnittsgelähmt bist? Kaufst du dann wieder nVidia, oder liegts am Stuhlhersteller? X-(

betasilie
2004-09-05, 01:18:29
Er verklagt den Stuhlhersteller! X-(

Und nicht jeder mag Far Cry. Und der Performance-Unterschied liegt vielleicht bei maximal 30%. Das ist nicht "ungespitzt in den Boden rammen". Ist schon eher gespitzt in den Boden gerammt. "Ungespitzt in den Boden rammen" heißt für mich mindestens DOPPELTE Performance.
Das ist subjektiv. Ich empfinde 30% schon dramatisch.

tokugawa
2004-09-05, 01:23:10
Ich sage mit keinem Wort, das SM3 sinnlos, oder doof oder schlecht oder sonstwas wäre. Ich finde Features auch klasse. SM3 ist eine sinnvolle Sache, das steht nicht zur Diskussion. Das sowas in Forschungsprojekten schnell Einsatz findet ist klar, Forschung ist nunmal ein "Early Adaptor" und Forschungsprojekte müssen sich nicht um die Marktsituationen kümmern. Das Spieleentwickler in diese Richtung entwickeln ist auch klar, wenn man sich die Entwicklungszeiten für Spiele ansieht, so vergehen da gut ein zwei Jahre. Spieleentwickler müssen ausserdem auf die Marktverhältnisse Rücksicht nehmen und da siehts halt nicht nach einer grossen Marktdurchdringung von SM3 in den nächsten 12 Monaten aus. So und hier kommt der SM3 Haken für den Anwender. Die erste SM3 Hardware ist nichtmal ein halbes Jahr auf dem Markt, d.h. es kann erst seit einem halben Jahr vernünfitg mit SM3 entwickelt werden. Und da sieht man dann, dass die Zeit zu knapp wird, als dass man im nächsten Jahr mit Spielen rechnen könnte, die voll auf SM3 setzten. Daher mein Fazit, jeder der sich eine SM3 Hardware kauft, ist ein Early Adaptor, der leider auch damit rechnen muss, dass die tollen Features seiner Karte erst dann zum Einsatz kommen werden, wenn die Karte nur noch Mittelklasse ist. Das selbe erleben doch gerade die ganzen 9700pro Besitzer warum sollte es bei SM3 anders ablaufen?


Stimmt vollkommen.

Man sollte SM 3.0 als das sehen, was es ist: ein gutes Feature, das derzeit halt im "Early Adaptor" Stadium ist, und Spielern zur Zeit nichts bringt.

Ich bin gegen Glorifizierung von SM 3.0 sowie totales Schlechtreden von SM 3.0. Die Wahrheit liegt wieder mal genau in der Mitte...

Wünschte mir die Leute würden nicht so viel auf das Marketing hören.

mrdigital
2004-09-05, 01:25:19
sodele, ernsthaft disskutieren wollt ihr nicht, ihr spammt hier munter weiter in den Thread. Das muss doch nicht sein. Vor allem Beta, wenn du mal weiter oben im Thread nachsehen würdest, dann sollte man meinen, dass du die Bremse reinhaust. Asyan, dein Beispiel ist sowas von dämlich (sry :( ) das ich das bestenfalls als Spam oder schlimmstenfalls als schlechten Flameversuch.

betasilie
2004-09-05, 01:25:21
Ich sage mit keinem Wort, das SM3 sinnlos, oder doof oder schlecht oder sonstwas wäre. Ich finde Features auch klasse. SM3 ist eine sinnvolle Sache, das steht nicht zur Diskussion. Das sowas in Forschungsprojekten schnell Einsatz findet ist klar, Forschung ist nunmal ein "Early Adaptor" und Forschungsprojekte müssen sich nicht um die Marktsituationen kümmern. Das Spieleentwickler in diese Richtung entwickeln ist auch klar, wenn man sich die Entwicklungszeiten für Spiele ansieht, so vergehen da gut ein zwei Jahre. Spieleentwickler müssen ausserdem auf die Marktverhältnisse Rücksicht nehmen und da siehts halt nicht nach einer grossen Marktdurchdringung von SM3 in den nächsten 12 Monaten aus. So und hier kommt der SM3 Haken für den Anwender. Die erste SM3 Hardware ist nichtmal ein halbes Jahr auf dem Markt, d.h. es kann erst seit einem halben Jahr vernünfitg mit SM3 entwickelt werden. Und da sieht man dann, dass die Zeit zu knapp wird, als dass man im nächsten Jahr mit Spielen rechnen könnte, die voll auf SM3 setzten. Daher mein Fazit, jeder der sich eine SM3 Hardware kauft, ist ein Early Adaptor, der leider auch damit rechnen muss, dass die tollen Features seiner Karte erst dann zum Einsatz kommen werden, wenn die Karte nur noch Mittelklasse ist. Das selbe erleben doch gerade die ganzen 9700pro Besitzer warum sollte es bei SM3 anders ablaufen?

Ich könnte mir vorstellen, dass STALKER, was ja ggf. in nicht allzu weiter Ferne erscheinen wird, SM3.0 richtig gut nutzt. :) Ist zwar der einizge Titel der mir für 2005 einfällt, aber immerhin.

tokugawa
2004-09-05, 01:25:55
Er verklagt den Stuhlhersteller! X-(


Das ist subjektiv. Ich empfinde 30% schon dramatisch.

Es ist auch dramatisch. Aber ich finde Far Cry bei etwas niedrigeren Settings genauso spaßig. Mittlere Settings schafft die FX 5900 ja selbst in dem System, das ich der FX 5900 zugemutet hab, ja locker. Macht auch Spaß. Und zusätzlich kann ich alte Spiele in schönster SSAA Pracht spielen.

Sollte ich höchste Settings brauchen, um das Spiel spaßig zu machen, stimmt was mit dem Gameplay nicht, IMO. Und selbst dann könnte ich das Spiel einfach auf meiner ATI-Kiste spielen. Und wenn Highest dort auch zu langsam ist, spiel ich das Spiel halt in 4 Jahren wieder, wenn die zukünftige Midrange-Generation die heutige High-End-Generation problemlos übertrumpft. Ich hab ja als Gamer keine Phobie gegen ältere Spiele.

Und Far Cry ist ja auch nur ein Spiel, und nicht jeder muß es spielen oder mögen. MikBach scheint aber in seiner abgrundtief schlechten Beurteilung der FX hauptsächlich von Far Cry auszugehen (oder halt generell nur aktuellste SM2.0 Spiele, wo halt bekanntermaßen die FX tatsächlich schwach ist). Aber wär ja noch schöner wenn das die einzigen Spiele wären, die es gibt.

Was ich gegen MikBachs Aussage "FX 5900 ist generell schlecht" halte ist ja nur das:

- die FX 5900 hat ihre Schwäche bei SM 2.0
- sie ist trotzdem genügend schnell, um "Spaß" zu machen
- Spiele sind trotzdem "spielbar"
- zusätzlich hat sie ihre eigenen Stärken (SSAA, doublescan, OpenGL)

Sie ist also nicht wirklich abgrundtief schlecht, vor allem in Anbetracht von so Karten wie der Volari V8 Duo. Die FX 5900 ist ja wohl von der Performance her wesentlich näher an der Radeon 9800 Pro als sie es an der Volari V8 Duo ist, oder :) das muß selbst MikBach zugeben.

betasilie
2004-09-05, 01:34:01
Es ist auch dramatisch. Aber ich finde Far Cry bei etwas niedrigeren Settings genauso spaßig. Mittlere Settings schafft die FX 5900 ja selbst in dem System, das ich der FX 5900 zugemutet hab, ja locker. Macht auch Spaß. Und zusätzlich kann ich alte Spiele in schönster SSAA Pracht spielen.

Sollte ich höchste Settings brauchen, um das Spiel spaßig zu machen, stimmt was mit dem Gameplay nicht, IMO. Und selbst dann könnte ich das Spiel einfach auf meiner ATI-Kiste spielen. Und wenn Highest dort auch zu langsam ist, spiel ich das Spiel halt in 4 Jahren wieder, wenn die zukünftige Midrange-Generation die heutige High-End-Generation problemlos übertrumpft. Ich hab ja als Gamer keine Phobie gegen ältere Spiele.

Und Far Cry ist ja auch nur ein Spiel, und nicht jeder muß es spielen oder mögen. MikBach scheint aber in seiner abgrundtief schlechten Beurteilung der FX hauptsächlich von Far Cry auszugehen (oder halt generell nur aktuellste SM2.0 Spiele, wo halt bekanntermaßen die FX tatsächlich schwach ist). Aber wär ja noch schöner wenn das die einzigen Spiele wären, die es gibt.Da hast Du sicherlich Recht, aber FarCry repräsentiert imo die FX-Performance kommender DX9-Spiele. Von daher ist FarCry imo mehr als nur ein Spiel unter vielen.

Aber klar, wer sich damals ein Highendkarte gekauft hat und viel Wert auf ältere mit SSAA legt war u.U. mit der FX gut beraten, aber im Endeffekt war die FX doch ein ziemlicher Reinfall, weil sie an der Shaderperformance der R3xx Serie gemessen wurde. Von den AA-Modi mal abgesehen.

Und wenn Du FarCry auch mit medium Details gut findest, ist das super, aber ich für meinen Teil bin froh FarCry mit höchsten Detailsetting flüssig gezockt zu haben. ;)

tokugawa
2004-09-05, 01:35:20
Da hast Du sicherlich Recht, aber FarCry repräsentiert imo die FX-Performance kommender DX9-Spiele. Von daher ist FarCry imo mehr als nur ein Spiel unter vielen.

Aber klar, wer sich damals ein Highendkarte gekauft hat und viel Wert auf ältere mit SSAA legt war u.U. mit der FX gut beraten, aber im Endeffekt war die FX doch ein ziemlicher Reinfall, weil sie an der Shaderperformance der R3xx Serie gemessen wurde. Von den AA-Modi mal abgesehen.

Stimmt, eine High-End-Karte hätte ich mir allerdings nie gekauft :)

Vielleicht sollt ich meine Aussagen auf die FX 5900 XT präzisieren. Die war ihren Preis schon wert, auch wenn die 9800 Pro ähnlich billig war und schneller. Die FX 5900XT ist in dem Preissegment ein "Close Second" gewesen und nicht das Übelste vom Übelsten, wie es MikBach anscheinend verbreiten will. Glücklicherweise ist der Markt breit genug dafür, dass an der Spitze eines Preissegments (in diesem Fall <200 Euro) zwei Spitzenprodukte geben kann, und Spitzenprodukte für den Preis waren beide, sowohl die Radeon 9800 Pro und die FX 5900XT.

betasilie
2004-09-05, 01:39:29
Stimmt, eine High-End-Karte hätte ich mir allerdings nie gekauft :)

Vielleicht sollt ich meine Aussagen auf die FX 5900 XT präzisieren. Die war ihren Preis schon wert, auch wenn die 9800 Pro ähnlich billig war und schneller.
Ok, die FX5900XT war wirklich die einizge Karte, die wirklich ein ordentliches P/L-Verhältniss hatte aus der Reihe. Keine Frage. Da stand dann SSAA gegen schnelles RG-AA.

Irgendwie bekomme ich Bock FarCry jetzt nochmal zu zocken mit meiner 6800GT. =)

LovesuckZ
2004-09-05, 09:04:21
Wenn man sich diese Fragen stellt und mal nüchtern beantwortet, dann sieht man, dass es sicherlich in den nächsten 12 Monaten keine Spiele geben wird, die ernsthaft von SM3 gebrauch machen werden.

Warum sollte man dem SM3.0 nicht die selbe zeit gewaehren wie dem SM2.0?
Es faellt auf, dass viel zu sehr darauf gepocht wird, dass es schnell und schneller gehen soll, um etwas in den Spielen zu sehen.
Vernuenftig betrachtet war Farcry das erste Spiel, welches irgendwie "ernsthaft von SM3" gebrauch gemacht hat. Und das trotz, dass es ein DX8 Spiel ist.

[...]aber wie gesagt, von Marktrelevanz wird das nicht sein.

Diese Marktrelevanz wird sich in den naechsten beiden Jahren ausbauen.
Entwickler, die also jetzt anfangen ihre Engine zu programmieren, werden auch auf den Zug SM3.0 aufspringen, da es die Entwicklung erleichtert und gleichzeitig in ein, zwei Jahren einen staerkeren Markt gibt mit ATi und den anderen Grafikherstellern.

LovesuckZ
2004-09-05, 09:13:40
Und genau das traf bzw. trifft doch auch auf SM2.0 etc. zu.. die hersteller wollten doch die breite Masse mit ihren Games ansprechen und wer bitte kauft sich denn prozentual gesehen eine 6800GT/Ultra etc. (die Lowendausführungen lasse ich mal weg da dort SM3.0 zwar funktioniert aber mehr schlecht als recht)..

Low - End fuehrt zur Verbreitung der Technik und damit zu einem staerkeren Markt.

Spiele auf SM3.0 basis kommen, ob dank NV früher darüber lässt sich streiten.. NV preisst es ja an dass es total einfach wäre Spiele anzupassen und wenn das so ist dann fällt das argument mit "NV" und "früher kommen" ja irgendwie sehr schnell weg..

Anpassen ist dank dem Compilerprofil nicht schwer, aber richtig ausnutzen dagegen sehr ;)
Wie willst du bestimmte Techniken wie GI einsetzen, wenn a) es kein Hersteller unterstuetzt und b) die, die es unterstuetzen, legal nicht einsetzen koennen?
Wer argumentiert, Nvidia würde fuer eine schnellere Verfuegbarkeit nicht verantwoertlich sein, muss auch erklaeren, wie es dann zu den Spielen in 12 Monaten kommen soll, welche das SM3.0 unterstuetzen.
Das Beispiel Evolution passt hier sehr gut: Das ganze ist ein schleichender Prozeß und keine sprungartige Entwicklung.


Schaut euch an welches game exzessiv SM2.0 benutzt.. hmm, ja welches? fc?...

Welches Spiel würde heute SM2.0 benutzen, wenn NV30 und R300 erst im Herbst 2003 veroeffentlicht wurden?
Diese Sichtweise "Heute ist Sm3.0 nutzlos, weil morgen erst die Spiele kommen" ist zu einfach gedacht.
Das "heutige nutzlose" SM3.0 sorgt erst dafuer, dass es morgen zum "ruler" Feature wird.

tRpii
2004-09-05, 09:52:03
Wird sich alles zeige ob und wieviel SM3.0 in den angekündigten Titeln mit SM3.0 Unterstützung zu gesicht bekommt. Momentan ist das alles Spekulation. Im Moment ist es ein Gimmick was "noch" niemand wirklich braucht und demnach nur "nice to have" ist und nicht mehr. Brauchen tut mans nicht und wirklich qualitative Meisterwerke durch verwendung von SM3.0 erwarte ich persönlich auch nicht davon.

mrdigital
2004-09-05, 12:27:10
Warum sollte man dem SM3.0 nicht die selbe zeit gewaehren wie dem SM2.0?
Es faellt auf, dass viel zu sehr darauf gepocht wird, dass es schnell und schneller gehen soll, um etwas in den Spielen zu sehen.
Vernuenftig betrachtet war Farcry das erste Spiel, welches irgendwie "ernsthaft von SM3" gebrauch gemacht hat. Und das trotz, dass es ein DX8 Spiel ist.
...

WO sind denn die Massiv SM2 Spiele? Wenn man SM3 die selbe Zeit wie SM2 einräumt, dann gibts in 2 Jahren die ersten Spiele, die davon wirklich gebrauch machen. Warum bringst du FC immer als tolles SM3 Beispiel? Da ist ein bissi SM3 drin, aber profitiert dieses Spiel davon wirklich? Ich meine, werden mit SM3 (in FC) Dinge gemacht die anders nicht möglich wären? Bislang ist ja nichtmal SM2 fundamentaler Bestandteil von Spielen, da ist es doch einfach nur illusorisch davon zu sprechen, dass in den nächsten Monaten SM3 grundlegender Bestandteil von Spielen wird. Also bleibt das SM2 und SM3 Zeugst erstmal weiterhin nur ein "nettes Extra", Eyecandy, aber die Spiele sind im Kern immer noch auf einem DX7 Techlevel.

mrdigital
2004-09-05, 12:36:07
Also LS, du rufst dazu auf, dass wir uns alle SM3 Karten kaufen, damit es schneller Spiele dafür geben wird, aber das diese Spiele (dauret ja noch ein zwei Jahre bis zum Erscheinen) bis dahin so hohe Ansprüche haben, dass meine SM3 Karte da nimmer reicht, also muss ich dann wieder eine neue kaufen, die dann auch schnell genug ist. So wie du argumentierst, klingt es nach einem Spendenaufruf, wo ist da der Nutzen für mich Kunde, nicht jeder will ein "Early Adaptor" werden. Ich bin seit der PowerVR Zusatzkarte davon geheilt, die Karte hatte für ihre Zeit die tollsten Features, aber mehr als das mitgelieferte Demospiel konnt ich damit nicht machen. 2 Jahre später konnte das jede Karte und jedes Spiel nutzte die tollen 3d Beschleunigerfeatures aber meine PowerVR war schnarchlahm. Diese Geschichte scheint sich ständig zu wiederholen, die einzige echte ausnahme davon haben die Vodoo Karten geschafft. Warum soll ich der GraKa Industrie sinnlos Geld in den Rachen stopfen? Warum soll ich mein Geld für etwas ausgeben, von dem ich in ein zwei Jahren erst was haben werde?

LovesuckZ
2004-09-05, 12:48:28
WO sind denn die Massiv SM2 Spiele? Wenn man SM3 die selbe Zeit wie SM2 einräumt, dann gibts in 2 Jahren die ersten Spiele, die davon wirklich gebrauch machen.

Genau.
sei froh, dass ATi schon im Herbst 2002 Hardware auf dem markt brachte, welche wahrscheinlich ein halbes Jahr frueher an die Entwickler ging.
Es geht eben nicht alles schnell ueber Nacht, dass die Top 5 der Verkaufscharts die neueste technik verwenden.
Schleichender Prozeß und auch du wirst naechstes Jahr den SM3.0 Pfad verwenden, wenn du dazu in der Lage bist (besitz der Hardware und der Spiele).

Warum bringst du FC immer als tolles SM3 Beispiel?

Oh, dass sollte eine "2" sein. Mein Fehler.

Da ist ein bissi SM3 drin, aber profitiert dieses Spiel davon wirklich? Ich meine, werden mit SM3 (in FC) Dinge gemacht die anders nicht möglich wären?

Es geht um eine vernuenftige Verwendung der vorhandenen Ressourcen. Mit dem SM3.0 kann man Dinge beschleunigen, die zwar auch durch das SM2.0 darstellbar sind, aber aufgrund der Limitierung viel Leistung kosten.
Es gibt soviele Dinge, die heutzutage verwendet werden, um mit den ressourcen besser umzugehen. Eine Bildkompression zum Beispiel: Wieso "png" nehmen, wenn die User meisten schon ueber DSL verfuegen und der Webspace auch nicht mehr zu teuer ist?

Bislang ist ja nichtmal SM2 fundamentaler Bestandteil von Spielen, da ist es doch einfach nur illusorisch davon zu sprechen, dass in den nächsten Monaten SM3 grundlegender Bestandteil von Spielen wird.

Jedes Spiel, was das SM2.0 unterstuetzt, koennte locker SM3.0 faehig gemacht werden.
Wenn man aber wirklich die Vorteile vom SM3.0 ausnutzen will, dann dauert es, genau wie beim SM2.0. Doch, wenn diese Spiele erscheinen, dann werden die ersten nur maximale das moegliche des NV40 verwenden und somit werden diese Usergruppe noch nicht aufgrund der Hardwarelimitierung benachteiligt.

Also bleibt das SM2 und SM3 Zeugst erstmal weiterhin nur ein "nettes Extra", Eyecandy, aber die Spiele sind im Kern immer noch auf einem DX7 Techlevel.

Spielst du deswegen mit einer DX7 Karte? ;)

LovesuckZ
2004-09-05, 12:53:58
Also LS, du rufst dazu auf, dass wir uns alle SM3 Karten kaufen, damit es schneller Spiele dafür geben wird, aber das diese Spiele (dauret ja noch ein zwei Jahre bis zum Erscheinen) bis dahin so hohe Ansprüche haben, dass meine SM3 Karte da nimmer reicht, also muss ich dann wieder eine neue kaufen, die dann auch schnell genug ist.

1. zeige doch bitte, wo ich dies sage.
2. Zur Zeit gibt es nur SM3.0 karten, welche unter dem Sm2.0 sehr stark sind. Somit sehe ich hier ueberhaupt keinen Nachteil, denn auch die Konkurenz wird in zwei Jahren die selben Probleme haben.

Warum soll ich der GraKa Industrie sinnlos Geld in den Rachen stopfen? Warum soll ich mein Geld für etwas ausgeben, von dem ich in ein zwei Jahren erst was haben werde?

Wenn du vor dem Kauf einer Karte stehst und dich zwischen einer mit und einer ohne SM3.0 entscheiden musst, diese jedoch beide aber identisch sind, nimmst du dann die Karte mit dem geringeren Featureset?
Fuer den selben Preis: Mit oder ohne Klimaanlage?
Du wirfst nicht sinnlos Geld in den Rachen, da die Konkurenzkarte zur Zeit eben dieses Feature nicht anbietet.
Denn sonst, wie wuerdest du den kauf einer solchen Karten dann bezeichnen? ;)

mrdigital
2004-09-05, 13:04:51
LS, ich freu mich doch auch, wenn es mehr zu sehen gibt in Spielen. Ich freu mich auch über "vernünftige" Ressourcenausnutzung. Aber genau die scheint es nicht zu geben, wenn ich eine SM3 Karte brauche, um DX7 Techlevel Spiele zu spielen. Oder wenn ich das wieder auf die aktuellen SM3 Karten übertrage, dann werden SM3 Features erst richtig mit SM6 Karten spielbar. Warum soll ich mir heute eine SM3 Karte kaufen? Wo ist der Nutzen für mich? (ausser dem warmen Gefühl, einer der ersten zu sein, die diese tolle Technik besitzen, und somit eine Spende an die Grakaindustrie getan zu haben?). Das man leichter von SM2 auf SM3 wechseln kann ist schön. Aber warum sollte ich mir dann nicht erst diese Karte kaufen, wenn es das Futter dafür gibt? Ich werde dann nur die Hälfte dafür bezahlen müssen. Ich hab mir auch erst vor 4 Wochen eine 9800pro gekauft und ich glaube nicht, dass ich mir mit dieser Entscheidung ein Ei gelegt habe. Wenn es dann nötig sein wird, kauf ich mir eine nV40, allerdings wird sie mich dann auch "nur" noch 200€ kosten, ich werde die Karte in meinen Rechner stopfen und mich 10 Minuten später freuen, dass HalfLife3 oder Doom4 dann funktionieren und musste nicht 2 Jahre hoffen, doch endlich mal was für meine tolle GraKa zu bekommen.

mrdigital
2004-09-05, 13:09:57
1. zeige doch bitte, wo ich dies sage.
2. Zur Zeit gibt es nur SM3.0 karten, welche unter dem Sm2.0 sehr stark sind. Somit sehe ich hier ueberhaupt keinen Nachteil, denn auch die Konkurenz wird in zwei Jahren die selben Probleme haben.

zu 1: du sagst es nicht explizit, aber so wie du argumentierst, kann man nur diesen Schluss ziehen
zu 2: Ich hab nicht gesagt, dass man mit einer nV40 im Nachtreil wäre, nur das man zuviel Geld für einen (imaginären) Vorteil ausgegeben hat.

Wenn du vor dem Kauf einer Karte stehst und dich zwischen einer mit und einer ohne SM3.0 entscheiden musst, diese jedoch beide aber identisch sind, nimmst du dann die Karte mit dem geringeren Featureset?
Fuer den selben Preis: Mit oder ohne Klimaanlage?
Du wirfst nicht sinnlos Geld in den Rachen, da die Konkurenzkarte zur Zeit eben dieses Feature nicht anbietet.
Denn sonst, wie wuerdest du den kauf einer solchen Karten dann bezeichnen? ;)
Ja dann kauf ich mir die neuen Features, wenn die denn gleich teuer wären, sind sie aber nicht. Um SM2 gut nutzen zu können, muss ich 200€ für eine 9800 ausgeben, für SM3 muss ich 400€ auf den Tisch legen.

LovesuckZ
2004-09-05, 13:13:13
zu 1: du sagst es nicht explizit, aber so wie du argumentierst, kann man nur diesen Schluss ziehen

Natuerlich, wenn die Karten leistungstechnisch unter dem SM2.0 gleich sind, dann ja. Warum nicht?

zu 2: Ich hab nicht gesagt, dass man mit einer nV40 im Nachtreil wäre, nur das man zuviel Geld für einen (imaginären) Vorteil ausgegeben hat.

Das kommt auf die Preiskategorie an ;)

Ja dann kauf ich mir die neuen Features, wenn die denn gleich teuer wären, sind sie aber nicht. Um SM2 gut nutzen zu können, muss ich 200€ für eine 9800 ausgeben, für SM3 muss ich 400€ auf den Tisch legen.

Dies ist ein falsches beispiel. Du vergleichst zwei verschiedene Preisklassen.
Wenn jemand nur 200€ ausgeben moechte, dann werde ich ihn bestimmt nicht sagen, er solle doch 100€ drauflegen und sich eine 6800NU kaufen.

winter
2004-09-05, 13:24:00
Nuja, man entscheidet sich ja auch irgendwie aufgrund der Performance für eine Graka... Und jetzt binich von TI4200 (PS1.3/VS1.1) auf 6800GT (SM3.0) umgestiegen. Hat mit 400tacken gekostet. Allerdings hätte ich auch SM2.b Hardware von ATI haben können. das wäre allerdings nur eine x800pro gewesen, die zu diesem Zeitpunkt teurer und im schnitt langsamer als die 6800GT gewesen wäre. Außerdem verzichte ich nicht gerne auf Linux Treiber.
Shader3.0 war in diesem Fall keineswegs kaufentschidend, ich wollte die volle Performance für mein Geld. Hätte ich mir ein Limit von 200tacken gesetzt, dann wäre es eine 9800pro geworden, aber so bin ich praktisch in keinen Game mehr Graka-limitiert...

SM3.0 kann in Einzelfällen nützlich sein, sollte aber keineswegs zur Kaufentscheidung beitragen. Was zählt, ist die Gesammtperformance der Graka, und zwar in allen Bereichen.

mrdigital
2004-09-05, 13:33:02
Wenn ich heute 400-500€ für ne GraKa raushauen will, dann kann ich Early Adaptor spielen und mit ne nV40 kaufen vollkommen richtig LS. Aber "so blöd" sind halt nur 5%. (für diesen Satz bekomm ich Prügel ;), ich mein das nicht bös, ich bin ja selbst oft genug "so blöd" gewesen) Und was soll der Rest machen, der "nur" 200€ ausgeben will oder kann? Die können sich nun die kommenden Mittelklasse Produkte kaufen, die werden aber wieder zu lahm sein mit ihren neuen Features, d.h. die werden dann SM2 gut unterstützen. 9600pro oder 5700 Besitzer können da ja nun ein Lied von singen, jetzt wo Spiele mehr auf SM2 setzten, stellen sich diese Karten als nicht leistungsfähig genug heraus.
Aber wir drehen uns hier im Kreis. Du bist eben ein Early Adaptor und da ist es klar, das du nur die Vorteile deiner teuer gekauften Technik sehen willst, aber die Realität sieht halt leider ein wenig anders aus. Das soll nun kein Vorwurf sein, das geht mir genauso, man ist als Early Adaptor halt einsamer Vorreiter an der Technologiefront ;)

Quasar
2004-09-05, 13:45:24
mrdigital,
in welchem Bereich muss man denn signifikant mehr Geld ausgeben, wenn man anstelle eines leistungsmäßigvergleichbaren SM2x-Modells ein SM3-Modell kaufen will?

Momentan sehe ich das Preisgefüge eher so, als wäre SM3 eine kostenlose Zugabe, mit der Option sowohl später leistungsmäßig oder von der Bildqualität her, einen Bonus zu haben.

Niemand soll sich eine Karte kaufen, einfach nur um ein bestimmtes Techlevel voranzutreiben.

Wenn ein imaginäres "ich" das Limit bei 400EUR setzt, kann er zu diesem Preis sowohl eine GF6800GT als auch eine RX800Pro bekommen - Performance hält sich großteils die Waage.
Wenn jemand das Limit bei 300EUR setzt, sollte er i.d.R. mit einer GF6800 besser bedient sein, als mit einem last-generation Radeon Produkt.
Bei einem Limit von 200 € wäre das leistungsmäßig beste (bevorstehende Tests mal aussen vor) momentan sicherlich eine R9800p, im Bereich bis 150€ am ehesten eine 9600XT (oder 5900XT, so man sie schon so billige bekommt).

Wer sich kein Limit setzt, hat neben einer profi-Karte oder einer SLI-Lösung sicherlich am ehesten eine X800 XTPE im Sinne, die dank ihrer hohen Taktrate mit hohen FPS glänzen kann.

Ich sehe nicht, wo sich ein SM3 negativ auswirkt - und auch nicht, wo man in vernünftigem Rahmen wirklich in die Bredouille kommt, sich zwischen 'etwas' mehr Leistung und SM3 entscheiden zu müssen.

Wie gesagt, die Unvernunfts-Versionen über 450EUR jetzt mal aussen vor gelassen - da spielen noch ein paar andere Faktoren eine Rolle.

mrdigital
2004-09-05, 14:01:01
Wo schrieb ich, dass sich SM3 negativ auswirkt!? Ich hab doch genau das gesagt, was du hier schreibst Quasar. Wenn man 400€ ausgeben will, dann ist man mit einer nv40 gut bedient, aber IMHO fängt die Unvernunftsgrenze bei 150€ an und meine Schmerzgrenze ist bei 200€ erreicht. Und mit einer 9800 (oder den kommenden 200€ Klasse Karten) werde ich sicherlich noch ein gutes Jahr jedes Spiel ohne ernste Einschränkungen spielen können. Und im nächsten Jahr wird es keine (oder nur ein zwei) SM3 Spiele geben. Also was nutzt mir die SM3 Zugabe? (die ich für 400€ bekomme?) Finde ich einen schlechten Deal, erlichgesagt, 200€ Aufpreis für ein technisch tolles Feature, das mir (erstmal) nichts bringt....

Quasar
2004-09-05, 14:11:40
Also was nutzt mir die SM3 Zugabe? (die ich für 400€ bekomme?) Finde ich einen schlechten Deal, erlichgesagt, 200€ Aufpreis für ein technisch tolles Feature, das mir (erstmal) nichts bringt....

DAS meine ich. Wieso zahlst du 200EUR Aufpreis nur für SM3? Das ist doch faktisch falsch.
Du zahlst du 200EUR Aufpreis für ca. doppelte Leistung.

Wenn du den Aufpreis für SM3 errechnen willst, schau dir doch Karten aus einer Leistungsklasse an.

Niemand, weder LS noch ich noch sonstwer sagt, man solle nun unbedingt zu einer SM3-Karte greifen - ganz besonders nicht, wenn sie den Preisrahmen sprengt.
Allerdings, wenn Preis und Leistung quasi identisch sind und keine sonstigen Aversionen dem entgegenstehen, gibt es auch keinen Grund, explizit auf SM3 zu verzichten.

BTW, 184EUR (http://www7.alternate.de/shop/infoNodes/productDetails.html?artNr=j9xw07) für SM3 sind nicht in allzu weiter Ferne.

betasilie
2004-09-05, 14:25:52
Niemand, weder LS noch ich noch sonstwer sagt, man solle nun unbedingt zu einer SM3-Karte greifen - ganz besonders nicht, wenn sie den Preisrahmen sprengt.

LS labert seit Monaten alle Leute zu, dass SM3.0 das Killerfeature überhaupt ist. Mal beschleunigt es Spiele um bis zu 30%, dann wieder gibt es tolle Eycandys durch SM3.0, was natürlich in absehbarer Zeit völliger Irrsinn ist.

Genau so hat er das bei den FX Karten und CineFX gemacht. Da hat er auch behauptet, dass CineFX must-have ist und das alle Spielehersteller voll auf CineFX setzen würden, weil NV so einflussreich ist und den besten Developmentsupport hat.

Es geht nicht darum, ob LS isoliert betrachtet mit seinen Aussagen Recht hat, sondern darum, dass er schlichtweg alles was NV angeht jenseits jeder Logik euphorisiert, um seine Lieblingsfirma hier im Forum zu pushen. Er merkt bloß nicht, dass da keiner mehr drauf reinfällt.

Edit:
Und mrdigital sieht die Sache imho nicht viel anders als Du, quasar, nur lässt er sich durch die Diskussion mit LS in eine Ecke drängen, was den meisten passiert, wenn sie sich auf diese Art Diskussion einlassen, wenn man das überhaupt Diskussion nennen kann. ;(

Edit2:
Und so einfach ist die Sache mit dem SM3.0-Kaufargument nicht. Ich habe auch eine 6800GT und bin sehr zufrieden, aber es wäre quatsch zu behaupten, dass SM3.0 ein Kaufargument ist. Es kann sein, dass man durch SM3.0 zu Lebzeiten der Karte nochmal Vorteile haben wird, aber es ist imo doch eher unwahrscheinlich, dass SM3.0 gewichtige Vorteile in Spielen bis Ende 2005 zeigen wird.

Auf der anderen Seite hat ATI 3Dc, was sicherlich eine sehr wichtige Technologie ist, wenn man sich mal anschaut wieviel Speicher bei modernen Spielen durch die Normalmaps verbraucht werden. Doom³ hätte erheblich schönere Texturen mit 3Dc gehabt und HL² wird auf Karten mit 3Dc um einiges schöner aussehen. ... Technolgisch mag es zwar Peanuts sein, aber in der Praxis wird 3Dc trotzdem ein Kaufargument darstellen, weil höher aufgelöste Texturen für (fast) jeden Spieler ersichtlich sind, ganz im gegensatz zu einem SM3.0 Renderprofil. ;)

mrdigital
2004-09-05, 14:38:23
ja ich bekomme für 400€ jede Menge Leistung und tolle Features, das kann man bei dem Geld auch erwarten. Aber brauchen tut man das nicht. Man ist mit den 200€ letztlich genauso gut bedient (weniger Schwanzmarks, aber ich kann trotzdem ohne ernste Einschränkungen alles spielen. 1600*1200 braucht doch echt keiner, wer hat denn überhaupt einen Schirm, auf dem man das gut darstellen kann?)
Die 6600 ist ein kalter, sorry, das ist ne 9500pro, tolle Features für die mir nacher aber die Leistung fehlt sie zu nutzen. Die hat eine 128bit Speichranbindung und ddr1 Speicher. Wenn, dann die 6600GT aber die ist ja auch ein Hunni teurer.

betasilie
2004-09-05, 14:48:58
ja ich bekomme für 400€ jede Menge Leistung und tolle Features, das kann man bei dem Geld auch erwarten. Aber brauchen tut man das nicht. Man ist mit den 200€ letztlich genauso gut bedient (weniger Schwanzmarks, aber ich kann trotzdem ohne ernste Einschränkungen alles spielen. 1600*1200 braucht doch echt keiner, wer hat denn überhaupt einen Schirm, auf dem man das gut darstellen kann?)

Mhhh. Das ist deine Meinung, aber nicht mehr. Ich für meine Teil hatte eine 9700er @ 9800Pro und empfinde meine 6800GT@Ultra+ als durchaus schneller und ich gehöre nicht zu der Benchmarkfraktion, denen es um 3DMurks und ähnliches geht. Und es gibt schon ne Menge Leute, die einen Monitor haben, der 1600*1200 kann, aber auch 1280*1024 mit 4*AA hat seinen Reiz.

Ich persönlich sehe die 9800Pro auch als absolute Kaufempfehlung und habe sie letzten Monat noch zwei Freunden eingebaut, aber deswegen ist eine X800 oder 6800er noch lange nicht unnütz.

Aber mit der SM3.0 Sache hat das nun wirklich nur noch sehr wenig zu tun, denn SM3.0 ist eine Sache der neuen Kartengeneration.

PrefoX
2004-09-05, 14:52:32
auf EA sollte jeder normale gamer scheissen, bei dem wixx was die produzieren..

mrdigital
2004-09-05, 15:10:36
Mhhh. Das ist deine Meinung, aber nicht mehr. Ich für meine Teil hatte eine 9700er @ 9800Pro und empfinde meine 6800GT@Ultra+ als durchaus schneller und ich gehöre nicht zu der Benchmarkfraktion, denen es um 3DMurks und ähnliches geht. Und es gibt schon ne Menge Leute, die einen Monitor haben, der 1600*1200 kann, aber auch 1280*1024 mit 4*AA hat seinen Reiz.

Ich persönlich sehe die 9800Pro auch als absolute Kaufempfehlung und habe sie letzten Monat noch zwei Freunden eingebaut, aber deswegen ist eine X800 oder 6800er noch lange nicht unnütz.

Aber mit der SM3.0 Sache hat das nun wirklich nur noch sehr wenig zu tun, denn SM3.0 ist eine Sache der neuen Kartengeneration.
klar ist das meine Meinung, was denn sonst? ;) Und ich will hoffen, das die 6800GT schneller ist, aber das mit der Menge an Leuten, die 1600 auf 1200 nutzen können... Dazu brauchts schon einen 20 / 21" Monitor (jaja es geht auch auf nem 17"er nur macht das keinen Sinn, aber das ist ein anderes Thema) und den haben nun nicht allzu viele Leute.
Ich will keinem seine schöne, schnelle 6800 schlecht reden, tolles Stück Technik, aber es ist halt was für Fans, "Early Adaptors" oder wie auch immer. Otto Durchnittszocker (und das sind 80%) braucht das nicht.

mrdigital
2004-09-05, 15:11:09
auf EA sollte jeder normale gamer scheissen, bei dem wixx was die produzieren..
Danke für deinen produktiven Diskussionsbeitrag.

tokugawa
2004-09-05, 15:52:13
Ich glaub einigen können wir uns auf folgendes:

Für Spieler ist SM 3.0 kein Kaufargument. Gut dass die NV40 neben SM 3.0 auch noch ordentliche Leistung bietet. Und die nutzt einem schon jetzt. Man kauft die Leistung, SM 3.0 ist einfach nur "huckepack" dabei.

Für Entwickler ist SM 3.0 ein gutes Feature. Das allein macht aus SM 3.0 ein "positives Feature", denn dadurch können sie erst SM3.0 Dinge entwickeln. Das bringt dem Spieler letztendlich indirekt auch was in mehr oder weniger naher Zukunft (darf man nicht vergessen).

Daher meine Einstellung:
Man darf SM 3.0 nicht schlechtreden. Es ist ein gutes Feature. Aber genauso ist es nicht richtig, wenn man es für Gamer in den Himmel preist - für den Gamer hat es nur indirekt positive Auswirkungen in der Zukunft - wo man eventuell zu der Zeit schon neue SM 3.0 Karten hat. Jedoch darf man auch nicht vergessen dass zu der Zeit wo SM 3.0 dann "aktuell" wird, die Zeit von jetzt bis dahin genutzt wurde, um SM 3.0 Techniken zu entwickeln. Diese Zeit ist eine Konstante - wäre SM 3.0 nicht heute und jetzt verfügbar, würde sich einfach alles nach hinten verschieben, da die Software-Entwicklung für SM 3.0 ebenfalls später erst beginnen könnte. Denn man braucht ja Hardware dafür.

Auch sollte man endlich sehen, dass Software-Techniken (Grafikalgorithmen) genauso technisch sind wie die Hardware-Entwicklung. Jeder schaut in die Zukunft der Hardware, aber viele meinen dass die gegenwärtige Entwicklung in Software-Algorithmen keine "Praxisrelevanz" hat (MikBach deutete das an). Das ist eindeutig falsch!

Man kann nicht nur die Hardware und Hardware-Entwicklung betrachten. Man muß auch die Entwicklung im Bereich Computergrafik-Algorithmen betrachten. Gerade hier tut sich sehr viel. Und letztendlich gehört beides dazu, dass wir bestimmte Effekte dann in Spielen sehen.

Also zusammenfassend:
Technisch ist es gut, dass der NV40 SM 3.0 bringt. Erst deswegen dass es SM 3.0 bringt, erlaubt die Entwicklung mit SM 3.0 und bringt uns SM 3.0 Spiele in 12 Monaten statt in 24 oder gar 36 Monaten. Aber es ist auch falsch, es für Gamer als ein "Must-Have" Feature anzupreisen. Der Weg der Mitte ist der richtige: es bringt für den Gamer indirekt etwas in nicht allzu ferner Zukunft (durch die Verfügbarkeit für Entwickler), aber eben nicht direkt durch Kauf hier und jetzt.

Das Hickhack um "SM3.0 ist total nutzlos" (falsche Aussage) oder "SM3.0 muß man heute haben" (genauso falsch) geht mir nämlich schon auf die Nerven.

Wer stimmt zu?

tokugawa
2004-09-05, 17:06:47
klar ist das meine Meinung, was denn sonst? ;) Und ich will hoffen, das die 6800GT schneller ist, aber das mit der Menge an Leuten, die 1600 auf 1200 nutzen können... Dazu brauchts schon einen 20 / 21" Monitor (jaja es geht auch auf nem 17"er nur macht das keinen Sinn, aber das ist ein anderes Thema) und den haben nun nicht allzu viele Leute.
Ich will keinem seine schöne, schnelle 6800 schlecht reden, tolles Stück Technik, aber es ist halt was für Fans, "Early Adaptors" oder wie auch immer. Otto Durchnittszocker (und das sind 80%) braucht das nicht.

Naja, die NV40 bietet ja auch Leistung für's Geld, auch wenn man SM 3.0 komplett ignoriert. Dass High-End-Karten teuer sind, ist ja nicht unbedingt ein reines NV-Phänomen.

Ich würd mir übrigens auch keine 6800 kaufen :) ich warte noch immer auf die Sub-200 Euro NV40 Derivate... und zwar für AGP.

Quasar
2004-09-05, 18:15:42
ja ich bekomme für 400€ jede Menge Leistung und tolle Features, das kann man bei dem Geld auch erwarten. Aber brauchen tut man das nicht. Man ist mit den 200€ letztlich genauso gut bedient (weniger Schwanzmarks, aber ich kann trotzdem ohne ernste Einschränkungen alles spielen. 1600*1200 braucht doch echt keiner, wer hat denn überhaupt einen Schirm, auf dem man das gut darstellen kann?)
Die 6600 ist ein kalter, sorry, das ist ne 9500pro, tolle Features für die mir nacher aber die Leistung fehlt sie zu nutzen. Die hat eine 128bit Speichranbindung und ddr1 Speicher. Wenn, dann die 6600GT aber die ist ja auch ein Hunni teurer.
Natürlich sind 400EUR eine Menge Geld - genau deshalb habe ich von verschiedenen Segmenten gesprochen... Und wer bereit ist, Summe X für Bauteil Y auszugeben, der soll es von mir aus eben tun - und in diesem Segment ist's nunmal so, daß man für SM3 quasi keinen Aufpreis zu bezahlen hat (wenn ich die Preise von knapp 400EUR richtig in Erinnerung habe).

Mit 200 EUR ist man auch gut bedient, klar - aber eben auf einen ganz anderen Level.

Was die 6600 angeht: Genau, was ich sagte, gut bedient, aber auf einem anderen Level. :) Kostet ja auch nochmal 25% weniger.

edit:
BTW, mich interessieren 1600x1200....

Aquaschaf
2004-09-05, 18:51:02
klar ist das meine Meinung, was denn sonst? ;) Und ich will hoffen, das die 6800GT schneller ist, aber das mit der Menge an Leuten, die 1600 auf 1200 nutzen können... Dazu brauchts schon einen 20 / 21" Monitor

Die mitlerweile häufigeren 19" hast du übersehen ;)

Gast
2004-09-05, 19:28:59
Ich hab seid meiner S3Virge nen 19" und nutze auch immer wenn es geht 1600*1200... Meine Geforce1 konnte HL damals ohne Probleme damit zocken.

Gast
2004-09-05, 19:31:05
Ich hab seid meiner S3Virge nen 19" und nutze auch immer wenn es geht 1600*1200... Meine Geforce1 konnte HL damals ohne Probleme damit zocken.
Kann dein Monitor die 1600x1200 physikalisch korrekt darstellen?
Lochmaske? ;)

LovesuckZ
2004-09-05, 19:58:37
LS labert seit Monaten alle Leute zu, dass SM3.0 das Killerfeature überhaupt ist. Mal beschleunigt es Spiele um bis zu 30%, dann wieder gibt es tolle Eycandys durch SM3.0, was natürlich in absehbarer Zeit völliger Irrsinn ist.

Bringe bitte ein Zitat.

Genau so hat er das bei den FX Karten und CineFX gemacht. Da hat er auch behauptet, dass CineFX must-have ist und das alle Spielehersteller voll auf CineFX setzen würden, weil NV so einflussreich ist und den besten Developmentsupport hat.

Bringe bitte ein Zitat.
Solltest du es nicht koennen, werde ich dein Posting aufgrund von Beschuldigungen der Moderation melden.
Luegner braucht das Forum nicht!


Edit:
Und mrdigital sieht die Sache imho nicht viel anders als Du, quasar, nur lässt er sich durch die Diskussion mit LS in eine Ecke drängen, was den meisten passiert, wenn sie sich auf diese Art Diskussion einlassen, wenn man das überhaupt Diskussion nennen kann. ;(

Ich draenge ihn in eine Ecke?
So ein Quatsch. Ich beleidige ihn nicht, ich unterstelle ihn, so wie er mir, nichts.
Solltest du dafuer ebenfalls keinen Beleg haben, werde ich dein Posting melden. Ich brauche mich nicht von dir irgendwas an den Kopf werfen lassen.
Achja, wenn du mich auf der Ignoreliste haben solltest:
Solltest du so konsequent sein und ueber mich nicht mehr schreiben ;)

Gast
2004-09-05, 20:00:43
Wenn jetzt hier der Tenor ist das SM3 ne nette Dreingabe für eine 6800GT ist, welches Argument bleibt dann überhaupt für eine X800Pro übrig? Vor allem über einen längeren Zeitraum gesehen? An SLI denke ich noch nicht mal da das ja nicht nur eine "neue" Karte nach sich zieht sondern doch ein wenig mehr.

Massiver SM3 Einsatz ist zumindest für dieses Jahr nicht mehr zu erwarten, eher nächstes Jahr, allerdings kommt dann der R520 auf den Markt was die Karten im wahrsten Sinn des Wortes wieder neu mischt denn vom NV48 erwarte ich persönlich eigentlich nur mehr Takt mit geringen anderen Verbesserungen. Ob es allerdings auch bei dem Ziel Anfang 2005 mit dem R520 bleibt ist eine andere Frage.

Spielbar sind alle Spiele mit beiden Karten. Mal ist die eine mal die andere ein Fitzelchen schneller. Zumindest auf "Zukunftssicherheit" gedacht, obwohl das für Grafikkarten eher wenig Sinn macht, ist da die NV doch die bessere Wahl.

LovesuckZ
2004-09-05, 20:02:44
Und was soll der Rest machen, der "nur" 200€ ausgeben will oder kann? Die können sich nun die kommenden Mittelklasse Produkte kaufen, die werden aber wieder zu lahm sein mit ihren neuen Features, d.h. die werden dann SM2 gut unterstützen.

Wie du es sagtes: Warten, oder ein jetziges Produkt in dieser Preisklasse kaufen.

9600pro oder 5700 Besitzer können da ja nun ein Lied von singen, jetzt wo Spiele mehr auf SM2 setzten, stellen sich diese Karten als nicht leistungsfähig genug heraus.

Aber sie koennen es nutzen. Dann muss man ein Kompromiss nehmen: niedrige Aufloesung zum Beispiel.
Die 6600 wird nicht der Ueberflieger bezueglich SM3.0 sein, aber sie sind auch keine lahme Ente unter dem SM2.0.

Quasar
2004-09-05, 20:10:09
Wenn jetzt hier der Tenor ist das SM3 ne nette Dreingabe für eine 6800GT ist, welches Argument bleibt dann überhaupt für eine X800Pro übrig? Vor allem über einen längeren Zeitraum gesehen? An SLI denke ich noch nicht mal da das ja nicht nur eine "neue" Karte nach sich zieht sondern doch ein wenig mehr.

6x sparsed Multisampling, weniger VRAM-Verbrauch bei MSAA, geringerer Strombedarf und eine i.d.R. leisere Kühlung, Gamma-Anpassung beim FSAA (wobei dessen Nutzen eher subjektiv sein dürfte, je nach Ausgabegerät, was man besitzt).

Mehr fällt mir auf Anhieb nicht ein - man möge mich ergänzen.

Gast
2004-09-05, 20:20:39
6x sparsed Multisampling, weniger VRAM-Verbrauch bei MSAA, geringerer Strombedarf und eine i.d.R. leisere Kühlung, Gamma-Anpassung beim FSAA (wobei dessen Nutzen eher subjektiv sein dürfte, je nach Ausgabegerät, was man besitzt).

Mehr fällt mir auf Anhieb nicht ein - man möge mich ergänzen.

Hmm 6x ist ja toll, sieht man es denn auch im Vergleich zum 4x? Bei welcher Auflösung wirkt sich der geringere RAM Bedarf aus? Wer kauft sich denn eine Karte für 400 Euronen und guckt da noch auf den Strombedarf? Leisere Kühlung kann ich auch mit NV Karten haben, nicht so breit gefächert aber ich kann. Gamma naja, wie du schon sagtest.

Majestic
2004-09-05, 20:27:16
Wer kauft sich denn eine Karte für 400 Euronen und guckt da noch auf den Strombedarf? Leisere Kühlung kann ich auch mit NV Karten haben, nicht so breit gefächert aber ich kann.

Doch das ist ein Kaufargument für viele... Und das ist auch ok, für den jenigen der auf jedes Watt schielt.... Komisch fand ich nur immer das Argument gegen die Ultra das sie ne 2-Slot Kühlung hat. Vorallem weil viele die dieses Argument in den Mund nahmen, dann im nachenein nen Silencer auf ihre X800 klatschen :rolleyes:

Quasar
2004-09-05, 20:34:12
Hmm 6x ist ja toll, sieht man es denn auch im Vergleich zum 4x? Bei welcher Auflösung wirkt sich der geringere RAM Bedarf aus? Wer kauft sich denn eine Karte für 400 Euronen und guckt da noch auf den Strombedarf? Leisere Kühlung kann ich auch mit NV Karten haben, nicht so breit gefächert aber ich kann. Gamma naja, wie du schon sagtest.

Sagen wir's mal so: Wenn teilweise 4x nicht reicht, sei es, weil man ein kleines TFT hat und deshalb auf eine niedrige Auflösung festgelegt ist, oder weil ein, evtl. älteres Spiel keine höheren Auflösungen anbietet, sind AA-Lösungen mit mehr als 4 Samples schon was feines.

Der höhere RAM-Verbrauch schlägt sich bei nV schon in 1280 mit 4xAA in reduzierten Frameraten nieder.

Ich kaufe mir bsw. keine Karte, die ich in meinem Rechner beim Arbeiten hören würde - da fällt jede mir bekannte GF6800 bisher weg, ebenso wie die allermeisten Radeons.

Beim Zocken stört mich auch "der Fön" nicht.

Piffan
2004-09-05, 20:36:32
6x sparsed Multisampling, weniger VRAM-Verbrauch bei MSAA, geringerer Strombedarf und eine i.d.R. leisere Kühlung, Gamma-Anpassung beim FSAA (wobei dessen Nutzen eher subjektiv sein dürfte, je nach Ausgabegerät, was man besitzt).

Mehr fällt mir auf Anhieb nicht ein - man möge mich ergänzen.

Aths Artikel zur Bilderverbesserung alter Spiele nennt noch Vorteile: Doublescan, Supersampling.

Mein Tip: Man kann mit NV- Karten seine Stereobrille nutzen und echtes 3D genießen.

Wenn ich momentan kaufen würde, dann wäre mal wieder ne NV an der Reihe. Habe mit der 9700 und der 9800 XT allerdings noch so viel Leistung, auch für Doom III, dass momentan ein Neukauf keinen Sinn machen würde.

Black-Scorpion
2004-09-05, 20:41:57
Doch das ist ein Kaufargument für viele... Und das ist auch ok, für den jenigen der auf jedes Watt schielt.... Komisch fand ich nur immer das Argument gegen die Ultra das sie ne 2-Slot Kühlung hat. Vorallem weil viele die dieses Argument in den Mund nahmen, dann im nachenein nen Silencer auf ihre X800 klatschen :rolleyes:
Es ist aber ein Unterschied ob ich eine 2 Slot Kühlung habe die die Wärme aus dem Gehäuse befördert oder nur im Rechner verteilt. ;)
Zudem ist der Silencer auch noch leise.

Gast
2004-09-05, 20:44:47
Doch das ist ein Kaufargument für viele... Und das ist auch ok, für den jenigen der auf jedes Watt schielt.... Komisch fand ich nur immer das Argument gegen die Ultra das sie ne 2-Slot Kühlung hat. Vorallem weil viele die dieses Argument in den Mund nahmen, dann im nachenein nen Silencer auf ihre X800 klatschen :rolleyes:

Uh, also die ca. 7Watt mehr im Idle wie auch im Vollastbetrieb ist ein Kaufargument? Also irgendwie...

Wenn ich mir teilweise die Sigs so ansehe wie die Leute übertaktet haben sollen da wirklich dann noch die 7Watt eine Rolle spielen? Ich meine, eine Grafikkarte für 400 Euronen holt sich bestimmt auch nicht jeder Gelegenheitsspieler eher Technikbegeisterte oder Hardcoregamer.

Majestic
2004-09-05, 20:45:47
Es ist aber ein Unterschied ob ich eine 2 Slot Kühlung habe die die Wärme aus dem Gehäuse befördert oder nur im Rechner verteilt. ;)
Zudem ist der Silencer auch noch leise.

Das stimmt schon ;) Es ging mit nur um das "Platz-Argument". Der Silencer und auch die Referenzkühlung nehmen sich net viel wenns um den Wegfall von PCI-Slots geht ;)

Gast
2004-09-05, 20:51:35
@Quasar

Also bei 1280 mit AA gibt es weniger fps, ok. Führt das dann schon zu einer Unspielbarkeit mit der 6800GT in Spielen?

Quasar
2004-09-05, 21:03:43
Aths Artikel zur Bilderverbesserung alter Spiele nennt noch Vorteile: Doublescan, Supersampling.

Mein Tip: Man kann mit NV- Karten seine Stereobrille nutzen und echtes 3D genießen.

Wenn ich momentan kaufen würde, dann wäre mal wieder ne NV an der Reihe. Habe mit der 9700 und der 9800 XT allerdings noch so viel Leistung, auch für Doom III, dass momentan ein Neukauf keinen Sinn machen würde.

Ich wollte jetzt explizit nicht gegeneinander abwägen - es ging lediglich darum, die Vorteile der ATi-Karten aufzuzählen.

Quasar
2004-09-05, 21:05:13
@Quasar

Also bei 1280 mit AA gibt es weniger fps, ok. Führt das dann schon zu einer Unspielbarkeit mit der 6800GT in Spielen?

Zu schlechterer Spielbarkeit in einigen Fällen. Und wie es bsw. mit ganz neuen Texturmonstern, wie UT2004 bestellt ist, weiß ich dabei noch nichtmals genau.

tRpii
2004-09-05, 21:15:10
Uh, also die ca. 7Watt mehr im Idle wie auch im Vollastbetrieb ist ein Kaufargument? Also irgendwie...

Wenn ich mir teilweise die Sigs so ansehe wie die Leute übertaktet haben sollen da wirklich dann noch die 7Watt eine Rolle spielen? Ich meine, eine Grafikkarte für 400 Euronen holt sich bestimmt auch nicht jeder Gelegenheitsspieler eher Technikbegeisterte oder Hardcoregamer.

bis zu 13 was teils doppelt soviel ist.. und ja das kann u.u. eine rolle spielen

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_9.html

Quasar
2004-09-05, 21:21:16
GT vs. Pro:
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_10.html
(da stören die OC-Resultate nicht so beim Interpretieren... ;))

~8W idle, ~7W Last.

Gast
2004-09-05, 21:24:06
Bringe bitte ein Zitat.



Bringe bitte ein Zitat.
Solltest du es nicht koennen, werde ich dein Posting aufgrund von Beschuldigungen der Moderation melden.
Luegner braucht das Forum nicht!



Ich draenge ihn in eine Ecke?
So ein Quatsch. Ich beleidige ihn nicht, ich unterstelle ihn, so wie er mir, nichts.
Solltest du dafuer ebenfalls keinen Beleg haben, werde ich dein Posting melden. Ich brauche mich nicht von dir irgendwas an den Kopf werfen lassen.
Achja, wenn du mich auf der Ignoreliste haben solltest:
Solltest du so konsequent sein und ueber mich nicht mehr schreiben ;)
wir brauchen kein zitate. jeder weiß das betareverse nicht luegt.

HOT
2004-09-06, 08:28:57
Ich glaub einigen können wir uns auf folgendes:

Für Spieler ist SM 3.0 kein Kaufargument. Gut dass die NV40 neben SM 3.0 auch noch ordentliche Leistung bietet. Und die nutzt einem schon jetzt. Man kauft die Leistung, SM 3.0 ist einfach nur "huckepack" dabei.

Für Entwickler ist SM 3.0 ein gutes Feature. Das allein macht aus SM 3.0 ein "positives Feature", denn dadurch können sie erst SM3.0 Dinge entwickeln. Das bringt dem Spieler letztendlich indirekt auch was in mehr oder weniger naher Zukunft (darf man nicht vergessen).

Daher meine Einstellung:
Man darf SM 3.0 nicht schlechtreden. Es ist ein gutes Feature. Aber genauso ist es nicht richtig, wenn man es für Gamer in den Himmel preist - für den Gamer hat es nur indirekt positive Auswirkungen in der Zukunft - wo man eventuell zu der Zeit schon neue SM 3.0 Karten hat. Jedoch darf man auch nicht vergessen dass zu der Zeit wo SM 3.0 dann "aktuell" wird, die Zeit von jetzt bis dahin genutzt wurde, um SM 3.0 Techniken zu entwickeln. Diese Zeit ist eine Konstante - wäre SM 3.0 nicht heute und jetzt verfügbar, würde sich einfach alles nach hinten verschieben, da die Software-Entwicklung für SM 3.0 ebenfalls später erst beginnen könnte. Denn man braucht ja Hardware dafür.

Auch sollte man endlich sehen, dass Software-Techniken (Grafikalgorithmen) genauso technisch sind wie die Hardware-Entwicklung. Jeder schaut in die Zukunft der Hardware, aber viele meinen dass die gegenwärtige Entwicklung in Software-Algorithmen keine "Praxisrelevanz" hat (MikBach deutete das an). Das ist eindeutig falsch!

Man kann nicht nur die Hardware und Hardware-Entwicklung betrachten. Man muß auch die Entwicklung im Bereich Computergrafik-Algorithmen betrachten. Gerade hier tut sich sehr viel. Und letztendlich gehört beides dazu, dass wir bestimmte Effekte dann in Spielen sehen.

Also zusammenfassend:
Technisch ist es gut, dass der NV40 SM 3.0 bringt. Erst deswegen dass es SM 3.0 bringt, erlaubt die Entwicklung mit SM 3.0 und bringt uns SM 3.0 Spiele in 12 Monaten statt in 24 oder gar 36 Monaten. Aber es ist auch falsch, es für Gamer als ein "Must-Have" Feature anzupreisen. Der Weg der Mitte ist der richtige: es bringt für den Gamer indirekt etwas in nicht allzu ferner Zukunft (durch die Verfügbarkeit für Entwickler), aber eben nicht direkt durch Kauf hier und jetzt.

Das Hickhack um "SM3.0 ist total nutzlos" (falsche Aussage) oder "SM3.0 muß man heute haben" (genauso falsch) geht mir nämlich schon auf die Nerven.

Wer stimmt zu?

Ich! Ich! Full Ack :D

Spieler kommen mit der X800 exakt genauso über die Runden, wie mit ner 6800. Ganz einfach, weil die Spielehersteller a.) noch net soweit sind und b.) möglichst viele Spieler mit einem Spiel ansprechen möchten.
Meine nächste Karte wird trotzdem ne 6800GT mit 128MB, wegen dem Preis :D

Demirug
2004-09-06, 09:04:16
IMHO ist die persönliche Relevanz von SM3 aus Gamersicht stark davon abhängig wie lange die Karte halten muss bevor eine neue gekauft wird.

Wer sich bei der nächsten Runde sowieso wieder neu eindecken wird für den spielen neue Features höchstens eine Rolle wenn derjenige sich auch Techdemos anschauen möchte. Je länger eine Karte aber halten muss desto stärker muss IMHO auch das vorhandensein solcher jetzt noch nicht benutzter Features in die Kaufentscheidung einbezogen werden.

MikBach
2004-09-06, 09:18:18
Also zusammenfassend:
Technisch ist es gut, dass der NV40 SM 3.0 bringt. Erst deswegen dass es SM 3.0 bringt, erlaubt die Entwicklung mit SM 3.0 und bringt uns SM 3.0 Spiele in 12 Monaten statt in 24 oder gar 36 Monaten. Aber es ist auch falsch, es für Gamer als ein "Must-Have" Feature anzupreisen. Der Weg der Mitte ist der richtige: es bringt für den Gamer indirekt etwas in nicht allzu ferner Zukunft (durch die Verfügbarkeit für Entwickler), aber eben nicht direkt durch Kauf hier und jetzt.

Das Hickhack um "SM3.0 ist total nutzlos" (falsche Aussage) oder "SM3.0 muß man heute haben" (genauso falsch) geht mir nämlich schon auf die Nerven.

Wer stimmt zu?
Ich stimme auch zu. Full Ack!
Sehe ich genauso.

MikBach
2004-09-06, 10:22:05
:o Sei mir nicht böse, aber dieses Statement schreit geradezu danach, dich für einen Wendehals zu halten zu müssen :ugly2:
WTF?
Ich habe doch schon geschrieben, dass es für Gamer in absehbarer Zeit nix bringen wird. Für Entwickler ist es, wie togkugawa schon richtig sagte, sehr nützlich, da man schon jetzt Algoritmen entwickeln kann, für Spiele, die vielleicht in 1-2 Jahren kommen.
Schau mal wie lange die Unreal3-Engine in Entwicklung sein wird, bevor sie rauskommt. Richtig, mehrere Jahre.

MadManniMan
2004-09-06, 10:30:23
Es tut mir unendlich leid, hier nochmal darauf einzugehen, aber du hast seitenweise nur "LOL" und "ROFL" auf tokugawa geantwortet - dem ging es immer nur darum, daß man SM3.0 doch bitte nicht Contra NV40 bedenken sollte - warum denn auch?

MikBach
2004-09-06, 11:25:24
Es tut mir unendlich leid, hier nochmal darauf einzugehen, aber du hast seitenweise nur "LOL" und "ROFL" auf tokugawa geantwortet - dem ging es immer nur darum, daß man SM3.0 doch bitte nicht Contra NV40 bedenken sollte - warum denn auch?
Wie meinen?
Zeig mir den Post von mir, wo ich beim NV40 "Contra" SM3 geschreiben habe.
Wie soll man denn Contra SM3 beim NV40 sein. Das wäre doch blanker Unsinn. Zusatzfeatures können sinnvoll sein, auch wenn sie kaum was bringen. Das ist wichtig für die Entwicklung.
Die Lols mussten nicht sein. Wir haben halt aneinander vorbei geredet.
Aber hier hat er es endlich für mich verständlich zum Ausdruck gebracht, was er meint:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2215472&postcount=106
Da ich es auch so gesehen habe, ein Full Ack an tokugawa
BTW
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2213485&postcount=61
Der Gast, den tokugawa hier zitiert, das war ich. ;)
Ich bin der Meinung(das war ich vorher schon), dass SM3 für Gamer auf absehbare Zeit nichts bringen wird und dabei bleibe ich.

MadManniMan
2004-09-06, 11:36:43
Wie meinen?
Zeig mir den Post von mir, wo ich beim NV40 "Contra" SM3 geschreiben habe.
Wie soll man denn Contra SM3 beim NV40 sein. Das wäre doch blanker Unsinn. Zusatzfeatures können sinnvoll sein, auch wenn sie kaum was bringen. Das ist wichtig für die Entwicklung.
Die Lols mussten nicht sein. Wir haben halt aneinander vorbei geredet.
Aber hier hat er es endlich für mich verständlich zum Ausdruck gebracht, was er meint:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2215472&postcount=106
Da ich es auch so gesehen habe, ein Full Ack an tokugawa
BTW
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2213485&postcount=61
Der Gast, den tokugawa hier zitiert, das war ich. ;)
Ich bin der Meinung(das war ich vorher schon), dass SM3 für Gamer auf absehbare Zeit nichts bringen wird und dabei bleibe ich.

Ich muß zugeben, daß ich dich so verstanden habe: SM3.0 naja... nich unbedingt gut für den Markt, weil der Gamer erstmal nichts davon hat. tokugawa: SM3.0 unheimlich gut für den Markt, weil es die Entwicklung vorantreibt. ... Und genau deshalb ist es auch gut, daß der NV40 SM3.0 hat - hättest du dem sofort zugestimmt, wäre die Diskussion doch nicht gewesen. Also entweder es war ein Riesenmisverständnis, oder aber du hast deine Ansicht geändert.

Gast
2004-09-06, 11:47:27
Soviel mal zum Thema Stromverbrauch... Wie man sieht hat sich im Gegensatz zur vorherigen Grafikkarten-Generation der Stromverbrauch nicht besonders gesteigert. Bemerkenswert finde ich die GeForce 6800 mit ihren 39 Watt, die ja nach Auflösung/Benchmark/Spiel die Radeon X800 Pro schlägt.

http://www.xbitlabs.com/images/video/ati-vs-nv-power/ati_vs_nvidia.gif

MikBach
2004-09-06, 11:52:47
Also entweder es war ein Riesenmisverständnis, oder aber du hast deine Ansicht geändert.
Richtig. Es war einfach ein Misverständniss.
Mit der Ansicht ist das so eine Sache. Ich habe nie behauptet, dass SM3 "negativ" ist. Nur sehe ich es nicht als ein Kaufargument(wenn, dann minimal) für einen Gamer.

MikBach
2004-09-06, 12:02:03
Bemerkenswert finde ich die GeForce 6800 mit ihren 39 Watt, die ja nach Auflösung/Benchmark/Spiel die Radeon X800 Pro schlägt.
Hmm, was soll den daran besonders sein?
Die X800PRO musst du mit der 6800GT vergleichen(Performance).
Schau mal auf Taktraten von 6800 und X800PRO. ;)
Die X800PRO hat auch 256 MB Speicher, die 6800 nur 128 MB.
Also seeehr schlecht vergleichbar.

Sag mal, liesst du auch die News von 3dcenter?

Hier ein kleiner Auszug von 3. August 2004
"Nur minimal deutlicher wird die Angelegenheit bei den 400-Dollar-Karten: Zumeist gibt es auch hier nur Gleichstände zwischen GeForce 6800GT und Radeon X800 Pro zu beobachten, nur bei 1600x1200 ohne Anti-Aliasing sowie anisotropen Filter schlägt das Pendel etwas zur nVidia-Karte aus. Im Feld der 300-Dollar-Grafikkarten bewerben sich mit GeForce 6800, Radeon 9800XT und GeForceFX 5950 Ultra gleich drei Kandidaten, wobei der letztere ziemlich deutlich hinten liegt. Zwischen der neuen GeForce 6800 und der "alten" Radeon 9800XT entspannt sich jedoch ein hochinteressanter Zweikampf, bei welchem mal die eine und mal die andere Karte deutlich vorn liegt, generell jedoch kein eindeutiger Sieger auszumachen ist ..."

MadManniMan
2004-09-06, 12:17:57
Richtig. Es war einfach ein Misverständniss.
Mit der Ansicht ist das so eine Sache. Ich habe nie behauptet, dass SM3 "negativ" ist. Nur sehe ich es nicht als ein Kaufargument(wenn, dann minimal) für einen Gamer.

Gut, dann sind wir uns einig :)

Welches Qäntchen Mehrqualität meinst du? Dass du über ein Drittel der berechneten Bildpunkte nicht darstellen kannst? Wo ist da bitte eine Qualitätssteigerung? Wie wärs mit 1024 und einem hohen AA Level, statt dieser sinnlos hohen Auflösung für diesen Monitor?

Logik bringt dich da nicht weiter! Sieh es selbst, dann können wir nochmal drüber reden ;) Solange allerdings werden unsere Meinungen nebeneinander stehen, du präferierst mittlere Auflösungen mit hohem AA/AF-Grad, ich ziehe höchste Auflösung mit entsprechend gedrosseltem AA/AF vor :) Auch auf einem solchen 17"er ;)

DrumDub
2004-09-06, 13:42:17
Manni, da muss ich mrdigital wirklich Recht geben. Einer meiner Freunde fährt ebenfalls oft mit seinem Monitor 1600*1200 @ 72hz, weil es seine 6800Ultra kann. Ich finde es einfach nur lächerlich, weil sein Monitor, insbesondere seine Lochmaske, nicht mehr hergibt und er faselt dan etwas von geiler Qaulität.


das ist allerdings etwas komisch. ich denke, ein gesunder mittelweg ist da vernünftig. mein monitor kann 1600x1200 zwar mit 75hz darstellen, aber alles unter 85hz verursacht bei mir augenkrebs. insofern ist meine präferierte auflösung 1280x960. da ich aber bei neueren spielen diese auflösung nicht mehr mit 4xaa fahren kann, geh ich halt runter. bevor ich aber mit 1024x768 und 4xaa spiele, blieb ich lieber 1280x960 oder 1152x864 mit 2xaa, weil mir das bild einfach besser gefällt. ich verzichte zwar nicht gerne auf aa, aber gerade bei doom3 gehs gut bei 1152x864. 800x600 mit 4xaa ist hingegen keine option für mich. insofern denke ich, dass es in diesem fall recht persönlich präfernzen gibt. tatsache ist auf ejden fall, dass bei hohen auflösungen pixelflimmern nicht mehr so stark auffällt, wie bei niedrigen. auf der anderen seite hängt natürlich stark von monitor ab. für mich sieht alles unter 1024x768 auf nem 19" crt scheisse aus. da hilft mir auch kein aa.

Gast
2004-09-06, 13:55:05
Hmm, was soll den daran besonders sein?
Die X800PRO musst du mit der 6800GT vergleichen(Performance).
Schau mal auf Taktraten von 6800 und X800PRO. ;)

40 Watt Stromverbrauch also eine deutliche Reduzierung bei NVidia, gegenüber einer deutlichen Leistungssteigerung zu den alten Grafikkarten ist nix besonders? <Kopfschüttel>

BTW: Solange ich keine ultra-hohen Auflösung betreibe (wer zockt schon in 1600x1200? Die Auflösung können die preisgünstigen TFT gar nicht darstellen und auch CRT-Monitor Besitzer benutzen lieber niedrigere Auflösung mit 100 Hz Bildfrequenz, anstatt 1600x1200 als 60-70 Hz Flimmerorgie), ist die GeForce 6800 noch gut konkurrenzfähig und vor allem mit Preis von 275 Euro aufwärts deutlich preisgünstiger!

Bei einigen Benchmarks ist die GeForce 6800 gegenüber der X800 Pro sogar teilweise schneller und dies obwohl die X800 Pro 150 MHz Chiptakt und 200 MHz mehr Speichertakt hat, d.h. eigentlich kann dies aus technischer Sicht gar nicht möglich sein! Und in der 400 Euro Preisklasse ist die GeForce 6800GT definitiv der bessere Kauf.

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/cod_1024_candy.gif

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/ef2_1024_candy.gif

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/tron_1024_pure.gif

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/breed_1280_candy.gif

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/dx2danger_1600_pure.gif

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/persia_1600_pure.gif

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/lotr_1600_pure.gif

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/fifa_1024_candy.gif

http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/aquamark_1024_pure.gif

P.S.: Gibt natürlich wesentlich mehr Benchmarks wo die Radeon X800 Pro etwas schneller ist als die GeForce 6800, allerdings hält sich der Vorsprung bei der Auflösung 1024x768 und auch 1280x1024 noch in Grenzen. Was ich allerdings nicht verstehe, ist warum die X800 Pro nicht überall schneller ist als die GeForce 6800 das könnte man ja eigentlich bei der Taktung erwarten.

MikBach
2004-09-06, 14:30:18
40 Watt Stromverbrauch also eine deutliche Reduzierung bei NVidia, gegenüber einer deutlichen Leistungssteigerung zu den alten Grafikkarten ist nix besonders? <Kopfschüttel>
:|
Das ist bei ATI natürlich anders. :rolleyes:
Auch deutlich mehr Leistung und nicht mehr Verlustleistung.

BTW: Solange ich keine ultra-hohen Auflösung betreibe (wer zockt schon in 1600x1200? Die Auflösung können die preisgünstigen TFT gar nicht darstellen und auch CRT-Monitor Besitzer benutzen lieber niedrigere Auflösung mit 100 Hz Bildfrequenz, anstatt 1600x1200 als 60-70 Hz Flimmerorgie), ist die GeForce 6800 noch gut konkurrenzfähig und vor allem mit Preis von 275 Euro aufwärts deutlich preisgünstiger!
Wenn dich 1600x1200 nicht interessiert, warum bringst du dann Benchmarks in dieser Aulösung?
http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/dx2danger_1600_pure.gif
http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/persia_1600_pure.gif
http://www.xbitlabs.com/images/video/graphics_cards_1H-1004_charts/lotr_1600_pure.gif

Als was ist die 6800 preisgünstiger? Als eine 9800XT?
Nein ist sie nicht.

Und in der 400 Euro Preisklasse ist die GeForce 6800GT definitiv der bessere Kauf.

:|
Und warum?
Weil du DU das sagst?
Da glaube ich doch eher, was in den News auf 3DCenter steht.

Hier noch mal für dich:
"Nur minimal deutlicher wird die Angelegenheit bei den 400-Dollar-Karten: Zumeist gibt es auch hier nur Gleichstände zwischen GeForce 6800GT und Radeon X800 Pro zu beobachten, nur bei 1600x1200 ohne Anti-Aliasing sowie anisotropen Filter schlägt das Pendel etwas zur nVidia-Karte aus. Im Feld der 300-Dollar-Grafikkarten bewerben sich mit GeForce 6800, Radeon 9800XT und GeForceFX 5950 Ultra gleich drei Kandidaten, wobei der letztere ziemlich deutlich hinten liegt. Zwischen der neuen GeForce 6800 und der "alten" Radeon 9800XT entspannt sich jedoch ein hochinteressanter Zweikampf, bei welchem mal die eine und mal die andere Karte deutlich vorn liegt, generell jedoch kein eindeutiger Sieger auszumachen ist ..."
Du kannst doch nicht nur 9 Benchmarks zeigen, obwohl in dem Test, den ich anspreche 35 gemacht wurden. Klar kann man sich Benchmarks rauspicken. Ich würde bestimmt auch einige finden, wo eine 9800XT die 6800 schlägt. Aber das beweisst gar nichts. Man muss schon alle Benchmarks berücksichtigen. ;)

Gast
2004-09-06, 15:21:58
Hier noch mal für dich:
"Nur minimal deutlicher wird die Angelegenheit bei den 400-Dollar-Karten: Zumeist gibt es auch hier nur Gleichstände zwischen GeForce 6800GT und Radeon X800 Pro zu beobachten, nur bei 1600x1200 ohne Anti-Aliasing sowie anisotropen Filter schlägt das Pendel etwas zur nVidia-Karte aus. Im Feld der 300-Dollar-Grafikkarten bewerben sich mit GeForce 6800, Radeon 9800XT und GeForceFX 5950 Ultra gleich drei Kandidaten, wobei der letztere ziemlich deutlich hinten liegt. Zwischen der neuen GeForce 6800 und der "alten" Radeon 9800XT entspannt sich jedoch ein hochinteressanter Zweikampf, bei welchem mal die eine und mal die andere Karte deutlich vorn liegt, generell jedoch kein eindeutiger Sieger auszumachen ist ..."

3DCenter kann von mir aus schreiben was sie wollen, die benutzen ja für HighEnd-Grafikkarten auch nur eine Mittelklasse CPU (Pentium 4 mit 2,53 GHz), was die Ergebnisse durchaus verfälschen kann, da die neuen Grafikkarte erst ab 3 GHz so richtig in Schwung kommen. Alle anderen Hardware-Magazine verwenden dagegen meistens HighEnd-Prozessoren wie z.B. Pentium 4 mit 3,2-3,4 GHz oder Athlon 64 3400. Kauf dir mal die aktuelle PC Games Hardware und lies dir die Seiten 46-51, anstatt hier irgendwelchen 3DCenter-News zu quoten.

In 1024x768 ist dort die GeForce 6800 im Schnitt etwas schneller als eine X800 Pro, mit 2x FSAA und 4:1 AF beträgt der Vorsprung der X800 Pro lediglich 13% und bei 1280x1024 (4x FSAA, 8:1 AF) sind es 28%. Von einem "Zweikampf" zwischen GeForce 6800 und Radeon 9800XT kann auch nicht die Rede sein, klar vielleicht wenn man eine lahme 2 GHz-CPU bei Spielen benutzt, aber in 95% der Benchmarks liegt die GeForce 6800 vor der Radeon 9800XT.

Black-Scorpion
2004-09-06, 16:34:02
3DCenter kann von mir aus schreiben was sie wollen, die benutzen ja für HighEnd-Grafikkarten auch nur eine Mittelklasse CPU (Pentium 4 mit 2,53 GHz), was die Ergebnisse durchaus verfälschen kann, da die neuen Grafikkarte erst ab 3 GHz so richtig in Schwung kommen.
Und was sagen solche Ergebnisse für die Spieler aus?
Oder denkst du wirklich das die User in der Mehrzahl solche Systeme haben.
Gerade deswegen wird hier eine CPU genommen die für die Mehrzahl der User relavant ist.

Gast
2004-09-06, 17:14:06
Und was sagen solche Ergebnisse für die Spieler aus?
Oder denkst du wirklich das die User in der Mehrzahl solche Systeme haben.
Gerade deswegen wird hier eine CPU genommen die für die Mehrzahl der User relavant ist.

Wer das Geld für eine 400-500 Euro teure Grafikkarte hat, wird sicherlich auch genügend Geld für einen Prozessor mit der entsprechenden Leistung haben. Man braucht sich doch nur einmal umschauen, welche PC-Hardware die Besitzer einer X800Pro/XT oder GeForce 6800GT/Ultra haben. Wenn ich natürlich nur ein Pentium 4 mit 2,53 GHz benutze brauche ich mich nicht wundern, wenn die Ergebnisse zu der vorherigen Grafikkarten-Generation nicht so massiv ausfallen, wie beispielsweise mit einem aktuellen Prozessoren.

MadManniMan
2004-09-06, 17:23:49
Hm, eins noch. Ich versuche nicht, 1600*1200 zu glorifizieren, sehe selbst 1280*1024 für die nächste Zeit als die Standardauflösung an, die auch imho 1024*768 zumindest gleichgestellt werden sollte.
Und ja, von 1280*1024 ausgehen schalte auch ich AA und AF hinzu, ich kann nur nicht hinsehen, wenn 1600*1200 der Sinn aberkannt wird.

Gast 1337 ;)
2004-09-06, 17:30:33
Wer das Geld für eine 400-500 Euro teure Grafikkarte hat, wird sicherlich auch genügend Geld für einen Prozessor mit der entsprechenden Leistung haben. Man braucht sich doch nur einmal umschauen, welche PC-Hardware die Besitzer einer X800Pro/XT oder GeForce 6800GT/Ultra haben. Wenn ich natürlich nur ein Pentium 4 mit 2,53 GHz benutze brauche ich mich nicht wundern, wenn die Ergebnisse zu der vorherigen Grafikkarten-Generation nicht so massiv ausfallen, wie beispielsweise mit einem aktuellen Prozessoren.


Das würd eich nicht so sehen... ich selber habe nur einen 2800@3100+ .... und kein weiteres geld für nen amd 64... mir haben die 400€ für meine x800XT Pe gereicht! :P

MikBach
2004-09-06, 17:57:54
3DCenter kann von mir aus schreiben was sie wollen, die benutzen ja für HighEnd-Grafikkarten auch nur eine Mittelklasse CPU (Pentium 4 mit 2,53 GHz), was die Ergebnisse durchaus verfälschen kann, da die neuen Grafikkarte erst ab 3 GHz so richtig in Schwung kommen. Alle anderen Hardware-Magazine verwenden dagegen meistens HighEnd-Prozessoren wie z.B. Pentium 4 mit 3,2-3,4 GHz oder Athlon 64 3400. Kauf dir mal die aktuelle PC Games Hardware und lies dir die Seiten 46-51, anstatt hier irgendwelchen 3DCenter-News zu quoten.

Du hast dir noch nicht mal die Mühe gemacht die News vom 3. August zu lesen.
Nachtrag:
"Die x-bit Labs haben einen herausragenden Artikel online gebracht, welche alle derzeitigen Mainstream- und HighEnd-Grafikkarten von ATi und nVidia durch 35 verschiedene Benchmarks scheucht und dann je nach Preislage beurteilt."
Deswegen ist das für mich zur Zeit DER Massstab, weil es eben so viele Benchmarks gibt. Je weniger Benchmarks man hat, desto mehr läuft man gefahr Benchmarks erwischt zu haben, die eine Karte favorisieren.
Also nix mit P4 2,53 ;)
Hier der Test, den 3dCenter in den News angesprochen hat:
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004.html
Die haben einen A64 3400+ bemüht.

In 1024x768 ist dort die GeForce 6800 im Schnitt etwas schneller als eine X800 Pro, mit 2x FSAA und 4:1 AF beträgt der Vorsprung der X800 Pro lediglich 13% und bei 1280x1024 (4x FSAA, 8:1 AF) sind es 28%. Von einem "Zweikampf" zwischen GeForce 6800 und Radeon 9800XT kann auch nicht die Rede sein, klar vielleicht wenn man eine lahme 2 GHz-CPU bei Spielen benutzt, aber in 95% der Benchmarks liegt die GeForce 6800 vor der Radeon 9800XT.
Ich brauche mir die PCGH nicht zu kaufen, die habe ich nicht seit heute. ;D
Hab fast alle Ausgaben seit dem Erstexemplar. ;)
Nur wie gesagt, bei wenigen Benchmarks sollte man vorsichtig sein, besonders, weil Nvidia gerne auf bekannte Titel optimiert, das haben sie schon immer gemacht. Shaderreplacement ist dir sicherlich ein bekannter Begriff.

MikBach
2004-09-06, 18:03:33
Hm, eins noch. Ich versuche nicht, 1600*1200 zu glorifizieren, sehe selbst 1280*1024 für die nächste Zeit als die Standardauflösung an, die auch imho 1024*768 zumindest gleichgestellt werden sollte.
Und ja, von 1280*1024 ausgehen schalte auch ich AA und AF hinzu, ich kann nur nicht hinsehen, wenn 1600*1200 der Sinn aberkannt wird.
Eine Anmerkung nur.
Das nächste mal bitte als Auflösung 1280x960 angeben, weil 1280x1024 verzerrt dargestellt wird auf einem 4:3-Monitor. Auch wenn es einige Spiele nicht anbieten.

aths
2004-09-06, 21:08:52
sorry, aber das stimmt so auch nicht. Vorallem hier ( im 3dc ) wurde anfangs das SM 3 als das Nonplusultra und absolutes Kaufargument des nv40 dargestellt, Wo z. B.?

und als dem ältern SM absolut überlegen.Das ist ja kaum von der Hand zu weisen, oder?

Niemand spricht mehr von SM 3 seit dem ATI mit SM2.0b in FC NV wieder überflügeln konnte,Liegt das am Shader Modell oder am Takt der Chips? Ist FC so designt, dass SM 3.0 richtig ausgenutzt würde, oder ist es eigentlich nur ein "2.0-Spiel"? Wie gut eignet sich FC, um die Vorteile von 3.0 vs. 2.0 zu zeigen?

also nahm man sich das nächste vor was so kam - D3. Seitdem ist US 2 (& co. ) das totale Kaufargument ( hier auf 3dc ) für einen nv40 ( und gegen einen R420 ).Wer Doom3 so schnell spielen möchte wie derzeit möglich, sollte er da einen R420 kaufen?

Frag mich was als nächstes noch kommt. .. Von mir erst mal Teil 2 zur NV40-Technik, außerdem habe ich da einen Uralt-Artikel wiedergefunden, den ich vermutlich zur Veröffentlichungsreife bringen werde. Es geht um GeForce1-6. Ist aber weitaus weniger technisch.

Was ATI-HW angeht, die hatte ich vor einiger Zeit um bestimmte technische Details angebettelt, ohne sie zu bekommen. Entsprechend wird auch der R410-Artikel an bestimmten Stellen ziemlich schmallippig ausfallen.

Jesus
2004-09-06, 22:28:03
Liegt das am Shader Modell oder am Takt der Chips? Ist FC so designt, dass SM 3.0 richtig ausgenutzt würde, oder ist es eigentlich nur ein "2.0-Spiel"? Wie gut eignet sich FC, um die Vorteile von 3.0 vs. 2.0 zu zeigen?

oh sorry, liegt nicht am Shadermodel, wie konnte ich nur. Liegt natürlich nur am Takt. Daher war ATI auch vor der SM2.0b implementierung langsamer als NV mit SM 3.0...

Ergo: Wenn NV vorne liegt, dann wegen der überlegenen Technik, wenn ATI vorne liegt dann wegen dem Takt ? Verstehe.

Und natürlich eignet sich FC nicht gut so um die Vorteile von SM3 zu demonstrieren, weils anscheinend nicht so viel bringt, daher wurde es auch von NV als Vorzeigetitel für SM3 promoted...

EoOT :rolleyes:

Gast
2004-09-06, 23:15:14
Hoch lebe ATI ;) Bin ja mal gespannt ob es die gleichen Diskussionen bei ATI´s Einführung von SM3.0 gibt :lol:

Xmas
2004-09-07, 00:36:47
Eine Anmerkung nur.
Das nächste mal bitte als Auflösung 1280x960 angeben, weil 1280x1024 verzerrt dargestellt wird auf einem 4:3-Monitor. Auch wenn es einige Spiele nicht anbieten.
Eine Anmerkung nur.
Das nächste mal bitte als Auflösung 1280x1024 angeben, weil 1280x960 verzerrt dargestellt wird auf einem 5:4-Monitor. Auch wenn es einige Spiele nicht anbieten. ;)

aths
2004-09-07, 01:02:34
oh sorry, liegt nicht am Shadermodel, wie konnte ich nur. Liegt natürlich nur am Takt. Daher war ATI auch vor der SM2.0b implementierung langsamer als NV mit SM 3.0..."Implementierung". Ein Wort, welches im Kontext nicht unwichtig ist. Man darf in DX9 beliebig langsame Shader haben. Das Shader-Modell (bzw. englisch Shader Model) ist in DX9 von der Featureseite definiert.

Ergo: Wenn NV vorne liegt, dann wegen der überlegenen Technik, wenn ATI vorne liegt dann wegen dem Takt ? Verstehe. Endlich.

(Oder wo ist das 2_B-Profil mächtiger als das 3_0-Profil? Manchmal wenn ich Postings von dir lese, die z. B. Doom3 betreffen, gewinne ich den Eindruck dass du nicht glaubst dass NV40 gegenüber R420 besondere Leistungsmerkmale aufweist. Das finde ich etwas seltsam, da sich das Vorhandensein nachweisen lässt. Was das in bestimmten Spielen bringt, ist eine andere Frage. Konkret: Bestimmte Features die R420 nicht hat, aber NV40, führen dazu dass man bestimmte Berechnungen auf dem R420 entweder gar nicht ausführen kann, oder sehr umständliche Alternativlösungen nehmen muss. Dass die neuen Features nicht so überragend schnell sind ist daher weniger "schlimm" als das vollständige Fehlen jener. Ausgenommen Doom3 brauchen aktuelle Spiele keine Features die der R300 nicht auch hätte. Aber wenn man den Nutzen eines Shader-Modells diskutiert kann man doch nicht nur darauf gucken, welche Spiele davon profitieren. ATIs Argumentation, 3.0 sei aktuell sinnlos da es hierfür keine Spiele gäbe finde ich lächerlich, oder brachten sie die Radeon 9700 auf einen Markt wo es zwar viele SM 2.0-Spiele, nur leider keine entsprechende Hardware gab? Wie viele Spiele nutzten Pixelshader 1.4, als die Radeon 8500 erschien? Was hat ATI der jeweilige technische Fortschritt genützt? Eine ganze Menge – 8500 machte 9700 möglich, und mit der 9700-Serie ownten sie derbe. Was hat NV3x gebracht? Den NV40 ermöglicht. Ich vermute, dass sie damit derbe abownen würden – wenn es ATI nicht gelänge, bald einen Chip zu bringen der u. a. auch SM 3.0 unterstützt.)

Und natürlich eignet sich FC nicht gut so um die Vorteile von SM3 zu demonstrieren, weils anscheinend nicht so viel bringt, daher wurde es auch von NV als Vorzeigetitel für SM3 promoted...Dieser 2.0 - 3.0-Vergleich war eine der schwachsinnigsten Aktionen die ich je sah, denn Offset-Mapping kann man auch mit 2.0 realisieren, gleiches gilt für so genanntes "HDR"-Lighting (eigentlich MDR-Lighting) sofern entsprechende Texturformate geboten werden (was auf R300 zutrifft.)

Wie viel SM 3.0 bringt, kann NV40 noch nicht so gut zeigen. Die Implementierung hat allerdings die Features der NV30-CineFX-Engine leistungsmäßig stark verbessert. Davon profitiert der NV40 (welcher eine 3.0-Implementierung darstellt, aber nicht an sich das 3.0-Modell ist, welches ja abstrakt existiert) schon deutlich eher.

MikBach
2004-09-07, 09:00:15
Liegt das am Shader Modell oder am Takt der Chips? Ist FC so designt, dass SM 3.0 richtig ausgenutzt würde, oder ist es eigentlich nur ein "2.0-Spiel"? Wie gut eignet sich FC, um die Vorteile von 3.0 vs. 2.0 zu zeigen?

Das liegt kaum am Shader Modell, sondern an der überlegenen arithmetischen Leistung des NV40(die man durch das SM3 vielleicht besser ausnutzen kann).
FC benutzt ja bakanntlich viele Shader. ATI kontert mit dem Takt. Ausserdem wird ATI durch den 2.b-Pfad auch schneller. Anscheinend werden durch SM3 und 2.b die Rechneneinheiten besser ausgelastet.

@Xmas
Hast Recht. Da habe ich doch glatt die TFTs vergessen. :rolleyes:

edit: Fehler beseitigt. 2.a in 2.b bei ATI. Bin noch nicht richtig wach. ;)

Demirug
2004-09-07, 09:29:43
Das liegt kaum am Shader Modell, sondern an der überlegenen arithmetischen Leistung des NV40(die man durch das SM3 vielleicht besser ausnutzen kann).
FC benutzt ja bakanntlich viele Shader. ATI kontert mit dem Takt. Ausserdem wird ATI durch den 2.a-Pfad auch schneller. Anscheinend werden durch SM3 und 2.a die Rechneneinheiten besser ausgelastet.

Natürlich ist die bessere Leistung im Shadermodel begründet. Allerdings reicht für das was Far Cry tut primär auch 2.b aus. Farcry brauchte einfach ein Shadermodel welches längere Shader als 2.0 erlaubt um die Lichtquellen für einen Pixel zusammen zu fassen.

Die Einheiten werden nicht besser ausgelastet sondern durch das Zusammenfassen von mehrern Passe muss in Summe einfach weniger gerechnet werden.

MikBach
2004-09-07, 10:27:05
Natürlich ist die bessere Leistung im Shadermodel begründet. Allerdings reicht für das was Far Cry tut primär auch 2.b aus. Farcry brauchte einfach ein Shadermodel welches längere Shader als 2.0 erlaubt um die Lichtquellen für einen Pixel zusammen zu fassen.

Die Einheiten werden nicht besser ausgelastet sondern durch das Zusammenfassen von mehrern Passe muss in Summe einfach weniger gerechnet werden.

Ausgedrückt sollte werden (ist ja auch so im Artikel formuliert) dass entweder die supi-Features oder supi-Leistung möglich waren. ATI konnte die Geschwindigkeit nur schaffen, indem recht einfache Shadertechnik implementiert wurde. Nvidia steckte mehr in die Flexibilität bzw. in den Befehlssatz, aber opferte dafür Geschwindigkeit (bzw., ließ Designschwächen zu welche sich negativ auf die Performance auswirken.)

Mit dem NV40 hat NV die Shaderfeatures gar nicht mal sooo stark erweitert, die Kraft konnte jetzt in die Geschwindigkeitsverbesserung investiert werden.

Irgendwie ein Widerspruch.
Die Shader einer FX sind nicht weit weg von SM3. Es liegt also doch eher an der arithmetischen Leistung, als an irgendeiner Bezeichnung. Sei es SM2, 2.a, 2.b oder SM3. Spielt keine Rolle. Wo keine Leistung da ist, hilft eine hoche SM-Zahl auch nicht weiter.

aths
2004-09-07, 11:09:05
Irgendwie ein Widerspruch.
Die Shader einer FX sind nicht weit weg von SM3. Es liegt also doch eher an der arithmetischen Leistung, als an irgendeiner Bezeichnung. Sei es SM2, 2.a, 2.b oder SM3. Spielt keine Rolle. Wo keine Leistung da ist, hilft eine hoche SM-Zahl auch nicht weiter.Demirug beschrieb, wie man mit 2.b Rechenleistung sparen kann. Da 2.b dem NV40 nicht so schmeckt, nimmt man da halt 3.0.

Demirug
2004-09-07, 11:21:38
Irgendwie ein Widerspruch.
Die Shader einer FX sind nicht weit weg von SM3. Es liegt also doch eher an der arithmetischen Leistung, als an irgendeiner Bezeichnung. Sei es SM2, 2.a, 2.b oder SM3. Spielt keine Rolle. Wo keine Leistung da ist, hilft eine hoche SM-Zahl auch nicht weiter.

Ja und Nein. Wenn Leistung fehlt kann man das zu einen gewissen Teil mit einer besseren Technologie ausgleichen.

Eine FX ist mit dem 2.B oder auch 3.0 Pfad von Farcry zum Beispiel schneller als mit dem von Crytek vorgesehen SM2 Pfad.

Demirug
2004-09-07, 11:24:25
Demirug beschrieb, wie man mit 2.b Rechenleistung sparen kann. Da 2.b dem NV40 nicht so schmeckt, nimmt man da halt 3.0.

Warum sollte dem NV40 2.B nicht schmecken?

Der Chip nimmt alles 2.0, 2.A, 2.B, 3.0. Völlig egal.

Anstelle von 2.B würde ich aber eher 2.A nehmen wenn es schon ein 2er Profil sein soll. Bei 2.A hat der Compiler einfach mehr möglichkeiten.

MikBach
2004-09-07, 11:27:18
Ja und Nein. Wenn Leistung fehlt kann man das zu einen gewissen Teil mit einer besseren Technologie ausgleichen.

Eine FX ist mit dem 2.B oder auch 3.0 Pfad von Farcry zum Beispiel schneller als mit dem von Crytek vorgesehen SM2 Pfad.
1. Zum Teil ja.
2. Eine FX ist aber trotz 2.B oder 3.0 Pfad noch deutlich langsamer als das Ati Pendant unter 2.0. ;)
Ich wollte damit sagen, dass nicht irgedeine Zahl hinter "SM" entscheidend ist, sondern die Leistung.

aths
2004-09-07, 13:53:03
Warum sollte dem NV40 2.B nicht schmecken?Große Blöcke mit vielen Texture-Samplings. Das müsste der Treiber erst wegoptimieren. Mit 3_0 (oder natürlich 2_A) hätte es der NV40 einfacher.

Anstelle von 2.B würde ich aber eher 2.A nehmen wenn es schon ein 2er Profil sein soll. Bei 2.A hat der Compiler einfach mehr möglichkeiten. Ja, z. B. kann man dort frei swizzlen :)

aths
2004-09-07, 13:58:05
1. Zum Teil ja.
2. Eine FX ist aber trotz 2.B oder 3.0 Pfad noch deutlich langsamer als das Ati Pendant unter 2.0. ;)
Ich wollte damit sagen, dass nicht irgedeine Zahl hinter "SM" entscheidend ist, sondern die Leistung.Dann wäre eine Ti 4600 ja grundsätzlich besser als eine FX 5200. Das möchte ich aber in Zweifel ziehen, denn mit der FX 5200 kann man vernünftiges Vorschau-Rendering auf der GPU machen, mit der Ti 4600 jedoch nicht.

Demirug
2004-09-07, 14:25:57
Große Blöcke mit vielen Texture-Samplings. Das müsste der Treiber erst wegoptimieren. Mit 3_0 (oder natürlich 2_A) hätte es der NV40 einfacher.

Spielt keine Rolle mehr. Der Treiber jagt inzwischen sowieso alles durch den Optimierer. Habe das gerade erst selbst auspropiert. Das gewählte Zielprofil hatte keine Auswirkungen auf die Performances.

Zudem sagt doch nVidia selbst man soll immer das Profil nehmen das ausreicht.

MikBach
2004-09-07, 14:34:46
Dann wäre eine Ti 4600 ja grundsätzlich besser als eine FX 5200. Das möchte ich aber in Zweifel ziehen, denn mit der FX 5200 kann man vernünftiges Vorschau-Rendering auf der GPU machen, mit der Ti 4600 jedoch nicht.
Falscher Film, oder was?
Wir sprachen hier von der Performance unterschiedlicher DX9-Karten unter verschiedenen Pfaden und SM-Versionen(in FarCry-von Demi gewähltes Beispiel).
Was soll damit das Vorschau-Rendering zu tun haben?

MadManniMan
2004-09-07, 14:39:04
Falscher Film, oder was?
Wir sprachen hier von der Performance unterschiedlicher DX9-Karten unter verschiedenen Pfaden und SM-Versionen(in FarCry-von Demi gewähltes Beispiel).
Was soll damit das Vorschau-Rendering zu tun haben?

FarCry und SM Versionen... Du weißt schon, daß man von einem Einzelfall nun wirklich nicht auf ein allgemeingültiges Verhalten schließen kann?

Jesus
2004-09-07, 14:46:37
(Oder wo ist das 2_B-Profil mächtiger als das 3_0-Profil? Manchmal wenn ich Postings von dir lese, die z. B. Doom3 betreffen, gewinne ich den Eindruck dass du nicht glaubst dass NV40 gegenüber R420 besondere Leistungsmerkmale aufweist. Das finde ich etwas seltsam, da sich das Vorhandensein nachweisen lässt. Was das in bestimmten Spielen bringt, ist eine andere Frage.

natürlich gibt es die Features. Nur die gab es auch schon in ähnlicher Form ( US 1, SM2.0a ...) beim NV3x und sie wurden von denselben Leuten in den Himmel gelobt. Was es gebraucht hat haben wir ja gesehen.

Und beim NV40 gibt es bisher auch keine Belege dafür dass diese neuen Features ( z.b. Ultrashadow II ) viel bringen. Benchmarks (z.b. in D3 mit deaktivierten Schatten ) und Aussagen von einigen Usern hier und in anderen Foren, bzw. die Geschichte mit dem Shaderreplacement ( siehe anderer Thread ) deuten eher auf was anderes hin.

Daher bin ich skeptisch, bis ich eines Besseren belehrt werde :tongue:

ATIs Argumentation, 3.0 sei aktuell sinnlos da es hierfür keine Spiele gäbe finde ich lächerlich, oder brachten sie die Radeon 9700 auf einen Markt wo es zwar viele SM 2.0-Spiele, nur leider keine entsprechende Hardware gab?
Dieser 2.0 - 3.0-Vergleich war eine der schwachsinnigsten Aktionen die ich je sah, denn Offset-Mapping kann man auch mit 2.0 realisieren, gleiches gilt für so genanntes "HDR"-Lighting (eigentlich MDR-Lighting) sofern entsprechende Texturformate geboten werden (was auf R300 zutrifft.)

Ich glaube kaum das ATI gesagt hat SM 3.0 sei sinnlos, sonst würden sie ja kaum was ähnliches ( SM2.0b, bzw SM3.0 in der nächsten Generation ) anstreben.

Hauwech
2004-09-07, 14:52:18
Du schreibst es ja selber Jesus.
Sie werden es mit der _nächsten_ Generation anstreben. Wann diese kommt weiss keiner. Anfang 2005 ist vielleicht der frühstmögliche Termin muss aber gar nichts bedeuten.
Von daher ist die Aussage das SM3 _aktuell_ sinnlos sei nicht aus der Luft gegriffen. Oder würdest du die Leute ermutigen für den Wettbwerb Vorteile zu schaffen die du selber gar nicht ausnutzen kannst?

Jesus
2004-09-07, 15:09:26
Es ist für mich als potentieller Käufer im Moment und in nächster Zeit wohl ziemlich sinnlos. Trotzdem zahle ich dafür und muss mir Werbung dazu ansehen.

Hauwech
2004-09-07, 15:14:56
Wo zahlst du dafür wenn du dir eine ATI holst und sag bloss du schenkst solcher Werbung noch Aufmerksamkeit? Wenn mich Werbung nicht interessiert zappe ich im Fernsehen oder überlese sie in der Zeitschrift. Die Preise zwischen ATI und Nvidia Karten sind auch nicht so gross das du da extra für SM3 und andere Nettigkeiten wahnsinnig viel mehr bezahlst.

Edit: Je nachdem wie lange du eine Grafikkarte behalten willst fährst du wahrscheinlich mit Nvidia besser. Beide sind von den Leistungen her praktisch gleich gut und klar ist das SM3 kommen wird, früher oder später. Je später es kommt desto gleich "schlecht" sind dann praktisch beide Karten da sie dann einfach zu langsam sind.

Edit1: Ich persönlich würde mich für NV entscheiden. Zumindest kann ich dann noch das eine oder andere Schmankerl und Eye Candy in Spielen bewundern wo andere mit einer gleich guten ATI dann in die Röhre gucken. Ist aber nur meine persönliche Meinung.

MikBach
2004-09-07, 15:19:07
FarCry und SM Versionen... Du weißt schon, daß man von einem Einzelfall nun wirklich nicht auf ein allgemeingültiges Verhalten schließen kann?
Das ist mir durchaus bekannt.
Ok nenn mal ein anderes Spiel, wo wir uns über Shaderpfade und SM-Versionen in diesem Umfang unterhalten können. Wenn du es nicht kannst, dann spam hier nicht rum.
Man braucht schon eine Grundlage, um zu diskutieren.

MadManniMan
2004-09-07, 15:22:57
Das ist mir durchaus bekannt.
Ok nenn mal ein anderes Spiel, wo wir uns über Shaderpfade und SM-Versionen in diesem Umfang unterhalten können. Wenn du es nicht kannst, dann spam hier nicht rum.
Man braucht schon eine Grundlage, um zu diskutieren.

Etwas weniger aggressiv bitte, "Spam" ist recht unfreundlich, wenn ich das mal so anmerken darf.

Natürlich ist FC atm die einzige Basis, aber es geht mir ja nicht um spezifische Gegenbeispiele, sondern allgemein darum, nicht der Unsitte zu verfallen, von einem Einzelfall endgültige Schlüsse zu ziehen.

MikBach
2004-09-07, 15:45:09
Etwas weniger aggressiv bitte, "Spam" ist recht unfreundlich, wenn ich das mal so anmerken darf.
Ja darfst du.
Nur leider habe ich in letzter Zeit das Gefühl, dass du einen persönlichen Feldzug gegen mich führst. ;)
Sollte das nicht der Fall sein, dann sorry für die harten Worte.


Natürlich ist FC atm die einzige Basis, aber es geht mir ja nicht um spezifische Gegenbeispiele, sondern allgemein darum, nicht der Unsitte zu verfallen, von einem Einzelfall endgültige Schlüsse zu ziehen.
Manni, bitte. Es ging um die Diskussion, ob ein höhere Zahl hinter "SM" schon sugerriert, dass man mehr Leistung hat. Das ist eben nicht der Fall.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2221271&postcount=155
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2221319&postcount=156
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2221442&postcount=157
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2221591&postcount=159
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2221608&postcount=161
So, das hätten wir dann wohl geklärt.
Falls du noch Fragen hast, dann formuliere sie bitte klar und deutlich und rede nicht um den heissen Brei herum, wenn ich das so sagen darf. (nicht böse gemeint) :)

MadManniMan
2004-09-07, 16:24:21
Ja darfst du.
Nur leider habe ich in letzter Zeit das Gefühl, dass du einen persönlichen Feldzug gegen mich führst. ;)
Sollte das nicht der Fall sein, dann sorry für die harten Worte.

Nay du, du postest nur in letzter Zeit recht viel - und das auch noch vorrangig in "meinem" Themenbereich. Wenn dann auch noch konträre Meinungen aufeinanderprallen und ich weiterhin Zeit habe, mir hier die Zeit um die Ohren zu schlagen, weil immernoch nicht klar ist, ob ich nun allein studiere oder mit meinem besten Freund zusammen dorthinziehe, aber die Semesterferien bald zuende sind und ich extrems große Hummeln im Hintern habe, kann bei zwei derlei hitzig diskutierenden Gemütern, wie den unsrigen schonmal der Anschein enstehen, daß da persönlicher Mismut im Spiel ist - dem ist nicht so :)
Ich gebe zu, daß es hier User gibt, zu denen ich ein ... hm ... anderes Verhältnis habe, als zu dir, aber beta z.B. ist nunmal auch schon ein wenig länger hier und wir haben bei vielen Grabenkämpfen im gleichen Erdloch gesessen :D Also nichts für Ungut, auf jeden Fall bringst du Stimmung, die nur andere - dabei allerdings teils auch unschön aggressivere Artgenossen - geboten haben, die schon wieder nur noch als Erinnerung im 3DCF bestehen. Bei deiner aktuellen Präsenz und einem leichten Abkühlen(hast ja schon gemerkt, übermäßige Emotion bringt Punkte) könntest du zu einer ... hm ... festen Institution hier werden. Ich find deinen Stil so übel nicht, obwohl ich mich manchmal innerlich über dich aufrege, bringt es doch Pepp :up:


Manni, bitte. Es ging um die Diskussion, ob ein höhere Zahl hinter "SM" schon sugerriert, dass man mehr Leistung hat. Das ist eben nicht der Fall.

Was du aus dem Spezialfall FarCry schließt - das ist aber m.E. etwas überstürzt.

Demi faßte gut zusammen, daß FarCry von einem SM >2.0 profitiert, da gewisse Lichtberechnungen über derartig lange Shader realisiert werden, daß man bei 2.0 von mehreren Passes Gebrauch machen muß. Daß nun dadurch ein NV40 zum Beispiel nicht zeigen kann, was für Geschwindigkeitspotential hinter SM3.0 steckt(lange Shader, Branching, GI usw.), ist doch nur logisch. Wie gehabt: alle Karten gewinnen irgendwie durch SM>2.0, sodenn sie mit einem Solchen bedacht werden. Beim Fall GeForce FX wird es allerdings noch komplizierter, da nicht nur erstmal eine generelle ... hm ... "Nichtstärke" bei FP-Shadern besteht(die auch nur partiell durch pp_ umgangen werden kann), sondern Crytek bisher auch nicht so gnädig - oder sagen wir fair ;) - war, den NV3X mit einem eigenen Pfad zu bedenken.

Fassen wir also zusammen: FC und SM>2.0 = unter Umständen Mehrleistung. Aber für ein allgemeines Statement bezüglich "der Zahl hinter dem SM" und eine Ableitung von Performance aus dieser ist FarCry wohl ungeeignet.

Quasar
2004-09-07, 18:35:04
natürlich gibt es die Features. Nur die gab es auch schon in ähnlicher Form ( US 1, SM2.0a ...) beim NV3x und sie wurden von denselben Leuten in den Himmel gelobt. Was es gebraucht hat haben wir ja gesehen.
Ja, das haben wir. :)


Und beim NV40 gibt es bisher auch keine Belege dafür dass diese neuen Features ( z.b. Ultrashadow II ) viel bringen. [...]
Wie deutest du denn die Tatsache, daß eine nV40 ggü. einer R420 mit 46% mehr "Pixelleistung" mithalten kann, wenn nicht durch ein paar 'Features' die's drüben gibt, hüben nicht?

Ach ja - Shaderreplacement.
Warum wird dann eine nV40 nicht auch im 3DMark03 um lockere 4x% beschleunigt - Shaderreplacement ist da sogar noch viel einfacher?
Oder in Far Cry - oder im VST?

Oder meinst du, nV würde nur und ausschließlich dein angenommenes Shaderreplacement ('tschuldige, wenn ich es hier wiederholt anführe - ich sehe bislang noch keinen Nachweis dafür oder dagegen, nur Behauptungen) für Doom³ praktizieren?

Jesus
2004-09-07, 19:05:09
Ja, das haben wir. :)
Wie deutest du denn die Tatsache, daß eine nV40 ggü. einer R420 mit 46% mehr "Pixelleistung" mithalten kann, wenn nicht durch ein paar 'Features' die's drüben gibt, hüben nicht?

Ich rede nicht von der zugrundeliegenden Architektur (Takt, ALUs / FPUs, Parallelität,etc ) sondern von solchen "exklusiv"-Features wie eben US II. Wieso gibt es keinen Test davon der das mal richtig durchleuchtet ? Solange es sowas nicht gibt, "vertraue" ich mal auf solche Benchmarks wie sie Tombman bei D3 mit deaktiviertem Stencil Schatten gemacht hat und die zeigten, dass die unterschiede kaum im messbaren bereich lagen ( 1% ).


Ach ja - Shaderreplacement.
Warum wird dann eine nV40 nicht auch im 3DMark03 um lockere 4x% beschleunigt - Shaderreplacement ist da sogar noch viel einfacher?
Oder in Far Cry - oder im VST?

Ich sage nicht dass Shaderreplacement alles ist, aber es ist natürlich etwas das viel bewirken kann. Der NV40 hat im 3dmark keine 40%+ Leistungssteigerung wie der nv3x z.b. weil er bereits eine sehr gute Grundperformance in Sachen Shader besitzt. Ihm schmeckt ziemlich alles. Es ging auch hauptsächlich um den NV3x ( wie auch JC sagte ).

Btw. wer weiss was NV in FC macht ? ;) ich nicht.

MadManniMan
2004-09-07, 19:14:14
Falscher Fred ;(

MikBach
2004-09-07, 21:09:57
Was du aus dem Spezialfall FarCry schließt - das ist aber m.E. etwas überstürzt.

Fassen wir also zusammen: FC und SM>2.0 = unter Umständen Mehrleistung. Aber für ein allgemeines Statement bezüglich "der Zahl hinter dem SM" und eine Ableitung von Performance aus dieser ist FarCry wohl ungeeignet.
Ich will doch gar nichts aus FarCry schliessen. Du hast mich noch immer nicht verstanden.
Ich wollte nur sagen, dass man keine generelle Aussage bei der Performance wie 2.0<2.A<2.B<3.0 machen kann.
Wobei man hier eigentlich 2.A und 2.B tauschen sollte, weil 2.A technisch gesehen fortschrittlicher ist.

Quasar
2004-09-07, 21:29:13
Du kannst auch keine generelle Aussage machen 380PS>350PS>240PS>110PS, wenn du einzig die Endgeschwindigkeit ermitteln willst.

Gast
2004-09-07, 21:38:05
Ich will doch gar nichts aus FarCry schliessen. Du hast mich noch immer nicht verstanden.
Ich wollte nur sagen, dass man keine generelle Aussage bei der Performance wie 2.0<2.A<2.B<3.0 machen kann.
Wobei man hier eigentlich 2.A und 2.B tauschen sollte, weil 2.A technisch gesehen fortschrittlicher ist.

Sofern es sich um unterschiedliche Chips mit unterschiedlicher "Grundperformance" handelt nein. Bei einem Chip der alles inklusive SM3 beherrscht sehr wohl und der einzige Chip der das könnte ist im Moment der NV40.

Weiss nicht ob es schon gemacht wurde aber so eine hmm "Testreihe" mit den unterschiedlichen Profilen auf NV40 wäre vielleicht interessant und aufschlussreich.
Ich weiss auch nicht ob es für sowas schon Benchmark- bzw Testprogramme gibt. Spiele die solche Möglichkeiten bieten wären natürlich noch besser, FarCry mit "vorgegaukelten" Chips geht vielleicht??

MikBach
2004-09-07, 22:19:56
Sofern es sich um unterschiedliche Chips mit unterschiedlicher "Grundperformance" handelt nein. Bei einem Chip der alles inklusive SM3 beherrscht sehr wohl und der einzige Chip der das könnte ist im Moment der NV40.

Was willst du mir jetzt damit sagen?
Dass das SM3 für Gamer in absehbarer Zeit nichts bringt ist schon ausdiskutiert(tokugawa).
Wenn du Entwickler bist greif zum NV40. Wenn du Gamer bist, bringt SM3 für dich in den nächsten 1-2 Jahren keine nennenswerten Vorteile.

MadManniMan
2004-09-07, 22:29:05
Was willst du mir jetzt damit sagen?

Daß man bei unterschiedlichen Architekturen und davon ausgehend bei unterschiedlichem Reagieren auf andere SMs nicht weiß, ob es jetzt an der Architektur liegt, oder am SM.

Dass das SM3 für Gamer in absehbarer Zeit nichts bringt ist schon ausdiskutiert(tokugawa).
Wenn du Entwickler bist greif zum NV40. Wenn du Gamer bist, bringt SM3 für dich in den nächsten 1-2 Jahren keine nennenswerten Vorteile.

Du vergißt das vielleicht. Vielleicht ist schön, da vielleicht einem Hintertürchen läßt und nebenbei vielleicht dafür sorgt, daß man seine Meinung charmanter und weniger polarisierend anbringen kann.

Vielleicht fetzt :up:

Gast
2004-09-07, 22:38:05
Daß man bei unterschiedlichen Architekturen und davon ausgehend bei unterschiedlichem Reagieren auf andere SMs nicht weiß, ob es jetzt an der Architektur liegt, oder am SM.



Du vergißt das vielleicht. Vielleicht ist schön, da vielleicht einem Hintertürchen läßt und nebenbei vielleicht dafür sorgt, daß man seine Meinung charmanter und weniger polarisierend anbringen kann.

Vielleicht fetzt :up:

Exakt, so meinte ich das MMM. Wobei man natürlich berücksichtigen müsste wenn der R520 auf dem Markt ist das er SM3 anders macht als NV40.

Bei DX Games könnte das mit 1-2 Jahren zutreffen, bei OGL vielleicht nicht. Zumindest bei der Doom3 Engine könnte ich mir vorstellen das JC die Engine so gestaltet hat das mehr "SM3" (ich weiss das man DX Termini nicht auf OGL übertragen kann, mache es aber in diesem Fall trotzdem weil es für die Beschreibung was SM3 mehr kann ggü SM2 einfacher ist) hinzugefügt werden kann. Schliesslich ist die Engine schon seit einiger Zeit ein paar mal lizensiert und er wäre blöd wenn er sie nicht vernünftig erweiterbar gestaltet hätte.

Tigerchen
2004-09-08, 06:27:30
Exakt, so meinte ich das MMM. Wobei man natürlich berücksichtigen müsste wenn der R520 auf dem Markt ist das er SM3 anders macht als NV40.

Bei DX Games könnte das mit 1-2 Jahren zutreffen, bei OGL vielleicht nicht. Zumindest bei der Doom3 Engine könnte ich mir vorstellen das JC die Engine so gestaltet hat das mehr "SM3" (ich weiss das man DX Termini nicht auf OGL übertragen kann, mache es aber in diesem Fall trotzdem weil es für die Beschreibung was SM3 mehr kann ggü SM2 einfacher ist) hinzugefügt werden kann. Schliesslich ist die Engine schon seit einiger Zeit ein paar mal lizensiert und er wäre blöd wenn er sie nicht vernünftig erweiterbar gestaltet hätte.

Wozu? Der nV40 kann lange Shaderprogramme gar nicht schnell genug abarbeiten. Mit branching schon mal gar nicht. Einen schnellen Shooter mit SM 3.0 Shadern ist ein Wiederspruch in sich. Vor allem wo Doom3 schon mit seinen DX7 Technologieleveleffekten jede Grafikkarte ans Limit treibt.

aths
2004-09-08, 15:00:26
Spielt keine Rolle mehr. Der Treiber jagt inzwischen sowieso alles durch den Optimierer. Habe das gerade erst selbst auspropiert. Das gewählte Zielprofil hatte keine Auswirkungen auf die Performances. Ausgezeichnet – die Info nehme ich noch in einen gewissen 3DC-Artikel :)

aths
2004-09-08, 15:03:13
[COLOR="#000088"]Vor allem wo Doom3 schon mit seinen DX7 Technologieleveleffekten jede Grafikkarte ans Limit treibt. Nur einige Shader-Effekte sind noch DX7-Technologielevel. In bestimmten Situationen könnte Branching, sofern lange Shader eingesetzt werden, auch Performancevorteile bringen. Shooter und SM 3.0 auf NV40 ist nicht per se ein Widerspruch.

betasilie
2004-09-08, 15:12:48
Shooter und SM 3.0 auf NV40 ist nicht per se ein Widerspruch.
Wieso?

Demirug
2004-09-08, 15:14:41
Ausgezeichnet – die Info nehme ich noch in einen gewissen 3DC-Artikel :)

In dem Fall muss ich dann aber noch Ergänzen das es eine Auswirkung haben kann wenn man aufgrund des besseren Profils mit weniger Anweisungen auskommt. Mir ging es lediglich um die Frage der Sortierung.

Für die FX gilt dann weiterhin auch noch das der gleiche Shader als 1.X fast immer merklich schneller ist als die entsprechenden 2.X Version. Da damit aber ein Wechsel der Genauigkeit verbunden ist macht der Treiber sowas nicht von aleine.

Gast
2004-09-08, 15:44:49
Wozu? Der nV40 kann lange Shaderprogramme gar nicht schnell genug abarbeiten. Mit branching schon mal gar nicht. Einen schnellen Shooter mit SM 3.0 Shadern ist ein Wiederspruch in sich. Vor allem wo Doom3 schon mit seinen DX7 Technologieleveleffekten jede Grafikkarte ans Limit treibt.


Muss ja nicht auf Doom3 beschränkt sein. Die Engine wurde schon lizensiert und je nachdem was die Leute daraus machen kann ich mir sehr wohl vorstellen das wir da noch einiges sehen werden. Siehe Q3 Engine.
Wer weiss was Nvidia eventuell da noch an Extensions in der Hinterhand hat.

Majestic
2004-09-08, 16:53:24
Wozu? Der nV40 kann lange Shaderprogramme gar nicht schnell genug abarbeiten. Mit branching schon mal gar nicht. Einen schnellen Shooter mit SM 3.0 Shadern ist ein Wiederspruch in sich. Vor allem wo Doom3 schon mit seinen DX7 Technologieleveleffekten jede Grafikkarte ans Limit treibt.


Liegt das einfach an den dann sehr langen Shadern, das der Nv40 dies deiner Meinung nicht schaffen würde?
Wenn dem so ist... Wie siehts denn mit der Nachfolgegeneration NV50/R520 aus? Haben die denn genug Rechenleistung um einen Shader 3.0 Spiel schnell genug darzustellen? Sind überhaupt außer Gerüchten schon definitive technische Daten über diese Chips vorhanden?

aths
2004-09-08, 19:15:17
Wieso?Wieso sollte es denn?

aths
2004-09-08, 19:16:21
In dem Fall muss ich dann aber noch Ergänzen das es eine Auswirkung haben kann wenn man aufgrund des besseren Profils mit weniger Anweisungen auskommt. Mir ging es lediglich um die Frage der Sortierung. Ja, mir auch.

Dann gilt aber auch, dass der Optimizer es noch nicht schafft, alle Instruktionen bei denen es Sinn machen würde, entsprechend zusammenzufassen.

Demirug
2004-09-08, 19:23:08
Ja, mir auch.

Dann gilt aber auch, dass der Optimizer es noch nicht schafft, alle Instruktionen bei denen es Sinn machen würde, entsprechend zusammenzufassen.

Das sind eher so Sache wie Predication die er nicht nachträglich einfügen kann.

aths
2004-09-08, 19:46:53
natürlich gibt es die Features. Nur die gab es auch schon in ähnlicher Form ( US 1, SM2.0a ...) beim NV3x und sie wurden von denselben Leuten in den Himmel gelobt. Was es gebraucht hat haben wir ja gesehen.Ja: NV35 kann mit R350 mindestens mithalten. Obwohl er in anderen Spielen, die Pixelshader verwenden, gegenüber R350 immer ein Nachsehen hat.

Und beim NV40 gibt es bisher auch keine Belege dafür dass diese neuen Features ( z.b. Ultrashadow II ) viel bringen. Benchmarks (z.b. in D3 mit deaktivierten Schatten ) und Aussagen von einigen Usern hier und in anderen Foren, bzw. die Geschichte mit dem Shaderreplacement ( siehe anderer Thread ) deuten eher auf was anderes hin. Das mit dem Shaderreplacement ist nicht bewiesen. Würde NV das tun, bliebe trotzdem ein Vorteil für den NV40, wenn auch R420 mit Shaderreplacement gebencht wird. (Siehe Humus' Tweak.) Das mit dem Shaderreplacement ist eine Vermutung. Wobei ich es für unrealistisch halte, dass NV damit so deutlich was rausholen könnte, wie der NV40 den R420 taktnormalisiert outperformt.

Kann man die Shader nicht selbst ersetzen, so ähnlich wie beim Humus-Tweak? Dann ließe sich doch nachprüfen, ob NV Shaderreplacement betreibt.

Dass NV40 durch die Pixelshader-Architektur gewinnt, halte ich für wenig wahrscheinlich. Denn in anderen Tests zeigt sich, dass der Mehrtakt vom R420 hin und wieder zum Vorteil für die Radeon führt, der NV40 also mit der stärkeren Pro-Takt-Leistung nicht immer den Taktunterschied ausgleichen kann.

Allerdings wird in Doom3-Shadern öfters normalisiert, und dabei FP16 erlaubt. Hier könnte der NV40 mit der dedizierten NRM_PP-Einheit natürlich ordentlich Boden gut machen – effektiv kostet NRM_PP keinen Takt (da die Ausführung parallel zu den anderen Berechnungen stattfindet) während R420 2 oder 3 Takte daran zu tun hat. Doom3 könnte mit dazu beigetragen haben, dass der NV40 diese (imo sinnvolle) Extra-Unit bekam. (Normalisieren muss man häufiger, und auch für hochwertiges Bumpmapping reicht _PP meistens aus.)

Ich glaube kaum das ATI gesagt hat SM 3.0 sei sinnlos, sonst würden sie ja kaum was ähnliches ( SM2.0b, bzw SM3.0 in der nächsten Generation ) anstreben. In vielen Kurzinterviews äußerten sich PR-Leute so, dass man jetzt noch kein SM 3.0 brauchen würde, und die Radeon alles rendern könne was die Konkurrenz mit 3.0 schaffen würde. Allerdings ist diese Behauptung objektiv falsch, denn gegenüber 2_B kann man mit 3_0 doch mehr machen. Huddy lässt das, wenn man das Blabla mal wegschneidet, auch durchscheinen, dass er 3.0 ziemlich gut findet. Ich denke (auch wenn Huddy selbst darauf keinen Einfluss haben wird) dass R520 den 3.0-Standard klar übererfüllt und vor allem effizientes dynamisches Branching anbieten wird.