PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Shader 2.0 zu 3.0


Seiten : [1] 2

redy84
2006-02-27, 22:40:07
Kann jemand mir anhand von screens mal zeigen inwiefern sich nun was ändert.

ich höre immer nur nim lieber 3.0.

würde jedoch gerne mal sehen wo genau der unterschied liegt.

am besten vom selben hersteller ati- ati
bzw. nvidia - nvidia

Alles in gleichen Auflösungen

rokko
2006-02-27, 22:42:32
Ich weis auch net was es damit auf sich hatt.
Vielleicht findet sich ja mal jemand der anhand einer Bilder erklären kann was der Unterschied ist. :smile:

AnarchX
2006-02-27, 22:48:56
Mit Bildern lässt sich meist der Unterschied nicht so gut erkären, auf dem Papier erkennt man erst die Stärken von SM3.0 gegenüber SM2.0 .

Nerothos
2006-02-27, 22:49:32
Wenn ihr echt nur Bilder sucht, dann sei euch dieser Artikel (http://www.tomshardware.com/2006/01/13/new_3d_graphics_card_features_in_2006/) ans Herz gelegt.
Wollt ihr aber technische Infos, dann bemüht mal die SuFu. Da gab's nämlich in den letzten Wochen erst 2 Threads (an die ich mich erinnern kann) zu...

Kladderadatsch
2006-02-27, 22:49:40
es können imo längere shader verarbeitet werden. ps2 wird performanter, bzw. schneller verarbeitet.

Gast
2006-02-27, 22:50:00
SM3 ist kein Effekt, den man einfach so auf einem Screenshot zeigen kann. Ich empfehle dir einfach mal ein wenig zu googeln.

Gast
2006-02-27, 22:52:20
der größte unterschied ist nicht das shadermodel an sich

das problem ist das einige entwickler ihr game für sm3 auslegen
und für sm2 nur quasi einen erstz-renderpfad, wo einige effekte fehlen

zB aoe3
da kann man ohne sm3 die shaderquali nicht auf very high stellen

Gast
2006-02-27, 22:52:44
SM3 kann man nicht auf bildern zeigen wie anti-aliasing oder AF.

stark verinfacht gesagt erhöht sich die programmierbarkeit der hardware sehr stark, was man daraus macht hängt eben vom entwickler ab.

Nerothos
2006-02-27, 22:54:11
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=276890

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=253726

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=225783

Odal
2006-02-27, 23:14:14
Wenn ihr echt nur Bilder sucht, dann sei euch dieser Artikel (http://www.tomshardware.com/2006/01/13/new_3d_graphics_card_features_in_2006/) ans Herz gelegt.
Wollt ihr aber technische Infos, dann bemüht mal die SuFu. Da gab's nämlich in den letzten Wochen erst 2 Threads (an die ich mich erinnern kann) zu...

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=270258&highlight=2006
ach der DAU Artikel, da passen nicht mal die Bilder zu den Über(Unter)schriften

Das einzige auffällige Beispiel für SM3 (+HDR) ist Age of Empires 3

http://www.forumdeluxx.de/forum/attachment.php?attachmentid=19634&stc=1&d=1140954616
http://www.forumdeluxx.de/forum/attachment.php?attachmentid=19633&stc=1&d=1140954616

redy84
2006-02-27, 23:16:02
sowas wollt ich

danke euch allen :-)

Kladderadatsch
2006-02-27, 23:16:24
Das einzige auffällige Beispiel für SM3 (+HDR) ist Age of Empires 3

http://www.forumdeluxx.de/forum/attachment.php?attachmentid=19634&stc=1&d=1140954616
http://www.forumdeluxx.de/forum/attachment.php?attachmentid=19633&stc=1&d=1140954616
wegen dem hdrr? das sei ausdrücklich kein sm3-feature.

@redy84
unterschiede gibts auch bei der wasserdarstellung in pacific figthers und imo in silent hunter 3. ich wüsste jetzt aber nicht, wo man vergleichsshots herbekäme...

AnarchX
2006-02-27, 23:21:56
wegen dem hdrr? das sei ausdrücklich kein sm3-feature.


Nein, z.B. die Schatten der Schiffe ist hier der auffälligste Unterschied.

Nerothos
2006-02-27, 23:30:10
@Odal
Jo, der DAU Artikel ;) Was anderes fiel mir nicht ein...

Obwohl ich den SM3 Shot bei Age 3 beschissen finde. Sieht aus, wie ein Drogentraum mit all dem Rumgeleuchte. Und ein bisschen... ich weiß nicht, wie ich's beschreiben soll... geblurrt?
Auf jeden sieht der SM2 Shot (bis auf die Schatten) für mich schöner/realistischer aus.

rokko
2006-02-27, 23:31:11
Alos hätts jetzt nix vom Schatten geschrieben hätt ichs net mal gesehn.
Ist das alles was man bei SM3 kauft?
Als DAU hab ich auch erhlich gesagt keine Lust mich durch techn. Firlefanz zu arbeiten den ich sowieso nicht verstehe.

Ich mein ich geh davon das SM3 besser ist als SM2. Begründen kann ich das aber nicht. Das ist wohl eher Marketing das ich auf die höhere Numme reinfalle.
Oder ist SM2 auf SM3 eher so zu erklären wie SSE?
An irgendwas greifbaren müsste man es doch erklären können oder nicht?

Odal
2006-02-27, 23:39:18
naja SM3 dient auch zur Geschwindigkeitssteigerung in einer HAndvoll Games (z.b. Farcry per Patch nachgeliefert) dann bekommt man schonmal so bis zu 10% mehr FPS als im PS2.0 Pfad (auf der selben Karte). Allerdings gibts für Farcry auch einen PS2.x Pfad (per Patch) welcher Karten wie X800er etc. beschleunigen. Und das SM2 Karten in Farcry langsamer als SM3 Karten sind kann man absolut nicht sagen wenn man sich die Benchmarks anguckt.
Alles in allem kommt es auf die Leistungsklasse der Karte an ob SM3 soviel Sinn mach oder es nicht eine SM2 (PS2.b) Karte zu verwenden die mehr Rohpower hat. Wenn man im Fall von Age of Empires 3 etwas anderen (mehr) Bildcontent angezeigt bekommt sacken die FPS im SM3 Pfad oft ab (wird ja auch mehr dargestellt)
Die Screens oben wurden übrigens auf einer 6800Ultra auf 800x600 gemacht ^^

tokugawa
2006-02-28, 00:41:19
Ich seh's so: SM 3.0 bringt vor allem Entwicklern was (und damit über Umwege auch den Spielen).

Man kann es natürlich nicht einfach so zeigen. Aber mit SM 3.0 sind einfach neue Techniken möglich (das ist unbestritten), die mit SM 2.0 gar nicht, oder nur schwer gehen.

Viele der Effekte auf www.gametools.org (nur als Video ansehbar) setzen Shader Model 3.0 vorraus, und das sind State-of-the-Art-Techniken die erst in Spielen zu sehen sein werden.

Beispiel etwa sind diverse Raytracing-Effekte, etwa realistische Doppelglasbrechung usw.



Für den DAU: In der Echtzeitgrafik ist sowieso das höchste Prinzip, möglichst viel zu faken/zu betrügen. D.h. mit möglichst wenig Berechnungen "gute Grafik" zu ermöglichen (je weniger Berechnungen, desto schneller). Mit SM 3.0 müsste man weniger betrügen als bei SM 2.0, sondern könnte mehr "tatsächlich" ausrechnen. Das bedeutet nicht automatisch bessere Grafik vom Ästhetikstandpunkt (da spielen Faktoren wie talentierte Artists usw. auch rein), aber es ist bessere Grafik vom Technikstandpunkt.

Odal
2006-02-28, 01:07:30
So ist es. Die Frage für den Gamer ist nun die: Die erhoffte Schwemme an SM3 Spielen blieb 2005 und bisher auch 2006 aus. Nun muss sich der Gamer fragen ob er für die realistischeren Schattendetails etc. wie auf dem ersten AoE3 Bild zu sehen bis zu 40% (siehe screenshots) Performance opfern kann oder nicht sowieso diese Details herunterstellen muss bei zukünftigen Spielen (FEAR läuft ja selbst auf 7800GT schon recht zäh bei max. details). Dann kommt er zur nächsten Frage: Laufen zukünftige Spiele denn überhaupt noch performant genug um sich als Gamer solche Details leisten zu können? Diese Frage hängt davon ab in welcher Leistungsklasse man sich Hardware zulegt. Da es sehr viele SM2 Karten gibt, werden Spiele erstmal noch eine ganze Weile auch einen SM2 Modus anbieten.

Hamilkar
2006-02-28, 02:44:15
hät nicht gedacht das der unterschied so groß ist, schöne bilder

tombman
2006-02-28, 06:19:16
hehe, so geil, der N..b wollte anhand von pics den Unterschied zwischen sm 3.0 und 2.x sehen, man sagt ihm zehnmal, daß das nicht der Punkt ist, N..b liegt auf der Lauer bis endlich jemand pics postet, freut sich und haut ab -> er hatte was er wollte und weiß weniger als vorher :ubash3:

Odal
2006-02-28, 09:15:57
Naja ich denke mal er wollte wissen was dem Normalgamer SM3 bietet ohne sich dabei für technische Details zu interessieren. Also sozusagen was dabei hinten rauskommt.

Tigerchen
2006-02-28, 09:39:30
@Odal
Jo, der DAU Artikel ;) Was anderes fiel mir nicht ein...

Obwohl ich den SM3 Shot bei Age 3 beschissen finde. Sieht aus, wie ein Drogentraum mit all dem Rumgeleuchte. Und ein bisschen... ich weiß nicht, wie ich's beschreiben soll... geblurrt?
Auf jeden sieht der SM2 Shot (bis auf die Schatten) für mich schöner/realistischer aus.

Für mich sehen sogar die SM 2.0 Schatten besser aus.

Tigerchen
2006-02-28, 09:41:47
Naja ich denke mal er wollte wissen was dem Normalgamer SM3 bietet ohne sich dabei für technische Details zu interessieren. Also sozusagen was dabei hinten rauskommt.

Wenig kommt da bei raus. Manchmal nur Verschlimmbesserungen aber immer ein unfassbarer Performanceverlust.

Zocker_28
2006-02-28, 12:19:51
Seh ich auch so , das unterste Bild mit SM 2.0 find ich besser , das andere sieht aus wie Spielzeug Grafik.

Gast
2006-02-28, 12:21:30
Nochmal für alle: SM3 ist kein Effekt, den man einfach so auf Screenshots zeigen kann.

Neomi
2006-02-28, 12:29:23
Wenig kommt da bei raus. Manchmal nur Verschlimmbesserungen aber immer ein unfassbarer Performanceverlust.


Immer ein Performanceverlust? Ja sicher, wenn man zwei unterschiedliche Effekte miteinander vergleicht. Auf der einen Seite (PS 3.0) ein voll ausgebauter Effekt, auf der anderen (PS 2.0) einer, der soweit abgespeckt wurde, daß er mit den doch recht starken Limitierungen noch auskommt. Da ist doch kein fairer Vergleich möglich. Mag ja sein, daß der Effekt, der hier als Pixelshader 3.0 umgesetzt wurde, überladen ist und schlechter aussieht, aber das tut nichts zur Sache. Nicht 3.0 ist eine Verschlimmbesserung gegenüber 2.0, sondern Effekt 2 gegenüber Effekt 1.

Wenn du ein und denselben Shader einmal als 2.0 und einmal als 3.0 compilierst, dann wirst du keine Situation finden, wo die Version 3.0 langsamer ist oder schlechter aussieht. Im Gegenteil, ein Pixelshader 3.0 kann durch Arbitrary Swizzling (u.a.) den ein oder anderen Befehl sparen. Zumindest auf nVidia-Hardware kann ein Pixelshader 3.0 sogar besser aussehen als ein ansonsten identischer 2.0, da die Farbregister mit höherer Präzision interpoliert werden.

Kurz: du urteilst über die Technik, obwohl dir bloß der Content nicht gefällt.

Spasstiger
2006-02-28, 12:49:42
SM3 eröffnet durch die erweiterten Programmiermöglichkeiten (Dynamic-Branching, lange Shadercodes) viele Ansätze, die Performance zu verbessern, ohne gleich auf neue Effekte springen zu müssen.
Z.B. wird in letzter Zeit verstärkt auf Parallax-Mapping gesetzt, um realistischere Oberflächeneffekte zu ermöglichen. Parallax-Mapping lässt sich zwar problemlos mit SM2.0 umsetzen, doch bietet SM3.0 die Möglichkeit, das Verfahren auf Parallax-Occlusion-Mapping zu erweitern. Dies vereint die Performancevorteile von Normal-Mapping und den optischen Vorteil von Parallax Mapping. Außerdem sehe ich noch als Vorteil, dass Parallax Occlusion Mapping weniger anfällig für Shaderaliasing sein sollte.
Parallax Occlusion Mapping wird in der aktuellen ATI-Grafikdemo ToyShop verwendet.

RLZ
2006-02-28, 13:10:11
Parallax-Mapping lässt sich zwar problemlos mit SM2.0 umsetzen, doch bietet SM3.0 die Möglichkeit, das Verfahren auf Parallax-Occlusion-Mapping zu erweitern. Dies vereint die Performancevorteile von Normal-Mapping und den optischen Vorteil von Parallax Mapping.
Wohl kaum.
POM ist einer der Heightmap-Raycasting Varianten und damit wesentlich langsamer. Es liegt im Bereich der anderen entsprechenden Varianten aka Reliefmapping etc.

Ich zitier mal aus dem Gamedev-Thread (http://www.gamedev.net/community/forums/topic.asp?topic_id=372739) über Cone Steep Mapping.
On my GeForce 6600 the results were as follows
RM @ 15 steps = 25 FPS and has the most visible artifacts
POM @ 55 steps = 28 FPS and looks much better than RM
CSM_exact = 29 FPS and looked the best

Dort gibt es auch ein Demo um die Algos zu vergleichen.
Außerdem sehe ich noch als Vorteil, dass Parallax Occlusion Mapping weniger anfällig für Shaderaliasing sein sollte.
Sehe ich keinen Grund warum dies so sein sollte.

Spasstiger
2006-02-28, 13:29:24
Wohl kaum.
POM ist einer der Heightmap-Raycasting Varianten und damit wesentlich langsamer. Es liegt im Bereich der anderen entsprechenden Varianten aka Reliefmapping etc.
Ist es also vielmehr ein performanterer Ersatz für Relief-Mapping?

Sehe ich keinen Grund warum dies so sein sollte.
In der ToyShop-Demo von ATI wird ja ab einer gewissen Entfernung nur noch Normalmapping verwendet. Und wenn POM jetzt sogar in Richtung Relief-Mapping geht, dann sollte doch das Normalmapping im Hintergrund die Tendenz zum Aliasing deutlich vermindern (Relief-Mapping an sich habe ich bisher auch nur mit extremen Aliasing-Artefakten gesehen).

RLZ
2006-02-28, 13:43:36
Ist es also vielmehr ein performanterer Ersatz für Relief-Mapping?
So könnte man das sagen.
Es gibt momentan dutzende Algos, die alle zum Ziel haben den exakten Schnittpunkt mit der Heightmap zu finden.
Parrallax-Mapping schätzt diesen Schnittpunkt dagegen nur sehr grob ab. Dadurch ist es wesentlich schneller, aber produziert bei flachen Winkeln und hochfrequenten Heightmaps immer stärkere Fehler, die zu einem Verlust der Illusion führen.


In der ToyShop-Demo von ATI wird ja ab einer gewissen Entfernung nur noch Normalmapping verwendet. Und wenn POM jetzt sogar in Richtung Relief-Mapping geht, dann sollte doch das Normalmapping im Hintergrund die Tendenz zum Aliasing deutlich vermindern (Relief-Mapping an sich habe ich bisher auch nur mit extremen Aliasing-Artefakten gesehen).
Einen solchen Übergang könnte man genauso mit jedem anderen Algo in dieser Richtung machen.
Der Trick besteht eigentlich nur darin die Höhe der Heightmap mit einem Faktor ab einer gewissen Entfernung stetig zu reduzieren und dann schliesslich bei Höhe 0 nur noch NormalMapping zu verwenden.

Imo ist bei der Toyshopdemo der Übergang noch viel zu nah. Ich kann ihn auf jeden Fall problemlos erkennen.

Odal
2006-02-28, 14:12:59
Nochmal für alle: SM3 ist kein Effekt, den man einfach so auf Screenshots zeigen kann.


Das ist ja alles schön und gut. Mit Screenshots kann man aber zerigen welche zusätzlichen Details damit umgesetzt werden. Das SM3 zu Optimierungen usw. gebraucht werden kann und es dem Entwickler mehr Freiraum lässt wissen wir ja alle, nur das interessiert den Gamer nicht. Der möchte wissen was dabei am Ende am Bildschirm heraus kommt. Dazu taugen die AoE 3 Screens sehr gut, da es das einzige Spiel ist wo einem gross auffällt das was anderes dabei herauskommt (da mehr/andere effekte genutzt werden). Wenn sich dann der Gamer noch für Performancesteigerungen durch SM3 interessiert, interessiert ihn nicht sowas wie Branching... er guckt sich z.b. hier Benchmarks (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7300_gs/13/#abschnitt_far_cry) an und sieht das auch "alte" SM2 Karten mit SM3 Karten gleicher Leistungsklasse sehr gut mithalten (bzw. diese durch mehr Rohpower übertreffen). Da SM3 ab dem R520 sowieso "verbaut" ist, braucht man sich über SM3 ja oder nein bei Karten ab der Leistungsklasse R520 sowieso keine Gedanken mehr machen.

Gast
2006-02-28, 14:18:10
Wir sind hier aber nicht im Computerbildforum. Ich bleibe dabei: Mit Screenshots kann man den Unterschied zwischen SM3 und SM2 nicht zeigen, erst recht nicht im Hinblick auf zukünftige Applikationen.

Das einzige, was man zeigen kann, ist, was AOE3 aus SM3 macht. Das ist heute noch nicht viel, in Zukunft wird es aber anders aussehen, wenn SM2 nur noch ein billiger Fallback ist.

Odal
2006-02-28, 14:26:10
Wir sind hier aber nicht im Computerbildforum. Ich bleibe dabei: Mit Screenshots kann man den Unterschied zwischen SM3 und SM2 nicht zeigen, erst recht nicht im Hinblick auf zukünftige Applikationen.


Es interessiert sich nicht jeder 3DCenter Leser für den Quellcode von Shadern. Wenn man etwas sehen will was mit Optimierungen zutun hat guckt man sich Benchmarks an.


Das einzige, was man zeigen kann, ist, was AOE3 aus SM3 macht. Das ist heute noch nicht viel, in Zukunft wird es aber anders aussehen, wenn SM2 nur noch ein billiger Fallback ist.

Dafür läuft es aber heute schon ziemlich beschissen, wenn da später noch mehr draus gemacht werden wird, werden noch längere komplexere Shader verwendet und es wird noch beschissener laufen. So das man mit NV40 Karten (vielleicht auch mit G70 und R520 Karten) nur noch im "billigen Fallback" flüssig spielen kann. Ist doch wie mit den FXen die sind meistens einfach zu schlap für DX9 und SM2 so das man meistens im DX8.1 Modus mit PS1.4 spielen muss statt PS2.0.

tokugawa
2006-02-28, 15:00:53
Wir sind hier aber nicht im Computerbildforum.


Ganz genau meine Meinung!

Ich finde man kann auch von selbstdeklarierten DAUs hier erwarten dass sie etwas weiter als über den Gamer-Tellerrand blicken und endlich einsehen dass wenn eine Technologie den Entwicklern etwas bringt, es über Umwege auch zurückkommt und den Gamern was bringt.

Shader Model 3.0 ist heute noch kein Must-Have-Feature, aber es deswegen per se als unnötig zu bezeichnen grenzt an Schwachsinn.


Für mich sehen sogar die SM 2.0 Schatten besser aus.


Wenig hast du gesehen. Wenig.



Wenig kommt da bei raus. Manchmal nur Verschlimmbesserungen aber immer ein unfassbarer Performanceverlust.


Das ist so generalisiert ein absoluter Blödsinn.

Ich hab schon einmal erwähnt: Ob was "schöneres" dabei rauskommt, ist eine andere Diskussion (geht in Ästhetik und andere nichttechnische Geschmacksdiskussionen). Technisch ist die Grafik aber mit SM 3.0 eindeutig besser.

Natürlich stellt sich hier die Frage ob man die Technik vor die Ästhetik stellen soll oder nicht, aber das ist wiederum eine andere Diskussion (können wir ruhig diskutieren, ist aber wie gesagt off-topic).

Tigerchen
2006-02-28, 16:55:10
Immer ein Performanceverlust? Ja sicher, wenn man zwei unterschiedliche Effekte miteinander vergleicht. Auf der einen Seite (PS 3.0) ein voll ausgebauter Effekt, auf der anderen (PS 2.0) einer, der soweit abgespeckt wurde, daß er mit den doch recht starken Limitierungen noch auskommt. Da ist doch kein fairer Vergleich möglich. Mag ja sein, daß der Effekt, der hier als Pixelshader 3.0 umgesetzt wurde, überladen ist und schlechter aussieht, aber das tut nichts zur Sache. Nicht 3.0 ist eine Verschlimmbesserung gegenüber 2.0, sondern Effekt 2 gegenüber Effekt 1.

Wenn du ein und denselben Shader einmal als 2.0 und einmal als 3.0 compilierst, dann wirst du keine Situation finden, wo die Version 3.0 langsamer ist oder schlechter aussieht. Im Gegenteil, ein Pixelshader 3.0 kann durch Arbitrary Swizzling (u.a.) den ein oder anderen Befehl sparen. Zumindest auf nVidia-Hardware kann ein Pixelshader 3.0 sogar besser aussehen als ein ansonsten identischer 2.0, da die Farbregister mit höherer Präzision interpoliert werden.

Kurz: du urteilst über die Technik, obwohl dir bloß der Content nicht gefällt.

Ohne Content ist die Technik wertlos. Mich interessiert nur was ich auf dem Bildschirm sehe.

Tigerchen
2006-02-28, 16:58:50
SM3 eröffnet durch die erweiterten Programmiermöglichkeiten (Dynamic-Branching, lange Shadercodes) viele Ansätze, die Performance zu verbessern, ohne gleich auf neue Effekte springen zu müssen.
Z.B. wird in letzter Zeit verstärkt auf Parallax-Mapping gesetzt, um realistischere Oberflächeneffekte zu ermöglichen. Parallax-Mapping lässt sich zwar problemlos mit SM2.0 umsetzen, doch bietet SM3.0 die Möglichkeit, das Verfahren auf Parallax-Occlusion-Mapping zu erweitern. Dies vereint die Performancevorteile von Normal-Mapping und den optischen Vorteil von Parallax Mapping. Außerdem sehe ich noch als Vorteil, dass Parallax Occlusion Mapping weniger anfällig für Shaderaliasing sein sollte.
Parallax Occlusion Mapping wird in der aktuellen ATI-Grafikdemo ToyShop verwendet.

HDR geistert auch schon seit Jahren in einer ATI SM 2.0 Demo durch die Gegend. Bis dein Occlusion Mapping mal eingesetzt wert hat eh jeder ne SM 3.0 Karte. Parallax mapping ist mit SM 2.0 sowieso kein Problem. Serious Sam 2 ist mein Zeuge.

Tigerchen
2006-02-28, 17:06:05
Das ist ja alles schön und gut. Mit Screenshots kann man aber zerigen welche zusätzlichen Details damit umgesetzt werden. Das SM3 zu Optimierungen usw. gebraucht werden kann und es dem Entwickler mehr Freiraum lässt wissen wir ja alle, nur das interessiert den Gamer nicht. Der möchte wissen was dabei am Ende am Bildschirm heraus kommt. Dazu taugen die AoE 3 Screens sehr gut, da es das einzige Spiel ist wo einem gross auffällt das was anderes dabei herauskommt (da mehr/andere effekte genutzt werden). Wenn sich dann der Gamer noch für Performancesteigerungen durch SM3 interessiert, interessiert ihn nicht sowas wie Branching... er guckt sich z.b. hier Benchmarks (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7300_gs/13/#abschnitt_far_cry) an und sieht das auch "alte" SM2 Karten mit SM3 Karten gleicher Leistungsklasse sehr gut mithalten (bzw. diese durch mehr Rohpower übertreffen). Da SM3 ab dem R520 sowieso "verbaut" ist, braucht man sich über SM3 ja oder nein bei Karten ab der Leistungsklasse R520 sowieso keine Gedanken mehr machen.

Das ist korrekt. Nur erinnere ich mal daran welche Versprechungen von aths und seinen Jüngern gemacht wurden. Da wurde so getan als wenn in Null-komma-nix die SM 3.0 Shader den SM 2.0 Shadern den Garaus machen würden. Und die Wirklichkeit? AOE sieht mit 2.0 Shadern besser aus und performt auch noch besser. Andere Spiele die irgendwelche Unterschiede zeigen kann man an 2 Händen abzählen. Und dafür soviel Tamtam und seitenlange Artikel und Threads.

Tigerchen
2006-02-28, 17:10:42
Wenig hast du gesehen. Wenig.

Das ist so generalisiert ein absoluter Blödsinn.

Ich hab schon einmal erwähnt: Ob was "schöneres" dabei rauskommt, ist eine andere Diskussion (geht in Ästhetik und andere nichttechnische Geschmacksdiskussionen). Technisch ist die Grafik aber mit SM 3.0 eindeutig besser.

Natürlich stellt sich hier die Frage ob man die Technik vor die Ästhetik stellen soll oder nicht, aber das ist wiederum eine andere Diskussion (können wir ruhig diskutieren, ist aber wie gesagt off-topic).

Du bringst es auf den Punkt. Technik als reinen Selbstzweck lehne ich ab. Ist wie bei den Frauen. Was nutzt mir die tollste Braut wenn sie nicht gescheit b*ms*n (zensiert) kann. :P

ShadowXX
2006-02-28, 17:25:44
Du bringst es auf den Punkt. Technik als reinen Selbstzweck lehne ich ab. Ist wie bei den Frauen. Was nutzt mir die tollste Braut wenn sie nicht gescheit b*ms*n (zensiert) kann. :P


Du willst den Fortschritt den SM3.0 bringt wohl unbedingt nicht sehen....

Es vereinfacht für die Programmierer das Arbeiten und ermöglicht dazu ein paar Sachen, die mit SM2.0 nicht möglich sind (bzw. nur mit wesentlich mehr aufwand).

Das reicht eigentlich schon, um diese zu Rechtfertigen.....

(Und wenn ATI SM3.0 schon früher gebracht hätte, als Sie es haben, dann hätten wir auch inzwischen schon mehr Titel die SM3.0 benutzen.....)

Fängst du bei SM4.0 (bzw. WGF20, D3D10...oder wies dann auch im Endeffekt immer heissen mag) dann wieder mit der gleichen Leier an?

Anders aufgezogen:
Würdest du lieber mit einer Sprache programmieren, die Branches kann oder lieber mit einer die keine Branches kann?

Hattest du lieber 1000 Zeilen Programmcode, die deine Sprache schluckt oder lieber 4000 Zeilen? (Zahlen sind willkürlich)

Nur um es mal an ein,zwei Punkten festzuzurren......

tokugawa
2006-02-28, 18:20:57
Du bringst es auf den Punkt. Technik als reinen Selbstzweck lehne ich ab. Ist wie bei den Frauen. Was nutzt mir die tollste Braut wenn sie nicht gescheit b*ms*n (zensiert) kann. :P


B*ms*n kann jeder Trottel :) (leider, wie man an der Anzahl der Trottel sieht)


Egal.

Es ist nicht Technik als Selbstzweck. Es ist Technik die es ermöglicht das Potential der Artists besser auszuschöpfen. Dass dem noch nicht so ist, liegt nicht an Shader Model 3.0, und ist diesem auch nicht anzulasten, wie du es tust.

Außerdem verwechselst du zwei Ebenen: die subjektive und die rational-objektive.

Die Technik an sich kann man rational diskutieren. Die ist mit Shader Model 3.0 eindeutig besser, genauer, weniger "betrogen" und gefakt.

Ob die Shader Model 3.0 Szenen jetzt wirklich schöner aussehen, ist Geschmackssache.

Ich hab genug SM 3.0 Zeug gesehen dass ich von Shader Model 3.0 überzeugt bin. Aber das muß alles erst in tatsächliche Spiele kommen.



Und hier eben auch ein Aspekt, den ich zwar schon erwähnt hab, aber nochmal betonen möchte: Den Spielern bringt's auch über Umwege etwas, wenn die Entwickler von SM 3.0 protifiteren. Denn wer macht denn die Spiele, hm?

Tigerchen
2006-02-28, 18:32:13
Du willst den Fortschritt den SM3.0 bringt wohl unbedingt nicht sehen....

Es vereinfacht für die Programmierer das Arbeiten und ermöglicht dazu ein paar Sachen, die mit SM2.0 nicht möglich sind (bzw. nur mit wesentlich mehr aufwand).

Das reicht eigentlich schon, um diese zu Rechtfertigen.....

(Und wenn ATI SM3.0 schon früher gebracht hätte, als Sie es haben, dann hätten wir auch inzwischen schon mehr Titel die SM3.0 benutzen.....)

Fängst du bei SM4.0 (bzw. WGF20, D3D10...oder wies dann auch im Endeffekt immer heissen mag) dann wieder mit der gleichen Leier an?

Anders aufgezogen:
Würdest du lieber mit einer Sprache programmieren, die Branches kann oder lieber mit einer die keine Branches kann?

Hattest du lieber 1000 Zeilen Programmcode, die deine Sprache schluckt oder lieber 4000 Zeilen? (Zahlen sind willkürlich)

Nur um es mal an ein,zwei Punkten festzuzurren......

Ich lehne SM 3.0 nicht ab. Es bringt alle von dir beschriebenen Verbesserungen. Ich möchte nur darauf hinweisen daß dieser Berg bisher nur kreiste um ein Mäuschen zu gebären. Ein bißchen weniger Wind um all die tollen Features die immer und vor allem sofort unabdingbar sein sollen wäre nicht schlecht.

tokugawa
2006-02-28, 18:35:18
Ich lehne SM 3.0 nicht ab. Es bringt alle von dir beschriebenen Verbesserungen. Ich möchte nur darauf hinweisen daß dieser Berg bisher nur kreiste um ein Mäuschen zu gebären. Ein bißchen weniger Wind um all die tollen Features die immer und vor allem sofort unabdingbar sein sollen wäre nicht schlecht.



Ach was. Für Entwickler ist SM 3.0 herrlich. Lass uns doch schwärmen drüber :)

rokko
2006-02-28, 19:11:33
Ist schon ganz neckisch wie sich hier gestritten wird.
Und dabei gings eigentlich darum zu erklären was denn der Unterschied geneu ist oder woran man es sehn könnte.

Was für die Entwickler besser ist kann mir egal sein. Entscheidend ist das was der Nutzer im Endeffekt wirklich davon hatt.
Wenn man aber den Nutzen weder sieht noch Performancemässig merkt was ist dann der Nutzen?
Scheint mir eher sowas wie die T&L Seifenblase zu sein.

tokugawa
2006-02-28, 19:29:27
Ist schon ganz neckisch wie sich hier gestritten wird.
Und dabei gings eigentlich darum zu erklären was denn der Unterschied geneu ist oder woran man es sehn könnte.

Was für die Entwickler besser ist kann mir egal sein. Entscheidend ist das was der Nutzer im Endeffekt wirklich davon hatt.


Und genau diese Einstellung ist kurzsichtig. Entwickler sind die, die die Spiele machen. Gamer wollen diese Spiele. Wenn Entwickler es einfacher haben und mehr Möglichkeiten haben, bringt das den Spielern auch was.

Damit mein ich natürlich dass die Technik an sich was bringt. Das heißt noch nicht dass ich Spielern per se eine SM 3.0 Karte empfehlen würde (zum derzeitigen Zeitpunkt auch nicht nötig).

Aber die Technologie SM 3.0 ist garantiert keine Ente - sie bringt den Spielern was, wenn auch nicht sofort (jede Technik muß erst mal ausgereizt werden, Erstgenerations-Konsolentitel sind auch nie so toll dass sie die Konsole ausreizen -> ähnlich ist das mit neuen Möglichkeiten die SM 3.0 bietet).

Aber wie gesagt, ich bin immer dafür die Dinge in der Gesamtheit zu sehen. Wenn man das tut dann kann man einfach nicht sagen dass SM 3.0 "nichts bringt", das ist schlichtweg falsch.

Ich kann's absolut nicht ausstehen wenn Leute immer in ihren Kästchen und Kategorien denken, ohne die größeren Zusammenhänge zu sehen.

LovesuckZ
2006-02-28, 20:13:23
Ein bißchen weniger Wind um all die tollen Features die immer und vor allem sofort unabdingbar sein sollen wäre nicht schlecht.


Je größer der Wind desto höher die schnellere Verfügbarkeit.

Neomi
2006-02-28, 20:53:44
Und die Wirklichkeit? AOE sieht mit 2.0 Shadern besser aus und performt auch noch besser.

Und die Wahrheit? AOE sieht mit abgespeckten Effekten besser aus und performt auch noch besser. Wobei das "bessere" Aussehen auch noch subjektiv ist. Wenn du schon nichts von der Technik weißt und wissen willst, dann urteile auch nicht darüber. Vor allem nicht anhand von Dingen, die mit der Technik selbst nicht wirklich was zu tun haben.

Daß das Shadermodel 2 besser und schneller ist als das Shadermodel 3, ist einfach absurd. Das ist genauso einzuordnen wie die Aussagen, daß 1024er Texturen detaillierter sind als 2048er (die stark geblurrt wurden), dafür aber die 2048er weniger Speicherplatz brauchen (bei entsprechenden Texturformaten).

aths
2006-02-28, 21:16:55
Ach was. Für Entwickler ist SM 3.0 herrlich. Lass uns doch schwärmen drüber :)Man kann offensichtlich von vielen Usern nicht den Durchblick erwarten, den Entwickler haben. Das ist imo auch kein Problem, ich gebe für mein Teil gerne zu, von Spieleprogrammierung fast nichts zu verstehen. Aber problematisch ist es, wenn die Leute ihre Unkenntnis nicht einsehen und stumpf ihre auf Unwissenheit basierende Meinung als Wahrheit in die Welt tragen.

Da empfinde ich es als sehr angenehm, dass Leute, die was auf dem Kasten haben – also auch du – einfach mal sagen, was Sache ist.

deekey777
2006-02-28, 21:29:43
[...]
Daß das Shadermodel 2 besser und schneller ist als das Shadermodel 3, ist einfach absurd. [...]
FEAR geht doch über SM 2.0 nicht hinaus, oder?

Gast
2006-02-28, 21:30:41
FEAR geht doch über SM 2.0 nicht hinaus, oder?

nein, es gibt "nur" SM2

Coda
2006-02-28, 21:46:40
FEAR geht doch über SM 2.0 nicht hinaus, oder?Was spielt das jetzt in diesem Zusammenhang für eine Rolle? FEAR hätte wohl durchaus von SM3 profitieren können, indem man mehr Lichtquellen pro Pass gerendert hätte o.ä.

Allein schon das Shadowmap-Dithering im neuen 3DMark sollte Argument genug für SM3 sein...

deekey777
2006-02-28, 22:14:20
Was spielt das jetzt in diesem Zusammenhang für eine Rolle?
Das:
FEAR hätte wohl durchaus von SM3 profitieren können, indem man mehr Lichtquellen pro Pass gerendert hätte o.ä.

Ich weiß nicht, ob es auch für Painkiller 1.6 gilt, aber zumindest für Far Cry 1.3 (1.2) brachte der SM 3.0 Pfad gegenüber dem SM 2.0 Pfad je nach Timedemo deutliche FPS-Steigerungen - und das 2004.

(Mein Posting war eh Klugscheißerei.)

Armaq
2006-02-28, 22:31:47
Eigentlich kann es dem User egal sein, wie die Entwickler zu einer Entwicklung stehen. Hauptsache ist doch das für ihn etwas sichtbares bei raus kommt.

LovesuckZ
2006-02-28, 22:37:33
Hauptsache ist doch das für ihn etwas sichtbares bei raus kommt.

Bezieht sich sichtbar auch auf schneller? ;)

Gast
2006-02-28, 22:42:00
Ist schon ganz neckisch wie sich hier gestritten wird.
Und dabei gings eigentlich darum zu erklären was denn der Unterschied geneu ist oder woran man es sehn könnte.

Was für die Entwickler besser ist kann mir egal sein. Entscheidend ist das was der Nutzer im Endeffekt wirklich davon hatt.
Wenn man aber den Nutzen weder sieht noch Performancemässig merkt was ist dann der Nutzen?
Scheint mir eher sowas wie die T&L Seifenblase zu sein.

Seh ich gleich. ich kauf mir nix um den coder glücklich zu machen. wenn es einen erkennbaren vorteil in optik oder perf bringt und zudem günstig ist, migrier ich. auf pc lief es doch immer so, ein neues feature wie physik, blur oder bullettime war schon daseinsberechtigung genug für eine fortsetzung mit nötigem hardwareupdate.

Gast
2006-02-28, 23:02:15
Zusammenfassung: shader 2.0 sieht zwar besser aus (aber wer braucht schon gute Optik solange die Technik geil ist:) dafür ist shader 3.0 besser zu programmieren. Schon lustig wenn man bedenkt wie manche hier 1000fach shader 3.0 als unbedingt notwendig angepriesen haben.
Bis zum Jahre 2007 reicht eine shader 2.0 karte locker aus.
Es werden noch viele spiele kommen bei denen die Optik mit shader 2.0 besser aussieht als mit shader 3.0.
Aber keine angst in 3-4 Jahren werden es die Programmierer schaffen shader Model 3.0 zu beherrschen.:))

Odal
2006-02-28, 23:08:18
Bezieht sich sichtbar auch auf schneller? ;)

Naja schaut man sich Farcry an so gibts ja den SM3 Pfad und den SM2 Pfad...klar gewinnen SM3 Karten mit dem SM3 Patch...das heisst aber nicht das sie schneller als andere SM2 Karten sind (X850XT zu 6800GT). Klar ist SM3 wichtig...das ist hier auch nicht die Frage...die Frage zielt eher darauf ab was SM3 bei Karten ala X850XT oder GF6800GT für den Spieler bringt. Und dort nämlich Augenscheinlich praktisdch nix.

Neomi
2006-02-28, 23:10:37
Zusammenfassung: shader 2.0 sieht zwar besser aus (aber wer braucht schon gute Optik solange die Technik geil ist:) dafür ist shader 3.0 besser zu programmieren. Schon lustig wenn man bedenkt wie manche hier 1000fach shader 3.0 als unbedingt notwendig angepriesen haben.
Bis zum Jahre 2007 reicht eine shader 2.0 karte locker aus.
Es werden noch viele spiele kommen bei denen die Optik mit shader 2.0 besser aussieht als mit shader 3.0.
Aber keine angst in 3-4 Jahren werden es die Programmierer schaffen shader Model 3.0 zu beherrschen.:))

Realitätsverlust? Shadermodel 2 kann nicht besser aussehen, da Shader keine Effekte sind. Und hier hat nicht ein einziger behauptet, daß SM3 unbedingt notwendig sei. Langsam gehen mir solche merkbefreiten Postings auf den Keks.

Das Shadermodel 3 kann ALLES, was das Shadermodel 2 kann, dazu aber noch einiges mehr. Deshalb ist es völlig unmöglich, einen 2.0 Shader zu finden, der nicht mit absolut identischem Ergebnis auch als 3.0 Shader umsetzbar ist. Und außerdem wird ein 2.0 Shader, der 1:1 als 3.0 Shader umgesetzt wurde, auf keinen Fall langsamer sein als der entsprechende 2.0 Shader.

Oder nochmal in deiner und Tigerchens Logik: wenn das Shadermodel 3 dem Shadermodel 2 unterlegen ist, dann ist das Shadermodel 2 einem recht betagten Riva 128 erst recht unterlegen. Und Warum? Weil es problemlos möglich ist, mit einen Pixelshader 2.0 einfach nur untexturierte Dreiecke in einer konstanten Farbe rauszuhauen. Der Riva 128 kann wesentlich mehr als das. Wird klar, was ich damit sagen will?

Angiesan
2006-02-28, 23:28:54
ich persönlich finde auch, dass der fortschritt durch die weiterenrwicklung der hardware vorangetrieben wird, die heute sichtbaren resultate noch keine welten auseinanderliegen ist sicherlich auch der leistungsfähigkeit der aktuellen hardware zu verdanken.
als beispiel sei hier hdr rendering angeführt, auch wenn dies nicht direkt mit sm3 etas zutun hat ist es doch ein gutes beispiel. bei der ersten verfügbaren anwendung, far cry war bzw. ist die leistung der zu diesem zeitpunkt verfügbaren highend hardware der nv 40 absolut inakzeptabel.
mit der vorstellung der neuen graka generation sind diese probleme vergangenheit.
ich denke, die richtigen vorteile wird man auch in naher zukunft nicht sehen.
die frage die man sich stellen muss ist einfach,welche verbreitung von sm 3 karten wird benötigt um sm 3 spiele vom finanzielen aspekte für studios interessant werden zu lassen. ich bin mir sicher, dass dann die unterschiede mehr wie deutlich sichtbar wären, oder aber die entwicklungskosten deutlich geringer ausfallen würden.
in beiden fällen würden auch wir, die spieler profitieren.
wenn man sich zu dem heutigen zeitpunkt eine sm3 karte zulegt sollte man dies wie eine art entwicklungshilfe sehen.
die hardware hersteller machen natürlich aus der reinen fähigkeiten der karte ein wunder der technik,ist doch wohl klar.

grüsse

Neomi
2006-03-01, 00:01:12
Ich habe mal eben einen eigenen kleinen Shadervergleich gemacht. Nicht nur Shadermodel 2 und 3, sondern auch noch 1 und dazu die Fixed Function Pipeline.

http://img489.imageshack.us/img489/2863/shadervergleich9ct.gif (http://imageshack.us)

In jeder Technologiestufe habe ich zwei konstant schwarze Dreiecke bildschirmfüllend zeichnen lassen, dann Screenshots gemacht, runterskaliert und in diese Übersicht kopiert. Und was lernen wir nun daraus? Richtig, gar nichts.

Btw, der Pixelshader 2.0 benötigt für dieses simpelste aller Beispiele doppelt so viele Instruction Slots wie der Pixelshader 3.0 und ist damit potentiell (real kein Unterschied spürbar, messen wollte ich nicht) langsamer. ;)

tokugawa
2006-03-01, 00:46:38
Zusammenfassung: shader 2.0 sieht zwar besser aus (aber wer braucht schon gute Optik solange die Technik geil ist:)


Falsch. Shader Model 3.0 hat das Potential, mehr und bessere Effekte zu ermöglichen. Dass es noch nicht ausgereizt worden ist liegt ja nicht an Shader Model 3.0!

"sieht zwar besser aus" ist außerdem subjektiv. Ich glaub dass sich viele schon an den "normalen" Renderlook gewöhnt haben und daher realistischere Effekte dadurch als "nicht so gutaussehend" betrachten.


dafür ist shader 3.0 besser zu programmieren. Schon lustig wenn man bedenkt wie manche hier 1000fach shader 3.0 als unbedingt notwendig angepriesen haben.


Nein. Shader Model 3.0 INKLUDIERT komplett das Shader Model 2.0. Man hat nur weniger enge Begrenzungen.

Z.B. können Shader Model 3.0 Programme länger sein als Shader Model 2.0 Programme (speziell die früheren "reinen" 2.0er Shader Karten hatten arge Begrenzungen).



Bis zum Jahre 2007 reicht eine shader 2.0 karte locker aus.


Das wird sich zeigen. Bis 2007 wird's schon sehr wahrscheinlich einen 2.0er Renderpfad geben in Spielen.

Aber Shader Model 3.0 Effekte werden halt nicht möglich sein, etwa realistische Glasbrechung, usw.


Es werden noch viele spiele kommen bei denen die Optik mit shader 2.0 besser aussieht als mit shader 3.0.


Nein. Das ist rein subjektiv. Es gibt keinen technischen Grund warum Shader 3.0 "schlechter" aussehen sollte. Im Endeffekt sind es bessere Effekte. Ob sie einem gefallen oder nicht ist Geschmackssache, aber realistischere Berechnungen sind auf jeden Fall mit 3.0 eher möglich als mit 2.0.


Aber keine angst in 3-4 Jahren werden es die Programmierer schaffen shader Model 3.0 zu beherrschen.:))

Du hast es komplett falsch verstanden:

- Shader Model 3.0 ist eine Obermenge von Shader Model 2.0. Es programmiert sich GENAU GLEICH, nur dass Shader Model 3.0 viel mehr erlaubt, und keine solche Beschränkungen hat wie Shader Model 2.0.

- Wer Shader Model 2.0 beherrscht, beherrscht auch Shader Model 3.0, und wird wahrscheinlich nicht so früh an Herzinfarkt sterben (weil Shader Model 3.0 einem einfach mehr Freiheiten läßt).

- Entwickler haben heute schon viele Shader Model 3.0 only Effekte draussen. Teilweise müssen die erst in Spiele kommen. Das wird noch dieses Jahr passieren.


Seh ich gleich. ich kauf mir nix um den coder glücklich zu machen.

Das sagt kein Mensch. Ich hab bereits geschrieben dass sich Gamer ruhig noch eine SM 2.0 Karte kaufen können.

Aber einige Leute schrieben dass SM 3.0 "unnötig" wäre, bloß weil es noch nicht ausgereizt wird. Das ist einfach schlichtweg Blödsinn.

So gesehen wär jeder Fortschritt "unnötig". Und Shader Model 3.0 ist ein deutlicher Fortschritt.

Es ist halt kein Effekt an sich (und man kann deshalb auch per se keine wirklichen Screenshot-Vergleiche zwischen SM 2.0 und SM 3.0 machen, weil das einfach nicht vergleichbar ist), sondern einfach eine Erweiterung von Shader Model 2.0, die einfach mehr Effekte ermöglicht.

Hier noch ein Zuckerl:

http://www.cg.tuwien.ac.at/~chiu/raytrace_effects.jpg

Das ist ein Beispiel einer physikalisch korrekten Doppelbrechung (mit Raytracing im Shader), die Shader Model 3.0 zwingend vorraussetzt. Das tolle ist, für so eine Szene müsste normalerweise ein Raytracer minutenlang rechnen... mit Shader Model 3.0 geht das dank der Flexibilität der Programmierbarkeit der Shader "in Echtzeit".

MountWalker
2006-03-01, 01:22:02
Für mich sehen sogar die SM 2.0 Schatten besser aus.

Was sehen wir denn als Unterschied? Beschreiben wir doch mal, was wir dort als Resultat sehen, statt einfach nur zu sagen "besser" oder "schlechter". Auf dem Screenshot aus dem Shader-2-Pfad sehen wir Schatten, die spiegelglatt geworfen werden, als ob sie auf einer spiegelglatten, absolut planen Oberfläche liegen würden, gleichzeitig sehen wir aber deutlich Wellen auf dem Wasser. Auf dem Screenshot vom Shader-3-Pfad sehen wir, dass der Schattenwurf durch die Wellen auf dem Wasser beeinflusst wird, die Illusion einer echten, dreidimensionalen Wasseroberfläche klappt dadurch eindeutig besser, da der Schatten hier auch zu der Oberfläche passt auf die er fällt.

Jedem seine künstlerische Freiheit, der eine mag Picasso und der andere vielleicht auch Schatten die absolut nicht zu dem Untergrund passen auf den sie fallen, aber per se sagen das eindeutig realistischere Bild wäre kindisch und dann noch über den ganzen Thread hinweg mit Beteiligung weiterer Gesprächspartner als Faktum proklamieren, der unrealistischere Shader-2-Pfad von AOE3 würde für jedermann besser aussehen ist doch wohl nicht nur übertrieben, sondern imho einfach Quatsch. Ich könnte auch in einem älteren Spiel Gouraud-Shading deaktivieren und stattdessen Flat-Shading einsetzen, bei Microsofts Motocross-Rennspiel von 1998 kann man das noch machen. Vom künstlerischen Aspekt ist das Resultat vielleicht genauso reizvoll wie Glatte-Oberfläche-Schatten auf welligem Wasser, aber wenn ich allgemein erklären würde, Grafik mit Flat-Shading wäre besser als mit Gouraud-Shading, würden das alle hier und ich denke auch Tigerchen als Quatsch bezeichnen...

Odal
2006-03-01, 01:40:24
Ich habe mal eben einen eigenen kleinen Shadervergleich gemacht. Nicht nur Shadermodel 2 und 3, sondern auch noch 1 und dazu die Fixed Function Pipeline.

http://img489.imageshack.us/img489/2863/shadervergleich9ct.gif (http://imageshack.us)

In jeder Technologiestufe habe ich zwei konstant schwarze Dreiecke bildschirmfüllend zeichnen lassen, dann Screenshots gemacht, runterskaliert und in diese Übersicht kopiert. Und was lernen wir nun daraus? Richtig, gar nichts.

Btw, der Pixelshader 2.0 benötigt für dieses simpelste aller Beispiele doppelt so viele Instruction Slots wie der Pixelshader 3.0 und ist damit potentiell (real kein Unterschied spürbar, messen wollte ich nicht) langsamer. ;)

Das ist ja alles schön und gut, wichtig für den Spieler ist aber das was in Spielen benutzt wird, und performancemässig hat er dazu Benchmarks. Es interessiert ihn nicht das man bestimmte Operationen doppelt so schnell ausführen kann, solange mit den Karten spielbare Spiele nicht doppelt so schnell laufen. Das dies in der Zukunft mal relevant wird steht ja ausser Frage. Die Frage ist nur ob es überhaupt SM2 Karten gibt die von SM3 deutlich profitieren würden (mit den Spielen die rauskamen und rauskommen und ausreichend schnell auf den potentiellen SM3 KArten dann sind).

tokugawa
2006-03-01, 01:52:04
Was sehen wir denn als Unterschied? Beschreiben wir doch mal, was wir dort als Resultat sehen, statt einfach nur zu sagen "besser" oder "schlechter". Auf dem Screenshot aus dem Shader-2-Pfad sehen wir Schatten, die spiegelglatt geworfen werden, als ob sie auf einer spiegelglatten, absolut planen Oberfläche liegen würden, gleichzeitig sehen wir aber deutlich Wellen auf dem Wasser. Auf dem Screenshot vom Shader-3-Pfad sehen wir, dass der Schattenwurf durch die Wellen auf dem Wasser beeinflusst wird, die Illusion einer echten, dreidimensionalen Wasseroberfläche klappt dadurch eindeutig besser, da der Schatten hier auch zu der Oberfläche passt auf die er fällt.

Jedem seine künstlerische Freiheit, der eine mag Picasso und der andere vielleicht auch Schatten die absolut nicht zu dem Untergrund passen auf den sie fallen, aber per se sagen das eindeutig realistischere Bild wäre kindisch und dann noch über den ganzen Thread hinweg mit Beteiligung weiterer Gesprächspartner als Faktum proklamieren, der unrealistischere Shader-2-Pfad von AOE3 würde für jedermann besser aussehen ist doch wohl nicht nur übertrieben, sondern imho einfach Quatsch. Ich könnte auch in einem älteren Spiel Gouraud-Shading deaktivieren und stattdessen Flat-Shading einsetzen, bei Microsofts Motocross-Rennspiel von 1998 kann man das noch machen. Vom künstlerischen Aspekt ist das Resultat vielleicht genauso reizvoll wie Glatte-Oberfläche-Schatten auf welligem Wasser, aber wenn ich allgemein erklären würde, Grafik mit Flat-Shading wäre besser als mit Gouraud-Shading, würden das alle hier und ich denke auch Tigerchen als Quatsch bezeichnen...


100% meine Meinung!


Shader Model 2.0 schaut nicht generell besser aus. Es mag nur einem besser gefallen.

Realistischer sind die Effekte die mit SM 3.0 möglich sind.

Aber genauso gefallen manchen Leuten Pixelgrafik (mir z.B. auch als glühender Retrogaming-Fan), nur ist es glaub ich klar dass 3D-Grafik realistischer ist als 2D-Sprite-Grafik.

"Besser aussehen" im Sinne von "besserer Grafik" hat eindeutig der SM 3.0 Shot. Ob einem "künstlerisch" gesehen der SM 2.0 Shot besser gefällt, ist völlig irrelevant.

Tigerchen
2006-03-01, 08:39:54
Je größer der Wind desto höher die schnellere Verfügbarkeit.

Nein. Genau die fehlt ja trotz dem ganzen Tamtam. Statt dessen sehen sich Entwickler wie die Stalker-Macher genötigt ständig neue Technologien mit einzubauen weil die Fans die ganze neue Featurewelt sofort in Aktion sehen will. Bei den ohnehin schon wahnsinnig langen Entwicklungszeiten heutzutage ist das Gift. Die Entwickler bringt das doch nur in ein Dilemma. (Relativ) schnell fertig werden und dafür die Kritik ertragen daß eben kein HDR und DualCore Unterstützung eingebaut wurde? Eine schlechte Presse ist immer zu fürchten!
Oder aber schnell noch HDR, Softshadows usw. mit reinpfriemeln und riskieren gar nicht mehr zu Potte zu kommen?

Tigerchen
2006-03-01, 08:42:05
Man kann offensichtlich von vielen Usern nicht den Durchblick erwarten, den Entwickler haben. Das ist imo auch kein Problem, ich gebe für mein Teil gerne zu, von Spieleprogrammierung fast nichts zu verstehen. Aber problematisch ist es, wenn die Leute ihre Unkenntnis nicht einsehen und stumpf ihre auf Unwissenheit basierende Meinung als Wahrheit in die Welt tragen.

Da empfinde ich es als sehr angenehm, dass Leute, die was auf dem Kasten haben – also auch du – einfach mal sagen, was Sache ist.

Beleidigung über Bande. Clever aths! Geschickt Punkte vermieden!

tokugawa
2006-03-01, 08:44:58
Nein. Genau die fehlt ja trotz dem ganzen Tamtam. Statt dessen sehen sich Entwickler wie die Stalker-Macher genötigt ständig neue Technologien mit einzubauen weil die Fans die ganze neue Featurewelt sofort in Aktion sehen will. Bei den ohnehin schon wahnsinnig langen Entwicklungszeiten heutzutage ist das Gift. Die Entwickler bringt das doch nur in ein Dilemma. (Relativ) schnell fertig werden und dafür die Kritik ertragen daß eben kein HDR und DualCore Unterstützung eingebaut wurde? Eine schlechte Presse ist immer zu fürchten!
Oder aber schnell noch HDR, Softshadows usw. mit reinpfriemeln und riskieren gar nicht mehr zu Potte zu kommen?


Drei Dinge muß ich da einwerfen:
1) Shader Model 3.0 ist jetzt nicht so wahnsinnig kompliziert, wenn man sowieso schon Shader Model 2.0 unterstützt (im Prinzip gibt's keinen Unterschied außer dass man Shader schreiben kann die nicht so schnell an die Grenzen stoßen)

2) Bei Effekten hast du natürlich recht, die Effekte die Shader Model 3.0 ausreizen sind komplex, und bedürfen natürlich auch einer Einarbeitung der Entwickler

3) Genau hier kommen diverse Forschungsprojekte wie www.gametools.org zu tragen. Effekte entwickeln die Forschungseinrichtungen und Unis, und Spieleentwickler können sie leicht einsetzen und in ihre Engines einbauen. Das ist relativ neu, und sicher zu begrüßen.


So pessimistisch wie du würd ich's also nicht sehen. Gerade Engine/Grafik-Programmierer/Entwickler müssen sich heute auch akademisch auf wissenschaftlichen Konferenzen (SIGGRAPH, EuroGraphics) weiterbilden, um "vorne dabei" sein zu können, und den Anschluß nicht zu verpassen.

Und ich seh nichts falsches daran, wenn man ein Paper findet und liest das einen interessanten Effekt präsentiert, den dann in die eigene Engine zu integrieren.


Hier tut sich einiges, und vieles davon ist auch "Shader-Model-3.0-exklusiv".

Gerade in diesem Jahr wird wohl einiges endlich herausschauen. Und hätten wir alle auf die "Shader Model 3.0 bringt nix!" Schreier gehört, dann würde es noch viel viel später erst kommen.

Tigerchen
2006-03-01, 08:46:25
Zusammenfassung: shader 2.0 sieht zwar besser aus (aber wer braucht schon gute Optik solange die Technik geil ist:) dafür ist shader 3.0 besser zu programmieren. Schon lustig wenn man bedenkt wie manche hier 1000fach shader 3.0 als unbedingt notwendig angepriesen haben.
Bis zum Jahre 2007 reicht eine shader 2.0 karte locker aus.
Es werden noch viele spiele kommen bei denen die Optik mit shader 2.0 besser aussieht als mit shader 3.0.
Aber keine angst in 3-4 Jahren werden es die Programmierer schaffen shader Model 3.0 zu beherrschen.:))

So ähnlich schauts auf. :up:

tokugawa
2006-03-01, 08:46:59
So ähnlich schauts auf. :up:


Eigentlich genau gar nicht :), absolut falsch.

Spasstiger
2006-03-01, 08:54:59
3) Genau hier kommen diverse Forschungsprojekte wie www.gametools.org zu tragen. Effekte entwickeln die Forschungseinrichtungen und Unis, und Spieleentwickler können sie leicht einsetzen und in ihre Engines einbauen. Das ist relativ neu, und sicher zu begrüßen.
War es nicht schon immer so, dass die Grundlagen der 3D-Grafik aus der Forschung kommen? Seien es jetzt Unis, private Forschungseinrichtungen oder die Entwicklerlabors der IHVs. Selbst ein 3D-Spiele-Guru wie John Carmack hat nicht das Rad neu erfunden, sondern nur bekannte theoretische Grundlagen in die Praxis umgesetzt (implementiert).

Tigerchen
2006-03-01, 08:59:39
Realitätsverlust? Shadermodel 2 kann nicht besser aussehen, da Shader keine Effekte sind. Und hier hat nicht ein einziger behauptet, daß SM3 unbedingt notwendig sei. Langsam gehen mir solche merkbefreiten Postings auf den Keks.

Das Shadermodel 3 kann ALLES, was das Shadermodel 2 kann, dazu aber noch einiges mehr. Deshalb ist es völlig unmöglich, einen 2.0 Shader zu finden, der nicht mit absolut identischem Ergebnis auch als 3.0 Shader umsetzbar ist. Und außerdem wird ein 2.0 Shader, der 1:1 als 3.0 Shader umgesetzt wurde, auf keinen Fall langsamer sein als der entsprechende 2.0 Shader.

Oder nochmal in deiner und Tigerchens Logik: wenn das Shadermodel 3 dem Shadermodel 2 unterlegen ist, dann ist das Shadermodel 2 einem recht betagten Riva 128 erst recht unterlegen. Und Warum? Weil es problemlos möglich ist, mit einen Pixelshader 2.0 einfach nur untexturierte Dreiecke in einer konstanten Farbe rauszuhauen. Der Riva 128 kann wesentlich mehr als das. Wird klar, was ich damit sagen will?

Unterstell uns nicht Dinge die wir nie gesagt haben. Ich habe in diesem Thread bereits gesagt daß ich an den Möglichkeiten von SM 3.0 nichts auszusetzen habe. Meckern tue ich nur über diese Riesenhype die hier so einige gestartet haben als nV mit seiner nV40 Serie auf dem Markt erschien. Plötzlich war R420 nur noch Altmetall. Das war und ist Unfug. Die Entwicklung neuer Spiele dauert so elendig lange daß SM3.0 vor 2007 kein Must-have sein kann. Konsequenterweise habe ich mir daher im Januar für kleines Geld eine passiv gekühlte X800XL zugelegt. Und wenn 2007 SM 3.0 wirklich wichtig wird dann hol ich mir auch ganz unaufgeregt eine entsprechende Karte.

tokugawa
2006-03-01, 09:07:33
War es nicht schon immer so, dass die Grundlagen der 3D-Grafik aus der Forschung kommen? Seien es jetzt Unis, private Forschungseinrichtungen oder die Entwicklerlabors der IHVs. Selbst ein 3D-Spiele-Guru wie John Carmack hat nicht das Rad neu erfunden, sondern nur bekannte theoretische Grundlagen in die Praxis umgesetzt (implementiert).

Das stimmt natürlich. Das neue am Gametools Projekt ist nur dass jetzt die Kommunikation und der Austausch aktiv gefördert wird, d.h. die Effekte des Gametools Projekts werden nicht "für die Forschung allein" entwickelt, sondern schon im Hinblick darauf, in Spielen Verwendung zu finden. Dass das Projekt EU-gefördert ist zeigt zudem die Relevanz von Echtzeitgrafik-Forschung auch im Zusammenhang mit Spielen.

Gerade letzteres finde ich wichtig da gerade in Deutschland - anders eigentlich als in Österreich - Spiele immer noch als "unernste Sache" und "Kindskram" gesehen werden anstatt der Innovationsbringer in Technik und anderen Wissenschaften/Disziplinen (Soziologie, Kunst, Psychologie, Pädagogik), die sie zweifelsohne sind (man sehe sich nur die in letzter Zeit erstarkte Forschung an die es im Bezug auf "Ludologie" und "Game Studies" gibt).



Unterstell uns nicht Dinge die wir nie gesagt haben. Ich habe in diesem Thread bereits gesagt daß ich an den Möglichkeiten von SM 3.0 nichts auszusetzen habe. Meckern tue ich nur über diese Riesenhype die hier so einige gestartet haben als nV mit seiner nV40 Serie auf dem Markt erschien. Plötzlich war R420 nur noch Altmetall. Das war und ist Unfug. Die Entwicklung neuer Spiele dauert so elendig lange daß SM3.0 vor 2007 kein Must-have sein kann. Konsequenterweise habe ich mir daher im Januar für kleines Geld eine passiv gekühlte X800XL zugelegt. Und wenn 2007 SM 3.0 wirklich wichtig wird dann hol ich mir auch ganz unaufgeregt eine entsprechende Karte.


"Must-have" ist es deswegen nicht weil bis dahin Spiele wahrscheinlich auch einen SM 2.0 Pfad haben werden, der halt schlechter ausschaut als SM 3.0 (wie obig gezeigter Screenshotvergleich).

Ich erwarte aber in diesem Jahr noch weitere Effekte in Spielen die SM-3.0-exklusiv sind.

Effekte dieser Art stehen bereits in den Startlöchern und werden und wurden schon fleißig von den Entwicklern integriert. Hoffen wir dass es bald soweit ist - ich rechne aber wie gesagt noch in diesem Jahr damit.

ShadowXX
2006-03-01, 09:08:02
Eigentlich genau gar nicht :), absolut falsch.

Lass es....Ihr, du und neomi, redet nur gegen Windmühlen.

Lass Tigerchen sein glauben und gut ist........er wird früher oder später selbst bemerken, das SM3.0 doch nicht ganz so unnütz ist, wie er meint.

@Tigerchen:
Eine Sache noch.....du schreibst ja selbst, das du SM3.0 nicht grundsätzlich ablehnst, aber dann würde ich dich eine sache gerne mal fragen:
Auf welcher HW sollen die Devs den bitte mit SM3.0 rumprobieren/rumprogrammieren um dann pünktlich zum Start einer SM3.0-Karte perfekte Engines mit 1000%igen SM3.0-Support in wahnwitziger Geschwindigkeit und Effektfülle zu bieten, wenn es bis dahin keine SM3.0 Karten gab??
Irgendwo und irgendwann muss immer mal angefangen werden.......

Tigerchen
2006-03-01, 09:14:48
Was sehen wir denn als Unterschied? Beschreiben wir doch mal, was wir dort als Resultat sehen, statt einfach nur zu sagen "besser" oder "schlechter". Auf dem Screenshot aus dem Shader-2-Pfad sehen wir Schatten, die spiegelglatt geworfen werden, als ob sie auf einer spiegelglatten, absolut planen Oberfläche liegen würden, gleichzeitig sehen wir aber deutlich Wellen auf dem Wasser. Auf dem Screenshot vom Shader-3-Pfad sehen wir, dass der Schattenwurf durch die Wellen auf dem Wasser beeinflusst wird, die Illusion einer echten, dreidimensionalen Wasseroberfläche klappt dadurch eindeutig besser, da der Schatten hier auch zu der Oberfläche passt auf die er fällt.

Jedem seine künstlerische Freiheit, der eine mag Picasso und der andere vielleicht auch Schatten die absolut nicht zu dem Untergrund passen auf den sie fallen, aber per se sagen das eindeutig realistischere Bild wäre kindisch und dann noch über den ganzen Thread hinweg mit Beteiligung weiterer Gesprächspartner als Faktum proklamieren, der unrealistischere Shader-2-Pfad von AOE3 würde für jedermann besser aussehen ist doch wohl nicht nur übertrieben, sondern imho einfach Quatsch. Ich könnte auch in einem älteren Spiel Gouraud-Shading deaktivieren und stattdessen Flat-Shading einsetzen, bei Microsofts Motocross-Rennspiel von 1998 kann man das noch machen. Vom künstlerischen Aspekt ist das Resultat vielleicht genauso reizvoll wie Glatte-Oberfläche-Schatten auf welligem Wasser, aber wenn ich allgemein erklären würde, Grafik mit Flat-Shading wäre besser als mit Gouraud-Shading, würden das alle hier und ich denke auch Tigerchen als Quatsch bezeichnen...

Ob es einem gefällt ist immer eine persönliche subjektive Entscheidung. Ob etwas "richtig" auf einen einwirkt ist aber keine Frage der korrekten technischen Implementierung. Im Gegenteil die alten Meister waren in der Lage durch ein paar Pinselkleckse perfekte Illusionen von Realität zu erzeugen. Schau dir doch mal Bilder von Rembrandt genau an. Durch das weglassen von unwichtigen Dingen wie Interieur oder Vereinfachungen bei der Kleidung hat er oft genug die Illusion von Realität noch verstärkt.

Und so kommt es daß die technisch korrektere Darstellung in AOE3 einfach nur "blurry" wirkt. Technik ist eben nicht alles. Das menschliche Auge funktioniert nicht so einfach und läßt sich gerne täuschen. Das sollte man immer berücksichtigen. Weniger ist manchmal mehr

mapel110
2006-03-01, 09:15:24
Lass es....Ihr, du und neomi, redet nur gegen Windmühlen.

Lass Tigerchen sein glauben und gut ist........er wird früher oder später selbst bemerken, das SM3.0 doch nicht ganz so unnütz ist, wie er meint.

@Tigerchen:
Eine Sache noch.....du schreibst ja selbst, das du SM3.0 nicht grundsätzlich ablehnst, aber dann würde ich dich eine sache gerne mal fragen:
Auf welcher HW sollen die Devs den bitte mit SM3.0 rumprobieren/rumprogrammieren um dann pünktlich zum Start einer SM3.0-Karte perfekte Engines mit 1000%igen SM3.0-Support in wahnwitziger Geschwindigkeit und Effektfülle zu bieten, wenn es bis dahin keine SM3.0 Karten gab??
Irgendwo und irgendwann muss immer mal angefangen werden.......
Jo, ohne einen NV40 in dieser Form könnten heute R5x0-User kein HDR+AA in Farcry genießen.

Und selbst HDR auf NV40 in Aktion zu sehen war jedenfalls für mich seit langem mal wieder ein WOW-Effekt und allein dafür hat sich die Karte für mich schon gelohnt. Zumal ich die Wahl hatte, Hohe Auflösung+AA oder etwas niedriger Auflösung+HDR.

Tigerchen
2006-03-01, 09:19:52
"Must-have" ist es deswegen nicht weil bis dahin Spiele wahrscheinlich auch einen SM 2.0 Pfad haben werden, der halt schlechter ausschaut als SM 3.0 (wie obig gezeigter Screenshotvergleich).

Ich erwarte aber in diesem Jahr noch weitere Effekte in Spielen die SM-3.0-exklusiv sind.

Effekte dieser Art stehen bereits in den Startlöchern und werden und wurden schon fleißig von den Entwicklern integriert. Hoffen wir dass es bald soweit ist - ich rechne aber wie gesagt noch in diesem Jahr damit.

Na wenn "schlechter" aussieht wie in AOE3 kann ich damit leben. ;D
Du rechnest nach dem Splinter Cell Desaster mit weiteren Spielen dieses Jahr die auf SM 3.0 Exclusiveffekte setzen? Dann warte mal.

ShadowXX
2006-03-01, 09:26:38
Na wenn "schlechter" aussieht wie in AOE3 kann ich damit leben. ;D
Du rechnest nach dem Splinter Cell Desaster mit weiteren Spielen dieses Jahr die auf SM 3.0 Exclusiveffekte setzen? Dann warte mal.


Welches Desaster?

Wie lange hat ATI gebraucht um die SM3.0 Shader auf SM2.0 umzuprogrammieren? (Nein, das hat nicht Ubisoft selbst gemacht).

Es gibt ausserdem mehr Games als nur SC die SM3.0-Effekte drinne haben...und ja, es werden dieses Jahr (speziell zum Ende hin) definitiv mehrere Games rauskommen, die auch SM3.0-Only-Sachen anbieten werden.

Speziell vergisst du eins dabei: Nun hat auch ATI SM3.0 HW und deshalb gibt es u.a. für ATI z.B. keinen Grund mehr, was "gegen" Spiele zu tun, die extra SM3.0-Effekte bieten.

Den SC-Stunt hat ATI doch nur gemacht, weil Sie zu diesem Zeitpunkt keine SM3.0-HW hatten....wenn es da schon die x1800xt gegeben hätte, dann hätte ATI in der Richtung keinen Finger gerührt.....

Gaestle
2006-03-01, 09:43:19
Und selbst HDR auf NV40 in Aktion zu sehen war jedenfalls für mich seit langem mal wieder ein WOW-Effekt und allein dafür hat sich die Karte für mich schon gelohnt. Zumal ich die Wahl hatte, Hohe Auflösung+AA oder etwas niedriger Auflösung+HDR.

Dito hier.
Aber für manche zählt es halt nicht, vielleicht weil sie es nicht kennen oder kennen wollen. Die beschweren sich nur, wenn ein neuer Titel neue Technik nutzt und andere aussen vor bleiben.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=206525
Kaufen sich dann aber Technik, die diese Effekte (ohne Hilfe eines externen Anbieters) nicht oder nur begrenzt darstellen kann und sind außerdem nicht in der Lage zwei unterschiedliche Dinge auseinander zu halten.

Welches Desaster?

Wie lange hat ATI gebraucht um die SM3.0 Shader auf SM2.0 umzuprogrammieren? (Nein, das hat nicht Ubisoft selbst gemacht).

Es gibt ausserdem mehr Games als nur SC die SM3.0-Effekte drinne haben...und ja, es werden dieses Jahr (speziell zum Ende hin) definitiv mehrere Games rauskommen, die auch SM3.0-Only-Sachen anbieten werden.

Speziell vergisst du eins dabei: Nun hat auch ATI SM3.0 HW und deshalb gibt es u.a. für ATI z.B. keinen Grund mehr, was "gegen" Spiele zu tun, die extra SM3.0-Effekte bieten.

Den SC-Stunt hat ATI doch nur gemacht, weil Sie zu diesem Zeitpunkt keine SM3.0-HW hatten....wenn es da schon die x1800xt gegeben hätte, dann hätte ATI in der Richtung keinen Finger gerührt.....

So sehe ich das auch.

*sichkopfschüttelndsinnvollerendingenzuwendetalsblauepostingszulesen*

Grüße

Tigerchen
2006-03-01, 10:06:51
Lass es....Ihr, du und neomi, redet nur gegen Windmühlen.

Lass Tigerchen sein glauben und gut ist........er wird früher oder später selbst bemerken, das SM3.0 doch nicht ganz so unnütz ist, wie er meint.

@Tigerchen:
Eine Sache noch.....du schreibst ja selbst, das du SM3.0 nicht grundsätzlich ablehnst, aber dann würde ich dich eine sache gerne mal fragen:
Auf welcher HW sollen die Devs den bitte mit SM3.0 rumprobieren/rumprogrammieren um dann pünktlich zum Start einer SM3.0-Karte perfekte Engines mit 1000%igen SM3.0-Support in wahnwitziger Geschwindigkeit und Effektfülle zu bieten, wenn es bis dahin keine SM3.0 Karten gab??
Irgendwo und irgendwann muss immer mal angefangen werden.......

Ihr wollt nicht verstehen wie? Manche brauchen wohl einfach ein zünftiges Feindbild. Wie soll ichs erklären um euren Abwehrblock zu durchdringen? Jeder soll sich kaufen was er will. Entwickler haben eben andere Bedürfnisse als ich. Ich finds nur lächlich wenn so getan wird als würde durch SM 3.0 die Grafikwelt von jetzt auf gleich in ganz neue Dimensionen aufbrechen. Es ist nun mal so daß ich mein Geld ungern für technische Ausblicke ausgebe. Ich brauch was Handfestes wie ordentliche Performance bei aktuellen Titeln wie Serious Sam 2. Da weiß man was man hat.

Tigerchen
2006-03-01, 10:13:54
Welches Desaster?

Wie lange hat ATI gebraucht um die SM3.0 Shader auf SM2.0 umzuprogrammieren? (Nein, das hat nicht Ubisoft selbst gemacht).

Es gibt ausserdem mehr Games als nur SC die SM3.0-Effekte drinne haben...und ja, es werden dieses Jahr (speziell zum Ende hin) definitiv mehrere Games rauskommen, die auch SM3.0-Only-Sachen anbieten werden.

Speziell vergisst du eins dabei: Nun hat auch ATI SM3.0 HW und deshalb gibt es u.a. für ATI z.B. keinen Grund mehr, was "gegen" Spiele zu tun, die extra SM3.0-Effekte bieten.

Den SC-Stunt hat ATI doch nur gemacht, weil Sie zu diesem Zeitpunkt keine SM3.0-HW hatten....wenn es da schon die x1800xt gegeben hätte, dann hätte ATI in der Richtung keinen Finger gerührt.....

Ich halte den SM 3.0 Only Support für ein Desaster weil man damit einer großen potentiellen Kundenzahl vor den Kopf gestoßen hat. Das kam nicht gut an und das wird auch anderen nicht verborgen geblieben sein. Außerdem zeigte das recht fixe Nachlegen eines SM 2.0 Renderpfades wie gering die Vorteile des SM 3.0 Renderpfades bei SC sind.

Odal
2006-03-01, 10:47:11
"Must-have" ist es deswegen nicht weil bis dahin Spiele wahrscheinlich auch einen SM 2.0 Pfad haben werden, der halt schlechter ausschaut als SM 3.0 (wie obig gezeigter Screenshotvergleich).

Ich erwarte aber in diesem Jahr noch weitere Effekte in Spielen die SM-3.0-exklusiv sind.

Effekte dieser Art stehen bereits in den Startlöchern und werden und wurden schon fleißig von den Entwicklern integriert. Hoffen wir dass es bald soweit ist - ich rechne aber wie gesagt noch in diesem Jahr damit.


Naja, das hat man mir vor einem Jahr auch schon erzählt als ich mir meine 6600GT gekauft habe. Kauf unbedingt eine SM3 Karte bald kommen die ganzen SM3 Spiele. Ok die 6600GT hätte ich mir sowieso gekauft weil sie damals für 129€ bei Arlt ein Schnaeppchen war. Nun habe ich fast das ganze Jahr gewartet und gewartet und gewartet und was kam? Nichts, ok AoE3 kam...ich dachte wow endlich haste mal was von deinem SM3 Feature, also Startete ich AoE3 im tollen SM3 Pfad ja sogar mit SM3 exklusiv Features und dachte: Mensch irgendwie läuft das ziemlich kacke...der FPS Counter brachte die Wahrheit ans Licht..wow manchmal einstellige FPS, ok dacht ich mir, die 6600GT ist zwar keine HighEnd Karte aber soooo schlecht ist sie doch nun nicht (Herbst/Winter 2005) und AoE3 ist lediglich ein Strategie Titel. Ok, dacht ich mir machste mal ein bisschen mit den Einstellungen rum und stellst das Shader Detail auf High (statt Verry High). Wow endlich spielbare FPS, es sieht zwar anders aus aber endlich spielbar. Bei Späteren Screenshotbetrachtungen fiel mir dann auf: Huch nun hab ich ja gar nicht mehr meine SM3 exklusiv Effekte und auch kein HDR mehr...verdammte Axt. Darf ich mich nun entscheiden zwischen Grafik in Zeitlupe und SM3 Exklusiveffekten oder Effekte runterstellen und dafür Spielbare FPS haben? Tolle Wurst.
Und an der tollen SM3 Spielesituation hat sich seit dem nichts verändert.
Ok selbst wenn im Herbst/Winter (kurz vor Weinachten kommen ja meist die Blockbuster) massig SM3 Titel erscheinen würden müsste ich mit einer X850XT (wenn diese SM3 beherschen würde) wieder ein Haufen zeug runterstellen so das ich keine SM3 Exklusiv Effekte zu Gesicht bekäme.

mapel110
2006-03-01, 10:49:40
Ich halte den SM 3.0 Only Support für ein Desaster weil man damit einer großen potentiellen Kundenzahl vor den Kopf gestoßen hat. Das kam nicht gut an und das wird auch anderen nicht verborgen geblieben sein. Außerdem zeigte das recht fixe Nachlegen eines SM 2.0 Renderpfades wie gering die Vorteile des SM 3.0 Renderpfades bei SC sind.

Du weißt, wer den "nachgelegt" hat?
ATI selbst hats gemacht. Die Entwickler haben es nicht getan, die haben keinen Handlungsbedarf gesehen. Merkwürdig, oder?

ShadowXX
2006-03-01, 11:24:49
Ihr wollt nicht verstehen wie? Manche brauchen wohl einfach ein zünftiges Feindbild. Wie soll ichs erklären um euren Abwehrblock zu durchdringen? Jeder soll sich kaufen was er will. Entwickler haben eben andere Bedürfnisse als ich. Ich finds nur lächlich wenn so getan wird als würde durch SM 3.0 die Grafikwelt von jetzt auf gleich in ganz neue Dimensionen aufbrechen. Es ist nun mal so daß ich mein Geld ungern für technische Ausblicke ausgebe. Ich brauch was Handfestes wie ordentliche Performance bei aktuellen Titeln wie Serious Sam 2. Da weiß man was man hat.

War eine n40-Karte doppelt so teuer zu dem Zeitpunkt wie eine r4x0-Karte?

AFAIR nein......wenn dem so gewesen wäre, dann könnte ich dir vielleicht sogar zustimmen, aber dem war nicht so.

Eine 6800Ultra hat das gleiche gekostet wie ein x800xt/x850xt......du hättest also nicht mehr Geld dafür ausgegeben um SM3.0 zu haben.
Der "technische Ausblick" hätte/hat also keinen Pfennig mehr gekostet.

P.S. soooooo fix hat ATI den SC Patch nun auch nicht nachgeliefert...ausserdem möchte ich nicht wissen, wie viele Leute daran rumgewerkelt haben.

Gast
2006-03-01, 11:35:07
Du hast es komplett falsch verstanden:

- Shader Model 3.0 ist eine Obermenge von Shader Model 2.0. Es programmiert sich GENAU GLEICH, nur dass Shader Model 3.0 viel mehr erlaubt, und keine solche Beschränkungen hat wie Shader Model 2.0.



dann proggt doch gleich wieder in software, wenn die flexibiltät so wichtig ist, die cpu hat eh nix zu tun. dann gibts wenigstens auch mal überraschungen und nicht einen und denselben effekt in 1000 spielen. früher wurde die Geometrie verändert (Magic Carpet, Red Faction) und heute ist durch die eingeschränkte Hardware-FX-Abhängigkeit nichtmal das möglich, wir bewegen und zurück und auf das gleiche seit Jahrzehnten nur in Hyper-Präzision kann ich verzichten.

tokugawa
2006-03-01, 11:38:36
Ich finds nur lächlich wenn so getan wird als würde durch SM 3.0 die Grafikwelt von jetzt auf gleich in ganz neue Dimensionen aufbrechen.



Tut es aber. Wenn du dich auskennen würdest damit (was du anscheinend nicht tust), würdest du auch zustimmen.


Ich halte den SM 3.0 Only Support für ein Desaster weil man damit einer großen potentiellen Kundenzahl vor den Kopf gestoßen hat. Das kam nicht gut an und das wird auch anderen nicht verborgen geblieben sein. Außerdem zeigte das recht fixe Nachlegen eines SM 2.0 Renderpfades wie gering die Vorteile des SM 3.0 Renderpfades bei SC sind.


Ja, bei SC. Es gibt aber eben Effekte, für die SM 3.0 erforderlich sind. Und das ist erst der Gipfel des Eisbergs, diverse GPU-Raytracing/Raycasting Techniken oder gar Voxel auf der GPU belegen dass da noch sehr viel mehr drin ist.

Außerdem glaub ich dass du gar nicht weißt was mit SM 3.0 alles möglich ist und alles schon gemacht worden ist.

Naja, das hat man mir vor einem Jahr auch schon erzählt als ich mir meine 6600GT gekauft habe. Kauf unbedingt eine SM3 Karte bald kommen die ganzen SM3 Spiele.


Von mir sicher nicht. Spielern sag ich sowieso dass man mit SM2.0b noch recht gut fährt.

Aber ich mag's einfach nicht wenn SM 3.0 runtergeredet wird von Leuten die sich offensichtlich nicht auskennen.

Den Hype hat SM 3.0 trotz allem schon verdient, der Vergleich mit dem TnL Hype (der auch den Entwicklern nicht sonderlich viel gebracht hat eigentlich) ist unangebracht.


Ok selbst wenn im Herbst/Winter (kurz vor Weinachten kommen ja meist die Blockbuster) massig SM3 Titel erscheinen würden müsste ich mit einer X850XT (wenn diese SM3 beherschen würde) wieder ein Haufen zeug runterstellen so das ich keine SM3 Exklusiv Effekte zu Gesicht bekäme.

Den Satz versteh ich nicht ganz, was hat eine X850XT (oder eine fiktive X850XT mit SM 3.0) mit all dem zu tun? Mal abgesehen davon dass hier keiner Spielern SM 3.0 als Kaufargument darlegt, darum geht es ganz einfach nicht?

Es geht in dem Thread nur darum, einem DAU verständlich zu machen was SM 3.0 ist und was es gegenüber SM 2.0 bringt. Und zwar generell, nicht in Bezug auf heute verfügbare Spiele.

Dass ihr einem DAU jetzt quasi beigebracht habt "SM 2.0 schaut besser aus" und "SM 3.0 ist halt wurscht, nur für Coder" ist ja ein tolles Ergebnis, gratuliere. Damit habt ihr einen DAU noch DAUiger gemacht.

dann proggt doch gleich wieder in software, wenn die flexibiltät so wichtig ist, die cpu hat eh nix zu tun.


Die CPU hat genug zu tun.


dann gibts wenigstens auch mal überraschungen und nicht einen und denselben effekt in 1000 spielen.


Das liegt nicht an der Hardware, sondern daran dass einige Effekte eine Zeitlang einfach "in" sind und jeder sowas als CHecklistenfeature in der Grafikengine drin haben muss.


früher wurde die Geometrie verändert (Magic Carpet, Red Faction) und heute ist durch die eingeschränkte Hardware-FX-Abhängigkeit nichtmal das möglich,


Natürlich ist das heute noch immer möglich.


wir bewegen und zurück und auf das gleiche seit Jahrzehnten nur in Hyper-Präzision kann ich verzichten.

Ach was, heute kann man noch viel mehr machen als früher.

Sicher ist eine Software-Render-Engine das flexibelste, da man über die Render-Pipeline absolute Kontrolle hat. Aber die Qualität bei der Geschwindigkeit die Echtzeitrendering heute hat, wäre mit reinen Software-Engines nicht denkbar.

Hydrogen_Snake
2006-03-01, 11:40:41
Unterstell uns nicht Dinge die wir nie gesagt haben. Ich habe in diesem Thread bereits gesagt daß ich an den Möglichkeiten von SM 3.0 nichts auszusetzen habe. Meckern tue ich nur über diese Riesenhype die hier so einige gestartet haben als nV mit seiner nV40 Serie auf dem Markt erschien. Plötzlich war R420 nur noch Altmetall. Das war und ist Unfug. Die Entwicklung neuer Spiele dauert so elendig lange daß SM3.0 vor 2007 kein Must-have sein kann. Konsequenterweise habe ich mir daher im Januar für kleines Geld eine passiv gekühlte X800XL zugelegt. Und wenn 2007 SM 3.0 wirklich wichtig wird dann hol ich mir auch ganz unaufgeregt eine entsprechende Karte.



sorry aber für mich war SM3.0 kaufgrund für eine 6800 ultra anfang letzten jahres, denn Splinter Cell hat dank SM3.0 HDR, Tone Mapping, VDM unterstützt. Während du mit deiner x800 ein "jahr" lang auf einen Patch warten durftest.

Rate mal was ich außerdem hatte mit dem 1.3 patch von Far Cry!? richtig, spielbare frameraten bei HDR dank SM3.0

Neomi
2006-03-01, 11:59:48
dank SM3.0 HDR

HDR Rendering ist beim NV40 möglich, weil er Alphablending in ein FP16-Rendertarget unterstützt. Das ist völlig unabhängig vom Shadermodel 3.

Don Camillo
2006-03-01, 12:06:22
ich schätze, die xbox360 hat jetzt schon mehr shader3+-spiele wie der pc. was ist denn mit dem 2.0b theater, bei b&w2 wird dies mit 3.0 gleichgesetzt, bei dem Shaderchaos kennt sich ja keiner mehr aus. früher lief es entweder so wie auf der packung abgebildet oder gar nicht, heute haben selbst witz-spielchen wie lego star wars für jeden scheiss nen anderen shaderzwang.

Paar Screenshots zu den Shader3 FX wären echt mal interessant, hier wird ja nur um den geissen Brei rumgeredet. da findet man bei tomshardware mehr.

Neomi
2006-03-01, 12:11:21
Unterstell uns nicht Dinge die wir nie gesagt haben.

Ich habe nichts unterstellt. Du hast gesagt, daß das Shadermodel 3 schlechter aussieht und langsamer ist als das Shadermodel 2. Daß das völliger Kappes ist, dürfte klar sein, du bist aber trotzdem bei der Aussage geblieben.

Hydrogen_Snake
2006-03-01, 12:22:21
HDR Rendering ist beim NV40 möglich, weil er Alphablending in ein FP16-Rendertarget unterstützt. Das ist völlig unabhängig vom Shadermodel 3.

aaaaaa. OK. Habe das bloß in zusammenhang mit FC 1.3 so verstanden...
und deswegen darauf auch übertragen! Kthx.

Odal
2006-03-01, 12:27:25
Von mir sicher nicht. Spielern sag ich sowieso dass man mit SM2.0b noch recht gut fährt.


Nein, du hast sogar hier im Thread mal angedeutet das der Spieler auch mit einer SM2.b Karte noch gut fährt. Aber viele tun dies eben nicht. Die versuchen dem DAU immer weisszumachen das er unbedingt eine 6600GT oder 6800GT braucht wegen dem SM3 und eine X800 oder X850XT schrott ist und herbe Nachteile hat weil ihr eben SM3 fehlt. Das Eingangsposting dieses Threads zielte vermutlich auch eher drauf ab ob der Threadersteller mit seiner X850XT noch gut fährt oder ob er sich unbedingt jetzt eine SM3 Karte kaufen muss da er sonst gerade viel auf dem Bildschirm verpasst.


Aber ich mag's einfach nicht wenn SM 3.0 runtergeredet wird von Leuten die sich offensichtlich nicht auskennen.


Das tut ja eigentlich auch keiner. SM3 ist natürlich eine tolle Sache und das der Entwickler bei der Shaderprogrammierung immer mehr die Freiheiten einer richtigen Programmiersprache bekommt. Aber man sollte immer dazu sagen SM3 ist jetzt wichtig für den Entwickler und auf späterer performanterer Hardware wichtig für den Spieler. Auf Hardware der LEistungsklasse einer 6600GT oder 6800GT hat man (als Spieler) nicht viel vom SM3.


Den Satz versteh ich nicht ganz, was hat eine X850XT (oder eine fiktive X850XT mit SM 3.0) mit all dem zu tun? Mal abgesehen davon dass hier keiner Spielern SM 3.0 als Kaufargument darlegt, darum geht es ganz einfach nicht?


Darum ging es aber dem Threadersteller ob er gerade mit seiner X850XT viele Sachen auf dem Bildschirm verpasst. Der Satz sollte sagen das eine X850XT mit SM3 auch nicht wirklich eine bessere Karte (für den Spieler) sein würde.
Natürlich ist es ärgerlich das ATI mit SM3 nicht aus dem Arsch gekommen ist und wir darum jetzt davon auch noch nicht wirklich was haben, aber das ist im Nachhinein nicht mehr zu ändern. Die Entwickler haben jetzt seit Oktober/November 2005 SM3 Hardware auch von ATI und können nun endlich damit beginnen in ihren Spielen einen Nutzen draus zu ziehen, so das vielleicht 2007 SM3 endlich mal wirklich in Spielen zum Einsatz kommt. Das heutige HighEnd Hardware dann zwar schon wieder daran zu schlucken haben wird ist denk ich mal klar aber das ist ja auch nicht unbedingt der Punkt.


Es geht in dem Thread nur darum, einem DAU verständlich zu machen was SM 3.0 ist und was es gegenüber SM 2.0 bringt. Und zwar generell, nicht in Bezug auf heute verfügbare Spiele.


Naja der DAU interessiert sich nur insofern dafür das es seine Entscheidung beeinflusst welche Hardware er sich zulegt. Da ab einer X1800XT SM3 sowieso bei allen Karten mit im Boot ist kann es dem DAU egal sein.


Dass ihr einem DAU jetzt quasi beigebracht habt "SM 2.0 schaut besser aus" und "SM 3.0 ist halt wurscht, nur für Coder" ist ja ein tolles Ergebnis, gratuliere. Damit habt ihr einen DAU noch DAUiger gemacht.


Das war von Tigerchen vielleicht schlecht ausgedrückt, sollte wohl nur unterstreichen das der DAU mit seiner X850XT aufgrund des mangelnden SM3 supports nicht wirklich was verpasst (was nicht am SM3 liegt sondern an der Rohpower dieser Karten und an der schlechten Umsetzung in AoE3 und der geringen Verfügbarkeit von SM3 Spielen)


Ich sehe es schon wieder kommen das im Herbst die Features der neuen Hardwaregeneration als must2have dargestellt wird und der Spieler nicht herausliesst das es sich erstmal für Entwickler lohnt und denkt das eine 7800GTX oder X1900XT für ihn dann unbrauchbar ist.

Neomi
2006-03-01, 12:35:57
Paar Screenshots zu den Shader3 FX wären echt mal interessant, hier wird ja nur um den geissen Brei rumgeredet. da findet man bei tomshardware mehr.

Genau darum geht es doch hier seit inzwischen 5 Seiten. Mit Bildern kann man nur Effekte vergleichen, aber keine Shadermodelle.

Don Camillo
2006-03-01, 13:07:42
Ihr Theoretiker hört euch wohl "Germanys next Topmodell" lieber im Radio an, tss. Ein Bild sagt mehr als 1000 NVidia CEO's

Coda
2006-03-01, 13:09:29
Was die Nützlichkeit betrifft hat das aber nunmal leider nichts zu sagen. Und wir sind keine Theoretiker ;)

Hydrogen_Snake
2006-03-01, 13:19:51
Ihr Theoretiker hört euch wohl "Germanys next Topmodell" lieber im Radio an, tss. Ein Bild sagt mehr als 1000 NVidia CEO's

Hier bild!

SM 2.0 --------------+---------
SM 3.0 -----------------------+


mehr bilder!?

Odal
2006-03-01, 13:34:49
Ihr Theoretiker hört euch wohl "Germanys next Topmodell" lieber im Radio an, tss. Ein Bild sagt mehr als 1000 NVidia CEO's

Ok Bilder.

Ein möglicher sichtbarer Unterschied im Spiel:
http://www.forumdeluxx.de/forum/attachment.php?attachmentid=19634&stc=1&d=1140954616
http://www.forumdeluxx.de/forum/attachment.php?attachmentid=19633&stc=1&d=1140954616

Ausgewählte Szenmen aus Farcry die vom Farcry SM3 Modus profitieren..ergo ein möglicher spürbarer Unterschied visualisiert:
http://666kb.com/i/118lzp0fgju9t.jpg

Farcry Vergleich verfügbare SM2.b Karten die im SM2 Modus in Farcry laufen mit verfügbaren SM3 Karten die den SM3 Modus in Farcry nutzen (achtung Farcry unterscheidet sich im SM3 Modus nicht auf dem Bildschirm sichtbar vom SM2 Modus):
http://666kb.com/i/118lzsr0ygtmp.jpg

Botcruscher
2006-03-01, 13:44:18
Ist genauso wie mit dem ganzen anderen "must-have-hype-Mist". Solange wie es erst in der Software umgesetzt werden muss, kann es dem Käufer bei der ersten Generation herzlich egal sein. Bis sich die Entwickler ausgekäst haben hat man schon wieder neue Hardware.

- SM3
- 64Bit
- Dualcore
...

Alles sehr gute Sachen wenn sie denn mal richtig ausgnutzt werden. Wer schlau ist holt sich die Hardware mit dem besten Preis/Leistungsverhältnis, für die Anwendung die er jetzt und heute benutzt. Zukunftssicherheit ist bei der Halbwertzeit von Computerhardware für den Arsch.

deekey777
2006-03-01, 13:50:15
Farcry Vergleich verfügbare SM2.b Karten die im SM2 Modus in Farcry laufen mit verfügbaren SM3 Karten die den SM3 Modus in Farcry nutzen (Achtung: Farcry unterscheidet sich im SM3 Modus nicht auf dem Bildschirm sichtbar vom SM2 Modus):
Doch. Die Lichtquellen werden mit beiden zusätzlichen Pixelshader-Profilen genauer berechnet. In SC3 1.4 erreicht man erst mit dem 2.B Profil die visuelle Qualität des SM 3.0 mit allen Spielereien (abgesehen vom HDRR).
Und wenn man hier schon das 2.X Profil in die Diskussion reinwirft, dann ist es IMHO fast Heuchelei, SM 3.0 für unnötig oder verfrüht zu bezeichnen.

Gast
2006-03-01, 13:53:30
Wow, das ist alles, teure augenschädliche Blendfx?

wär echt mal interessant, den ganzen Shaderehype bei 1.1, 1.3, 1.4, 2.0, 2.0b, 3.0, X360 an einem Spiel durchzuzeigen. k.a. ob bei Riddick geht, wohl eher bei FC, SC3. Aber ein großer Unterschied ist bei Riddick eigentlich nur von DX7 auf Xbox-Shader zu sehen, danach wirds marginal.

Coda
2006-03-01, 13:55:44
Das ist schlicht lächerlich. Schau dir einfach die UE3 an, da ist nix mehr mit fixed-point-Shadern zu machen (<2.0).

mapel110
2006-03-01, 13:57:03
Und wenn man hier schon das 2.X Profil in die Diskussion reinwirft, dann ist es IMHO fast Heuchelei, SM 3.0 für unnötig oder verfrüht zu bezeichnen.
Das "IMHO" solltest du streichen. ^^
Die technische Übersicht bei Beyond3D kram ich jetzt nicht nochmal raus.

p.s. noch zwei Threads zum eigentlichen Thema.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=272687&highlight=dynamisches+branching

speziell hier gibts auch einige aufschlussreiche Antworten, was Entwickler von SM3 halten.
http://www.beyond3d.com/forum/showpost.php?p=674468&postcount=1

deekey777
2006-03-01, 14:28:17
Du weißt, wer den "nachgelegt" hat?
ATI selbst hats gemacht. Die Entwickler haben es nicht getan, die haben keinen Handlungsbedarf gesehen. Merkwürdig, oder?
Ich verweise mal auf diesen Thread, der vor einem Jahr gestartet wurde: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=206525

Das ist die Ankündigung, daß ATi das SM 2.0 Profil nachliefern wird: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3143405&postcount=665 (13. Juni).
Und da kam der Patch am 3. August: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3333054&postcount=846

So viel zum Thema "fixes Nachlegen".

Odal
2006-03-01, 14:31:13
Doch. Die Lichtquellen werden mit beiden zusätzlichen Pixelshader-Profilen genauer berechnet. In SC3 1.4 erreicht man erst mit dem 2.B Profil die visuelle Qualität des SM 3.0 mit allen Spielereien (abgesehen vom HDRR).
Und wenn man hier schon das 2.X Profil in die Diskussion reinwirft, dann ist es IMHO fast Heuchelei, SM 3.0 für unnötig oder verfrüht zu bezeichnen.

Wenn du es sehen kannst, ich kann es nicht sehen ^^.

Was hätte wenn und aber und würde ist ja schön und gut..für den Normalo ist wichtig was dabei hinten rauskommt mit der hardware in seinem system...und das hab ich bzgl. BQ versucht mit dem AoE3 screen zu zeigen und bzgl. Optimierungen mit den Farcry Benchmarks.

Hydrogen_Snake
2006-03-01, 14:39:24
Nene... ganz so ist es nicht, der KUNDE stellt ansprüche ohne dafür zahlen zu wollen. Er erwartet das alles am optimum mit dem was er hat, komplexität des ganzen sieht 08/15 otto ja nicht.

ach und ja ich finde SM2.0 sieht bei AOE3 nun mal nicht gut aus, da haben sich auch viele gewundert warum das bei denen nicht so aussieht wie auf den screenshots... HARHAR SM3.0 fähige karte war der schlüssel.

Gast
2006-03-01, 14:45:31
Hier noch ein Zuckerl:
Das ist ein Beispiel einer physikalisch korrekten Doppelbrechung (mit Raytracing im Shader), die Shader Model 3.0 zwingend vorraussetzt. Das tolle ist, für so eine Szene müsste normalerweise ein Raytracer minutenlang rechnen... mit Shader Model 3.0 geht das dank der Flexibilität der Programmierbarkeit der Shader "in Echtzeit".
Daß Du Echtzeit in Anführungszeichen gesetzt hast, hat den Grund, daß man knappe 7 FPS bei einer Auflösung von 640*640 nicht wirklich so nennen kann? ;)
So wie ich das sehe, bietet SM 3.0 hauptsächlich Erleichterungen für die Handwerker. Ja, es ist auch mehr möglich, aber nur mit unterirdischer Geschwindigkeit. Sicher, die Entwicklung ist zu begrüßen, ohne Innovation kein Fortschritt. Und daß die Chip- und Grafikkartenhersteller das an die große Glocke hängen, ist auch sehr verständlich. Aber für den, der dafür die Asche auf den Tresen legen muß, für den bringt es so gut wie nüscht. Man stelle sich vor, ein Vertreter von Staubsaugern will sein neustes Produkt an die Hausfrau bringen. Hausfrau: Macht der AEG 3.0 denn besser sauber als der Bosch 2.0? Vertreter: Nein, kein Unterschied. Aber die Mülltüten dafür lassen sich mit weniger Aufwand herstellen. Damit spart der Tütenhersteller pro Tüte 0,2 Zent an Lohnkosten ein, die er in die Entwicklung stecken kann. Kaufen sie jetzt den AEG 3.0, und ihre Enkel werden es ihnen in 50 Jahren danken. ;)

LovesuckZ
2006-03-01, 14:49:58
Schlussendlich wird jeder SM3.0, HDR, AA, AF und Cola Light Verflucher es trotzdem verwenden.
Die vorigen Worte sind dann vergessen und der Rachfeldzug gegen die nächste Evolution entfacht von neuem...

Coda
2006-03-01, 14:55:56
Daß Du Echtzeit in Anführungszeichen gesetzt hast, hat den Grund, daß man knappe 7 FPS bei einer Auflösung von 640*640 nicht wirklich so nennen kann? ;)Ganz im Gegenteil. Die UE3 wird Shader 3 schlussendlich nur dafür verwenden die Shader in nur einem statt mehreren Passes zu rendern und damit signifikant Füllrate sparen.

Es ist eine absolute Legende, dass SM3 langsamer ist als SM2. Es ist in Wirklichkeit genau andersrum.

Hydrogen_Snake
2006-03-01, 15:04:32
Mir leuchtet ein das diese diskussion sinnlos ist, weil wir hier 2 parteien haben.

die Big Bangs for No Bucks sagen:

Wer braucht SM3.0, mit SM2.0 muss alles gehen was SM3.0 leistet.

und die technisch versierten die wissen das Big Bangs for No Bucks schlicht und ergreifend nicht möglich sind!

was ich mich wiederum frage, warum hier auf der finanzschiene geritten wird während beide ATI und Nvidia karten zu änlichen preisen verkaufen.

Gast
2006-03-01, 15:19:31
Ganz im Gegenteil. Die UE3 wird Shader 3 schlussendlich nur dafür verwenden die Shader in nur einem statt mehreren Passes zu rendern und damit signifikant Füllrate sparen.Was dann den Enkeln der Hausfrau entspricht.

Es ist eine absolute Legende, dass SM3 langsamer ist als SM2. Es ist in Wirklichkeit genau andersrum.Wenn es für die Effizienz statt komplexerer Shader eingesetz wird. Wieviel FPS macht das beispielsweise bei FarCry aus?

Odal
2006-03-01, 15:24:55
was ich mich wiederum frage, warum hier auf der finanzschiene geritten wird während beide ATI und Nvidia karten zu änlichen preisen verkaufen.

Weil es durchaus PS 2.b Karten zu Schnäppchenpreisen gab und gibt, dem Spieler aber ständig suggeriert wird das nur mit einer SM3 Karte ihm so richtig einer abgeht ^^. Verfolge mal die Diskussionen 6800GS vs. X850XT mit...beide kosten praktisch ähnlich viel und immer wird im gleichen Atemzug gesagt unbedingt die 6800GS kaufen denn die hat SM3 auch wenn sie deutlich langsamer in Spielen ist wie die X850XT und praktisch auch kaum mehr darstellt weil es eben keine grosse Softwareunterstützung dafür gibt.
Der DAU denkt sich Cool SM3 da schaut die Welt natürlich gleich viel besser aus und fasst lieber zur langsamen 6800GS statt zur X850XT. Ähnliches wird doch im "3dfx war dämlich" Thread durchgekaut. Der DAU griff lieber zur GeForce1 weil die 32 Bit und TnL konnte und die Voodoo nur 22Bit was aber nahezu ähnlich gut ausschaute bei besserer Performance auf der Voodoo.

Coda
2006-03-01, 15:26:03
Was dann den Enkeln der Hausfrau entspricht.Und? Ich hab ja nirgends behauptet dass man zu GeForce-6-Zeiten schon SM3 benötigt hätte. Nur der Tenor "SM3-ist-unnötig" ist einfach Schwachsinn.

Wenn es für die Effizienz statt komplexerer Shader eingesetz wird. Wieviel FPS macht das beispielsweise bei FarCry aus?Kein guter Vergleich. Da wird lang nicht so viel gespart.

Odal
2006-03-01, 15:26:20
Wieviel FPS macht das beispielsweise bei FarCry aus?


In ganz speziellen Szenen bis zu 18%, insgesamt vielleicht 5%.

mapel110
2006-03-01, 15:29:52
In ganz speziellen Szenen bis zu 18%, insgesamt vielleicht 5%.
Und obendrein ginge der Speedgewinn auch mit SM2. Farcry braucht kein SM3, aber die Entwickler haben es uns so verkauft.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=158013&highlight=farcry

Spasstiger
2006-03-01, 15:32:57
Das ist schlicht lächerlich. Schau dir einfach die UE3 an, da ist nix mehr mit fixed-point-Shadern zu machen (<2.0).
Mit Half-Life 2 könnte man die Unterschiede auch schon aufzeigen.
In Garry's Mod wird beispielsweise fx8-Bloom angeboten, omg sieht das furchtbar aus. ;D
Von HDR ganz zu schweigen.

deekey777
2006-03-01, 15:33:16
Weil es durchaus PS 2.b Karten zu Schnäppchenpreisen gab und gibt, dem Spieler aber ständig suggeriert wird das nur mit einer SM3 Karte ihm so richtig einer abgeht ^^. Verfolge mal die Diskussionen 6800GS vs. X850XT mit...beide kosten praktisch ähnlich viel und immer wird im gleichen Atemzug gesagt unbedingt die 6800GS kaufen denn die hat SM3 auch wenn sie deutlich langsamer in Spielen ist wie die X850XT und praktisch auch kaum mehr darstellt weil es eben keine grosse Softwareunterstützung dafür gibt.
Der DAU denkt sich Cool SM3 da schaut die Welt natürlich gleich viel besser aus und fasst lieber zur langsamen 6800GS statt zur X850XT. Ähnliches wird doch im "3dfx war dämlich" Thread durchgekaut. Der DAU griff lieber zur GeForce1 weil die 32 Bit und TnL konnte und die Voodoo nur 22Bit was aber nahezu ähnlich gut ausschaute bei besserer Performance auf der Voodoo.

Nur haben sich weder PS2.B noch PS 2.A durchsetzen können. In erster Linie hat die R420er Generation einen enormen Taktvorteil, was viel mehr zählt, als ihre Shader-Erweiterungen ggü. der R300-Generation.
Du kannst jetzt ruhig aufzählen, welche Spiele SM 3.0 und welche Spiele SM 2.X verwenden, wobei SC 3 zu der ersten Gruppe gezählt wird.

Gast
2006-03-01, 15:34:13
Und? Ich hab ja nirgends behauptet dass man zu GeForce-6-Zeiten schon SM3 benötigt hätte. Nur der Tenor "SM3-ist-unnötig" ist einfach Schwachsinn.Bis jetzt ist es aber nahezu unnötig – für den, der dafür zahlen muß!

Kein guter Vergleich. Da wird lang nicht so viel gespart.Interessiert mich nicht. Ich messe SM 3.0 an der Realität, nicht an der Theorie.

Coda
2006-03-01, 15:36:21
Bis jetzt ist es aber nahezu unnötig – für den, der dafür zahlen muß! Für nVIDIA war der Schritt von NV30 zu NV40 vor allem der dass sie endlich höhere Performance erzielen mussten mit FP-Shadern. Die zusätzlichen Features für SM3 waren minimal (besonders weil das dynamic branching anscheinend sehr stiefmütterlich implementiert wurde)

Interessiert mich nicht. Ich messe SM 3.0 an der Realität, nicht an der Theorie.Was ist daran Theorie, dass die UE3 sehr viel schneller auf SM3-Karten laufen wird?

Gast
2006-03-01, 15:37:45
Was ist daran Theorie, dass die UE3 sehr viel schneller auf SM3-Karten laufen wird?Wo kann ich das Spiel kaufen?

Hydrogen_Snake
2006-03-01, 15:40:06
Weil es durchaus PS 2.b Karten zu Schnäppchenpreisen gab und gibt, dem Spieler aber ständig suggeriert wird das nur mit einer SM3 Karte ihm so richtig einer abgeht ^^. Verfolge mal die Diskussionen 6800GS vs. X850XT mit...beide kosten praktisch ähnlich viel und immer wird im gleichen Atemzug gesagt unbedingt die 6800GS kaufen denn die hat SM3 auch wenn sie deutlich langsamer in Spielen ist wie die X850XT und praktisch auch kaum mehr darstellt weil es eben keine grosse Softwareunterstützung dafür gibt.
Der DAU denkt sich Cool SM3 da schaut die Welt natürlich gleich viel besser aus und fasst lieber zur langsamen 6800GS statt zur X850XT. Ähnliches wird doch im "3dfx war dämlich" Thread durchgekaut. Der DAU griff lieber zur GeForce1 weil die 32 Bit und TnL konnte und die Voodoo nur 22Bit was aber nahezu ähnlich gut ausschaute bei besserer Performance auf der Voodoo.

Wer kann den was dafür das 2. der ehemals High end karten. Wie 6800U und die X850XT nun mal nicht beide Next Gen Features bieten!? Es war damals nun mal so das man bei Nvidia SM3.0 implementierte damit man Shader schneller ausführen konnte, hinzu kam noch das geometry instancing, oder wie das damals genannt wurde, das hat die ATI karte nicht geboten, mit dem integrierten SM3.0 kam dann auch VDM usw. das die X850XT z.t. sehr günstig mittlerweile ist liegt wohl auch an ihrem alter, niemand hat behauptet das die karte lahm ist usw... wenn es um das technikpaket geht, und darum geht es, kann Nvidia mit SM3.0 punkten und mit features die bei SC3 ein jahr später von ATI selbst erst in SM2.0 realisierbar waren oder einfach nur realisiert wurden. weswegen auch immer. Scheint wohl doch einfacher gewesen zu sein komplexe shader in auf einer GeForce 6800 zu schreiben da SM3.0 als auf einer SM2.0 karte ala. x850xt - da hilft das XT und das Sie zig mal schneller ist auch nicht wirklich...

Coda
2006-03-01, 15:40:45
Wo kann ich das Spiel kaufen?SM3 nicht unnütz. Q.e.d.

Hydrogen_Snake
2006-03-01, 15:42:16
Bis jetzt ist es aber nahezu unnötig – für den, der dafür zahlen muß!
Interessiert mich nicht. Ich messe SM 3.0 an der Realität, nicht an der Theorie.

Schöne Theorie, dann zeige mir mal den Horrenden unterschied in sachen Kosten einer SM3.0 fähigen und einer SM2.0 fähigen karte!

Gast
2006-03-01, 15:42:51
SM3 nicht unnütz. Q.e.d.Im Moment schon!

Odal
2006-03-01, 15:43:01
Nur haben sich weder PS2.B noch PS 2.A durchsetzen können. In erster Linie hat die R420er Generation einen enormen Taktvorteil, was viel mehr zählt, als ihre Shader-Erweiterungen ggü. der R300-Generation.
Du kannst jetzt ruhig aufzählen, welche Spiele SM 3.0 und welche Spiele SM 2.X verwenden, wobei SC 3 zu der ersten Gruppe gezählt wird.


Ich reite jetzt hier nicht auf dem b bei PS2.b herum sondern wollte damit auf die X800 X700 etc. Karten deuten. Abzählen kannst du sowohl SM3 als auch 2.x spielen an einer Hand. Die sollen einen anständigen SM2 Pfad einbauen und für Spiele die dann auf den Enkeln der SM2 KArten (welche dann ja längst SM3 haben) mal laufen einen anständigen SM3 Pfad.

Coda
2006-03-01, 15:43:02
Schöne Theorie, dann zeige mir mal den Horrenden unterschied in sachen Kosten einer SM3.0 fähigen und einer SM2.0 fähigen karte!Richtig. Ein nur SM2.x fähiger NV40 wäre kaum kleiner gewesen. Das scheint unser lieber Gast leider nicht zu verstehen.

Im Moment schon!Spielt hier keine Rolle. Das scheinst du auch nicht zu verstehen. Es geht hier nicht darum Kaufentscheidungen zu verteidigen sondern um technische Zusammenhänge.

Hydrogen_Snake
2006-03-01, 15:43:36
Wo kann ich das Spiel kaufen?

Wesewegen kauft man sich Enthusiast Hardware!?

Odal
2006-03-01, 15:46:36
Wer kann den was dafür das 2. der ehemals High end karten. Wie 6800U und die X850XT nun mal nicht beide Next Gen Features bieten!?


Ja ATI kann was dafür, das kann einem im Nachhinein als Käufer dieser äusserst performanten Schnäppchenkarten die praktisch alles anständig darstellen aber egal sein.

Odal
2006-03-01, 15:50:07
Spielt hier keine Rolle. Das scheinst du auch nicht zu verstehen. Es geht hier nicht darum Kaufentscheidungen zu verteidigen sondern um technische Zusammenhänge.

Doch genau darum geht es hier. Ich Quote nochmal das Eingangsposting


Kann jemand mir anhand von screens mal zeigen inwiefern sich nun was ändert.

ich höre immer nur nim lieber 3.0.

würde jedoch gerne mal sehen wo genau der unterschied liegt.

am besten vom selben hersteller ati- ati
bzw. nvidia - nvidia

Alles in gleichen Auflösungen

Coda
2006-03-01, 15:52:23
Ja. Aber darum geht es eben schon lange nicht mehr. Es geht jetzt darum die hoffnungslose Feature-Rechtspartei hier etwas zu entkräften um einem möglichen Leser beide Perspektiven zu zeigen ;)

Ich glaube ich habe noch nie irgendjemandem eine Kaufentscheidung wegen SM3 gegeben und würde selbst heute noch sehr vorsichtig damit sein.

Gast
2006-03-01, 15:54:13
Schöne Theorie, dann zeige mir mal den Horrenden unterschied in sachen Kosten einer SM3.0 fähigen und einer SM2.0 fähigen karte!
Bin da nicht auf dem laufenden. Wurde hier doch irgendwo schon genannt. x850 zu gt6600 oder so.
Richtig. Ein nur SM2.x fähiger NV40 wäre kaum kleiner gewesen. Das scheint unser lieber Gast leider nicht zu verstehen.Was interessiert mich denn, was NVIDIA für Gründe hat, SM 3.0 zu implementieren? Ist mir doch völlig Wurscht! Für mich ist interessant, was MIR das bringt, wenn ich eine Grafikkarte kaufe.

Spielt hier keine Rolle. Das scheinst du auch nicht zu verstehen. Es geht hier nicht darum Kaufentscheidungen zu verteidigen sondern um technische Zusammenhänge.Technische Zusammenhänge gleich Theorie. Praxis gleich Spiele.
Wesewegen kauft man sich Enthusiast Hardware!?Warum kauft man sich Schmuck?

Hydrogen_Snake
2006-03-01, 15:54:45
Ja ATI kann was dafür, das kann einem im Nachhinein als Käufer dieser äusserst performanten Schnäppchenkarten die praktisch alles anständig darstellen aber egal sein.

Richtig, bis auf features für die das Shader Model 3 von vorteil ist... :rolleyes:

Hydrogen_Snake
2006-03-01, 15:55:39
Doch genau darum geht es hier. Ich Quote nochmal das Eingangsposting

Nun derjenige hat aber auch nicht verstanden das man SM2.0 und SM3.0 nicht durch screenshots darstellen kann!

Coda
2006-03-01, 15:57:10
Bin da nicht auf dem laufenden. Wurde hier doch irgendwo schon genannt. x850 zu gt6600 oder so.Die 6600GT war stets billiger als eine X850. Das ist doch einfach Unfug.

Was interessiert mich denn, was NVIDIA für Gründe hat, SM 3.0 zu implementieren? Ist mir doch völlig Wurscht! Für mich ist interessant, was MIR das bringt, wenn ich eine Grafikkarte kaufe.Nichts. Aber es macht die Grafikkarte deshalb auch nicht teurer als ohne (zumindest in der Herstellung). Ob jetzt der Hype dazu geführt hat dass die SM3-Karte einen höheren Marktwert hat mag ja sein. Es steht dir ja offen das SM2-Design von ATI zu kaufen, darum geht es mir nicht ;)

Technische Zusammenhänge gleich Theorie. Praxis gleich Spiele.Auch richtig. Darum gehts mir aber gerade nicht.

Peppermint Patty
2006-03-01, 15:57:22
Schöne Theorie, dann zeige mir mal den Horrenden unterschied in sachen Kosten einer SM3.0 fähigen und einer SM2.0 fähigen karte!

ne anständige shader2 karte krieg ich günstiger bei ebay, ne shader3 nicht. und der preis wird auch jetzt erst interessant, weil ati zu potte gekommen ist, wenn jetzt auch noch konsolenspiele portiert würden, dann gäbs sogar neben 3dmark-daddeln auch nochn verwendungszweck

BtW, gibts 2.a neben 2.0 auch noch, welche Karte hat das denn?

Coda
2006-03-01, 15:58:19
2.A ist das FX-Profil.

ShadowXX
2006-03-01, 16:05:52
ne anständige shader2 karte krieg ich günstiger bei ebay, ne shader3 nicht. und der preis wird auch jetzt erst interessant, weil ati zu potte gekommen ist, wenn jetzt auch noch konsolenspiele portiert würden, dann gäbs sogar neben 3dmark-daddeln auch nochn verwendungszweck

BtW, gibts 2.a neben 2.0 auch noch, welche Karte hat das denn?
eBay ist da wohl ein ganz schlechtes Beispiel....

Wenn dann sollte wir normale Verkaufspreise in Shops betrachten und da war eine SM3.0-Karte nie teurer als eine SM2.0-Karte.

Man hat also nie was für SM3.0 draufgezahlt, sondern hatte dieses immer als goodie...wenn man so will "umsonst"....mit dabei.

2.a nv30
3.0 nv40
3.0 G70

2.0 r3x0
2.b r4x0
3.0 r5x0

Hydrogen_Snake
2006-03-01, 16:08:46
Bin da nicht auf dem laufenden. Wurde hier doch irgendwo schon genannt. x850 zu gt6600 oder so.

Was interessiert mich denn, was NVIDIA für Gründe hat, SM 3.0 zu implementieren? Ist mir doch völlig Wurscht! Für mich ist interessant, was MIR das bringt, wenn ich eine Grafikkarte kaufe.

Technische Zusammenhänge gleich Theorie. Praxis gleich Spiele.

Warum kauft man sich Schmuck?

1. Dann wird es dich freuen das du für eine X850xt genausoviel zahlen dürftest wie für eine 7800Gs für ~300 die dank des SM3.0 technisch ein besseres packet darstellt als die X850xt, war auch schon bei der 6800U bzw UE der fall! die übrigens für den selben preis über die theke gehen, das rückständige produkt zu kaufen ist also deine entscheidung, wenn die aus ignoranz das technische verständniss fehlt dann einfach mal die fresse halten.

2. thema ignorant & technisches verständniss, sowie z.B. Splinter Cell das ich in dem zeitraum in dem du auf deine SM2.0 umsetzung der SM3.0 shader gewartet hast 4 mal durgezockt habe und mir gewiss war das bestmögliche in
sachen grafik zu erleben als sämtliche Nvidia Bashenden ATI user :P

3. Richtig Therie gleich Praxis das sich das unterscheidet weist du ja selbst, kein grund mit nichtigen Argumenten, wie soll ich es audrücken, zu argumentieren.

4. Bestimmt nicht aus dem selben grund wie eine Top of the Line GFX-Card die SM3.0 unterstützung mit sich bringt.

außerdem finde ich den dev support bei Nvidia um einiges besser als bei ATI, was wahrscheinlich nicht zuletzt ein grund war für Nvidia SM3.0 zu implementieren. Während ATI es für nicht nötig hielt und 1 jahr lang lieber nen Workaround geschrieben hat.

Tigerchen
2006-03-01, 16:12:07
War eine n40-Karte doppelt so teuer zu dem Zeitpunkt wie eine r4x0-Karte?

AFAIR nein......wenn dem so gewesen wäre, dann könnte ich dir vielleicht sogar zustimmen, aber dem war nicht so.

Eine 6800Ultra hat das gleiche gekostet wie ein x800xt/x850xt......du hättest also nicht mehr Geld dafür ausgegeben um SM3.0 zu haben.
Der "technische Ausblick" hätte/hat also keinen Pfennig mehr gekostet.


Es sprach ja auch nichts dagegen sich eine nV40 Karte zu kaufen. Nur die Versprechungen die mit dem Erscheinen der nV40 Serie einhergingen sind bis heute nicht eingelöst worden. Und wer damals eine X800/X850 gekauft hat der hat allen Unkenrufen zum trotz eigentlich nichts verpasst.

Gast
2006-03-01, 16:14:13
eBay ist da wohl ein ganz schlechtes Beispiel....

Wenn dann sollte wir normale Verkaufspreise in Shops betrachten und da war eine SM3.0-Karte nie teurer als eine SM2.0-Karte.

Man hat also nie was für SM3.0 draufgezahlt, sondern hatte dieses immer als goodie...wenn man so will "umsonst"....mit dabei.

2.a nv30
3.0 nv40
3.0 G70

2.0 r3x0
2.b r4x0
3.0 r5x0Wenn man es als kaufentscheidendes Kreterium ansieht, kostet es halt doch. Nämlich die Vorteile der Hardware, die zwar nicht SM 3.0 kann, dafür aber z. B. schneller ist, schöneres AA hat usw.
Wo wir wieder bei der Praxis wären. SM 3.0 spielt da so gut wie keine Rolle.

Gast
2006-03-01, 16:14:26
Wer braucht SM3.0, mit SM2.0 muss alles gehen was SM3.0 leistet.

und die technisch versierten die wissen das Big Bangs for No Bucks schlicht und ergreifend nicht möglich sind!


Nun man könnte auch sagen, die Betrügerkarte GF4MX war die letzte ehrliche nV-Karte, das sie als einzige LowBudget-Karte das eingehlaten hat, was sie versprach. Nämlich halbwegs flüssig bei allen möglichen Features zu laufen. Bei den neuen kriegt man nur Features, aber keine Brute Force und diese werden auch erst 2 Jahre später genutzt. Klar ist ne Shader3 der künftige Standard, so wie Shader1,4 und 2 wg. Xbox überflüssig waren.

Tigerchen
2006-03-01, 16:15:55
sorry aber für mich war SM3.0 kaufgrund für eine 6800 ultra anfang letzten jahres, denn Splinter Cell hat dank SM3.0 HDR, Tone Mapping, VDM unterstützt. Während du mit deiner x800 ein "jahr" lang auf einen Patch warten durftest.

Rate mal was ich außerdem hatte mit dem 1.3 patch von Far Cry!? richtig, spielbare frameraten bei HDR dank SM3.0

1 Spiel und 1 Patch wobei HDR noch nicht mal was mit SM 3.0 zu tun hat.;D

Hydrogen_Snake
2006-03-01, 16:17:27
ne anständige shader2 karte krieg ich günstiger bei ebay, ne shader3 nicht. und der preis wird auch jetzt erst interessant, weil ati zu potte gekommen ist, wenn jetzt auch noch konsolenspiele portiert würden, dann gäbs sogar neben 3dmark-daddeln auch nochn verwendungszweck

BtW, gibts 2.a neben 2.0 auch noch, welche Karte hat das denn?

Ebay... tolles beispiel, technisch minderwertige geräte waren schon immer günstiger.

Hydrogen_Snake
2006-03-01, 16:20:17
Es sprach ja auch nichts dagegen sich eine nV40 Karte zu kaufen. Nur die Versprechungen die mit dem Erscheinen der nV40 Serie einhergingen sind bis heute nicht eingelöst worden. Und wer damals eine X800/X850 gekauft hat der hat allen Unkenrufen zum trotz eigentlich nichts verpasst.


1. Hat niemand behauptet!
2. Ähem... doch? Splinter Cell 3 mit SM3

Tigerchen
2006-03-01, 16:20:44
Ich habe nichts unterstellt. Du hast gesagt, daß das Shadermodel 3 schlechter aussieht und langsamer ist als das Shadermodel 2. Daß das völliger Kappes ist, dürfte klar sein, du bist aber trotzdem bei der Aussage geblieben.

Und wieder nur Lügen von dir. SM 2.0 sieht in meinen und auch so manch anderen Augen bei dem Spiel AOE3 besser aus als SM 3.0. Daraus die generelle Aussage abzuleiten daß ich SM 2.0 nun immer besser finde ist totaler Kappes. Es ist eben so ein Fall wo weniger mehr sein kann. Sowas passiert.

Hydrogen_Snake
2006-03-01, 16:22:01
1 Spiel und 1 Patch wobei HDR noch nicht mal was mit SM 3.0 zu tun hat.;D


NOPE! Hat sie auch nicht, aber mit der GF6800 ;D

Hydrogen_Snake
2006-03-01, 16:23:42
Und wieder nur Lügen von dir. SM 2.0 sieht in meinen und auch so manch anderen Augen bei dem Spiel AOE3 besser aus als SM 3.0. Daraus die generelle Aussage abzuleiten daß ich SM 2.0 nun immer besser finde ist totaler Kappes. Es ist eben so ein Fall wo weniger mehr sein kann. Sowas passiert.


weniger = mehr!? dann schlage ich dir die letzte ehrliche Nvidia Karte vor... die GF4MX... viel spass.

aths
2006-03-01, 16:25:11
Technische Zusammenhänge gleich Theorie.Falsch.
Praxis gleich Spiele.Wenn Theorie und Praxis nicht übereinstimmen, ist die Theorie falsch.

ShadowXX
2006-03-01, 16:28:04
1 Spiel und 1 Patch wobei HDR noch nicht mal was mit SM 3.0 zu tun hat.;D


Es sind inzwischen schon ein paar mehr Games....aber egal.

Du hast es eben ja aber auch selbst erwähnt...mit der nv40 konntest du eine SM3.0 Karte kaufen ohne weitere Nachteile zu haben.

Was sprach also gegen SM3-Karten?

Ach was werde ich diese Diskussionen ab der nächsten Generation vermissen, wenn alle Karte ein identisches Featureset haben......
Das war das beste was MS je eingefallen ist im Zusammenhang mit Ihrer Grafik-API.

Gast
2006-03-01, 16:28:43
1. Dann wird es dich freuen das du für eine X850xt genausoviel zahlen dürftest wie für eine 7800Gs die dank des SM3.0 technisch ein besseres packet darstellt als die X850xt, war auch schon bei der 6800U bzw UE der fall!Für die Zeit, als die x850 aktuell war, stellte (und tut es bis heute) SM 3.0 kein kaufentscheidendes Kriterium dar.
die übrigens für den selben preis über die theke gehen, das rückständige produkt zu kaufen ist also deine entscheidung, wenn die aus ignoranz das technische verständniss fehlt dann einfach mal die fresse halten.Rückständig inwiefern? Zum Beispiel beim AA? Übrigens hüte Deine Zunge, Schlange.

2. thema ignorant & technisches verständniss, sowie z.B. Splinter Cell das ich in dem zeitraum in dem du auf deine SM2.0 umsetzung der SM3.0 shader gewartet hast 4 mal durgezockt habe und mir gewiss war das bestmögliche in
sachen grafik zu erleben als sämtliche Nvidia Bashenden ATI user :PDafür habe ich in der Zeit die Vorteile der ATI-Hardware genossen, und das nicht nur in einem Spiel. :)

3. Richtig Therie gleich Praxis das sich das unterscheidet weist du ja selbst, kein grund mit nichtigen Argumenten, wie soll ich es audrücken, zu argumentieren.ICH weiß das schon, Du auch?

4. Bestimmt nicht aus dem selben grund wie eine Top of the Line GFX-Card die SM3.0 unterstützung mit sich bringt.Sagen wir es mal so, für die meisten dürfte das Motiv wesensverwandt sein.

außerdem finde ich den dev support bei Nvidia um einiges besser als bei ATI, was wahrscheinlich nicht zuletzt ein grund war für Nvidia SM3.0 zu implementieren. Während ATI es für nicht nötig hielt und 1 jahr lang lieber nen Workaround geschrieben hat.Dafür soll der Kaffee bei ATI besser schmecken.

Coda
2006-03-01, 16:28:58
Ihr solltet auch mal sehen, dass für NV40 obwohl er 4x soviele ALUs und 2x soviele TMUs wie NV30 hat nichtmal doppelt so viele Transistoren gebraucht wurden.

SM3 hat die Die-Größe kaum aufgebläht gegü. einem SM2.x-Design dem nur dyn. branching fehlen würde. Dafür ist das viel zu schlecht ;)

Ok, die 10 FP32-Interpolatoren sind bestimmt nicht so unglaublich billig gewesen, aber es wurden ja die kompletten DX7-Sachen dafür rausgekürzt.

Black-Scorpion
2006-03-01, 16:29:02
NOPE! Hat sie auch nicht, aber mit der GF6800 ;D
Seit wann hat HDR Rendering was mit der GF6800 zu tun?

Tigerchen
2006-03-01, 16:29:51
Ist genauso wie mit dem ganzen anderen "must-have-hype-Mist". Solange wie es erst in der Software umgesetzt werden muss, kann es dem Käufer bei der ersten Generation herzlich egal sein. Bis sich die Entwickler ausgekäst haben hat man schon wieder neue Hardware.

- SM3
- 64Bit
- Dualcore
...

Alles sehr gute Sachen wenn sie denn mal richtig ausgnutzt werden. Wer schlau ist holt sich die Hardware mit dem besten Preis/Leistungsverhältnis, für die Anwendung die er jetzt und heute benutzt. Zukunftssicherheit ist bei der Halbwertzeit von Computerhardware für den Arsch.

Korrekt. So ist es. Möchte noch "MMX" hinzufügen. Auch sowas was man einst unbedingt und sofort brauchte........

Coda
2006-03-01, 16:29:57
NV40 war der erste Chip der Blending auf FP16-Rendertargets gekonnt hat - mehr nicht.

aths
2006-03-01, 16:30:15
[COLOR="#000099"]
Und wieder nur Lügen von dir. SM 2.0 sieht in meinen und auch so manch anderen Augen bei dem Spiel AOE3 besser aus als SM 3.0. Daraus die generelle Aussage abzuleiten daß ich SM 2.0 nun immer besser finde ist totaler Kappes. Es ist eben so ein Fall wo weniger mehr sein kann. Sowas passiert.Tigerchen,

wenn man dich ernst nehmen soll, würde ich vorschlagen dass du auf die blaue Farbe verzichtest. Und dass du Leute, die offensichtlich mehr Ahnung haben, nicht der Lüge bezichtigst. Erst wenn du auf den anderen eingehst, ihm nicht in Argumentationsarmut einfach der Lüge bezichtigst und nicht mehr in blauer Farbe schreibst sondern – wie wir alle – in schwarz, besteht eine Veranlassung deine Postings ernstzunehmen.

Gast
2006-03-01, 16:30:49
Falsch.Falsch.
Wenn Theorie und Praxis nicht übereinstimmen, ist die Theorie falsch.Dann ist SM 3.0 falsch.

deekey777
2006-03-01, 16:31:09
Ich reite jetzt hier nicht auf dem b bei PS2.b herum sondern wollte damit auf die X800 X700 etc. Karten deuten. Abzählen kannst du sowohl SM3 als auch 2.x spielen an einer Hand.
Für 2.X reicht schon ein Finger aus.
Die sollen einen anständigen SM2 Pfad einbauen und für Spiele, die dann auf den Enkeln der SM2 KArten (welche dann ja längst SM3 haben) mal laufen einen anständigen SM3 Pfad.

Wünsche und Wirklichkeit fallen hier deutlich auseinander.
Seit wann hat HDR Rendering was mit der GF6800 zu tun?
In Far Cry? ;)

Und wieder nur Lügen von dir. SM 2.0 sieht in meinen und auch so manch anderen Augen bei dem Spiel AOE3 besser aus als SM 3.0. Daraus die generelle Aussage abzuleiten daß ich SM 2.0 nun immer besser finde ist totaler Kappes. Es ist eben so ein Fall wo weniger mehr sein kann. Sowas passiert.


Wir lassen für den Testparcours eine Zwischensequenz aus der Demo durchlaufen, die einige anspruchsvolle Szenen enthält. Jedoch haben wir die Shader-Details auf „High“ heruntergesetzt, da die Stufe „Very High“ nur auf SM3-kompatiblen Grafikkarten verfügbar ist und SM2-Karten einige grafische Details somit nicht darstellen können, was die Ergebnisse verfälschen würde.
Und jetzt eine ganz simple Fragen: Haben die visuellen Verbesserungen bei Very High irgendwas mit SM3.0 zu tun oder mit erweiterten Fähigkeiten der NV40/G70 bzw. X1000er Serie? Ich bezweifle, daß eine 6200 auf Very High die gleiche visuelle Qualität liefert wie eine 7800GTX, obwohl sie eine SM3.0-Grafikkarte ist.

Coda
2006-03-01, 16:31:11
Korrekt. So ist es. Möchte noch "MMX" hinzufügen. Auch sowas was man einst unbedingt und sofort brauchte........
Ja sicher. Aber ist es deshalb schlecht?

Wie kann man denn nur so engstirnig sein. MMX ist heute sehr weit verbreitet und hilft Software schneller zu machen. Hätte man es nie eingeführt würde es auch keine Software-Basis dafür geben.

Ich bin eher sauer auf ATI dass sie SM3 so spät eingeführt haben. Wieso sollte man denn auf nVIDIA sauer sein, dass sie es so früh gemacht haben? Leuchtet mir beim besten Willen nicht ein. Man hätte inzw. sicherlich schon eine viel breitere Softwarebasis, wenn SM3-Karten entsprechend schon verbreiteter wären.

Spasstiger
2006-03-01, 16:31:33
2. Ähem... doch? Splinter Cell 3 mit SM3
Kann man auch mit SM2 spielen. Bis auf die schwächeren Blendeffekte beim HDR kein Unterschied.

Tigerchen
2006-03-01, 16:31:38
1. Hat niemand behauptet!
2. Ähem... doch? Splinter Cell 3 mit SM3

1. Doch sehr viele.
2. Eine Schwalbe macht noch keinen Sommer.

aths
2006-03-01, 16:31:55
Falsch.Falsch.
Dann ist SM 3.0 falsch.Nein. Dann ist entweder das ästhetische Empfinden von echtzeitgerenderter Computergrafik unterschiedlich, oder der Artist der den SM3-Zusatzcontent erschaffen hat, hat geschlampt.

Hydrogen_Snake
2006-03-01, 16:32:56
Seit wann hat HDR Rendering was mit der GF6800 zu tun?

eine oder zwei seiten zurückblättern...

aths
2006-03-01, 16:33:58
Ja sicher. Aber ist es deshalb schlecht?

Wie kann man denn nur so engstirnig sein. MMX ist heute sehr weit verbreitet und hilft Software schneller zu machen. Hätte man es nie eingeführt würde es auch keine Software-Basis dafür geben.So ist es. Seit einziger Zeit nutzen etliche Tools MMX. Dass 3DNow und ISSE, auch ISSE3, deutlich mehr bieten, stimmt zwar. Das macht MMX aber nicht schlechter. Doch erst als fast jeder PC über MMX-Support verfügte, trauten sich die Entwickler, es endlich (zum Vorteil des Anwenders) zu nutzen. Dass eine CPU mit MMX besser ist als eine ansonsten gleiche aber ohne MMX ist wahr unabhängig von Intels verwirrender (und falsche Versprechungen machender) Werbekampagne zur Zeiten des Pentium MMX'.

Ich bin eher sauer auf ATI dass sie SM3 so spät eingeführt haben. Wieso sollte man denn auf nVIDIA sauer sein, dass sie es so früh gemacht haben? Leuchtet mir beim besten Willen nicht ein. Man hätte inzw. sicherlich schon eine viel breitere Softwarebasis, wenn SM3-Karten entsprechend schon verbreiteter wären.So ist es. Hätte ATI mehr Ressourcen für den R400 bereitgestellt und uns nicht mit einem technisch lauen R300-Aufguss beglückt, gäbe es inzwischen viel mehr Spiele, die aus SM3 Performance- wie Qualitätsvorteile ziehen. Nur R300 und NV3x wären auf SM2-Basis, die installiere SM3-Hardwareplattform wäre heute deutlich größer wenn man sieht, wie viele X600, X700 und X800-basierende Karten heute (auch in Laptops) verbaut sind.

Black-Scorpion
2006-03-01, 16:38:14
eine oder zwei seiten zurückblättern...
Warum sollte ich?

ATI konnte schon HDR Rendering bevor die 6800er überhaupt auf dem Markt war.
Das einzige was sie nicht kann ist FP16 Filterung.

Coda
2006-03-01, 16:38:23
OT: SSE und SSE2 sind FP, MMX ist Integer. Nicht Kraut und Rüben durcheinandermischen.

ATI konnte schon HDR Rendering bevor die 6800er überhaupt auf dem Markt war.Ja. Sehr praktikabel war es allerdings nicht, somit spielt das auch keine Rolle. Bevor du damit anfängst: Das SM3 von NV40 ist praktikabel verwendbar (bis auf das dyn. branching, das ist echt furchtbar).

aths
2006-03-01, 16:43:44
Warum sollte ich?

ATI konnte schon HDR Rendering bevor die 6800er überhaupt auf dem Markt war.Kann die 5800 schon. Nur eben nicht mit vernünftiger Leistung – wie die 9800 ebenfalls HDR-Rendering nur in Techdemos hinreichend schnell rendern konnte. Erst die 6800 bot dedizierte Beschleunigung für HDR-Rendering.

Coda
2006-03-01, 16:44:33
Für das Techdemo war die FP16-Blending-Beschleunigung gar nicht notwendig, weil kein Multipass gerendert wurde. Es war eine HDR-Skybox mit ein paar Mesh auf den die selbe Cubemap moduliert wurde. Danach gabs noch ne Bloom-Pass mit Tonemapping (?). Das wars...

Übrigens kann es sein, dass das auf NV30 schwierig wird, da die FP16-Texturformate unter Direct3D da nicht funktionieren.

Black-Scorpion
2006-03-01, 16:44:54
OT: SSE und SSE2 sind FP, MMX ist Integer. Nicht Kraut und Rüben durcheinandermischen.

Ja. Sehr praktikabel war es allerdings nicht, somit spielt das auch keine Rolle. Bevor du damit anfängst: Das SM3 von NV40 ist praktikabel verwendbar.
Wie schnell und praktikabel es war spielt doch garkeine Rolle.

Coda
2006-03-01, 16:45:42
Ach nein? Was wird denn hier die ganze Zeit von euch gepredigt bzgl. SM3?

deekey777
2006-03-01, 16:46:24
[...]

So ist es. Hätte ATI mehr Ressourcen für den R400 bereitgestellt und uns nicht mit einem technisch lauen R300-Aufguss beglückt, gäbe es inzwischen viel mehr Spiele, die aus SM3 Performance- wie Qualitätsvorteile ziehen.
Ich habe am Wochenende einige R400-Threads durchgelesen. Daraus entstand bei mir der Eindruck, daß der R400 in erster Linie eine Antwort auf den "Original-NV30" sein sollte. Beide Hersteller haben sich einfach übernommen: Der R400 war damals nicht zu realisieren, was zur Folge hatte, daß er Anfang 2003 eingestampft wurde und das Projekt Loki (=R390/August 2003 bekannt) entstand, bei dem ATi den Codenamen einfach auf R420 änderte, damit der Eindruck entsteht, es handle sich beim R420 um eine ganz neue Generation. Auch der "Original-NV30" war zu ambitioniert gedacht und ließ sich nicht realisieren, der mit Verspätung veröffentlichte NV30 kam mit starken Kompromissen, nur hat nVidia dem Codenamen NV30 beibehalten.

Hydrogen_Snake
2006-03-01, 16:47:13
1. Doch sehr viele.
2. Eine Schwalbe macht noch keinen Sommer.


1. Mich ausgeschlossen... Außerdem wurde SM3.0 aus performancegründen verwendet, vielleicht deswegen- und du misinterpretierst das...
2. Willst du mir sagen das ich technische möglichkeiten nicht nutzen soll!?

Odal
2006-03-01, 16:47:54
Wenn dann sollte wir normale Verkaufspreise in Shops betrachten und da war eine SM3.0-Karte nie teurer als eine SM2.0-Karte.

Man hat also nie was für SM3.0 draufgezahlt, sondern hatte dieses immer als goodie...wenn man so will "umsonst"....mit dabei.


Jein bzw. falsch ^^ man bezahlt für eine leistungsmässig schwächere SM3 Karte das gleiche wie für eine schnellere SM2 Karte.
6800GT/GS X850XT
Oder auch umgekehrt..will man gleich schnelle SM3 Hardware haben muss man fast immer mehr Geld auf den Tisch legen. Eine 6200 ist ja auch SM3 Hardware und sicherlich deutlich billiger als eine X850FPS aber wieviel man vom SM3 dann hat und was sie für FPS im vergleich zur X850xt auf den schirm zaubert sollte bekannt sein.

Gast
2006-03-01, 16:48:07
Falsch.
1 Falsch.
2 if input is "Falsch." goto 1 :)
Nein. Dann ist entweder das ästhetische Empfinden von echtzeitgerenderter Computergrafik unterschiedlich, oder der Artist der den SM3-Zusatzcontent erschaffen hat, hat geschlampt.Oder SM 3.0 spielt einfach in der Praxis keine, bzw. eine unbedeutende, Rolle.

Coda
2006-03-01, 16:48:38
ATi wäre überglücklich gewesen, wenn sie SM3 Hardware schon zu NV40-Zeiten dagegenhalten hätten können. Die SM2-Tour war sicher nicht zur Weltverbesserung da...

Oder SM 3.0 spielt einfach in der Praxis keine, bzw. eine unbedeutende, Rolle.Ohne Hardwareplatform keine Entwicklungsarbeit.

Es gibt übrigens auch ein Paper von ATI dass die Vorzüge von SM3 beleuchtet und da sind einige sehr interessante Techniken dabei, die u.a. auch schon im 3DMark 06 zu sehen sind (v.a. Kernelrotation fürs Shadowmap-Filtering).

Du kannst argumentieren wie du willst, aber SM3 ist ein großer Schritt weg von SM2, auch wenn man ihn heute noch nicht sieht.

Hydrogen_Snake
2006-03-01, 16:49:45
Warum sollte ich?

ATI konnte schon HDR Rendering bevor die 6800er überhaupt auf dem Markt war.
Das einzige was sie nicht kann ist FP16 Filterung.

richtig richtig... in einer ihrer damaligen tech demos mit dem 9700? (bitte um verbesserung wenn das falsch ist) nur tauglich lauffähig in far cry mit einer 6800...

Tigerchen
2006-03-01, 16:50:27
Ja sicher. Aber ist es deshalb schlecht?

Wie kann man denn nur so engstirnig sein. MMX ist heute sehr weit verbreitet und hilft Software schneller zu machen. Hätte man es nie eingeführt würde es auch keine Software-Basis dafür geben.

Ich bin eher sauer auf ATI dass sie SM3 so spät eingeführt haben. Wieso sollte man denn auf nVIDIA sauer sein, dass sie es so früh gemacht haben? Leuchtet mir beim besten Willen nicht ein. Man hätte inzw. sicherlich schon eine viel breitere Softwarebasis, wenn SM3-Karten entsprechend schon verbreiteter wären.

Auch bei MMX wurde den Leuten suggeriert (ich hab die INTEL-Interviews noch in den Ohren) daß MMX in ganz kurzer Zeit der Bringer sein würde. In Wahrheit konnte man noch lange auch ohne MMX-CPU glücklich sein. Das die INTEL-CPU's zu dieser Zeit die Performancekönige waren lag sicher nicht an MMX.

Wieso sauer? Bin doch nicht sauer auf nV weil sie da so schnell waren. Ich gratuliere!
Das mit der breiteren Softwarebasis ist so eine Sache. Selbst wenn X800XT und Co. schon SM 3.0 gehabt hätten wäre die Hardwarebasis immer noch zu schmal um Softwareschmieden in Scharren zu SM 3.0 oder HDR zu treiben. Und was dabei rauskommt wenn ewig den neuesten Effekten und features nachgerannt wird die unbedingt noch eingebaut werden müßen kannst an Stalker oder Duke Nukem Forever sehen......oder besser nicht sehen. ;D

deekey777
2006-03-01, 16:50:53
ATi wäre überglücklich gewesen, wenn sie SM3 Hardware schon zu NV40-Zeiten dagegenhalten hätten können. Die SM2-Tour war sicher nicht zur weltverbesserung da...
Mit dem R400 wären nicht nur die Kanadier überglücklich. :biggrin:

Odal
2006-03-01, 16:51:38
Wünsche und Wirklichkeit fallen hier deutlich auseinander.


Das erklär mal der SM3 Fraktion ^^ sie wünschen sich Vorteile von ihrem SM3 Feature auf dem NV40 zu haben, haben diese aber nicht wirklich gegenüber eines R480 in der Realität ^^.

Coda
2006-03-01, 16:51:59
Auch bei MMX wurde den Leuten suggeriert (ich hab die INTEL-Interviews noch in den Ohren) daß MMX in ganz kurzer Zeit der Bringer sein würde. In Wahrheit konnte man noch lange auch ohne MMX-CPU glücklich sein. Das die INTEL-CPU's zu dieser Zeit die Performancekönige waren lag sicher nicht an MMX. Klar. Deshalb ist es trotzdem noch lange nicht schlecht. Ich bin technisch genügend bewandert um meine Kaufentscheidungen vom Marketing zu entkoppeln ;)

Ich verstehe deinen Standpunkt ja irgendwie, nur leider ist er mir dann doch zu Fortschrittsfeindlich.

Das mit der breiteren Softwarebasis ist so eine Sache. Selbst wenn X800XT und Co. schon SM 3.0 gehabt hätten wäre die Hardwarebasis immer noch zu schmal um Softwareschmieden in Scharren zu SM 3.0 oder HDR zu treiben. Und was dabei rauskommt wenn ewig den neuesten Effekten und features nachgerannt wird die unbedingt noch eingebaut werden müßen kannst an Stalker oder Duke Nukem Forever sehen......oder besser nicht sehen. ;D Die Glaskugel möchte ich haben.

Das erklär mal der SM3 Fraktion ^^ sie wünschen sich Vorteile von ihrem SM3 Feature auf dem NV40 zu haben, haben diese aber nicht wirklich gegenüber eines R480 in der Realität ^^.Eins möchte ich klarstelle: Ich falle nicht in die Fraktion, da ich die Vorteile tatsächlich nütze ;)

Hydrogen_Snake
2006-03-01, 16:55:05
Auch bei MMX wurde den Leuten suggeriert (ich hab die INTEL-Interviews noch in den Ohren) daß MMX in ganz kurzer Zeit der Bringer sein würde. In Wahrheit konnte man noch lange auch ohne MMX-CPU glücklich sein. Das die INTEL-CPU's zu dieser Zeit die Performancekönige waren lag sicher nicht an MMX.

Wieso sauer? Bin doch nicht sauer auf nV weil sie da so schnell waren. Ich gratuliere!
Das mit der breiteren Softwarebasis ist so eine Sache. Selbst wenn X800XT und Co. schon SM 3.0 gehabt hätten wäre die Hardwarebasis immer noch zu schmal um Softwareschmieden in Scharren zu SM 3.0 oder HDR zu treiben. Und was dabei rauskommt wenn ewig den neuesten Effekten und features nachgerannt wird die unbedingt noch eingebaut werden müßen kannst an Stalker oder Duke Nukem Forever sehen......oder besser nicht sehen. ;D


HeyHey REBEL MOON RISING läuft nicht ohne MMX! :biggrin:
Wie gesagt intal hat es vorgegeben, keiner hat es genutzt. JETZT IST INTEL SCHULD!

deekey777
2006-03-01, 16:57:18
Das erklär mal der SM3 Fraktion ^^ sie wünschen sich Vorteile von ihrem SM3 Feature auf dem NV40 zu haben, haben diese aber nicht wirklich gegenüber eines R480 in der Realität ^^.
Dafür sehen sie andere visuelle Verbesserungen, die auf einer X8x0er unmöglich sind.

aths
2006-03-01, 16:59:46
Wie schnell und praktikabel es war spielt doch garkeine Rolle.Dann ist die FX 5200 ja die Topkarte :)

RLZ
2006-03-01, 17:00:40
OT: SSE und SSE2 sind FP, MMX ist Integer. Nicht Kraut und Rüben durcheinandermischen.
SSE und SSE2 erweitern beide das MMX Instructionset und beinhalten neue Integer Instructions.

aths
2006-03-01, 17:03:12
Ich habe am Wochenende einige R400-Threads durchgelesen. Daraus entstand bei mir der Eindruck, daß der R400 in erster Linie eine Antwort auf den "Original-NV30" sein sollte. Beide Hersteller haben sich einfach übernommen: Der R400 war damals nicht zu realisieren, was zur Folge hatte, daß er Anfang 2003 eingestampft wurde und das Projekt Loki (=R390/August 2003 bekannt) entstand, bei dem ATi den Codenamen einfach auf R420 änderte, damit der Eindruck entsteht, es handle sich beim R420 um eine ganz neue Generation. Auch der "Original-NV30" war zu ambitioniert gedacht und ließ sich nicht realisieren, der mit Verspätung veröffentlichte NV30 kam mit starken Kompromissen, nur hat nVidia dem Codenamen NV30 beibehalten.Was beim NV30 alles schiefging, können wir nur vermuten. Ich nehme an, dass bereits NV10 und erst recht NV20 nicht den Originalplänen entsprachen. Wie der NV30 letztlich aussehen würde, war NV imo früher klar, als man denkt. Der NV30 setzt aber darauf, dass man innerhalb eines Shaders nicht nur FP32, sondern auch FP16 und vor allem FX12 nutzt, wenn ohne großen Qualitätsverlust möglich.

ShadowXX
2006-03-01, 17:04:27
Jein bzw. falsch ^^ man bezahlt für eine leistungsmässig schwächere SM3 Karte das gleiche wie für eine schnellere SM2 Karte.
6800GT/GS X850XT
Oder auch umgekehrt..will man gleich schnelle SM3 Hardware haben muss man fast immer mehr Geld auf den Tisch legen. Eine 6200 ist ja auch SM3 Hardware und sicherlich deutlich billiger als eine X850FPS aber wieviel man vom SM3 dann hat und was sie für FPS im vergleich zur X850xt auf den schirm zaubert sollte bekannt sein.

Zum Zeitpunkt des Erscheinens....das jetzt sieht doch sowieso völlig anders aus.

Als 6800Ultra und x800xt rauskamen, waren Sie ca. gleichteuer.....

Das einem inzwischen SM2.0-HW "hinterhergeschmissen" wird, liegt u.a. daran, das ATI inzwischen auch SM3.0-HW bietet.

aths
2006-03-01, 17:06:52
1 Falsch.
2 if input is "Falsch." goto 1 :)
Oder SM 3.0 spielt einfach in der Praxis keine, bzw. eine unbedeutende, Rolle.Genau das ist ja der Trugschluss.

Bei den Spielen, die es hier und jetzt zu kaufen gibt, spielt SM3 eine untergeordnete Rolle. Kauft man sich jetzt eine Karte, sollte man gucken was man hier und jetzt braucht. SM3-Features sind da ein Gesichtspunkt unter vielen, gleiches gilt für Beschleunigung vom HDR-Rendering. Imo viel wichtiger sind Dinge wie Antialiasing-Qualität und Texturqualität.

Aber das Hier und Jetzt sagt wenig darüber aus, ob SM3 nun wirklich deutlich besser als SM2 ist, oder lediglich einige unbedeutende Zusatzspielereien bietet. SM3 bietet in der Tat viel mehr Freiheiten, damit viel mehr Möglichkeiten als SM2.0. Mit SM3 kann man eine komplexe Szene sowohl GPU-schonender als auch CPU-schonender rendern, und man bekommt eine bestimmte Komplexität noch in Echtzeitperformance hin, wenn SM2.0-Karten versagen. Es gibt auch Effekte, die mit SM2.0 gar nicht möglich sind, aber mit SM3 – sogar in Echtzeit – eingesetzt werden können.


Nicht nur in Highend-Gamerkarten wird SM3 genutzt. PowerVR nutzt SM3+-Features in mobilen Chips, um damit deutlich mehr als nur Grafik zu machen.

Xbox 360 und PS3 dürften von den Grafikfeatures her ca. auf SM3-Niveau sein. In 1, 2 Jahren, wenn die HW einigermaßen ausgenutzt wird, lässt sich bestaunen was damit realisiert wird.

Botcruscher
2006-03-01, 17:12:20
Das bestreitet ja auch niemand. Man solte das mal etwas einteilen:

- Marketing
- SM3 zum erscheinen des R420/NV40
- SM3 in der Lebensdauer dieser Karten
- SM3 heute
- SM3 in der Zukunft


PS: Ich finde diese übertriebenen Überblendeffekte auf den Pics häßlich.

Gast
2006-03-01, 17:17:04
So ist es. Hätte ATI mehr Ressourcen für den R400 bereitgestellt und uns nicht mit einem technisch lauen R300-Aufguss beglückt, gäbe es inzwischen viel mehr Spiele, die aus SM3 Performance- wie Qualitätsvorteile ziehen.Reine Spekulation. Die Leistungsteigerung bewegt sich auf einem unbedeutenden Niveau, und die Verschönerung durch aufwendigere Shader wäre damals Leistungstechnisch gar nicht machbar gewesen. Dafür hätte ATI weniger Ressourcen in andere Bereiche stecken können, z. B. Leistung. Dann hätten wir vielleicht alle jetzt schon SM 3.0-Karten, aber nicht die FPS, um damit z. B. ein Spiel wie F.E.A.R. mit AA und AF spielen zu können.

Nur R300 und NV3x wären auf SM2-Basis, die installiere SM3-Hardwareplattform wäre heute deutlich größer wenn man sieht, wie viele X600, X700 und X800-basierende Karten heute (auch in Laptops) verbaut sind.
Die Gesetze des Marktes funktionieren anders. Erst bringt die Spieleindustrie eine Killerapplikation raus – die Kunden wollen es haben und kaufen neue Hardware. Nicht die Kunden kaufen kollektiv in Vorleistung, damit die Softwareherteller (vielleicht) etwas machen, das wäre Planwirtschaft. Siehe CD-ROM und Rebel Assault.

aths
2006-03-01, 17:30:27
Reine Spekulation.Nein, sondern Projektion der verkauften R420-basierenden Einheiten in die bisher recht kleine SM3-Basis.

Die Leistungsteigerung bewegt sich auf einem unbedeutenden Niveau, und die Verschönerung durch aufwendigere Shader wäre damals Leistungstechnisch gar nicht machbar gewesen.Das ist relativ zu sehen. Im Prinzip gilt: Je komplexer die Shader, desto höher der Leistungsgewinn durch SM3. Das heißt natürlich, dass man bei Shadern auf SM2.0-Niveau durch SM3 meistens nur wenig gewinnen kann. Aber bereits die Radeon 9700 ist durch das Shader-Featureset eher limitiert als durch die Texel- und Arithmetik-Leistung. (Auch die GF4 Ti ist durch Pixelshader 1.3 viel stärker limitiert als durch ihre Rohleistung.)

Gerade der X800 hätte SM3 gut gestanden. Zwar ist die größte Hürde von SM2.0, das enge Instruction Limit, weg. Aber etliche andere Limits bleiben, die die Verwendung zusätzlicher Befehle nachsichziehen oder prinzipiell nicht umgehbar sind.

Dafür hätte ATI weniger Ressourcen in andere Bereiche stecken können, z. B. Leistung. Dann hätten wir vielleicht alle jetzt schon SM 3.0-Karten, aber nicht die FPS, um damit z. B. ein Spiel wie F.E.A.R. mit AA und AF spielen zu können.NV hat beides geschafft: 16 vernünftige Pipes und SM3.

Die Gesetze des Marktes funktionieren anders. Erst bringt die Spieleindustrie eine Killerapplikation raus – die Kunden wollen es haben und kaufen neue Hardware. Nicht die Kunden kaufen kollektiv in Vorleistung, damit die Softwareherteller (vielleicht) etwas machen, das wäre Planwirtschaft. Siehe CD-ROM und Rebel Assault.Rebel Assault wäre nicht programmiert worden, hätte nicht jemand Lucas Arts glaubhaft gemacht, dass sich CD-ROMs durchsetzen würden. Letztlich waren diese CD-ROM-Spiele nur ein Zwischenspiel, heute wird die Grafik lieber gerendert und nicht vorberechnet vom ROM gestreamt.

Damit sich die Programmierung der Killer-App lohnt, muss bereits eine gewisse Basis verfügbar sein. Die Killer-App kann dann den weiteren HW-Verkauf anheizen, nicht umsonst haben Konsolen-Hersteller ihre Exklusiv-Serien. Aber weder PS2 noch Xbox360 hätten sich ohne den PS1- oder oder Xbox-Vorläufer so gut verkaufen können. Die Xbox konnte trotz deutlich besserer Technik den Verkaufsrückstand zur schwächeren PS2 nie aufholen.

Genauso ist nicht gesagt, dass SM3-HW der größte anzunehmende kommerzielle Erfolg beschieden sein wird. SM3 ist dennoch deutlich besser als SM2.

Odal
2006-03-01, 17:34:01
Klar. Deshalb ist es trotzdem noch lange nicht schlecht. Ich bin technisch genügend bewandert um meine Kaufentscheidungen vom Marketing zu entkoppeln ;)


Ja du, aber der DAU liesst sich nur die Featureliste durch, oder wenn er etwas interessierter ist guckt er in ein Forum. Wenn dann da steht SM3 ist viel besser als SM2 zieht er daraus den Schluss verfügbare SM3 Karten sind viel besser als verfügbare SM2 KArten in der gleichen PErformanceklasse und ist durchaus bereit dann dafür mehr Geld auszugeben bzw. gleiches Geld für deutlich weniger FPS. Und eben das ist ein Trugschluss.


Eins möchte ich klarstelle: Ich falle nicht in die Fraktion, da ich die Vorteile tatsächlich nütze ;)

Das mag sein, aber bestimmt nicht in Spielen bei einem NV40 ^^.

Odal
2006-03-01, 17:35:12
Dafür sehen sie andere visuelle Verbesserungen, die auf einer X8x0er unmöglich sind.

In Spielen mit einer brauchbaren Framerate und Qulitativen Einstellungen? Wenn ja wie heisst das Spiel? ^^

Black-Scorpion
2006-03-01, 17:36:31
Dann ist die FX 5200 ja die Topkarte :)
Das hast du gesagt. ;)

Aber mir ging es nur darum das ein Zusammenhang HDR Rendering und 6800 (NV40) hergestellt wurde.
Ein Leser könnte jetzt annehmen das erst ab NV40 HDR Rendering möglich ist.
Und deshalb spielt die Geschwindigkeit und ob es praktikabel war keine Rolle.

Ist wie mit der 5200.
Sie kann DX9, aber das ist für die Spielepraxis nicht zu gebrauchen.

Odal
2006-03-01, 17:38:36
Zum Zeitpunkt des Erscheinens....das jetzt sieht doch sowieso völlig anders aus.

Als 6800Ultra und x800xt rauskamen, waren Sie ca. gleichteuer.....


wobei die X800XT nicht wirklich den Gegenspieler der 6800Ultra darstellte. Auch preislich nicht. Und trotzdem ein Stück schneller ist.


Das einem inzwischen SM2.0-HW "hinterhergeschmissen" wird, liegt u.a. daran, das ATI inzwischen auch SM3.0-HW bietet.

Ja und? Gründe hierfür sind doch egal. Wichtig ist der Fakt das man damit praktisch uneingeschränkt und performant und kostengünstig spielen kann. Mehr will der Normalo ja auch garnicht.

Coda
2006-03-01, 17:39:45
SSE und SSE2 erweitern beide das MMX Instructionset und beinhalten neue Integer Instructions.Ich wusste dass das kommt... Aths hat es aber anscheinend nicht so gemeint gehabt.

Coda
2006-03-01, 17:40:57
Ja du, aber der DAU liesst sich nur die Featureliste durch, oder wenn er etwas interessierter ist guckt er in ein Forum. Wenn dann da steht SM3 ist viel besser als SM2 zieht er daraus den Schluss verfügbare SM3 Karten sind viel besser als verfügbare SM2 KArten in der gleichen PErformanceklasse und ist durchaus bereit dann dafür mehr Geld auszugeben bzw. gleiches Geld für deutlich weniger FPS. Und eben das ist ein Trugschluss.Ack. Trotzdem sollte man hier nicht einen Feldzug gegen SM3 führen, denn im Endeffekt bringt es den Spielern dann doch irgendwann was, wenn die Entwickler frühen Zugriff darauf haben.

Das mag sein, aber bestimmt nicht in Spielen bei einem NV40 ^^.Ack. Keine Frage.

Gast
2006-03-01, 17:45:48
Weil es durchaus PS 2.b Karten zu Schnäppchenpreisen gab und gibt, dem Spieler aber ständig suggeriert wird das nur mit einer SM3 Karte ihm so richtig einer abgeht ^^. Verfolge mal die Diskussionen 6800GS vs. X850XT mit...beide kosten praktisch ähnlich viel und immer wird im gleichen Atemzug gesagt unbedingt die 6800GS kaufen denn die hat SM3 auch wenn sie deutlich langsamer in Spielen ist wie die X850XT und praktisch auch kaum mehr darstellt weil es eben keine grosse Softwareunterstützung dafür gibt.
Der DAU denkt sich Cool SM3 da schaut die Welt natürlich gleich viel besser aus und fasst lieber zur langsamen 6800GS statt zur X850XT. Ähnliches wird doch im "3dfx war dämlich" Thread durchgekaut. Der DAU griff lieber zur GeForce1 weil die 32 Bit und TnL konnte und die Voodoo nur 22Bit was aber nahezu ähnlich gut ausschaute bei besserer Performance auf der Voodoo.

Danke. Endlich hat es jemand auf dem Punkt gebracht.

Odal
2006-03-01, 17:46:19
Ack. Trotzdem sollte man hier nicht einen Feldzug gegen SM3 führen, denn im Endeffekt bringt es den Spielern dann doch irgendwann was, wenn die Entwickler frühen Zugriff darauf haben.

Ich glaube kaum das hier jemand wirklich einen Feldzug gegen SM3 führen will. SM3 ist wichtig und hat isch ja auch durchgesetzt so das nur noch Hardware mit SM3 produziert wird (von NV und ATI). Es geht vielen lediglich darum Aufklärung zu betreiben das es keine erhältliche SM2 Karte auf dem Markt gibt die aufgrund des vermeintlichen Mankos (SM3 fehlt) schlecht oder viel schlechter bei Spielen darsteht. Klar hats ATI verbockt und die SM3 Entwicklung blockiert indem sie solange auf sich warten liessen.

Pirx
2006-03-01, 18:06:18
...
NV hat beides geschafft: 16 vernünftige Pipes und SM3.
...
Und wer bietet jetzt, wo die Shaderleistung so langsam wirklich gebraucht wird (und sei es auch nur zu einer Verschlimmbesserung des grafischen Outputs im Vergleich zum SM2-Pfad:lol: ), die Karten mit der höchsten nutzbaren Shaderleistung an?

Die Anforderungen an die GPU durch Shader werden durch die Vereinfachungen von SM3 vielleicht sinken, aber das wird doch locker (wie immer) überflügelt durch höheren Detailgrad, usw, wodurch den NV40-Karten wohl doch bald die Puste ausgehen wird, sodass man auf ihnen am Ende auch nichts besseres zu sehen bekommt als auf X8x0.
Der NV40 hat das Feature eingeführt, genauso wie andere Chips andere Features eingeführt haben. So einen sofortigen technologischen Gleichstand der Chips gibts nunmal nicht, für ATi bedeutete die Umstellung auf SM3 eben einen erheblichen Aufwand, durch die Verspätung des R520 noch verschlimmert - das kann und wird anderen Herstellern in ähnlicher Form immer wieder "passieren".

Gast
2006-03-01, 18:17:55
Und wer bietet jetzt, wo die Shaderleistung so langsam wirklich gebraucht wird (und sei es auch nur zu einer Verschlimmbesserung des grafischen Outputs im Vergleich zum SM2-Pfad:lol: ), die Karten mit der höchsten nutzbaren Shaderleistung an?.Was bitte hat das mit dem Thema zu tun?

aths
2006-03-01, 18:18:00
Ich wusste dass das kommt... Aths hat es aber anscheinend nicht so gemeint gehabt.3DNow und SSE beschleunigen auch FP-Operationen, was für viele Sachen sinnvoller ist als nur Integer-Beschleunigung. Trotzdem ist MMX-Support nicht schlecht, auch wenn MMX alleine heute nicht mehr ausreicht.

aths
2006-03-01, 18:22:34
Und wer bietet jetzt, wo die Shaderleistung so langsam wirklich gebraucht wird (und sei es auch nur zu einer Verschlimmbesserung des grafischen Outputs im Vergleich zum SM2-Pfad:lol: ), die Karten mit der höchsten nutzbaren Shaderleistung an?Dass die Zusatz-Features bei AOE3, die SM3 erfordern, vielen Leuten nicht gefallen hat nichts damit zu tun, dass SM3 deutlich flexibler ist als SM2. Das ist eine Frage, wie die AOE3-Entwickler SM3 eingesetzt haben.

Es ist möglich, mit SM3 (oder SM2) gouraud-schattierte Polygone auszugeben und mit Pixelshader 1.1 (oder auch auf bestimmten DX7-Karten) pixelgenaue Beleuchtung anzubieten. Was sagt uns das? Nicht außer dass PS 1.1 alle DX7-Multitexturing-Operationen inkludiert, SM2 alles kann was man mit PS1.1, 1.3 oder 1.4 kann, und SM3 vollständig SM2 beinhaltet aber eben weniger Grenzen setzt und einen größeren Befehlssatz zur Verfügung stellt.

Was "nutzbare" Shaderleistung angeht müsste man sich zunächst einigen, woran (an welchem Benchmark) man das "nutzbar" festmachen möchte.

Die Anforderungen an die GPU durch Shader werden durch die Vereinfachungen von SM3 vielleicht sinken, aber das wird doch locker (wie immer) überflügelt durch höheren Detailgrad, usw, wodurch den NV40-Karten wohl doch bald die Puste ausgehen wird, sodass man auf ihnen am Ende auch nichts besseres zu sehen bekommt als auf X8x0.
Der NV40 hat das Feature eingeführt, genauso wie andere Chips andere Features eingeführt haben. So einen sofortigen technologischen Gleichstand der Chips gibts nunmal nicht, für ATi bedeutete die Umstellung auf SM3 eben einen erheblichen Aufwand, durch die Verspätung des R520 noch verschlimmert - das kann und wird anderen Herstellern in ähnlicher Form immer wieder "passieren".Die Rohleistungs-Anforderungen der GPU werden durch SM3 natürlich sinken, dazu ist es ja erfunden worden. Mehr Details oder zusätzliche Effekte werden dann in Echtzeit möglich. Dass die erste SM3-Karte die es gab die neuen SM3-Spiele nicht mehr in hohen Auflösungen mit allen Effekten bei flüssigster Grafik darstellen kann, halte ich für verzeihlich. Ohne SM3 wäre der NV40 deutlich schwächer. Dank SM3 kann er länger mithalten, als er es ohne SM3 könnte. X800 mit SM3 könnte ebenso länger mithalten.

reunion
2006-03-01, 18:24:52
Bevor du damit anfängst: Das SM3 von NV40 ist praktikabel verwendbar (bis auf das dyn. branching, das ist echt furchtbar).

Also ist NV40 im Grunde doch wieder nur eine schnelle SM2.A-Karte, mit Checklisten SM3-Features (VT, dyn. Branching)?
Oder gab es sonst auch noch Sachen, die ein NV3x nicht beherrschte?

aths
2006-03-01, 18:25:38
Also ist NV40 im Grunde doch wieder nur eine schnelle SM2.A-Karte, mit Checklisten SM3-Features (VT, dyn. Branching)?Warum sich alles vorkauen lassen? Die DX9-Spec ist im Netz frei erhältlich.

SM2.A gibt es übrigens nicht.

Odal
2006-03-01, 18:29:31
Ohne SM3 wäre der NV40 deutlich schwächer. Dank SM3 kann er länger mithalten, als er es ohne SM3 könnte. X800 mit SM3 könnte ebenso länger mithalten.

Wielange kann denn der NV40 noch mithalten und der R480 nicht mehr? Wäre nett wenn du da mal deine persönliche Schätzung abgeben würdest. Und auch in welchen Auflösungen...

Denn wenn ich mir mal FEAR als den Performancekiller schlechthin angucke, da kommt eine 6800GT nur noch auf lausige 22FPS (in 1280x1024) und das spiel ist schon ein halbes Jahr raus.

ShadowXX
2006-03-01, 18:30:23
wobei die X800XT nicht wirklich den Gegenspieler der 6800Ultra darstellte. Auch preislich nicht. Und trotzdem ein Stück schneller ist.

??

6800Ultra und x800xt kamen relativ nahe beieinander raus und kostet am Anfang auch fast das gleiche....

Ich weiß wirklich nicht, wo du a.) einen anderen Gegenspieler zur x800xt als die 68U siehst und b.) wo die x800xt billiger als die 68U gewesen sein soll.


Ja und? Gründe hierfür sind doch egal. Wichtig ist der Fakt das man damit praktisch uneingeschränkt und performant und kostengünstig spielen kann. Mehr will der Normalo ja auch garnicht.
Mit der SM3.0 Karte für den gleichen Preis auch....

(Ich rede hier die ganze Zeit vom Zeitpunkt des Erscheinens...nicht davon was eine x800xt jetzt kostet).

Odal
2006-03-01, 18:36:56
Mit der SM3.0 Karte für den gleichen Preis auch....

(Ich rede hier die ganze Zeit vom Zeitpunkt des Erscheinens...nicht davon was eine x800xt jetzt kostet).

Ich rede aber schon davon was die Karten jetzt kosten. Denn der Normalo der sich jetzt für SM3 oder SM2 interessiet tut dies meistens weil er sich jetzt eine neue Grafikkarte kaufen will.
Du vergisst das es noch die X800XT-PE gab.
Ausserdem ist selbst eine damals erschienene X800XT im Schnitt schon mindestens 10% schneller als eine 6800Ultra...und die X800XT-PE wäre es um mehr als 15%.

Pirx
2006-03-01, 19:05:01
...X800 mit SM3 könnte ebenso länger mithalten.
Zumindest das halte ich für eine gewagte Spekulation. Ich spekuliere mal dahingehend, daß man mit der Integration von SM3 in X8x0 eher viel Speed verloren hätte (mehr Transistoren u.a.) und der Gewinn dadurch eher bescheiden wäre (zu viele Kompromisse durch das alte Design ohne einen ganzheitlich durchdachten Ansatz - der durch Zeitmangel? nicht fertig war?)
Da gefällt es mir so, wie es jetzt gelaufen ist, viel bessser, wir haben jetzt SM3 bei ATi mit hoher Geschwindigkeit und nicht Checklisten-Features (bis auf 1 evtl:D) und auch die Vorzüge der vorherigen Generation(bis auf 1 evtl:rolleyes: ).

Coda
2006-03-01, 19:44:18
Also ist NV40 im Grunde doch wieder nur eine schnelle SM2.A-Karte, mit Checklisten SM3-Features (VT, dyn. Branching)?
Oder gab es sonst auch noch Sachen, die ein NV3x nicht beherrschte?Joa. vPos, 10 FP-Interpolatoren, vFace, mehr Instructions, mehr Temp-Register, mehr Constant-Register, etc. Aber das hält sich transistormäßig in Grenzen.

Und nein ich weigere mich das so zu sehen. NV3x war viel eher schon fast ein SM3-Chip, nicht andersrum. Du wirst mir zwar nie abnehmen, dass dyn. branching nicht das wichtigste an SM3 ist im Moment, aber nun gut...

Btw. hat Humus wieder ein Demo rausgebracht dass sehr schön zeigt wie brutal unnütz das dyn. branching auf NV4x (inkl. G70) ist X-D

Der VTF ist dagegen übrigens recht brauchbar, vor allem für Matrix-Palette-Skinning (kein Limit der Größe, da einfach als Textur speicherbar). Nur leider kann es ja R5xx nicht, weswegen wir damit wohl bis DX10 warten müssen. Allg. ist es als große Constant-Storage wirklich brauchbar.

SM2.A gibt es übrigens nicht.Stimmt. PS2.A wäre richtig. Aber ich denke jeder weiß was gemeint ist.

LovesuckZ
2006-03-01, 20:00:15
Ich rede aber schon davon was die Karten jetzt kosten. Denn der Normalo der sich jetzt für SM3 oder SM2 interessiet tut dies meistens weil er sich jetzt eine neue Grafikkarte kaufen will.

Sie werden, wie die R520 Karten, verramscht.
Die Zeichen stehen auf Zukunft, da hat eine SM2.x Karte keine Berechtigung mehr...

Du vergisst das es noch die X800XT-PE gab.
Ausserdem ist selbst eine damals erschienene X800XT im Schnitt schon mindestens 10% schneller als eine 6800Ultra...und die X800XT-PE wäre es um mehr als 15%.

6800/GT, 6600/GT, hatten keine Leistungsbenachteiligungen gegenüber dem Konkurenzprodukt.

Coda
2006-03-01, 20:02:12
Ja. Bei NV40 hat einfach die Füllrate gefehlt, aber das hätte sie auch ohne SM3. Um den Takt hochzuprügeln hätten sie die Features ggü. NV3x zurückschrauben müssen, was wohl kaum praktikabel gewesen wäre.

Odal
2006-03-01, 20:04:40
Joa find ich gut das die verramscht werden. Deren Featureset reicht ja aus solang wie die Karten noch brauchbare FPS zaubern. Eine SM2.x Karte hat in Zukunft schon keine Berechtigung mehr weil KArten dieser Leistungsklasse (6800/X800) dann zu langsam sind.

die 6600GT war übrigens ziemlich konkurenzlos. Ich bezog mich aber auf die Ultra welche in der ersten Bauform nur mit 400Mhz GPU betrieben wurde und als NV sah das sie damit keinen stich sahen auf 425Mhz hochgepuscht wurde.

LovesuckZ
2006-03-01, 20:11:42
Joa find ich gut das die verramscht werden. Deren Featureset reicht ja aus solang wie die Karten noch brauchbare FPS zaubern. Eine SM2.x Karte hat in Zukunft schon keine Berechtigung mehr weil KArten dieser Leistungsklasse (6800/X800) dann zu langsam sind.

Warum dann die Karte kaufen, die ein langsames und hässliches Bild liefert (um es übertrieben zu sagen)?
Beide sind für die Zukunft nicht so schnell wie jetzige Produkte, dann doch eher mit schönen Flaggen untergehen.
Die 6800Ultra gib's für PCI-E zur Zeit für 203€.

die 6600GT war übrigens ziemlich konkurenzlos. Ich bezog mich aber auf die Ultra welche in der ersten Bauform nur mit 400Mhz GPU betrieben wurde und als NV sah das sie damit keinen stich sahen auf 425Mhz hochgepuscht wurde.

Warum nicht die 6800GT mit der X800Pro vergleichen?
Sich nur auf einProdukt zu beschränken und daran ein Fazit zu bilden, ist nicht sehr haltbar.
Die XT-PE, wie war nochmal der Takt der Karte bei den Reviews?

tokugawa
2006-03-01, 20:20:35
Unglaublich, da macht man mal ein kurzes Nachmittagsschläfchen um das Schlafdefizit zu kompensieren, und da werden ganze 5 Seiten weitere Postings verfasst...


Daß Du Echtzeit in Anführungszeichen gesetzt hast, hat den Grund, daß man knappe 7 FPS bei einer Auflösung von 640*640 nicht wirklich so nennen kann? ;)


Ja :) aber das ist auch auf meiner GeForce Go 6600 mit 250 MHz Chiptakt. Also auf einer eher Low-End-Karte nach heutigen Maßstäben.

Aber das ist weil die Einstellungen auf akkurater Berechnung eingestellt sind (10 Iterationen). Bei 2 Iterationen ist es zwar nicht mehr so physikalisch genau wie bei 10, aber immer noch gut genug um so auszusehen dass man kaum einen Unterschied merkt (bei deutlich höheren Framerates).

Anmerkung: es ging um dieses Bild (Raytrace-Effekte die nur mit SM 3.0 möglich sind)

http://www.cg.tuwien.ac.at/~chiu/raytrace_effects.jpg


Interessiert mich nicht. Ich messe SM 3.0 an der Realität, nicht an der Theorie.

Das beweist nur dass du nicht sehr viel von der heutigen Grafikrealität weißt. Mangelndes Wissen ist keine Ausrede!


SM3 nicht unnütz. Q.e.d.
Im Moment schon!

Nein, eben nicht. Für den Gamer bringt eine SM 3.0 Karte noch nicht soo viel (aber schon etwas). Aber SM 3.0 ist deswegen nicht unnütz. Worauf sollten die Entwickler sonst entwickeln?

Mensch Leute, zieht doch endlich euren Kopf aus dem Loch in das ihr ihn vergraben habt! Die Dinge in der Welt und in der Realität sind einfach so dass man mit Kasten- und Kategorien-Denken nicht alles begreifen kann!

Niemand sagt dass eine SM-3.0-Karte ein Muß ist für einen Gamer. Aber trotzdem ist die Aussage "SM 3.0 ist unnütz" absolut falsch!


Technische Zusammenhänge gleich Theorie. Praxis gleich Spiele.


Technische Zusammenhänge gleich Realität. Spiele ohne Begreifen des Drumherum gleich "Dummheit".


Es sprach ja auch nichts dagegen sich eine nV40 Karte zu kaufen. Nur die Versprechungen die mit dem Erscheinen der nV40 Serie einhergingen sind bis heute nicht eingelöst worden. Und wer damals eine X800/X850 gekauft hat der hat allen Unkenrufen zum trotz eigentlich nichts verpasst.


Und schau mal: trotzdem war der Hype nicht unbegründet und berechtigt, im Gegensatz zum TnL Hype. Weil zumindest die Entwickler hatten ihre Hardware um Spiele zu machen. Nochmals, es sagt keiner dass SM 3.0 ein Kaufgrund war. Hat nie jemand gesagt der Ahnung hatte. Aber jemand der Ahnung hat, sagt auch nicht dass SM 3.0 "unnötig" ist, auch nicht im NV40.


Korrekt. So ist es. Möchte noch "MMX" hinzufügen. Auch sowas was man einst unbedingt und sofort brauchte........


Nur DAUs denken so. Nur DAUs glauben dass man ihnen SM 3.0 Karten einreden wollte.

Wer selber denken kann, für den war immer klar: SM 3.0 ist wichtig und richtig. Aber für Gamer noch kein Kaufargument.

Aber (um bei der vielzitierten Praxis zu bleiben): Die Shader Model 3.0 Karten haben zusätzlich zu SM 3.0 auch noch andere Features "mitgebracht". Und das war dann schon ein Kaufargument für eine SM 3.0 Karte: nicht wegen SM 3.0, sondern wegen der Features die noch dabei waren.


ATI konnte schon HDR Rendering bevor die 6800er überhaupt auf dem Markt war.


NVIDIA hat ja auch nicht erst mit dem 6800er begonnen, Hardwaresupport für HDR Features (etwa nativer OpenEXR Support) zu implementieren, das gab's schon seit der GeForce FX.


Oder SM 3.0 spielt einfach in der Praxis keine, bzw. eine unbedeutende, Rolle.


SM 3.0 spielt eine GROSSE Rolle. Für Spieler noch nicht. Aber prinzipiell schon (und das ist auch Praxis).

Wer sagt dass nur die Spielerpraxis allein die alleinig gültige "Praxis" ist und alles andere nur graue Theorie?

In meiner Praxis ist SM 3.0 unverzichtbar.



Zusammenfassung:

Die SM-3.0-Skeptiker hier meinen, irgendwelche Leute hätten ihnen erklärt SM 3.0 sei für Gamer ein wichtiges Kaufkriterium. Das stimmt nicht, das hat niemand behauptet! Aber SM 3.0 ist allgemein ein prinzipiell zu begrüßender und wichtiger Schritt gewesen, ohne den der Fortschritt noch viel später passiert wäre.

Und SM 3.0 Karten wurden wenn dann nur deswegen empfohlen, weil sie außer SM 3.0 noch andere Features zu bieten hatten (HDR Rendering z.B.), die ein stärkeres Kaufargument waren. Wichtig zur Unterscheidung: Hier wurden Karten nicht wegen SM 3.0 empfohlen!


Wenn SM 2.0 was gebracht hat, wird es logischerweise SM 3.0 auch - denn ich sehe SM 3.0 als SM 2.0 ohne die Bremsen und Beschränkungen (bzw. mit weniger engen Beschränkungen). Und das ist doch gut so!

Und wie lange haben wir gebraucht bis SM 2.0 "weit verbreitet" war? Das war ja auch nicht so schnell - sogar langsamer - da mit SM 1.x zu SM 2.0 noch ein API-Wechsel (DirectX 8 zu DirectX 9) nötig war.

Für SM 3.0 braucht man eigentlich nicht mal die Grafik-Engine umschreiben, wenn man das Shader-Management entsprechend programmiert hat.


PS: und aths hat völlig recht. Wenn Theorie und Praxis nicht übereinstimmen, dann hat man irgendwo einen Denkfehler. Man kann Theorie und Praxis nicht so trennen wie es viele glauben.

Coda
2006-03-01, 20:26:12
Hm wieso sind sich alle die darüber bescheid wissen nur so einig :D

Odal
2006-03-01, 20:27:43
Warum dann die Karte kaufen, die ein langsames und hässliches Bild liefert (um es übertrieben zu sagen)?


öhm wo? in AoE3? Geschmackssache...sonst noch wo?
Dafür hat man so tolle Sachen wie Adaptives AA oder auch AAA genannt das funktioniert in fast jedem Spiel perfekt. Und wieso langsam? Sie bietet zumindest für 5€ weniger 15-20% mehr Leistung wie ne 6800Ultra. Und wenn man dann noch ein bisschen übertaktet passt das schon. Bei einer Ultra ist da schon so ziemlich das Ende der fahnenstange erreicht.


Beide sind für die Zukunft nicht so schnell wie jetzige Produkte, dann doch eher mit schönen Flaggen untergehen.
Die 6800Ultra gib's für PCI-E zur Zeit für 203€.


wieso? wenn ich mehr Leistung für weniger Geld haben kann.



Warum nicht die 6800GT mit der X800Pro vergleichen?
Sich nur auf einProdukt zu beschränken und daran ein Fazit zu bilden, ist nicht sehr haltbar.
Die XT-PE, wie war nochmal der Takt der Karte bei den Reviews?

Weil ich von den derzeitigen Schnaeppchen spreche für die sich DAU interessieren könnte. Das ist einmal die X850XT für 199€ bei ATI und bei NVidia die 6800GS oder 6800Ultra für 204€.
K.a. wie war nochjmal der Takt der Ultra bei den Reviews?
Btw: Interessiere ich mich nicht für alte Reviews sondern für jetzige. Es wurde ja auch mal NV auf Quality gebencht und jetzt wo alle Welt weiss das die BQ nicht mithalten kann auf HighQuality.

tokugawa
2006-03-01, 20:33:06
Weil ich von den derzeitigen Schnaeppchen spreche für die sich DAU interessieren könnte.


Wir sollten aufhören den DAUs Händchen zu halten und ihnen zu erklären "SM 3.0 ist wichtig" oder "SM 3.0 ist unnütz" (beide Aussagen sind in der Form falsch oder zumindest ungenau formuliert und führen dazu dass der DAU noch dümmer wird, wenn er das unreflektiert so frißt).

Ich bin eher dafür DAUs die technischen Zusammenhänge (= Realität) zu erklären und sie zu Nicht-DAUs zu machen. Wissen ist Macht.


Wie kann man freiwillig DAU sein und DAU bleiben wollen? Das verstehe ich einfach nicht.

aths
2006-03-01, 20:39:41
Wielange kann denn der NV40 noch mithalten und der R480 nicht mehr? Wäre nett wenn du da mal deine persönliche Schätzung abgeben würdest. Und auch in welchen Auflösungen...Ich wage da keine Spekulationen. Aber dass beim NV40 dank SM3 seine Rohleistung effizienter eingesetzt werden kann, als hätte er kein SM3, ist fakt. Denn mit SM3 sind komplexe Effekte GPU- und CPU-schonender umsetzbar als mit SM2, erst recht als mit dem Minimalstandard 2.0.

Gast
2006-03-01, 20:40:21
Nein, sondern Projektion der verkauften R420-basierenden Einheiten in die bisher recht kleine SM3-Basis.Eine vorhandene Marktdurchdringung ist nicht gleichbedeutend mit entsprechenden Anwendungen. Wo z. B. sind die Spiele, die von AGP 8x profitiert haben?

Das ist relativ zu sehen. Im Prinzip gilt: Je komplexer die Shader, desto höher der Leistungsgewinn durch SM3. Das heißt natürlich, dass man bei Shadern auf SM2.0-Niveau durch SM3 meistens nur wenig gewinnen kann.Bis heute gibt es aber kaum Spiele, die SM 3.0 voraussetzen. Deswegen ist es relativ unwichtig. Aber bereits die Radeon 9700 ist durch das Shader-Featureset eher limitiert als durch die Texel- und Arithmetik-Leistung. (Auch die GF4 Ti ist durch Pixelshader 1.3 viel stärker limitiert als durch ihre Rohleistung.)Kommt immer darauf an, was man spielt und mit welchen Einstellungen (Auflösung, AF …) Welche Spiele laufen denn nicht mehr mit SM 2.0?

Gerade der X800 hätte SM3 gut gestanden. Zwar ist die größte Hürde von SM2.0, das enge Instruction Limit, weg. Aber etliche andere Limits bleiben, die die Verwendung zusätzlicher Befehle nachsichziehen oder prinzipiell nicht umgehbar sind.Sicher, wäre nett gewesen, wenn sie SM 3.0 an Board gehabt hätte. Aber wirklich gebraucht hat man es nicht. Auch heute kann man praktisch (fast) jedes Spiel ohne SM 3.0 mit allen optischen Leckerbissen genießen.

NV hat beides geschafft: 16 vernünftige Pipes und SM3.Dafür hat die Karte andere Nachteile. Außerdem, wer sagt Dir, daß die Entwicklung so verlaufen wäre, wenn ATI statt auf Mehrleistung zu setzten, lieber SM 3.0 implementiert hätte. Dann wäre die x8-Generation vielleicht viel langsamer gewesen; und NVIDIA hätte nicht 16 Pipes gebracht, sondern nur 12. In einer Marktwirtschaft kann man eben die Marktdurchdringung nicht genau steuern. ATI hat sich (warum auch immer) anders entschieden und der Markt hat die Karten gewollt. Und wie man jetzt sieht, hatte ATI völlig Recht damit, daß man mit dieser Generation SM 3.0 nicht braucht. So gut wie jeder, der sich eine 6800er wegen SM 3.0 gekauft hat, hat mit Zitronen gehandelt.

Rebel Assault wäre nicht programmiert worden, hätte nicht jemand Lucas Arts glaubhaft gemacht, dass sich CD-ROMs durchsetzen würden.Welcher Astrologe war das denn? Wie wäre es damit: Lukas Arts hat nicht unwesentlich dazu beigetragen, daß sich die CD-ROM etablieren konnte?

Letztlich waren diese CD-ROM-Spiele nur ein Zwischenspiel, heute wird die Grafik lieber gerendert und nicht vorberechnet vom ROM gestreamt.Gibt doch immer noch vorgerenderte Zwischensequenzen. Letzlich ist alles nur ein Zwischenschritt – solange es Entwicklung gibt. ;)

Damit sich die Programmierung der Killer-App lohnt, muss bereits eine gewisse Basis verfügbar sein. Die Killer-App kann dann den weiteren HW-Verkauf anheizen, nicht umsonst haben Konsolen-Hersteller ihre Exklusiv-Serien.Der Konsolenmarkt ist ein gutes Beispiel. Hier verkauft Software auch Hardware. Keine Konsole kommt ohne Spiele auf den Markt.
Aber weder PS2 noch Xbox360 hätten sich ohne den PS1- oder oder Xbox-Vorläufer so gut verkaufen können. Die Xbox konnte trotz deutlich besserer Technik den Verkaufsrückstand zur schwächeren PS2 nie aufholen. Weil der Markt halt nicht blind der vermeintlich besseren Technik hinterher rennt. Was sich letztlich wann und warum durchsetzt, weiß kein Mensch. Der Phaeton ist z. B. in den USA nahezu unverkäuflich.

Genauso ist nicht gesagt, dass SM3-HW der größte anzunehmende kommerzielle Erfolg beschieden sein wird. SM3 ist dennoch deutlich besser als SM2.Besser für wen? Ich sehe bis jetzt keinen erwähnenswerten Vorteil für den Spieler. Bald wird es SM 4 geben, mal sehen, ob SM 3.0 nicht eine unwichtige Randnotiz bleiben wird.

Odal
2006-03-01, 20:40:45
Wie kann man freiwillig DAU sein und DAU bleiben wollen? Das verstehe ich einfach nicht.


Naja es hat nicht jeder das Hobby Hardware. Einige interessieren sich nicht für details und wollen das auch garnicht. Einige schrauben auch gern an Autos rum und können dir für jede schraube und jedes teil in ihrer Kiste sagen wozu es gut ist. Andere sagen sich na Hauptsache es läuft.

Wenn ich zum Arzt gehe und eine Kernspintomographie machen lasse interessiert mich das der Arzt sagt: "Jawohl sie sind gesund". Die Details woran er das abließt interessieren mich höchstens sekundär. Und schon garnicht interessiert mich wie so ein Kernspintomograph wirklich funktioniert, da habe ich andere Hobbies.

Odal
2006-03-01, 20:46:06
Ich wage da keine Spekulationen. Aber dass beim NV40 dank SM3 seine Rohleistung effizienter eingesetzt werden kann, als hätte er kein SM3, ist fakt. Denn mit SM3 sind komplexe Effekte GPU- und CPU-schonender umsetzbar als mit SM2, erst recht als mit dem Minimalstandard 2.0.

Joa ist ja auch so wichtig dann statt 11FPS 14 zu haben. Und die effizientere Einsetzung der Rohleistung braucht der NV40 ja auch um mit dem R480 mithalten zu können.
Komm gib dir nen Ruck und gib eine Schätzung ab das ich dich dann im Winter darauf festnageln kann. :D

aths
2006-03-01, 20:47:02
Zumindest das halte ich für eine gewagte Spekulation. Ich spekuliere mal dahingehend, daß man mit der Integration von SM3 in X8x0 eher viel Speed verloren hätte (mehr Transistoren u.a.) und der Gewinn dadurch eher bescheiden wäre (zu viele Kompromisse durch das alte Design ohne einen ganzheitlich durchdachten Ansatz - der durch Zeitmangel? nicht fertig war?)
Da gefällt es mir so, wie es jetzt gelaufen ist, viel bessser, wir haben jetzt SM3 bei ATi mit hoher Geschwindigkeit und nicht Checklisten-Features (bis auf 1 evtl:D) und auch die Vorzüge der vorherigen Generation(bis auf 1 evtl:rolleyes: ).Wieso sollte der R420 bei SM3-Support gleich Speed verlieren? Siehe R520. Der R520 ist nicht langsamer als der R420. ATI hat es nur nicht geschafft, den R520 rechtzeitig zum NV40-Release zu bauen. Das ist insofern kein Wunder wenn man sieht, wie der R300 aussah: Für dessen SM2-Implementierung galt der Minimalismus. Nvidia hat mit dem NV30, was sinnvolle Features angeht, gleich vorgedacht. Man kann im gleichen Zuge Nvidia vorhalten, einen Chip à la NV43 nicht bereits zu NV30-Zeiten präsentiert zu haben. Hier gehts ja nicht darum, ATI als den allgemein schlechteren IHV hinzustellen. Im Gegenteil, seit dem R300 bietet ATI oft die bessere Lösung für den Gamer. Aber dieses ganze Verteidigen der eigenen Hardware sollte nicht den Blick auf nüchterne, nachprüfbare Fakten verstellen. Die sprechen eine ganz klare Sprache: Mit SM 3.0 ist bei gleicher Rohleistung viel mehr in Echtzeit möglich als mit SM 2.0.

aths
2006-03-01, 20:48:27
Stimmt. PS2.A wäre richtig. Aber ich denke jeder weiß was gemeint ist.PS 2.A gibt es auch nicht. Für PS 2.x gibt es aber ein Profil 2_A.

öhm wo? in AoE3? Geschmackssache...sonst noch wo?
Dafür hat man so tolle Sachen wie Adaptives AA oder auch AAA genannt das funktioniert in fast jedem Spiel perfekt. Und wieso langsam? Sie bietet zumindest für 5€ weniger 15-20% mehr Leistung wie ne 6800Ultra.Mehr als. "Wie" nur bei Gleichheit.

Ob R520 oder G70 der bessere SM3-Chip sei, ist eine Frage die mich bei der Kaufentscheidung kaum interessiert. Da zählt für mich sinnvolle erreichbare Bildqualität. Hier sehe ich den R520 gerade was Texturfilterung angeht im Vorteil.

Odal
2006-03-01, 20:52:34
Bald wird es SM 4 geben, mal sehen, ob SM 3.0 nicht eine unwichtige Randnotiz bleiben wird.

Vorallem gehts dann wieder los, die 7900GTX (jetzt noch nichtmal auf dem MArkt) ist dann scheisse weil sie kein SM4 beherrscht. Wie kann man sich noch solche technisch veraltete Karte kaufen. Die wird doch nicht lange halten. Der ist ja schon vor dem Start nur eine Lebensdauer von 6-7 Monaten bescheinigt.

tokugawa
2006-03-01, 20:53:33
Und wie man jetzt sieht, hatte ATI völlig Recht damit, daß man mit dieser Generation SM 3.0 nicht braucht.


Sie hatten nicht Recht. Sie haben nur auf den Markt reagiert, anstatt Innovationen zu bringen. Also: NVIDIA hat mit SM 3.0 aktiv den Fortschritt gefördert, ATI eher gehemmt.

Wenn so ein Vorgehen noch dazu honoriert wird vom Markt dann gute Nacht. Dann haben wir in 3 Jahren noch Spiele die genauso ausschauen wie heutige Spiele.


So gut wie jeder, der sich eine 6800er wegen SM 3.0 gekauft hat, hat mit Zitronen gehandelt.


Wer nicht selber denken kann...


Welcher Astrologe war das denn? Wie wäre es damit: Lukas Arts hat nicht unwesentlich dazu beigetragen, daß sich die CD-ROM etablieren konnte?


NVIDIA trägt mit ihren Forschungs- und Entwicklungs-Tätigkeiten auch dazu bei.


Gibt doch immer noch vorgerenderte Zwischensequenzen. Letzlich ist alles nur ein Zwischenschritt – solange es Entwicklung gibt. ;)


So ist es. SM 3.0 ist auch nur ein wichtiger Zwischenschritt zu SM 4.0, SM 4.0 wird auch nicht das Ende der Entwicklung sein.

Nur ist SM 3.0 keine Randnotiz, sondern wichtiger Innovationsfaktor.


Bald wird es SM 4 geben, mal sehen, ob SM 3.0 nicht eine unwichtige Randnotiz bleiben wird.

SM 3.0 ist schon heute keine Randnotiz und in anderen Bereichen sehr wichtig (die umgekehrt aber auch der Spieletechnologie zugute kommen, nur das dauert halt seine Zeit. Aber es würde noch viel länger dauern wenn NVIDIA es so wie ATI gemacht hätte). Dass es in Spielen noch keine Exklusiv-SM3.0-Spiele (aber sehr wohl Exklusiv-SM3.0-Effekte oder Techniken) gibt, liegt daran dass PC-Spiele ja nicht für einen Bruchteil an Hardware programmiert werden: sie müssen auf einer breiten Basis laufen.


Naja es hat nicht jeder das Hobby Hardware. Einige interessieren sich nicht für details und wollen das auch garnicht. Einige schrauben auch gern an Autos rum und können dir für jede schraube und jedes teil in ihrer Kiste sagen wozu es gut ist. Andere sagen sich na Hauptsache es läuft.

Wenn ich zum Arzt gehe und eine Kernspintomographie machen lasse interessiert mich das der Arzt sagt: "Jawohl sie sind gesund". Die Details woran er das abließt interessieren mich höchstens sekundär. Und schon garnicht interessiert mich wie so ein Kernspintomograph wirklich funktioniert, da habe ich andere Hobbies.

Der Vergleich hinkt.

Wenn ein DAU ins 3DCenter Forum kommt und eine Frage diesbezüglich stellt, hat er offensichtlich Interesse daran. Entweder er kann damit leben dass er sein Hirn einschalten muß für die korrekte Antwort, oder er lebt mit einer falschen Antwort. Oder er lässt es ganz bleiben und wird Blumenzüchter.

Das letzte sind wirklich DAUs die sich zwar für die Thematik an sich interessieren, aber nicht wirklich in die Tiefe gehen wollen. Klassische Oberflächlichkeit eben.

aths
2006-03-01, 20:54:59
Joa ist ja auch so wichtig dann statt 11FPS 14 zu haben. Und die effizientere Einsetzung der Rohleistung braucht der NV40 ja auch um mit dem R480 mithalten zu können.
Komm gib dir nen Ruck und gib eine Schätzung ab das ich dich dann im Winter darauf festnageln kann. :DIch will hier keinen – auch nicht dich – runterdiskutieren. Ich möchte nur, dass objektive Fakten nüchtern betrachtet werden.

Vorallem gehts dann wieder los, die 7900GTX (jetzt noch nichtmal auf dem MArkt) ist dann scheisse weil sie kein SM4 beherrscht. Wie kann man sich noch solche technisch veraltete Karte kaufen. Die wird doch nicht lange halten. Der ist ja schon vor dem Start nur eine Lebensdauer von 6-7 Monaten bescheinigt."Scheiß" mit ß.

Gast
2006-03-01, 20:55:30
PS: und aths hat völlig recht. Wenn Theorie und Praxis nicht übereinstimmen, dann hat man irgendwo einen Denkfehler. Man kann Theorie und Praxis nicht so trennen wie es viele glauben.
Möchte nicht zu sehr auf den Text eingehen, ist mir einfach zu unfreundlich formuliert und wiederholt sich ohne viel neues zu sagen. Nur soviel: Viele Käufer konnten (und können) Theorie und Praxis trennen was SM 3.0 angeht. Wenn Du mir hier die Frage stellst, worauf denn Entwickler programmieren sollen, wenn es keine SM 3.0 Hardware gäbe, muß ich ja schon fast lachen. Was interessiert mich das denn? Von mir aus können die Bilder mit Wasserfarben malen. Oder sie programmieren zur Abwechslung für vorhandene Hardware, wie wäre das? SM 3.0 ist kein Selbstzweck. Wenn das am Markt eine genügende Verbreitung hat, dann ist’s halt Essig damit, dann braucht man es auch nicht. Bisher konnte ich jedenfalls noch keine Killerapplikation ausmachen, abgesehn von dem wahnsinnig geilen Hasen auf Deinem Bildchen. ;)

tokugawa
2006-03-01, 21:01:05
Möchte nicht zu sehr auf den Text eingehen, ist mir einfach zu unfreundlich formuliert und wiederholt sich ohne viel neues zu sagen. Nur soviel: Viele Käufer konnten (und können) Theorie und Praxis trennen was SM 3.0 angeht. Wenn Du mir hier die Frage stellst, worauf denn Entwickler programmieren sollen, wenn es keine SM 3.0 Hardware gäbe, muß ich ja schon fast lachen. Was interessiert mich das denn? Von mir aus können die Bilder mit Wasserfarben malen. Oder sie programmieren zur Abwechslung für vorhandene Hardware, wie wäre das? SM 3.0 ist kein Selbstzweck. Wenn das am Markt eine genügende Verbreitung hat, dann ist’s halt Essig damit, dann braucht man es auch nicht. Bisher konnte ich jedenfalls noch keine Killerapplikation ausmachen, abgesehn von dem wahnsinnig geilen Hasen auf Deinem Bildchen. ;)

Unfreundlich? Naja. Hart formuliert vielleicht.


SM 3.0 ist natürlich kein Selbstzweck, aber denk mal: Theorie und Praxis kann man hier nicht trennen.

Dich als Gamer kann es sehr wohl interessieren dass die Entwickler fähige Hardware haben. Denn wenn es diese Hardware gibt, dann können auch die Spiele dafür entwickelt werden (es geht nur diese Reihenfolge, auch in der Konsolenwelt ist das so).

Dem Gamer bringt es indirekt was. Und indirekt ist nicht falsch oder "Theorie". Das nennt man vernetztes Denken. Oder "den Überblick haben". Alles andere ist kategorisches Kopf-im-Sand-Denken.

Hätte NVIDIA keine SM 3.0 Hardware rausgebracht mit dem NV40, dann hätten wir SM 3.0 Effekte in Spielen noch viel später.


Außerdem: wieso beschimpft niemand SM 2.0? Es ist doch unbestritten dass SM 2.0 was gebracht hat. Und SM 3.0 ist halt wie SM 2.0, nur mächtiger und weniger beschränkt.

Und SM 2.0 Spiele gab's auch nicht sofort.


EDIT: weiterer Denkfehler: es wird SM 3.0 zu stark von SM 2.0 getrennt. Die beiden muß man aber "gemeinsam sehen". SM 3.0 ist eine starke Erweiterung von SM 2.0.

EDIT2: als jemand den nicht nur die Balkenlänge sondern auch die mögliche Grafikqualität interessiert, find ich die Entscheidung ok, auf Kosten von einigen wenigen fps lieber in fortschrittlichere Technik zu investieren.

Wenn Gamer nur mehr die Balkenlänge interessiert, läuft was falsch (und das ist eigentlich auch der Grund für die immer abnehmende Bildqualität... weil die Gamer nur mehr die Balkenlänge statt die Qualität der produzierten Bilder interessiert. Leider hat hier der NV40 abgenommen gegenüber seinem Vorgänger).

Coda
2006-03-01, 21:03:39
PS 2.A gibt es auch nicht. Für PS 2.x gibt es aber ein Profil 2_A.Ach komm athsi. Ich weiß. Ich hab HLSL schon genügend in der Praxis benützt :D

Ach je, noch 5 Posts dann muss ich mir wirklich langsam Gedanken machen um meinen geistigen Zustand *g*

Gast
2006-03-01, 21:03:44
In diesem Thread erkennt man sehr gut wer Ahnung hat und wer nicht. ;)

Aquaschaf
2006-03-01, 21:05:56
Möchte nicht zu sehr auf den Text eingehen, ist mir einfach zu unfreundlich formuliert und wiederholt sich ohne viel neues zu sagen.

Dein Posting und viele andere dieser "Partei" in dem Thread sind sehr viel agressiver und wiederholen sich viel häufiger. Warum willst du nicht auf den Text eingehen, der tatsächlich mit Argumenten die meisten Vorurteile gegen SM3 entkräftet?

Odal
2006-03-01, 21:06:26
Der Vergleich hinkt.

Wenn ein DAU ins 3DCenter Forum kommt und eine Frage diesbezüglich stellt, hat er offensichtlich Interesse daran. Entweder er kann damit leben dass er sein Hirn einschalten muß für die korrekte Antwort, oder er lebt mit einer falschen Antwort. Oder er lässt es ganz bleiben und wird Blumenzüchter.


DAU kommt ins 3DC Forum weil er meint: "Hier gibt es einen Haufen kluge Leute die sich mit der Materie auskennen und ihm seine Kaufentscheidung abnehmen können." So das DAU nicht selbst erst tief in die Materie vorstossen muss. Ich will mir z.B. eine DigiCam kaufen. Haber aber von der Materie keinen Plan und auch keine Lust mir tagelang etwas anzulesen. Also hab ich mich in einem Fotoforum angemeldet und gefragt was ich kaufen soll und warum (ohne technische Details hören zu wollen).

tokugawa
2006-03-01, 21:08:12
DAU kommt ins 3DC Forum weil er meint: "Hier gibt es einen Haufen kluge Leute die sich mit der Materie auskennen und ihm seine Kaufentscheidung abnehmen können." So das DAU nicht selbst erst tief in die Materie vorstossen muss. Ich will mir z.B. eine DigiCam kaufen. Haber aber von der Materie keinen Plan und auch keine Lust mir tagelang etwas anzulesen. Also hab ich mich in einem Fotoforum angemeldet und gefragt was ich kaufen soll und warum (ohne technische Details hören zu wollen).

Dann kann man sich aber nachher auch nicht beschweren darüber, wenn man dann das Falsche kauft!

Selbstverantwortung ist gefragt! Die Einstellung nicht selbst denken zu wollen find ich ehrlich gesagt zum Kotzen.

Zumindest ein minimales Einarbeiten kann man von jedem verlangen.


Andererseits, dann gäb's weniger DAUs und wir hätten weniger zu lachen ;D



Wenn man nicht gewillt ist für eine mehrere Hundert Euro teure Investition nicht zumindest ein bißchen Recherche zu betreiben, dann hat man wohl zuviel Geld.

Odal
2006-03-01, 21:08:41
"Scheiß" mit ß.


Wird es Klugscheißer oder doch Klugscheisser geschrieben? :rolleyes:
(Sorry den konnte ich mir nicht verkneifen. Ich bemühe mich schon um Rechtschreibung aber bin es gewohnt oft auf Sun Tastaturen zu tippen. Da gibts kein SZ.)

Coda
2006-03-01, 21:09:07
Da hast du recht, ich sollte wohl einen Disclaimer in meine Signatur aufnehmen: "Achtung: Höchst technophile Aussagen meinerseits sind nicht für Kaufentscheidungen relevant" X-D

tokugawa
2006-03-01, 21:10:04
Wird es Klugscheißer oder doch Klugscheisser geschrieben? :rolleyes:
(Sorry den konnte ich mir nicht verkneifen, ich bemühe mich schon um Rechtschreibung aber bin es gewohnt oft aus Sun Tastaturen zu tippen da gibts kein SZ)

Ach, sag doch einfach dass du auf Schweizer Deutsch schreibst. Dann hast du korrekte Deutsch-Rechtschreibung ohne ß.

ShadowXX
2006-03-01, 21:10:05
Eine vorhandene Marktdurchdringung ist nicht gleichbedeutend mit entsprechenden Anwendungen. Wo z. B. sind die Spiele, die von AGP 8x profitiert haben?


Äpfel mit Birnen....wo soll ein Spiel großartig von AGPx8 profitieren, wenn schon der gesamte AGP eine Krükenkonstruktion ist.


Bis heute gibt es aber kaum Spiele, die SM 3.0 voraussetzen. Deswegen ist es relativ unwichtig. Kommt immer darauf an, was man spielt und mit welchen Einstellungen (Auflösung, AF …) Welche Spiele laufen denn nicht mehr mit SM 2.0?


Nein...aber es gibt Spiele die mit SM3.0 mehr Eye-Candy bieten.

Wieviele Games heutztage benötigen den auf Teufel komm raus SM2.0?


ATI hat sich (warum auch immer) anders entschieden und der Markt hat die Karten gewollt. Und wie man jetzt sieht, hatte ATI völlig Recht damit, daß man mit dieser Generation SM 3.0 nicht braucht. So gut wie jeder, der sich eine 6800er wegen SM 3.0 gekauft hat, hat mit Zitronen gehandelt.

ATI hätte ebenfalls, wenn Sie gekonnt hätten*, auch schon mit der r4x0-Reihe SM3.0 gebracht...leider war Ihr Ziel damals etwas zu überambitioniert (r400).

Deshalb die Notlösung r420/r480.

Wenn ATI schon damals ebenfalls SM3.0 angeboten hätte, hätte wir auch wesentlich mehr Games, die SM3.0 unterstützen würden.


Der Konsolenmarkt ist ein gutes Beispiel. Hier verkauft Software auch Hardware. Keine Konsole kommt ohne Spiele auf den Markt.

Schlechtes Beispiel.....bevor die Devs mit dem Programmieren anfangen, bekommen Sie von den Konsolenherstellern genau gesagt, was die HW nachher können wird....dann bekommen Sie Devkits.

Sie programmieren also vorher auf der HW die Games um diese dann beim Launch verfügbar zu machen (und das eben teilweise schon 1-2 Jahre vorher).

Das Prinzip ist auf dem PC nicht groß anders....mit dem Unterschied, das wir die Hardware zum gleichen Zeitpunkt wie die Devs bekommen und nicht erst 2 Jahre später, wie bei den Konsolen (bisserl komplizierter ist es natürlich schon, weil am Anfang der Konsolenentwicklung oftmals die HW noch nicht vorhanden ist und man deshalb auf "niederwertiger" HW entwickelt).

Ausserdem ist die HW auf Konsolen fest definiert...beim PC bis jetzt nicht....WGF2.0 wirds richten.

Besser für wen? Ich sehe bis jetzt keinen erwähnenswerten Vorteil für den Spieler. Bald wird es SM 4 geben, mal sehen, ob SM 3.0 nicht eine unwichtige Randnotiz bleiben wird.
Für den Spieler....von den Erfahrungen, die die Devs jetzt sammeln, profitieren auch die noch kommenden Games...

Ach übrigens...SM2.0 ist eine Teilmenge von SM3.0, genau wie dieses eine Teilmenge von SM4.0 ist.
Alleine dadurch bleibt SM3.0 keine "Randnotiz".

Ausserdem, was meinst du...werden die Games am Ende des Jahres eher SM3.0 (zusätzlich) unterstützen oder das Brandneue SM4.0?

Ich hab ab und zu das Gefühl, als wenn manche Denken, das SM2.0 und SM3.0 zwei völlig verschiedene Dinge sind, die nix miteinander zu tun haben und dazu noch inkompatibel zueinander sind......

Coda
2006-03-01, 21:11:47
Leute, wir drehen uns hier böse im Kreis. Sollten wir nicht eine Pro-Kontra-Liste am Anfang des Threads machen :D

tokugawa
2006-03-01, 21:15:17
Leute, wir drehen uns hier böse im Kreis. Sollten wir nicht eine Pro-Kontra-Liste am Anfang des Threads machen X-D

Sowas in der Art:


An Toplevel-DAUs: Kauft bitte keine Grafikkarten. Werdet Bienenzüchter.

An Normal-DAUs: SM 3.0 ist heute kein Must-Have-Feature für Gamer, aber sicher auch kein schlechtes Feature, da mit SM 3.0 Karten oftmals andere Features auch mit dabei sind, die bei den SM 2.0 Karten noch fehlen. Kaufentscheidung hängt von der persönlichen Präferenz (auch in Bezug auf Spielen) ab sowie vom Budget: Allgemeinaussagen kann man daher nicht treffen. Aber auch eine X800/X850 ist heute sicher noch kein Alteisen.

An Interessierte: SM 3.0 und SM 2.0 sind keine "verschiedenen" Dinge. Die beiden gehören zusammen. SM 3.0 ist wie SM 2.0, nur ohne die engen Beschränkungen und Limitierungen. Wenn SM 2.0 was gebracht hat gegenüber SM 1.x, warum sollte es SM 3.0 nicht auch tun? Und warum gibt man SM 3.0 nicht mal die Hälfte der Zeit, die SM 2.0 gebraucht hat um salonfähig zu werden? Und selbst heute brauchen nur eine Handvoll Spiele wirklich SM 2.0. Ist SM 2.0 deswegen "unnütz"?

Botcruscher
2006-03-01, 21:17:58
Leute, wir drehen uns hier böse im Kreis. Sollten wir nicht eine Pro-Kontra-Liste am Anfang des Threads machen :D

Wollte ich schon mit der Zeiteinteilung. Alle hier haben nehmlich irgendwie recht, man muss es nur auf den Punkt bringen.

Odal
2006-03-01, 21:25:52
Nein...aber es gibt Spiele die mit SM3.0 mehr Eye-Candy bieten.

Wieviele Games heutztage benötigen den auf Teufel komm raus SM2.0?


Und das sind wieviele? Ja eins, wo dieses Eye Candy nichtmal sonderlich gut umgesetzt ist. Ok wenn man es genau nimmt sind es ein paar mehr. Der leuchtsäbel von LEGO StarWars usw., das wertet aber alles nicht wirklich den Bildcontent auf sondern dient lediglich der Checkliste "SM3 Feature eingefügt". Damit man dann auf der Packung damit werben kann und DAU sich das Spiel kauf in der Hoffnung ganz neue Grafikpracht zu erleben.


Wenn ATI schon damals ebenfalls SM3.0 angeboten hätte, hätte wir auch wesentlich mehr Games, die SM3.0 unterstützen würden.


Ja wieder das Wenn und Aber. Sie haben es nicht und es ist deswegen so wie es ist und Punkt.


mit dem Unterschied, das wir die Hardware zum gleichen Zeitpunkt wie die Devs bekommen und nicht erst 2 Jahre später, wie bei den Konsolen (bisserl komplizierter ist es natürlich schon, weil am Anfang der Konsolenentwicklung oftmals die HW noch nicht vorhanden ist und man deshalb auf "niederwertiger" HW entwickelt).


Genau darum verpasst man mit dem R420/480 auch noch nicht wirklich was obwohl er kein SM3 bietet



Ach übrigens...SM2.0 ist eine Teilmenge von SM3.0, genau wie dieses eine Teilmenge von SM4.0 ist.
Alleine dadurch bleibt SM3.0 keine "Randnotiz".


Naja doch, wenn der Entwickler keinen SM3 Pfad sondern nur einen SM4 Pfad und einen SM2 Pfad einbaut ist es eine Randnotiz. Genau wie bei einem NV30 das PS2.a Shaderprofil eine Randnotiz geblieben ist. Aber wir alle hoffen und gehen mal davon aus das SM3 keine Randnotiz bleiben wird, sonst hätte ich davon ja nichts wenn ich mir Ende des Jahres einen X1900/7900 Abkömmling zulege.

reunion
2006-03-01, 21:38:32
Wieso sollte der R420 bei SM3-Support gleich Speed verlieren? Siehe R520. Der R520 ist nicht langsamer als der R420. ATI hat es nur nicht geschafft, den R520 rechtzeitig zum NV40-Release zu bauen.

Schonmal auf die Transistorenanzahl geschaut? Gerade R520 beweist doch, dass ATis Vorstellungen von SM3 zu NV40-Zeiten nicht realisierbar waren. Immerhin wiegt R520 mehr als das doppelte wie R420, und erzieht dabei seinen Performancevorteil größtenteils nur durch die mit dem 90nm Prozess verbundenen höheren Takraten. Dass ein R520 mit 160M Transistoren in 130nm langsamer wäre als R420, sollte wirklich jedem einleuchten.

Coda
2006-03-01, 21:39:12
Fragt sich ob das ganze Holz wirklich für das dyn. branching draufgegangen ist oder ob nVIDIA nur besser im Transtorknausern ist ;)

reunion
2006-03-01, 21:43:33
Joa. vPos, 10 FP-Interpolatoren, vFace, mehr Instructions, mehr Temp-Register, mehr Constant-Register, etc. Aber das hält sich transistormäßig in Grenzen.

Danke.


Du wirst mir zwar nie abnehmen, dass dyn. branching nicht das wichtigste an SM3 ist im Moment, aber nun gut...

Natürlich ist es momentan nicht das wichtigste, aber es ist nunmal das entscheidende Feature, welches einen SM2.X-Chip von einem SM3-Chip unterscheidet. Anders habe ich das auch nie gemeint. Und nein, davon kannst du mich nicht abbringen.


Btw. hat Humus wieder ein Demo rausgebracht dass sehr schön zeigt wie brutal unnütz das dyn. branching auf NV4x (inkl. G70) ist X-D.

Ja, ich weiß. Meine 6600GT zeigt ähnliche Symptome. X-D


Der VTF ist dagegen übrigens recht brauchbar, vor allem für Matrix-Palette-Skinning (kein Limit der Größe, da einfach als Textur speicherbar). Nur leider kann es ja R5xx nicht, weswegen wir damit wohl bis DX10 warten müssen. Allg. ist es als große Constant-Storage wirklich brauchbar.


Mag sein, allerdings gibt es da auch noch viel Raum für Verbesserungen.

Coda
2006-03-01, 21:44:40
Natürlich ist es momentan nicht das wichtigste, aber es ist nunmal das entscheidende Feature, welches einen SM2.X-Chip von einem SM3-Chip unterscheidet. Anders habe ich das auch nie gemeint. Und nein, davon kannst du mich nicht abbringen.Mit der Formulierung kann ich mich schon eher anfreunden - zumindest was den technischen Aufwand betrifft.

Mag sein, allerdings gibt es da auch noch viel Raum für Verbesserungen.Die gibt es immer. Aber bei gleicher Implementierung auf ATI hätte es sicher öfters dafür Verwendung gefunden. Es ist echt prädestiniert dafür.

Du wirst auch noch mal gemäßigter denken glaube ich. ATis Chips sind auch nicht der Weisheits letzter Schluss. In 2006 sollte man eigentlich keinen Scanline-Rasterizer, bzw. echtes Poly-Clipping verwenden. Und dann sind da noch die Steinzeit-TMUs... Ich denke aber R600 wird das auch beheben, genauso wie nVIDIA wohl die Branching-Performance in den Griff bekommen wird (muss).

Ich behaupte ja auch immer noch dass viel Transistorbudget bei R5xx für den Programmspeicher draufgeht, da sie es (wahrscheinlich) nicht wie nVIDIA aus dem VRAM streamen können.

aths
2006-03-01, 21:46:17
Eine vorhandene Marktdurchdringung ist nicht gleichbedeutend mit entsprechenden Anwendungen. Wo z. B. sind die Spiele, die von AGP 8x profitiert haben?
Bis heute gibt es aber kaum Spiele, die SM 3.0 voraussetzen. Deswegen ist es relativ unwichtig. Kommt immer darauf an, was man spielt und mit welchen Einstellungen (Auflösung, AF …) Welche Spiele laufen denn nicht mehr mit SM 2.0?Nur weil AGPx8 eher Marketing-Gag als für den Spieler sinnvolle Innovation ist, ist SM3 nicht ebenso als Randerscheinung abzutun.

SM3 ist ein Schritt zu D3D10, und nimmt viele Dinge schon vorweg. Ohne die Entwicklung von SM3 wäre SM4 so nicht denkbar.

Spiele konnten von AGPx8 nicht profitieren, da AGPx4 kein Flaschenhals war. SM 2.0 aber ist ein Flaschenhals. Hier limitiert bei komplexen Effekten das Featureset (Instruction Count, Dependent Read Limit, Zahl der Inpolatoren, …) bevor die Rohleistung ausgeht. Das ist Transistorverschwendung!

Führen wir demnach bitte zielführende Diskussionen: Was bringt ein Feauture? AGPx8 bringt Bandbreite, die nicht genutzt werden kann, schon weil der RAM limitiert. SM3 bringt die Möglichkeit, auch komplexe Effekte singlepass zu rendern. Dank der effizienten Implementierung von Dynamic Branching im Pixelshader beim R520/R580 sind weitere Performancesteigerungen bei gleichzeitig einfacherer (kostensparenderer) Programmierung möglich.

Sicher, wäre nett gewesen, wenn sie SM 3.0 an Board gehabt hätte. Aber wirklich gebraucht hat man es nicht. Auch heute kann man praktisch (fast) jedes Spiel ohne SM 3.0 mit allen optischen Leckerbissen genießen.
Dafür hat die Karte andere Nachteile. Außerdem, wer sagt Dir, daß die Entwicklung so verlaufen wäre, wenn ATI statt auf Mehrleistung zu setzten, lieber SM 3.0 implementiert hätte. Dann wäre die x8-Generation vielleicht viel langsamer gewesen; und NVIDIA hätte nicht 16 Pipes gebracht, sondern nur 12. In einer Marktwirtschaft kann man eben die Marktdurchdringung nicht genau steuern. ATI hat sich (warum auch immer) anders entschieden und der Markt hat die Karten gewollt. Und wie man jetzt sieht, hatte ATI völlig Recht damit, daß man mit dieser Generation SM 3.0 nicht braucht. So gut wie jeder, der sich eine 6800er wegen SM 3.0 gekauft hat, hat mit Zitronen gehandelt. Dass man heute auch ohne SM3 oft noch alle Effekte zu sehen bekommt liegt auch daran, dass ATI mit der verspäteten SM3-Einführung in ihrer Produktlinie gebremst hat. Hätte ATI mit dem R420 SM3-Support geboten, würde es heute, zu R520-Zeiten, mehr Spiele geben die das nutzen. ATI hat nun den Vorteil, dass dank NVs NV40 und G70 überhaupt schon irgendwo SM3 genutzt wird, sonst wäre das Featureset im R520 schwieriger zu vermarkten.

Der NV40 war für 16 Pipes konzipiert egal was ATI bringt. Der Markt hat ATIs Karten nicht gewollt, aber akzeptiert.

Welcher Astrologe war das denn? Wie wäre es damit: Lukas Arts hat nicht unwesentlich dazu beigetragen, daß sich die CD-ROM etablieren konnte?
Gibt doch immer noch vorgerenderte Zwischensequenzen. Letzlich ist alles nur ein Zwischenschritt – solange es Entwicklung gibt. ;)
Der Konsolenmarkt ist ein gutes Beispiel. Hier verkauft Software auch Hardware. Keine Konsole kommt ohne Spiele auf den Markt.Also so große Verkaufszahlen hatte Rebel Assault nun auch wieder nicht, dass man die Ausstattung der PCs mit einem CD-ROM nun daran festmachen könnte.

Natürlich verkauft Software auch Hardware. Aber die Software nützt ohne Hardware nichts. Auch im Konsolenmarkt muss es zunächst die Hardware geben ehe die Software laufen kann, die die Hardware nutzt.

Weil der Markt halt nicht blind der vermeintlich besseren Technik hinterher rennt. Was sich letztlich wann und warum durchsetzt, weiß kein Mensch. Der Phaeton ist z. B. in den USA nahezu unverkäuflich.
Besser für wen? Ich sehe bis jetzt keinen erwähnenswerten Vorteil für den Spieler. Bald wird es SM 4 geben, mal sehen, ob SM 3.0 nicht eine unwichtige Randnotiz bleiben wird.Ohne SM3 kein D3D10 mit dem SM3-Nachfolger. Wir müssen hier Ursache und Wirkung diskutieren. Ursache: Lange Zeit gab es SM3-HW nur von einem einzigen IHV. Wirkung: Entwickler schwenken um auf GeForce-Karten. Ursache: Das Budget ist begrenzt, der Publisher verlangt einen möglichst großen Kundenkreis. Wirkung: Auf DX7/8/SM2-Niveau wird so viel geboten, wie geldmäßig drin ist, SM3-Sachen gibt es, wenn überhaupt, nur noch als fix rangeflanschtes Schmankerl obendrauf.

Aber in SM3 ist es, neben der GPU- und CPU-Schonung und den möglichen neuen Effekten auch noch so einfach wie nie zuvor, die Grafikeffekte innerhalb eines Shader Models zu skalieren. Schwache SM3-Karten zeigen dann weniger als starke SM3-Karten, und zwar endlich ohne dass mehrere Codepathes notwendig sind, oder man viele unterschiedliche Artwork-Sets vorbereiten muss. SM3 spart also auch noch Kosten bei der Entwicklung. Tatsächlich genutzt wird das vom Entwickler erst, wenn die installierte Basis groß genug ist.

Pirx
2006-03-01, 21:49:20
Wieso sollte der R420 bei SM3-Support gleich Speed verlieren? Siehe R520. Der R520 ist nicht langsamer als der R420. ATI hat es nur nicht geschafft, den R520 rechtzeitig zum NV40-Release zu bauen. Das ist insofern kein Wunder wenn man sieht, wie der R300 aussah: Für dessen SM2-Implementierung galt der Minimalismus. Nvidia hat mit dem NV30, was sinnvolle Features angeht, gleich vorgedacht. Man kann im gleichen Zuge Nvidia vorhalten, einen Chip à la NV43 nicht bereits zu NV30-Zeiten präsentiert zu haben. Hier gehts ja nicht darum, ATI als den allgemein schlechteren IHV hinzustellen. Im Gegenteil, seit dem R300 bietet ATI oft die bessere Lösung für den Gamer. Aber dieses ganze Verteidigen der eigenen Hardware sollte nicht den Blick auf nüchterne, nachprüfbare Fakten verstellen. Die sprechen eine ganz klare Sprache: Mit SM 3.0 ist bei gleicher Rohleistung viel mehr in Echtzeit möglich als mit SM 2.0.
Das hätte doch mindestens den R420 transistorseitig so aufgebläht, daß die erreichbare Taktrate gesunken wäre (es fehlte doch einiges zu SM3 (z.B 32bit fp), oder?).
Wünschenswert wäre es natürlich gewesen, aber nicht alles, was man sich wünscht tritt ein und R420 ist doch wohl trotzdem keine schlechte GPU geworden.

Die SM2-Implementierung des R300 war doch aber überall, außer beim Speed minimalistisch und die Bildqualität stimmte auch. SM2 allein brachte doch schon sehr viele Neuerungen ggü 1.x, warum diesen Standard gleich bei der Einführung noch übertreffen, der eine lange "Planungssicherheit" der Spieleentwickler und großartige Effekte gewährleistete?
Auch da hat ATi der GPU die Features mitgegeben, die für die nähere Zukunft relevant waren und das mit gutem Speed. Mir ist dieser Weg eher sympatisch, aber die schrittweise Einführung neuer Features ist auch wichtig, nur,daß sie nicht gleich als "must have" deklariert werden sollten.

ShadowXX
2006-03-01, 21:51:52
Und das sind wieviele? Ja eins, wo dieses Eye Candy nichtmal sonderlich gut umgesetzt ist. Ok wenn man es genau nimmt sind es ein paar mehr. Der leuchtsäbel von LEGO StarWars usw., das wertet aber alles nicht wirklich den Bildcontent auf sondern dient lediglich der Checkliste "SM3 Feature eingefügt". Damit man dann auf der Packung damit werben kann und DAU sich das Spiel kauf in der Hoffnung ganz neue Grafikpracht zu erleben.


Du hast mir noch nicht gesagt, welche Games zwingend SM2.0 vorraussetzen....

Ich könnte mich momentan relativ ruhigen gewissens hier "hinstellen" und das, was Ihr SM3.0 "vorwerft" auf für SM2.0 behaupten.

Wieso SM2.0.....die Game die ich habe laufen auch alle mit PS1.3.
Ergo ist SM2.0 völlig überflüssig und unwichtig...läuft unter PS1.3 sogar alles schneller.

Ich bin dafür das wir den ganzen Shader 2.0 und 3.0 Kram abschaffen und uns voll auf PS1.3 für die nächsten 3-4 Jahre konzentrieren, dann wird man sogar aus denen noch ganz gut was rauskitzeln können.


Genau darum verpasst man mit dem R420/480 auch noch nicht wirklich was obwohl er kein SM3 bietet

Hat das einer gesagt?

Ich bin sogar ehrlich....wenn mich jemand fragen würde, der sich jetzt einen neue Karte kaufen will (und nicht bis zum Herbst warten will), dem würde ich eine SM3.0-Karte empfehlen.
Einfach aus dem Grund, das ich keinen Sinn darin sehe, jetzt noch eine SM2.0-Karte zu kaufen, wenn es mehr als genug und auch performante nicht zu teure SM3.0 Karten gibt....dazu kommt natürlich dann noch, das jetzige SM3.0 Karten meistens auch mehr andere, zusätzliche Features bieten.
Noch ein grund weniger jemanden eine SM2.0 Karte zu empfehlen.

(Ich gehe jetzt von jemanden aus, der mindesten 300Euro investieren und auch häufiger daddelt.....bei anderen, die Primär am PC arbeiten wollen ist es natürlich durchaus anders)

Coda
2006-03-01, 21:53:47
Ich bin dafür das wir den ganzen Shader 2.0 und 3.0 Kram abschaffen und uns voll auf PS1.3 für die nächsten 3-4 Jahre konzentrieren, dann wird man sogar aus denen noch ganz gut was rauskitzeln können.Uuuuh. Die Vorstellung schmerzt. Da ist nun wirklich nicht mehr viel zu holen ;)

Vor allem 1.3 ist böse. 1.4 würde ja noch halbwegs was reißen können X-D

aths
2006-03-01, 22:01:50
DAU kommt ins 3DC Forum weil er meint: "Hier gibt es einen Haufen kluge Leute die sich mit der Materie auskennen und ihm seine Kaufentscheidung abnehmen können." So das DAU nicht selbst erst tief in die Materie vorstossen muss. Ich will mir z.B. eine DigiCam kaufen. Haber aber von der Materie keinen Plan und auch keine Lust mir tagelang etwas anzulesen. Also hab ich mich in einem Fotoforum angemeldet und gefragt was ich kaufen soll und warum (ohne technische Details hören zu wollen).Vorstoßen muss.


Ach komm athsi. Ich weiß. Ich hab HLSL schon genügend in der Praxis benützt :DDann halte dich doch auch an die richtigen Begriffe. Das ist Voraussetzung, um der Verwirrung entgegen zu treten.


Möchte nicht zu sehr auf den Text eingehen, ist mir einfach zu unfreundlich formuliert und wiederholt sich ohne viel neues zu sagen. Nur soviel: Viele Käufer konnten (und können) Theorie und Praxis trennen was SM 3.0 angeht. Wenn Du mir hier die Frage stellst, worauf denn Entwickler programmieren sollen, wenn es keine SM 3.0 Hardware gäbe, muß ich ja schon fast lachen. Was interessiert mich das denn? Von mir aus können die Bilder mit Wasserfarben malen. Oder sie programmieren zur Abwechslung für vorhandene Hardware, wie wäre das? SM 3.0 ist kein Selbstzweck. Wenn das am Markt eine genügende Verbreitung hat, dann ist’s halt Essig damit, dann braucht man es auch nicht. Bisher konnte ich jedenfalls noch keine Killerapplikation ausmachen, abgesehn von dem wahnsinnig geilen Hasen auf Deinem Bildchen. ;)Na worauf sollen sie denn sonst programmieren?

Coda
2006-03-01, 22:04:14
Refrast? :uconf:

aths
2006-03-01, 22:08:48
Dein Posting und viele andere dieser "Partei" in dem Thread sind sehr viel agressiver und wiederholen sich viel häufiger. Warum willst du nicht auf den Text eingehen, der tatsächlich mit Argumenten die meisten Vorurteile gegen SM3 entkräftet?Weil er keine Gegenargumente hat …? Wer sich gegen tokugawa behaupten will, muss schon bisschen was wissen und nicht nur eine feste Meinung haben, von der er sich unter keinen Umständen abbringen lassen will.

aths
2006-03-01, 22:12:58
Wird es Klugscheißer oder doch Klugscheisser geschrieben? :rolleyes:
(Sorry den konnte ich mir nicht verkneifen. Ich bemühe mich schon um Rechtschreibung aber bin es gewohnt oft auf Sun Tastaturen zu tippen. Da gibts kein SZ.)"Klugscheißer" natürlich. Wenn du kein ß hast, ist natürlich ss zu verwenden. Sofern du ein ß auf der Tastatur hast wäre es toll, wenn du es nutzt. Immerhin betrifft die Änderung durch die Reform nur ca. 2% aller Wörter, und ca. 80% der 2% entfallen auf die neue ß-Regelung. Nach den neuen Regeln wird das ß weniger genutzt, aber es existiert noch. Wird das ß dort, wo es hingehört, gesetzt, liest sich der Text für mich flüssiger.

Neuerdings lese ich im Internet vermehrt "grosse", "Strasse" und "süss" oder "Gruss", dabei heißt es "große" (und "groß"), "Straße" und "süß", wie auch "Gruß" und "Grüße".

Ach, sag doch einfach dass du auf Schweizer Deutsch schreibst. Dann hast du korrekte Deutsch-Rechtschreibung ohne ß.Du ÖSI solltest auch mal das ß nutzen!!

aths
2006-03-01, 22:33:16
Das hätte doch mindestens den R420 transistorseitig so aufgebläht, daß die erreichbare Taktrate gesunken wäre (es fehlte doch einiges zu SM3 (z.B 32bit fp), oder?).
Wünschenswert wäre es natürlich gewesen, aber nicht alles, was man sich wünscht tritt ein und R420 ist doch wohl trotzdem keine schlechte GPU geworden.Schonmal auf die Transistorenanzahl geschaut? Gerade R520 beweist doch, dass ATis Vorstellungen von SM3 zu NV40-Zeiten nicht realisierbar waren. Immerhin wiegt R520 mehr als das doppelte wie R420, und erzieht dabei seinen Performancevorteil größtenteils nur durch die mit dem 90nm Prozess verbundenen höheren Takraten. Dass ein R520 mit 160M Transistoren in 130nm langsamer wäre als R420, sollte wirklich jedem einleuchten.Dass NV40 neben FP32/FP16 auch SM3* (auf höherem Niveau als R520/580, siehe Vertex Texturing), FP16-fähigen TMUs (was R520/580 und ebenfalls nicht bietet), extra Video-Prozessor, und ALUs die unter anderem eine dedizierte NRM_PP-Unit haben, und unabhängigen Vertexshader-Instruction-Pointer (hat auch R580 noch nicht) und einigen "unnötigen" Transistoren im Chip (funktionsunfähige Tonemapping-Unit, Schaltkreise für zukünftige mobile Versionen) nur 222 Mio Transistoren kostete, während ATIs R420 als doppelter R300 mit minimalen Erweiterungen 160 Mio kostete zeigt, dass Nvidia offenbar aus weniger Transistoren mehr machen kann. Wenn ATI das so nicht schafft, ihr Pech.

* SM3 erforert mehr als die Bereitstellung einiger neue Befehle und FP32-Unterstützung. Zum Beispiel muss das Dependent-Read-Limit fallen. Es müssen auch freie Swizzles unterstützt werden.