PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 2 3 4 5 6 7 8 [9] 10

aths
2005-10-26, 16:53:36
Wenn die Zeit nicht das Problem ist, wie erklärst du dann, dass bei Konsolen erst nach Jahren das Optimum rausgeholt wird?Ich hab mir von GT3 mal einige Screenshots angesehen und muss sagen, dass es einfach gröber wirkt als GT4. Das ist in erster Linie aber eine Contentfrage, vermute ich. An der GT4-Engine wurde wohl auch gefeilt, aber GT2 bietet gegenüber GT1 ja zum Beispiel keine grafischen Verbesserungen. (Einige Strecken von GT2 finde ich sehr stimmungsvoll, trotz der grausamen Grafik – da wirkt GT4 oft steriler, finde ich.)

betasilie
2005-10-26, 16:57:00
Wenn Nvidia so fähig wäre, hätten sie ATI gar nicht hochkommen lassen.

Wenn ich ein Problem programmiertechnisch umsetze, entsteht oft eine umständliche, langsame Lösung, die aber immerhin funktioniert. Stehe ich später vor dem gleichen Problem, und habe noch die gefundene alte Lösung im Kopf, kriege ich die Sache trotzdem wesentlich eleganter und performanter hin.

Nur, ohne es vorher selbst gemacht zu haben, hätte ich es beim nächsten Mal nicht besser machen können. NV hat mit dem NV30 um den NV28 diesen FP-Shadercore rumgebastelt (und den neuen Vertexshader eingebaut) wobei das Featureset von vornherein feststand. Die Lösung litt aber unter vielen Kompromissen. Der NV40 wäre ohne das NV30- (und NV35-) Vorwissen nicht möglich gewesen. Der NV40 ist nicht das, was der NV30 hätte werden sollen. Der NV40 ist das, was durch die NV30-Erfahrung und Analsyse ermöglicht wurde.
Ja, und auch das ist gut so. Aber auch der Grund, weshalb ATI den SM2.0 Weg eingeschlagen hat. Und er NV40 bietet ja auch viele Features, die für die Anwendungen in Spielen zu langsam ist. Daher ging für ATi die Strategie mit SM2.0 sehr gut auf jedenfalls für den Zeitraum von R300 bis R420.

aths
2005-10-26, 16:57:05
Dann habe ich dein Posting mißversatnden, sorry. :)

Dass die X800PRO idR nicht schneller war, ist klar. Eigentlich sollte eine GT aufgrund der besseren arithmetischen Leistung auch schneller sein.Das Problem mit den Temps: Sofern nicht überall dort, wo ohne Qualitätseinbuße möglich, vom Entwickler das _PP-Flag gesetzt wird, geht dem NV40 meiner Meinung nach einfach der Registerspeicher aus. Folge: Die Rechenwerke sind unterausgelastet. Dazu kommt das fehlende ADD in der ersten Shading-Unit: ADD kann nur in der zweiten Unit ausgeführt werden. Das verkompliziert das Scheduling zusätzlich, unter Umständen muss man dann eine Instruktion in den nächsten Slot schieben. Meine Hoffnung, die sich wohl leider nicht erfüllen wird ist, dass NV noch ein CineFX 5 nachschiebt wo es genügend Temps gibt (mindestens 6, besser 8.) Ich sehe auch keine andere Möglichkeit, basierend auf CineFX den R580 zu kontern.

Demirug
2005-10-26, 16:58:11
Ganz so einfach geht das mit dem SM2-Fallback eben nicht, insbesondere wenn man den Content mitskalieren muss. Bei Shadern müsste man vielleicht zu Multipass oder permutierten Shaderkombinationen greifen, wo in SM3 wenige (vielleicht sogar ein einziger) Shader ausreichen. Will man HDR-Rendering nutzen und hat dafür HDR-Lightmaps vorbereitet, kann man die nicht mal einfach so in ein LDR-Format packen. Klar ließe sich bilineare Filterung auch im Pixelshader emulieren, aber ist das Spiel, durch HDR-Rendering GPU-seitig ohnehin stark belastet, dann noch schnell genug? Ein Entwickler der Kostenrechnung beherrscht wird Content für Massenhardware erstellen lassen. Das heißt zum Beispiel, auf HDR-Lightmaps verzichten.

Lustig das du das gerade ansprichst.

Ich habe gestern gerade bei mir einen Teil des Notfallsystems dafür getestet. Also was macht das System wenn man eine HDR Texture will aber die Karte keine kann. Um genau zu sein habe ich alles gespert bis auf die 16 Bit Texturen und die Qualitätsanforderung auf 0 gesetzt (0 = Verzweiflung). HDR Lightmaps auf 4 Bit pro Farbkanal runtergerechnet und dann wieder hochskaliert sehen echt grausam aus. Vielleicht lässt sich noch was mit nicht lineare Skalierung retten aber mir graut vor dem Dependent Read.

Demirug
2005-10-26, 17:03:03
Das Problem mit den Temps: Sofern nicht überall dort, wo ohne Qualitätseinbuße möglich, vom Entwickler das _PP-Flag gesetzt wird, geht dem NV40 meiner Meinung nach einfach der Registerspeicher aus. Folge: Die Rechenwerke sind unterausgelastet. Dazu kommt das fehlende ADD in der ersten Shading-Unit: ADD kann nur in der zweiten Unit ausgeführt werden. Das verkompliziert das Scheduling zusätzlich, unter Umständen muss man dann eine Instruktion in den nächsten Slot schieben. Meine Hoffnung, die sich wohl leider nicht erfüllen wird ist, dass NV noch ein CineFX 5 nachschiebt wo es genügend Temps gibt (mindestens 6, besser 8.) Ich sehe auch keine andere Möglichkeit, basierend auf CineFX den R580 zu kontern.

Einfach noch eine Recheneinheit rein. Das CineFX Design ist im Bezug auf die anzahl der "Combinder" schon immer variable ausgelegt worden. Zudem hat der 3 ALU Pixelprozessor von ATI scheinbar massive skalierungsprobleme mit aktuellen (FarCry - Fear) Shadern.

aths
2005-10-26, 17:04:29
Bei einer stabilen Platform müsste man doch eigentlich noch schneller zum Ziel kommen. Deswegen verstehe ich dein Argument nicht ganz.Mit Demirugs Erfahrungen, was Entwicklung angeht, kann ich auch im Traum nicht mithalten. Erlaube mir trotzdem einige Anmerkungen.

Ich hab mal einen ultraprimitiven Schattenwurf-Algo entwickelt und implementiert. Das Ding ist stark eingeschränkt (geht nur auf flache Ebenen) und rendert Schatten mit harten Rändern – dafür hab ich dafür alles selbst erdacht (also die Geometrie-Berechnungen, Schnittpunktberechnungen, und so weiter) und implementiert. Das schrieb ich nicht an einem Tag, sondern über Tage wuchs ein Gestrüpp aus functions und procedures, die jeweil Teilprobleme lösten. Ergbnis: Der Code ist unübersichtlich, die Performance erschreckend lahm – aber es funzt. Das ist erst mal das wichtigste. Ein Entwickler wird nur dann an der Performance weiterfeilen, wenn er muss.

Eine Konsole programmiert man ja auch nicht aus dem Stehgreif. Mit den vorgefertigten Tools wird man nicht beliebig weit kommen, und so muss man für die ersten Titel Kompromisse eingehen. Steht die eigentliche Engine, kann man die Tools verfeinert und einzelne Komponenten verbessern – und einen größeren Teil vom Budget in den Content stecken.

aths
2005-10-26, 17:11:11
Übrigens ist es recht leicht enfach zu beahpten, ATI war zu blöd nen SM3.0 Chip zu bauen. Ich sehe es so, dass ATI durchaus bewusst kein SM3.0 wollte. Wenn ATI nicht gewesen wäre mit dem R300 SM2.0, dann hätten wir bis zum NV40 garkeinen performaten DX9 chip gehabt, und genau deshalb war es das schlauste auf SM.0 und Speed zu setzn.ATI hatte sich recht früh (rechtzeitig zur DX9-Spec) auf SM3 geeinigt, aber sah während der Entwicklung des SM3-Chips R400 keine Möglichkeit, die gewünschte Performance zu erreichen. ATI setzte dann auf SM2 und Speed, NV setzte auf SM3 und Speed.

Wäre ATI nicht gewesen mit SM2 à la R300, hätte DX9 noch FX12 unterstützt, womit der NV30 und der NV35 richtig Gas gegeben hätten.

robbitop
2005-10-26, 17:17:57
Das Problem mit den Temps: Sofern nicht überall dort, wo ohne Qualitätseinbuße möglich, vom Entwickler das _PP-Flag gesetzt wird, geht dem NV40 meiner Meinung nach einfach der Registerspeicher aus. Folge: Die Rechenwerke sind unterausgelastet. Dazu kommt das fehlende ADD in der ersten Shading-Unit: ADD kann nur in der zweiten Unit ausgeführt werden. Das verkompliziert das Scheduling zusätzlich, unter Umständen muss man dann eine Instruktion in den nächsten Slot schieben. Meine Hoffnung, die sich wohl leider nicht erfüllen wird ist, dass NV noch ein CineFX 5 nachschiebt wo es genügend Temps gibt (mindestens 6, besser 8.) Ich sehe auch keine andere Möglichkeit, basierend auf CineFX den R580 zu kontern.
Mit NV4x hat man ein sehr einfach skallierbares Desing. 90nm, 2 Quads hinzufügen, Taktraten hoch und fertig.

robbitop
2005-10-26, 17:19:13
Einfach noch eine Recheneinheit rein. Das CineFX Design ist im Bezug auf die anzahl der "Combinder" schon immer variable ausgelegt worden. Zudem hat der 3 ALU Pixelprozessor von ATI scheinbar massive skalierungsprobleme mit aktuellen (FarCry - Fear) Shadern.
Was könnten hier mögliche Ursachen sein? Ich dachte die ALUs würden alle schön vom global dispatcher ausgelastet werden?

aths
2005-10-26, 17:20:28
Nun, wenn alles gut geht könnte durch Cell eine Revolution in Sachen Physik und KI eingeläutet werden. Ist sicher auch was feines dort einen Sprung in der Qualität zu sehen. ... Außerdem hat Sony etwas innovativ neues auf der PS3 zu bieten, was noch nicht vorgestellt, aber angkündigt wurde. Kann gut sein, dass sie auch so einen Controller bringen wie Nintendo, und Eytoye2 hast Du scheinbar auch verpasst.Jo, Eyetoy interessiert mich nicht.

Was der Cell bringen könnte und würde ... der Atari 2600, Uralt-Konsole, mit minimaler Hardware bietet eine reichhaltige Spiele-Auswahl, die fast jedes Genre umfasst. Super Mario hüpfte zum Beispiel zuerst auf einem Atari herum. Ok, die 2600-Grafik ist voll zum Heulen, und angesichts der Datenträger (bis zu 4 kib, mittels Tricks 16 kiB) und des Hauptspeichers (128 Byte – der jedoch auch den CPU-Stack speichern muss) ist die Komplexität begrenzt. Spielerisch gibts jedoch mehr als man denkt.

Ein innovative KI-Algo, der sowohl kluge als auch überraschende Züge berechnet, kann durch eine Cell-CPU nicht ersetzt werden. Die Entwicklung von Schachprogrammen wäre heute vermutlich nicht so weit wie sie ist, wenn man in den Anfangszeiten heutige Hardware zur Verfügung gehabt hätte.

Lange Rede, kurzer Sinn: Dieses Rumprotzen mit Fakten zur Hardware interessiert mich bei Konsolen kein bisschen.

Du meinst sicher die PS3 und nicht die PS2.Ja, Vertipper.

Demirug
2005-10-26, 17:25:43
Was könnten hier mögliche Ursachen sein? Ich dachte die ALUs würden alle schön vom global dispatcher ausgelastet werden?

Es könnte daran liegen das die Shader einfach nicht genügend Rechnen im Vergleich zum Textureteil.

Eine zweite Möglichkeit wäre das die 128 Threads für 3 ALUs und eine TMU nicht reichen.

aths
2005-10-26, 17:26:15
Ja, und auch das ist gut so. Aber auch der Grund, weshalb ATI den SM2.0 Weg eingeschlagen hat. Und er NV40 bietet ja auch viele Features, die für die Anwendungen in Spielen zu langsam ist. Daher ging für ATi die Strategie mit SM2.0 sehr gut auf jedenfalls für den Zeitraum von R300 bis R420.Welche Features zum Beispiel sind für Anwendungen in Spielen zu langsam?

Warum unterstützt der R420 bis zu 512 Instruktionen im Pixelshader? Ist er doch viel zu langsam dafür, um das in Spielen durchehend für jedes Pixel zu nutzen!

aths
2005-10-26, 17:27:58
Einfach noch eine Recheneinheit rein. Das CineFX Design ist im Bezug auf die anzahl der "Combinder" schon immer variable ausgelegt worden. Zudem hat der 3 ALU Pixelprozessor von ATI scheinbar massive skalierungsprobleme mit aktuellen (FarCry - Fear) Shadern.Das Verhältnis von 1:3 erscheint mir sinnvoll, insofern bin ich gespannt, ob der R580 wirklich 4 Quad-TMUs und 12 Quad-ALUs haben wird. Bei CineFX noch einen dritten MAD-Combiner einzufügen klingt auch verlockend – aber bei nur 4 Temps pro Pixel halte ich dann die Auslastung für problematisch.

betasilie
2005-10-26, 17:29:03
Jo, Eyetoy interessiert mich nicht.

Was der Cell bringen könnte und würde ... der Atari 2600, Uralt-Konsole, mit minimaler Hardware bietet eine reichhaltige Spiele-Auswahl, die fast jedes Genre umfasst. Super Mario hüpfte zum Beispiel zuerst auf einem Atari herum. Ok, die 2600-Grafik ist voll zum Heulen, und angesichts der Datenträger (bis zu 4 kib, mittels Tricks 16 kiB) und des Hauptspeichers (128 Byte – der jedoch auch den CPU-Stack speichern muss) ist die Komplexität begrenzt. Spielerisch gibts jedoch mehr als man denkt.

Ein innovative KI-Algo, der sowohl kluge als auch überraschende Züge berechnet, kann durch eine Cell-CPU nicht ersetzt werden. Die Entwicklung von Schachprogrammen wäre heute vermutlich nicht so weit wie sie ist, wenn man in den Anfangszeiten heutige Hardware zur Verfügung gehabt hätte.

Lange Rede, kurzer Sinn: Dieses Rumprotzen mit Fakten zur Hardware interessiert mich bei Konsolen kein bisschen.
Als ob es nicht wichtig wäre, dass eine neue Konsole sehr leitungsstarke hardware bietet, um lange aktuell zu bleiben, und um ordentliche Spiele präsentieren zu können. Leistungsstarke Hardware steht innovativen Spielkonzepten nich im Wege.

Du solltest mal einen Mittelweg suche, zwischen deiner Featursetpenetranz im PC Bereich, und deiner Gleichgültigkeit was Konsolenhardware angeht.

Eyetoy2 interessiert dich nicht, aber der Revolutioncontroller schon. Sehr seltsam, wo sich doch die Konzepte so sehr ähneln. :|

Demirug
2005-10-26, 17:31:26
Das Verhältnis von 1:3 erscheint mir sinnvoll, insofern bin ich gespannt, ob der R580 wirklich 4 Quad-TMUs und 12 Quad-ALUs haben wird. Bei CineFX noch einen dritten MAD-Combiner einzufügen klingt auch verlockend – aber bei nur 4 Temps pro Pixel halte ich dann die Auslastung für problematisch.

Tempspeicher der nur innerhalb der Pipe gebraucht wird zählt nicht. Zudem gibt ATI an sogar mir nur 2 Temps pro Pixel auszukommen. Da sie allerdings Threads "ausserhalb" der Pipe haben können werden erst mal die gefressen bevor man an die aktiven muss.

betasilie
2005-10-26, 17:31:41
Welche Features zum Beispiel sind für Anwendungen in Spielen zu langsam?
FP64 HDR z.B. Und dann auch noch ohne AA. Das dyn. Branching ist grottenlahm. etc. Und was soll die Frage, Du weißt das dch besser als ich, oder egth es dir nur wieder darum NV schön dastehen zu lassen?

Warum unterstützt der R420 bis zu 512 Instruktionen im Pixelshader? Ist er doch viel zu langsam dafür, um das in Spielen durchehend für jedes Pixel zu nutzen!
Gute Frage. :rolleyes:

aths
2005-10-26, 17:34:10
Lustig das du das gerade ansprichst.

Ich habe gestern gerade bei mir einen Teil des Notfallsystems dafür getestet. Also was macht das System wenn man eine HDR Texture will aber die Karte keine kann. Um genau zu sein habe ich alles gespert bis auf die 16 Bit Texturen und die Qualitätsanforderung auf 0 gesetzt (0 = Verzweiflung). HDR Lightmaps auf 4 Bit pro Farbkanal runtergerechnet und dann wieder hochskaliert sehen echt grausam aus. Vielleicht lässt sich noch was mit nicht lineare Skalierung retten aber mir graut vor dem Dependent Read.Ich hatte mal überlegt, ob man "Low-Byte" und "High-Byte" getrennt filtern und anschließend zusammenfügen kann (für Fixpoint-Formate. Da fehlt dann natürlich der Übertrag, so dass das Ergebnis falsch sein wird.) RGBE dürfte aber auch schlecht zu nutzen sein, da man E bilinear gefiltert schlecht nutzen kann.

aths
2005-10-26, 17:39:52
FP64 HDR z.B. Und dann auch noch ohne AA. Das dyn. Branching ist grottenlahm. etc.HDR-Rendering mit FP64 ist machbar, siehe Far Cry. Das dynamische Branching im Vertexshader ist sehr schnell, schneller als im R520, im Pixelshader jedoch nur dann nützlich, wenn keine feine Granularität gegeben ist. Dynamisches Branching im Pixelshader ist aber nicht per se zu langsam, der Einsatzbereich zur Performancesteigerung jedoch eingeschränkter als beim R520.

Und was soll die Frage, Du weißt das dch besser als ich, oder egth es dir nur wieder darum NV schön dastehen zu lassen?Auf dieses Niveau lasse ich mich gar nicht erst ein.

Gute Frage. :rolleyes:Ja, beantworte sie doch bitte.

Man kann fast jedes Feature so benutzen, dass keine Echtzeitperformance mehr möglich ist. Das gilt natürlich auch für den NV40. Daraus abzuleiten, die Features seien generell zu langsam, halte ich für eine willkürliche Auslegung.

betasilie
2005-10-26, 17:40:47
So, hier mal was zum Thema mangelnde Ausnutzung von GPUs

/GameStar/dev: Im Konsolensegment holen
die Entwickler aus einer relativ harmlosen
Hardware oft Erstaunliches heraus, weil sie es
machen müssen. Liefe das auf dem PC genauso,
bräuchte man für Doom 3 wahrscheinlich nur
eine Geforce 4 Ti.

Cevat Yerli: Das ist ja der Punkt. Die Entwicklung
der Hardware ist so rasant, das man nur kurze
Zeit bekommt, um was rauszuholen.
...
Nun, scheinbar liegen Mik Bach und ich doch nicht so falsch mit unseren Meinungen. Aber schon klar, hier interessiert nur, ob der IHV auch ja noch mehr Papierfeatures in seine GPU einbaut, abseits jeder Alltagstauglichkeit.

aths
2005-10-26, 17:48:04
Als ob es nicht wichtig wäre, dass eine neue Konsole sehr leitungsstarke hardware bietet, um lange aktuell zu bleiben, und um ordentliche Spiele präsentieren zu können. Leistungsstarke Hardware steht innovativen Spielkonzepten nich im Wege.Das habe ich ja auch nicht abgestritten. Der Atari 7800 zum Beispiel ist nicht viel mehr als ein hochgetakteter 2600 mit mehr Speicher – und die Spiele sehen um Welten besser aus.

Und wenn ich RE4 auf dem Cube sehe ist mir sofort klar, dass das die Entwicklung weitergehen muss: Mehr Speicher für Texturen, höhere Auflösung und Farbpräzision, und endlich Antialiasing, von flexibleren Combinern ganz zu schweigen.

Was mir jedoch auf den Keks geht, sind diese Gefechte um die Konsolen-Hardware. Zum Beispiel mag ich Mario Kart, da ist mir doch völlig Wurst, dass die Xbox digitalen 5.1-Sound liefern kann. GT4 begeistert mich, da interessiert es mich einfach nicht, ob die PS3 noch bessere Grafik bieten wird, solange ich GT4 nicht satt habe.

Du solltest mal einen Mittelweg suche, zwischen deiner Featursetpenetranz im PC Bereich, und deiner Gleichgültigkeit was Konsolenhardware angeht.Die Konsole ist für mich ein Spielgerät. Da interessiert mich nicht, was drinsteckt, sondern was rauskommt.

Eyetoy2 interessiert dich nicht, aber der Revolutioncontroller schon. Sehr seltsam, wo sich doch die Konzepte so sehr ähneln. :|Worin sich eine Art Webcam und ein Controller, der sich wie eine Fernbedienung anfühlt ähneln sollen, ist mir jetzt nicht klar.

Demirug
2005-10-26, 17:49:55
So, hier mal was zum Thema mangelnde Ausnutzung von GPUs


Nun, scheinbar liegen Mik Bach und ich doch nciht so falsch mit unseren Meinungen. Aber schon klar, hier interessiert nur, ob der IHV auch ja noch mehr Papierfeatures in seine GPU einbaut, abseits jeder Alltagstauglichkeit.

Cevat Yerli hat schon mehr als einmal unter Beweiß gestellt das er der perfekte Marketingmann ist dafür aber wenn es um Technik geht besser öfter mal mit seinen Entwicklern sprechen sollte. Mir hallen heute noch die abteuerlichen Shadermodel 3 Erklärungen von ihm im Ohr nach. Aber um den Massen zu erzählen was sie hören wollen hat er echt Talent. Dafür verdient er sogar Bewunderung.

EDIT: Zudem habe ich bei CryTek öfter mal das Gefühl das die wichtigkeit von API-Features davon abhängt welches Delta dieses Feature auf den Geschäftskonten bewirken kann.

aths
2005-10-26, 17:54:25
So, hier mal was zum Thema mangelnde Ausnutzung von GPUs


Nun, scheinbar liegen Mik Bach und ich doch nicht so falsch mit unseren Meinungen. Aber schon klar, hier interessiert nur, ob der IHV auch ja noch mehr Papierfeatures in seine GPU einbaut, abseits jeder Alltagstauglichkeit.Welche "Papierfeatures" enthält der NV40? Auch wenn man da was finden sollte, er enthält noch viel mehr an vernünftigen Features, die der R420 nicht hat und selbst der R520 noch nicht, welcher dafür andere Features bietet, die selbst der G70 noch nicht hat, und den G70 auch in der Implementierung bestimmter Features übertrifft (MSAA: Bis 6x sparse, auch auf FP16-Targets, AF: Bis 8x eine vernünftige Implementierung, Dynamic Branching im Pixelshader: Endlich in allzwecktauglicher Granularität.)

betasilie
2005-10-26, 17:56:42
Das habe ich ja auch nicht abgestritten. Der Atari 7800 zum Beispiel ist nicht viel mehr als ein hochgetakteter 2600 mit mehr Speicher – und die Spiele sehen um Welten besser aus.
Klar, ich kenn die Dinger und ihre Specs. :)

Was mir jedoch auf den Keks geht, sind diese Gefechte um die Konsolen-Hardware. Zum Beispiel mag ich Mario Kart, da ist mir doch völlig Wurst, dass die Xbox digitalen 5.1-Sound liefern kann. GT4 begeistert mich, da interessiert es mich einfach nicht, ob die PS3 noch bessere Grafik bieten wird, solange ich GT4 nicht satt habe.
Natürlich, nur kann man das auch Problemlos auf den PC und seine Spiele übertragen.

Die Konsole ist für mich ein Spielgerät. Da interessiert mich nicht, was drinsteckt, sondern was rauskommt.
Achso. Und 3D-Grafikkarten sind nicht zum spielen da? Da kommt es nicht drauf an, was am Ende rauskommt? :|

Worin sich eine Art Webcam und ein Controller, der sich wie eine Fernbedienung anfühlt ähneln sollen, ist mir jetzt nicht klar.
Das Eyetoy und die entsprechende Software kann auf Gegenstände kalibiert werden. Man kann dann mit diesem Gegenstand mit dem Spiel interagieren, ganz so wie mit Controller des Revolutions. Z.B. ein Wasserglas in der Linken Hand, was dann räumlich auf dem Bildschirm bewegt werden kann, und in der anderen hand ein Controller. Oder halt in beiden Händen Objekte.

Hast Du die PS3 Demonstration nicht gesehen?

aths
2005-10-26, 18:02:04
Natürlich, nur kann man das auch Problemlos auf den PC und seine Spiele übertragen.

Achso. Und 3D-Grafikkarten sind nicht zum spielen da? Da kommt es nicht drauf an, was am Ende rauskommt? :| 3D-Grafikkarten sind unter anderem zum Spielen da. Da BQ für mich nicht ganz unwichtig ist, würde ich im Moment eher zum R520 greifen als zum G70 – aber trotzdem die seltsame Auslegung der SM3-Spec anprangern, ebenso wie ich mich weiterhin über das G70-AF beschweren würde.

Hast Du die PS3 Demonstration nicht gesehen?Nein. Und, ehrlich gesagt: Die PS3 interessiert mich nicht die Bohne. Wenn Gran Turismo 6 erschienen ist, kaufe ich vielleicht eine. Was Marketing-Videos angeht, bin ich ohnehin unenthusiastisch. Wenn ich mal eine neue Konsole kaufen sollte, suche ich die nach dem Spiele-Angebot und einer einfachen Controller-Bedienung aus. 5.1-Schnickschnack oder HDTV-Support oder übelste Grafikpower sind da sekundäre Merkmale.

Coda
2005-10-26, 18:23:35
FP64 HDR z.B. Und dann auch noch ohne AA.Auf G70 nicht.

Das dyn. Branching ist grottenlahm."grottenlahm" ist was anderes. Vor allem wenn der Shader auch noch rechnet.

zeckensack
2005-10-26, 18:26:06
Welche "Papierfeatures" enthält der NV40?Vertex Texturing (http://www.beyond3d.com/forum/showthread.php?p=590773#post590773).
Dynamisches Branching im Fragment-/Pixel-Bereich (hast du ja gegen Ende selbst noch erwähnt -- ja, sehe ich in der Form nur als Papier).
Auch wenn man da was finden sollte, er enthält noch viel mehr an vernünftigen Features, die der R420 nicht hat <...>Jawohl!

Coda
2005-10-26, 18:32:11
Vertex Texturing (http://www.beyond3d.com/forum/showthread.php?p=590773#post590773).Das ist gut genug für Displacement-Mapping. Besser als gar keins.

Bei dyn-branching geb ich dir recht, wobei das auf G70 auch besser geworden ist.

betasilie
2005-10-26, 18:38:37
Jungs, ich will NV auch nicht schlecht machen, aber es gibt immer zwei Seiten der Medallie. Der G70 ist bis auf das AF ein gutes Produkt, besonders wegen dem FP16-Filter, aber der NV40 und der NV30 waren für den Konsumenten in Sachen Featureset nicht notwendig. Und das man auch ohne NV30 und NV40 ein gutes SM3.0 Produkt zaubern kann, zeigt der R520. Die Welt ist nicht sw und es gibt nicht nur ein überlegenes Featureset, sondern auch die Performance. Der NV40 jedenfalls wird seinen Voteil durch ein höheres Featurest nie wirklich ausspielen können, und das spricht deutlich für ATIs Entscheidung beim R3xx und R4xx auf SM2.0 zu setzen. Wirklich gute SM3.0 Chips, werden wahrscheinlich die ersten SM4.0 Chips sein. :)

Coda
2005-10-26, 18:40:42
Der NV40 jedenfalls wird seinen Voteil durch ein höheres Featurest nie wirklich ausspielen könnenZumindest nicht als High-End Karte. Aber ich denke die UE3 könnte da schon einen Unterschied erkennbar zeigen.

betasilie
2005-10-26, 18:42:52
Auf G70 nicht.
Das stimmt. Jetzt fehlt nur noch AA und bei ATI FP16 Filtering. Ergo, beide Lösungen sind nicht optimal.

Quasar
2005-10-26, 18:47:50
Es könnte daran liegen das die Shader einfach nicht genügend Rechnen im Vergleich zum Textureteil. Eine zweite Möglichkeit wäre das die 128 Threads für 3 ALUs und eine TMU nicht reichen.
Die Shader hatten doch aber bereits eine minimale Texturbelastung...

Dritte Möglickeit:
Der "Ultra-Dispatch-Processor" kommt nicht hinterher und kann so "nur" das Optimum aus einem Quasi-ein-Quad-Chip herausholen und ihn beinahe zu 100% auslasten, weil er eben zwei Shader-Einheiten mehr zur Verfügung hat, um seine zwei Anweisungen pro Takt zu verteilen.

Quasar
2005-10-26, 18:52:23
[…]aber der NV40 und der NV30 waren für den Konsumenten in Sachen Featureset nicht notwendig.[…]
Ohne die beiden hätten wir aber kein HDR in Far Cry, keines in AoE3 und, so wie ich es momentan sehe, auch keines in Serious Sam2. Natürlich auch kein VTF-Wasser in Pacific Fighters.

Allein Source hätte eventuell einen HDR-Pfad.

Und genau deshalb sind Features wichtig, auch wen sie früh kommen und von kommenden Produkten in der Leistung übertroffen werden – denn das ist immer der Fall, 4xFSAA ist auf der Radeon X1800XT auch bedeutend schneller als auf der X850...– damit die Games, die wir so kaufen, diese Features auch einsetzen.


Ganz tolles Beispiel:
Welche Games nutzen denn die endgeile Branching-Performance der X1000-Reihe? Selbst in den ATi-Demos schaut es diesbezüglich noch nicht so wahnsinnig berauschend aus, einzige eine kleine PowerVR-Demo zeigt, wo der Branching-Bartel den Most holt. (thx@demirug für den Hinweis!)

reunion
2005-10-26, 19:05:24
Vertex Texturing (http://www.beyond3d.com/forum/showthread.php?p=590773#post590773).


Also jetzt wirds lustig. Da reiten manche nurnoch darauf herum, wieviel zusätzliche Arbeit ATi mit ihrem "unvollständigen" SM3-Chip den Programmierern einheimst, und dann erfährt man, dass selbst nV dieses Feature nur äußerst suboptimal implementiert hat.

Wäre da nicht Render-to-Vertex-Buffer ohnehin die bessere Alternative?

Quasar
2005-10-26, 19:09:09
Vertex Texturing (http://www.beyond3d.com/forum/showthread.php?p=590773#post590773).

Was macht man denn üblicherweise so mit Vertex-Texturen?

Demirug
2005-10-26, 19:18:55
Also jetzt wirds lustig. Da reiten manche nurnoch darauf herum, wieviel zusätzliche Arbeit ATi mit ihren "unvollständigen" SM3-Chip den Programmierern einheimst, und dann erfährt man, dass selbst nV dieses Feature nur äußerst suboptimal implementiert hat.

Wäre da nicht Render-to-Vertex-Buffer ohnehin die bessere Alternative?

Also das nVidias VT nicht unbedingt das schnellste ist sollte doch inzwischen jedem bekannt sein. Man muss halt zum ausgleich den Pixelshader auch aufwendig genug machen,

R2VB ist auf jeden Fall CPU lastiger weil man einen Zusatzpass braucht um die Texture in den Vertex-Buffer zu bekommen.

Wenn es grundsätzlich schneller wäre hätte nVidia sicherlich schon eine Treibertürke eingebaut weil R2VB kann schon der NV30.

Man muss mal abwarten was ATI so zeigt die haben Demos für die Entwickler versprochen.

betasilie
2005-10-26, 19:23:50
Ohne die beiden hätten wir aber kein HDR in Far Cry, keines in AoE3 und, so wie ich es momentan sehe, auch keines in Serious Sam2. Natürlich auch kein VTF-Wasser in Pacific Fighters.
FarCry bietet kein offiziel HDR, man kann es allerdings frei modden.
SS2 bietet sicher kein HDR, was die ATIs nicht können.
Das VTF ist wieder kein offiziell Unterstützes Feature und kann nur freigemodded werden. Außerdem ist das Waser in der Form auch ohne VTF machbar.

Also jetzt wirds lustig. Da reiten manche nurnoch darauf herum, wieviel zusätzliche Arbeit ATi mit ihren "unvollständigen" SM3-Chip den Programmierern einheimst, und dann erfährt man, dass selbst nV dieses Feature nur äußerst suboptimal implementiert hat.
Ack. Genau das ist der Witz. Zu NV40 Zeiten wurde von den bekannten Leuten hier das dyn. Branching gehyped, ohne Sicht auf die Performce. Jetzt ist es u.a. das Vertex-Texturing. Die Liste kann man ewig weiterführen. ... Jedes Feature von NVs GPUs werden hier hochgelobt, egal wie es implementiert ist und ohne Hinblick, ob das ganze überhaupt performant einsetzbar ist.

Was macht man denn üblicherweise so mit Vertex-Texturen?
Lustig gefragt. :D

Armaq
2005-10-26, 19:35:27
Interessantes Gespräch. Vielleicht sollte man auch mehrfacher Monolog dazu sagen.

Ich als einfacher User, der vielleicht ein wenig informierter ist als der Durchschnittsmensch kann dazu nur sagen:

Die 68er in meinem PC habe ich gekauft, weil sie SM 3.0 unterstützt.
Die 9600xt steckt in meinem "alten" PC, weil sie ein gutes Preis/Leistungsverhältnis hatte.

Die Nachfrage reguliert das Angebot.

Ich glaub der Satz ist echt alt, aber echt richtig.

Durch die Pluralität, oder vielmehr Dualität, wird der Markt derzeit den verschiedenen Wünschen seiner Abnehmer gerecht. Für die einen zählt das komplettere Featureset der G70, für die anderen die BQ der r520.
Anscheinend hat ATI clever erkannt wo sie Boden gutmachen können (und müssen).
Der r520 wäre sicherlich von der Presse zerhackt worden, wenn dieser keine signifikant bessere BQ bei gleicher/besserer Performance gezeigt hätte.

Ich stelle mir gerade eure Kommentare zum r520 vor, wenn dieser mehr als nur SM 3.0 könnte und dazu ein dickes Packet an nicht abschaltbaren Optimierungen hätte.

Auch wenn der Eine oder Andere gerne rot oder grün sieht. ATI und NV verdienen ihre Brötchen auf diesem Gebiet.
ATI hat den r520 so angepasst, dass er am Markt eine positive Resonanz erfährt.
Der Markt verlangt nach vielen Verschlimmbesserungen eine gute BQ. Vielleicht verlangt sogar nur die Presse danach ...

Zur nächsten Generation wird man sich sicherlich auf das erfüllen der Spezifikationen konzentrieren, bei erhöhter Performance. Denn das ist wohl das Streitthema zur Zeit.

Die stickigsten Ecken werden immer zuletzt belüftet.

aths
2005-10-26, 19:59:13
Vertex Texturing (http://www.beyond3d.com/forum/showthread.php?p=590773#post590773).Ich glaube du hast die ca. 20 Takte Latenz vergessen, die ein Texture-Fetch nachsich zieht (und welche man deshalb möglichst im Shader verstecken sollte, wenns geht.) Auf fehlende Filterung und die daraus entstehende Notwendigkeit, mehrere Werte zu sampeln und im Shader zu filtern angesprochen, kam von NV das typische Argument: Performance-Analysen hätten ergeben, dass das kein Flaschenhals sei. Ich bin der Meinung, bei 4 physikalischen VS-TMUs darf ein Tri-Sample gerne 8 Takte kosten, aber gefiltert werden sollte nach Möglichkeit in der TMU, ebenso würde ich gerne den Support von FP16-Texturen sehen.

NV sagt deutlich man solle Vertextexturen nicht als Konstanten-Array sehen. Wenn der Pixelshader viel rechnet, und der Vertexshader ansonsten Däumchen dreht, warum kein Vertextexturing nutzen?

Dynamisches Branching im Fragment-/Pixel-Bereich (hast du ja gegen Ende selbst noch erwähnt -- ja, sehe ich in der Form nur als Papier).Man sollte das beim NV40 und G70 nicht leichtfertig einsetzen, da man sonst sogar einen Performance-Drop riskiert. Trotzdem: In höhen Auflösungen ist ein Quadrat von 32x32 Pixeln keine allzugroße Fläche, und ~1000 Pixel ist die vermutete Granularität. Für Detailbumpmapping mit Specular-Anteil könnte das unter Umständen schon nützlich sein (also das Bumpmapping überspringen wenn die Details ohnehin nicht mehr sichtbar wären.)

Jawohl!So wird auch der NV10 durch T&L nicht schlecht, auch wenn der T&L-Hype überdeckte, welche Stärken der NV10 wirklich hat.

MikBach
2005-10-26, 20:33:02
Die findigen Programmierer müssten dann mehrere Codepfade einbauen. JC hat in Doom3 für Hardware der DX9-Klasse einen Generalshader für die komplette Beleuchtung geschrieben. Aus Performance-Sicht nicht für jede Karte optimal, aber vereinheitlichte Programmierung ist ein Wert, den Nichtprogrammierer zu unterschätzen scheinen.
Ich würde eher sagen Nicht-Hardwareprogrammierer.
Wenn man eine stinknormale Datenbank programmiert, wird man nicht mit solchen Problemen konfrontiert.
Dass der Generalshader nicht optimal sein konnte, ist nachvollziehbar. Dafür unterscheiden sich die Architekturen doch zu sehr.
Das sieht man halt daran, daß der Shader auf den NV-Karten gut performt, die ATI-Karten aber eine kleine "Nachhilfe" brauchten. Auch nachvollziehbar, da JC auf NV-Hardware entwickelt.

Ganz so einfach geht das mit dem SM2-Fallback eben nicht, insbesondere wenn man den Content mitskalieren muss. Bei Shadern müsste man vielleicht zu Multipass oder permutierten Shaderkombinationen greifen, wo in SM3 wenige (vielleicht sogar ein einziger) Shader ausreichen.
Alle Spiele, die bisher erschienen sind, brauchen höchstens 1.4 (wenn ich nichts neues verpasst habe). Man kann als schon vernünftige Fallbacks machen.
Und wie gesagt, falls ein Effekt zu aufwändig ist, weg damit.

Will man HDR-Rendering nutzen und hat dafür HDR-Lightmaps vorbereitet, kann man die nicht mal einfach so in ein LDR-Format packen. Klar ließe sich bilineare Filterung auch im Pixelshader emulieren, aber ist das Spiel, durch HDR-Rendering GPU-seitig ohnehin stark belastet, dann noch schnell genug?
Das ist eine interessante Frage. :)
Das hängt doch bestimmt von vielen Faktoren ab.
Ist das Threading dabei von Vorteil? Wie schnell kann die Karte LDR, wobei LDR sich seltsam anhört, als ob man unter dem gebräuchlichen Standard wäre.
Wie viel Rechenzeit wird von der Emulation in Anspruch genommen usw.

Ein Entwickler der Kostenrechnung beherrscht wird Content für Massenhardware erstellen lassen. Das heißt zum Beispiel, auf HDR-Lightmaps verzichten.
Wenn der Entwickler sich aber bei der Grafik von den Konkurrenten absetzen will, da muss er halt einen grösseren Aufwand betreiben und das Optimum aus der Graka holen, vielleicht nur um von den Spielezeitschriften eine super Note zu bekommen, weil alle die Kinnlade am Boden haben.. Das würden die meisten, bei Egoshooter ganz bestimmt, mit einem Kauf würdigen.

MikBach
2005-10-26, 20:40:44
Das wäre ein schönes Gefühl, wenn die teuer erstandene Grafikkarte eines Tages mal so richtig ausgenützt würde, mit tollen Spielen, die noch flüssig laufen, aber auch die ganze Grafikpracht zeigen die diese Karte noch in Echtzeit rendern kann. Das wird es aber in der Praxis fast nie geben, nicht zuletzt weil Highend-Karten meistens recht schnell abgelöst werden, während eine Konsolengeneration Jahre hält
Trotzdem kann man aus Konsolen noch nach Jahren eine bessere Grafik hinzaubern, das ist doch irgendwie seltsam. :confused:
Die Grafik wird bei den Konsolen besser, aber es bleibt trotzdem spielbar.

– und noch einige Spiele dafür entwickelt werden, wenn es bereits den Nachfolger zu kaufen gibt. Außerdem kann es im PC weitere Flaschenhälse geben (CPU, Hauptspeicher-Bandbreite, verfügbarer RAM) so dass ein Spiel aus der Grafikkarte sowie nicht alles rauskitzeln kann, was drin wäre. Eine teure Grafikkarte (für die GeForce4 Ti 4600 bezahlte ich an die 600 €) bringt mit sich, dass man die Auflösung hochdrehen kann, aber nicht unbedingt, auf lange Zeit alle Effekte zu sehen (die Spiegel in Max Payne 2 spiegeln auf der GeForce4 Ti nicht.)
Mittlerweile sind wir wohl ziemlich shaderlimitiert.
Die Graka spielt bei den neusten Spielen wie z.B. FEAR die Hauptrolle.

MikBach
2005-10-26, 20:48:34
Das Problem mit den Temps: Sofern nicht überall dort, wo ohne Qualitätseinbuße möglich, vom Entwickler das _PP-Flag gesetzt wird, geht dem NV40 meiner Meinung nach einfach der Registerspeicher aus. Folge: Die Rechenwerke sind unterausgelastet. Dazu kommt das fehlende ADD in der ersten Shading-Unit: ADD kann nur in der zweiten Unit ausgeführt werden. Das verkompliziert das Scheduling zusätzlich, unter Umständen muss man dann eine Instruktion in den nächsten Slot schieben.
Alles schon mal gelesen. :wink:
Dies wird auch der Grund sein, warum die meisten neuen Spiele damals mit dem NV40 teilweise deutlich langsamer als auf dem R420 waren. Erst nach einem Treiberupdate oder auch mehreren war man bei NV schneller und konnte meistens deutlich aufholen.
Shaderreplacement ist hier wohl das Zauberwort. :D

Ich sehe auch keine andere Möglichkeit, basierend auf CineFX den R580 zu kontern.
Wenn der R580 seine Shaderleistung in Vebindung mit dem Threadin richtig zur Geltung bringen kann, dann könnte es echt schwarz für NV aussehen.

MikBach
2005-10-26, 20:55:01
Zudem hat der 3 ALU Pixelprozessor von ATI scheinbar massive skalierungsprobleme mit aktuellen (FarCry - Fear) Shadern.
Insiderinfos oder einfach beim RV530 angesehen?

MikBach
2005-10-26, 21:00:09
EDIT: Zudem habe ich bei CryTek öfter mal das Gefühl das die wichtigkeit von API-Features davon abhängt welches Delta dieses Feature auf den Geschäftskonten bewirken kann.
Könntest du es bitte etwas weiter ausführen, klingt sehr interessant, um zu verstehen wie einige Spielehersteller vorgehen. :)

mindfaq
2005-10-26, 21:24:29
SS2 bietet sicher kein HDR, was die ATIs nicht können.Wie kommst du darauf ? Das HDR-Rendering in Serious Sam 2 funktioniert definitiv nicht mit R420/R480.

aths
2005-10-26, 21:24:47
Das ist eine interessante Frage. :)
Das hängt doch bestimmt von vielen Faktoren ab.
Ist das Threading dabei von Vorteil? Wie schnell kann die Karte LDR, wobei LDR sich seltsam anhört, als ob man unter dem gebräuchlichen Standard wäre.
Wie viel Rechenzeit wird von der Emulation in Anspruch genommen usw.Im Prinzip ist die gesamte 3D-Grafikberechnung Simulation bzw. Fake. Die Frage ist eben, wie gut man das unter den gegebenen Umständen hinbekommt. Ich sehe HDR-Rendering nicht als neusten Schrei, sondern als ganz normale Entwicklung. Der Schritt ist dabei deutlich größer als vom 16-Bit-Rendering zum 32-Bit-Rendering. Früher oder später werden uns heutige Spiele, die nichtmal dynamische Anpassung an die Helligkeit bieten, seltsam und unnatürlich vorkommen.

Wenn der Entwickler sich aber bei der Grafik von den Konkurrenten absetzen will, da muss er halt einen grösseren Aufwand betreiben und das Optimum aus der Graka holen, vielleicht nur um von den Spielezeitschriften eine super Note zu bekommen, weil alle die Kinnlade am Boden haben.. Das würden die meisten, bei Egoshooter ganz bestimmt, mit einem Kauf würdigen.("Größer" wenns geht mit ß schreiben.)

Der Entwickler oder sein Publisher will Profit machen, pro eingesetztem Dollar möglichst viel Gewinn erzielen. Wenn ich recht informiert bin, kostet die Vermarktung eines neuen Massengeschmackfilms ungefähr so viel wie seine Produktion. Im Genre "Action" versuchen die Produzenten laufend, sich mit noch bombastischeren Effekten zu überbieten. Auf der Strecke bleibt unter anderem die Geschichte. Sie muss einfach sein, damit sie auch die 16-jährige Zielgruppe versteht. Filme, die man aufmerksam verfolgen muss, sind Mangelware werden selten Blockbuster.

Auch bei Computerspielen wird viel Geld für die Präsentation (also die Grafik) ausgegeben, doch aufgrund der Vorlaufzeit in der Produktion, also der Spanne bishin zum Release, bleibt es immer ein riskantes Spiel wenn die Frage gestellt wird, welches Technik- und Performancelevel unterstützt werden soll. Zuallererst besteht der kostenrechnungsfähige Publisher darauf, dass praktisch jeder das Spiel spielen kann. Damit muss also Content für den Einsteiger- und Massenmarkt-PC erstellt werden. Für die Highend-Fraggles gibt es dann noch ein paar Shader als Sahnehäubchen. Richtigen HQ-Content zu schaffen, das kostet noch mal richtig Geld und werden sich wohl nur die wenigsten Entwickler erlauben.

aths
2005-10-26, 21:26:51
Trotzdem kann man aus Konsolen noch nach Jahren eine bessere Grafik hinzaubern, das ist doch irgendwie seltsam. :confused:
Die Grafik wird bei den Konsolen besser, aber es bleibt trotzdem spielbar.Ja, das Optimierungspotenzial ist auch höher. So werden in GT4 (und generell bei GT) einige Objekte erst ab einer bestimmten Entfernung gerendert. Wahrscheinlich stellten die Entwickler fest, dass sonst die Performance unter die Zielmarke gerät. Die Entwickler lernen nicht nur, mittels Kniffen die verfügbare Hardware besser auszunutzen sondern auch, ihre Algorithmen effizienter zu implementieren.

Bei Sonic the Hedgehog bekam ich zum Beispiel Augen, wie flüssig (und wie schnell!) das auf der Konsole scrollt.

Mittlerweile sind wir wohl ziemlich shaderlimitiert.
Die Graka spielt bei den neusten Spielen wie z.B. FEAR die Hauptrolle.CPU-Leistung und verfügbarer Hauptspeicher bleibt trotzdem eine sehr wichtige, jedoch für den Entwickler unbekannte Größe.

In Bezug auf Konsolen und bestimmte Homecomputer (Amiga 500) hatte ich früher eine recht abfällige Haltung. Meine PC-Hardware war schließlich viel leistungsfähiger. Leider waren die Jump-n-Runs bei mir in einem Grafikmodus mit nur 16 Farben, und schönes Parallax-Scrolling mit mehr als zwei Ebenen bekam man gleich gar nicht zu sehen. Doch Leistung hin oder her – der EGA-Modus war obligatorisch, ein zusätzlicher VGA-Modus wurde nicht immer geboten. Dass der PC mehr als 1 MB RAM haben könnte, haben über lange Zeit die wenigsten Spiele ausgenutzt.

Dann die CPU: Das Spiel wurde meist für eine bestimmte Framerate optimiert, welche bereits mit einem 286-er zu haben war. Der stolze Besitzer eines ultrateuren 386-ers mit 20 MHz und 8 MB RAM konnte damit vielleicht in Windows gut arbeiten, aber es gab praktisch kein Spiel, welches das System irgendwie ausnutzte.

MikBach
2005-10-26, 21:37:14
Im Prinzip ist die gesamte 3D-Grafikberechnung Simulation bzw. Fake. Die Frage ist eben, wie gut man das unter den gegebenen Umständen hinbekommt. Ich sehe HDR-Rendering nicht als neusten Schrei, sondern als ganz normale Entwicklung. Der Schritt ist dabei deutlich größer als vom 16-Bit-Rendering zum 32-Bit-Rendering. Früher oder später werden uns heutige Spiele, die nichtmal dynamische Anpassung an die Helligkeit bieten, seltsam und unnatürlich vorkommen.
Da hast du vollkommen Recht. In ein paar Jahren werden wir uns wundern, wie schlecht die Grafik gewesen ist.
Der Fortschritt schreitet immer schneller voran...

("Größer" wenns geht mit ß schreiben.)
OT:

Werde ich mir merken. Finde deinen Rechtschreibwahn wirklich sehr gut, da ich als Ausländer noch was lernen kann. :)


Auch bei Computerspielen wird viel Geld für die Präsentation (also die Grafik) ausgegeben, doch aufgrund der Vorlaufzeit in der Produktion, also der Spanne bishin zum Release, bleibt es immer ein riskantes Spiel wenn die Frage gestellt wird, welches Technik- und Performancelevel unterstützt werden soll. Zuallererst besteht der kostenrechnungsfähige Publisher darauf, dass praktisch jeder das Spiel spielen kann. Damit muss also Content für den Einsteiger- und Massenmarkt-PC erstellt werden. Für die Highend-Fraggles gibt es dann noch ein paar Shader als Sahnehäubchen. Richtigen HQ-Content zu schaffen, das kostet noch mal richtig Geld und werden sich wohl nur die wenigsten Entwickler erlauben.
Sehe ich ehrlich gesagt auch so.
Aber es wird die Vorreiter geben, wie es sie auch bei SM3 gegeben hat.
Siehe PF.

MikBach
2005-10-26, 21:49:59
Ja, das Optimierungspotenzial ist auch höher. So werden in GT4 (und generell bei GT) einige Objekte erst ab einer bestimmten Entfernung gerendert. Wahrscheinlich stellten die Entwickler fest, dass sonst die Performance unter die Zielmarke gerät. Die Entwickler lernen nicht nur, mittels Kniffen die verfügbare Hardware besser auszunutzen sondern auch, ihre Algorithmen effizienter zu implementieren.

Bei Sonic the Hedgehog bekam ich zum Beispiel Augen, wie flüssig (und wie schnell!) das auf der Konsole scrollt.
Das ist es eben. Mit besseren Algorithmen kann man die Performance auch steigern. Das ist aber selten der Fall, da man schon mit der nächsten Generation beschäftigt ist und die vorletzte links liegen läßt.

CPU-Leistung und verfügbarer Hauptspeicher bleibt trotzdem eine sehr wichtige, jedoch für den Entwickler unbekannte Größe.
Das denke ich bei den kommenden Spielen nicht...
Zumindest wenn man einen halbwegs brauchbaren PC mit 1 GB SPeicher und ca. 3000er CPU besitzt.

In Bezug auf Konsolen und bestimmte Homecomputer (Amiga 500) hatte ich früher eine recht abfällige Haltung. Meine PC-Hardware war schließlich viel leistungsfähiger. Leider waren die Jump-n-Runs bei mir in einem Grafikmodus mit nur 16 Farben, und schönes Parallax-Scrolling mit mehr als zwei Ebenen bekam man gleich gar nicht zu sehen. Doch Leistung hin oder her – der EGA-Modus war obligatorisch, ein zusätzlicher VGA-Modus wurde nicht immer geboten. Dass der PC mehr als 1 MB RAM haben könnte, haben über lange Zeit die wenigsten Spiele ausgenutzt.
Der PC war früher keine Spielemaschine. Die Verbesserungen damals (Hercules, CGA, EGA, VGA) waren eher für die Industrie wichtig. Der Spielemarkt hat davon profitiert.


Dann die CPU: Das Spiel wurde meist für eine bestimmte Framerate optimiert, welche bereits mit einem 286-er zu haben war. Der stolze Besitzer eines ultrateuren 386-ers mit 20 MHz und 8 MB RAM konnte damit vielleicht in Windows gut arbeiten, aber es gab praktisch kein Spiel, welches das System irgendwie ausnutzte.
Wing Commander?

reunion
2005-10-26, 22:02:12
Es könnte daran liegen das die Shader einfach nicht genügend Rechnen im Vergleich zum Textureteil.

Eine zweite Möglichkeit wäre das die 128 Threads für 3 ALUs und eine TMU nicht reichen.

IMO ersteres:

http://www.xbitlabs.com/images/video/radeon-x1000/x1600/Shader_x16.gif

Die vier Texturunits scheinen zu wenig zu sein, um alle zwölf ALUs auszulasten. Bei simplen Shadern ist sogar die X700pro schneller, erst bei längeren Shadern, wo bei allen anderen Karten die Performance mehr als halbiert wird, kann RV530 die Muskeln spielen lassen. Auch dynamisches Branching scheint zu profitieren: Man übertrumpft die GF6800 mal eben um den Faktor 4.

http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html

Coda
2005-10-26, 22:51:24
Dann die CPU: Das Spiel wurde meist für eine bestimmte Framerate optimiert, welche bereits mit einem 286-er zu haben war. Der stolze Besitzer eines ultrateuren 386-ers mit 20 MHz und 8 MB RAM konnte damit vielleicht in Windows gut arbeiten, aber es gab praktisch kein Spiel, welches das System irgendwie ausnutzte.Comanche?

Demirug
2005-10-26, 23:11:29
reunion, lass doch diesen syntetischen Mist weg.

Sowas muss man mit echen Spielshadern (z.B. F.E.A.R) machen. Da sieht es auch nicht besser aus.

Ailuros
2005-10-26, 23:14:16
Mittlerweile sind wir wohl ziemlich shaderlimitiert.
Die Graka spielt bei den neusten Spielen wie z.B. FEAR die Hauptrolle.

Du willst Dir doch nicht selber einreden dass Du das Spiel ausreichend mit einem Athlon XP 2000+ z.B. und einer G70/R520 spielen kannst oder? Egal auf welche Komponente die groessere Last faellt, braucht man stets eine sehr starke GPU mit einer sehr starken CPU (und natuerlich staendig mehr Hauptspeicher) um die neuesten Spiele spielen zu koennen.

zeckensack
2005-10-26, 23:20:13
Ich glaube du hast die ca. 20 Takte Latenz vergessen, die ein Texture-Fetch nachsich zieht (und welche man deshalb möglichst im Shader verstecken sollte, wenns geht.) Auf fehlende Filterung und die daraus entstehende Notwendigkeit, mehrere Werte zu sampeln und im Shader zu filtern angesprochen, kam von NV das typische Argument: Performance-Analysen hätten ergeben, dass das kein Flaschenhals sei.Das habe ich nicht vergessen. Die Performance-Seite ist natürlich ein Aspekt der mit dazu beiträgt dass dieses Feature unpraktikabel ist.
Die mangelnde Flexibilität dieses Konstrukts (sprich: die zwei unterstützten Texturformate) wiegt IMO aber genauso schwer, und haut wieder in die gleiche Kerbe. Selbst wenn das ganze 0 Takte Latenz hätte, würde man trotzdem noch Unmengen an Bandbreite verschwenden, weil man sich eben keine vernünftigen Texturformate aussuchen kann.
Ich bin der Meinung, bei 4 physikalischen VS-TMUs darf ein Tri-Sample gerne 8 Takte kosten, aber gefiltert werden sollte nach Möglichkeit in der TMU, ebenso würde ich gerne den Support von FP16-Texturen sehen.Mipmapping auf Vertex-Ebene ist nicht so wahnsinnig wichtig, weil es dort keinen natürlichen LOD gibt. Nehmen würde ich es natürlich trotzdem.
FP16-Texturen wären gut, ja. Noch besser wäre die ganze Palette an Texturformaten, inklusive 1-Kanal bis 4-Kanal FX8, FX16. S3TC könnte man sich wahrscheinlich schenken, aber davon abgesehen gibt's IMO keine vernünftige Entschuldigung für das Fehlen der traditionellen Formate bis auf die pure Machbarkeit im Transistorbudget.

Von daher wird es höchste Zeit, dass die sagenumwobenen "unified shader"-Architekturen endlich mal auf den Markt kommen. Dann kann man auch von Vertex-Texturen sprechen ohne gleich Hustkrämpfe zu kriegen.
NV sagt deutlich man solle Vertextexturen nicht als Konstanten-Array sehen.Das ist mir bekannt, allerdings purster PR-Bullshit. Das ist in der Form ein zweidimensional indizierbares Konstanten-Array. Nur langsamer.
Wenn der Pixelshader viel rechnet, und der Vertexshader ansonsten Däumchen dreht, warum kein Vertextexturing nutzen?Weil für 99% aller möglichen Anwendungsfälle effizientere und portablere Möglichkeiten existieren.

Naiver Anwendungsfall:
Ein Vertex-Shader rechnet für DM eine Texturkoordinate anhand der Geometriekoordinate (und meinetwegen anderen Vertex-Attributen wie Farbe und Texturkoordinaten) aus, und benutzt diese um einen Wert aus der VT zu holen.
Sinnlos³.
So lange sich die Quellattribute nicht ändern, wird immer die gleiche Texturkoordinate pro Vertex ausgerechnet, ergo immer der gleiche Wert geholt. Ergo könnte man einfach einen zweiten Attribut-Strom anhängen, der für jeden Vertex schon vorberechnet das "Textur-Sample" enthält. Attribut-Haufen sind auch wiederverwendbare Objekte die man wie Texturen binden und austauschen kann. Somit hätte man das exakt leiche Ergebnis mit einem vielfachen der Performance und Lauffähigkeit auf x-beliebiger Hardware.

Interessant wird's erst wenn ein dynamischer Wert in die Berechnung der Texturkoordinate einfließt. ZB (frei veränderbare) Vertex-Shader-Konstanten, oder die Kamera-Matrix. Stichwort: Wellengang. Durch eine Änderung an einem Skalar könnte man ein Höhenfeld ("displacement map"*hust*) kontinuierlich über die tragende Geometrie schieben.

In diesen interessanten Fällen braucht man dann wiederum ganz dringend einen Filter, denn die Texturkoordinate wird ebenso kontinuierlich sein wie es eben die Kameraposition sein kann. Ohne Filter hat man dann ein nutzloses hüpfendes Höhenfeld.

Da ist man fast besser beraten wenn man die Animation mathematisch nachbildet. Sinus würde sich für Wellensimulation geradezu aufdrängen. Oder gleich auf der CPU machen. Langsamer als dieses Vertex-Texturing kann es kaum noch sein.

Coda
2005-10-26, 23:22:43
Das ist in der Form ein zweidimensional indizierbares Konstanten-Array. Nur langsamer.Das ist jede 2D-Textur.

In diesen interessanten Fällen braucht man dann wiederum ganz dringend einen Filter, denn die Texturkoordinate wird ebenso kontinuierlich sein wie es eben die Kameraposition sein kann. Ohne Filter hat man dann ein nutzloses hüpfendes Höhenfeld.Den Filter kannst du ja selbst programmieren.

Ich finde die VTMUs in NV4x auch nicht sonderlich toll, aber so ganz unnütz sind sie dann doch nicht.

zeckensack
2005-10-26, 23:43:35
Das ist jede 2D-Textur.Genau.
Wobei strengenommen Mipmapping darüber hinausgeht.
Nützlich werden Texturen durch Nebenfähigkeiten wie Wiederverwendbarkeit, Mischbarkeit, Mipmaps, Wrap-Modi, schnelle Filter, flexible Formate und Dimensionalität.
Den Filter kannst du ja selbst programmieren.Ja toll. Ein einziges Sample ist ja schon teuer genug.
Die Klasse von Anwendungsfällen wo es überhaupt Sinn macht VTs einzusetzen, erfordert Filter. Wer mir keinen Filter anbietet kann mir auch keine VTs verkaufen. Da fühle ich mich verarscht. Wer keine Filter implementieren will, kann sich VTs von mir aus gleich komplett schenken.

VTs können nur dazu da sein Performanceprobleme (dynamische Geometrie) abzumildern. Das erreicht man aber wohl kaum indem man ein ganz neues schwerwiegendes Performanceproblem erzeugt.

Wo sind denn die Anwendungen für NV40-VTs? Das gekaufte Pacific Fighters ... und sonst?

Coda
2005-10-26, 23:55:27
Die Klasse von Anwendungsfällen wo es überhaupt Sinn macht VTs einzusetzen, erfordert Filter.Wenn du ein festes Eckpunkt-Gitter hast und darauf Displacement-Mapping anwenden willst brauchst du keinen Filter.

Pacific Fighters macht das imho genau so.

Ailuros
2005-10-27, 00:02:45
Zwar stimme ich zum meisten zu, aber es ist nicht so dass man vertex texturing ueberhaupt nicht gebrauchen koennte. Ich sehe im PowerVR cloth demo ziemlich lange Shader, dynamisches branching, Geometrie und Vertex Texturen und das Ding laeuft immer noch ziemlich schnell auf NV4x/G7x weil eben die Simulation nur auf einem 64*64 grid ausgefuehrt wird.

In wireframe fuer das Tuch was noch extra Leistung kostet, liegt die Framerate ueber 140 fps durch die Simulations-phase in 1280*960 + 4xAA/16xAF auf der G70.

reunion
2005-10-27, 01:00:41
reunion, lass doch diesen syntetischen Mist weg.

Sowas muss man mit echen Spielshadern (z.B. F.E.A.R) machen. Da sieht es auch nicht besser aus.


Was spricht dann gegen diesen "synthetischen Mist", wenn es da auch nicht besser aussieht? :|

Ailuros
2005-10-27, 01:02:56
Was spricht dann gegen diesen "synthetischen Mist", wenn es da auch nicht besser aussieht? :|

Was dagegen spricht ist dass es ein Fuellraten-Tester ist; im gegebenen Fall des Beispiels von FEAR, ist welche Situation genau besser Staerken und Schwaechen zu definieren?

Armaq
2005-10-27, 01:55:31
Hammergrafik (http://www.spiegel.de/img/0,1020,534163,00.jpg)

Frage eines Laien:

Welcher Effekt würde mir als Ergebnis dieses Bild in Grafik bringen?

Eine Art vom Bumpmapping? VT?

Coda
2005-10-27, 02:16:16
Was soll das sein?

Ailuros
2005-10-27, 03:07:04
Hammergrafik (http://www.spiegel.de/img/0,1020,534163,00.jpg)

Frage eines Laien:

Welcher Effekt würde mir als Ergebnis dieses Bild in Grafik bringen?

Eine Art vom Bumpmapping? VT?

Ich hab Lust mir ins eigene Bein zu schiessen *hust*....eine Art Perlin noise vielleicht? :confused:

zeckensack
2005-10-27, 04:09:11
EMBM plus Specular.

Sry, aber viel mehr als Kaffeesatzlesen ist nicht drin :)

Hammermäßig ist subjektiv. Richtiges Wasser (wenn es das sein soll) sieht IMO ganz anders aus.

MikBach
2005-10-27, 06:47:59
Du willst Dir doch nicht selber einreden dass Du das Spiel ausreichend mit einem Athlon XP 2000+ z.B. und einer G70/R520 spielen kannst oder? Egal auf welche Komponente die groessere Last faellt, braucht man stets eine sehr starke GPU mit einer sehr starken CPU (und natuerlich staendig mehr Hauptspeicher) um die neuesten Spiele spielen zu koennen.

Das denke ich bei den kommenden Spielen nicht...
Zumindest wenn man einen halbwegs brauchbaren PC mit 1 GB SPeicher und ca. 3000er CPU besitzt.

robbitop
2005-10-27, 07:07:17
Wenn der R580 seine Shaderleistung in Vebindung mit dem Threadin richtig zur Geltung bringen kann, dann könnte es echt schwarz für NV aussehen.
Das Threading hier nur als Marketingbegriff steht, ist dir hoffentlich klar? R520 ist von der Pro Takt PS Leistung nicht signifikant schneller als R420.
Zumal heutige Spiele wie man anhand der Reviews sieht nicht annähernd PS limitiert sind. Sonst hätte R520 derzeit das klare Nachsehen. G70 besitzt bereits 48 ALUs und zum G75 (oder wie auch immer) kommt mit Sicherheit neben 90nm noch etwas dazu. Entweder mehr Quads oder aber auch mehr ALUs. IMO.

robbitop
2005-10-27, 07:07:51
Insiderinfos oder einfach beim RV530 angesehen?
Er sprach von 128 Threads. Ergo RV530.

Demirug
2005-10-27, 07:12:59
Was spricht dann gegen diesen "synthetischen Mist", wenn es da auch nicht besser aussieht? :|

Glückstreffer kann man nicht ausschliessen. Die Erhebungsmenge dieses Tests ist aber viel zu klein und zum anderen kommen solche Shader nun nicht gerade massenhaft in den aktuellen Spielen vor. In diesem fall passt es mal aber das macht die Sache noch gefährlicher weil man draus versuchen könnte eine Gesetzmässigkeit abzuleiten.

Demirug
2005-10-27, 07:13:45
Er sprach von 128 Threads. Ergo RV530.

Ich spreche auch bei einem R520 Pixelprozessor von 128 Threads.

robbitop
2005-10-27, 07:15:01
Ich spreche auch bei einem R520 Pixelprozessor von 128 Threads.
Waren's da nicht 512?

Demirug
2005-10-27, 07:22:13
Waren's da nicht 512?

Er hat ja auch 4 Pixelprozessoren. 4*128 ist 512.

robbitop
2005-10-27, 07:24:37
Er hat ja auch 4 Pixelprozessoren. 4*128 ist 512.
Hm, also doch etwas statischer als ich dachte...Hätte nicht gedacht, dass sowas noch fest zugeteilt ist.

Grestorn
2005-10-27, 08:55:11
Hammergrafik (http://www.spiegel.de/img/0,1020,534163,00.jpg)

Frage eines Laien:

Welcher Effekt würde mir als Ergebnis dieses Bild in Grafik bringen?

Eine Art vom Bumpmapping? VT?Das Wasser von B&W 2 sieht ganz ähnlich aus (Sonne im Gegenlicht, ganz nah ranzoomen)

InsaneDruid
2005-10-27, 10:43:49
Wenn du ein festes Eckpunkt-Gitter hast und darauf Displacement-Mapping anwenden willst brauchst du keinen Filter.

Pacific Fighters macht das imho genau so.

Wobei man sagen muss, das die Vertextextur-Wellen in PF enorm auf die Performance gehen, und schon aus mittleren Höhen nicht mehr zu erkennen sind. Ich kenne keinen Il2/PF Piloten (mit entsprechender Hardware, >=6800GT), der die auch einsetzt. Oleg (dev) hat die - wie man es rauslas - so in dieser Form in das bestehende Game Il2/PF reingepatcht, weil NV ihn dazu "überredete", und schwupps war PF das Game, welches (ua) als SM3 Zugpferd gelten sollte.

DrumDub
2005-10-27, 10:47:56
Glückstreffer kann man nicht ausschliessen. Die Erhebungsmenge dieses Tests ist aber viel zu klein und zum anderen kommen solche Shader nun nicht gerade massenhaft in den aktuellen Spielen vor. In diesem fall passt es mal aber das macht die Sache noch gefährlicher weil man draus versuchen könnte eine Gesetzmässigkeit abzuleiten. in fear liegt die x1600xt auch vor der gf 6800: http://www.xbitlabs.com/articles/video/display/radeon-x1600_9.html

seahawk
2005-10-27, 11:04:39
Die X1600XT leigt in diesem Test konstant min. auf 6800 Niveau.

Demirug
2005-10-27, 11:51:18
in fear liegt die x1600xt auch vor der gf 6800: http://www.xbitlabs.com/articles/video/display/radeon-x1600_9.html

Ich rede doch nur von der reinen Pixelshader Rechenleistung. Bei einem Spiel im Ganzen kommen ja noch mehr mögliche Flschenhälse dazu. Wenn man zudem zurück schaut wie die ganze Sache angefangen hat dann ging es um die Skalierung eines 3 ALU X1x Pixelprozessor gegenüber der 1 ALU Version. Bei aktuellen Spieleshader ist da Faktor 2 im Durchschnitt schon schwer zu erreichen. Wenn wir jetzt noch berücksichtigen das immer dann wenn man Texturelimitiert ist die Sache nicht besser wird fällt der Faktor noch weiter.

Allerdings ist eine Tendenz zu sehen das mit zunehmender Shaderkomplexität der Skalierungsfaktor besser wird. Aber selbst mit einem Verhältniss von 1 zu 10 kommen wir noch nicht auf den Faktor 3.

DrumDub
2005-10-27, 12:00:40
Ich rede doch nur von der reinen Pixelshader Rechenleistung. Bei einem Spiel im Ganzen kommen ja noch mehr mögliche Flschenhälse dazu. Wenn man zudem zurück schaut wie die ganze Sache angefangen hat dann ging es um die Skalierung eines 3 ALU X1x Pixelprozessor gegenüber der 1 ALU Version. Bei aktuellen Spieleshader ist da Faktor 2 im Durchschnitt schon schwer zu erreichen. Wenn wir jetzt noch berücksichtigen das immer dann wenn man Texturelimitiert ist die Sache nicht besser wird fällt der Faktor noch weiter.

Allerdings ist eine Tendenz zu sehen das mit zunehmender Shaderkomplexität der Skalierungsfaktor besser wird. Aber selbst mit einem Verhältniss von 1 zu 10 kommen wir noch nicht auf den Faktor 3. ok. das leuchtet auch mir ein. letztlich ist dabei ja immer noch positiv, dass der rv530 in zukunft bezüglich komplexrer shader in speilen noch einiges an luft hat.

Armaq
2005-10-27, 12:38:50
EMBM plus Specular.

Sry, aber viel mehr als Kaffeesatzlesen ist nicht drin :)

Hammermäßig ist subjektiv. Richtiges Wasser (wenn es das sein soll) sieht IMO ganz anders aus.

Das ist eine Glätscherformation in Grönland.

(EMBM =enviromental mapped bump mapping?)

Demirug
2005-10-27, 12:44:29
ok. das leuchtet auch mir ein. letztlich ist dabei ja immer noch positiv, dass der rv530 in zukunft bezüglich komplexrer shader in speilen noch einiges an luft hat.

Bis dann die Rohleistung ausgeht. Ich fürchte nämlich das in dem Bereich in dem Shader komplex genug werden um die 3 Alus zu nutzen die Gesamtleistung schon eng wird. IMHO wäre ein Chip mit 2 Pixelshader aus dem X1300 sinninger gewesen. Hätte allerdings auch mehr Transistoren erfordert.

aths
2005-10-27, 13:03:04
Bis dann die Rohleistung ausgeht. Ich fürchte nämlich das in dem Bereich in dem Shader komplex genug werden um die 3 Alus zu nutzen die Gesamtleistung schon eng wird. IMHO wäre ein Chip mit 2 Pixelshader aus dem X1300 sinninger gewesen. Hätte allerdings auch mehr Transistoren erfordert.Imo hätte die X1600 unbedingt 2 Quad-TMUs gebraucht. Meinetwegen dann auch nur 2 Quad-ALUs, aber die Füllrate der X1600 ist einfach zu begrenzt. Mit einem 128-Bit-DDR-Interface kann man 8 Pixelpipes ganz gut auslasten, das hat die 6600 bewiesen.

Quasar
2005-10-27, 13:09:57
FarCry bietet kein offiziel HDR, man kann es allerdings frei modden.
SS2 bietet sicher kein HDR, was die ATIs nicht können.
Das VTF ist wieder kein offiziell Unterstützes Feature und kann nur freigemodded werden. Außerdem ist das Waser in der Form auch ohne VTF machbar.
Siehst du - umso schlimmer. Nun stell dir mal vor, die bösen grünen Jungs wären auch auf SM2 hocken geblieben.

Was hätten wir dann? Richtig - noch weniger.

aths
2005-10-27, 13:13:31
Das ist es eben. Mit besseren Algorithmen kann man die Performance auch steigern. Das ist aber selten der Fall, da man schon mit der nächsten Generation beschäftigt ist und die vorletzte links liegen läßt.

Das denke ich bei den kommenden Spielen nicht...
Zumindest wenn man einen halbwegs brauchbaren PC mit 1 GB SPeicher und ca. 3000er CPU besitzt.Mathematisch effizientere Algorithmen sind auf neuerer wie auf älterer Hardware schneller. Der Trick bei SM2 im Vergleich zu SM1 und SM3 im Vergleich zu SM2 ist, dass die aktuellere Hardware mehr Spielraum bietet, um mathematisch elegante Verfahren auch umzusetzen. Als Beispiel SM3 auf Entry-Level-Hardware. Ist das wirklich sinnvoll? Klar, wenn die Implementierung nicht völlig vergurkt wurde. Gerade ein an und für sich ziemlich schwachbrüstiger Chip à la Radeon X1300 könnte durch kluge Programmierung mehr bringen, als man anhand traditioneller Benchmarks denken würde.

Das beste wäre natürlich Deferred Rendering und SM3, das heißt, er berechnet im Shader nur das, was gebraucht wird, und zwar nur dort, wo es sichtbar ist. Ein weiterer Vorteil beim TBDR sind die möglichen hohen MSAA-Stufen ohne dass die externe Bandbreite ausgeht: Man braucht lediglich eine Menge Z-Units und interne Bandbreite.

Wer hat heute schon einen Athlon 64 3000+? Ein paar Freaks. Leider hat auch noch lange nicht jeder 1 GB RAM. Wer sich einen aktuellen PC kauft, und einen 3000+ drinhat, hat als Grafikkarte vielleicht eine 6200 TC. (Sinnvoller wäre eine 6600 GT mit SLI-Option, klar.) Der Spieleentwickler muss also bedenken, dass sein Kunde vielleicht jemand ist, der eine recht schwache CPU hat, aber kürzlich die Graka geupgradet hat, oder vielleicht jemand, der eine starke CPU aber eine schwache Graka hat. Nun versuch mal die Engine so zu gestalten, dass sie erstens immer brauchbare Ergebnisse liefert und zweitens aber auch mitskaliert – sowohl mit der CPU, als auch mit der GPU.

Der PC war früher keine Spielemaschine. Die Verbesserungen damals (Hercules, CGA, EGA, VGA) waren eher für die Industrie wichtig. Der Spielemarkt hat davon profitiert.Ja und meine These ist, dass der PC noch immer keine Spielmaschine ist. Trotz 3D-Karte, trotz Soundblaster. Ein bisschen Spielmaschinengefühl gabs im Voodoo-Zeitalter. Da wurde Glide genutzt, und das war garantiert schnell genug (30+ fps) egal ob unter DOS oder Windows. Dermaßen modular wie der PC ist, eignet er sich imo einfach nicht besonders gut als Spielmaschine. Natürlich ist es möglich, auch für den PC Spiele zu programmieren. Aber falls ein Entwicklerstudio ankündigt, nur noch Konsolenspiele zu machen, kann ich das voll verstehen.

Wing Commander?WC1 und WC2 liefen bei mir auf einem 286-er 12 MHz mit NEAT-BIOS und 1024 KiB RAM mit allen Zusatzgrafiken.


Comanche?Iirc, gabs da schon 486-er zu kaufen. In dieser Zeit gabs natürlich auch schon Spiele, die mehr als einen 286-er verlangten.

aths
2005-10-27, 13:35:04
Das habe ich nicht vergessen. Die Performance-Seite ist natürlich ein Aspekt der mit dazu beiträgt dass dieses Feature unpraktikabel ist.Unpraktisch, meinst du? (Ansonsten wäre es "impraktikabel", was es aber in diesem Zusammenhang imo nicht ganz trifft.)

Die mangelnde Flexibilität dieses Konstrukts (sprich: die zwei unterstützten Texturformate) wiegt IMO aber genauso schwer, und haut wieder in die gleiche Kerbe. Selbst wenn das ganze 0 Takte Latenz hätte, würde man trotzdem noch Unmengen an Bandbreite verschwenden, weil man sich eben keine vernünftigen Texturformate aussuchen kann.
Mipmapping auf Vertex-Ebene ist nicht so wahnsinnig wichtig, weil es dort keinen natürlichen LOD gibt. Nehmen würde ich es natürlich trotzdem.
FP16-Texturen wären gut, ja. Noch besser wäre die ganze Palette an Texturformaten, inklusive 1-Kanal bis 4-Kanal FX8, FX16. S3TC könnte man sich wahrscheinlich schenken, aber davon abgesehen gibt's IMO keine vernünftige Entschuldigung für das Fehlen der traditionellen Formate bis auf die pure Machbarkeit im Transistorbudget.Wenn du Vertexdaten (FP32) modifizieren willst, was willst du dann mit FX8-Texturen? Zweikanaltexturen fände ich natürlich auf jeden Fall nützlich.

Von daher wird es höchste Zeit, dass die sagenumwobenen "unified shader"-Architekturen endlich mal auf den Markt kommen. Dann kann man auch von Vertex-Texturen sprechen ohne gleich Hustkrämpfe zu kriegen.Allerdings.

Naiver Anwendungsfall:
Ein Vertex-Shader rechnet für DM eine Texturkoordinate anhand der Geometriekoordinate (und meinetwegen anderen Vertex-Attributen wie Farbe und Texturkoordinaten) aus, und benutzt diese um einen Wert aus der VT zu holen.
Sinnlos³.
So lange sich die Quellattribute nicht ändern, wird immer die gleiche Texturkoordinate pro Vertex ausgerechnet, ergo immer der gleiche Wert geholt.Man kann inzwischen die Textur ändern, zum Beispiel mit einem Shader in eine Textur schreiben, welche die jeweils aktuelle Heightmap präsentiert. Bestimmte Höhenstrukturen sollte man auch im VS ansich berechnen können, Sinus-Wellen sollten da eine einfache Übung sein. Echte Wellen sind aber natürlich nicht einfach nur Sinus-Berge.

Die von NV versprochene DM-Demo habe ich allerdings bis heute nicht gesehen.

In diesen interessanten Fällen braucht man dann wiederum ganz dringend einen Filter, denn die Texturkoordinate wird ebenso kontinuierlich sein wie es eben die Kameraposition sein kann. Ohne Filter hat man dann ein nutzloses hüpfendes Höhenfeld.Ja, und fürs LOD sollte trilineare Filterung praktisch sein. Allerdings: Spitze Bergzipfel würden damit abgerundet, und das kanns imo auch nicht sein. Ich will, das ist ganz klar, in Zukunft viel DM sehen, vor allem um die grundlegende Höhenstruktur der Landschaft darzustellen. Was man mit Parallaxmapping faken kann, soll mit Parallaxmapping gemacht werden, aber manchmal brauchts echte Geometrie.

Da ist man fast besser beraten wenn man die Animation mathematisch nachbildet. Sinus würde sich für Wellensimulation geradezu aufdrängen. Oder gleich auf der CPU machen. Langsamer als dieses Vertex-Texturing kann es kaum noch sein.Die CPU hat den Vorteil, Perlin Noise rendern zu können, das ist auf der GPU schwierig. Allerdings sind die meisten Engines vermutlich sowieso CPU-limitiert, da kann man ruhig den VS noch etwas belasten.

reunion
2005-10-27, 13:45:58
Das Threading hier nur als Marketingbegriff steht, ist dir hoffentlich klar?


Inwiefern?


R520 ist von der Pro Takt PS Leistung nicht signifikant schneller als R420.

Kommt drauf an, bei manchen Shadern im Shadermark (ich weiß, synthetischer Mist) zieht die X1800XL der X850XT PE um >40% davon, was ich durchaus als signifikant ansehen würde.


Zumal heutige Spiele wie man anhand der Reviews sieht nicht annähernd PS limitiert sind. Sonst hätte R520 derzeit das klare Nachsehen. G70 besitzt bereits 48 ALUs und zum G75 (oder wie auch immer) kommt mit Sicherheit neben 90nm noch etwas dazu. Entweder mehr Quads oder aber auch mehr ALUs. IMO.

Nur das sich die einzelnen ALUs bei G70 wesentlich schlechter auslasten lassen, wie bei R520. Durch die nicht entkoppelten TMUs wird die Pipeline desöfteren blockiert. R520 liegt in der Praxis deutlich besser, als man anhand der theoretischen GFLOPs-Leistung vermuten würde. Und wenn ATi die ALUs bei R580 wirklich verdreifacht, und dabei auch nur eine annähernd so gute Auslastung wie bei R520 erreicht, dann sehe ich schwarz für nV - selbst mit 32 Pipelines.

DrumDub
2005-10-27, 13:54:05
Und wenn ATi die ALUs bei R580 wirklich verdreifacht, und dabei auch nur eine annähernd so gute Auslastung wie bei R520 erreicht, dann sehe ich schwarz für nV - selbst mit 32 Pipelines. das scheint aber wohl problematisch zu werden, wie man schon am rv530 sehen kann. es könnte also sein, dass der r580 zwar bei komplexen shadern weit davon zieht, aber die 3 alus bei einfacheren shadern nicht ausgelastet werden können.

reunion
2005-10-27, 14:06:02
das scheint aber wohl problematisch zu werden, wie man schon am rv530 sehen kann. es könnte also sein, dass der r580 zwar bei komplexen shadern weit davon zieht, aber die 3 alus bei einfacheren shadern nicht ausgelastet werden können.


Abwarten. RV530 ist kein High-End-Chip, und dementsprechend spart man da auch gerne mal an der falschen Stelle. Vielleicht ist wirklich nur die Anzahl der Threads zu klein, immerhin hat R520 mit 16TMUs und 16ALUs insgesamt 512 Threads, während RV530 mit 4TMUs und 12ALUs nur maximal 128 dergleichen verwenden kann.

Außerdem werden die Shader in Zukunft ohnehin immer komplexer, so dass sich dieses Problem von selbst lösen könnte. Simple Shader laufen eh' schon auf R520 mehr als schnell genug, wichtig sind die Shader, die R520 oder G70 in die Knie zwingen.

Coda
2005-10-27, 14:17:45
Die CPU hat den Vorteil, Perlin Noise rendern zu können, das ist auf der GPU schwierig.Nicht wirklich. Außerdem sieht für mich Perlin immer noch viel zu künstlich aus.

Inwiefern?Die Threads gibt's schon seit R300, vielleicht sogar R200. Man sollte das nicht so ernst nehmen, auch nVIDIA muss irgendwie die Quads auf die Pipelines verteilen.

Kommt drauf an, bei manchen Shadern im Shadermark (ich weiß, synthetischer Mist) zieht die X1800XL der X850XT PE um >40% davon, was ich durchaus als signifikant ansehen würde.Rechnet der nur, oder wird auch viel texturiert? Dann ist nämlich auch der Speichercontroller etc. zu berücksichtigen.

Demirug
2005-10-27, 14:24:23
Nur das sich die einzelnen ALUs bei G70 wesentlich schlechter auslasten lassen, wie bei R520. Durch die nicht entkoppelten TMUs wird die Pipeline desöfteren blockiert. R520 liegt in der Praxis deutlich besser, als man anhand der theoretischen GFLOPs-Leistung vermuten würde. Und wenn ATi die ALUs bei R580 wirklich verdreifacht, und dabei auch nur eine annähernd so gute Auslastung wie bei R520 erreicht, dann sehe ich schwarz für nV - selbst mit 32 Pipelines.

Gesetzt des abnehmenden Grenzertrags.

Durch die TMU blockierung (die es beim R520 btw auch noch gibt) wird die ganze Sache allerdings noch lustiger. In Verbindnung mit AF profitiert das CineFX Design erst einmal stärker von mehr Rechenleistung als das UltraThread Design.

Ohne Texturefilter würden die 3 ALUs in aktuellen Spielen die Shaderleistung um etwa den Faktor 2 hochtreiben können (nachgemessen). Kommt der Texturefilter ins Spiel sinkt dieser Faktor ab.

Der G70 hat bei aktuellen Shader eine etwa um den faktor 1,5 bessere Shaderleistung. Ich gehe wie gesagt davon aus das nVidia die Rechenleistung pro Pixelprozessor weiter hochtreibt weil für zusätzliche Pixelprozessoren braucht man auch die Bandbreite.

Demirug
2005-10-27, 14:29:52
Abwarten. RV530 ist kein High-End-Chip, und dementsprechend spart man da auch gerne mal an der falschen Stelle. Vielleicht ist wirklich nur die Anzahl der Threads zu klein, immerhin hat R520 mit 16TMUs und 16ALUs insgesamt 512 Threads, während RV530 mit 4TMUs und 12ALUs nur maximal 128 dergleichen verwenden kann.

Ein X1x Pixelprozessor hat 128 Threadslots zur Verfügung und ich würde nicht davon ausgehen das ATI das beim R580 ändert.

Außerdem werden die Shader in Zukunft ohnehin immer komplexer, so dass sich dieses Problem von selbst lösen könnte. Simple Shader laufen eh' schon auf R520 mehr als schnell genug, wichtig sind die Shader, die R520 oder G70 in die Knie zwingen.

Ja sie werden komplexer aber das Rechentakte zu Texturetakte verhältniss muss sich dramatisch verändern. Beim UltraThreading viel stärker als bei CineFX um die maximale Auslastung zu erreichen. CineFX hat durch die TMU blockierung ein Limit ab dem man dann sowieso nicht mehr rausholen kann. Das ist allerdings eine ganz wilde Rechnung.

Armaq
2005-10-27, 14:38:53
Gibt es denn eine "Reihenfolge" der diversen Limitierungen innerhalb des Chip-Designs?
Also bei welchen Operationen macht der Chip zuerst dicht und wo zuletzt?

Mir ist klar, dass sich das von Chip zu Chip unterscheidet, aber ihr führt hier ja Beispiele auf die anscheinend allgemein gültig sind.

Gibt es sozusagen eine Top10 der verschiedenen Limitierungen?

Demirug
2005-10-27, 14:42:37
Gibt es denn eine "Reihenfolge" der diversen Limitierungen innerhalb des Chip-Designs?
Also bei welchen Operationen macht der Chip zuerst dicht und wo zuletzt?

Mir ist klar, dass sich das von Chip zu Chip unterscheidet, aber ihr führt hier ja Beispiele auf die anscheinend allgemein gültig sind.

Gibt es sozusagen eine Top10 der verschiedenen Limitierungen?

Limitierungen sind Situationsabhängig da gibt es nichts wirklich allgemeines.

aths
2005-10-27, 14:46:19
Nicht wirklich. Außerdem sieht für mich Perlin immer noch viel zu künstlich aus.Was "nicht wirklich"?

Rauschen basierend auf Perlin Noise, gut parametriesiert und als Input für weitere Funktionen genutzt, sieht imo recht gut aus. Du kannst Wolken, Holzmaserungen, Marmor, Granit und alles mögliche damit erstellen. Ebenso Heightmaps.

Coda
2005-10-27, 14:56:56
Nicht wirklich eben. Man kann Perlin recht gut auf der GPU berechnen.

Ich weiß. Ich find's trotzdem hässlich.

Ailuros
2005-10-27, 14:57:00
Das denke ich bei den kommenden Spielen nicht...
Zumindest wenn man einen halbwegs brauchbaren PC mit 1 GB SPeicher und ca. 3000er CPU besitzt.


Lass den Hauptspeicher mal weg, da reichen 1GB schon gar nicht mehr. 3000? hmmmm na ja...so und so. Selbst die 6800 war mit dem 3000-er noch ziemlich CPU-limitiert. Ist man dann noch durch eine native Aufloesung auf bis zu 1280 begrenzt, dann gute Nacht.

seahawk
2005-10-27, 15:05:46
Ein X1x Pixelprozessor hat 128 Threadslots zur Verfügung und ich würde nicht davon ausgehen das ATI das beim R580 ändert.



Ja sie werden komplexer aber das Rechentakte zu Texturetakte verhältniss muss sich dramatisch verändern. Beim UltraThreading viel stärker als bei CineFX um die maximale Auslastung zu erreichen. CineFX hat durch die TMU blockierung ein Limit ab dem man dann sowieso nicht mehr rausholen kann. Das ist allerdings eine ganz wilde Rechnung.

Was dann aber auch bedeutet, dass sie nicht Threads zwischen den Pixelprozessoren hin und her shcieben können - oder ?

Was die Sache ja doch weniger effizient machen würde.

Demirug
2005-10-27, 15:18:48
Was dann aber auch bedeutet, dass sie nicht Threads zwischen den Pixelprozessoren hin und her shcieben können - oder ?

Was die Sache ja doch weniger effizient machen würde.

Ich will nicht zu 100% abstreiten das es nicht doch geht aber es wäre aufgrund der Situation unlogisch.

Ailuros
2005-10-27, 15:25:44
Nur das sich die einzelnen ALUs bei G70 wesentlich schlechter auslasten lassen, wie bei R520. Durch die nicht entkoppelten TMUs wird die Pipeline desöfteren blockiert. R520 liegt in der Praxis deutlich besser, als man anhand der theoretischen GFLOPs-Leistung vermuten würde. Und wenn ATi die ALUs bei R580 wirklich verdreifacht, und dabei auch nur eine annähernd so gute Auslastung wie bei R520 erreicht, dann sehe ich schwarz für nV - selbst mit 32 Pipelines.


Falsches Forum fuer Spekulationen aber wenn ich vorraussetze dass alles so bleibt wie heute in R580/G7x, dann hat der letztere einen noch groesseren Unterschied in GFLOPs als zwischen R520/G70.

Und nochmal der Unterschied laesst sich nachstellen und existiert nicht nur auf Papier. Heutige Applikationen (ausser vielleicht GPUbench) helfen da eben nicht besonders mit. Daraus sollte man aber auch nur rauslesen dass es sich um einen Vorteil handelt, der auf keinen Fall damit gemeint ist dass der G70 auch in realen Spielen um so viel schneller sein koennte.

Man sollte auch nicht vergessen dass ATI mit extrem hoeherer Taktrate generell auf R520 kompensiert. Hat jetzt rein theoretisch der R580 eine nur leicht hoehere Taktrate, schrumpft der Unterschied hier beim naechsten Schub dann um einiges.

Sunrise
2005-10-27, 17:13:20
Ja und meine These ist, dass der PC noch immer keine Spielmaschine ist. Trotz 3D-Karte, trotz Soundblaster. Ein bisschen Spielmaschinengefühl gabs im Voodoo-Zeitalter. Da wurde Glide genutzt, und das war garantiert schnell genug (30+ fps) egal ob unter DOS oder Windows. Dermaßen modular wie der PC ist, eignet er sich imo einfach nicht besonders gut als Spielmaschine. Natürlich ist es möglich, auch für den PC Spiele zu programmieren. Aber falls ein Entwicklerstudio ankündigt, nur noch Konsolenspiele zu machen, kann ich das voll verstehen.

Bei dem Versuch einer Definition der "Spielemaschine", würde man sich zwangsläufig die Zähne ausbeißen.

Historisch gesehen ist der PC im Prinzip nur eine evolutionäre Stufe, die jedoch bei jedem, der die Anfänge der PC-Kultur auch aktiv miterlebt hat, deutlich mehr Eindruck hinterlassen hat, als jegliche Spielekonsole dies auch nur im Ansatz konnte.

Was man bei all dieser Oberflächlichkeit aber vergisst ist, dass die HW alleine sich nicht in eine Schublade stecken lässt, denn es kommt letztendlich auf die Entwickler und deren Ideen an, die im Endeffekt diese Plattform dann auch prägen. Die Diskussion über eine imaginäre "Spielemaschine" ist deshalb auch müßig, denn die HW selbst lässt sich bestenfalls "Entwickler-freundlich" designen, wird jedoch ausschließlich Rohkost ohne Inhalte geliefert, verliert man als "Spielemensch" sehr schnell das Interesse.

Der PC ist aktuell nicht mehr als ein Zwang für diejenigen, die damals Freude und Spaß an Spielen hatten, die heutzutage aber größtenteils nur noch aus Grafik und Physik bestehen, sehr selten sieht man neue Ideen, die Plattform PC war nie uninteressanter, als sie heute ist.

Nintendos Revolution ist eine Art, die Sache der "Spielemaschine" anzugehen, denn hier steht der Spaß im Mittelpunkt, und nicht die Nebenprodukte und die Superlative, die heutzutage den Eindruck hinterlassen, Spiele auf dem PC wären noch ideenreich. Denn was bringt uns die schnellste HW und der technische Fortschritt, wenn die eigentliche Seele der Spiele vergessen wird.

aths
2005-10-27, 18:33:28
Nicht wirklich eben.Dann unwirklich?

Man kann Perlin recht gut auf der GPU berechnen.Und wie?

reunion
2005-10-27, 19:20:59
Sapphire 256MB X1800XL VIVO Full Retail PCIe um 359.26 EUR, sofort lieferbar (http://shop.norskit.de/nit/default.asp?PageNo=DEFAULT&DeepLink=PA10000D%2CHardware%2CGRAKA%2DATIC%2DATIX1800110022855)

Coda
2005-10-27, 19:29:32
Dann unwirklich?Ja, dann unwirklich. "nicht wirklich" ist sehr wohl deutsche Umgangssprache und resultiert nicht aus "not really", falls dir das aufstößt.

Und wie?Pixelshader?
http://www.google.de/search?q=GPU+Perlin+Noise

seahawk
2005-10-27, 20:03:41
Sapphire 256MB X1800XL VIVO Full Retail PCIe um 359.26 EUR, sofort lieferbar (http://shop.norskit.de/nit/default.asp?PageNo=DEFAULT&DeepLink=PA10000D%2CHardware%2CGRAKA%2DATIC%2DATIX1800110022855)

Der Preis ist Hammer. Damit ist die 7800GT als P/L-Tipp abgelöst. :up:

MikBach
2005-10-27, 20:14:18
Mathematisch effizientere Algorithmen sind auf neuerer wie auf älterer Hardware schneller. Der Trick bei SM2 im Vergleich zu SM1 und SM3 im Vergleich zu SM2 ist, dass die aktuellere Hardware mehr Spielraum bietet, um mathematisch elegante Verfahren auch umzusetzen. Als Beispiel SM3 auf Entry-Level-Hardware. Ist das wirklich sinnvoll? Klar, wenn die Implementierung nicht völlig vergurkt wurde. Gerade ein an und für sich ziemlich schwachbrüstiger Chip à la Radeon X1300 könnte durch kluge Programmierung mehr bringen, als man anhand traditioneller Benchmarks denken würde.
Der RV530 würde noch mehr davon profitieren, auch wenn dieser nur 4 vollwertige Pipes besitzt. :wink:

Das beste wäre natürlich Deferred Rendering und SM3, das heißt, er berechnet im Shader nur das, was gebraucht wird, und zwar nur dort, wo es sichtbar ist. Ein weiterer Vorteil beim TBDR sind die möglichen hohen MSAA-Stufen ohne dass die externe Bandbreite ausgeht: Man braucht lediglich eine Menge Z-Units und interne Bandbreite.
Jap. Deferred Rendering ist ein sehr nettes Performancefeature.
Schade, das PowerVR so untergegangen ist. :(

MikBach
2005-10-27, 20:16:01
Lass den Hauptspeicher mal weg, da reichen 1GB schon gar nicht mehr. 3000? hmmmm na ja...so und so. Selbst die 6800 war mit dem 3000-er noch ziemlich CPU-limitiert. Ist man dann noch durch eine native Aufloesung auf bis zu 1280 begrenzt, dann gute Nacht.
Das stimmt nur, wenn man sich die Rosinen rauspikt und die Einstellungen außen vor läßt.

aths
2005-10-27, 20:45:09
Bei dem Versuch einer Definition der "Spielemaschine", würde man sich zwangsläufig die Zähne ausbeißen.

Historisch gesehen ist der PC im Prinzip nur eine evolutionäre Stufe, die jedoch bei jedem, der die Anfänge der PC-Kultur auch aktiv miterlebt hat, deutlich mehr Eindruck hinterlassen hat, als jegliche Spielekonsole dies auch nur im Ansatz konnte. Eindruck – auf welchem Feld?

Nintendos Revolution ist eine Art, die Sache der "Spielemaschine" anzugehen, denn hier steht der Spaß im Mittelpunkt, und nicht die Nebenprodukte und die Superlative, die heutzutage den Eindruck hinterlassen, Spiele auf dem PC wären noch ideenreich. Denn was bringt uns die schnellste HW und der technische Fortschritt, wenn die eigentliche Seele der Spiele vergessen wird.Nintendos Ansatz ist, Leute die bisher keine Videospiele spielten, für Videospiele zu gewinnen, und nicht nur bisherige Videospieler bei der Stange zu halten. Obwohl ich dieses Konzept auch kritisch sehe (das ist ähnlich wenn es bei Filmen zu einer Serie heißt, man solle den Film auch voll verstehen können ohne die Serie zu kennen) gefällt mir das besser als der Ansatz, aus der Konsole eine Allzweck-Multimediaplattform zu machen.

aths
2005-10-27, 20:52:40
dann unwirklich. "nicht wirklich" ist sehr wohl deutsche Umgangssprache und resultiert nicht aus "not really", falls dir das aufstößt.Mir stößt es aber auf. Das umgangssprachliche "nicht wirklich" ist mit ziemlicher Sicherheit ein Anglizismus, ähnlich wie "ich erinnere das" oder "das macht Sinn". Die deutsche Entsprechung von "not really" ist eher "eigentlich nicht".

Pixelshader?
http://www.google.de/search?q=GPU+Perlin+NoiseSchön, Google kann ich auch bedienen. Ich möchte es aber von dir wissen, wie du Zufallszahlen im Pixelshader erzeugen willst :)

aths
2005-10-27, 20:55:04
Der RV530 würde noch mehr davon profitieren, auch wenn dieser nur 4 vollwertige Pipes besitzt. :wink: Je schwächer die Hardware, desto höher der Profit.

Jap. Deferred Rendering ist ein sehr nettes Performancefeature.
Schade, das PowerVR so untergegangen ist. :(PowerVR ist doch nicht untergegangen.

MikBach
2005-10-27, 20:55:48
Mir stößt es aber auf. Das umgangssprachliche "nicht wirklich" ist mit ziemlicher Sicherheit ein Anglizismus, ähnlich wie "ich erinnere das" oder "das macht Sinn". Die deutsche Entsprechung von "not really" ist eher "eigentlich nicht".
Nicht wirklich ist aber in der Umgangsprache sehr beliebt.
Kurz und schmerzlos. :wink:
"ich erinnere das" habe ich noch nie gehört, "das macht Sinn" schon des öfteren.

MikBach
2005-10-27, 20:57:39
Je schwächer die Hardware, desto höher der Profit.
Der RV530 hat, wie auch der RV515 nur 4 vollwertige Pipes.
Die Shaderleistung ist aber ungleich höher.

PowerVR ist doch nicht untergegangen.
Für den Gamer schon...

Coda
2005-10-27, 21:03:08
Schön, Google kann ich auch bedienen. Ich möchte es aber von dir wissen, wie du Zufallszahlen im Pixelshader erzeugen willst :)Dynamische Textur mit Zufallswerten füllen.

Coda
2005-10-27, 21:04:15
Mir stößt es aber auf. Das umgangssprachliche "nicht wirklich" ist mit ziemlicher Sicherheit ein Anglizismus.Ist es nicht, das kannst du mir glauben. Und wenn schon, bist du der oberste deutsche Sprachwächter? Es ist normal, dass Sprachen voneinander borgen, und es passt.

mindfaq
2005-10-27, 21:32:30
Der Preis ist Hammer. Damit ist die 7800GT als P/L-Tipp abgelöst. :up:Naja, ein einziger Shop und dann auch noch Norsk-IT, na super. Trotzdem teurer als eine 7800GT. Wieso sollte der Preis unter diesen Umständen "der Hammer" sein ?

Lord Helmchen
2005-10-27, 21:37:08
Eindruck – auf welchem Feld?

Nintendos Ansatz ist, Leute die bisher keine Videospiele spielten, für Videospiele zu gewinnen, und nicht nur bisherige Videospieler bei der Stange zu halten. Obwohl ich dieses Konzept auch kritisch sehe (das ist ähnlich wenn es bei Filmen zu einer Serie heißt, man solle den Film auch voll verstehen können ohne die Serie zu kennen) gefällt mir das besser als der Ansatz, aus der Konsole eine Allzweck-Multimediaplattform zu machen.

Hallo,
zu der Plattform und Spiele Diskussion: Die Spiele heutzutage übertreffen fast alles früher dagewesene. Auch waren die Spiele vor 3D auch nicht besonders innovativ. Man hüpfte von links nach rechts und war in der Regel nach 20 STd. bis zum Schluss durchgehüpft. Dann kam 3D und damals einmalige Spiele wie Unreal, Half Life usw. . Das man das Rad nicht neu erfinden kann, dürfte klar sein, das gleiche gilt dann aber auch für Shooter. Und das Shooter meistens auf dem selben Prinzip beruhen ist nun mal so wie es ist ,-) , die SPiele werden dadurch nicht langweiliger.
Ein gutes Beisspiel hierzu ist die Filmindustrie, die schon 70Jahre immer das gleiche wiederholt, und die Zuschauer strömen trotzdem ins Kino oder schauen fern.
Sei es King Kong 1-3, Godzilla 125, Rokky 1-6, und dann der Abklatsch Frokky 1-3, irgendein fliegender Superheld ala Batman, Superman, das Ehedrama Nr. 10023458650329654938, der bombenlegende Polizist Nr. 144 oder der bombenlegende Verbrecher Nr. 441, der Liebesfilm nr.100394854 wo Mann Frau betrügt, oder Frau den Mann, oder beide gleichzeitig oder Dallas Nr.103858386t9484387t4854, usw. usw., seit bald 70Jahren werden die Filmgenres mehr oder weniger wiederholt und trotzdem ist das Fernsehen nicht tot, habe ich die ewig gleichen und stupiden Talkshows schon erwähnt, wo minderbemittelte Sozialhilfeempfänger Ihre persöhnliche Probleme im Fernsehen vortragen ?
Tja, was kommt nach 3D ?

Sunrise
2005-10-27, 21:38:24
Eindruck – auf welchem Feld?

Die Summe der Einzelfaktoren, der Spielspaß. Ohne Spielspaß machen Spiele keinen Sinn. In Zeiten, die sich leider schon lange hinter uns befinden, war dies oberstes Gebot.

Heutzutage findet sich nur noch langweilige Kost, die einen erfahrenen Spieler nicht im Ansatz fesseln kann. Man findet allenfalls noch Fragmente der alten Tugenden in Spielen wieder, zu wenige, um diese Spieler anzusprechen. Der Spielemarkt beschränkt sich auf leicht verdauliche Kost, die allenfalls noch junge Spieler anspricht.

Nintendos Ansatz ist, Leute die bisher keine Videospiele spielten, für Videospiele zu gewinnen, und nicht nur bisherige Videospieler bei der Stange zu halten. Obwohl ich dieses Konzept auch kritisch sehe (das ist ähnlich wenn es bei Filmen zu einer Serie heißt, man solle den Film auch voll verstehen können ohne die Serie zu kennen) gefällt mir das besser als der Ansatz, aus der Konsole eine Allzweck-Multimediaplattform zu machen.

Nintendo hat als einer der wenigen Konsolen-Entwickler verstanden, dass Spiele innovativ sein müssen, sowohl um die derzeitigen Spieler bei der Stange zu halten, als auch neue zu begeistern. Zudem wissen sie, was Spielern Spaß macht und in diese Richtung wird auch entwickelt. Ich begrüße diesen Ansatz, weil er sich vom großen Einerlei wieder auf seine ursprüngliche Bedeutung besinnt, dass Spiele die HW verkaufen und nicht umgekehrt.

MikBach
2005-10-27, 21:43:13
Naja, ein einziger Shop und dann auch noch Norsk-IT, na super. Trotzdem teurer als eine 7800GT. Wieso sollte der Preis unter diesen Umständen "der Hammer" sein ?
Lies den Thread oder auch andere zum Thema BQ und R520...

Lord Helmchen
2005-10-27, 21:45:14
Lies den Thread oder auch andere zum Thema BQ und R520...

Der Preis bei norsk ist Heiss!!

Tomcat70
2005-10-27, 21:54:18
Leider schon vergriffen, Wartezeit beträgt jetzt 10 Tage.

wie kommst du darauf? bei mir zeigt er nach wie vor gute verfügbarkeit an?

Lord Helmchen
2005-10-27, 21:58:34
wie kommst du darauf? bei mir zeigt er nach wie vor gute verfügbarkeit an?

Sorry ! Mein Fehler !
dachte der Kasten mit 10+ bedeutet 10 Tage Liferzeit, wie in den anderen meisten Shops ! m:rolleyes:
Dabei ist die Stückzahl deutlich über 10.

mindfaq
2005-10-27, 21:58:58
Lies den Thread oder auch andere zum Thema BQ und R520...Ich bin mir des guten AF des R520 durchaus bewusst und auch diesen Thread kenne ich fast auswendig. ;)
Dennoch empfinde ich den Preis unter diesen Umständen (Norsk-IT) nicht als "den Hammer".

MikBach
2005-10-27, 22:00:19
Ich bin mir des guten AF des R520 durchaus bewusst und auch diesen Thread kenne ich fast auswendig. ;)
Dennoch empfinde ich den Preis unter diesen Umständen (Norsk-IT) nicht als "den Hammer".
Dann bist du eben nicht empfindlich genug, was die BQ angeht...

StefanV
2005-10-27, 22:03:17
Dann bist du eben nicht empfindlich genug, was die BQ angeht...
Ich denke, er ist sich durchaus bewusst, das 360€ ein haufen Geld ist und Norsk-IT ein scheiß Shop ;)

mindfaq
2005-10-27, 22:04:12
Das hat damit nichts zu tun. Was machst du denn, wenn dir die Karte mal abraucht ? Dann zahlst du erstmal dafür, dass Norsk-IT sie überhaupt annimmt und dann darfst du auch noch wochenlang darauf warten.
Darauf kann ich gerne verzichten. Wenn die Karte zu einem ähnlichen Preis bei Atelco oder Alternate verfügbar wäre, dann könnte man über "den Hammerpreis" reden, aber so nicht.

aths
2005-10-27, 22:05:07
Der RV530 hat, wie auch der RV515 nur 4 vollwertige Pipes.
Die Shaderleistung ist aber ungleich höher.Genau deshalb ist das Optimierungspotenzial geringer, da man vom höheren Niveau aus arbeitet.

Für den Gamer schon...Für den PC-Gamer, ja.

Coda
2005-10-27, 22:05:10
Dann bist du eben nicht empfindlich genug, was die BQ angeht...Und du tust immer so, als ob nVIDIA so stark flimmert dass fast der Monitor davon verreckt. Nur weil du das dauernd wiederholst wird es auch nicht richtiger, auf HQ ist die BQ absolut in Ordnung und wird von manchen sogar bevorzugt, weil sie "schärfer" ist. Jedem das seine.

Nyquist wird auf HQ jedenfall nicht verletzt, und somit sind auch die Texturen dafür verantwortlich was flimmert und was nicht.

MikBach
2005-10-27, 22:06:58
Ich denke, er ist sich durchaus bewusst, das 360€ ein haufen Geld ist und Norsk-IT ein scheiß Shop ;)
Hab da noch nie was bestellt.
Die Meinungen im Forum sind mir bekannt. :wink:
Vielleicht auch deswegen habe ich noch nie dort bestellt...

aths
2005-10-27, 22:07:25
Nicht wirklich ist aber in der Umgangsprache sehr beliebt.
Kurz und schmerzlos. :wink: "Nicht wirklich" ist ungefähr so sinnvoll wie "unter der Woche" – kaum jemand macht sich Gedanken darüber, ob das im Deutschen Sinn ergibt. Und selbst in den Nachrichten hört man, dass der Gewinn einer Firma "in 2005" gestiegen sei. Das "in" gehört aber ins Englische, im Deutschen heißt es "im Jahr(e) 2005" oder einfach "2005".
"ich erinnere das" habe ich noch nie gehört, "das macht Sinn" schon des öfteren.Selbst Herr Schröder erinnert das eine oder das andere (kommt wahrscheinlich aus dem Englischen "I remember that".) "Das macht Sinn" ergibt im Deutschen keinen Sinn. Etwas kann sinnvoll sein, oder Sinn ergeben – aber nicht Sinn machen.

Ist es nicht, das kannst du mir glauben. Und wenn schon, bist du der oberste deutsche Sprachwächter? Es ist normal, dass Sprachen voneinander borgen, und es passt.Glaub ich dir aber nicht :) Es passt ja eben nicht, "nicht wirklich" zu sagen. Wenn etwas "nicht wirklich" ist, ist es nicht, das "wirklich" ist überflüssig.

aths
2005-10-27, 22:09:01
Dynamische Textur mit Zufallswerten füllen.Ja, dann muss die CPU ständig eine Textur rendern – das ist aber kein Perlin Noise auf der GPU mehr. Du kriegst in der GPU ganz schlecht vernünftige Zufallszahlen, und brauchst für Perlin Noise eine Menge davon.

MikBach
2005-10-27, 22:10:16
Genau deshalb ist das Optimierungspotenzial geringer, da man vom höheren Niveau aus arbeitet. :confused:
Versteh ich nicht ganz...
Wenn Spiele shaderlimitiert sind, dann kann der RV530 erst richtig auftrumpfen.
Imo würde eine Optimierung beim RV530 mehr bringen als beim RV515.

Coda
2005-10-27, 22:10:18
Sooo Jungs, könnten wir diese absolut sinnlose Diskussion jetzt mal abschließen und zurück zum Thema kommen? :|

Ja, dann muss die CPU ständig eine Textur rendern – das ist aber kein Perlin Noise auf der GPU mehr.Nein natürlich nicht. Die GPU macht ja auch nur 99% der Rechenarbeit. Ich glaube du unterschätzt etwas wie schnell man eine dynamische Textur füllen kann.

aths
2005-10-27, 22:15:15
:confused:
Versteh ich nicht ganz...
Wenn Spiele shaderlimitiert sind, dann kann der RV530 erst richtig auftrumpfen.
Imo würde eine Optimierung beim RV530 mehr bringen als beim RV515.Gesetz des abnehmenden Grenzertrages. Hast du wenig GPU-Leistung, so dass die GPU der größte Flaschenhals ist, und optimierst, bringt das relativ gesehen mehr als wenn du eine höhere GPU-Leistung optimierst, die nicht so sehr der Flaschenhals ist. Die Endgeschwindigkeit wird bei der X1600 natürlich immer höher sein, aber den Gewinn durch Optimierung sollte man relativ sehen (und nicht als absoluten Gewinn in fps, zum Beispiel) und hier erwarte ich weniger Steigerungsmöglichkeiten als bei der X1300.

aths
2005-10-27, 22:17:38
Sooo Jungs, könnten wir diese absolut sinnlose Diskussion jetzt mal abschließen und zurück zum Thema kommen? :|

Nein natürlich nicht. Die GPU macht ja auch nur 99% der Rechenarbeit. Ich glaube du unterschätzt etwas wie schnell man eine dynamische Textur füllen kann.Die Textur muss dann zur GPU, das belastet die RAM-Bandbreite. Und die CPU muss Zufallszahlen berechnen, was wohl recht fix geht aber nicht ganz kostenslos ist. Die Zufallszahlenerzeugung ist der Löwenanteil beim Perlin Noise, der Rest ist ein bisschen an der Amplitude und Frequenz zu spielen, sowie die Schichten zu überlagern.

MikBach
2005-10-27, 22:33:20
Gesetz des abnehmenden Grenzertrages. Hast du wenig GPU-Leistung,

Wie definierst du GPU-Leistung?
Das ist besonders im Vergleich zwischen RV515 und RV530 wichtig...

aths
2005-10-27, 22:33:45
Hallo,
zu der Plattform und Spiele Diskussion: Die Spiele heutzutage übertreffen fast alles früher dagewesene. Auch waren die Spiele vor 3D auch nicht besonders innovativ. Man hüpfte von links nach rechts und war in der Regel nach 20 STd. bis zum Schluss durchgehüpft. Dann kam 3D und damals einmalige Spiele wie Unreal, Half Life usw. . Das man das Rad nicht neu erfinden kann, dürfte klar sein, das gleiche gilt dann aber auch für Shooter. Und das Shooter meistens auf dem selben Prinzip beruhen ist nun mal so wie es ist ,-) , die SPiele werden dadurch nicht langweiliger.
Ein gutes Beisspiel hierzu ist die Filmindustrie, die schon 70Jahre immer das gleiche wiederholt, und die Zuschauer strömen trotzdem ins Kino oder schauen fern.
Sei es King Kong 1-3, Godzilla 125, Rokky 1-6, und dann der Abklatsch Frokky 1-3, irgendein fliegender Superheld ala Batman, Superman, das Ehedrama Nr. 10023458650329654938, der bombenlegende Polizist Nr. 144 oder der bombenlegende Verbrecher Nr. 441, der Liebesfilm nr.100394854 wo Mann Frau betrügt, oder Frau den Mann, oder beide gleichzeitig oder Dallas Nr.103858386t9484387t4854, usw. usw., seit bald 70Jahren werden die Filmgenres mehr oder weniger wiederholt und trotzdem ist das Fernsehen nicht tot, habe ich die ewig gleichen und stupiden Talkshows schon erwähnt, wo minderbemittelte Sozialhilfeempfänger Ihre persöhnliche Probleme im Fernsehen vortragen ?
Tja, was kommt nach 3D ?Wenn ich das zu Beginn anmerken darf: Vor Fragezeichen sollte man kein Leerzeichen setzen.

Mich interessiert weniger, was nach "3D" kommt, das heißt ich weiß es schon :) Echtes 3D. Heute haben wir nur 2D-Grafik: Der Monitor bietet keinen räumlichen Eindruck, da er nur ein Bild für beide Augen darstellt. Ich frage mich vielmehr, warum viele Spiele heute in "3D" (was ja eigentlich keines ist) sein müssen, wo 2D oft ausreicht. Ein CRPG à la Planescape Torment oder Icewind Dale gewinnt durch 3D-Effekte fast nichts, Zaubersrpüche lassen sich auch in 2D gut darstellen. Auch Echtzeitstrategie muss nicht unbedingt in 3D sein.

Bei Spielen à la Resident Evil 4 ist es mir relativ egal, dass es schon genügend Gruselshooter gibt, das Spiel lohnt sich für mich trotzdem. Da dürfen sich schon Spiel-Ideen wiederholen, hauptsache sie sind gut umgesetzt.

Coda
2005-10-27, 22:36:13
Die Textur muss dann zur GPU, das belastet die RAM-Bandbreite.Ich bitte dich. Das sind <5MiB.

Und die CPU muss Zufallszahlen berechnen, was wohl recht fix geht aber nicht ganz kostenslos ist.Das geht parallel zur GPU.

Die Zufallszahlenerzeugung ist der Löwenanteil beim Perlin Noise, der Rest ist ein bisschen an der Amplitude und Frequenz zu spielen, sowie die Schichten zu überlagern.Ich hab grad mal ein Interview mit einem vom Fraunhofer-Institut getätigt der sich damit beschäftigt und seine Antwort darauf war:

"also.. eignetlich ist das interpolieren zwischen den zufallszahlen das megateuere, da du dort cubische interpolation benötigst."

aths
2005-10-27, 22:40:46
Die Summe der Einzelfaktoren, der Spielspaß. Ohne Spielspaß machen Spiele keinen Sinn. In Zeiten, die sich leider schon lange hinter uns befinden, war dies oberstes Gebot.

Heutzutage findet sich nur noch langweilige Kost, die einen erfahrenen Spieler nicht im Ansatz fesseln kann. Man findet allenfalls noch Fragmente der alten Tugenden in Spielen wieder, zu wenige, um diese Spieler anzusprechen. Der Spielemarkt beschränkt sich auf leicht verdauliche Kost, die allenfalls noch junge Spieler anspricht.Spiele machen ohnehin keinen Sinn :)

Deinen Pessimismus teile ich allerdings nicht. Zu jeder Zeit gab es überwiegend Schrott auf dem Markt, ich erinnere an den Publisher Ocean, der eine Filmlizenz nach der anderen erwarb, um damit ein langweiliges und fades Spiel herauszubringen – von Ocean gabs dann aber auch das sehr interessante und gut gemachte Spiel "Pushover".

Was mich etwas mehr nervt ist, dass die Shareware praktisch tot ist. Im Shareware-Bereich gab es zwar extrem viel Schrott, aber auch einige Perlen – doch ein einzelner oder ein kleines Team kann nebenbei nicht mal eine 3D-Engine schreiben und den Content für ein Spiel auf aktuellem Stand der Technik schaffen.


Nintendo hat als einer der wenigen Konsolen-Entwickler verstanden, dass Spiele innovativ sein müssen, sowohl um die derzeitigen Spieler bei der Stange zu halten, als auch neue zu begeistern. Zudem wissen sie, was Spielern Spaß macht und in diese Richtung wird auch entwickelt. Ich begrüße diesen Ansatz, weil er sich vom großen Einerlei wieder auf seine ursprüngliche Bedeutung besinnt, dass Spiele die HW verkaufen und nicht umgekehrt.Nintendo hat in meinen Augen auch viel falsch gemacht, so zum Beispiel beim N64 die Entwickler vergrault. Beim Gameboy boten sie eine kontrastarme Monochrom-Grafik, wo Segas Gamegear und Ataris Lynx schon Farbgrafik hatten. (Dafür war der Gameboy erschwinglich, ok. Aber der Kunde wurde gut abgemolken: Erst der Gameboy Pocket mit verbessertem Display und reduziertem Stromverbrauch. Dann der Gameboy Color, den ich ausließ. Dann der GBA, den ich wieder kaufte. Dann der GBA SP, den ich auch kaufte, weil es sich ohne Hintergrundbeleuchtung eben nicht gut spielt. Ich fühle mich von dieser Salami-Taktik abgezockt.)

Wenn ich auf der Sony-Site die technischen Daten zur PS2 lese, bekomme ich das Grauen – für was für einen Prollo halten die mich? Wegen GT4 hab ich trotzdem 'ne PS2, ohne mich deswegen zu schämen.

MikBach
2005-10-27, 22:42:28
Und du tust immer so, als ob nVIDIA so stark flimmert dass fast der Monitor davon verreckt. Nur weil du das dauernd wiederholst wird es auch nicht richtiger, auf HQ ist die BQ absolut in Ordnung und wird von manchen sogar bevorzugt, weil sie "schärfer" ist. Jedem das seine.
Ich habe die 7800GT getestet und HQ ist gerade annehmbar. Da schneidet AI-low besser ab, obwohl ATI in den letzten Treibern die BQ gesenkt hat. :mad:

Nyquist wird auf HQ jedenfall nicht verletzt, und somit sind auch die Texturen dafür verantwortlich was flimmert und was nicht.
Wie meinen?
Es gibt Szenen, wo NV flimmert und ATI nicht, umgekehrt genauso.
Es sei denn wir reden von Bump Mapping...

aths
2005-10-27, 22:42:37
Ich bitte dich. Das sind <5MiB.

Das geht parallel zur GPU.5 MiB pro Frame? Die CPU hat nebenbei auch noch anderes zu tun. Es gibt keinen anderen Weg, Perlin Noise wie es mir vorschwebt ("Perlin Noise" ist ja ein weites Feld) anders zu machen als ständig die CPU Zufallstexturen rendern zu lassen, aber das ist dann ja eben nicht Perlin Noise auf der GPU.

Ich hab grad mal ein Interview mit einem vom Fraunhofer-Institut getätigt der sich damit beschäftigt und seine Antwort darauf war:

"also.. eignetlich ist das interpolieren zwischen den zufallszahlen das megateuere, da du dort cubische interpolation benötigst."Bilinear reicht, und das bietet die GPU "kostenlos" an. Wenn mans "runder" braucht, kann man den bikubischen Filter mit einem Cosinus-linearen Filter faken, das bietet die GPU allerdings nicht. Dann hat man also erst recht kein Perlin Noise wo 99% die GPU macht.

aths
2005-10-27, 22:53:55
Wie definierst du GPU-Leistung?
Das ist besonders im Vergleich zwischen RV515 und RV530 wichtig...GPU-Leistung ist die Leistung, die die GPU erbringen kann :) Die X1600 hat theoretisch dreifache ALU-Power und damit mehr Leistung (ingesamt) als die X1300. Optimiert man mit SM3 nun massiv Textur-Zugriffe weg, aber spart keine ALU-Operationen, bringt das der X1600 natürlich mehr als der X1300. Doch im Regelfall wird man beides sparen.

Mr. Lolman
2005-10-27, 22:58:03
5 MiB pro Frame? Die CPU hat nebenbei auch noch anderes zu tun. Es gibt keinen anderen Weg, Perlin Noise wie es mir vorschwebt ("Perlin Noise" ist ja ein weites Feld) anders zu machen als ständig die CPU Zufallstexturen rendern zu lassen, aber das ist dann ja eben nicht Perlin Noise auf der GPU.

Hier wird beschrieben, wie man das auf der GPU mittels LUT macht: http://graphics.cs.uiuc.edu/~jch/papers/pixelnoise.pdf

MikBach
2005-10-27, 23:05:08
GPU-Leistung ist die Leistung, die die GPU erbringen kann :)
no comment. :)

Die X1600 hat theoretisch dreifache ALU-Power und damit mehr Leistung (ingesamt) als die X1300. Optimiert man mit SM3 nun massiv Textur-Zugriffe weg, aber spart keine ALU-Operationen, bringt das der X1600 natürlich mehr als der X1300. Doch im Regelfall wird man beides sparen.
Wenn die Shaderentwicklung so weiter geht, dann wird die X1600 deutlich schneller sein als die X1300.

Sunrise
2005-10-27, 23:21:52
Deinen Pessimismus teile ich allerdings nicht. Zu jeder Zeit gab es überwiegend Schrott auf dem Markt, ich erinnere an den Publisher Ocean, der eine Filmlizenz nach der anderen erwarb, um damit ein langweiliges und fades Spiel herauszubringen – von Ocean gabs dann aber auch das sehr interessante und gut gemachte Spiel "Pushover".

Das ist sicher kein Pessimismus, allenfalls ist es Realismus, denn es ist schlicht die heutige Situation. Als Schrott würde ich in der Tat 95% der heutigen (PC-)Spiele bezeichnen, sind sie doch nur Kopien der ursprünglichen Idee, aber bestenfalls nur eine mittelmäßige Fortsetzung. Die unterschiedlichen Genres kann man heutzutage auch an einer Hand abzählen, schrumpft die Anzahl dieser doch genauso schnell, wie die HW-Anforderungen derselbigen Spiele ansteigen.

Du hast es vorhin gut beschrieben. Es gibt viele Genres, die 3D-Grafik nicht deshalb nutzen, weil sie nur damit denkbar wären oder einen deutlichen Mehrwert damit böten. Spiele wie Command & Conquer funktionierten tadellos auch ohne "echte" 3D-Grafik.

Sich jetzt ein schlechtes Beispiel aus der damaligen Zeit herauszupicken, wirkt nicht wirklich unterstützend für eine Seite einer Argumentation. Es gibt in der Geschichte immer schlechte Beispiele, welche die Ausnahme bestätigen.

Was mich etwas mehr nervt ist, dass die Shareware praktisch tot ist. Im Shareware-Bereich gab es zwar extrem viel Schrott, aber auch einige Perlen – doch ein Einzelner oder ein kleines Team kann nebenbei nicht mal eine 3D-Engine schreiben und den Content für ein Spiel auf aktuellem Stand der Technik schaffen.

Shareware war bestenfalls eine Spiele-Nische, bot einigen Entwicklern jedoch den Nährboden für zukünftige und auch größere Projekte. Epic wäre ohne Shareware nicht denkbar gewesen. Shareware macht heutzutage bestenfalls noch mit Anwendungen Sinn, wirklich gute Spiele sind hier fast nichtmehr denkbar. Der Absatz würde fehlen, es wären bestenfalls Fan-Projekte.

Nintendo hat in meinen Augen auch viel falsch gemacht, so zum Beispiel beim N64 die Entwickler vergrault. Beim Gameboy boten sie eine kontrastarme Monochrom-Grafik, wo Segas Gamegear und Ataris Lynx schon Farbgrafik hatten. (Dafür war der Gameboy erschwinglich, ok. Aber der Kunde wurde gut abgemolken: Erst der Gameboy Pocket mit verbessertem Display und reduziertem Stromverbrauch. Dann der Gameboy Color, den ich ausließ. Dann der GBA, den ich wieder kaufte. Dann der GBA SP, den ich auch kaufte, weil es sich ohne Hintergrundbeleuchtung eben nicht gut spielt. Ich fühle mich von dieser Salami-Taktik abgezockt.)

Nintendo hatte beim N64 diverse Hürden zu überwinden, aber auch hier gilt wieder: Aus Fehlern lernt der intelligente Entwickler. Es ist zudem völlig unbedeutend, welche technischen Möglichkeiten die Entwickler hatten, denn der Lynx krankte an der geringen Batterielaufzeit und dem geringen Spiele-Angebot, Dinge die dem Gameboy völlig fremd waren. Auch war die Auswahl der Spiele und deren Spielspaß hier deutlich größer, zudem war er günstiger. Die Leistung oder die Ausstattung einer Konsole selbst, sagt absolut nichts über die Spiele aus, und das ist genau der Punkt, den ich anspreche.

PS: Die angesprochene Taktik würde ich keiner Firma vorwerfen, rein wirtschaftlich gesehen ist Nintendo darauf angewiesen, keinen ihrer Märkte zu verlieren und in diesem Markt zu bestehen. Das lässt keine Entwicklungen in bahnbrechenden Bereichen zu. "Gut finden" muss man dies nicht, man kann es allenfalls akzeptieren.

Coda
2005-10-28, 02:48:15
Was war am N64 denn so schlimm? AFAIK war das doch ne MIPS-Architektur mit seperatem Rasterizer.

zeckensack
2005-10-28, 05:51:41
Das ist eine Glätscherformation in Grönland.Oha. Ich hatte das für Computergrafik gehalten :|
Das rot-bräunliche da, ist das über dem Eis (Spiegelung), oder darunter?

Um die Frage nochmal vernünftig zu beantworten, solche Verzerrungs- und Brechungseffekte sind mit PS2.0 schon sehr gut beherrschbar. Das Eis scheint sehr klar zu sein, sodass man sich die Berechnung von Tiefe und Trübung IMO schenken kann. Die Glanzlichter sind auch spätestens mit PS2.0 kein Problem.

Für ein gute Nachbildung bräuchte man IMO keine besonders neumodische Shader-Technologie, sondern hauptsächlich große detaillierte Texturen.
(EMBM =enviromental mapped bump mapping?)Ja. Ist an sich ein sehr alter Hut. Auf neueren Chips macht es mehr Spaß, weil dort die Rechenpräzision viel höher ist. Die ersten EMBM-fähigen Chips konnten die Texturverzerrung nur mit 8 Bit Integerpräzision berechnen, und das kann hässliche Artefakte geben.

zeckensack
2005-10-28, 06:27:51
Unpraktisch, meinst du? (Ansonsten wäre es "impraktikabel", was es aber in diesem Zusammenhang imo nicht ganz trifft.)Ich meinte nicht "unpraktisch", sondern das andere :|
Wenn du Vertexdaten (FP32) modifizieren willst, was willst du dann mit FX8-Texturen?Speicher sparen?
A sei eine FP32-Zahl (Geometrie)
B sei eine FP32-Zahl (Skalierungsfaktor)
C sei eine FX8-Zahl (height map)

Was für ein Zahlenformat brauche ich, um B*C verlustarm darstellen zu können? A+B*C? IMO FP32.
Geht Präzision in A verloren, weil C unpräzise ist? Oder in B? Oder im Ergebnis? IMO dreimal nein. Wenn A':=Ao+0.01, dann schlägt das immer noch auf das Ergebnis durch, egal wie unpräzise das Höhenfeld ist.

Wenn du glattere Zwischenwerte für das Höhenfeld wünschst, dann sind wir wieder beim Thema Filter. Interpolation zwischen zwei FX8-Werten kann spielend Werte liefern, die mit FX8 nicht mehr zu unterscheiden wären.

Man kann inzwischen die Textur ändern, zum Beispiel mit einem Shader in eine Textur schreiben, welche die jeweils aktuelle Heightmap präsentiert.Das wäre in der Tat die ultimative Rechtfertigung für VTs, wenn es nicht auch auch Render-to-Vertex-Buffer beschreiben würde (wo man btw schonmal mit brutalster Effizienz vorfiltern kann, damit man das nach der Uminterpretation nicht mehr zu Fuß machen muss). Nicht umsonst hat ATI wohl auf dieses Pferdchen gesetzt, als es darum ging den öffentlichen Aufruhr um ihren Mangel unter Kontrolle zu bringen.

(NVIDIA-Hardware kann das natürlich auch)
Ja, und fürs LOD sollte trilineare Filterung praktisch sein.Geometrie-LOD?
Nur weil du einen Wert aus einer kleineren Mip-Stufe holst, hast du noch kein Geometrie-LOD. Dafür musst du schon noch die Geometrie selbst vereinfachen, die Arbeit nimmt dir keiner ab (es sei denn du wurschtelst so lange in Parhelia-Treibern rum, bis du den Trick dazu findest).
Allerdings: Spitze Bergzipfel würden damit abgerundet, und das kanns imo auch nicht sein.Das ist immer noch besser als hüpfende Bergzipfel. Oder vielleicht sollte man DM einfach nicht für allzu große Amplitudensprünge einsetzen.
Ich will, das ist ganz klar, in Zukunft viel DM sehen, vor allem um die grundlegende Höhenstruktur der Landschaft darzustellen. Was man mit Parallaxmapping faken kann, soll mit Parallaxmapping gemacht werden, aber manchmal brauchts echte Geometrie.DM ersetzt keine Geometrie. DM modifiziert Geometrie. Die reine Geometriemenge die du für eine schön zerklüftete Landschaft brauchst ändert sich dadurch nicht. Du brauchst immer noch Eckpunkte als "Trägermaterial", weil nur an den Eckpunkten Modifikation durch DM stattfinden kann.

zeckensack
2005-10-28, 06:46:12
Was war am N64 denn so schlimm? AFAIK war das doch ne MIPS-Architektur mit seperatem Rasterizer.Nachdem was ich so aufgeschnappt habe war das Ding kacke dokumentiert, und die Entwickler hatten in Threads zu programmieren, was niemand so wirklich verstanden hat (insbesondere die Gründe dafür).

Ailuros
2005-10-28, 07:16:18
Nachdem was ich so aufgeschnappt habe war das Ding kacke dokumentiert, und die Entwickler hatten in Threads zu programmieren, was niemand so wirklich verstanden hat (insbesondere die Gründe dafür).

ROFL klingt merkwuerdig bekannt :D

Demirug
2005-10-28, 07:21:16
Nachdem was ich so aufgeschnappt habe war das Ding kacke dokumentiert, und die Entwickler hatten in Threads zu programmieren, was niemand so wirklich verstanden hat (insbesondere die Gründe dafür).

So schlimm ist die Dokumenation nicht. IIRC brauchte man nicht zwingend in Threads zu programmieren. Es liefen zwar immer 3 (Haupt, Sound und Vertex) aber für Sound und Vertex waren eigentlich fertige Programme vorgesehen. Die beiden liefen sowieso auf der kleinen sekundären CPU. Ich müsste die Dokumentation aber nochmal rausholen.

Grestorn
2005-10-28, 07:57:55
Gibt es - außer Performanceaspekten - überhaupt einen Grund für Geometrie-LOD?

Bei Texturen hat man ja, wenn kein LOD benutzt wird, eine Unterabtastung mit der Folge dass es flimmert, das ist klar.

Aber bei Geometrie ist es doch sch... egal wie detailiert sie berechnet wird, so lange man genügend Power hat.

Ich frage mich ohnehin bei sehr vielen Spielen, was das ganze Geometrie ge-LODe soll. Oft kann man es noch nicht mal unterbinden, obwohl moderne Grafikkraten mit der Polygonzahl keinerlei Probleme hätten.

Grestorn
2005-10-28, 07:59:47
So schlimm ist die Dokumenation nicht. IIRC brauchte man nicht zwingend in Threads zu programmieren. Es liefen zwar immer 3 (Haupt, Sound und Vertex) aber für Sound und Vertex waren eigentlich fertige Programme vorgesehen. Die beiden liefen sowieso auf der kleinen sekundären CPU. Ich müsste die Dokumentation aber nochmal rausholen.Viele Programmierer, wohl ganz speziell Konsolenprogrammierer, scheinen ein echtes Problem mit dem Konzept der Nebenläufigkeit und den sich daraus ergebenden Konsequenzen zu haben.

Ist aber ein Armutszeugnis muss ich sagen. Allerdings trifft man auch in der "professionellen" SW-Entwicklung (also nicht für Spiele) ständig auf Leute, die damit echte Probleme haben.

Demirug
2005-10-28, 08:05:57
Viele Programmierer, wohl ganz speziell Konsolenprogrammierer, scheinen ein echtes Problem mit dem Konzept der Nebenläufigkeit und den sich daraus ergebenden Konsequenzen zu haben.

Ist aber ein Armutszeugnis muss ich sagen. Allerdings trifft man auch in der "professionellen" SW-Entwicklung (also nicht für Spiele) ständig auf Leute, die damit echte Probleme haben.

Was erwartest du? Mit dem Problem der Nebenläufigkeit mussten sich bisher fast nur Leute rumschlagen die es mit Supercomputer zu tun haben. Zudem werden die meisten "professionellen" SW-Entwickler damit auch sowieso nichts zu tun haben weil die Frameworks diese Aufgabe übernehmen.

Grestorn
2005-10-28, 08:34:43
Was erwartest du? Mit dem Problem der Nebenläufigkeit mussten sich bisher fast nur Leute rumschlagen die es mit Supercomputer zu tun haben. Zudem werden die meisten "professionellen" SW-Entwickler damit auch sowieso nichts zu tun haben weil die Frameworks diese Aufgabe übernehmen.Naja. Jeder, der Serverapplikationen schreibt (die nur ein klein wenig komplexer sind) hat damit zu tun (und viele können es troitzdem nicht...).

Und auch Clientanwendungen, also Benutzeroberflächen u.ä., laufen immer öfter nebenläufig. Es macht halt keinen guten Eindruck, wenn eine Oberfläche nicht mehr refresht und bedienbar ist, nur weil die App gerade am werkeln ist.

Frameworks können einem da viel abnehmen, bergen aber auch die Gefahr, noch mehr zu abstrahieren und Details zu verstecken, so dass der Entwickler immer weniger versteht von dem was passiert und damit auch die Konsequenzen nicht mehr unbedingt vollständig überblicken kann.

zeckensack
2005-10-28, 09:07:29
Gibt es - außer Performanceaspekten - überhaupt einen Grund für Geometrie-LOD?Nö. Nicht bei den Geometriemengen die man in Spielen so zu sehen bekommt.
Ich sehe das immer als ein todsicheres Anzeichen dafür, dass das Werk auf i865-Grafik lauffähig sein möchte (was btw völlige Zeitverschwendung ist, aber das ist eine andere Geschichte und soll ein andermal erzählt werden). Mit vernünftigen Grafikkarten ist Geometrie-LOD kontraproduktiv.

IMO sind manche Devs einfach nur geil drauf das zu implementieren. Oder haben sich mal ein Buch gekauft, in der 3. Auflage von 1997, und machen das weil da drinsteht dass man das machen soll. Oder sie haben 1998 schon einen Renderer geschrieben, und seitdem nicht mehr richtig nachgedacht. Sowas in der Art.

robbitop
2005-10-28, 09:13:05
Inwiefern?
Weil Threading was anderes ist und das was R520 tut auch R420 schon so gemacht hat (sicherlich ist's verbessert worden)



Kommt drauf an, bei manchen Shadern im Shadermark (ich weiß, synthetischer Mist) zieht die X1800XL der X850XT PE um >40% davon, was ich durchaus als signifikant ansehen würde.
Da kenne ich andere Ergebnisse (Xbit). Dort war R520 im SM nicht schneller bei gleichem Takt.



Nur das sich die einzelnen ALUs bei G70 wesentlich schlechter auslasten lassen, wie bei R520. Durch die nicht entkoppelten TMUs wird die Pipeline desöfteren blockiert. R520 liegt in der Praxis deutlich besser, als man anhand der theoretischen GFLOPs-Leistung vermuten würde. Und wenn ATi die ALUs bei R580 wirklich verdreifacht, und dabei auch nur eine annähernd so gute Auslastung wie bei R520 erreicht, dann sehe ich schwarz für nV - selbst mit 32 Pipelines.
Richtig. Aber auch da ließe sich etwas drehen. IMO wäre es am einfachsten noch 2 Quads hinzuzufügen. Die NV Quads scheinen deutlich transistorgünstiger zu sein als die R520er.

robbitop
2005-10-28, 09:13:54
Abwarten. RV530 ist kein High-End-Chip, und dementsprechend spart man da auch gerne mal an der falschen Stelle. Vielleicht ist wirklich nur die Anzahl der Threads zu klein, immerhin hat R520 mit 16TMUs und 16ALUs insgesamt 512 Threads, während RV530 mit 4TMUs und 12ALUs nur maximal 128 dergleichen verwenden kann.

Außerdem werden die Shader in Zukunft ohnehin immer komplexer, so dass sich dieses Problem von selbst lösen könnte. Simple Shader laufen eh' schon auf R520 mehr als schnell genug, wichtig sind die Shader, die R520 oder G70 in die Knie zwingen.
laut Demi bleibts bei 4x128 Threads im R580.

Demirug
2005-10-28, 09:13:55
Nö. Nicht bei den Geometriemengen die man in Spielen so zu sehen bekommt.
Ich sehe das immer als ein todsicheres Anzeichen dafür, dass das Werk auf i865-Grafik lauffähig sein möchte (was btw völlige Zeitverschwendung ist, aber das ist eine andere Geschichte und soll ein andermal erzählt werden). Mit vernünftigen Grafikkarten ist Geometrie-LOD kontraproduktiv.

IMO sind manche Devs einfach nur geil drauf das zu implementieren. Oder haben sich mal ein Buch gekauft, in der 3. Auflage von 1997, und machen das weil da drinsteht dass man das machen soll. Oder sie haben 1998 schon einen Renderer geschrieben, und seitdem nicht mehr richtig nachgedacht. Sowas in der Art.

Wenn du extreme Weitsicht hast/brauchst wird Geometrie-LOD aber fast schon wieder zur Plicht.

Demirug
2005-10-28, 09:15:21
laut Demi bleibts bei 4x128 Threads im R580.

Da ich nicht bei ATI arbeite muss das aber nicht zwingend stimmen. Es ist lediglich die Variante mit der größten Wahrscheinlichkeit.

Asmodeus
2005-10-28, 09:57:27
Wurde hier nicht vor einiger Zeit gerade noch darüber gesprochen, wie uneffizient das Rendering von vielen, sehr kleinen Dreiecken ist? Schon unter diesem Gesichtspunkt dürfte Geometrie-LOD Sinn machen. Mal ganz davon abgesehen, dass es sehr wohl Anwendungsgebiete gibt, wie Demirug schon andeutete, wo Geometrie-LOD einfach Pflicht ist.

Gruss, Carsten.

StefanV
2005-10-28, 11:01:37
ROFL klingt merkwuerdig bekannt :D
SoNie Paystation 2? ;)

Wobei die wohl das übelste ist, was man so verbrechen kann...

Demirug
2005-10-28, 11:04:57
SoNie Paystation 2? ;)

Wobei die wohl das übelste ist, was man so verbrechen kann...

Ich vermute er dachte eher an XBox360 und Playstationen3.

Die PS2 hat zwar ein grausames Systemdesign (aber das haben fast alle Konsolen) aber so richtig versaut hat Sony das ganze ja erst durch den schlechten Support.

zeckensack
2005-10-28, 11:12:18
Wenn du extreme Weitsicht hast/brauchst wird Geometrie-LOD aber fast schon wieder zur Plicht.Darüber können wir uns unterhalten, wenn Spiele >=5Mpolys pro Frame darstellen. Und es kommt nicht nur auf die Performance an. Der Grenzbereich zum sinnvollen, von der Performance her, ist ja auch Interpretationssache. Zuerst mal muss IMO sichergestellt werden dass der LOD-Übergang nicht sichtbar ist. Und ich habe noch von keinem Geo-LOD-System in einem Spiel gehört dass dieses Kriterium auch nur im entferntesten einhält. Die sind alle viel zu aggressiv. Im Zweifelsfall wird der Kunde schreiend zu dem Knopf laufen, mit dem er das endlich abstellen kann.

Klar gibt's sinnvolle Anwendungsfälle für Geometrie-LOD, aber die sehe ich bei Spielen noch nicht. Eher bei technischer Visualisierung, oder astronomischem Spielkram, wo man schonmal um Faktoren >>100 rein- und rauszoomen kann.

Ein toller Kandidat wäre Halo gewesen, aufgrund des, ärhm, andersartigen Horizonts, aber daraus ist ja nun wirklich garnichts geworden.

zeckensack
2005-10-28, 11:15:06
Wurde hier nicht vor einiger Zeit gerade noch darüber gesprochen, wie uneffizient das Rendering von vielen, sehr kleinen Dreiecken ist? Schon unter diesem Gesichtspunkt dürfte Geometrie-LOD Sinn machen. Mal ganz davon abgesehen, dass es sehr wohl Anwendungsgebiete gibt, wie Demirug schon andeutete, wo Geometrie-LOD einfach Pflicht ist.

Gruss, Carsten.Ich wollte dich nicht ärgern. Ich will dich immer noch nicht ärgern, aber das was du machst ist in Spielen noch lange nicht einsatzfähig.

zeckensack
2005-10-28, 11:18:14
SoNie Paystation 2? ;)

Wobei die wohl das übelste ist, was man so verbrechen kann...Wenn ich's mir recht überlege, dann wird es wohl das sein was Demirug meinte.
Das unfreundliche an der YBox ist die Multicore-Architektur, und das Geschrei ward groß. Schöne Parallele zum N64.

Das gleiche, nur ganz anders, gilt ebenfalls für die PS3, aber da kam es nicht so überraschend. Die PS2-Entwickler sind das schließlich in kleinerem Maßstab schon gewohnt :D

Demirug
2005-10-28, 11:36:39
Darüber können wir uns unterhalten, wenn Spiele >=5Mpolys pro Frame darstellen. Und es kommt nicht nur auf die Performance an. Der Grenzbereich zum sinnvollen, von der Performance her, ist ja auch Interpretationssache. Zuerst mal muss IMO sichergestellt werden dass der LOD-Übergang nicht sichtbar ist. Und ich habe noch von keinem Geo-LOD-System in einem Spiel gehört dass dieses Kriterium auch nur im entferntesten einhält. Die sind alle viel zu aggressiv. Im Zweifelsfall wird der Kunde schreiend zu dem Knopf laufen, mit dem er das endlich abstellen kann.

Klar gibt's sinnvolle Anwendungsfälle für Geometrie-LOD, aber die sehe ich bei Spielen noch nicht. Eher bei technischer Visualisierung, oder astronomischem Spielkram, wo man schonmal um Faktoren >>100 rein- und rauszoomen kann.

Ein toller Kandidat wäre Halo gewesen, aufgrund des, ärhm, andersartigen Horizonts, aber daraus ist ja nun wirklich garnichts geworden.

Spiele haben die angesprochene extreme Weitsicht ja in der Regel nicht.

Im Moment halte ich einen Shader-LOD auch für sinnvoller als einen Geometrie-LOD.

Asmodeus
2005-10-28, 12:12:13
Ich wollte dich nicht ärgern. Ich will dich immer noch nicht ärgern, aber das was du machst ist in Spielen noch lange nicht einsatzfähig.

Keine Sorge, als "ärgern wollen" kommt das bei mir auch nicht an, und ich fasse es als dieses auch nicht auf. Ich versuche einfach nur, auch den Blick über den Tellerand zu wahren, damit beim flüchtigen Betrachten der ganzen Materie nicht der Eindruck entsteht, es seien alle Probleme schon gelöst, die Grafikkarten von heute sind für alles schnell genug usw. :)

Gruss, Carsten.

aths
2005-10-28, 13:34:26
Hier wird beschrieben, wie man das auf der GPU mittels LUT macht: http://graphics.cs.uiuc.edu/~jch/papers/pixelnoise.pdfWie man Perlin Noise auf einer GPU realisieren kann, hat Prof. Ken Perlin selbst in "GPU Gems" beschrieben, was ich zuhause rumliegen habe. Eine bestimmte Implementierung von Perlin Noise ersetzt das allerdings nicht – in seinem Beispiel wie auch in dem von dir verlinkten PDF dominiert im Noise eine bestimmte Frequenz.

aths
2005-10-28, 13:37:22
Wenn die Shaderentwicklung so weiter geht, dann wird die X1600 deutlich schneller sein als die X1300.Darum ging's ja nicht, sondern wie viel man z.B. durch SM3-Optimierungen noch rausholen kann. Die X1600 halte ich dennoch für einen Lowcost-Chip, denn Ringbus hin oder her – nur 4 Texel pro Takt ist mir einfach zu wenig. Eine Mittelklasse-GPU braucht 8 Texel pro Takt. Ich hoffe, dass ATI hier nachbessert. Denkbar wären 2 Quad-TMUs (mehr gibt das 128-Bit-Interface eh nicht her) und 4 Quad-ALUs (damit schön viel gerechnet werden kann.)

zeckensack
2005-10-28, 13:43:29
Wie man Perlin Noise auf einer GPU realisieren kann, hat Prof. Ken Perlin selbst in "GPU Gems" beschrieben, was ich zuhause rumliegen habe. Eine bestimmte Implementierung von Perlin Noise ersetzt das allerdings nicht – in seinem Beispiel wie auch in dem von dir verlinkten PDF dominiert im Noise eine bestimmte Frequenz.Das ist auch Sinn der Sache. Perlin-Noise bewegt sich immer in einem streng begrenzten Frequenzbereich. Wer eine andere Signalcharakteristik braucht, muss sich diese durch Überlagerung zusammenschustern. Das ist einerseits ein Nachteil (Performance), andererseits wird man dadurch auch flexibler, weil man die Spektralverteilung selbst entwerfen kann.

IMO war das auch von vornherein ein wichtiges Ziel bei der Entwicklung. Sonst hätte sich der Schöpfer nicht so viel Mühe mit dem Abrunden der Ecken gegeben. Sägezahn statt Parabel hatte es dann auch getan, das Ergebnis wäre schneller und simpler. Wenn es nicht darum ging, das schmutzigere Frequenzspektrum von Sägezähnen zu vermeiden, warum hätte er die Technik dann so gestalten sollen?

aths
2005-10-28, 13:51:22
Das ist sicher kein Pessimismus, allenfalls ist es Realismus, denn es ist schlicht die heutige Situation. Als Schrott würde ich in der Tat 95% der heutigen (PC-)Spiele bezeichnen, sind sie doch nur Kopien der ursprünglichen Idee, aber bestenfalls nur eine mittelmäßige Fortsetzung. Die unterschiedlichen Genres kann man heutzutage auch an einer Hand abzählen, schrumpft die Anzahl dieser doch genauso schnell, wie die HW-Anforderungen derselbigen Spiele ansteigen.

Du hast es vorhin gut beschrieben. Es gibt viele Genres, die 3D-Grafik nicht deshalb nutzen, weil sie nur damit denkbar wären oder einen deutlichen Mehrwert damit böten. Spiele wie Command & Conquer funktionierten tadellos auch ohne "echte" 3D-Grafik.

Sich jetzt ein schlechtes Beispiel aus der damaligen Zeit herauszupicken, wirkt nicht wirklich unterstützend für eine Seite einer Argumentation. Es gibt in der Geschichte immer schlechte Beispiele, welche die Ausnahme bestätigen.An Ausnahmen glaube ich eben nicht. Dass es heute tendenziell schlechter sei als früher, sehe ich nicht so. Zwar gibts einen Trend dazu, erfolgreiche Spiele so lange neu aufzubacken bis sie auch der letzte satt hat, und Orginalität bleibt oft auf der Strecke. Dennoch bietet mir z. B. selbst NFSU2 durchaus Spaß, obwohl ich den Spirit der traditionellen NFS-Reihe vermisse.

Shareware war bestenfalls eine Spiele-Nische, bot einigen Entwicklern jedoch den Nährboden für zukünftige und auch größere Projekte. Epic wäre ohne Shareware nicht denkbar gewesen. Shareware macht heutzutage bestenfalls noch mit Anwendungen Sinn, wirklich gute Spiele sind hier fast nichtmehr denkbar. Der Absatz würde fehlen, es wären bestenfalls Fan-Projekte.Eben. So gibts ja z. B. Freeciv, aber das sieht dermaßen schrecklich aus, das möchte ich nicht spielen.

Sowas wie WoW, nur kleiner, wäre – allerdings als OpenSource, nicht als Shareware – durchaus zu stemmen. Ein, zwei geniale 3D-Progger mit zu viel Zeit entwickeln die Engine, und einige Leute steuern ersten Content bei (3D-Modelle etc.) Die Community steuert weiteren Content bei, jedoch geht das alles über den Schreibtisch eines fähigen Spieldesigners, damit das nicht auswuchert wie bestimmte Mods zu Diablo2, wo so viele Ideen verarbeitet sind dass man kein "Heimatgefühl" mehr hat. Die Server stellen begeisterte Webmaster bereit. Das klingt wahnsinnig aufwändig, aber ein Projekt wie Mozilla oder erst recht wie OpenOffice zu erstellen funktioniert in der OpenSource-Gemeinde ja auch.

Nintendo hatte beim N64 diverse Hürden zu überwinden, aber auch hier gilt wieder: Aus Fehlern lernt der intelligente Entwickler. Es ist zudem völlig unbedeutend, welche technischen Möglichkeiten die Entwickler hatten, denn der Lynx krankte an der geringen Batterielaufzeit und dem geringen Spiele-Angebot, Dinge die dem Gameboy völlig fremd waren. Auch war die Auswahl der Spiele und deren Spielspaß hier deutlich größer, zudem war er günstiger. Die Leistung oder die Ausstattung einer Konsole selbst, sagt absolut nichts über die Spiele aus, und das ist genau der Punkt, den ich anspreche.

PS: Die angesprochene Taktik würde ich keiner Firma vorwerfen, rein wirtschaftlich gesehen ist Nintendo darauf angewiesen, keinen ihrer Märkte zu verlieren und in diesem Markt zu bestehen. Das lässt keine Entwicklungen in bahnbrechenden Bereichen zu. "Gut finden" muss man dies nicht, man kann es allenfalls akzeptieren.Der originale Gameboy war auch meine erste Konsole, und ich habe viele, viele spannende Stunden mit ihm verbracht. "Mystic Quest" sog mich mehr ein, als "Golden Sun" auf dem GBA, obwohl letzterer Titel mit Farbgrafik daherkam. "Wario 4" allerdings finde ich natürlich besser als das erste Wario.

Es war glaube ich der SNES für den es ein Modul mit integriertem 3D-Chip gab, bei "Star Fox". Wenn man das weiterdenkt, und ein wirklich großartiges Spiel das lange motiviert (à la Gran Turismo) produziert, könnte man auch gleich eine passende Konsole rausbringen die nur dieses Spiel kann, das aber perfekt.

aths
2005-10-28, 13:52:04
Was war am N64 denn so schlimm? AFAIK war das doch ne MIPS-Architektur mit seperatem Rasterizer.Ja, mit Modulen (= wenig Speicherplatz) und ungenügendem internen Texturspeicher (= Zwang zu niedrigst aufgelösten Texturen.)

aths
2005-10-28, 14:00:09
Ich meinte nicht "unpraktisch", sondern das andere :|
Speicher sparen?
A sei eine FP32-Zahl (Geometrie)
B sei eine FP32-Zahl (Skalierungsfaktor)
C sei eine FX8-Zahl (height map)

Was für ein Zahlenformat brauche ich, um B*C verlustarm darstellen zu können? A+B*C? IMO FP32.
Geht Präzision in A verloren, weil C unpräzise ist? Oder in B? Oder im Ergebnis? IMO dreimal nein. Wenn A':=Ao+0.01, dann schlägt das immer noch auf das Ergebnis durch, egal wie unpräzise das Höhenfeld ist.Wobei du dann nur 256 Stufen im Höhenfeld hast.

Wenn du glattere Zwischenwerte für das Höhenfeld wünschst, dann sind wir wieder beim Thema Filter. Interpolation zwischen zwei FX8-Werten kann spielend Werte liefern, die mit FX8 nicht mehr zu unterscheiden wären.Bei einem Boden, auf dem es später Einschlagkrater geben kann, muss natürlich pro Vertex an immer der gleichen Stelle aus der Textur gefiltert werden, sonst bewegt sich der Boden. (Will man eine Landschaft mit DM verformen, reicht FX8 als Heightmaps wahrscheinlich nicht.)

Das wäre in der Tat die ultimative Rechtfertigung für VTs, wenn es nicht auch auch Render-to-Vertex-Buffer beschreiben würde (wo man btw schonmal mit brutalster Effizienz vorfiltern kann, damit man das nach der Uminterpretation nicht mehr zu Fuß machen muss). Nicht umsonst hat ATI wohl auf dieses Pferdchen gesetzt, als es darum ging den öffentlichen Aufruhr um ihren Mangel unter Kontrolle zu bringen.

(NVIDIA-Hardware kann das natürlich auch)Die Frage ist, ob das auf NV-Hardware auch schneller ist. Wenn ja, ist VT nur eingebaut, um den Haken auf der Featureliste machen zu können.

Geometrie-LOD?
Nur weil du einen Wert aus einer kleineren Mip-Stufe holst, hast du noch kein Geometrie-LOD. Dafür musst du schon noch die Geometrie selbst vereinfachen, die Arbeit nimmt dir keiner ab (es sei denn du wurschtelst so lange in Parhelia-Treibern rum, bis du den Trick dazu findest).Da kommt man wohl um eine Tesselationseinheit nicht drumrum.

Das ist immer noch besser als hüpfende Bergzipfel. Oder vielleicht sollte man DM einfach nicht für allzu große Amplitudensprünge einsetzen.
DM ersetzt keine Geometrie. DM modifiziert Geometrie. Die reine Geometriemenge die du für eine schön zerklüftete Landschaft brauchst ändert sich dadurch nicht. Du brauchst immer noch Eckpunkte als "Trägermaterial", weil nur an den Eckpunkten Modifikation durch DM stattfinden kann.Bzw. nicht für zu hohe Frequenzen. DM will ich natürlich in Verbindung mit Geometrie-LOD sehen, na dann mal immer her mit der Onchip-Tesselation.

aths
2005-10-28, 14:04:29
Nö. Nicht bei den Geometriemengen die man in Spielen so zu sehen bekommt.
Ich sehe das immer als ein todsicheres Anzeichen dafür, dass das Werk auf i865-Grafik lauffähig sein möchte (was btw völlige Zeitverschwendung ist, aber das ist eine andere Geschichte und soll ein andermal erzählt werden). Mit vernünftigen Grafikkarten ist Geometrie-LOD kontraproduktiv.

IMO sind manche Devs einfach nur geil drauf das zu implementieren. Oder haben sich mal ein Buch gekauft, in der 3. Auflage von 1997, und machen das weil da drinsteht dass man das machen soll. Oder sie haben 1998 schon einen Renderer geschrieben, und seitdem nicht mehr richtig nachgedacht. Sowas in der Art.Wenn du Berge geometrisch modellierst, möchtest du doch aus der Nahansicht auch kleine Felsvorsprünge und die rauhe Oberfläche sehen. In der Ferne wäre das Dreieck viel kleiner als ein Pixel. Dafür drei Eckpunkte zu verwenden (bzw ~ 1 Punkt im Mesh) hielte ich für übertrieben.

aths
2005-10-28, 14:11:05
Darüber können wir uns unterhalten, wenn Spiele >=5Mpolys pro Frame darstellen. Und es kommt nicht nur auf die Performance an. Der Grenzbereich zum sinnvollen, von der Performance her, ist ja auch Interpretationssache. Zuerst mal muss IMO sichergestellt werden dass der LOD-Übergang nicht sichtbar ist. Und ich habe noch von keinem Geo-LOD-System in einem Spiel gehört dass dieses Kriterium auch nur im entferntesten einhält. Die sind alle viel zu aggressiv. Im Zweifelsfall wird der Kunde schreiend zu dem Knopf laufen, mit dem er das endlich abstellen kann.In WoW schalte ichs ab, in HL2 würde ich es gerne abschalten. Ich will sanfte Übergänge und keinen plötzlichen Sprung zu mehr oder weniger Details.

Klar gibt's sinnvolle Anwendungsfälle für Geometrie-LOD, aber die sehe ich bei Spielen noch nicht. Eher bei technischer Visualisierung, oder astronomischem Spielkram, wo man schonmal um Faktoren >>100 rein- und rauszoomen kann.

Ein toller Kandidat wäre Halo gewesen, aufgrund des, ärhm, andersartigen Horizonts, aber daraus ist ja nun wirklich garnichts geworden.Ich möchte in der Nahansicht ein hohes geometrisches Detail (sicher höher als in WoW oder HL2) aber keinen Performance-Killer, wenn ich die Aussicht genieße. Ohne LOD nicht sinnvoll machbar. Heutige LOD-Algos für die Geometrie sind noch nicht ausgereift, hier könnte aber auch die GPU mal unterstützend eingreifen – zum Beispiel mit der Fähigkeit, Dreicke im gewünschten Detailgrad erst in der GPU zu erzeugen, und per DM die Heightmap zu applizieren.

aths
2005-10-28, 14:32:02
Das ist auch Sinn der Sache. Perlin-Noise bewegt sich immer in einem streng begrenzten Frequenzbereich. Wer eine andere Signalcharakteristik braucht, muss sich diese durch Überlagerung zusammenschustern. Das ist einerseits ein Nachteil (Performance), andererseits wird man dadurch auch flexibler, weil man die Spektralverteilung selbst entwerfen kann.Japp ich will als Eingangssignal ein Perlin-Rauschen, was erst mal durch einen Equalizer geht (bzw. anhand der gewünschten Spektralverteilung gleich so erstellt wird.)

IMO war das auch von vornherein ein wichtiges Ziel bei der Entwicklung. Sonst hätte sich der Schöpfer nicht so viel Mühe mit dem Abrunden der Ecken gegeben. Sägezahn statt Parabel hatte es dann auch getan, das Ergebnis wäre schneller und simpler. Wenn es nicht darum ging, das schmutzigere Frequenzspektrum von Sägezähnen zu vermeiden, warum hätte er die Technik dann so gestalten sollen?Als eine Art von PN erzeugte ich mal folgendes Muster:

- Zunächst Bitrauschen (schwarz oder weiß, ohne grau)
- Dieses wird bilinear interpoliert
- Eine 128x128-Textur wird auf der CPU zusammengesetzt aus einer interpolierten 2x2, 4x4, 8x8, ... 128x128-Rauschfläche, wobei mit verdoppelter Frequenz die Amplitude halbiert wird (hier kann man auch gleich mit einem Koeffizienten-Vektor eingreifen um bestimmte Frequenzcharakteristiken zu erzeugen.)

Statt bilinearer Interpolation kann man auch Cosinus-Interpolation nehmen, um bikubische Filterung billig zu faken. Statt Bitrauschen könnte man auch beliebige gleichverteilte Graustufen als Grundlage nehmen. Die Grundlagen hierfür entnahm ich von http://freespace.virgin.net/hugo.elias/models/m_perlin.htm

Man hat etliche Stellschrauben: Nichtlineare Verteilung der Graustufen, den angesprochenen Equalizer, als Eingang bereits Perlinrauschen nehmen, den Ausgang nichtlinear zu skalieren ... nutzt man zwei Perlin-Noise-Schichten als XY-Displacementmap, kann man versuchen, aus Texturen die nur Längsstriche zeigen, Marmor oder Holzmaserungen zu faken. Ich habe hier mal ein PDF (http://www.dudv.de/files/3dcf/_aths_PN.pdf) (in die endgültige Version der DA kam das alles allerdings nicht rein, dort habe ich Perlin Noise nur am Rande erwähnt.)

Sunrise
2005-10-28, 16:05:41
An Ausnahmen glaube ich eben nicht. Dass es heute tendenziell schlechter sei als früher, sehe ich nicht so. Zwar gibts einen Trend dazu, erfolgreiche Spiele so lange neu aufzubacken bis sie auch der letzte satt hat, und Orginalität bleibt oft auf der Strecke. Dennoch bietet mir z. B. selbst NFSU2 durchaus Spaß, obwohl ich den Spirit der traditionellen NFS-Reihe vermisse.Und genau diesen Spirit (ein Anglizismus) vermisse ich in fast jedem heutigen Spiel. Es fehlt einfach an neuen Ideen und an Genres, die man schmerzlich vermisst.

Denkt man zurück an damalige Zeiten, mit Spielen wie "Monkey Island" (Klassisches Adventure), "Ultima Underworld" (FP-RPG), "Rings of Medusa" (Geniale Kreuzung aus RPG / Adventure und Strategy) oder "Strike Commander" (Action-Flugsim) und später "X-Wing/TIE-Fighter" (Weltraum-Flugsim im SW-Universum), dann merkt man, dass keines der heutigen Spiele auch nur ansatzweise an deren Klasse heranreicht. Die Liste ließe sich zudem fast endlos fortsetzen. Diese Spiele verleiteten alle dazu, Stunden vor dem Bildschirm zu verbringen, weil sie fesselnd, mitreißend und interessant waren. Auch das originale "Unreal" hatte alle diese wichtigen Eigenschaften, zudem bot es eine ansprechende 3D-Engine, die zusammen mit den Inhalten und der Geschichte eine Symbiose einging und nicht für sich alleine stand. Die eigentliche Geschichte, die "Unreal" zu erzählen hatte, war eine Klasse für sich. Nachdem "Epic Games, Inc." (hieß vor 1999 noch "Epic MegaGames, Inc.", die neue Ausrichtung kann man direkt am Namen erkennen) aber einige Umstrukturierungen vornahm, und jetzt lieber das Massenpublikum bedient, darf man von dieser Seite wohl auch nichts mehr erwarten. Eine pure Verschwendung der Möglichkeiten, die einem potentiell fähigen und großem Team zur Verfügung stünden.

Sowas wie WoW, nur kleiner, wäre – allerdings als OpenSource, nicht als Shareware – durchaus zu stemmen. Ein, zwei geniale 3D-Progger mit zu viel Zeit entwickeln die Engine, und einige Leute steuern ersten Content bei (3D-Modelle etc.) Die Community steuert weiteren Content bei, jedoch geht das alles über den Schreibtisch eines fähigen Spieldesigners, damit das nicht auswuchert wie bestimmte Mods zu Diablo2, wo so viele Ideen verarbeitet sind dass man kein "Heimatgefühl" mehr hat. Die Server stellen begeisterte Webmaster bereit. Das klingt wahnsinnig aufwändig, aber ein Projekt wie Mozilla oder erst recht wie OpenOffice zu erstellen funktioniert in der OpenSource-Gemeinde ja auch.Dieses Projekt jedoch zu managen, dürfte sich schwierig gestalten, besonders bei einem MMORPG, das für Massen an Spielern vorgesehen ist. Denn fernab von den Talenten einiger kluger Köpfe, ist das überwiegende Design und die Zielvorgabe bei einem Spiel von diesem Ausmaß (auch wenn kleiner als WoW oder DAoC) unglaublich wichtig und die Mitglieder dieses Projektes müssten alle "die gleiche Sprache sprechen". Einen Clan richtig zu managen ist schwierig, ein Spiel zu designen, die Inhalte beizusteuern, fortwährend neue Ideen zu liefern, den Spieler an das Spiel zu binden, eine schnelle und konstante Server-Anbindung zu gewährleisten und das alles ohne jedweden Nebenverdienst ist in dieser Gänze eigentlich nur schwer vorstellbar.

Der originale Gameboy war auch meine erste Konsole, und ich habe viele, viele spannende Stunden mit ihm verbracht. "Mystic Quest" sog mich mehr ein, als "Golden Sun" auf dem GBA, obwohl letzterer Titel mit Farbgrafik daherkam. "Wario 4" allerdings finde ich natürlich besser als das erste Wario."Mystic Quest" (in den USA bekannt unter "Final Fantasy Adventure" oder im Original "Seiken Densetsu") war eine echte Perle auf dem Gameboy und zugleich der erste Teil der "Secret of Mana"-Reihe. Damit habe auch ich einige schlaflose Nächte verbracht. Hier fing der Spaß aber auch erst an, denn "Final Fantasy Legend" 1, 2 und 3 waren ebensolche Perlen, denn jeder dieser Teile war mitreißend erzählt und ließ einen nicht mehr los. Genau diese Spiele waren es, die dem Gameboy damals zum Erfolg verhalfen, sieht man mal von den obligatorischen Titeln wie "Super Mario Land" ab. "Gargoyle's Quest" und "Boomer´s Adventure in ASMIK-World" waren auch mitreißende Spiele, wenn auch nicht in diesem epischen Ausmaß von FF.

Es war glaube ich der SNES für den es ein Modul mit integriertem 3D-Chip gab, bei "Star Fox". Wenn man das weiterdenkt, und ein wirklich großartiges Spiel das lange motiviert (à la Gran Turismo) produziert, könnte man auch gleich eine passende Konsole rausbringen die nur dieses Spiel kann, das aber perfekt.Ja, es war der SNES. Damals hatte dieses Spiel auch ziemlich für Furore gesorgt, jedoch konnte ich persönlich diesen Hype nie wirklich nachvollziehen, denn Space Harrier auf dem C64 bot alles und mehr, nur ohne diese "Spielerei".

Xmas
2005-10-28, 21:26:28
Hier wird beschrieben, wie man das auf der GPU mittels LUT macht: http://graphics.cs.uiuc.edu/~jch/papers/pixelnoise.pdf
375 Passes... wäre interessant zu wissen wieviele man auf heutiger Hardware braucht. Trotzdem ist das Berechnen von Zufallszahlen im Shader heute noch kein Vergnügen.

Gibt es - außer Performanceaspekten - überhaupt einen Grund für Geometrie-LOD?

Bei Texturen hat man ja, wenn kein LOD benutzt wird, eine Unterabtastung mit der Folge dass es flimmert, das ist klar.

Aber bei Geometrie ist es doch sch... egal wie detailiert sie berechnet wird, so lange man genügend Power hat.
Du kannst auch Unterabtastung bei der Geometrie haben. Das Flimmert dann auch.

Coda
2005-10-28, 21:31:23
Du kannst auch Unterabtastung bei der Geometrie haben. Das Flimmert dann auch.Dagegen gibt's doch AA.

Xmas
2005-10-28, 21:45:31
Dagegen gibt's doch AA.
Was im Gegensatz zu Texturfiltern aber nicht auf Daten ohne hohe Frequenzen zugreifen kann und somit das Flimmern nur abschwächt, aber nicht komplett beseitigt. Nebenbei erhöht gerade AA wieder den Bedarf an einem Geometrie-LOD, weil das Rendern sonst furchtbar ineffizient wird.

MikBach
2005-10-29, 17:26:51
Darum ging's ja nicht, sondern wie viel man z.B. durch SM3-Optimierungen noch rausholen kann.
Das habe ich auch so verstanden. :)
Da die X1600 eine erheblich höhere Shaderleistung besitzt, würde eine SM3-Optimierung dort mehr bringen, imo.

Die X1600 halte ich dennoch für einen Lowcost-Chip, denn Ringbus hin oder her – nur 4 Texel pro Takt ist mir einfach zu wenig. Eine Mittelklasse-GPU braucht 8 Texel pro Takt. Ich hoffe, dass ATI hier nachbessert. Denkbar wären 2 Quad-TMUs (mehr gibt das 128-Bit-Interface eh nicht her) und 4 Quad-ALUs (damit schön viel gerechnet werden kann.)
Ack, den RV530 halte ich für ziemlich unausgewogen.

aths
2005-10-29, 22:13:52
Das habe ich auch so verstanden. :)
Da die X1600 eine erheblich höhere Shaderleistung besitzt, würde eine SM3-Optimierung dort mehr bringen, imo.Absolut gesehen ja, relativ gesehen nein. Es sei denn, man optimiert fast nur Texturzugriffe weg, in der Praxis wird man aber auch bemüht sein, "unsichtbare" Arithmetik wegzuscheiden.

up¦²
2005-10-30, 01:32:53
Im letzten Cat 5.10a driver ist ein R499 in der inf-file aufgetaucht :wink:

"R499" = ati2mtag_R499, PCI\VEN_1002&DEV_724A
"R499 " = ati2mtag_R499, PCI\VEN_1002&DEV_724C
"R499 " = ati2mtag_R499, PCI\VEN_1002&DEV_724B
"R499 " = ati2mtag_R499, PCI\VEN_1002&DEV_724E
"R499 " = ati2mtag_R499, PCI\VEN_1002&DEV_724F
"R499 " = ati2mtag_R499, PCI\VEN_1002&DEV_7248
"R499 " = ati2mtag_R499, PCI\VEN_1002&DEV_7249
"R499 " = ati2mtag_R499, PCI\VEN_1002&DEV_724D
"R499 Secondary" = ati2mtag_R499, PCI\VEN_1002&DEV_726A
"R499 Secondary " = ati2mtag_R499, PCI\VEN_1002&DEV_726F
"R499 Secondary " = ati2mtag_R499, PCI\VEN_1002&DEV_7268
"R499 Secondary " = ati2mtag_R499, PCI\VEN_1002&DEV_7269
"R499 Secondary " = ati2mtag_R499, PCI\VEN_1002&DEV_726C
"R499 Secondary " = ati2mtag_R499, PCI\VEN_1002&DEV_726D
"R499 Secondary " = ati2mtag_R499, PCI\VEN_1002&DEV_726B
"R499 Secondary " = ati2mtag_R499, PCI\VEN_1002&DEV_726E

Um Xenos via pc anzusteuren?
unified architecture viel weiter als vermutet?

mapel110
2005-10-30, 02:04:08
Im letzten Cat 5.10a driver ist ein R499 in der inf-file aufgetaucht :wink:



Um Xenos via pc anzusteuren?
unified architecture viel weiter als vermutet?
http://www.beyond3d.com/forum/showthread.php?t=25073
hab ich doch schon irgendwo gelesen. ;)

Würde da auch auf Xenos tippen. UA dürfte man nicht als R499 bezeichnen.

Armaq
2005-10-30, 04:22:12
Diese kleineren Treiberinfos kommen doch alle Nase lang hoch.
Zu 90% kam da noch nichts besonderes bei raus...
Ausserdem glaube ich nicht, dass sowas zufällig durch die Maschen rutscht.

Wer schonmal größere Datensätze in der Buchhaltung bearbeitet hat weiss was ich meine. Sowas muss einem auffallen, wenn es denn da "nichts" zu suchen hat.

deekey777
2005-10-30, 10:55:09
http://www.beyond3d.com/forum/showthread.php?t=25073
hab ich doch schon irgendwo gelesen. ;)


Ich hab das auch schon viel früher gelesen, aber niemand wollte was verraten...
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3601324#post3601324

mapel110
2005-11-01, 21:49:52
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=257665
Bezüglich Spiele-Historie im PC-Bereich gehts da weiter.

Coda
2005-11-01, 22:22:36
http://www.beyond3d.com/forum/showthread.php?t=25073
hab ich doch schon irgendwo gelesen. ;)

Würde da auch auf Xenos tippen. UA dürfte man nicht als R499 bezeichnen.Wenn es der PC-Treiber für das Beta-Entwicklerbrett war, dann hat das schon Sinn.

Tomcat70
2005-11-02, 06:50:30
mal zur abwechslung wieder was zum eigentlichen thread-thema:

http://www.ati-news.de/HTML/Berichte/Sapphire/X1800-XL/X1800-XL-Seite1.shtml

mapel110
2005-11-02, 10:48:33
mal zur abwechslung wieder was zum eigentlichen thread-thema:

http://www.ati-news.de/HTML/Berichte/Sapphire/X1800-XL/X1800-XL-Seite1.shtml
http://www.ati-news.de/HTML/Berichte/Sapphire/X1800-XL/X1800-XL-Seite13.shtml
Der Performance-Verlust bei 16QAF ist schon krass. Dürfte wohl daran liegen, dass dieser Modus vorher extrem stark winkelabhängig war.

Tomcat70
2005-11-02, 11:01:10
http://www.ati-news.de/HTML/Berichte/Sapphire/X1800-XL/X1800-XL-Seite13.shtml
Der Performance-Verlust bei 16QAF ist schon krass. Dürfte wohl daran liegen, dass dieser Modus vorher extrem stark winkelabhängig war.

was ist so krass an 79,41 zu 86,61 bzw. 94,98 zu 96,65?

mapel110
2005-11-02, 11:03:36
was ist so krass an 79,41 zu 86,61 bzw. 94,98 zu 96,65?
Ist deutlich mehr Verlust als bei 4x vs 4xQ oder 8x vs 8xQ.

Aquaschaf
2005-11-02, 12:47:54
Sowas wie WoW, nur kleiner, wäre – allerdings als OpenSource, nicht als Shareware – durchaus zu stemmen. Ein, zwei geniale 3D-Progger mit zu viel Zeit entwickeln die Engine, und einige Leute steuern ersten Content bei (3D-Modelle etc.) Die Community steuert weiteren Content bei, jedoch geht das alles über den Schreibtisch eines fähigen Spieldesigners, damit das nicht auswuchert wie bestimmte Mods zu Diablo2, wo so viele Ideen verarbeitet sind dass man kein "Heimatgefühl" mehr hat. Die Server stellen begeisterte Webmaster bereit. Das klingt wahnsinnig aufwändig, aber ein Projekt wie Mozilla oder erst recht wie OpenOffice zu erstellen funktioniert in der OpenSource-Gemeinde ja auch.

Das ist abwegig, finde ich. Die Menge an Content, die nötig ist um etwas zu erreichen was ansatzweise in einem Satz mit einem kommerziellen MMORPG genannt werden kann ist so nicht zu bewältigen. Und bei einer Engine für ein MMORPG hat man ganz andere Sorgen als die 3D-Darstellung...

Ich empfehle diesen Artikel zu lesen ;)

http://sol.gfxile.net/mmorpg.html

mapel110
2005-11-04, 01:00:20
http://www.hardforum.com/showpost.php?p=1028489877&postcount=59
=)
http://www.newegg.com/Product/Product.asp?Item=N82E16814102624
in Stock 599 $

/edit
2:08 und nicht mehr verfügbar. ;(

Ailuros
2005-11-04, 01:17:13
http://www.hardforum.com/showpost.php?p=1028489877&postcount=59
=)
http://www.newegg.com/Product/Product.asp?Item=N82E16814102624
in Stock 599 $

Der Preis muss dringend reduziert werden...

BodyLove
2005-11-04, 10:24:04
Der Preis muss dringend reduziert werden...

Warum muss? Ging doch auch so weg?

PingpiN
2005-11-04, 10:52:05
Warum muss? Ging doch auch so weg?
Die Karten scheinen woll für viele intressant zu sein,aber wer 599 Dollar ausgibt. :eek: <<<<<<<<<<<<<kann ich mitm AVivo schneller Avi Datein in Mpeg umwandeln?

Gaestle
2005-11-04, 11:50:44
Ist deutlich mehr Verlust als bei 4x vs 4xQ oder 8x vs 8xQ.

Ist ja aber auch deutlich mehr Qualität. Und flüssig läuft's ja trotzdem.

Grüße

mapel110
2005-11-04, 12:25:00
Ist ja aber auch deutlich mehr Qualität. Und flüssig läuft's ja trotzdem.

Grüße
Wie gut speziell 16xQAF aussieht, will ich erstmal untersucht wissen. Gibt ja da offenbar Probleme.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=257755

Gaestle
2005-11-04, 12:33:22
Wie gut speziell 16xQAF aussieht, will ich erstmal untersucht wissen. Gibt ja da offenbar Probleme.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=257755


Sicherlich sollte man für ein abschließendes Urteil bis zu einer genaueren Betrachtung warten.
Aber wenn ich mal davon ausgehe, dass der HQ-Modus mehr Qualität bringen soll und auch tatsächlich bringen wird, als der derzeitige winkelabhängige Schmalkost-Kram, ist es auch absolut folgerichtig, dass er mehr Speed kostet. Wenn er keine Qualität bringen sollte, wäre der Speed-Einbruch natürlich schlecht.
Trotzdem ist alles schnell genug, auch für aktuelle Top-Titel.

Grüße

Grestorn
2005-11-04, 12:36:47
Wie gut speziell 16xQAF aussieht, will ich erstmal untersucht wissen. Gibt ja da offenbar Probleme.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=257755
Auch mit diesen Schwächen ist das R520 HQAF zweifelsfrei deutlich besser als das alte winkelabhängige AF.

Bei sonstigem Gleichstand wäre das ein klar entscheidendes Argument für R520. Ich hoffe, dass hier auch eine Trendwende eingeleitet wird, und dafür gehört ATI klar gelobt (auch wenn sie den Scharrn mit "Speed statt Qualität" erst etabliert haben).

Andererseits habe ich immer noch keine Situation gehabt, wo mir im Spiel wa AF aufgefallen wäre. Auf speziellen Shots ist es klar sichtbar, aber im normalen Spielablauf bleibt es weiterhin für mich kein klar sichtbarer Mangel. Auch deswegen werde ich nicht mit fliegenden Fahnen meine Karten verscherbeln und die R520 holen, mit all den Nachteilen die sie sonst noch hat.

Das kann sich mit dem R580 aber durchaus ändern. Mal sehen, was nV noch auf Lager hat...

Gaestle
2005-11-04, 13:43:17
Andererseits habe ich immer noch keine Situation gehabt, wo mir im Spiel wa AF aufgefallen wäre.



AFAIK bist Du doch auch ein Gothic-Freund. Da fällt es (mir) schon ganz schön auf - ich weiß jetzt aber nicht ob nur vor oder auch nachdem ich das SS-AA aktiviert hatte.
Aber anyway, bei den 08/15 Shooter-Tunneln mit viereckigen Querschnitt ist es weniger sichtbar. Aber die werden ja hoffentlich auch bald zum alten Eisen gehören. Bei einigen CoD2-Shots (und bei einem ganz speziellen HL2-Shot) sieht man die Winkelabhängigkeit auch ganz schön deutlich.

Grüße

MadManniMan
2005-11-04, 13:50:40
Andererseits habe ich immer noch keine Situation gehabt, wo mir im Spiel wa AF aufgefallen wäre. Auf speziellen Shots ist es klar sichtbar, aber im normalen Spielablauf bleibt es weiterhin für mich kein klar sichtbarer Mangel. Auch deswegen werde ich nicht mit fliegenden Fahnen meine Karten verscherbeln und die R520 holen, mit all den Nachteilen die sie sonst noch hat.

Ich hab mir vor ner Weile mal den Spaß gemacht und vor dem Verkaufen meiner FX5800 nochmal wu-AF (128tap) genossen, direkt danach mit gleichen Einstellungen auf meiner 6600Go gezockt ... DANN plötzlich springt es einen regelrecht an - man isses einfach irgendwo schon gewohnt. Schließlich hab ich vorm R300-Zeitalter maximal 2*AF auf meiner Ti200 genossen, da war 16*wa-AF natürlich immernoch ne dicke Steigerung.

Blaire
2005-11-04, 17:52:29
http://www.hardocp.com/article.html?art=ODc1LDEz

Sehr interessantes Review...

deekey777
2005-11-04, 19:48:46
http://www.hardocp.com/article.html?art=ODc1LDEz

Sehr interessantes Review...


... von einem halbblinden Tester?

Serious Sam 2 (http://www.hardocp.com/article.html?art=ODc1LDU=)

Wer auf diesem Bild (http://www.hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV8xNV9sLmpwZw==) keine Unterschiede sieht, ist blind (kaputte Spiegelungen auf dem Gebäude in der linken Hälfte des 7800-Bildes).

Blaire
2005-11-04, 20:59:19
... von einem halbblinden Tester?

Serious Sam 2 (http://www.hardocp.com/article.html?art=ODc1LDU=)

Wer auf diesem Bild (http://www.hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV8xNV9sLmpwZw==) keine Unterschiede sieht, ist blind (kaputte Spiegelungen auf dem Gebäude in der linken Hälfte des 7800-Bildes).

Ich meinte damit den praktischen Nutzen welche Games mit welchen Settings spielbar ist und was nicht. Das ist für den Anwender wesentlich aufschlussreicher als irgendwelche Benchmarks (siehe Q4@X1800 wo die Maximumfps zwar höher sind , aber der Gesamteindruck auf der 7800 besser wirkt,speziell die Minimumfps.
http://www.hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfM18zX2wuZ2lm

Zu SSII steht dort:
In Serious Sam 2, we found a very big bug with HDR enabled on the Radeon X1800 XT. There was a very distinct, blocky pattern visible around objects receiving HDR lighting

Black-Scorpion
2005-11-04, 21:46:03
Ich meinte damit den praktischen Nutzen welche Games mit welchen Settings spielbar ist und was nicht. Das ist für den Anwender wesentlich aufschlussreicher als irgendwelche Benchmarks (siehe Q4@X1800 wo die Maximumfps zwar höher sind , aber der Gesamteindruck auf der 7800 besser wirkt,speziell die Minimumfps.
http://www.hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfM18zX2wuZ2lm

Zu SSII steht dort:
In Serious Sam 2, we found a very big bug with HDR enabled on the Radeon X1800 XT. There was a very distinct, blocky pattern visible around objects receiving HDR lighting
Ich habe Q4 nicht.
Aber hast du auch gesehen das Unterschiedliche Einstellungen genommen wurden?
Und das die Seite auch übertaktete Karten nimmt?
Mir ist klar das viele ihre Karten auch übertakten aber so wird ein falsches Bild gezeigt.

deekey777
2005-11-04, 21:51:42
Ich meinte damit den praktischen Nutzen welche Games mit welchen Settings spielbar ist und was nicht. Das ist für den Anwender wesentlich aufschlussreicher als irgendwelche Benchmarks (siehe Q4@X1800 wo die Maximumfps zwar höher sind , aber der Gesamteindruck auf der 7800 besser wirkt,speziell die Minimumfps.
http://www.hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfM18zX2wuZ2lm

Zu SSII steht dort:
In Serious Sam 2, we found a very big bug with HDR enabled on the Radeon X1800 XT. There was a very distinct, blocky pattern visible around objects receiving HDR lighting

Ich bezweifle, daß es HDR in SS2 ist.
Doch ich wollte auf etwas anderes hinweisen, da die Tester meinten, daß das von mir verlinkte Vergleichsbild identisch sei.

A.Wesker
2005-11-04, 22:06:39
Ich habe Q4 nicht.
Aber hast du auch gesehen das Unterschiedliche Einstellungen genommen wurden?
Und das die Seite auch übertaktete Karten nimmt?
Mir ist klar das viele ihre Karten auch übertakten aber so wird ein falsches Bild gezeigt.
das ist der standardtakt der BFG 7800 GTX

Black-Scorpion
2005-11-04, 22:23:27
Und was ändert das an der Aussage das die Ergebnisse nicht mit mit anderen Karten übereinstimmen müssen?
Zumal überall oc hinter der Karte steht.
Das Thema hatten wir schon.

Blaire
2005-11-05, 14:59:04
Insgesamt muss man sehn , das sich beide Karte nicht viel nehmen. Nur mit dem Unterschied die 7800GTX ist schon längst kaufbar.
Wenn Nvidia nun im November wirklich ne 512MB Variante bringt , siehts für Ati ganz böse aus.

Blaire
2005-11-05, 15:00:52
... von einem halbblinden Tester?

Serious Sam 2 (http://www.hardocp.com/article.html?art=ODc1LDU=)

Wer auf diesem Bild (http://www.hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV8xNV9sLmpwZw==) keine Unterschiede sieht, ist blind (kaputte Spiegelungen auf dem Gebäude in der linken Hälfte des 7800-Bildes).

Zumindest scheint der Gute die Bilder vertauscht zu haben. :D Ja die 7800GTX zeigt wirklich mit HDR@SS2 diese Fehler, habs eben gecheckt.

InsaneDruid
2005-11-05, 15:30:52
Was soll denn eine 512er G70 für ATI "ganz böse" aussehen lassen?

Die 512MB (und evtl mehr Takt) machen auch das AF nicht besser, oder ermöglichen HDR-FSAA.

Blaire
2005-11-05, 15:34:09
Wenn die vermuteten Taktraten dann so stimmen , dann hat die Ati nix zu lachen. Auf das HDR+AA kann ich gerne verzichten, da noch viel zu langsam und wird garnicht richtig unterstützt, das bessere AF allerdings würde ich auch gerne bei meinen Nvidia Karten haben. Ich hoffe ja noch, das Nvidia nachgibt und besseres AF in neueren Treiber freischaltet. :)

PingpiN
2005-11-05, 15:35:12
Was soll denn eine 512er G70 für ATI "ganz böse" aussehen lassen?

Die 512MB (und evtl mehr Takt) machen auch das AF nicht besser, oder ermöglichen HDR-FSAA.

Genau so ist es was will ich mit 2*512MB GTx Karten wenn ich die volle qualität nicht ausspielen kann.Da langweilen sich dann meine Karten und ich hab nicht von. :rolleyes: Solange Ati nicht zeigt das Hdr+aa geht belib ich noch stutzig. :biggrin:

PingpiN
2005-11-05, 15:37:22
Auf das HDR+AA kann ich gerne verzichten, :)

Wenn bald patches und neue games rauskommen Need for speed most wanted zb die Hdr+aa unterstützen,will ich sehen ob deine aussage noch immer so ist. ;) ;D

Blaire
2005-11-05, 15:44:18
Wenn bald patches und neue games rauskommen Need for speed most wanted zb die Hdr+aa unterstützen,will ich sehen ob deine aussage noch immer so ist. ;) ;D

Wie ich schon sagte. Die Performance, HDR und AA gleichzeitig zu nutzen wird eine X1800XT sicher nicht erfüllen. Das ist doch schon immer so gewesen , das solche "neuen" Features erst sinnvoll in nächsten Generationen von Grafikkarten werden. Von daher kann ich gerne darauf verzichten und warte auf den G80 der möglicherweise das selbe in besserer Geschwindigkeit liefert.

deekey777
2005-11-05, 15:56:37
Wie ich schon sagte. Die Performance, HDR und AA gleichzeitig zu nutzen wird eine X1800XT sicher nicht erfüllen. ...

Wie kommst du darauf?
http://www.beyond3d.com/reviews/ati/r520/index2.php?p=21

Blaire
2005-11-05, 15:59:16
Wie kommst du darauf?
http://www.beyond3d.com/reviews/ati/r520/index2.php?p=21

Genau das mein ich. 1600x1200 4xAA/8XAF 26 fps (bedenkt man hinzu die ohnehin gute ATi PF in Farcry...) ist nicht spielbar,genauso wenig 1280x1024 mit 40 fps. Das sind normale Settings wenn ich die Geometriedetails voll aufdrehe was bleibt mir dann noch davon übrig? 15-20 fps? :wink:

aths
2005-11-05, 16:45:01
Was soll denn eine 512er G70 für ATI "ganz böse" aussehen lassen?

Die 512MB (und evtl mehr Takt) machen auch das AF nicht besser, oder ermöglichen HDR-FSAA.Was ist denn "HDR-FSAA"? Supersampling, was ja auch FSAA ist, müsste auf der GeForce doch laufen. Multisampling auf ein FP16-Target wird leider nicht unterstützt. Doch eine gute, dynamische Implementierung von HDR-Rendering sollte auch (mindestens) FP16-Texturfilterung unterstützen, was wiederum die Radeon nicht kann.

Dass das AF des G70 im Vergleich zum R520 im HQ-Modus deutlich unterlegen ist, kann natürlich gar nicht oft genug wiederholt werden. Das 16x AF ist beim R520 nicht besonders toll gelungen, doch im 8x vs. 8x-Vergleich zeigt der R520, wie gut 8x AF aussehen kann.

Dunkeltier
2005-11-05, 17:17:25
Ich meinte damit den praktischen Nutzen welche Games mit welchen Settings spielbar ist und was nicht. Das ist für den Anwender wesentlich aufschlussreicher als irgendwelche Benchmarks (siehe Q4@X1800 wo die Maximumfps zwar höher sind , aber der Gesamteindruck auf der 7800 besser wirkt,speziell die Minimumfps.
http://www.hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfM18zX2wuZ2lm

(...)


Sicher, wenn man Ultra Quality auf der Radeon gegen High Quality auf der übertakteten Geforce bencht. Ein sehr fairer Vergleich... Ebenso toll, wenn die Geforce 7800 GTX in anderen Spielen wie SS2 einfach ein paar Bilddetails ausläßt und Rechenzeit spart.

Blaire
2005-11-05, 17:21:08
Sicher, wenn man Ultra Quality auf der Radeon gegen High Quality auf der übertakteten Geforce bencht. Ein sehr fairer Vergleich... Ebenso toll, wenn die Geforce 7800 GTX in anderen Spielen wie SS2 einfach ein paar Bilddetails ausläßt und Rechenzeit spart.

Nö ist nicht übertaktet, die wird so ausgeliefert. Zudem wurde bei der Nvidia noch TRMSAA aktiviert, bei Ati nicht. Aber darum gehts nicht, sondern darum was ist maximum spielbar und was nicht.
Apropros SS2:
http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV81X2wuanBn

Unschöne Blöckchenbildung bei der Ati...

deekey777
2005-11-05, 17:29:38
...
Apropros SS2:
http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV81X2wuanBn

Unschöne Blöckchenbildung bei der Ati...

Liegt nicht an ATi.

Genau das mein ich. 1600x1200 4xAA/8XAF 26 fps (bedenkt man hinzu die ohnehin gute ATi PF in Farcry...) ist nicht spielbar,genauso wenig 1280x1024 mit 40 fps. Das sind normale Settings wenn ich die Geometriedetails voll aufdrehe was bleibt mir dann noch davon übrig? 15-20 fps? :wink:

Abwarten, denn es ist ein "very beta" Patch. Trotzdem ist die Performance sehr gut.
Und es gibt da noch 1010102, womit man auch "HDRR" in die Welt setzen kann (wird in der Toyshop-Demo benutzt).

Dunkeltier
2005-11-05, 17:34:29
Nö ist nicht übertaktet, die wird so ausgeliefert. Zudem wurde bei der Nvidia noch TRMSAA aktiviert, bei Ati nicht. Aber darum gehts nicht, sondern darum was ist maximum spielbar und was nicht.
Apropros SS2:
http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV81X2wuanBn

Unschöne Blöckchenbildung bei der Ati...


Und wieso steht dort OC? Was die Bildfehler betrifft, die werden bei ATI in der Regel innerhalb von 2-3 Monaten weggefixt. nVidia dagegen schleppt diverse Fehler schon jahrelang mit sich rum. Man schaue sich nur mal das TSAA in Bf1942 auf Häusern und Fahrzeugen an, oder in einigen wenigen Spielen die Probleme mit den Taktraten (die nicht nur ich habe).

aths
2005-11-05, 17:35:24
Nö ist nicht übertaktet, die wird so ausgeliefert. Zudem wurde bei der Nvidia noch TRMSAA aktiviert, bei Ati nicht. Aber darum gehts nicht, sondern darum was ist maximum spielbar und was nicht.
Apropros SS2:
http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV81X2wuanBn

Unschöne Blöckchenbildung bei der Ati...Sieht auf den ersten Blick aus wie eine vergrößerte, jedoch nicht gefilterte Textur.

Blaire
2005-11-05, 17:45:17
Sieht auf den ersten Blick aus wie eine vergrößerte, jedoch nicht gefilterte Textur.

weitere Beispiele:
http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV84X2wuanBn

http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV83X2wuanBn

----------------------------------------------------------------------
Wo wir gerade dabei sind: (X1800 Bilder wurden von MisterH zur Verfügung gestellt)

Quake4:
7800GTX:
http://img277.imageshack.us/img277/2218/quake420051027232249823lh.jpg

X1800:
http://img341.imageshack.us/img341/7386/q411xe.jpg

Man beachte die Beleuchtungen rechts und links. Da fehlt bei Ati etwas.
----------------------------------------------------------------------
HL2: Lost Coast

7800GTX:
http://img456.imageshack.us/img456/7422/lostcoastnew4ly.jpg

X1800:
http://img497.imageshack.us/my.php?image=haf0jm.jpg

Man vergleiche mal die Stelle vor der Tür unter dem Balkon...
Cheat oder Bug? Auf jeden Fall wird bei der Ati weniger berechnet.

Grestorn
2005-11-05, 17:49:15
Und wieso steht dort OC? Was die Bildfehler betrifft, die werden bei ATI in der Regel innerhalb von 2-3 Monaten weggefixt.Wie man an den Problemen in KotoR 1 und 2 gut sieht...

nVidia dagegen schleppt diverse Fehler schon jahrelang mit sich rum.Die da wären?

Man schaue sich nur mal das TSAA in Bf1942 auf Häusern und Fahrzeugen an, oder in einigen wenigen Spielen die Probleme mit den Taktraten (die nicht nur ich habe).TSAA? Es ist kein Bug wenn das nicht funktioniert. Es gibt genügend Spiele, bei denen gar kein AA geht. TSAA ist die Kür, nicht die Pflicht.

Oder geht AAA problemlos auf Anhieb bei allen Spielen?

Die Treiberprobleme liegen m.E. weniger bei Bugs in Spielen sondern bei anderen Schlampereien. Und da bekleckern sich weder ATI noch nV mit Ruhm.

deekey777
2005-11-05, 17:51:17
Wie man an den Problemen in KotoR 1 und 2 gut sieht...

...

Beschwerdebriefe bitte an Bioware.

weitere Beispiele:
http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV84X2wuanBn

http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV83X2wuanBn

----------------------------------------------------------------------

Was vergessen?
http://www.hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV8xNV9sLmpwZw==


http://www.digit-life.com/articles2/video/r520-part4-g.html
Update: Soon after publishing the article we've got a letter from Dean Sekulic, programmer of Serious Sam 2:

Just wanted to let you know that this is actually not a precision issue (on NV40 everything works just fine), but a little bug in NV shader assembler for G70 which will (probably...) be fixed in the next public beta driver.

Bisher nicht gefixt.

Dunkeltier
2005-11-05, 17:52:53
weitere Beispiele:
http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV84X2wuanBn

http://hardocp.com/image.html?image=MTEzMDcyNDcyM3dRZjZFeXdFMXFfNV83X2wuanBn

----------------------------------------------------------------------
Wo wir gerade dabei sind: (X1800 Bilder wurden von MisterH zur Verfügung gestellt)

Quake4:
7800GTX:
http://img277.imageshack.us/img277/2218/quake420051027232249823lh.jpg

X1800:
http://img341.imageshack.us/img341/7386/q411xe.jpg

Man beachte die Beleuchtungen rechts und links. Da fehlt bei Ati etwas.
----------------------------------------------------------------------
HL2: Lost Coast

7800GTX:
http://img456.imageshack.us/img456/7422/lostcoastnew4ly.jpg

X1800:
http://img497.imageshack.us/my.php?image=haf0jm.jpg

Man vergleiche mal die Stelle vor der Tür unter dem Balkon...
Cheat oder Bug? Auf jeden Fall wird bei der Ati weniger berechnet.


Mit Quake 4, ist wohl 'ne unterschiedliche Gamma-bzw. Helligkeits-Einstellung. Wo es dunkler ist, sieht man halt auch weniger. Die HL² Shot sind überhaupt nicht vergleichbar, da aus unterschiedlichen Perspektiven aufgenommen (ich sag nur LOD).

Blaire
2005-11-05, 17:53:21
Mit Quake 4, ist wohl 'ne unterschiedliche Gamma-bzw. Helligkeits-Einstellung. Wo es dunkler ist, sieht man halt auch weniger. Die HL² Shot sind überhaupt nicht vergleichbar, da aus unterschiedlichen Perspektiven aufgenommen (ich sag nur LOD).

Nein ist es nicht. Exakt die selben Einstellungen und Savegames.

A.Wesker
2005-11-05, 17:54:51
Und wieso steht dort OC? Was die Bildfehler betrifft, die werden bei ATI in der Regel innerhalb von 2-3 Monaten weggefixt. nVidia dagegen schleppt diverse Fehler schon jahrelang mit sich rum. Man schaue sich nur mal das TSAA in Bf1942 auf Häusern und Fahrzeugen an, oder in einigen wenigen Spielen die Probleme mit den Taktraten (die nicht nur ich habe).
so wie die XFX 7800 GTX "Extreme" heißt, nennt BFG sein topmodell 7800 GTX "OC"

Grestorn
2005-11-05, 17:55:01
Beschwerdebriefe bitte an Bioware.
Warum geht's dann problemlos auf anderer HW?

Wieso geht's dann bei vereinzelnden Catalysts, auf den meisten aber nicht?

Dunkeltier
2005-11-05, 17:59:33
Wie man an den Problemen in KotoR 1 und 2 gut sieht...

Welche Fehler treten dort auf?



Die da wären?

Fehler in so ziemlich allen aktuellen Spielen, und auch in älteren. Egal ob Bf1942, der uralte 3D Mark wo das Wasser eckig ist, der Fehler in FarCry mit den Leuchtstreifen an der Seite, das ständige heruntertakten obwohl die Karte mit Original-Kühler und Referenztakt läuft (den Fehler hatte ich schon auf mehreren Geforce 6800 GT gehabt, und ich bin nicht der einzige der damit zu kämpfen hat), Probleme das nach'm Videoanschauen ab und zu (nicht immer) nur noch ein Viertel des Bildes angezeigt wird, etc. Es sind so viele Fehler, das ich sie kaum alle aufzuzählen vermag. Und das Problem ist, die werden auch nicht wie bei Ati gefixt. Und das sind keine Fehler in seltenen Situationen, sondern Fehler die da auftauchen wo es gar nicht passieren sollte.



TSAA? Es ist kein Bug wenn das nicht funktioniert. Es gibt genügend Spiele, bei denen gar kein AA geht. TSAA ist die Kür, nicht die Pflicht.

Oder geht AAA problemlos auf Anhieb bei allen Spielen?

Die Treiberprobleme liegen m.E. weniger bei Bugs in Spielen sondern bei anderen Schlampereien. Und da bekleckern sich weder ATI noch nV mit Ruhm.

Bei Ati hat beinahe alles immer auf Anhieb geklappt, und wenn Fehler auftauchten, wurde diese relativ zügig gefixt. Das würde ich mir auch bei nVidia wünschen. Diese drehen allerdings lieber Däumchen, und können noch nicht einmal solche schwerwiegenden Fehler wie das Taktproblem lösen.

deekey777
2005-11-05, 18:06:48
Warum geht's dann problemlos auf anderer HW?

Es soll an einer NV-Extension liegen, mit der die ATi arge Probleme hatten, soll mit dem 5.9 gefixt worden sein.

aths
2005-11-05, 18:08:53
Wie man an den Problemen in KotoR 1 und 2 gut sieht...

Die da wären?

TSAA? Es ist kein Bug wenn das nicht funktioniert. Es gibt genügend Spiele, bei denen gar kein AA geht. TSAA ist die Kür, nicht die Pflicht.

Oder geht AAA problemlos auf Anhieb bei allen Spielen?

Die Treiberprobleme liegen m.E. weniger bei Bugs in Spielen sondern bei anderen Schlampereien. Und da bekleckern sich weder ATI noch nV mit Ruhm.Imo sollten TSAA und AAA immer und überall funktionieren. Anstatt dem Hersteller auf Knien zu danken, wenn es denn mal läuft, sollte dieses Feature möglichst schnell in die Betrachtung bei Reviews mit einfließen.

WoW spiele ich mit nur 2x AA – aber inkl. AAA. Die Grafik ist besser als mit 4x sparse Multisampling. Heutzutage wird meist mit 4x MSAA gebencht, doch das alleine reicht mir nicht. Dass AAA auch mit meiner schissigen Radeon Mobility läuft, sehe ich als äußerst nützliches Treiber-Upgrade. Dass NV ein vergleichbares Feature für die GF6-Serie nicht hinbekommt, halte ich für ein Armutszeugnis.

Grestorn
2005-11-05, 18:08:58
Welche Fehler treten dort auf?Extreme Slowdowns, Abstürze bis zum BlueScreen.

Fehler in so ziemlich allen aktuellen SpielenWie in einigen Threads ja schon mehrfach festgestellt wurde, bist Du der einzige, der diese Probleme hat.

der Fehler in FarCry mit den Leuchtstreifen an der SeiteFehler im Profil, einfach zu beheben. Tritt m.W. auch nur bei HDR auf, also einem inoffiziellen Modus in FC. Und ist in 81.85 behoben so weit ich weiß.

das ständige heruntertakten obwohl die Karte mit Original-Kühler und Referenztakt läuft (den Fehler hatte ich schon auf mehreren Geforce 6800 GT gehabt, und ich bin nicht der einzige der damit zu kämpfen hat)Dazu kann ich nichts sagen, denn ich hatte das Problem auf 2 6800GTs und 2 7800GTX nicht. Ich bestreite gar nicht, dass es Karten gibt, die dieses Phänomen haben. Aber das ist kaum ein Bug sondern schlicht ein Defekt auf diesen Karten.

Probleme das nach'm Videoanschauen ab und zu (nicht immer) nur noch ein Viertel des Bildes angezeigt wird, etc.Das Problem hatte ich genau einmal. Irgendein FW hatte diesen Fehler wohl mal.

Es sind so viele Fehler, das ich sie kaum alle aufzuzählen vermag.Mich wundert immer nur, dass so viele Leute, mich eingschlossen, diese vielen unzähligen Probleme schlicht nicht haben. Nur Du scheinst ein Opfer aller nV Bugs zu sein. nV hat sich gegen Dich verschworen!

und können noch nicht einmal solche schwerwiegenden Fehler wie das Taktproblem lösen.Wie soll ein solcher "Bug" gefixt werden, der offenbar nicht am Treiber liegt? Ein Fehler im BIOS oder in der einzelnen Karte lässt sich ja nicht so ohne weiteres beheben...

Grestorn
2005-11-05, 18:11:21
Imo sollten TSAA und AAA immer und überall funktionieren. Anstatt dem Hersteller auf Knien zu danken, wenn es denn mal läuft, sollte dieses Feature möglichst schnell in die Betrachtung bei Reviews mit einfließen.Grundsätzlich sicher. Aber Du weißt besser als ich, welch myriadenfache Probleme es gibt, einfach dadurch wie ein bestimmtes Spiel seine Effekte berechnet. Oft sehr trickreich. Ich kann mir sehr gut vorstellen, dass der eine oder andere Trick TSAA / AAA ziemlich ins Schleudern bringen kann.

Die IHV können versuchen, das im Treiber zu erkennen und zum umgehen, Ob das für alle alten Spiele funktioniert, halte ich für fragwürdig.

Blaire
2005-11-05, 18:11:36
Bisher nicht gefixt.

Stimmt auch so , das hab ich doch auch schon vorher geschrieben das auch die 7800GTX dort ein Problem mit den Spiegelungen in den Gebäuden hat.
Obwohl ich die Blöckchenbildung schon wesentlich schlimmer finde , weil man das sofort sieht. Aber Fehler bringen beide Karten ganz klar.

Lass uns nicht streiten beide Karten haben ihre Wehwehchens. Die bescheissen alle beide wo sie nur können.

Grestorn
2005-11-05, 18:12:42
Es soll an einer NV-Extension liegen, mit der die ATi arge Probleme hatten, soll mit dem 5.9 gefixt worden sein.
Mit 5.9? Das Problem ist seit 4.3 oder so immer mal wieder aufgetreten, schon bei KotoR 1. Bei dem Catalyst, der beim Release von KotoR 1 aktuell war, hats jedenfalls funktioniert, danach mit den meisten neueren nicht mehr. Ich denke, Bugs werden in Monatsfrist behoben?

Und ob die Extension von NV oder von ATI eingeführt wurde, spielt keine Rolle. Wenn sie von ATI unterstützt wird, sollte sich auch funktionieren.

aths
2005-11-05, 18:16:51
Grundsätzlich sicher. Aber Du weißt besser als ich, welch myriadenfache Probleme es gibt, einfach dadurch wie ein bestimmtes Spiel seine Effekte berechnet. Oft sehr trickreich. Ich kann mir sehr gut vorstellen, dass der eine oder andere Trick TSAA / AAA ziemlich ins Schleudern bringen kann.

Die IHV können versuchen, das im Treiber zu erkennen und zum umgehen, Ob das für alle alten Spiele funktioniert, halte ich für fragwürdig.Mir gehts dabei um die generelle Denkweise. Aus deinem Posting las ich sowas wie Demut gegenüber dem Hersteller. Der Hersteller bekommt mein Geld und dafür möchte ich alles sehen, was möglich ist – und nicht auf die nächste Generation vertröstet werden. Aus Herstellersicht ist es verständlich dass es AAA offiziell nur für R520 gibt. Aus Kundensicht ist es ein Unding, dass AAA nicht gleich mit dem Radeon-9700-Launch angeboten wurde. Ich bin Kunde, und habe die Sicht des Kunden und diskutiere mit anderen Kunden nicht darum, wie der Hersteller seinen Profit vergrößern könnte, sondern was uns als Kunden am meisten brächte. Dazu gehört ein möglichst kompatibles TSAA/AAA, und nicht dass das Feature 5% schneller gemacht wird, dafür aber nur in ausgewählten Titeln läuft.

Ist der Kunde anspruchslos genug, lässt er sich trotz der langen Wartezeit auch mit einer Grafik à la HL2 abspeisen: Flimmershader, Content-Patzer, Lowres-Texturen, massive Texturwiederholungsartefakte, Alphatesting-Maschendrahtzäune. Bei letzterem hilft Supersampling. Ein "Antialiasing" im Zeitalter der (leider noch bestehenden) Alphatest-Nutzung sollte TSAA/AAA-Eigenschaft mitsichbringen.

Dunkeltier
2005-11-05, 18:19:19
Extreme Slowdowns, Abstürze bis zum BlueScreen.

Das ist, wie wir gerade wohl erfahren haben, seit dem Catalyst 5.9 gefixt.


Wie in einigen Threads ja schon mehrfach festgestellt wurde, bist Du der einzige, der diese Probleme hat.

Nein, man muß nur lang genug hinschauen, bis das man Fehler sieht.


Fehler im Profil, einfach zu beheben. Tritt m.W. auch nur bei HDR auf, also einem inoffiziellen Modus in FC. Und ist in 81.85 behoben so weit ich weiß.


HDR ist nicht inoffiziell, sonder offiziell. Nur halt anders zu aktivieren, als über lustige Schalter in HL².


Dazu kann ich nichts sagen, denn ich hatte das Problem auf 2 6800GTs und 2 7800GTX nicht. Ich bestreite gar nicht, dass es Karten gibt, die dieses Phänomen haben. Aber das ist kaum ein Bug sondern schlicht ein Defekt auf diesen Karten.

Das ist kein Defekt, sondern ein Treiberproblem. Das "Problem" tritt nicht in allen Spielen auf, besonders nicht in denen die grafisch anspruchsvoll sind.



Das Problem hatte ich genau einmal. Irgendein FW hatte diesen Fehler wohl mal.

Das "Problem" verfolgt mich seit der Geforce FX, und mit dem derzeitigen Treiber besteht es immer noch. Es ist nicht beliebig reproduzierbar, sondern kommt dann und wann wenn es will.


Mich wundert immer nur, dass so viele Leute, mich eingschlossen, diese vielen unzähligen Probleme schlicht nicht haben. Nur Du scheinst ein Opfer aller nV Bugs zu sein. nV hat sich gegen Dich verschworen!

Ich schaue genauer hin, und nutze die Karten entsprechend.



Wie soll ein solcher "Bug" gefixt werden, der offenbar nicht am Treiber liegt? Ein Fehler im BIOS oder in der einzelnen Karte lässt sich ja nicht so ohne weiteres beheben...

Ich habe schon andere Bios-Versionen (von anderen Kartenherstellern) ausprobiert. Leider holft dies nicht. Mit der Temperatur hat es ebenso wenig zu tun, die ist absolut ok und im grünen Bereich. Es ist ein Treiberproblem, da nach dem switchen auf dem Desktop und wieder zurück ins Spiel die Taktrate für einige Zeit normal ist. Bis die Karte wieder merkt: "Hey, ich bin durch das alte Spiel nicht zu 100% ausgelastet und schalte nun in den 2D-Modus um..."

Für mich ist sowas der absolute Witz. Ich bei nVidia das x-te mal Premium bezahlt, aber wieder nur ein völlig unzureichendes Produkt erhalten.


/edit: Da stimm ich aths zu, beworbende Features die ICH bezahle will ich auch nutzen können! Und mich nicht vertrösten lassen...

Grestorn
2005-11-05, 18:22:36
Mir gehts dabei um die generelle Denkweise. Aus deinem Posting las ich sowas wie Demut gegenüber dem Hersteller.Also Demut habe ich ganz bestimmt vor keinem der HW-Hersteller.

Eine gewisse Demut habe ich lediglich vor den Menschen, die in der Lage sind, immer besser HW zu designen und zum Laufen zu bekommen. Ganz egal, ob sie bei ATI oder bei nV angestellt sind.

Was ich in dem ursprünglichen Posting an Dunkeltier ausdrücken wollte, ist das nicht-Funktionieren von TSAA in einem alten Spiel (BF1942) kein Bug im eigentlichen Sinne und ganz bestimmt kein Argument, nV schlechtere Treiberqualität zu unterstellen.

Ansonsten hast Du prinzipiell Recht, auch wenn aber leider die perfekte Welt, die Du gerne hättest, leider kaum erreichbar sein wird.

Grestorn
2005-11-05, 18:34:27
Das ist, wie wir gerade wohl erfahren haben, seit dem Catalyst 5.0 gefixt.Seit 5.0 ganz bestimmt nicht. Anfang des Jahres hatte meine Freundin mit KotoR 2 noch massiv Probleme.

Nein, man muß nur lang genug hinschauen, bis das man Fehler sieht.Ach ja, unterstellen wir mal wieder allen zufriedenen nV Kunden sie hätten Tomaten auf den Augen... :rolleyes:

HDR ist nicht inoffiziell, sonder offiziell. Nur halt anders zu aktivieren, als über lustige Schalter in HL².Etwas, das über ein Konsolenkommando aktiviert werden muss, ist nicht offiziell sondern eine Art Tech-Demo. Aber das ist am Thema vorbei, denn das ganze ist kein Treiberbug, sondern lediglich ein Profil-Bug, der wesentlich schneller gefixt wurde, als z.B. der KotoR Bug.

Das ist kein Defekt, sondern ein Treiberproblem. Das "Problem" tritt nicht in allen Spielen auf, besonders nicht in denen die grafisch anspruchsvoll sind. Du meinst also Spiele, die massiv CPU limitiert sind? Denn sonst ist die GraKa ja immer ausgelastet. Also Spiele wie Arx Fatalis? Gothic 1 & 2 z.B.? Oder Q3-Engine Spiele? Mit all denen hatte ich nie ein derartiges Problem, weder auf meiner alten 5800Pro noch auf der 6800GT oder auf der 7800GTX.

Du unterstellst wieder allen, sie hätten Tomaten auf den Augen und könnten Deine angeblichen Bugs nur nicht sehen. Die Arroganz die Du damit ausstrahlst ist wieder mal schlicht unerträglich.

Ich schaue genauer hin, und nutze die Karten entsprechend.Erwähnte ich schon das Wort "Arroganz"?

Für mich ist sowas der absolute Witz. Ich bei nVidia das x-te mal Premium bezahlt, aber wieder nur ein völlig unzureichendes Produkt erhalten.Es ist absolut ok, dass Du von nV nichts mehr wissen willst. Jedem seine Entscheidung. Aber behaupte hier bitte nicht, dass Deine Erfahrungen allgemeingültigkeit hätten, und alle zufriedenen nV User schlicht beschränkt sind, nur weil sie Deine Erfahrungen nicht teilen.

aths
2005-11-05, 18:37:13
Also Demut habe ich ganz bestimmt vor keinem der HW-Hersteller.

Eine gewisse Demut habe ich lediglich vor den Menschen, die in der Lage sind, immer besser HW zu designen und zum Laufen zu bekommen. Ganz egal, ob sie bei ATI oder bei nV angestellt sind.

Was ich in dem ursprünglichen Posting an Dunkeltier ausdrücken wollte, ist das nicht-Funktionieren von TSAA in einem alten Spiel (BF1942) kein Bug im eigentlichen Sinne und ganz bestimmt kein Argument, nV schlechtere Treiberqualität zu unterstellen.

Ansonsten hast Du prinzipiell Recht, auch wenn aber leider die perfekte Welt, die Du gerne hättest, leider kaum erreichbar sein wird.Natürlich nicht. Was sich hoffentlich erreichen lässt, ist, am Anspruchsprofil einiger zu feilen. Doch wenn man sich zu einem Rant bezüglich HL2 hinreißen lässt, kommt ja eher Kontra und Valve-Verteidigung. Ähnlich ists beim so genannten 16x AA, welches winkelabhängig manchmal nur 2x bietet. Für mich ist es irrelevant, ob jemand auf den ersten Blick die Nachteile sieht. Wer auch im direkten Vergleich mit vernünftigem AF auch keine Nachteile sieht, benötigt prinzipiell keine hohen AF-Stufen. Vernünftiges AF ohne starke Winkelabhängigkeit setzt die Leistung effizienter um als der R300/420- bzw. NV40/G70-Stil. Das sehen einige Leute bis heute nicht ein. Da kann man nichts machen – wer ständig in blauer Schrift schreibt, hat imo ohnehin eine gestörte Wahrnehmung was seinen Auftritt angeht, da kann es dann auch Lücken geben wenn es darum geht, andere Tatsachen zu akzeptieren. Langsam, jetzt wo ATI dem Kunden gutes AF bis 8x anbietet, setzt aber das Umdenken beim Kunden in der Breite ein.

Hier klafft ja aus meiner Sicht beim Kunden eine Lücke zwischen vernünftigem Anspruch und dem, was ausreicht, um zufrieden zu sein. Die wenigsten wollen sich mit Überlegungen belasten, was nützlich wäre, sie wollen lieber ihre Hardware im Forum verteidigen. Was auf der HW geht, wird als superwichtig hingestellt, was nur die Konkurrenz kann, kleindiskutiert. Gehen einem die Argumente aus, kann man den Gegenüber immernoch als verblendet oder tendenziös hinstellen, dessen Aussagen deshalb nicht erstgenommen werden müssten.

Funktioniert TSAA in BF1942 nicht, AAA aber schon, sehe ich darin durchaus einen Grund, NV in diesem Punkt Unfähigkeit zu unterstellen. Wie gesagt halte ich es auch für ziemlich schwach, dass sich die 6-er Serie generell nicht treiberseitig nachrüsten lässt. Damit hat NV zwar nie geworben, sorum lässt sich da kein Strick für sie drehen. Doch ATI kanns, NV nicht. Das sollte man so zur Kenntnis nehmen und kann sich dann ja seine Gedanken machen. Verteidigt man jetzt NV mit dem Hinweis, dass TSAA für die 6-er Serie nie angekündigt war, würde das aus meiner Sicht von einer Demutshaltung gegenüber dem Hersteller zeugen. Denn andere (ATI) konnten es ja auch. R300-User erhalten (leider viel zu spät, das sollte man kritisieren) einen Mehrwert (sofern sie in der Registry rumschreiben oder das ATT oder den aTuner nutzen, dass es der Treiber nicht von sich aus anbietet finde ich kritikwürdig), der NV40-User guckt in die Röhre oder darf seine Leistung mit ineffizientem OGSSAA verballern.

Grestorn
2005-11-05, 18:45:09
Funktioniert TSAA in BF1942 nicht, AAA aber schon, sehe ich darin durchaus einen Grund, NV in diesem Punkt Unfähigkeit zu unterstellen. Wie gesagt halte ich es auch für ziemlich schwach, dass sich nicht mal die 6-er Serie treiberseitig nachrüsten lässt. Damit hat NV zwar nie geworben, sorum lässt sich da kein Strick für sie drehen. Doch ATI kanns, NV nicht. Das sollte man so zur Kenntnis nehmen und kann sich dann ja seine Gedanken machen.ATI hat mit AAA einen guten Wurf getan. Hätten sie das auch gemacht, wenn nV vorher nicht TAA angeboten hätte?

Auch andersrum geht das: Die nächste Generation von nV wird wohl ziemlich sicher wieder winkelunabh. AF bieten. Das haben wir ATI zu verdanken (wie aber auch das winkelabhängige AF!).

Die perfekte Karte gibt es momentan nicht. ATI hat aufgeholt und in einigen Aspekten auch überholt. So geht das Spiel weiter, und es ist gut so, denn nur die gegenseitige Konkurrenzsituation hält die Entwicklung am Leben. Ich sehe nicht ein, auf den einen oder anderen einzudreschen und ihm die Pleite an den Hals zu wünschen, denn käme es tatsächlich zu einer Pleite, dann würden wir alle nur verlieren.

Coda
2005-11-05, 18:52:54
Sieht auf den ersten Blick aus wie eine vergrößerte, jedoch nicht gefilterte Textur.Ja fehlendes FP-Filtering bei der ATi halt. Aber in dem Fall könnte man das auch leicht mit nem Pixelshader bilerpen.

Dunkeltier
2005-11-05, 18:55:53
Seit 5.0 ganz bestimmt nicht. Anfang des Jahres hatte meine Freundin mit KotoR 2 noch massiv Probleme.

Ich habe mich verschrieben...



Ach ja, unterstellen wir mal wieder allen zufriedenen nV Kunden sie hätten Tomaten auf den Augen... :rolleyes:

Ne, ich unterstelle vielmehr sehr vielen Usern, "ihr Produkt" verteidigen zu wollen. Was Hardware angeht, bin ich wirklich superkritisch. Wenn ich Fehler finde oder mir solch offensichtliche Dinge wie das Flimmern ins Auge fallen, muß ich einfach meinen Mund aufreißen. Während damals alle die Geforce 6800 GT und ihre Bildqualität bejubelten, habe ich mich direkt erstmal über das Flimmern (extremst in Battlefield) aufgeregt. Und als ich gleich am Erscheinunstag eine Geforce 7800 GTX in den Händen hielt, bin ich erstmal rot angelaufen wegen dem extremen grieseln - während tombman & Co. (die ganzen Fanboys) ihre Penis-Mark Benchmarkbalken spazieren fuhren.

Eine Grafikkarte hat für mich nicht nur dazusein um Bilder zu machen. Ich will die Bilder auch verschönert wissen, zudem sollen auch das drumherum (der Treiber, etc.) alltagstauglich sein. Und das ist bei nVidia seit der Geforce FX nicht mehr gegeben. Seitdem sind die kontinuierlich am abbauen, während Ati immer mehr zulegt.



Etwas, das über ein Konsolenkommando aktiviert werden muss, ist nicht offiziell sondern eine Art Tech-Demo. Aber das ist am Thema vorbei, denn das ganze ist kein Treiberbug, sondern lediglich ein Profil-Bug, der wesentlich schneller gefixt wurde, als z.B. der KotoR Bug.

Sicher, das ganze Game ist eine Techdemo... Für mich hat sowas zu funktionieren, Punkt.



Du meinst also Spiele, die massiv CPU limitiert sind? Denn sonst ist die GraKa ja immer ausgelastet. Also Spiele wie Arx Fatalis? Gothic 1 & 2 z.B.? Oder Q3-Engine Spiele? Mit all denen hatte ich nie ein derartiges Problem, weder auf meiner alten 5800Pro noch auf der 6800GT oder auf der 7800GTX.

Diese Spiele habe ich nicht aufgezählt, ich meine noch exotischere Sachen.


Du unterstellst wieder allen, sie hätten Tomaten auf den Augen und könnten Deine angeblichen Bugs nur nicht sehen. Die Arroganz die Du damit ausstrahlst ist wieder mal schlicht unerträglich.

Erwähnte ich schon das Wort "Arroganz"?


Erwähnte ich schon das Wort A********?

Das sind gemachte Erfahrungen, während du nur dumm rumlabern kannst. Du solltest mal an deinen Diskussionstil arbeiten.



Es ist absolut ok, dass Du von nV nichts mehr wissen willst. Jedem seine Entscheidung. Aber behaupte hier bitte nicht, dass Deine Erfahrungen allgemeingültigkeit hätten, und alle zufriedenen nV User schlicht beschränkt sind, nur weil sie Deine Erfahrungen nicht teilen.

Ich habe niemals behauptet, das Ati die Lösung aller Probleme wäre. Allerdings bietet Ati seit längerer Zeit die unter Windows klar besseren Treiber, noch dazu eine bessere Bildqualität (Temp-AA, AAA und "verbessertes" tri-aF - das ganze zum Teil auf alten Karten) lassen grüßen. Und das zu konkurrenzfähigen Preisen. Da fällt mir die Entscheidung doch leicht.

Sicher werde ich auch bei Ati wieder Fehler finden und 'nen Bash-Thread eröffnen, allerdings gestaltet sich dies mehr zur Suche der Nadel im Heuhaufen.

Coda
2005-11-05, 18:58:57
Erwähnte ich schon das Wort A********?

Das sind gemachte Erfahrungen, während du nur dumm rumlabern kannst. Du solltest mal an deinen Diskussionstil arbeiten.Im Glashaus nicht mit Steinen werfen und so...

Sorry, aber Grestorn hat einen weitaus gepflegteren Umgangston als du.

aths
2005-11-05, 19:01:58
Ja fehlendes FP-Filtering bei der ATi halt. Aber in dem Fall könnte man das auch leicht mit nem Pixelshader bilerpen.Ja, in acht Takten vermutlich – NV40 schafft das in zwei Takten.

Coda
2005-11-05, 19:02:53
Das dürfte bei diesem Overlay keinen Unterschied machen, da limitieren eher die ROPs beim Alpha-Blending.

eXodia
2005-11-05, 19:06:13
Ne, ich unterstelle vielmehr sehr vielen Usern, "ihr Produkt" verteidigen zu wollen. Was Hardware angeht, bin ich wirklich superkritisch. Wenn ich Fehler finde oder mir solch offensichtliche Dinge wie das Flimmern ins Auge fallen, muß ich einfach meinen Mund aufreißen. Während damals alle die Geforce 6800 GT und ihre Bildqualität bejubelten, habe ich mich direkt erstmal über das Flimmern (extremst in Battlefield) aufgeregt. Und als ich gleich am Erscheinunstag eine Geforce 7800 GTX in den Händen hielt, bin ich erstmal rot angelaufen wegen dem extremen grieseln - während tombman & Co. (die ganzen Fanboys) ihre Penis-Mark Benchmarkbalken spazieren fuhren.

Also mit dem 78.03 wurde das HQ wieder auf NV40-Niveau gehoben, und 90% aller Texturen die da flimmern, flimmern auch auf ner R420.

Eine Grafikkarte hat für mich nicht nur dazusein um Bilder zu machen. Ich will die Bilder auch verschönert wissen, zudem sollen auch das drumherum (der Treiber, etc.) alltagstauglich sein. Und das ist bei nVidia seit der Geforce FX nicht mehr gegeben. Seitdem sind die kontinuierlich am abbauen, während Ati immer mehr zulegt.

http://hardwareluxx.de/story.php?id=3070 - kein Zeichen von wegen ständig abbauen...

Ich habe niemals behauptet, das Ati die Lösung aller Probleme wäre. Allerdings bietet Ati seit längerer Zeit die unter Windows klar besseren Treiber, noch dazu eine bessere Bildqualität (Temp-AA, AAA und "verbessertes" tri-aF - das ganze zum Teil auf alten Karten) lassen grüßen. Und das zu konkurrenzfähigen Preisen. Da fällt mir die Entscheidung doch leicht.

Also das mit den Treibern kann ich nich bestätigen, hatte da noch nie (bis auf einmal) bei NV Probs, während ein Kumpel mit seiner 9800Pro von Treiberbugs verfolgt wird - ganz zu schweigen davon das meine 9800Pro mir nach 3 Tagen abgeraucht ist :mad:

Und das Ati (R520 ausgenommen) seit dem R300 bis zum R420 nur den selben Chip aufgewärmt hat, würde ich nicht als technische Meisterleistung feiern - find ich Imo enttäuschend.

Greetz

Dunkeltier
2005-11-05, 19:06:27
Im Glashaus nicht mit Steinen werfen und so...

Sorry, aber Grestorn hat einen weitaus gepflegteren Umgangston als du.

Wenn er schon dermaßen überheblich, arrogant, hochnäsig und beleidigend daherkommt... Sowas lasse ich mir nicht gefallen, und schlage verbal zurück. Außerdem habe ich ja kein konkretes Wort genannt, sondern lediglich eine Andeutung offengelassen. Sicher ist sowas daneben, aber ich lasse mich hier nicht als Trottel hinstellen.

aths
2005-11-05, 19:07:46
ATI hat mit AAA einen guten Wurf getan. Hätten sie das auch gemacht, wenn nV vorher nicht TAA angeboten hätte?

Auch andersrum geht das: Die nächste Generation von nV wird wohl ziemlich sicher wieder winkelunabh. AF bieten. Das haben wir ATI zu verdanken (wie aber auch das winkelabhängige AF!).

Die perfekte Karte gibt es momentan nicht. ATI hat aufgeholt und in einigen Aspekten auch überholt. So geht das Spiel weiter, und es ist gut so, denn nur die gegenseitige Konkurrenzsituation hält die Entwicklung am Leben. Ich sehe nicht ein, auf den einen oder anderen einzudreschen und ihm die Pleite an den Hals zu wünschen, denn käme es tatsächlich zu einer Pleite, dann würden wir alle nur verlieren.ATI hätte ohne NVs Vorstoß wahrscheinlich kein AAA angeboten. Vielleicht auch doch. Für gewisse Ideen ist einfach mal die Zeit reif, so setzte sich z. B. MSAA, oder überhaupt MSAA durch.

Dass NV im G80 wieder vernünftiges AF anbietet halte ich für möglich aber für nicht besonders wahrscheinlich. Zunächst erwartet uns auch noch eine Schwemme von G70-Ablegern. Alle mit dem hässlichen AF. Es könnte auch sein, dass ATI dann im R600 das HQ-AF wieder fallenlässt.

Die perfekte oder ideale Karte gab es nie, gibt es nicht und wird es nie geben. Das ist klar. Ich halte es für äußerst günstig, auf das Angebot für uns Kunden bezogen, dass ATI mit dem R300 endlich Nvidias Grenzen aufzeigen konnte. NV konnte mit dem NV40 dann ATIs Grenzen aufzeigen, und jetzt haben wir wieder mal einen Gleichstand in der (traditionellen) Leistung (gemeint ist 32-Bit-Rendering, kein HDR-Rendering, und nicht viel dynamisches Branching) aber einen BQ-Vorteil beim R520. Finde ich auch gut, dass es immer mal wieder hin- und hergeht.