PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Vergleich der Architektur-Effizienz G70/R520


crane
2005-10-11, 01:26:47
DriverHeaven ist der meines Erachtens interessanten Frage nachgegangen, welche GPU-Architektur effizienter rendern kann.
Dazu wurde bei G70 8 pipes deaktiviert und der Takt, wie bei R520, auf 450:1000 festgesetzt.

http://www.driverheaven.net/articles/efficiency/index.htm

Mich hat das Ergebnis zumindest etwas überrascht - dachte eigentlich die 1800XT ist ähnlich effizient.
Scheint so, als ob NVidia, wenn sie eine 512mb G70 mit gleicher Ram-Taktung wie die 1800XT rausbringen, wohl wieder eindeutig die Performance Krone erobern :)

Grüße

deekey777
2005-10-11, 01:29:32
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3561804#post3561804
Überraschend ist das definitiv nicht.

Spasstiger
2005-10-11, 01:37:45
Überrascht mich auch nicht.
Die GeForce 7800 GTX dürfte mit einer ähnlichen hohen Speicherbandbreite, wie sie die X1800 XT hat, und mit 512 MB in fast allen Benchmarks vorne liegen.

Coda
2005-10-11, 01:48:59
Hätte ich so auch nicht vermutet. Wofür hat ATi dann 320 Mio. Transistoren bei 16PP verbraten - nur für schnelle dynamische Sprünge?

deekey777
2005-10-11, 01:53:37
Hätte ich so auch nicht vermutet. Wofür hat ATi dann 320 Mio. Transistoren bei 16PP verbraten - nur für schnelle dynamische Sprünge?

Massertransistoren. X-D


Viel interessanter wäre eh ein Vergleich zum R480.

Coda
2005-10-11, 01:55:49
Massertransistoren. X-DDas ist gar nicht so abwegig.

tombman
2005-10-11, 06:09:17
geiles Ergebnis, dachte nicht, daß der G70 so effizient ist ;)

Würde zu gern wissen wie eine fx4500 quadro (550core, 512mb ram) sich im Vergleich zur X1800XT schlagen würde (ram müßte man angleichen von Takt her)

Asmodeus
2005-10-11, 07:25:40
geiles Ergebnis, dachte nicht, daß der G70 so effizient ist ;)

Würde zu gern wissen wie eine fx4500 quadro (550core, 512mb ram) sich im Vergleich zur X1800XT schlagen würde (ram müßte man angleichen von Takt her)

Die FX4500 läuft "nur" mit 450 MHz Coretakt, so viel ich weiß. Somit sollte es bald möglich sein, wenn Nvidia auch im Consumerbereich eine 512 MB Karte anbietet, genau die gleiche Leistung auch in besser bezahlbaren Dimensionen zu erhalten (wie ich mich freue :wink: )

Gruss, Carsten.

seahawk
2005-10-11, 08:13:12
Was für ein dummer Vergleich. Das ist als ob man einen Athlon 64 gegen einen P4 mit gleicher Taktfrequenz testet. ATI hat seine Architektur auf hohe Taktfrequenzen ausgelegt und dann liefert sie auch die besseren Ergebnisse.
Dazu ist sie voll SM3.0 kompatibel, hat die bessere HDR-Lösung, HQ-AF, besseres AA. Der Vergleich ist sinnlos.

Raff
2005-10-11, 08:42:24
Der Vergleich ist keineswegs sinnlos, da diese Takraten nicht im Markt auftreten. Es galt nur, zu eruieren, welcher Chip bei gleichen Grundvoraussetzungen effizienter arbeitet ... und das ist eben der der Grünen. Ati erkannte das auch und hat das Ding eben bis ans Limit "übertaktet" ...

MfG,
Raff

seahawk
2005-10-11, 08:57:01
Sinnlos, andere Architektur anderer Ansatz. ATI hat sich bewußt fpr mehr Takt und NV bewußt für mehr Effizienz entschieden. Bei bedien stand diese Entscheodung schon beim Beginn der Entwicklung fest und die Architektur wurde darauf ausgelegt.

Außerdem zählt nur was am Ende rauskommt und da ist NV < ATI.

Marc-
2005-10-11, 09:42:33
Der Vergleich ist keineswegs sinnlos, da diese Takraten nicht im Markt auftreten. Es galt nur, zu eruieren, welcher Chip bei gleichen Grundvoraussetzungen effizienter arbeitet ... und das ist eben der der Grünen. Ati erkannte das auch und hat das Ding eben bis ans Limit "übertaktet" ...

MfG,
Raff

ODER aber von vorneherein auf hohe taktraten ausgerichtet und die architektur danach ausgerichtet.
Der vergleich Intel/AMD ist ein guter... bei gleichen taktraten aufgrund der architektur vollkommen verschiedene leistung. Und auch vollkommen andere skalierung.
Insofern... nichtsaussagender vergleich.

SKYNET
2005-10-11, 09:55:26
Sinnlos, andere Architektur anderer Ansatz. ATI hat sich bewußt fpr mehr Takt und NV bewußt für mehr Effizienz entschieden. Bei bedien stand diese Entscheodung schon beim Beginn der Entwicklung fest und die Architektur wurde darauf ausgelegt.

Außerdem zählt nur was am Ende rauskommt und da ist NV < ATI.


welche entwicklung? der R520 ist doch wieder nur nen aufgebohrter R300, da musste ATI net viel entwickeln, was glaubste warum der chip nicht 100% SM3.0 ist? weils zuviel arbeit gewesen wäre das alles in den R300 mit reinzuquetschen. weils wenns nach ATI gegangen wäre hätten sie sicher auch mehr als 16 pipes und dafür weniger takt, schon aus ökonomischer sicht, weil ATI sicher nicht vorhatte sonen stromfresser und heizer in die welt zu setzen!

das ist jetzt natürlich nur spekualtion.... :rolleyes:


... oder evtl. auch nicht? wer weiß, wer weiß.... :biggrin:

Tomcat70
2005-10-11, 10:06:34
der vergleich ist allemal interessant, wenn auch nicht praxisrelevant. ich bin eher sogar positiv überrascht wie gut der r520 trotz des niedrigen taktes mithalten kann und sogar bei manchen shadervergleichen vorne liegt.
viel mehr hätte mich ein vergleich zum r480 interessiert.....

Marc-
2005-10-11, 10:14:51
welche entwicklung? der R520 ist doch wieder nur nen aufgebohrter R300, da musste ATI net viel entwickeln, was glaubste warum der chip nicht 100% SM3.0 ist? weils zuviel arbeit gewesen wäre das alles in den R300 mit reinzuquetschen. weils wenns nach ATI gegangen wäre hätten sie sicher auch mehr als 16 pipes und dafür weniger takt, schon aus ökonomischer sicht, weil ATI sicher nicht vorhatte sonen stromfresser und heizer in die welt zu setzen!

das ist jetzt natürlich nur spekualtion.... :rolleyes:


... oder evtl. auch nicht? wer weiß, wer weiß.... :biggrin:

Thx 4 sinnlos flame. Skynet kannst dich nicht mal aus EINER bisher gehaltvollen diskussion raushalten und dir dein fanboy geschwalle schenken? würde sicherlich vielen viel nerven kosten. wie man an deiner durchaus etwas infantilen (daher sei dir auch manches verziehen) sig sehen kann magst du ati nicht und es gibt generell nur 2 komponentenhersteller die was taugen. das ham wir nu alle zur kenntnis genommen und du kannst dich ins trollnest zurückziehen... thx.

crane
2005-10-11, 10:19:13
Es wäre ein sinnloser Vergleich, wenn man den R520 auf 450 Coretakt gebracht hätte, aber die 24 pipelines des G70 gelassen hätte ;)
So hat man aber das gleiche Texelfüllratenverhältnis wie sonst auch, aber nun auch die gleiche Speicherbandbreite.

Dadurch lässt sich nun eine starke Tendenz ablesen, dass bei den Benches, wo der R520 vorne liegt, es hauptsächlich an der Speicherbandbreite liegt.
Und da kann/wird Nvidia ja nachlegen :D

Grüße

Grestorn
2005-10-11, 10:22:01
Außerdem zählt nur was am Ende rauskommt und da ist NV < ATI.Ich liebe solche Pauschalausagen.

Wenn man die Realität immer so einfach in Schwarz und Weiß aufgeteilen könnte, wie einige das hier offensichtlich mit ihrer Subjektiven Welt machen, wäre vieles leichter. Ist aber nicht so.

seahawk
2005-10-11, 10:23:35
Wenn wäre es interessant gewesen mehrere Test zu unternehmen.

R520 mit nem Memorytakt vom G70
R520 mit dem Coretakt vom G70
und den durchgeführten

Dann könnte man etwas ablesen.

Grestorn
2005-10-11, 10:23:43
Thx 4 sinnlos flame. Skynet kannst dich nicht mal aus EINER bisher gehaltvollen diskussion raushalten und dir dein fanboy geschwalle schenken? würde sicherlich vielen viel nerven kosten. wie man an deiner durchaus etwas infantilen (daher sei dir auch manches verziehen) sig sehen kann magst du ati nicht und es gibt generell nur 2 komponentenhersteller die was taugen. das ham wir nu alle zur kenntnis genommen und du kannst dich ins trollnest zurückziehen... thx.Meinst Du "NV < ATI" ist kein Fanboy Geschwalle? :rolleyes:

seahawk
2005-10-11, 10:24:43
Ich liebe solche Pauschalausagen.

Wenn man die Realität immer so einfach in Schwarz und Weiß aufgeteilen könnte, wie einige das hier offensichtlich mit ihrer Subjektiven Welt machen, wäre vieles leichter. Ist aber nicht so.

Dis Aussage ist gneauso sinnvoll oder sinnlos wie der durchgeführte Test. :smile:

Grestorn
2005-10-11, 10:27:14
Dis Aussage ist gneauso sinnvoll oder sinnlos wie der durchgeführte Test. :smile:Der Test behauptet aber nicht NV > ATI oder andersrum.

Er sagt lediglich aus, dass die Architektur des G70 Takt- und Pipe-effizienter ist als die vom R520. Und das ist eine Tatsache, genau wie ein A64 Takt-effizienter als ein P4 ist.

Alleine für sich genommen sagt die Takt-Effizienz ja nichts über die Endleistung aus. Und deswegen verstehe ich auch nicht, warum einige sich darüber so aufregen.

Marc-
2005-10-11, 10:36:26
Es wäre ein sinnloser Vergleich, wenn man den R520 auf 450 Coretakt gebracht hätte, aber die 24 pipelines des G70 gelassen hätte ;)
So hat man aber das gleiche Texelfüllratenverhältnis wie sonst auch, aber nun auch die gleiche Speicherbandbreite.

Dadurch lässt sich nun eine starke Tendenz ablesen, dass bei den Benches, wo der R520 vorne liegt, es hauptsächlich an der Speicherbandbreite liegt.
Und da kann/wird Nvidia ja nachlegen :D

Grüße
Wenn das so einfach wäre.... warum hat nv das bisher noch nicht getan um den launch atis richtig zum reinfall zu machen? weil ja prinzipiell vorher vorher das meiste der prinzipiellen ati architektur klar war und nv wohl ziemlich genau wusste was kam. Zudem ist doch wohl auch die frage wie gut der NV chip mit steigender bandbreite skaliert und wieweit er das tut. Es steckt in der ganze diskussion soviel spekulation das man nur von genau den chips ausgehen kann die momentan vorliegen... und zwar auch genauso WIE sie eben vorliegen. alles weitere wird die zukunft zeigen.

Marc-
2005-10-11, 10:41:15
Meinst Du "NV < ATI" ist kein Fanboy Geschwalle? :rolleyes:

Kannst du irgendwo ein zitat bringen wo ich auch nur annähernd sowas sage?
Kannst du wohl kaum deshalb geh ich davon aus auch wenn du mich zitiert hast das du mich nicht meinst.

PingpiN
2005-10-11, 10:41:37
Findet ihr nicht das 2 Spiele ein bisschen zu wenig ist um sich ein Urteil zu bilden. ;) :rolleyes:

crane
2005-10-11, 10:52:25
Wenn das so einfach wäre.... warum hat nv das bisher noch nicht getan um den launch atis richtig zum reinfall zu machen? weil ja prinzipiell vorher vorher das meiste der prinzipiellen ati architektur klar war und nv wohl ziemlich genau wusste was kam. Zudem ist doch wohl auch die frage wie gut der NV chip mit steigender bandbreite skaliert und wieweit er das tut. Es steckt in der ganze diskussion soviel spekulation das man nur von genau den chips ausgehen kann die momentan vorliegen... und zwar auch genauso WIE sie eben vorliegen. alles weitere wird die zukunft zeigen.

Genau genommen ist der Launch der R520XT ein Paperlaunch, da es die Karte erst Anfang Nov.geben wird.
Hier
http://www.driverheaven.net/dhinterviews/adamfoat2/
wird von Nvidia offiziell verlautbart, das es so eine Karte (512MB m.erhöhter Bandbreite) geben wird.
Angeblich, wir werden sehen, soll sie u.U.noch vor der XT im Markt verfügbar sein.

Mit der Skalierbarkeit werden wir sehen, das ist richtig, aber warum sollte die G70 bei gleicher Texelfüllrate nicht auch zumindest annähernd so gut skalieren...

Grüße

Wechselbalg
2005-10-11, 11:13:28
Interessant ist das ganze sicher schon (auch wenn mich noch interessieren würde, ob die Vertexshader des G70 auch auf den 450 Mhz laufen) und überrascht mich jetzt nicht übermäßig, da ich denke das sie außer bei Open GL Spielen bei einem größeren Testparcour zumindest relativ nahe beieinander liegen würden, auch wenn der R520 etwas schlechter als mit Speichertaktvorteil dasteht.

Bedenken sollte man allerding, sofern auch mal Vertexshader limtieren (auch wenn es selten ist), dass hier der R520 normalerweise stark zulegen kann, da die Taktraten ja nicht nur die Füllrate ausgleichen, sondern auch in diesem Bereich einen Vorteil schaffen.

Letzten Endes sind die Unterschiede aber eigentlich schon seit langer Zeit viel zu gering, als dass man sich die Köpfe so dermaßen einschlagen sollte :D

Odal
2005-10-11, 11:22:14
Sinnlos, andere Architektur anderer Ansatz. ATI hat sich bewußt fpr mehr Takt und NV bewußt für mehr Effizienz entschieden. Bei bedien stand diese Entscheodung schon beim Beginn der Entwicklung fest und die Architektur wurde darauf ausgelegt.

Außerdem zählt nur was am Ende rauskommt und da ist NV < ATI.


also das ist nun wirklich unsinn auch ATI versucht eine möglichst effiziente Architektur hinzubekommen Ati hatte nur das problem das sie immer eine generation technologisch zurücklagen und entsprechend viel dazustricken mussten, und jetzt eben technologisch praktisch gleichzogen...da bleibt nicht soviel zeit/erfahrung um zu optimieren.

reunion
2005-10-11, 11:25:31
Der Vergleich ist keineswegs sinnlos, da diese Takraten nicht im Markt auftreten. Es galt nur, zu eruieren, welcher Chip bei gleichen Grundvoraussetzungen effizienter arbeitet ... und das ist eben der der Grünen. Ati erkannte das auch und hat das Ding eben bis ans Limit "übertaktet" ...

MfG,
Raff


ATi hat das Ding eben nicht bis ans Limit übertaktet, >=650Mhz wurden schon anvisiert, bevor man wusste, wie schnell G70 ist (und ich erwarte auch noch eine XT-PE mit diesen Taktraten, wenn nV mit dem G70@512MB RAM kontern). Deshalb hinkt der Vergleich auch; ATis-Architektur lässt sich wesentlich höher takten, dieser Vorteil wird mittels der Taktangleichung der beiden Chips künstlich zunichte gemacht.

Und seit wann hat Effizienz was mit der pro-Takt-Leistung zu tun?

Tomcat70
2005-10-11, 11:26:49
...da bleibt nicht soviel zeit/erfahrung um zu optimieren.

also optimiert ist das teil sicher aufs extremste, davon kannst du getrost ausgehen. im endeffekt zählt was hinten rauskommt, da spielt die eigentliche architektur eher eine nebenrolle.

Coda
2005-10-11, 11:29:04
Dazu ist sie voll SM3.0 kompatibelnVIDIA auch. ATi hat hingegen keine Vertex-TMUs, was wirklich nur durch einen Trick umgangen wäre. Ich nenne das sicher nicht "voll SM3.0 kompatibel". Es ist aber auch erstmal egal, es gibt wichtigeres...

hat die bessere HDR-LösungSie hat kein FP-Filtering. D.h. gar kein AF auf FP-Texturen, nicht mal winkelabhängiges.

HQ-AF, besseres AA.Ja.

Der Vergleich ist sinnlos.Finde ich nicht, weil die effektiven Pixelpipeline-Cycles/s fast identisch sind bei G70 und R520. Man sieht das R520 ohne den schnelleren Speicher fast verhungern würde.

430Mhz * 24Pipelines = 10320 Megacycles/s
625Mhz * 16Pipelines = 10000 Megacycles/s

ATi den Vorteil einer höher getakteten Architektur zumindest bei den Pixelshadern gar nicht.

Mr. Lolman
2005-10-11, 11:29:24
Der Test behauptet aber nicht NV > ATI oder andersrum.

Er sagt lediglich aus, dass die Architektur des G70 Takt- und Pipe-effizienter ist als die vom R520. Und das ist eine Tatsache, genau wie ein A64 Takt-effizienter als ein P4 ist.


Spielebenches sollten unter vergleichenbaren BQ-Bedingungen ablaufen. Bei Computerbase geschah dies, und schon ist die 7800GTX (@Normatakt) nur mehr 23% vor der X1800XT und nicht mehr 61% wie bei Driverheaven. Auf DHs Effizienzbenchmarks umgerechnet wäre der G70 nur mehr <6% vorm R520 und nicht 41%.

Gaestle
2005-10-11, 11:30:12
Massertransistoren. X-D


Viel interessanter wäre eh ein Vergleich zum R480.

Wenn ich mal bitte auf die letzten drei Balken dieser Seite verweisen darf ( http://www.xbitlabs.com/articles/video/display/radeon-x1000_21.html ), scheint ATi beim Dynamic Branching dicke da zu sein. Außerdem gibt's möglicherweise eine doppelte AF-Implementierung, einmal winkelabhängig und einmal "normal".

Massetransistoren sind sicher auch dabei.

Aber ein R480-Vergleich wäre wirklich interessant.

Grüße

Mr. Lolman
2005-10-11, 11:31:43
Finde ich nicht, weil die effektiven Pixelpipeline-Cycles/s fast identisch sind bei G70 und R520. Man sieht das R520 ohne den schnelleren Speicher fast verhungern würde.

Du kannst dich aber schon an unsere gestrige Diskussion erinnern, bezügl steigendem Wirkungsgrad bei steigender Taktrate. xbitlabs hat Benchmarks wo die x1800xl tw. nur halb soviel min fps erreicht wie die x1800xt.

nVIDIA auch. ATi hat hingegen keine Vertex-TMUs, was wirklich nur durch einen Trick umgangen wäre. Ich nenne das sicher nicht "voll SM3.0 kompatibel". Es ist aber auch erstmal egal, es gibt wichtigeres...


Bestimmst du jetzt was SM3 kompatibel ist? Dieses Feature steht nicht in der SM3 Spec. Außerdem möcht ich nicht wissen welche Caps NV garnicht unterstützt. Lt. Demis Featuremark ist selbst der NV40 einem R300 unterlegen... ;)

stav0815
2005-10-11, 11:46:29
Bestimmst du jetzt was SM3 kompatibel ist? Dieses Feature steht nicht in der SM3 Spec. Außerdem möcht ich nicht wissen welche Caps NV garnicht unterstützt. Lt. Demis Featuremark ist selbst der NV40 einem R300 unterlegen... ;)
Features die nur ein IHV unterstützt, sind sowieso irrellevant.
Genauso wie eine neue Technologie zuerst auch sinnlos ist, bis die breite Masse sich einer fähigen Karte bedient.

Demirug
2005-10-11, 11:50:52
Bestimmst du jetzt was SM3 kompatibel ist? Dieses Feature steht nicht in der SM3 Spec. Außerdem möcht ich nicht wissen welche Caps NV garnicht unterstützt. Lt. Demis Featuremark ist selbst der NV40 einem R300 unterlegen... ;)

Natürlich steht das Feature drin und es gehört zu SM3. Wenn es nicht drin stehen würde könnte man es nur über einen Hack benutzten und nVidia braucht keinen Hack dafür.

ATI hat einfach eine Lücke in der schriftlichen Fixierung der Spec gefunden welche die eigentlichen Intention des SM3 unterläuft.

Die Punktunterschiede zwischen NV40 und R300 kommen dadurch zustande das der R300 eine Menge ungebräuchlicher Textureformate unterstützt und dafür eben Punkte bekommt. Das Teil sollte man nicht so ernst nehmen. Es würde erst dann etwas mehr Sinn machen wenn man Features die von aktuellen Spielen auch genutzt werden stärker gewichtet.

Crushinator
2005-10-11, 11:53:58
welche entwicklung? der R520 ist doch wieder nur nen aufgebohrter R300, da musste ATI net viel entwickeln (...)

das ist jetzt natürlich nur spekualtion.... :rolleyes:

... oder evtl. auch nicht? wer weiß, wer weiß.... :biggrin:
Spekulationen gehören bitte ins Spekulationsforum, und da der Inhalt dieses Beitrages - auch den Beschwerden nach - mit Spam gleichzusetzen ist, gibt es hierfür die regelgemäß vorgesehene Sanktion, in Fachkreisen auch Spampunkt genannt.

Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "über die Webseite und das Forum - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation

Gaestle
2005-10-11, 12:00:31
Natürlich steht das Feature drin und es gehört zu SM3. Wenn es nicht drin stehen würde könnte man es nur über einen Hack benutzten und nVidia braucht keinen Hack dafür.

ATI hat einfach eine Lücke in der schriftlichen Fixierung der Spec gefunden welche die eigentlichen Intention des SM3 unterläuft.

Die Punktunterschiede zwischen NV40 und R300 kommen dadurch zustande das der R300 eine Menge ungebräuchlicher Textureformate unterstützt und dafür eben Punkte bekommt. Das Teil sollte man nicht so ernst nehmen. Es würde erst dann etwas mehr Sinn machen wenn man Features die von aktuellen Spielen auch genutzt werden stärker gewichtet.

Du erwähnst öfter, dass Du den G70 dem R520 vorziehen würdest. Ist das "nur" Deine "Entwickler-Meinung", oder auch Deine "private"?
Wenn Du mal R520 und G70 in konzentrierter Form gegenüberstellen würdest (Pro/Contra was kann dieser besser, was kann jener besser), wie würde das aussehen? Ist die Fähigkeit zum schnellen DB auch real für den R520 von Vorteil oder wann könnte dies der Fall sein?

[edit:]
Hab's zum Teil schon gefunden: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3551522#post3551522

Danke.

Grüße

PS: War meine PM Deiner Meinung nach eine Fehlinterpretation?

seahawk
2005-10-11, 12:47:53
Du kannst dich aber schon an unsere gestrige Diskussion erinnern, bezügl steigendem Wirkungsgrad bei steigender Taktrate. xbitlabs hat Benchmarks wo die x1800xl tw. nur halb soviel min fps erreicht wie die x1800xt.



Das muss aber fast zwangsläufig am Speicher liegen.

Coda
2005-10-11, 12:57:52
Du kannst dich aber schon an unsere gestrige Diskussion erinnern, bezügl steigendem Wirkungsgrad bei steigender Taktrate. xbitlabs hat Benchmarks wo die x1800xl tw. nur halb soviel min fps erreicht wie die x1800xt.Also beim Chip brauchen wir ja mal gar nicht drüber diskuttieren dass das Unfug ist. Ich habe lang drüber nachgedacht, und glaube auch immer noch, dass das beim GPU/Speichertakt unfug ist.

Dieses Feature steht nicht in der SM3 Spec.WTF? Natürlich steht Vertex-Texturing in der SM3.0 Spec.

ATi muss ja sogar Vertexprogramme mit Texture-Instructions fressen, nur kann man dann keine Textur an die Sampler binden. :uclap:

Außerdem möcht ich nicht wissen welche Caps NV garnicht unterstützt. Lt. Demis Featuremark ist selbst der NV40 einem R300 unterlegen... ;)Das was ich sehe ist, dass ATi viele "Caps" unterstützt wie z.B. "verlangt pow2 Texturen", was negativ ist und nicht positiv.

Es gibt absolut keine relevanten Caps die NV4x nicht hat und R4xx hätte.

Quasar
2005-10-11, 13:25:29
WTF? Natürlich steht Vertex-Texturing in der SM3.0 Spec.

Ja, aber die Filterformate, die du dafür anbieten musst, sind optional. Also kannst du problemlos das VTF-Cap melden, verzichtest aber gleichzeitig auf die Filterformate - et voila: ein Tickbox-Feature.

Coda
2005-10-11, 13:30:49
Ja, aber die Filterformate, die du dafür anbieten musst, sind optional. Also kannst du problemlos das VTF-Cap melden, verzichtest aber gleichzeitig auf die Filterformate - et voila: ein Tickbox-Feature.Das weiß ich selber. Es ist trotzdem ein Hack, denn man akzeptiert ja Vertexprogramme mit Texture-Instructions und war von MS sicher nicht so gedacht.

Ich glaube kaum, dass dem irgendein Entwickler wiedersprechen würde und für keinen sonst ist es relevant was die Karte kann oder nicht. Die Fanboys können sich von mir aus die Köpfe einschlagen, ob R5xx SM3.0 kann oder nicht, für die Entwickler kann sie es nicht vollständig - fertig aus.

Quasar
2005-10-11, 13:36:51
Das weiß ich selber. Es ist trotzdem ein Hack, denn man akzeptiert ja Vertexprogramme mit Texture-Instructions und war von MS sicher nicht so gedacht.

Ich glaube kaum, dass dem irgendein Entwickler wiedersprechen würde und für keinen sonst ist es relevant was die Karte kann oder nicht. Die Fanboys können sich von mir aus die Köpfe einschlagen, ob R5xx SM3.0 kann oder nicht, für die Entwickler kann sie es nicht vollständig - fertig aus.

Das ist die Crux, wenn MS lasche Specs schreibt und jeder IHV quasi machen kann, was er will.

Coda
2005-10-11, 13:38:20
Es ändert trotzdem nichts an der Tatsache für die Entwickler, dass R5xx nicht die komplette SM3.0 Spec erfüllt. Was gibt's da zu diskuttieren? Wie gesagt, die Fanboys können sich die Köpfe drüber einschlagen, aber es ist nunmal so, dass R5xx keine Vertex-TMUs hat X-D

Wenn ein Spiel Vertex-TMUs will und sonst nicht läuft (was sehr unwahrscheinlich ist), dann kann ATI auf die Packung "SM3.0" draufschreiben bis sie schwarz werden und es wird trotzdem nicht laufen.

StefanV
2005-10-11, 13:43:16
Wie gesagt, die Fanboys können sich die Köpfe drüber einschlagen, aber es ist nunmal so, dass R5xx keine Vertex-TMUs hat X-D
Nein, es ist so, das der Treiber der R5xx kein Texturformat meldet, ob die R5xx wirklich keine Vertex TMU haben, ist nichtbekannt...

Es wäre durchaus möglich, das die vorhanden ist, wie halt die MSAA Einheiten a la R300 auf dem R200...

Coda
2005-10-11, 13:43:59
Nein, es ist so, das der Treiber der R5xx kein Texturformat meldet, ob die R5xx wirklich keine Vertex TMU haben, ist nichtbekannt...Das ist jetzt nicht dein Ernst oder?

Es wäre durchaus möglich, das die vorhanden ist, wie halt die MSAA Einheiten a la R300 auf dem R200...Was haben jetzt die nicht-funktionierenden MSAA Einheiten des R200 damit zu tun? Wenn die VTMUs nicht funktionieren, ist der Effekt trotzdem der selbe.

Quasar
2005-10-11, 13:46:23
Es ändert trotzdem nichts an der Tatsache für die Entwickler, dass R5xx nicht die komplette SM3.0 Spec erfüllt. Was gibt's da zu diskuttieren? Wie gesagt, die Fanboys können sich die Köpfe drüber einschlagen, aber es ist nunmal so, dass R5xx keine Vertex-TMUs hat X-D

Wenn ein Spiel Vertex-TMUs will und sonst nicht läuft (was sehr unwahrscheinlich ist), dann kann ATI auf die Packung "SM3.0" draufschreiben bis sie schwarz werden und es wird trotzdem nicht laufen.
Was willst du mit Vertex-TMUs, wenn du keine Vertex-Textur-Formate hast?

Coda
2005-10-11, 13:47:16
Was willst du mit SM3.0 wenn du keine Vertex-TMUs hast? :|

Ihr kapiert es nicht, oder? Ob das Ding jetzt SM7.5 oder SM3.0 heißt ist doch völlig egal. ATi unterstützt das Feature einfach nicht, ob auf der Packung jetzt SM3.0 steht oder nicht.

Quasar
2005-10-11, 13:47:39
Was willst du mit SM3.0 wenn du keine Vertex-TMUs hast? :|
Du weichst aus.

Coda
2005-10-11, 13:48:38
Nein ihr weicht aus, weil ihr Fakten nicht akzeptieren wollt.

Ich behaupte ja gar nicht, dass ATi kein SM3.0 unterstützt, aber das interessiert doch die Entwickler nicht, wenn sie VTMUs gerade brauchen.

Quasar
2005-10-11, 13:50:43
Nein ihr weicht aus, weil ihr Fakten nicht akzeptieren wollt.

Ich behaupte ja gar nicht, dass ATi kein SM3.0 unterstützt, aber das interessiert doch die Entwickler nicht, wenn sie VTMUs gerade brauchen.
Ich habe dich gefragt, was du mit VTMUs willst, wenn du keine entsprechenden Texturformate hast.

Kann man damit großartig etwas anfangen? Bitte beantworte einfach nur die Frage.

Coda
2005-10-11, 13:53:10
Nichts. Und was ändert das jetzt am Thema?

ATi hat keine VTMUs und damit basta. Mehr interessiert die Entwickler nicht - und das zählt und nicht was auf dem Papier steht.

Quasar
2005-10-11, 13:55:58
Nichts. Und was ändert das jetzt am Thema?
[…]
Sehr viel. Denn wenn man sie ohne Texturformate nicht nutzen kann und die Texturformate optional sind, kannst du Ati zwar den Vorwurf machen, die Verbreitung von VTF zu behindern, aber der Spec entspricht das allemal. Du solltest lieber auf MS und seine Partner sauer sein, die immer diese Wischi-Waschi-Specs verbrechen.

Marc-
2005-10-11, 13:57:22
Nichts. Und was ändert das jetzt am Thema?

Und welche bedeutung kommt dem dann zu? Richtig, Keine.
QED und danke für die aufmerksamkeit.

Coda
2005-10-11, 13:58:10
Genau, ATi wurde geradezu dazu gezwungen keine Vertex TMUs einzubauen. Die Armen.

Wenn Entwickler das Feature nutzen wollen ist es ihnen doch sche*** egal wie ATi das Feature meldet. Ob es jetzt keine bindbaren Texturen gibt oder es eine spekulative Cap "D3DVS30_TEXTURING = off" gibt ist doch völlig latte.

StefanV
2005-10-11, 13:59:19
Das ist jetzt nicht dein Ernst oder?
Hast du ev. einen Beweis, das der R520 wirklich keine VTMU hat, abseits der Treibercaps, die ja nichts anderes bedeuten als 'geht nicht'?!

Was haben jetzt die nicht-funktionierenden MSAA Einheiten des R200 damit zu tun? Wenn die VTMUs nicht funktionieren, ist der Effekt trotzdem der selbe.
Weil die vorgesehen waren aber nicht funktionierten, was durchaus möglich ist, ist, das der R520 in der Tat eine VTMU hat, die aber aus irgendwelchen Gründen nicht funktionierte, ebenso kanns sein, das ATI an dem 'Problem' arbeitet und versucht das Problem zu umgehen, Demirug meinte mal, das das durchaus möglich wäre, da der R520 ja Render to Vertexbuffer beherrscht...

Von daher ist nur korrekt, zu behaupten, das die R5xx Reihe _MOMENTAN_ dieses Feature beherrscht...

Coda
2005-10-11, 14:01:11
Weil die vorgesehen waren aber nicht funktionierten, was durchaus möglich ist, ist, das der R520 in der Tat eine VTMU hat, die aber aus irgendwelchen Gründen nicht funktionierteDas ändert rein gar nichts.

ebenso kanns sein, das ATI an dem 'Problem' arbeitet und versucht das Problem zu umgehen, Demirug meinte mal, das das durchaus möglich wäre, da der R520 ja Render to Vertexbuffer beherrscht...Kann sein, aber die Performance davon wäre unterirdisch. Vorher wird ATi viel eher die Entwickler dazu nötigen mit einem D3D-Hack R2V zu benützen.

Von daher ist nur korrekt, zu behaupten, das die R5xx Reihe _MOMENTAN_ dieses Feature beherrscht...Jaja, es geschehen noch Zeichen und Wunder *gähn*

reunion
2005-10-11, 14:02:38
Es ändert trotzdem nichts an der Tatsache für die Entwickler, dass R5xx nicht die komplette SM3.0 Spec erfüllt. Was gibt's da zu diskuttieren? Wie gesagt, die Fanboys können sich die Köpfe drüber einschlagen, aber es ist nunmal so, dass R5xx keine Vertex-TMUs hat X-D

Wenn ein Spiel Vertex-TMUs will und sonst nicht läuft (was sehr unwahrscheinlich ist), dann kann ATI auf die Packung "SM3.0" draufschreiben bis sie schwarz werden und es wird trotzdem nicht laufen.


Ganz davon abgesehen, dass dieses Feature ziemlich unwichtig ist, finde ich es doch relativ belustigend, wie du hier im Namen "der Entwickler" beurteilst, inwiefern R5xx SM3 unterstützt. Die Specs von MS werden jedenfalls erfüllt, und nur das zählt letztendlich. Einen relevanten Nachteil wird R5xx aufgrund dieses fehlenden Features IMO ohnehin nicht haben.

Quasar
2005-10-11, 14:03:02
Genau, ATi wurde geradezu dazu gezwungen keine Vertex TMUs einzubauen. Die Armen.

Wenn Entwickler das Feature nutzen wollen ist es ihnen doch sche*** egal wie ATi das Feature. Ob es jetzt keine bindbarren Texturen gibt oder es eine spekulative Cap "D3DVS30_TEXTURING = off" gibt ist doch völlig latte.
Nein, natürlich wurde Ati nicht gezwungen – allerdings auch nicht dazu, überhaupt welche einzubauen, weil die Spec es in logischer Konsequenz nicht erforderte. Natürlich wäre es nett gewesen.

Coda
2005-10-11, 14:04:38
Ganz davon abgesehen, dass dieses Feature ziemlich unwichtig ist, finde ich es doch relativ belustigend, wie du hier im Namen "der Entwickler" beurteilst, inwiefern R5xx SM3 unterstützt.Du weißt doch gar nicht was ich mache.

Die Specs von MS werden jedenfalls erfüllt. Einen relevanten Nachteil wird R5xx aufgrund dieses fehlenden Features IMHO ohnehin nicht haben.Sagt mal wollt ihr es kapieren oder nicht? Ich habe bereits mehrmals betont, dass Vertex-Texturing nicht sonderlich relevant ist.

Aber die Tatsache zu akzeptieren dass ATi SM3.0 nicht vollständig erfüllt ist dann ziemlich hart oder was? Hab ich euer Spielzeug kaputt gemacht? Mensch Leute das sind Papierfeatures!

MadManniMan
2005-10-11, 14:04:58
Genau, das HQ des G70 wird noch freigeschaltet, der CBMC der GF2MX funktioniert ab dem neuesten Forceware auch endlich und endlich wird auch HDR auf dem Riva128 möglich :|

Was außer Wunschdenken spricht dafür, daß auf einmal VTMUs freigeschaltet werden sollten?

Quasar
2005-10-11, 14:06:05
[…] da der R520 ja Render to Vertexbuffer beherrscht...
[…]
Das übernehmen aber die Pixelshader samt deren TMUs.

Demirug
2005-10-11, 14:07:01
Dann schauen wir doch mal was MS dazu sagt:

http://msdn.microsoft.com/library/en-us/directx9_c/Shader_Model_3.asp?frame=true

he 3_0 vertex shader model (vs_3_0) expands on the features of vs_2_0 with more powerful register indexing, a set of simplified output registers, the ability to sample a texture in a vertex shader, and the ability to control the rate at which shader inputs are initialized.

und

Texture Sample in a Vertex Shader
Vertex shader 3_0 supports texture lookup in the vertex shader using texldl

Es dürfte wohl offensichtlich sein das dies nicht als Option gedacht war. Bei Optionen findet man nämlich sowas.

Predication
If D3DVS20CAPS_PREDICATION is set, the device supports setp_comp - vs and instruction predication.

ATIs Treiber sagt mir unmissverständlich:
- Ich unterstütze VS 3.0
- Ich unterstütze Point Sampling im Vertex Shader.

Bei der Suche nach einem Textureformat das ich benutzten könnte beisse Ich aber auf Granit.

Crushinator
2005-10-11, 14:10:36
(...) Kann sein, aber die Performance davon wäre unterirdisch. Vorher wird ATi viel eher die Entwickler dazu nötigen mit einem D3D-Hack R2V zu benützen. (...)
Einen kleinen Augenblick bitte, weil ich gerade einen Knoten im Gehirn habe. Es will mir nicht so recht in den Kopf rein, daß die Performance unterschiedlich bzw. geringer wäre, wenn man VT über R2VB intern im Treiber realisieren würde. Wo ist da der Unterschied, ob das nun der Entwickler tut oder der Treiber? Vor allem, warum wäre sie unterirdisch? :confused:

Demirug
2005-10-11, 14:10:48
Das übernehmen aber die Pixelshader samt deren TMUs.

Zudem wird es in DX nicht unterstützt obwohl das nVidia schon seit dem NV30 kann.

seahawk
2005-10-11, 14:12:42
http://www.techpowerup.com/reviews/ATI/WhatToExpect/images/WhatToExpect-5.jpg

Soviel zu SM3.0 und Nvidia :D

Coda
2005-10-11, 14:12:51
Einen kleinen Augenblick bitte, weil ich gerade einen Knoten im Gehirn habe. Es will mir nicht so recht in den Kopf rein, daß die Performance unterschiedlich wäre, wenn man VT über R2VB intern im Treiber realisieren würde. Wo ist da der Unterschied, ob das nun der Entwickler tut oder der Treiber? Vor allem, warum wäre sie unterirdisch? :confused:Man müsste die Vertexshader-Programme erstmal im Pixelshader ausführen dabei in einen Vertexbuffer rendern, und dann das ganze nochmal durch die Pipeline führen.

Das dabei die Vertexshader effektiv gar nicht genützt werden und das Multipass langsamer ist muss ich nicht extra betonen oder?

Soviel zu SM3.0 und Nvidia Du glaubst auch der Bildzeitung, oder? Der Screenshot zeigt übrigens Fehler die schon behoben wurden.

Demirug
2005-10-11, 14:13:04
Einen kleinen Augenblick bitte, weil ich gerade einen Knoten im Gehirn habe. Es will mir nicht so recht in den Kopf rein, daß die Performance unterschiedlich wäre, wenn man VT über R2VB intern im Treiber realisieren würde. Wo ist da der Unterschied, ob das nun der Entwickler tut oder der Treiber? Vor allem, warum wäre sie unterirdisch? :confused:

unterirdisch deswegen nicht aber das ist sowas ähnliches wie beim Geometry Instancing. Wenn der Treiber das intern handelt braucht man weniger API Calls und weniger API Calls brauchen dann auch weniger CPU Leistung.

Wie schnell das R2VB Verfahren von ATI ist kann man mangels eines Tests ja nicht sagen.

Demirug
2005-10-11, 14:16:07
http://www.techpowerup.com/reviews/ATI/WhatToExpect/images/WhatToExpect-5.jpg

Soviel zu SM3.0 und Nvidia :D

Scheinbar konnte nVidia aber trotzdem nachweisen das sie richtig rechnen sonst hätte es keinen WHQL gegeben.

Zudem sind die Test teilweise sowieso komisch. nVidia fällt da durch einen Test weil sie mit 8 Bit Mipgenauigkeit rechnen und nicht nur mit 5 wie der Refrast.

Crushinator
2005-10-11, 14:16:48
(...) Das dabei die Vertexshader effektiv gar nicht genützt werden und das Multipass langsamer ist muss ich nicht extra betonen oder?
OK, dennoch finde ich, daß man es erst in Praxis sehen sollte. VT auf NV-Hardware ist ja auch nicht gerade der Überflieger schlechthin. Vielleicht ist's auf den Radeons dann zwar lanngsamer, aber ob's auch unterirdisch sein wird?

reunion
2005-10-11, 14:19:17
Du weißt doch gar nicht was ich mache.


Selbst wenn du John Carmack persönlich wärst, ändert das nichs daran, dass das deine Meinung ist, und nicht die "der Entwickler".


Sagt mal wollt ihr es kapieren oder nicht? Ich habe bereits mehrmals betont, dass Vertex-Texturing nicht sonderlich relevant ist.

Aber die Tatsache zu akzeptieren dass ATi SM3.0 nicht vollständig erfüllt ist dann ziemlich hart oder was? Hab ich euer Spielzeug kaputt gemacht? Mensch Leute das sind Papierfeatures!

So wie MS die Specs geschrieben hat, werden sie erfüllt.

Armaq
2005-10-11, 14:47:08
Ich finde es recht amüsant, wie probiert wird ein nicht vorhandenes Feature kleinzureden.

Anscheinend kann der r5x0 kein VT. Nv40 und G70 können es in Hardware.

Nvidia hat kein winkelunabhängiges AF. Ati hat eins.
Also EIGENTLICH braucht ja KEIN MENSCH so ein AF, 70% der User wissen nicht, wo sie dieses tolle AF einstellen. Im Treiberpanel? Hääää...

reunion: Der schlimmste aller Fehler ist, sich keines solchen bewußt zu sein.

Inwieweit sich MS "schuldig" gemacht hat, dass ATI dieses Feature nicht unterstützt braucht man nicht länger erörtern. ATI hat sich, warum auch immer, sehr eng an die Spezifikation gehalten, bzw. sie sogar für sich vorteilhaft ausgelegt.
De facto der gleiche Tatbestand wie Unterlassung - für mich.

Inwieweit so etwas sinnvoll, oder nicht sinnvoll ist, kann doch erst von folgenden Generationen beurteilt werden (Hardwaregenerationen/Softwaregenerationen).

Zum Thema, ich finde es schon sehr interessant, dass die Hardware der Grünen leichte Vorteile hat, wenn es um die Abarbeitung von Informationen geht.
Lässt darauf schließen, dass ATI Mühe hat mit dem g70. Ausserdem belegt es für mich eindeutig, dass ATI an etwas anderem herumbastelt und diesem Thema offenbar eine Menge an Bedeutung zukommen lässt (intern).

Coda
2005-10-11, 14:49:41
Selbst wenn du John Carmack persönlich wärst, ändert das nichs daran, dass das deine Meinung ist, und nicht die "der Entwickler".Demirug und ich sind schonmal der Meinung. Zeckensack hat sich selbst schon über die nV-Implementierung aufgeregt. Ich denke nicht, dass irgendein anderer Entwickler sich darüber freuen wird, dass es keine VTMUs in R5xx gibt.

So wie MS die Specs geschrieben hat, werden sie erfüllt.Ich sag's nochmal: Sie können die Specs erfüllen bis sie schwarz werden, das hilft den Entwicklern nichts, wenn sie Vertex-Texturing wollen.

Ob das SM3.0 SM2.0 oder SM1.1 heißt ist doch völlig egal, im Endeffekt zählt nur was die Karte wirklich kann.

EcHo
2005-10-11, 14:51:02
Ich finde es recht amüsant, wie probiert wird ein nicht vorhandenes Feature kleinzureden.

Anscheinend kann der r5x0 kein VT. Nv40 und G70 können es in Hardware.

Nvidia hat kein winkelunabhängiges AF. Ati hat eins.
Also EIGENTLICH braucht ja KEIN MENSCH so ein AF, 70% der User wissen nicht, wo sie dieses tolle AF einstellen. Im Treiberpanel? Hääää...

reunion: Der schlimmste aller Fehler ist, sich keines solchen bewußt zu sein.

Inwieweit sich MS "schuldig" gemacht hat, dass ATI dieses Feature nicht unterstützt braucht man nicht länger erörtern. ATI hat sich, warum auch immer, sehr eng an die Spezifikation gehalten, bzw. sie sogar für sich vorteilhaft ausgelegt.
De facto der gleiche Tatbestand wie Unterlassung - für mich.

Inwieweit so etwas sinnvoll, oder nicht sinnvoll ist, kann doch erst von folgenden Generationen beurteilt werden (Hardwaregenerationen/Softwaregenerationen).

Zum Thema, ich finde es schon sehr interessant, dass die Hardware der Grünen leichte Vorteile hat, wenn es um die Abarbeitung von Informationen geht.
Lässt darauf schließen, dass ATI Mühe hat mit dem g70. Ausserdem belegt es für mich eindeutig, dass ATI an etwas anderem herumbastelt und diesem Thema offenbar eine Menge an Bedeutung zukommen lässt (intern).


FULL ACK!

deekey777
2005-10-11, 14:56:55
Wird VT eigentlich in Far Cry benutzt (Patch 1.32)?

In der ReadMe zu einem Patch (der Name des Spiels fehlt mir nicht ein) stand auch mal was von ATis SM3.0a, hat dies was mit dem Fehlen von VT zu tun?

Coda
2005-10-11, 14:59:25
Soweit ich weiß nicht. Das Wasser ist ja nur eine Fläche in Far Cry und sonst sehe ich keinen Verwendungszweck im Moment.

derMeister
2005-10-11, 14:59:52
nVidia schießt gern mal über's Ziel hinaus und versucht MS hier und da was vorzumachen, das wird aber nie gelingen, es sei denn sie bringen ein neues OS was XP und Vista ablöst.
Ich find es besser, wenn sich Chiphersteller an Vorgaben der Softwarehersteller halten so wie es ATI tut.
Mag sein das ATI langsamer ist, und? Dafür steht die Bildqualie über der von nV, das alles was zählt, mögen die fps Erbsenzähler glücklich werden -g-

Coda
2005-10-11, 15:04:01
nVidia schießt gern mal über's Ziel hinaus und versucht MS hier und da was vorzumachen, das wird aber nie gelingen, es sei denn sie bringen ein neues OS was XP und Vista ablöst.
Ich find es besser, wenn sich Chiphersteller an Vorgaben der Softwarehersteller halten so wie es ATI tut.Niemand ist über's Ziel hinausgeschlossen. Aus dem Wortlaut der DX Dokumentation würde jeder rational denkend Mensch (!= ATi-Fanboy) rauslesen, dass Vertex-Texturing im SM3.0 gefordert wird.

Siehe http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3564362&postcount=62

derMeister
2005-10-11, 15:09:57
Könnte es am Treiber liegen :wink:
Warum bringt sonst nV alle zwei Wochen 1 Offizielln und zwei Beta raus?
Und plötzlich steigt nV Performance ( zB FEAR ) drastisch und völlig unerwartet :wink:
Was das Ziel angeht ( DX9 MS=24bit>nV wollte 32bit und konnte 16bit, kurzer Geschichtsausflug )

Grestorn
2005-10-11, 15:10:02
Das ist die Crux, wenn MS lasche Specs schreibt und jeder IHV quasi machen kann, was er will.
Die Spec ist vollständig. Sie ist allerdings kein Gesetzestext.

Was ATI hier gemacht hat, ist nichts als ein übler Trick. Man kann MS hier keinen Vorwurf machen.

deekey777
2005-10-11, 15:14:40
Soweit ich weiß nicht. Das Wasser ist ja nur eine Fläche in Far Cry und sonst sehe ich keinen Verwendungszweck im Moment.

Absolut OT:
http://www.ixbt.com/video2/r520-part2.shtml (Jaja, es ist in Russisch, OMG...)
Erstes Bild ist ein Beispiel für exzellente Anisotropie, das zweite mit Super-Bumpmapping, dann eine Blume mit Unzahl an Polygonen...
Dann die drei Bilder mit dem Meer. Der Text in etwa:
"Und hier ist das hochgelobte Shader-Wasser. Doch wieviele Shader sind hier? Denn es gibt kaum eine Wiederholung! Und dann schaust du dir Far Cry an, und du bewunderst das Wasser, aber wenn du den anisotropen Filter anschaltest, dann ist es aus, die Wasseroberfläche ist geometrisch genau gezeichnet, pfui!" :biggrin:

sklave_gottes
2005-10-11, 15:23:24
Dadurch lässt sich nun eine starke Tendenz ablesen, dass bei den Benches, wo der R520 vorne liegt, es hauptsächlich an der Speicherbandbreite liegt.
Und da kann/wird Nvidia ja nachlegen

Ich wollte da nur eine sache reinschieben.
das ist jetzt eine ernste frage kann mir sie selber zur zeit nicht erklären.
woran leigt es das eine 7800GT@450/1200 bei vielen bensches for einer 7800GTX liegt?
Ich wollte es erst selber nicht glauben,ist aber so.
Anscheinend bringen dem GTX seine 24pixelpipes nicht so viel,weil was anderes wohl blockiert!?Aber was die robs sind es denke mal nicht nur was?
hat da einer mal eine idee?
Ich denke auch das eine gtx mit 16 pixelpipes und 600 core takt viel schnller ist als eine gtx@standart
soviel zum thema es muss am speicher liegen,es wird langsam immer komplizierter mit den chips,so leicht kann man es nicht sagen

reunion
2005-10-11, 15:26:55
Demirug und ich sind schonmal der Meinung. Zeckensack hat sich selbst schon über die nV-Implementierung aufgeregt. Ich denke nicht, dass irgendein anderer Entwickler sich darüber freuen wird, dass es keine VTMUs in R5xx gibt.


Diese Aussage ist völlig konträr zu deiner vorherigen - dem kann ich natürlich zustimmen.


Ich sag's nochmal: Sie können die Specs erfüllen bis sie schwarz werden, das hilft den Entwicklern nichts, wenn sie Vertex-Texturing wollen.

Ob das SM3.0 SM2.0 oder SM1.1 heißt ist doch völlig egal, im Endeffekt zählt nur was die Karte wirklich kann.

Ebenfalls korrekt, das bestreitet allerdings auch niemand.

Quasar
2005-10-11, 15:46:10
Die Spec ist vollständig. Sie ist allerdings kein Gesetzestext.

Was ATI hier gemacht hat, ist nichts als ein übler Trick. Man kann MS hier keinen Vorwurf machen.
Vollständig vielleicht, aber nicht konsistent. Sonst gäbe es so ein Schlupfloch gar nicht.

Black-Scorpion
2005-10-11, 15:53:03
Niemand ist über's Ziel hinausgeschlossen. Aus dem Wortlaut der DX Dokumentation würde jeder rational denkend Mensch (!= ATi-Fanboy) rauslesen, dass Vertex-Texturing im SM3.0 gefordert wird.

Siehe http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3564362&postcount=62
Was bildest du dir eigentlich ein?

Das ausgerechnet du immer alle die nicht deiner Meinung sind als Fanboy bezeichnest ist wirklich schwach.
Das kannst du dir langsam in die Haare schmieren.
Anscheinend kommst du jetzt mit deinen Zahlen nicht mehr weiter und packst bei jeder besten Gelegenheit die Fanboykeule aus.

Raff
2005-10-11, 16:07:07
Äh, Thema? :|

Nochmals: natürlich ist Atis neue Kreation auf die MHz-Keule ausgelegt. Aber warum darf man deswegen nicht analysieren, wer bei gleicher Pipezahl, MHz und Speicherbandbreite den Längsten hat? Ist doch interessant zu wissen. Und wem das nicht gefällt, der kauft sich die Radeon so, wie sie im Laden sein wird: Hochgetaktet, heiß, schnell und schön.

MfG,
Raff

Coda
2005-10-11, 16:16:52
Was bildest du dir eigentlich ein?Ließ den Post von Demirug. Man kann das was MS da schreibt nur absichtlich falsch interpretieren.

Nur weil ATi aus meiner Sicht - nicht als Spieler, schließlich unterhalten wir uns hier über Technik - deutlich mehr Angriffsfläche für Kritik bietet bin ich ein nV-Fanboy? Dass das dynamische branching von NV nicht unterlegen ist behaupte ich doch auch nirgends.

ATi bedeutet für die Entwickler wie schon bei R4xx wiedermal mehr Arbeit. Soll ich da Luftsprünge machen? ATi inverstiert Transistoren mal wieder nur dort, wo sie vor den Spielern gut dastehen, das interessiert mich aber nunmal nicht primär. Ist das so schwer zu verstehen?

Das ausgerechnet du immer alle die nicht deiner Meinung sind als Fanboy bezeichnest ist wirklich schwach.Das ist überhaupt nicht wahr. Nur ist es hier gerade mal wieder ziemlich offensichtlich. Ich mach das hier jetzt schon über nen Jahr mit und habe immer daran geglaubt, dass die Leute es irgendwann begreifen - tun sie aber nicht.

Android
2005-10-11, 16:21:01
Herrrrlischhhh.

Weiter so. Immer schön auf die Fresse. :ubash2:

Ihr Kindsköppe, betet mal schön weiter eure "Firmen" an. :massa:

Coda
2005-10-11, 16:24:17
Diese Aussage ist völlig konträr zu deiner vorherigen - dem kann ich natürlich zustimmen.Inwiefern? Ich glaub ihr lest nicht richtig, oder nur das was ihr lesen wollt.

Ihr Kindsköppe, betet mal schön weiter eure "Firmen" an. :massa:Ich bete gar niemanden an. Ich hatte nur die Feststellung im Thread getätigt, dass ATi SM3.0 nicht vollständig unterstützt und schon kommen sie aus allen Löchern.

Dass das praktisch für die Entwickler auch so ist obwohl ATI SM3.0 draufschreibt interessiert ja keinen.

Was für Folgen für Spiele das hat habe ich hier gar nicht erwähnt - die halte ich für eher gering bis nichtig.

Android
2005-10-11, 16:48:02
@Coda:

Wenn du dich dazu zählst, bitte schön. Falls es dich beruhigt, du warst nicht gemeint.

Es ist doch immer das Gleiche: Offensichtliche Dinge, wie das umgehen der SM3.0 seitens ATI, werden verschwiegen, verdreht oder "fan"atisch bestritten.

Wie soll man denn da bitte schön sachlich diskutieren ?

Gut, ATI hat scheisse gebaut. Die Spieleprogrammierer wird es nicht gerade freuen, aber sie können das Problem halt mit mehr Arbeit umgehen. Wenn sich hier einer beschweren darf, dann die Leute die damit arbeiten müssen. Denn die sind "bedingt" die Gearschten.
Wie gesagt, wir können darüber diskutieren oder versuchen herauszufinden warum das so ist. Aber das Ganze derart hochzuschaukeln ist kindisch.

Klartext: Kein "Spieler" wird das SM3.0-Defizit von ATI bemerken. Was wir aber durchaus bemerken werden, sind die BQ und die fps (teilweise).

Der Effizienz-Vergleich ist durchaus gestattet, aber schwer zu belegen.
Denn: Wie definieren wir eigentlich Effizienz ?

Black-Scorpion
2005-10-11, 16:56:24
Ließ den Post von Demirug. Man kann das was MS da schreibt nur absichtlich falsch interpretieren.
Ich habe dazu garnichts geschrieben.

Es ging dabei nur um deine Wortwahl.
Und die läßt nicht zum ersten mal zu wünschen übrig.

Demirug
2005-10-11, 16:57:41
Android, im Moment kann man das Problem nicht umgehen da ATI nämlich noch nicht gesagt hat wie sie das in die API reintricksen wollen.

reunion
2005-10-11, 16:59:54
Der Effizienz-Vergleich ist durchaus gestattet, aber schwer zu belegen.
Denn: Wie definieren wir eigentlich Effizienz ?

-Leistung/Watt
-Leistung/Euro

Wobei sich die Leistung natürlich schwer definieren lässt.
Leistung/Mhz hat im übrigen nicht das Geringste mit Effizienz zu tun.

Raff
2005-10-11, 17:02:01
-Leistung/Watt
-Leistung/Euro

Wobei sich die Leistung natürlich schwer definieren lässt.

Warum nicht Leistung/MHz oder Leistung/Quad? Gehört alles irgendwo dazu.

Leistung/Mhz hat im übrigen nicht das Geringste mit Effizienz zu tun.

Dann erklär' mir bitte mal, warum. Das ist mir gerade zu "hoch". ;)

MfG,
Raff

Coda
2005-10-11, 17:09:41
Ich habe dazu garnichts geschrieben.

Es ging dabei nur um deine Wortwahl.
Und die läßt nicht zum ersten mal zu wünschen übrig.Was soll ich sonst sagen? Fanatische ATi-Anhänger? Das ist nunmal meine Beobachtung und es ist auch nicht mehr rational.

reunion
2005-10-11, 17:11:08
Dann erklär' mir bitte mal, warum. Das ist mir gerade zu "hoch". ;)

MfG,
Raff


Folgendes Beispiel:
Zwei Chips, beide leisten exakt dasselbe, haben exakt dieselben Features, verbrauchen exakt gleichviel Strom, etc.
Einer taktet mit 1000Mhz und hat 200 Pipelines, der andere taktet mit einem Mhz und hat eine Pipeline. Ist der, der geringer taktet und nur eine Pipeline hat deshalb effizienter? IMHO nein.

Lawmachine79
2005-10-11, 17:16:50
Was für ein dummer Vergleich. Das ist als ob man einen Athlon 64 gegen einen P4 mit gleicher Taktfrequenz testet. ATI hat seine Architektur auf hohe Taktfrequenzen ausgelegt und dann liefert sie auch die besseren Ergebnisse.
Dazu ist sie voll SM3.0 kompatibel, hat die bessere HDR-Lösung, HQ-AF, besseres AA. Der Vergleich ist sinnlos.

Genau deshalb sollte man sich Gedanken machen, ob ATI nicht demnächst auch an ähnliche Grenzen stößt wie Intel. Deshalb verstehe ich ATIs Takt-Orientierung auch nicht. Man weiß doch aus der CPU-Branche was passiert. Intel versucht jetzt krampfhaft, ihren P-M massenmarkttauglich zu machen, damit sie aus diesem Netburst-Dilemna rauskommen.

Raff
2005-10-11, 17:18:44
Folgendes Beispiel:
Zwei Chips, beide leisten exakt dasselbe, haben exakt dieselben Features, verbrauchen exakt gleichviel Strom, etc.
Einer taktet mit 1000Mhz und hat 200 Pipelines, der andere taktet mit einem Mhz und hat eine Pipeline. Ist der, der geringer taktet und nur eine Pipeline hat deshalb effizienter? IMHO nein.

IMHO schon. Doch beim Überlegen nach deinem Beitrag musste ich stutzen ... Meine Definition von Effizienz ist "aus wenig viel machen". Viel Nutzen bei wenig Aufwand. Natürlich kann man darüber streiten, ob es "effizienter" ist, viele Aufgaben bei einem Takt durchjagen zu können oder diese Aufgaben in einfacheren Häppchen auf mehrere Takte zu verteilen ...

MfG,
Raff

Lawmachine79
2005-10-11, 17:19:58
Wenn das so einfach wäre.... warum hat nv das bisher noch nicht getan um den launch atis richtig zum reinfall zu machen? weil ja prinzipiell vorher vorher das meiste der prinzipiellen ati architektur klar war und nv wohl ziemlich genau wusste was kam. Zudem ist doch wohl auch die frage wie gut der NV chip mit steigender bandbreite skaliert und wieweit er das tut. Es steckt in der ganze diskussion soviel spekulation das man nur von genau den chips ausgehen kann die momentan vorliegen... und zwar auch genauso WIE sie eben vorliegen. alles weitere wird die zukunft zeigen.

Wird wohl langsam Zeit fürs 512-Bit Speicherinterface. Man macht sich viel zu abhängig vom Takt. Drehzahl ist an physikalische Grenzen gebunden, Hubraum nicht...

Coda
2005-10-11, 17:21:58
Wird wohl langsam Zeit fürs 512-Bit Speicherinterface.Ja ist es, nur leider bezweifel ich leider dass wir das so bald sehen werden.

Crushinator
2005-10-11, 17:25:16
(...) ATi bedeutet für die Entwickler wie schon bei R4xx wiedermal mehr Arbeit.
Warum? Sie müssen doch nicht SM3 auf den neuen Radeons anbieten. Wenn VT gebraucht wird und das auf den R5XX nicht geht, hat ATi bzw. haben die Besitzer dieser Chips einfach Pech gehabt, oder nicht?
Soll ich da Luftsprünge machen? ATi inverstiert Transistoren mal wieder nur dort, wo sie vor den Spielern gut dastehen, das interessiert mich aber nunmal nicht primär. Ist das so schwer zu verstehen? (...)
Nein, ganz im Gegenteil. Es ist genau so gut nachvollziehbar wie das Verlangen der Spieler nach AA trotz HDR-Rendering, besserem AF und dem üblichen "bitte noch mehr fps". Was dagegen nicht nachvollziehbar ist, ist sich über ungelegte Eier aufzuregen. Ich meine, kein Mensch weiß hier heute und jetzt 100%ig wie und ob ATi das Feature doch noch ermöglichen wird, und ich kann mir nicht vorstellen, daß es der bessere Weg gewesen wäre den Chip als nicht SM3-Kompatibel zu deklarieren.

deekey777
2005-10-11, 17:28:16
Was soll ich sonst sagen? Fanatische ATi-Anhänger? Das ist nunmal meine Beobachtung und es ist auch nicht mehr rational.

Das liegt daran, daß nicht jeder mit festen Definitionen umgehen kann, insbesondere wenn einer der Gesprächspartner sich viel mehr mit Materie auskennt als die anderen.
Irgendwie erinnert mich das etwas an die Diskussion, ob der NV30 ein DX9 Chip ist: Er hatte zwar die Voraussetzungen (über-)erfüllt, doch seine "DX9-Leistung" war... naja.

Wenn in Kürze eine grüne Präsentation ins Internet ihren Weg findet, wo es heißt, der R520 sei kein SM3.0 Chip, da ihm etwas fehlt, wird es hier im Forum sehr lustig sein.

DanMan
2005-10-11, 17:29:33
Folgendes Beispiel:
Zwei Chips, beide leisten exakt dasselbe, haben exakt dieselben Features, verbrauchen exakt gleichviel Strom, etc.
Einer taktet mit 1000Mhz und hat 200 Pipelines, der andere taktet mit einem Mhz und hat eine Pipeline. Ist der, der geringer taktet und nur eine Pipeline hat deshalb effizienter? IMHO nein.
Nun, darüber ließe sich in der Tat streiten. Da sie ja beide gleich viel Leisten kann man über die Render- und Leistungseffizienz nichts aussagen. Es käme wohl darauf an, ob die eine Pipeline günstiger herzustellen ist als die 200. Damit ließe sich dann feststellen welche der Karten kosteneffizienter ist.

Es kommt somit drauf an welche Effizienz man eigentlich messen will. In dem Artikel wurde gemessen, welche Karte (nicht nur Chip) effizienter rendert; und da hat die 7800GTX nunmal die Nase öfter vorne in den durchgeführten Tests.

Coda
2005-10-11, 17:39:21
Warum? Sie müssen doch nicht SM3 auf den neuen Radeons anbieten. Wenn VT gebraucht wird und das auf den R5XX nicht geht, hat ATi bzw. haben die Besitzer dieser Chips einfach Pech gehabt, oder nicht?Und dann ist das Geschrei wieder groß. Siehe SC3.

Für den Hersteller ist es unfein wenn in irgendwelchen Foren dann wieder zu Beukot aufgerufen wird, obwohl eigentlich ATi dafür verantwortlich ist.

Nein, ganz im Gegenteil. Es ist genau so gut nachvollziehbar wie das Verlangen der Spieler nach AA trotz HDR-Rendering, besserem AF und dem üblichen "bitte noch mehr fps". Was dagegen nicht nachvollziehbar ist, sich über ungelegte Eier aufzuregen. Ich meine, kein Mensch weiß hier heute und jetzt 100%ig wie und ob ATi das Feature doch noch ermöglichen wird, und ich kann mir nicht vorstellen, daß es der bessere Weg gewesen wäre den Chip als nicht SM3-Kompatibel zu deklarieren.Das verlang ich ja gar nicht. Es ist nur so, dass ATI SM3 nunmal nicht ganz unterstützt, mehr will und wollte ich gar nicht sagen. Manche Leute drehen einem aus sowas nur gleich nen Strick.

Coda
2005-10-11, 17:40:23
Wenn in Kürze eine grüne Präsentation ins Internet ihren Weg findet, wo es heißt, der R520 sei kein SM3.0 Chip, da ihm etwas fehlt, wird es hier im Forum sehr lustig sein.Ja *seufz*
Da werd ich mich dann aber raushalten, oder einen Verweis auf diesen Thread posten.

TrigPe
2005-10-11, 18:00:25
*Selbstzensur*

Hab Blödsinn geschrieben, bitte löschen.

Crushinator
2005-10-11, 18:02:50
Und dann ist das Geschrei wieder groß. Siehe SC3.
Klar, aber wenn man schon eine eigene Vorstellung davon hat, was wie einfach gefälligst zu funktionieren hat, muß man meiner Meinung nach auch mit dem Echo leben/umgehen können. :)
Das verlang ich ja gar nicht. Es ist nur so, dass ATI SM3 nunmal nicht ganz unterstützt, mehr will und wollte ich gar nicht sagen. Manche Leute drehen einem aus sowas nur gleich nen Strick.
Das beruht IMHO auf Gegenseitigkeit, und die Tonlage spielt mit Sicherheit auch eine Rolle neben dem Kontext. Wenn ich z.B. Leuten erklären möchte, daß flimmernde Texturen auf G70 von nVIDIA gewollt sind, kann ich mich entweder darauf beschränken zu erklären, was denn passiert wenn ein Chip einen programmierbaren Filterkern bezüglich Samples hat, und daß die Zahl der Samples durch den Treiber vorgegeben können, oder ich kann es auf das wesentliche beschränken, in dem ich das andere Wort für Optimierung in den Mund nehme und nVIDIA daraufhin beschimpfe. Ich kann natürlich auch beides tun, am Ende gibt es bei jeder Variante ein anderes Echo. :D

reunion
2005-10-11, 18:04:29
IMHO schon. Doch beim Überlegen nach deinem Beitrag musste ich stutzen ... Meine Definition von Effizienz ist "aus wenig viel machen". Viel Nutzen bei wenig Aufwand.


Wenn beide Chips wie in meinem Beispiel "nach außen hin" exakt gleich sind, ist sowohl der Nutzen, den ich dadurch habe, als auch der Aufwand, den ich dafür betreiben muss identisch.


Natürlich kann man darüber streiten, ob es "effizienter" ist, viele Aufgaben bei einem Takt durchjagen zu können oder diese Aufgaben in einfacheren Häppchen auf mehrere Takte zu verteilen ...

MfG,
Raff


Eben, es ist in jeder Hinsicht irrelevant, wie man die Leistung erreicht.
Es macht in punkto Effizienz keinen Unterschied, ob man eine Monsterpipeline, oder 200 kleinere Pipelines bastelt. Ob ich ein, oder 1000Mhz für diese Leistung benötige. Deshalb sagen Vergleiche wie "Leistung/Pipeline" oder "Leistung/Mhz" auch nichts über die Effizienz aus.

reunion
2005-10-11, 18:20:55
Nun, darüber ließe sich in der Tat streiten. Da sie ja beide gleich viel Leisten kann man über die Render- und Leistungseffizienz nichts aussagen. Es käme wohl darauf an, ob die eine Pipeline günstiger herzustellen ist als die 200. Damit ließe sich dann feststellen welche der Karten kosteneffizienter ist.


Da hab' ich noch gedacht, du hättest es begriffen...


Es kommt somit drauf an welche Effizienz man eigentlich messen will. In dem Artikel wurde gemessen, welche Karte (nicht nur Chip) effizienter rendert; und da hat die 7800GTX nunmal die Nase öfter vorne in den durchgeführten Tests.

...und dann das. Es wurde eben nicht gemessen, welcher Chip effizienter rendert, es wurde nur die Taktrate, sowie die Pipelineanzahl künstlich identisiert. Man hat also zwei von x Faktoren, die für die Leistung verantwortlich sind einander angeglichen. Den Sinn daran möge jeder selbst beurteilen, ich sehe keinen.

Migrator
2005-10-11, 18:25:22
Ja aber das Problem der Definition von Effizienz kann ich verschieden anwenden. Beispielsweise kann ich beide Chips laufen lasssen auf gleicher Auflösung ohne Zuschaltung von Qualitätssettings. Danach steigere ich die Settings immer höher. Spätestens dann wenn die BQ unterschiedlich wird, und ATI hat nunmal eine bessere BQ bei geringfügig weniger fps, geht die Defintion von Effizienz den Bach runter. Was ist nun effizienter. Ein Chip der bessere BQ bei niedriger fps hat oder einer der schlechtere BQ bei höherer fps hat :confused:

Bezüglich des 512-Bit Speicherbuses würde ich sagen, das der eigentlich gar nicht abwegig ist. Seit R300 haben wir 256 Bit, also locker über 3 Jahre. Demnach wäre es doch eigentlich Zeit dafür :confused: oder sehe ich das falsch???

Crushinator
2005-10-11, 18:31:31
(...) Bezüglich des 512-Bit Speicherbuses würde ich sagen, das der eigentlich gar nicht abwegig ist. Seit R300 haben wir 256 Bit, also locker über 3 Jahre. Demnach wäre es doch eigentlich Zeit dafür :confused: oder sehe ich das falsch???
Das sieht Du nicht falsch, aber solange die Luftverdrahtung von mindestens 256 weiteren Pins aus dem kleinen DIE oder technisch äquivalentes noch nicht erfunden worden ist, kann diesem Wunsch schlecht entsprochen werden. ;)

reunion
2005-10-11, 18:38:30
Und dann ist das Geschrei wieder groß. Siehe SC3.

Für den Hersteller ist es unfein wenn in irgendwelchen Foren dann wieder zu Beukot aufgerufen wird, obwohl eigentlich ATi dafür verantwortlich ist.



Die Sachlage ist zB bei HDR plus AA auf R5xx kein bisschen anders.
Auch da haben die G70-User eben Pech gehabt, auch da wird es in Foren dann wieder zu Boykott aufrufen kommen, etc.

Und das, obwohl nV eigentlich dafür verantwortlich ist.
Aber das ist dann eben die andere Seite der Medaille. :rolleyes:

GloomY
2005-10-11, 18:55:46
Das sieht Du nicht falsch, aber solange die Luftverdrahtung von mindestens 256 weiteren Pins aus dem kleinen DIE oder technisch äquivalentes noch nicht erfunden worden ist, kann diesem Wunsch schlecht entsprochen werden. ;)Ich bezweifel, dass das ein technisches Problem ist. Es gibt Chips mit mehr als 3000 Pins (Vektorprozessoren). Da ist bei GPUs wohl noch ein bisschen Luft. :)

Black-Scorpion
2005-10-11, 18:59:47
Die IHVs scheuen afaik eher die Kosten die ein PCB in Entwicklung und Herstellung kostet.

Crushinator
2005-10-11, 18:59:54
Ich bezweifel, dass das ein technisches Problem ist. Es gibt Chips mit mehr als 3000 Pins (Vektorprozessoren). Da ist bei GPUs wohl noch ein bisschen Luft. :)
Nur wie groß ist die Fläche des DIE eines solchen Chips? ;)

DanMan
2005-10-11, 19:13:08
...und dann das. Es wurde eben nicht gemessen, welcher Chip effizienter rendert, es wurde nur die Taktrate, sowie die Pipelineanzahl künstlich identisiert. Man hat also zwei von x Faktoren, die für die Leistung verantwortlich sind einander angeglichen. Den Sinn daran möge jeder selbst beurteilen, ich sehe keinen.
So funktioniert jedes wissenschaftliche Testverfahren. Man hält eine oder mehrere Variablen konstant, und schaut sich an inwiefern sich die freien Variablen verändern. Vom Ergebnis werden dann die Gesetzmäßigkeiten abgeleitet.

Armaq
2005-10-11, 20:03:04
Die Sachlage ist zB bei HDR plus AA auf R5xx kein bisschen anders.
Auch da haben die G70-User eben Pech gehabt, auch da wird es in Foren dann wieder zu Boykott aufrufen kommen, etc.

Und das, obwohl nV eigentlich dafür verantwortlich ist.
Aber das ist dann eben die andere Seite der Medaille. :rolleyes:

Das ist doch einfach unfassbar. Dreist, Dreister, reunion. :D


So nun zum Thema.

Die Spielefirmen werden den Teufel tun und ihr Spiel auf nur eine Firma hin optimieren. Laut der Valve-Umfrage steht es 50/50 bei den gekauften Grafikkarten. Was bei fehlender Unterstützung gleich Umsatzverlust bedeutet.

Man wird eher den Weg von Valve gehen und halt 4 versch. HDR-Modi programmieren (hier geht AA+HDR), oder sich fertige Codes kaufen.
Falls einer mir jetzt sagt, Source hat kein "echtes" HDR: Es sieht aber verdammt gut aus!
Genau daran werden sich 80-90% der Spieler orientieren.

Ich verstehe auch, dass Entwickler sich ein wenig ans Bein gepinkelt fühlen, wenn Rot oder Grün den Seperatisten spielt. Bedeutet halt zusätzliche Arbeit, die keiner braucht.
Nochmal zum Vertex-Texturing, vll. entsteht daraus mal eine ganz tolle superduper Tapeziermethode für zukünftige Anwendungen, von daher bitte nicht kleinreden, oder hoch schaukeln.

Coda
2005-10-11, 20:23:16
Die Sachlage ist zB bei HDR plus AA auf R5xx kein bisschen anders.
Auch da haben die G70-User eben Pech gehabt, auch da wird es in Foren dann wieder zu Boykott aufrufen kommen, etc.

Und das, obwohl nV eigentlich dafür verantwortlich ist.
Aber das ist dann eben die andere Seite der Medaille. :rolleyes:AA kann nicht emuliert werden, also ist es auf jedenfall mal kein Feature für dessen fehlen man die Entwickler verantwortlich machen könnte. Außerdem sehe ich das als Qualitätsverbesserung und nicht als "Effekt".

Es ist klar ersichtlich, dass AA mit HDR in keinem Spiel geht, da wird sicher keinen zum Beukott aufrufen. Aber wehe es fehlt mal ein "Effekt" auf einer bestimmten Karte (war ja mit HL² auf der FX nichts anderes).

ESAD
2005-10-11, 20:58:52
Man wird eher den Weg von Valve gehen und halt 4 versch. HDR-Modi programmieren (hier geht AA+HDR), oder sich fertige Codes kaufen.
Falls einer mir jetzt sagt, Source hat kein "echtes" HDR: Es sieht aber verdammt gut aus!
Genau daran werden sich 80-90% der Spieler orientieren.

genau DAS ist es was den fortschritt einschränkt

derMeister
2005-10-11, 21:06:27
Bei HL2 konnte man aber den DX9 Pfad aber per Konsole eingeben, was aber in deutlich an der Ruckelgrenze bei mir lag. Jedenfalls ging HL2 aber besser als Doom3, obwohl nVidia optimiert.
Kleine Historie:
gF2, gF3ti200, gFX5900 und mit letztgenannter war ich alles andere als zufrieden, DX9 Sticker auf der Retailverpackung aber derbste Ruckler bei UT2k4 zB auf PrimeEval.

Armaq
2005-10-11, 21:19:54
genau DAS ist es was den fortschritt einschränkt

Ich weiss. Dies sollte nur die Konsequenz deutlich herausstellen.

Coda
2005-10-11, 21:29:11
Bei HL2 konnte man aber den DX9 Pfad aber per Konsole eingeben, was aber in deutlich an der Ruckelgrenze bei mir lag. Jedenfalls ging HL2 aber besser als Doom3, obwohl nVidia optimiert.
Kleine Historie:
gF2, gF3ti200, gFX5900 und mit letztgenannter war ich alles andere als zufrieden, DX9 Sticker auf der Retailverpackung aber derbste Ruckler bei UT2k4 zB auf PrimeEval.UT2k4 ist DX8 und eine der Paradedisziplinen der FX.

Odal
2005-10-11, 23:49:54
Was das Ziel angeht ( DX9 MS=24bit>nV wollte 32bit und konnte 16bit, kurzer Geschichtsausflug )


ähm das zeugt wieder einmal von fehlinformationen :redface:
NV konnte auch 32 bit halt nur einwenig langsam...

microsoft hat, sagen wirs mal so, ihre DX9 spezifikationen ATI freundlich gemacht und auf 24bit Rechengenauigkeit festgesetzt.

Lawmachine79
2005-10-12, 03:10:43
Ja ist es, nur leider bezweifel ich leider dass wir das so bald sehen werden.

Ist das ein technisches oder ein finanzielles Problem?
Irgendwann wird es zwangsläufig passieren. Wahrscheinlich erst dann, wenn hochbezahlte und bestausgebildete Ingenieure bemerken, daß Takt keine beliebig steigerbare Größe ist, wie es die Marketingabteilung (siehe Intel-AMD Story) gerne hätte.
Wo sollten wir laut Roadmaps sein? 5-6GHZ?

Lawmachine79
2005-10-12, 03:12:19
UT2k4 ist DX8 und eine der Paradedisziplinen der FX.

Bei mir lief das aber auch wie Mist, insbesondere diese Karten, wo man irgendwelche historischen Ereignisse der Unreal-Welt nachspielen musste (waren halt die größten Karten...)

Coda
2005-10-12, 03:30:54
Ist das ein technisches oder ein finanzielles Problem?Beides. Das Routing von 512 Speicherleitungen ist ziemlich aufwändig und erfordert mehr PCB-Layer.

Bei mir lief das aber auch wie Mist, insbesondere diese Karten, wo man irgendwelche historischen Ereignisse der Unreal-Welt nachspielen musste (waren halt die größten Karten...)Das liegt dann aber eher nicht an der Grafikkarte. Die FX sind in UT2003/UT2004 ungefähr so schnell wie ihr ATi-Äquivalent, es gibt ja keinen PS2.0-Einbruch.

derMeister
2005-10-12, 08:35:55
ähm das zeugt wieder einmal von fehlinformationen :redface:
NV konnte auch 32 bit halt nur einwenig langsam...

microsoft hat, sagen wirs mal so, ihre DX9 spezifikationen ATI freundlich gemacht und auf 24bit Rechengenauigkeit festgesetzt.

Also Du hast wohl die Lacher auf Deiner Seite. Klar konnte nV35/38 32bit, was nutzt es wenn das programmieren dafür damals einen riesen Mehraufwand bedeutete, den sogut wie keiner mitmachte. Und die MS Vorgaben waren glasklar, 24bit, schlußfertig :wink:

UT2k4 ist DX8 und eine der Paradedisziplinen der FX

Das war wohl auch nix, von wegen Paradedisziplin, hatte ja schließlich beide Kommponenten und es lief nicht sehr gut, trotz seinerzeitigem Topsys.
Jeder der die Map ICETOMB oder PRIMEEVAL kennt, weiß wie es mit einer 5900 ruckelt.

BlackArchon
2005-10-12, 08:39:28
Ein extrem CPU-lastiges DirectX 8-Spiel mit vereinzelten 1.x-Shadern läuft also auf einer Grafikkarte mit einer PS 2.0-Schwäche sehr schlecht. Aha. :rolleyes:

Ich hatte keine Performanceprobleme oder größere -unterschiede bei UT2004 auf verschiedenen Maps zwischen der Radeon 9800 Pro und der FX 5900 (mit Athlon 64 3000+ damals).

Aber eigentlich ist das hier nicht das Thema. :D

Raff
2005-10-12, 08:46:40
Ohne AA/AF sollte die 5900 rein theoretisch wegen des leicht höheren Chiptakts sogar geringfügig schneller sein als die 9800 Pro. Was diesen festgestellten Unterschied ausgemacht haben könnte, dürfte das sehr gute AF des FX - auch mit Bri-Optimierung schick und lahm - gewesen sein. Da zieht Ati davon.

MfG,
Raff

reunion
2005-10-12, 12:49:25
So funktioniert jedes wissenschaftliche Testverfahren. Man hält eine oder mehrere Variablen konstant, und schaut sich an inwiefern sich die freien Variablen verändern. Vom Ergebnis werden dann die Gesetzmäßigkeiten abgeleitet.

Ich weiß, nur ist die praxisrelevanz dieses Testverfahrens doch arg zu bezweifeln - mehr wollte ich damit nicht zum Ausdruck bringen.

AA kann nicht emuliert werden, also ist es auf jedenfall mal kein Feature für dessen fehlen man die Entwickler verantwortlich machen könnte. Außerdem sehe ich das als Qualitätsverbesserung und nicht als "Effekt".

Es ist klar ersichtlich, dass AA mit HDR in keinem Spiel geht, da wird sicher keinen zum Beukott aufrufen. Aber wehe es fehlt mal ein "Effekt" auf einer bestimmten Karte (war ja mit HL² auf der FX nichts anderes).

Okay, du hast insofern Recht, als dass man diese beiden Features nicht miteinander Vergleichen kann. Wobei man erstmal abwarten wird müssen inwieweit VT - besonders jetzt, wo man weiß, dass es R5xx nicht kann - in der Praxis eingesetzt wird. Mit HDR sieht es da wesentlich rosiger aus, so dass man den Vorteil dann auch wirklich nutzen kann.

Das ist doch einfach unfassbar. Dreist, Dreister, reunion. :D


Das war nur Codas Satz auf nV umgemünzt, ergo kein bisschen dreister als das Original.

Demirug
2005-10-12, 12:53:31
Okay, du hast insofern Recht, als dass man diese beiden Features nicht miteinander Vergleichen kann. Wobei man erstmal abwarten wird müssen inwieweit VT - besonders jetzt, wo man weiß, dass es R5xx nicht kann - in der Praxis eingesetzt wird. Mit HDR sieht es da wesentlich rosiger aus, so dass man den Vorteil dann auch wirklich nutzen kann.

Wenn sich die Entwickler auf den Grundsatz zurück ziehen das keine Extrawürste gebraten werden gibt es keine VT Effekte aber auch kein AA im HDR Modus. Muss nämlich beides programmiert werden.

Quasar
2005-10-12, 12:56:51
Wenn sich die Entwickler auf den Grundsatz zurück ziehen das keine Extrawürste gebraten werden gibt es keine VT Effekte aber auch kein AA im HDR Modus. Muss nämlich beides programmiert werden.
Oder kein FP-Filter-HDR. Das muss ja, so wie ich es verstanden habe, auch extra programmiert werden.

reunion
2005-10-12, 12:57:34
Wenn sich die Entwickler auf den Grundsatz zurück ziehen das keine Extrawürste gebraten werden gibt es keine VT Effekte aber auch kein AA im HDR Modus. Muss nämlich beides programmiert werden.

Was muss bei HDR plus AA programmiert werden?
Du meinst, weil ATi keine FP-Texturfilterung unterstützt?

Demirug
2005-10-12, 13:05:01
Oder kein FP-Filter-HDR. Das muss ja, so wie ich es verstanden habe, auch extra programmiert werden.

Sicher, wenn man es sich einfach machen will schreibt man nur einen "Blur" Filter der ohne FP-Filterung auskommt.

Demirug
2005-10-12, 13:06:59
Was muss bei HDR plus AA programmiert werden?

Es muss aktiviert und genutzt werden. Das ist in etwa der gleiche Aufwand wie AA und Postfilter. Warum denkst du wohl das derzeit keines der HDR Spiele AA unterstützt?

Du meinst, weil ATi keine FP-Texturfilterung unterstützt?

Nein, das hat damit nichts zu tun.

Mr. Lolman
2005-10-12, 13:14:54
Es muss aktiviert und genutzt werden. Das ist in etwa der gleiche Aufwand wie AA und Postfilter. Warum denkst du wohl das derzeit keines der HDR Spiele AA unterstützt?


Weils bis vor kurzem keine GraKas gab die HDR+AA können?

Demirug
2005-10-12, 13:22:41
Weils bis vor kurzem keine GraKas gab die HDR+AA können?

Natürlich, aber wenn es einfach so ohne zusätzlichen Code funktionieren würde dürfte das ja kein Hinderniss sein.

TrigPe
2005-10-12, 13:23:57
Weils bis vor kurzem keine GraKas gab die HDR+AA können?

Für die Spieleentwickler gab es sicher Samples vom R520. Bei der Entwicklung zählen ja eher die Features, als die möglicherweise mangelnde Geschwindigkeit der Samples.


MfG

Mr. Lolman
2005-10-12, 13:27:04
Natürlich, aber wenn es einfach so ohne zusätzlichen Code funktionieren würde dürfte das ja kein Hinderniss sein.

Sollte es auch mit zusätzlichem Code nicht sein. Und zwar genausowenig wie es ein Hindernis gewesen ist, einen extra SM3 Pfad zu schreiben um die zusätzlichen Features des NV40 zu unterstützen ;)

Coda
2005-10-12, 13:34:45
Okay, du hast insofern Recht, als dass man diese beiden Features nicht miteinander Vergleichen kann. Wobei man erstmal abwarten wird müssen inwieweit VT - besonders jetzt, wo man weiß, dass es R5xx nicht kann - in der Praxis eingesetzt wird. Mit HDR sieht es da wesentlich rosiger aus, so dass man den Vorteil dann auch wirklich nutzen kann.HDR funktioniert aber auch ohne AA. Vertextexturing must du ewig aufwändig emulieren und 2 verschiedene Codepfade einbauen.

Das fehlende NV4x/G70 HDR-AA bedeutete für die Entwickler keine Mehrarbeit, das Vertex-Texturing wenn es gebraucht wird auf R5xx sehr wohl. Und zwar nicht unerheblich.

Demirug
2005-10-12, 13:39:08
Sollte es auch mit zusätzlichem Code nicht sein. Und zwar genausowenig wie es ein Hindernis gewesen ist, einen extra SM3 Pfad zu schreiben um die zusätzlichen Features des NV40 zu unterstützen ;)

Das Problem war da ATI nicht sagen wollten was sie unterstützen darum haben die Entwickler angenommen das jeder SM3 Chip sowohl Blending wie auch Filterung beherscht. Es war also kein extra Pfad für den NV40 sondern ein Pfad für SM3 Chips.

Crushinator
2005-10-12, 13:42:24
Das Problem war da ATI nicht sagen wollten was sie unterstützen darum haben die Entwickler angenommen das jeder SM3 Chip sowohl Blending wie auch Filterung beherscht. Es war also kein extra Pfad für den NV40 sondern ein Pfad für SM3 Chips.
Echt? Sind Blending und Filterung von FP16-Texturen in SM3-Specs vorgesehen? :O

Coda
2005-10-12, 13:49:45
Vorgesehen, aber nicht vorgeschrieben. NV40 kann FP16-Texturen bilinear, trilinear und sogar anisotropisch filtern.

deekey777
2005-10-12, 13:52:00
Vorgesehen, aber nicht vorgeschrieben. NV40 kann FP16-Texturen bilinear, trilinear und sogar anisotropisch filtern.

Gilt das auch für die NV44er?

Crushinator
2005-10-12, 14:05:45
Vorgesehen, aber nicht vorgeschrieben. NV40 kann FP16-Texturen bilinear, trilinear und sogar anisotropisch filtern.
Na dann... MRTs waren auch optional und trotzdem hat's praktisch keine Sau interessiert obwohl R300 dies fast 1,5 Jahre lang allein anbot. So schlimm kann es seitens Entwickler scheinbar doch nicht sein Feutures nicht zu unterstützen, oder sehe ich jetzt was verkehrt?

Coda
2005-10-12, 14:05:56
Gilt das auch für die NV44er?Ne, der 6200 fehlen sowohl FP-Filtering als auch Blending. Deshalb hab ich auch nicht NV4x geschrieben ;)

Coda
2005-10-12, 14:06:41
Na dann... MRTs waren auch optional und trotzdem hat's praktisch keine Sau interessiert obwohl R300 dies 1,5 Jahre lang anbot. So schlimm kann es seitens Entwickler scheinbar doch nicht sein Feutures nicht zu unterstützen, oder sehe ich jetzt was verkehrt?Entwickler sind faul. Die meisten entwickeln deshalb für den kleinsten gemeinsamen Nenner, gerade auch weil man es allen recht machen will. Man sieht doch wie die Leute reagieren wenn auf "ihrer" Marke etwas fehlt.

Aber ist es wirklich befriedigend dass wir jetzt erstmal ein Weilchen keine Spiele sehen werden die Vorteile aus Vertex-Texturing ziehen könnten?

Crushinator
2005-10-12, 14:11:59
Aber ist es wirklich befriedigend dass wir jetzt erstmal ein Weilchen keine Spiele sehen werden die Vorteile aus Vertex-Texturing ziehen könnten?
Nein, mit Sicherheit nicht. Es ist aber auch nicht befriedigender zu erwarten, daß IHVs praktisch identische Chips bauen.

Demirug
2005-10-12, 14:14:04
Nein, mit Sicherheit nicht. Es ist aber auch nicht befriedigender zu erwarten, daß IHVs praktisch identische Chips bauen.

identisch müssen sie ja nicht sein sondern nur ein identisches Featureset haben. Und mit D3D10 werden sie endlich dazu gezwungen.

Crushinator
2005-10-12, 14:25:45
identisch müssen sie ja nicht sein sondern nur ein identisches Featureset haben. Und mit D3D10 werden sie endlich dazu gezwungen.
In wieweit hätte das denn Vorteile für den Endverbraucher, genannt auch Gamer? Solange die Features nicht schnell genug sind, werden sie eh' kaum Verwendung finden oder man schnipselt sich wieder Workarounds zu recht, damit möglichst überall das beste aus der Situation gemacht wird. Ein Optimum in Form von "alle Chips liefern bei jedem Feature auch genug Performance" wird's nur geben wenn sie alle beim Entwurf weitestgehend gleichen Ansätzen gefolgt sind. Das wiederum würde ich als eine Art Erfindungsstillstand empfinden.

Coda
2005-10-12, 14:28:31
identisch müssen sie ja nicht sein sondern nur ein identisches Featureset haben. Und mit D3D10 werden sie endlich dazu gezwungen.Endlich. Danke Microsoft kann man da mal sagen.

In wieweit hätte das denn Vorteile für den Endverbraucher, genannt auch Gamer?Man muss nicht immer zurückstecken weil ein IHV ein Feature aus einer Laune heraus einfach weglässt.

Solange die Features nicht schnell genug sind, werden sie eh' kaum Verwendung finden oder man schnipselt sich wieder Workarounds zu recht, damit möglichst überall das beste aus der Situation gemacht wird.Das Vorurteil hat sich schon überall festgebrannt oder? SM 3.0 war auf NV4x nie zu langsam und hätte schon zu Lebzeiten zum Vorteil verwendet werden können.

Vor allem mehr Interpolatoren, unlimiterte dependent reads und statische Verzweigungen, sind sehr nützlich und das läuft alles schnell.

Ein Optimum in Form von "alle Chips liefern bei jedem Feature auch genug Performance" wird's nur geben wenn sie alle beim Entwurf weitestgehend gleichen Ansätzen gefolgt sind. Das wiederum würde ich als eine Art Erfindungsstillstand empfinden.Beispiel: Pentium 4 und Athlon 64. Sind ja auch fast identische Architekturen *kopfkratz*

Wir kommen mit DX10 in den Bereich wo GPU-Programmierung ähnlich wie x86 weitgehendst Feature-Complete ist, deshalb kann man die Caps endlich entfernen.

Crushinator
2005-10-12, 14:39:28
(...) Das Vorurteil hat sich schon überall festgebrannt oder? SM 3.0 war auf NV4x nie zu langsam und hätte schon zu Lebzeiten zum Vorteil verwendet werden können.
Deshalb sahen wir ja auch so viele Dinge die aufgrund von Nutzung der SM3-Fähigkeiten dieser Hardware schneller waren als auf der Hardware, die es nicht konnte?

Coda
2005-10-12, 14:40:35
Deshalb sahen wir ja auch so viele Dinge die aufgrund von Nutzung der SM3-Fähigkeiten dieser Hardware schneller waren als auf der Hardware, die es nicht konnte?Ich sagte doch nicht das es schneller ist. Es ist nur für den Entwickler überaus einfacher kein Multipass und nur einen Shader einzusetzen, was er dank SM3.0 kann.

Ich kann die Jungs die SC3 gebastelt haben sehr gut verstehen.

Demirug
2005-10-12, 14:43:41
In wieweit hätte das denn Vorteile für den Endverbraucher, genannt auch Gamer? Solange die Features nicht schnell genug sind, werden sie eh' kaum Verwendung finden oder man schnipselt sich wieder Workarounds zu recht, damit möglichst überall das beste aus der Situation gemacht wird. Ein Optimum in Form von "alle Chips liefern bei jedem Feature auch genug Performance" wird's nur geben wenn sie alle beim Entwurf weitestgehend gleichen Ansätzen gefolgt sind. Das wiederum würde ich als eine Art Erfindungsstillstand empfinden.

Der Vorteil ist das man nicht mehr ständig Nachpatchen muss wenn es neue Hardware mit einer unerwarteten Feature Kombination gibt.

Hardware wird durch Software ersetzt.

Seit wann haben wir 32 Bit x86? Gibt es den einen Erfindungsstillstand bei den Spieleteilen die auf der CPU laufen?

Geschwindigkeit ist dabei wie bei den CPUs nebensächlich. Wenn es einem nicht mehr schnell genug ist muss man sich was neues kaufen.

Crushinator
2005-10-12, 14:43:47
(...) Wir kommen mit DX10 in den Bereich wo GPU-Programmierung ähnlich wie x86 weitgehendst Feature-Complete ist, deshalb kann man die Caps endlich entfernen.
Bitte nicht falsch verstehen. Ich finde das auch unheimlich toll aus Entwicklersicht. Nur, ob es den Erfolg erzielen wird, daß der Gamer den gleichen Effekt auf allen Plattformen in befriedigender Geschwindigkeit zu Gesicht bekommt, wage ich zu bezweifeln.

Demirug
2005-10-12, 14:45:57
Bitte nicht falsch verstehen. Ich finde das auch unheimlich toll aus Entwicklersicht. Nur, ob es den Erfolg erzielen wird, daß der Gamer den gleichen Effekt auf alle Plattformen in befriedigender Geschwindigkeit zu Gesicht bekommt, wage ich zu bezweifeln.

Du forderst doch auch nicht das ein aktuelles Spiel auf einem alten Pentium III in befriedigender Geschwindigkeit läuft, oder?

Coda
2005-10-12, 14:46:01
Bitte nicht falsch verstehen. Ich finde das auch unheimlich toll aus Entwicklersicht. Nur, ob es den Erfolg erzielen wird, daß der Gamer den gleichen Effekt auf alle Plattformen in befriedigender Geschwindigkeit zu Gesicht bekommt, wage ich zu bezweifeln.Es ist fast unmöglich eine Unified-Shader-ALU so zu bauen, dass sie nur bei bestimmten "Effekten" gut funktioniert. Zumindest wird der Unterschied nicht so drastisch sein, dass es unspielbar wird.

Es verhält sich dann wohl eher wie bei P4 vs. A64. Mal ist der eine schneller, mal der andere, aber keiner ist absolut unterlegen.

Crushinator
2005-10-12, 14:52:16
(...) Geschwindigkeit ist dabei wie bei den CPUs nebensächlich. Wenn es einem nicht mehr schnell genug ist muss man sich was neues kaufen.
Das hatten wir doch auch vor gar nicht mal so langer Zeit. Wem die Geschwindigkeit einer NV3X nicht reichte, kaufte sich eine schnellere R3XX. Letztendlich zählt aus Gamersicht nur eins: Noch mehr FPS bei Verzicht darauf, was das schnellere nicht kann.

Demirug
2005-10-12, 14:55:19
Das hatten wir doch auch vor gar nicht mal so langer Zeit. Wem die Geschwindigkeit einer NV3X nicht reichte, kaufte sich eine schnellere R3XX. Letztendlich zählt aus Gamersicht nur eins: Noch mehr FPS bei Verzicht darauf, was das schnellere nicht kann.

Man kann die Effekte ja immer noch skalieren das ist mit einer Konstanten API auch viel leichter. Im Moment skaliert man ja vorallem um die Featuresets herum.

Armaq
2005-10-12, 14:56:07
Nur sind GPUs inzwischen komplexer als CPUs. Wenn ich den Transistorcount sehe. Dualcore ist ja kein komplexerer Chip an sich.

Ich frage mich nur, ob es bei DX10 noch Sinn macht Features anzubieten, die über die Spezifikation hinaus gehen (für die Entwickler). Das würde nämlich einen erheblichen Mehraufwand in Sachen Forschung bedeuten.
Als Beispiel fällt mir da 3DC ein, war zwar geklaut, aber ein Feature, dass die anderen nicht hatten.

Crushinator
2005-10-12, 14:58:44
Du forderst doch auch nicht das ein aktuelles Spiel auf einem alten Pentium III in befriedigender Geschwindigkeit läuft, oder?
Nein, ich fordere nur daß jede Architektur auch seine Stärken ausspielen soll und nicht nur die, die dem jeweiligen Entwickler gefallen.
Man kann die Effekte ja immer noch skalieren das ist mit einer Konstanten API auch viel leichter. Im Moment skaliert man ja vorallem um die Featuresets herum.
Das ist natürlich ein Argument für die zukünftige API. Es ändert jedoch nichts an den Umstand, daß man trotzdem Mehrarbeit vor sich hat, wenn die eine Architektur einen anderen Ansatz bevorzugt als die andere. :)

ShadowXX
2005-10-12, 15:01:12
Vorgesehen, aber nicht vorgeschrieben. NV40 kann FP16-Texturen bilinear, trilinear und sogar anisotropisch filtern.

Mal anderherum gefragt:

Das heisst also, das der r520 zwar AA bei HDR kann (wenn man es vorsieht), dafür das ganze dann aber nicht mal bilinear gefiltert wird??

Das wäre ja Banding ins extreme beim Einsatz des ATI HDR....

Oder hab ich da jetzt was übersehen?

Crushinator
2005-10-12, 15:07:46
Das heisst also, das der r520 zwar AA bei HDR kann (wenn man es vorsieht), dafür das ganze dann aber nicht mal bilinear gefiltert wird?? (...)
Nein, nicht ganz. Nur FP16-Texturen würden keinen Filter abbekommen. Man muß aber nicht zwingend FP16-Texturen einsetzen, und wenn kann man sie zumindest noch bilinear im PS filtern.

Demirug
2005-10-12, 15:10:30
Nein, ich fordere nur daß jede Architektur auch seine Stärken ausspielen soll und nicht nur die, die dem jeweiligen Entwickler gefallen.

Das ist aber nicht mehr bezahlbar. Es wird sich niemand hinsetzten und anfangen die ganzen Shader von Hand für jeden Chip zu optimieren. Und in Zukunft werden die Shader die Hauptarbeit zu erledigen haben.

Das wird genauso ablaufen wie bei den CPUs: "Friss oder Stirb." Oder glaubst du dort kümmert sich jemand ernsthaft darum was auf einer bestimmten CPU gut läuft und was nicht?

Zudem haben die meisten Entwickler sowieso keine Ahnung von der Architektur einer GPU. Sie wollen sich damit auch nicht herumschlagen müssen. Dafür gibt es nämlich die APIs um die Hardware zu virtualisieren. Und die Designer welche die Shader in den Effektsystemen zusammenklicken wollen davon noch weniger wissen.

Demirug
2005-10-12, 15:21:58
Nein, nicht ganz. Nur FP16-Texturen würden keinen Filter abbekommen. Man muß aber nicht zwingend FP16-Texturen einsetzen, und wenn kann man sie zumindest noch bilinear im PS filtern.

Zwingend müsste man noch nicht mal 32 Bit Texturen einsetzten. Leider unterstützen die Chips ja keine 8 Bit (3:3:2) Texturen mehr.

*Ich hoffe man erkennt den Sarkasmus*

Wenn man gefilterte HDR Texturen braucht gibt es für FP16 keinen sauberen Fallback (OK gefilterte FP32 Texturen wären möglich). Denn jede alternative Lösung erfordert Anpasungen im Shader. Ich habe dafür inzwischen ein komplexes Shader und Texture Patch System geschrieben das diesen Job erledigt weil ich es keinem Designer zumuten kann sich selbst darum zu kümmern. Aber Spass macht das nun wirklich nicht.

Crushinator
2005-10-12, 15:22:02
(...) Zudem haben die meisten Entwickler sowieso keine Ahnung von der Architektur einer GPU. Sie wollen sich damit auch nicht herumschlagen müssen. Dafür gibt es nämlich die APIs um die Hardware zu virtualisieren. Und die Designer welche die Shader in den Effektsystemen zusammenklicken wollen davon noch weniger wissen.
Es wird Zeit für Designsysteme mit HW-Profilen für die Effekte. Dann könnten sich die IHVs HW-Seitig so austoben, wie sie lustig sind. Sie müßten nur gute Profile liefern, finde ich.

Demirug
2005-10-12, 15:22:53
Es wird Zeit für Designsysteme mit HW-Profilen für die Effekte. Dann könnten sich die IHVs HW-Seitig so austoben, wie sie lustig sind. Sie müßten nur gute Profile liefern, finde ich.

Wie soll das funktionieren?

Coda
2005-10-12, 15:26:19
Crushinator ich glaube du überschätzt die Anzahl der verschiedenen Möglichkeiten beim Chip-Design ziemlich...

Wenn etwas frei programmierbar ist braucht man keine neuen Features mehr, das ist bei GPUs halt noch ein etwas abwegiger Gedanke in den meisten Köpfen ;)

Crushinator
2005-10-12, 15:31:30
Wie soll das funktionieren?
Klickerklacker, Effekt auswählen, "Machmal-Knopf" drücken und hinten fällt für das gewählte Profil ein oder mehrere Shader raus bzw. eine Fehlermeldung, daß es API/HW-bedingt nicht funktioniert. Ich weiß, das ist mehr als stark vereinfacht ausgedrückt, aber so abstrakt stelle ich mir das eben vor.

Demirug
2005-10-12, 15:36:51
Klickerklacker, Effekt auswählen, "Machmal-Knopf" drücken und hinten fällt für das gewählte Profil ein oder mehrere Shader raus bzw. eine Fehlermeldung, daß es API/HW-bedingt nicht funktioniert. Ich weiß, das ist mehr als stark vereinfacht ausgedrückt, aber so abstrakt stelle ich mir das eben vor.

Und wer soll dieses System programmieren? Die IHVs? Und wenn mein krankes Hirn sich nun einen völlig neuen Effekt ausdenkt?

Crushinator
2005-10-12, 15:45:59
Crushinator ich glaube du überschätzt die Anzahl der verschiedenen Möglichkeiten beim Chip-Design ziemlich...
Es mag sein, daß es so einen Eindruck macht. Aber wenn nicht viele Wege nach Rom führten, hätten wir heute praktisch identische GPU-Designs.
Wenn etwas frei programmierbar ist braucht man keine neuen Features mehr, das ist bei GPUs halt noch ein etwas abwegiger Gedanke in den meisten Köpfen ;)
Selbst wenn sie so frei programmierbar sein werden wie CPUs, wird es das eine geben, was dem einen besser schmeckt als dem anderen, liege ich da völlig falsch?

Coda
2005-10-12, 15:49:16
Die API hindert keinen daran die vielen Wege nach Rom einzuschlagen. Das identische Featureset bei x86 hat auch keinen dran gehindert selbst Dinge wie Transmetas Codemorphing zu machen.

Aber es gibt besimmte Dinge die sind einfach vorgegeben, wie der prinzipielle Aufbau einer ALU, etc.

crane
2005-10-12, 16:08:05
Zum HDR + AA beim R520 noch mal kurz nachgefragt:

Ist HDR+AA also i.d.R.

a. zu langsam für ausreichend Speed zum flüssigen spielen (bei z.B.1280x1024)
und/oder
b. seitens der optischen Qualität mit (zu großen) Abstrichen zu versehen ???

Je nachdem wie Punkt a.+b. aussehene wäre es also u.U.nur ein "nice-to- have-feature", was aber keine große praktische Relevanz aufweist, bzw.wovon man seine Kaufentscheidung G70/R520 abhängig machen sollte ?

Grüße

Crushinator
2005-10-12, 16:13:49
Und wer soll dieses System programmieren? Die IHVs? Und wenn mein krankes Hirn sich nun einen völlig neuen Effekt ausdenkt?
Es dürfte von keinem IHV kommen. Denn dann würde es ja der andere nicht unterstützen wollen, und Dein Effekt könnte weiterhin per Hand geschrieben werden, bis er den Weg in dieses System findet. :)

Razor
2005-10-12, 16:32:25
Sinnlos, andere Architektur anderer Ansatz. ATI hat sich bewußt fpr mehr Takt und NV bewußt für mehr Effizienz entschieden. Bei bedien stand diese Entscheodung schon beim Beginn der Entwicklung fest und die Architektur wurde darauf ausgelegt.

Außerdem zählt nur was am Ende rauskommt und da ist NV < ATI.Ach ja?
:confused:

Razor

P.S.: habe den ganzen Thread noch nicht gelesen... sorry, wenn schon erwähnt.

Coda
2005-10-12, 16:38:44
Es dürfte von keinem IHV kommen. Denn dann würde es ja der andere nicht unterstützen wollen, und Dein Effekt könnte weiterhin per Hand geschrieben werden, bis er den Weg in dieses System findet.Du stellst dir 3D-Programmierung etwas einfach vor.

Es ist nicht einfach SetBumpMapping(enable); PleaseRenderWorld();

Crushinator
2005-10-12, 16:41:07
Ist HDR+AA also i.d.R.

a. zu langsam für ausreichend Speed zum flüssigen spielen (bei z.B.1280x1024)
und/oder
b. seitens der optischen Qualität mit (zu großen) Abstrichen zu versehen ???

Ob das AA dann zu langsam sei, ist noch nicht bekannt und von großen Qualitätsabstrichen kann man nicht wirklich sprechen, weil FP16-Texturen eben nicht für alles verwendet würden, was das heutige HDR-Rendering ausmacht.
Je nachdem wie Punkt a.+b. aussehene wäre es also u.U.nur ein "nice-to- have-feature", was aber keine große praktische Relevanz aufweist, bzw.wovon man seine Kaufentscheidung G70/R520 abhängig machen sollte ?
Das ärgerlichste ist meiner Meinung nach, daß ATi aktuell ein lobenswertes AF liefert, aber eben nicht für alles was bei HDR-Rendering vorkommt. In Wieweit das allein die Kaufentscheidung beeinflußt, muß jeder für sich entscheiden.

Crushinator
2005-10-12, 16:43:57
(...) P.S.: habe den ganzen Thread noch nicht gelesen... sorry, wenn schon erwähnt.
Macht nichts, aber die Zahlen von XT vs. GTX könnten ruhig auch nachgereicht werden.

Mr. Lolman
2005-10-12, 16:44:41
Ach ja?
:confused:

Razor

P.S.: habe den ganzen Thread noch nicht gelesen... sorry, wenn schon erwähnt.

Anscheinend hat das ein Fanboy gebastelt, denn selbst beim Neoseeker (0:42) gewinnt die X1800XT ab und an mal. => Die Grafik ist falsch! (mal abgeshen davon, dass die BQ bei den meisten Tests wiedermal nicht vergleichbar war...

/edit: Achso, die Schlingel vergleichen die X1800XL mit der GTX. Na dann wundert mich garnix mehr...

Demirug
2005-10-12, 16:48:02
Es dürfte von keinem IHV kommen. Denn dann würde es ja der andere nicht unterstützen wollen, und Dein Effekt könnte weiterhin per Hand geschrieben werden, bis er den Weg in dieses System findet. :)

Wer soll es denn sonst schreiben wenn nicht die IHVs?

Crushinator
2005-10-12, 17:02:12
Wer soll es denn sonst schreiben wenn nicht die IHVs?
Dann sollen die sich gefälligst alle an einen Tisch setzen und gemeinsam was meinetwegen in Auftrag geben. Ich weiß, daß das alles Wunschdenken ist, aber wäre es nicht mal ein guter Ansatz?

Black-Scorpion
2005-10-12, 17:02:30
Ach ja?
:confused:

Razor

P.S.: habe den ganzen Thread noch nicht gelesen... sorry, wenn schon erwähnt.
Gehts auch noch dämlicher wie eine XL mit der GTX zu vergleichen?
Sorry, aber das zweite Bild ist ein Witz.

Odal
2005-10-12, 17:03:04
Also Du hast wohl die Lacher auf Deiner Seite. Klar konnte nV35/38 32bit, was nutzt es wenn das programmieren dafür damals einen riesen Mehraufwand bedeutete, den sogut wie keiner mitmachte. Und die MS Vorgaben waren glasklar, 24bit, schlußfertig :wink:



du meinst den aufwand der 0 (in worten: null) war?

Coda
2005-10-12, 17:04:48
Gehts auch noch dämlicher wie eine XL mit der GTX zu vergleichen?
Sorry, aber das zweite Bild ist ein Witz.Wie wär's damit sich nicht über so nen Scheiß aufzuregen?

du meinst den aufwand der 0 (in worten: null) war?Richtig. Es ist mehr Aufwand 16bit zu verwenden, weil man dort mit Präzisionsproblemen zu kämpfen hat.

reunion
2005-10-12, 17:22:40
HDR funktioniert aber auch ohne AA. Vertextexturing must du ewig aufwändig emulieren und 2 verschiedene Codepfade einbauen.


Mal' ne simple Frage:
Ist es in den letzten eineinhalb Jahren, in denen man noch nicht wusste, dass ATi kein VT unterstützt, je eingesetzt worden?


Das fehlende NV4x/G70 HDR-AA bedeutete für die Entwickler keine Mehrarbeit, das Vertex-Texturing wenn es gebraucht wird auf R5xx sehr wohl. Und zwar nicht unerheblich.


Dann wird man eben in Zukunft darauf achten (müssen) - sofern man keine Lust hat diesen Mehraufwnad hinzunehmen - ohne VT auszukommen.

Coda
2005-10-12, 17:27:11
Mal' ne simple Frage:
Ist es in den letzten eineinhalb Jahren, in denen man noch nicht wusste, dass ATi kein VT unterstützt, je eingesetzt worden?Frage dich doch mal warum.

Dann wird man eben in Zukunft darauf achten (müssen) - sofern man keine Lust hat diesen Mehraufwnad hinzunehmen - ohne VT auszukommen.Das Problem ist dabei das Render-To-Vertexbuffer als Alternative in DX9 nichtmal vorgesehen ist.

deekey777
2005-10-12, 17:30:32
Was ist mit dem Vertex-Wasser in Pacific Fighters?

Demirug
2005-10-12, 17:36:44
Dann sollen die sich gefälligst alle an einen Tisch setzen und gemeinsam was meinetwegen in Auftrag geben. Ich weiß, daß das alles Wunschdenken ist, aber wäre es nicht mal ein guter Ansatz?

Nein, das ist kein guter Ansatz. Dann sehen nämlich alle Spiele gleich aus. Warum sind wir wohl von den Fixed Functions weg hin zu programmierbaren Chips? Damit man beliebige eigene Effekte programmieren kann.

Letzten Endes Beschreibt man doch seinen Effekt sowieso zunehmen mathematisch. Wie diese Formel dann umgesetzt wird obliegt dem Treiber.

Crushinator
2005-10-12, 17:50:46
Jetzt mal abgesehen davon, daß alle Spiele nicht gleich aussehen würden, weil der Kontent jeweils durchaus unterschiedlich wäre, was spricht dagegen so ein Designsystem für (faule) Designer zu etablieren?

Demirug
2005-10-12, 18:34:42
Jetzt mal abgesehen davon, daß alle Spiele nicht gleich aussehen würden, weil der Kontent jeweils durchaus unterschiedlich wäre, was spricht dagegen so ein Designsystem für (faule) Designer zu etablieren?

Weil es so wie du es dir vorstellst nicht funktioniert. Am Ende kommen bei jedem Designsystem auch wieder nur Shader heraus die aus den Codefragmenten zusammengesetzt sind die vorher jemand in dem System hinterlegt hat. Da ist aber nichts Chipspezifisch optimiert weil das gar nicht machbar ist. Die Optimierung von Shadercode ist die Sache der Treiber.

Das einzige was man tun kann ist die Semantik der API zu erhöhen. Dadurch öffnet man aber auch gleichzeitig die Tür für Fehlinterpretationen durch den Treiber noch weiter. Zudem gefällt eine Semantische API den Puristen überhaupt nicht. Und auf dem Gebiet der Spieleentwicklung gibt es noch sehr viele Puristen. Deswegen kann man sowas zur Zeit gar nicht durchdrücken.

Ich habe dieses Semantikprinzip zum Teil in der Engine an der ich arbeite verbaut dadurch wird das zwar alles sehr Hardwareunabhängig. Aber irgendwo in der Nähe der API muss ich dann doch wieder einen festen Weg einschlagen. Allerdings würde das jetzt hier etwas zu weit führen.

aths
2005-10-12, 18:37:49
Vorgesehen, aber nicht vorgeschrieben. NV40 kann FP16-Texturen bilinear, trilinear und sogar anisotropisch filtern.Anisotrop. Nicht -isch.




Nein, ich fordere nur daß jede Architektur auch seine Stärken ausspielen soll und nicht nur die, die dem jeweiligen Entwickler gefallen.Ein Entwickler soll also auch Features nutzen, die ihm nicht in den Kram passen? Wäre das so gewesen, hätte der NV30/NV35 einen deutlich besseren Ruf – da die Entwickler in OpenGL die FX12-Leistung genutzt, und FP16/FP32 nur bei Bedarf eingesetzt hätten.

Das ist natürlich ein Argument für die zukünftige API. Es ändert jedoch nichts an den Umstand, daß man trotzdem Mehrarbeit vor sich hat, wenn die eine Architektur einen anderen Ansatz bevorzugt als die andere. :)SM3 ist ja eigentlich als großer Schritt Richtung Einheitlichkeit gedacht. So unterscheiden sich z. B. die Befehlssätze für Vertex- und Pixelshader kaum noch. Und im Gegensatz zu SM2 gibt es kaum Caps. Aus Entwicklersicht dürfte es wenig erfreulich sein, wenn ATI Slalom fährt und da mal ein Feature auslässt. Die Entwickler wollen erst mal das Feature, früher oder später wird es schon die Hardware geben, die dafür schnell genug ist.

Razor
2005-10-12, 19:02:56
Macht nichts, aber die Zahlen von XT vs. GTX könnten ruhig auch nachgereicht werden.Anscheinend hat das ein Fanboy gebastelt, denn selbst beim Neoseeker (0:42) gewinnt die X1800XT ab und an mal. => Die Grafik ist falsch! (mal abgeshen davon, dass die BQ bei den meisten Tests wiedermal nicht vergleichbar war...

/edit: Achso, die Schlingel vergleichen die X1800XL mit der GTX. Na dann wundert mich garnix mehr...Dann schaut Ihr beiden doch einfach mal auf den Post, auf den ich antwortete...
Fällt Euch da was auf?

"NV < ATI" ist schlicht und ergreifend falsch.

Und by the way... die XL (nein, nicht die XT ;-) wird derzeit so zwischen 430 und 450 Teuronen angeboten (zur Erinnerung: das ist die Karte, die aktuell verfügbar ist!). Und irgendwie wird auch die GTX mit exakt diesen Preisen angeboten... tjo... schon merkwürdig, oder?

Insofern ist der Vergleich "X1800XL vs. 7800GTX" doch nicht so ganz abwegig, wie mir scheint... aber das nur am Rande. Und wie sich eine höher getakte 7800GTX mit 512MB gegen eine X1800XT schlagen würde, werden wir auch erst erfahren, wenn es beide Karten gibt. Und wer jetzt mit dem 'Argument' kommt: "Jaaaaa, aber die XT kommt doch irgendwann im November!", dem sage ich: "Abwarten!".

Immer schön Apples to Apples, please.

Und das muss nicht zwangsläufig heißen, dass man die von den IHV's vorgeschlagenen Instanzen gegeneinander vergleichen muss/sollte. Auch ist auf jeden Fall doch eine 7800GTX gegenüber einer gleich teuren (!) X1800XL das wohl bessere 'Schnäppchen'... wenn wird jetzt mal lediglich die Performance betrachten wollen (auch in den anderen Bereichen haben beide Produkte offenbar Vor- und Nachteile).

Just my 2 cents.

Razor

Razor
2005-10-12, 19:04:42
Gehts auch noch dämlicher wie eine XL mit der GTX zu vergleichen?
Sorry, aber das zweite Bild ist ein Witz.Wie war das noch gleich mit dem "bang for the buck"?

Als "Witz" würde ich das derzeit keinesfalls betrachten wollen...
...aber dazu schrieb ich ja gerade was.

Razor

Crushinator
2005-10-12, 19:06:54
Und by the way... die XL (nein, nicht die XT ;-) wird derzeit so zwischen 430 und 450 Teuronen angeboten (zur Erinnerung: das ist die Karte, die aktuell verfügbar ist!). Und irgendwie wird auch die GTX mit exakt diesen Preisen angeboten... tjo... schon merkwürdig, oder?

Ich kann Dir nicht (http://www.geizhals.at/eu/a158173.html) folgen (http://www.geizhals.at/eu/a169147.html). Wie meinen? :)

Grestorn
2005-10-12, 19:12:32
Ich kann Dir nicht (http://www.geizhals.at/eu/a158173.html) folgen (http://www.geizhals.at/eu/a169147.html). Wie meinen? :)
Preise von Versendern über Geizhals, die nicht liefern können, sind nicht die Photonen wert, mit denen man sie lesen kann. Aber das weißt Du sicher.

Preise bei Alternate oder einem ähnlich renomierten Händler, damit könnte man schon eher vergleichen.

Z.B. die billigste 256 MB (!) X1800XT bei Alternate: € 539,- (http://www.alternate.de/html/shop/productDetails.html?artno=JAXG41&)

die billigste (und einzige) X1800XL: €439,- (http://www.alternate.de/html/shop/productDetails.html?artno=JAXG40&)

Und die billigste 7800GTX: € 449,- (http://www.alternate.de/html/shop/productDetails.html?artno=JAXE10&)

Crushinator
2005-10-12, 19:16:31
(...) Preise bei Alternate oder einem ähnlich renomierten Händler, damit könnte man schon eher vergleichen.
OK, dann vergleichen wir die Alternate-Preise: 509,- vs. 449,- zu begutachten im selben Link, bezüglich der XL und nicht XT. :)

Grestorn
2005-10-12, 19:18:10
OK, dann vergleichen wir die Alternate-Preise: 509,- vs. 449,- zu begutachten im selben Link, bezüglich der XL und nicht XT. :)
Ich sehe bei Alternate nix mit € 509,-. Siehe auch meinen editierten Beitrag oben.

Black-Scorpion
2005-10-12, 19:22:44
Wie war das noch gleich mit dem "bang for the buck"?

Als "Witz" würde ich das derzeit keinesfalls betrachten wollen...
...aber dazu schrieb ich ja gerade was.

Razor
Dann benchen wir in Zukunft halt die XL gegen diese Karten.
Kosten ja alle ungefähr das selbe. :rolleyes:

http://www.geizhals.at/eu/a71165.html
http://www.geizhals.at/eu/a69423.html
http://www.geizhals.at/eu/a104044.html
http://www.geizhals.at/eu/a107131.html

Und die X8xxer treten dann gegen diese an.

http://www.geizhals.at/eu/a99844.html

Crushinator
2005-10-12, 19:23:23
Ich sehe bei Alternate nix mit € 509,-. Siehe auch meinen editierten Beitrag oben.
In der ersten meiner Links steht, daß die PNY 509,- bei Alternate kostet. Man kann natürlich eine von Saphire auch mit einer von AOpen vergleichen wenn man will, klar. :ueye:

Quasar
2005-10-12, 19:24:10
Was ist mit dem Vertex-Wasser in Pacific Fighters?
Was soll damit sein? Das läuft über den OpenGL-Renderer, im DX-Pfad gibt's das AFAIK nicht.

Grestorn
2005-10-12, 19:24:17
Jede Menge Geizhals linksAch ja, argumentiert ruhig weiter mit Euren Geizhals-Phantasie-Preisen... :rolleyes:

Grestorn
2005-10-12, 19:25:29
Im ersten meiner Links steht, daß die PNY 509,- bei Alternate kostet. Man kann natürlich eine von Saphire auch mit einer von AOpen vergleichen wenn man will, klar.
Ich habe mir das bei Alternate direkt angesehen. Keine Ahnung, was Geizhals da listet.

(Ich finde es auch ziemlich abgefahren, dass einige Händler (auch Alternate?) extra Links für Geizhals verwendet, die über das interne Shop-System nicht erreichbar sind).

Black-Scorpion
2005-10-12, 19:32:54
Ich habe mir das bei Alternate direkt angesehen. Keine Ahnung, was Geizhals da listet.

(Ich finde es auch ziemlich abgefahren, dass einige Händler (auch Alternate?) extra Links für Geizhals verwendet, die über das interne Shop-System nicht erreichbar sind).
Geizhals listet das was Alternate auch gelistet hat.

http://www.alternate.de/html/shop/productListing4C.html?group=manufacturerName&cat1=9&cat2=256&cat3=000&&treeName=HARDWARE&Level1=Grafik&Level2=Karten+PCIe&Level3=NVIDIA&#PNY

Crushinator
2005-10-12, 19:36:05
(Ich finde es auch ziemlich abgefahren, dass einige Händler (auch Alternate?) extra Links für Geizhals verwendet, die über das interne Shop-System nicht erreichbar sind).
Ich finde es noch abgefahrener, schon jetzt eine XL oder gar XT überhaupt bestellen zu wollen. Ich würde grundsätzlich abwarten wollen bis sich die Preise dem Markt anpassen, und im Momment finde ich die XT/XL-Preise zu hoch für das was sie im direkten Vegleich zur Konkurrenz leisten. Nur um das auch klargestellt zu haben.

Grestorn
2005-10-12, 21:25:52
Geizhals listet das was Alternate auch gelistet hat.

http://www.alternate.de/html/shop/productListing4C.html?group=manufacturerName&cat1=9&cat2=256&cat3=000&&treeName=HARDWARE&Level1=Grafik&Level2=Karten+PCIe&Level3=NVIDIA&#PNY
Und was sagt uns, dass es auch GTX Karten für €509 gibt? Sehr sinnvoll eine billige R520 und eine teure G70 rauszusuchen, oder?

Es ist ja kein Zufall, dass ich jeweils den günstigsten Preis bei einem Händler rausgesucht habe.

Ich dachte, der genannte Preis von €509 bezieht sich auf eine XT. Und da habe ich keine gefunden.

reunion
2005-10-12, 23:53:50
Frage dich doch mal warum.


Weil man es offensichtlich (noch?) nicht gebraucht hat.


Das Problem ist dabei das Render-To-Vertexbuffer als Alternative in DX9 nichtmal vorgesehen ist.

Inwiefern ist das ein Problem?

Demirug
2005-10-13, 00:12:25
Inwiefern ist das ein Problem?

Es sind keine API Funktionen dafür spezifiziert.

Und das was ATI da nun vorhat ist wirklich ganz böse.

reunion
2005-10-13, 00:17:20
Es sind keine API Funktionen dafür spezifiziert.

Und das was ATI da nun vorhat ist wirklich ganz böse.

Was hat man denn vor? - Gibts wieder einen Hack wie bei GI?
Soweit ich diese Diskussion bei B3D mitbekommen haben, sollte "Render to Vertexbuffer" genausogut funktionieren wie VT.

Coda
2005-10-13, 00:53:35
Was hat man denn vor? - Gibts wieder einen Hack wie bei GI?
Soweit ich diese Diskussion bei B3D mitbekommen haben, sollte "Render to Vertexbuffer" genausogut funktionieren wie VT.Es ist ineffizienter, braucht mehr VRAM und ist aufwändiger. Das Ergebnis ist dasselbe.

iam.cool
2005-10-13, 01:22:10
Es ist ineffizienter, braucht mehr VRAM und ist aufwändiger. Das Ergebnis ist dasselbe.


512MB VRam und genügend Bandbreite........


Das ärgerlichste ist meiner Meinung nach, daß ATi aktuell ein lobenswertes AF liefert, aber eben nicht für alles was bei HDR-Rendering vorkommt. In Wieweit das allein die Kaufentscheidung beeinflußt, muß jeder für sich entscheiden.

Dabei ist aber noch recht fraglich in wievern Texturfilterung überhaupt sinnvoll ist bei HDR (defakto Licht-Efekten) lmho solte sich nicht mal auf Screenshots ein unterschied ausmachen lassen. Das fehlen von AA bei NV und HDR dagegen ist nicht zu übersehen und beraubt dem als "Bildverbesserungmasnahme" gedachtem HDR Feature gleich jegliche Daseinsberechtigung auf NV Hardware.

Coda
2005-10-13, 01:52:40
512MB VRam und genügend Bandbreite........Das ändert nichts an der Effizienz. Multipass ist immer teurer, vor allem braucht man auch mehr Drawcalls und die Vertexshader idlen praktisch.

iam.cool
2005-10-13, 02:07:28
Das ändert nichts an der Effizienz. Multipass ist immer teurer, vor allem braucht man auch mehr Drawcalls und die Vertexshader idlen praktisch.


Bei nem Feature dann wenn überhaupt 1-2x pro Game und dann vieleicht in nur einem von 10 Games einzug findet ist das unerheblich.


Das "sub-optimale" 3Dc des G70 dagegen würde ich als wesentlich schwerwiegender bezeichnen was zukünftige Performance angeht.

MadManniMan
2005-10-13, 02:14:26
Bei nem Feature dann wenn überhaupt 1-2x pro Game und dann vieleicht in nur einem von 10 Games einzug findet ist das unerheblich.


Das "sub-optimale" 3Dc des G70 dagegen würde ich als wesentlich schwerwiegender bezeichnen was zukünftige Performance angeht.

Gnäh, warum machst Du den Fehler, anekdotenhaft zu argumentieren? Oder halt, laß mich anders fragen: siehst Du das hier als Philiosophie- oder Empirieforum?

Coda
2005-10-13, 02:27:12
So kommen sie doch immer wenn ihnen die Argumente ausgehen...

3Dc ist auch doof, weil es bei jedem Shader für den man es benützt eine Codeänderung erfodert.

iam.cool
2005-10-13, 02:40:23
So kommen sie doch immer wenn ihnen die Argumente ausgehen...


......deine "Grünangehauchte Erbsenzählerei" mit gelegentlichen Ausweichmanövern wenn der sinn der Features hinterfragt wird ist auch nicht wirklich besser..........


Gnäh, warum machst Du den Fehler, anekdotenhaft zu argumentieren? Oder halt, laß mich anders fragen: siehst Du das hier als Philiosophie- oder Empirieforum?

OT

Philiosophie erstreckt sich doch quer durch alle Wissensgebiete und unterliegt keinen Beschränkungen ähnlich wie die Logic.

MadManniMan
2005-10-13, 02:49:22
......deine "Grünangehauchte Erbsenzählerei" mit gelegentlichen Ausweichmanövern wenn der sinn der Features hinterfragt wird ist auch nicht wirklich besser..........

Nun, bin wohl auf Deiner IL? ;(

iam.cool
2005-10-13, 02:55:10
Nun, bin wohl auf Deiner IL? ;(


Nein, der Begriff Empirie war wir nur gerade nicht gelüufig weshalb ich zuerst die Wissenslücke schliessen muste......

GloomY
2005-10-13, 03:11:03
Sorry, wenn ich das noch eben poste, auch wenn es eigentlich OT ist:
Nur wie groß ist die Fläche des DIE eines solchen Chips? ;)Ich habe lange auf den NEC-Webseiten gesucht, um dort Daten zu finden, aber ohne Erfolg. Letztlich hat mir dann die Webseite vom Earth Simulator (http://www.es.jamstec.go.jp/esc/eng/Hardware/arithmetic.html) geholfen:

Größe des Dies: 20.79mm x 20.79mm =~ 432 mm²
Anzahl der Pins: 5185 :O

Also wie war das denn jetzt noch mal mit den lächerlichen zusätzlichen 256 Leitungen, die für eine Verdoppelung der Speicherbandbreite benötigt würden? ;)
Nur sind GPUs inzwischen komplexer als CPUs. Wenn ich den Transistorcount sehe. Dualcore ist ja kein komplexerer Chip an sich.Hmm, bei GPUs zählst du mehrere parallel arbeitende Quads oder VS in die Komplexität mit ein, aber bei den CPUs willst du das Äquivalente dazu (Cores) nicht in die Komplexitätsrechnung einbeziehen? :down:
Übrigends: Der Montecito hätte selbst mit nur der Hälfte seiner Transistoren (1 Core) immer noch mehr als doppelt so viel wie der R520 ;)

Demirug
2005-10-13, 07:34:53
Was hat man denn vor? - Gibts wieder einen Hack wie bei GI?
Soweit ich diese Diskussion bei B3D mitbekommen haben, sollte "Render to Vertexbuffer" genausogut funktionieren wie VT.

Ja es gibt einen Hack aber dieser ist mit dem GI nicht zu vergleichen. Beim GI musste man lediglich ein paar Zeilen Code schreiben um die Verfügbarkeit zu erkennen und es freizuschalten. Danach verhält es sich konform der Spec.

Der Render to Vertexbuffer hack dagegen erfordert es das man die für den Vertextexture Effekt verwendeten Shader umschreiben muss. Das ist viel mehr Aufwand.

Die Details der Funktionsweise des Hacks spare ich mir hier weil es den meisten sowieso unverständlich sein drüfte.

Armaq
2005-10-13, 11:31:26
Übrigends: Der Montecito hätte selbst mit nur der Hälfte seiner Transistoren (1 Core) immer noch mehr als doppelt so viel wie der R520 ;)

Da hast du natürlich recht. Die CPU hat ja eh den Vorteil, dass ich oben eigentlich alles reinstecken kann und unten kommt es fertig portioniert wieder raus.
Die GPU ist ja leicht empfindlich was das angeht. Sie verlangt für Mord sogar noch Beihilfe ;).

Da ich mich, wie schon erwähnt, als Laie sehe, bin ich immer gern bereit mich eines besseren belehren zu lassen.

Crushinator
2005-10-13, 11:47:58
Größe des Dies: 20.79mm x 20.79mm =~ 432 mm²
Anzahl der Pins: 5185 :O (...)
Jetzt haben wir aber nur ~290 mm² zur Verfügung und ~1100 Pins. Rechne doch bitte selbst aus, wieviel Aufwand man betreiben muß wenn man da noch mal ~25% mehr aus dem DIE rausführen möchte und zähle erst dann die zusätzlichen 4 bis 8 PCB-Layer (je nach RAM-Bestückung) dazu die man auch noch braucht, um diese in Deinen Augen lächerlichen 256 Pins mit den RAM-Bausteinen zu verbinden. Dann überlege einfach welchen Preis Du dafür verlangen kannst um den Aufwand zu rechtfertigen. Ich sage ja nicht, daß es unmöglich ist sondern nur, daß dem Wunsch nach externem 512-Bits Interface bei Konsumerprodukten schlecht entsprochen werden kann.

Unter diesen Voraussetzungen ist es durchaus günstiger höhertakenden Speicher einzusetzen als o.g. Aufwand zu betreiben. Es ist ja auch nicht so, daß der Chip gerade mangels Bandbreite verhungert.

Coda
2005-10-13, 13:11:01
......deine "Grünangehauchte Erbsenzählerei" mit gelegentlichen Ausweichmanövern wenn der sinn der Features hinterfragt wird ist auch nicht wirklich besser..........Aus Spielersicht mag das vielleicht so aussehen. Bitte, glaub was du willst.

Auf Gamedev-Forum ist der Tenor übrigens genau der gleiche wie der von mir zu R5xx. Die Leute sind einfach enttäuscht, dass wieder relevante Features fehlen was die Entwicklung in die länge zieht.

Ich bin gar nicht angehaucht, mir wär es sowas von egal was auf der Karte stehen würde wenn sie zumindest FP-Filtering hätte. Vertex-TMUs brauch ich im Moment auch nicht so dringend.

Demirug
2005-10-13, 13:41:11
Auf Gamedev-Forum ist der Tenor übrigens genau der gleiche wie der von mir zu R5xx. Die Leute sind einfach enttäuscht, dass wieder relevante Features fehlen was die Entwicklung in die länge zieht.

Bei nVidia (http://developer.nvidia.com/page/home.html) ist die entsprechend Page (http://developer.nvidia.com/object/using_vertex_textures.html) schlagartig zum Top Download geworden

http://img297.imageshack.us/img297/3090/fetch3et.th.png (http://img297.imageshack.us/my.php?image=fetch3et.png)

Thanks to ImageShack for Free Image Hosting (http://imageshack.us)

GloomY
2005-10-14, 22:12:14
Jetzt haben wir aber nur ~290 mm² zur Verfügung und ~1100 Pins. Rechne doch bitte selbst aus, wieviel Aufwand man betreiben muß wenn man da noch mal ~25% mehr aus dem DIE rausführen möchte und zähle erst dann die zusätzlichen 4 bis 8 PCB-Layer (je nach RAM-Bestückung) dazu die man auch noch braucht, um diese in Deinen Augen lächerlichen 256 Pins mit den RAM-Bausteinen zu verbinden.Ausrechnen? Wie denn?

Hast du Fakten bezüglich den "zusätzlichen 4 bis 8 PCB-Layern"? Ich will das nicht umbedingt in Frage stellen. Aber mangels konkretem Wissen zu dem Thena bin ich da eher vorsichtig...

Übrigends: Wenn wir uns in der Größenordnung von 5000 Pins bewegen, dann sind 256 einfach nicht wirklich viel. Statt dem "lächerlich" hätte ich vielleicht lieber sagen sollen: "Da ist noch eine Menge Luft" =)
Dann überlege einfach welchen Preis Du dafür verlangen kannst um den Aufwand zu rechtfertigen.Ah, jetzt geht's auf einmal um den Preis ;)

Du hast durchaus Recht, dass man die Wirtschaftlichkeit dieser Aktion prüfen muss. Das habe ich im Übrigen aber gar nicht in Frage gestellt. Mir ging es nur um die technische Machbarkeit :)
Ich sage ja nicht, daß es unmöglich ist sondern nur, daß dem Wunsch nach externem 512-Bits Interface bei Konsumerprodukten schlecht entsprochen werden kann.Sorry, aber du hast (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3565344&postcount=110) die technische (Un-)Möglichkeit angesprochen und genau dem habe ich in meinem ersten Posting auch widersprochen (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3565411&postcount=112).
Unter diesen Voraussetzungen ist es durchaus günstiger höhertakenden Speicher einzusetzen als o.g. Aufwand zu betreiben. Es ist ja auch nicht so, daß der Chip gerade mangels Bandbreite verhungert.Noch nicht ;)

Coda
2005-10-15, 00:50:19
Machbar sind PCBs auch mit über 30 Layern, aber das meiden die Hersteller wie die Pest bei Consumer-Elektronik. Also muss es wohl ziemlich teuer sein

Ailuros
2005-10-15, 11:30:11
OT

Philiosophie erstreckt sich doch quer durch alle Wissensgebiete und unterliegt keinen Beschränkungen ähnlich wie die Logic.

OT zum OT:

Philosophie und Technologie sind aber trotzdem zwei verschiedene Gebiete; dafuer muesste man aber wissen wie der zweite Begriff entstanden ist und fuer was er eigentlich stand.

r3ptil3
2005-10-15, 16:45:08
http://www.vr-zone.com/?i=2825&s=7

7800 GTX:

@ 1.8v, 615/1440Mhz

3D Mark 05: 9730


X1800 XT:

default 625/1500 mhz

3D Mark 05: ca. 9000