PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wo bleibt die Preis/Leistungs-Superkarte?


Seiten : 1 [2]

Thorin
2007-07-13, 11:38:01
und schon wieder weg...
Schade hätt ich mir geholt wenn sie noch nen monat drin wäre wär aber auch zu schön..

Savay
2007-07-13, 11:41:33
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/13/#abschnitt_3dmark06

die XT bricht wesentlich stärker ein bei AA

hier hast du es schriftlich
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung

oh mann schau doch mal WAS du da postest

AA ist ungleich AF...die AA skalierung ist die selbe...die AF skalierung ist beim G80 besser aufgrund der rohleistung besser. wenn du AA und AF kombinierst ist doch klar das der R600 anfängt stärker einzubrechen. :rolleyes:

hier hast du es schriftlich :tongue:

http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index10.php

demnach skaliert das FSAA sogar besser aufm R600 (wie in den meisten anderen tests btw ebenfalls) ;)

The_Invisible
2007-07-13, 12:07:38
also nutzt man entweder kein AF oder man muss mehr optimierungen einbauen. dann machts der andere wieder nach und schon sind wir wieder in den nv40 zeiten

mfg

Savay
2007-07-13, 12:14:11
naja manche sind halt nie zufrieden...du bekommst für 340€ ne karte die nach heutigem kenntnissstand z.B. in UT3 und allen Unreal Engine 3 Games im schnitt die leistung einer 500€ und teilweise auch die einer 650€ karte bringt!!1elf :tongue: ...und das ist die erste echte nextgen engine aufm markt!

dafür bricht der R600 aber beim AF etwas stärker ein...pikanterweise sieht man im spielealltag eh kaum texel die wirklich das volle 16xAF abbekommen. 8xAF tuts zur not auch..den unterschied sieht man in der praxis eh kaum
die AF optimierungen selber sind absolut scheiße keine frage! ich hoffe das das nur ne treiber sache ist aber wie gesagt ich find abseits davon das zwanghafte genörgel über den R600 albern ;D

kleines zitat bezüglich der AF performance in der UE3
Da in unserer ausgewählten Benchmark-Szene der anisotrope Filter keinen Einfluss auf die Geschwindigkeit hat, lassen wir diesen in der Diagrammdarstellung außen vor.

tja und bist du bereit auf volle kanne volle leistung zu gehen kaufst du für 890€ einfach 2x 1GB R600 und lässt damit unter Vista bei extrem hohen auflösungen auch ne GTX SLI kombo die mit über 1000€ zu buche schlägt locker im regen stehen...sogar ne Ultra SLI kombo für 1300€ ist langsamer

sry es ist nicht alles sooo schlecht wie es dargestellt wird in irgendwelchen benches. der G80 ist ne geile GPU keine frage...aber der R600 wird auch oftmals etwas unterschätzt :)

=Floi=
2007-07-13, 12:26:32
eine gtx sli combo ist günstiger
und die ist auch mit aa und af schneller ;D

btw warum soll man ohne aa/af spielen? (und ausgerechnet mit 2 grafikkarten)
jetzt wirds ja lächerlich...

BAGZZlash
2007-07-13, 12:36:46
Naja, also ich muß hier nicht unbedingt recht haben (zumal ich ATI lieb hab :smile:), aber es scheint schon so zu sein, daß dem R600 AA auch ohne gleichzeitiges AF weniger gut schmeckt als dem G80. Siehe hier: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung



Wie man gut erkennen kann, tut sich die ATi Radeon HD 2900 XT generell etwas schwer bei der Verwendung von Anti-Aliasing. Dass die Karte prozentual mehr einbricht als die Radeon X1950 XTX ist zwar logisch, da letzterer einfach die Rohleistung fehlt, aber dennoch erledigt eine GeForce 8800 GTX diesen Job besser.

Savay
2007-07-13, 12:42:12
eine gtx sli combo ist günstiger
und die ist auch mit aa und af schneller ;D

btw warum soll man ohne aa/af spielen? (und ausgerechnet mit 2 grafikkarten)
jetzt wirds ja lächerlich...

ich glaube du liest meine beiträge nicht wirklich oder willst sie nicht verstehen...das ist das einzige was hier lächerlich ist! :)

wer sagt das man ohne AA und AF spielen soll? WO steht das?

und wo ist ne GTX SLI kombo günstiger? wenn ich bei den onlineshops schaue kostet ne 1GB R600 440€...eine GTX ist da meist beim selben shop zwischen 50 und 70€ teurer...also um die 15-20%
und selbst ne 512MB R600 wird in UE3 games ne GTX ziemlich im regen stehen lassen :tongue: dabei ist die preisgestaltung der R600 so ziemlich genau auf die große GTS ausgerichtet...deren leistung sie auch kontern kann in aktuellen spielen

Savay
2007-07-13, 12:44:37
Naja, also ich muß hier nicht unbedingt recht haben (zumal ich ATI lieb hab :smile:), aber es scheint schon so zu sein, daß dem R600 AA auch ohne gleichzeitiges AF weniger gut schmeckt als dem G80. Siehe hier: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung

oh mann schau mal bitte WAS sie getestet haben :) hast du meinen link angesehen? ich kann auch gern weitere benches rausgraben wo reines FSMSAA gebencht wurde.

äpfel mit birnen zu vergleichen bringt bekanntlich garnichts...ich dachte das sollte jemandem klar sein der sich hier im forum rumtreibt

Undertaker
2007-07-13, 12:44:48
naja manche sind halt nie zufrieden...du bekommst für 340€ ne karte die nach heutigem kenntnissstand z.B. in UT3 und allen Unreal Engine 3 Games im schnitt die leistung einer 500€ und teilweise auch die einer 650€ karte bringt!!1elf :tongue: ...und das ist die erste echte nextgen engine aufm markt!

welche 500/650€ karte meinst du da? eine gtx kostet nur 430€ und ist meist schneller, eine ultra für 540€ praktisch immer...

dafür bricht der R600 aber beim AF etwas stärker ein...pikanterweise sieht man im spielealltag eh kaum texel die wirklich das volle 16xAF abbekommen. 8xAF tuts zur not auch..den unterschied sieht man in der praxis eh kaum
die AF optimierungen selber sind absolut scheiße keine frage! ich hoffe das das nur ne treiber sache ist aber wie gesagt ich find abseits davon das zwanghafte genörgel über den R600 albern ;D

kleines zitat bezüglich der AF performance in der UE3

tja und bist du bereit auf volle kanne volle leistung zu gehen kaufst du für 890€ einfach 2x 1GB R600 und lässt damit unter Vista bei extrem hohen auflösungen auch ne GTX SLI kombo die mit über 1000€ zu buche schlägt locker im regen stehen...sogar ne Ultra SLI kombo für 1300€ ist langsamer

sry es ist nicht alles sooo schlecht wie es dargestellt wird in irgendwelchen benches. der G80 ist ne geile GPU keine frage...aber der R600 wird auch oftmals etwas unterschätzt :)

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/25/#abschnitt_performancerating

das r600 cf balgt sich hier wohl eher mit der gts, auch die 1gb variante wird nur schwer die gtx erreichen... von der ultra ganz zu schweigen :rolleyes: mit aktuellsten vista treibern sind die nvidias unter xp auch nicht mehr schneller (zumindest ohne sli, mit kann ich nicht testen)

Savay
2007-07-13, 12:52:38
welche 500/650€ karte meinst du da? eine gtx kostet nur 430€ und ist meist schneller, eine ultra für 540€ praktisch immer...

ne 1GB HD2900 kostet im schnitt 15-20% weniger als ne GTX...wie hoch die absoluten preise sind ist mir da relativ wumpe! die ordnung im preisgefüge ist da recht eindeutig...

gts320 -> gts640 ~ XT512 -> XT1GB -> GTX -> Ultra...

was anderes wollte ich garnicht ausdrücken


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/25/#abschnitt_performancerating

das r600 cf balgt sich hier wohl eher mit der gts, auch die 1gb variante wird nur schwer die gtx erreichen... von der ultra ganz zu schweigen :rolleyes: mit aktuellsten vista treibern sind die nvidias unter xp auch nicht mehr schneller (zumindest ohne sli, mit kann ich nicht testen)

vista performance mit aktuellen treibern auf beiden seiten :) CF skaliert aufm r600 deutlich besser als SLI aufm G80...das ist mir auch schon in anderen tests (THG) aufgefallen...selbst unter XP ist das der fall und auch obwohl CF in manchen benches (noch) garnicht greift (was btw den unreifen status der treiber belegt mit denen der r600 meistens getestet wurde) fand ich das bemerkenswert. nicht das die grundperformance einer einzelnen HD2900XT unter XP sonderlich erleuchtend wäre...oft ist ja in den benches auch nen r580 merklich schneller :|

aber mal ganz im vertrauen mir ist das ehrlich gesagt vollkommen wumpe was ihr meint und wie sehr ihr die R600 aufgrund der heutigen benches unter XP beurteilen wollt. ich hab keinen r600 und werd mir auch so schnell keine neue grafikkarte kaufen

aber wir können ja in 9-12 monaten nochmal drüber diskutieren...und schauen wie die situation dann ausschaut und ich sage euch dank meiner kristallkugel das dann ganz unerwartet der r600 mit dem g80 voll auf augehöhe liegen wird grade was UT3 und die UE3 angeht siehts schonmal verdammt rosig aus :P

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/19/#abschnitt_rainbow_six_vegas

ich find das gefüge in dem speziellen bench echt lustig :biggrin:

Undertaker
2007-07-13, 13:00:44
ne 1GB HD2900 kostet im schnitt 15-20% weniger als ne GTX...wie hoch die absoluten preise sind ist mir da relativ wumpe! die ordnung im preisgefüge ist da recht eindeutig...

gts320 -> gts640 ~ XT512 -> XT1GB -> GTX -> Ultra...

was anderes wollte ich garnicht ausdrücken

das trifft so aber gar nicht zu:

1gb xt: http://geizhals.at/deutschland/a265809.html
gtx: http://geizhals.at/deutschland/a259454.html

was dagegen, wenn ich das unter "identisch" verbuche?



vista performance mit aktuellen treibern auf beiden seiten :)

mir ist das ehrlich gesagt vollkommen wumpe was ihr meint und wie sehr ihr die R600 aufgrund der heutigen benches unter XP beurteilen wollt. ich hab keinen r600 und werd mir auch so schnell keine neue grafikkarte kaufen

aber wir können ja in 9-12 monaten nochmal drüber diskutieren...und schauen wie die situation dann ausschaut. :P

tippst du hier nur ins blaue hinein oder aufgrund welcher technischer grundlagen kommt dir diese erkenntnis?

BAGZZlash
2007-07-13, 13:05:18
oh mann schau mal bitte WAS sie getestet haben :) hast du meinen link angesehen? ich kann auch gern weitere benches rausgraben wo reines FSMSAA gebencht wurde.

äpfel mit birnen zu vergleichen bringt bekanntlich garnichts...ich dachte das sollte jemandem klar sein der sich hier im forum rumtreibt

Sorry, ich wollte Dich nicht persönlich angreifen. Aber ich scheine wirklich nicht zu verstehen, was Du meinst: Es geht hier doch glaube ich darum, daß bei einem G80 bei Verwendung von 2xFSMSAA im Gegensatz zu 1xFSMSAA (ohne gleichzeitiges AF) noch ca. 80% der ursprünglichen Leistung übrig bleiben. Bei einem R600 hingegen, bei gleichem Szenario, aber i.d.R. eben nur weniger, vielleicht 60 - 75%. Bei höheren AA-Modi ist es ähnlich. Ich sehe nicht, wo hier Äpfel und Birnen sind. Auch wenn die Unterschiede manchmal nicht ganz so drastisch sind, so ist das Verhältnis bei R600 doch zumindest nie besser als bei G80. Der Grund dafür liegt auch auf der Hand: R600 muß aufgrund von Fehlern im Chip eben bestimmte Berechnungen für das FSAA im Shader ausführen, sowas bremst nun mal.
Achso: Die 1GB-Version der 2900XT wird übrigens einzig und allein nur bei Anwendungen schneller sein als die 512-MB-Version, die mehr als 512 MB auch wirklich fordern - sprich: Da, wo der "kleinen" Version der Speicher einfach aus geht. Die höhere Bandbreite der 1.204-MB-Version durch den höheren Takt des GDDR4-Speichers wirste nicht merken.
Ach, und noch 'ne Frage hab' ich: Woher weißt Du, daß R600 auf UE3 so gut skaliert?

Savay
2007-07-13, 13:13:53
die haben dort mit AAA gebencht...das läuft auf der r600 nur über ASBT...und das ist doch langsamer als der standard modus. (treiberbug?)
ATis CFAA kostet auch mehr performance als nVidias CSAA und ist nicht vergleichbar aus technischer hinsicht
ich spreche vom vergleich der reinen MSAA modi...also 2xRGMS 4xRGMS und 8xSGMS.
das sind die einzigen AA modi die man ohne weiteres nebeinander stellen kann.

EDIT: sry hab meinerseits nicht genau hingeschaut...ist pikanterweise der einzige test der bei den MSAA modi ne derartige diskrepanz zeigt.
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index10.php
http://www.anandtech.com/video/showdoc.aspx?i=3029&p=6

die zeigen alle nen vollkommen anderes verhalten...bei THG siehts auch anders aus...

R6:Vegas ist nen UE3 spiel...die meisten GPUs weisen auf der selben engine in ihrem verhalten meist das selbe muster auf. das gefüge der architekturen untereinander ist bei allen D3 games auch gleich (D3, Q4, Prey) genau wie bei der UE2/2.5 (U2, UT2k3/4 etc.)


tippst du hier nur ins blaue hinein oder aufgrund welcher technischer grundlagen kommt dir diese erkenntnis?

wie ich schon vorher schon ca. 100 mal geschrieben habe tippe ich ins blaue...und aufgrund einiger indizien bin ich mir verdammt sicher das es darauf hinauslaufen wird das der r600 mit ner gtx im schnitt gleichziehen wird in künftigen games

-gametest 4 im 3dmark sehr viel FP16 HDR und sehr aufwändige shadern mit softshadows en masse...deutlicher vorteil auf ner r600 ggü ner gtx
-performance der r600 unter der UE3 im vgl mit der gtx
-skalierung der r600 unter vista und im CF setup

Undertaker
2007-07-13, 13:20:16
wie ich schon vorher schon ca. 100 mal geschrieben habe tippe ich ins blaue...und aufgrund einiger indizien bin ich mir verdammt sicher das es darauf hinauslaufen wird das der r600 mit ner gtx im schnitt gleichziehen wird in künftigen games

-gametest 4 im 3dmark sehr viel FP16 HDR und sehr aufwändige shadern mit softshadows en masse...deutlicher vorteil auf ner r600 ggü ner gtx
-performance der r600 unter der UE3 im vgl mit der gtx
-skalierung der r600 unter vista und im CF setup

- zu 3dmark sag ich jetzt mal nix :D
- wo gibts da nen vergleichstest?
- der r600 ist unter vista langsamer als die gtx unter xp, ergo eine reine treibersache - bzgl cf:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/25/#abschnitt_performancerating

in 1600x1200 4xaa 16xaf werden aus 8% rückstand auf die gts mit crossfire 12% auf das gts sli... insofern? :confused:

LovesuckZ
2007-07-13, 13:23:13
wie ich schon vorher schon ca. 100 mal geschrieben habe tippe ich ins blaue...und aufgrund einiger indizien bin ich mir verdammt sicher das es darauf hinauslaufen wird das der r600 mit ner gtx im schnitt gleichziehen wird in künftigen games

Sie zieht doch jetzt schon gleich, wenn man kein AA verwendet...


-gametest 4 im 3dmark sehr viel FP16 HDR und sehr aufwändige shadern mit softshadows en masse...deutlicher vorteil auf ner r600 ggü ner gtx

Oha, du interpretierst gerade etwas falsch. FP16 HDR und Softshadows haben nichts mit dem gutem Abschneiden in den Test 3 und 4 zu tun. Beide Test verwenden FP16 Filterung und aufwendige Shader. Die ersten beiden Test verwenden Softshadows und hier liegt die 2900XT nur auf GTS Niveau.
Und FP16 Genauigkeit hilft eher den G8x Karten als den r6xx Karten.

-performance der r600 unter der UE3 im vgl mit der gtx

Die Entwickler von UT2007 sagen, dass sie auch eine hohe Texturleistung benötigen.


-skalierung der r600 unter vista und im CF setup

Was hat das mit zukünftigen Spielen zu tun?

Savay
2007-07-13, 13:25:32
- zu 3dmark sag ich jetzt mal nix :D
- wo gibts da nen vergleichstest?
- der r600 ist unter vista langsamer als die gtx unter xp, ergo eine reine treibersache - bzgl cf:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/25/#abschnitt_performancerating

in 1600x1200 4xaa 16xaf werden aus 8% rückstand auf die gts mit crossfire 12% auf das gts sli... insofern? :confused:

ohja ich weiß der 3dmark ist ja sooooo verpöhnt hier...auch wenns keine reale 3d engine ist. tendenzen zeigen die tests durchaus auf...und die gelten auch für reelle spiele (game test1 skaliert auf den architekturen ähnlich wie D3 etc.)

naja wenn du die CB artikel jedesmal als heiligen gral herranziehen willst :)

ich könnte auch sowas:

http://www.pcmag.com/image_popup/0,1871,iid=178344,00.asp

bringen...

nur viel beweisen tut das nicht...zumal ich meine theorie...nein sagen wir besser ahnung eh nicht beweisen kann ^^

Savay
2007-07-13, 13:35:02
Sie zieht doch jetzt schon gleich, wenn man kein AA verwendet...

jo tut sie unter 1280...darüber merkt man dann die rohpower der g80 unter aktuellen games und unter XP vorallem das die karte einfach nicht dafür gebaut ist womit sie in 95% der fälle gebencht wird


Oha, du interpretierst gerade etwas falsch. FP16 HDR und Softshadows haben nichts mit dem gutem Abschneiden in den Test 3 und 4 zu tun. Beide Test verwenden FP16 Filterung und aufwendige Shader. Die ersten beiden Test verwenden Softshadows und hier liegt die 2900XT nur auf GTS Niveau.
Und FP16 Genauigkeit hilft eher den G8x Karten als den r6xx Karten.

die ersten beiden game testes verwenden stencil shadows und keine softshadows :| und wir alle wissen das die stencil leistung bei nv traditionell besser ist :tongue: die haben doch extra für doom3 diese hyper mega stencil shadow hardwareeinheiten eingebaut :lol:

FP16 hilft eben eher den r600 karten als den g80... 1. bandbreite 2. die TMUs die beim G80 bei FP16 2 passes brauchen..fazit die füllrate gleicht sich an


Die Entwickler von UT2007 sagen, dass sie auch eine hohe Texturleistung benötigen.

ja sagen sie...nur spielt in der auch noch andere faktoren rein. die effektive füllrate bei verwendung von HDR zumbeispiel

und was sagt btw R6:Vegas dazu? und sag nicht das sich andere UE3 games komplett anders verhalten werden...das halte ich für unwahrscheinlich


Was hat das mit zukünftigen Spielen zu tun?

nichts. nur das jemand der momentan nen r600CF setup kauft...letztlich mit was schnellerem da steht als jemand der sich nen GTX SLI setup gönnt...von der gts ganz zu schweigen.

wie gesagt kristall kugel...glaubt es oder nicht ;D

Undertaker
2007-07-13, 13:49:30
naja wenn du die CB artikel jedesmal als heiligen gral herranziehen willst :)

ich könnte auch sowas:

http://www.pcmag.com/image_popup/0,1871,iid=178344,00.asp

bringen...

nur viel beweisen tut das nicht...zumal ich meine theorie...nein sagen wir besser ahnung eh nicht beweisen kann ^^

ähm... allein schon der score von 12200 punkten im 06er für das gtx sli auf einem 3,7ghz quad zeigt, das dort was gewaltig schiefgelaufen ist ;) desweiteren noch vollkommen verschiedene pcs, also diesen "test" brauchen wir erst gar nicht zu diskutieren ;) bring doch mal noch wenigstens was halbwegs glaubwürdiges, dann kann man weiterreden

Savay
2007-07-13, 13:59:58
gut nur für dich...du hast recht deine g80 ist der geilste penisersatz auf der welt :rolleyes:

soll ich mir aufm arsch tatowieren lassen das ich spekuliere und das das keiner ernst nehmen muss wenn er es nicht will...du willst es nicht...gut dann lass es. aber versuch nicht spielregeln zu ändern die nicht änderbar sind :|

sry wenn dich das ganze in deiner ehre kränkt und es dir deine grafikkarte madig macht und den drang in dir weckt das ding auf teufel komm raus verteidigen zu müssen aber ich habe von vornherrein gesagt das ich nichts glaubwürdiges habe...du hast dich drauf eingelassen...also friss vogel oder strib. mir persönlich reichen die handvoll indizien (alles schon gepostet) um mir zu zeigen das das momentane benchmark bild in der (hobby)presselandschaft einfach nicht komplett ist.

mal ganz im ernst hier "mr glaubwürdig" zu spielen und permanent auf einen einzigen test rumzureiten ist ja auch nicht grad besonders schlau oder findest du wirklich? :tongue:

naja seis drum wir 2 brauchen wirklich nicht weiter zu diskutieren das bringt nichts weil es momentan einfach zu keinem ergebniss führen kann :smile:

Undertaker
2007-07-13, 14:02:18
ganz ruhig, du willst mehr tests? kein problem, gib mir ein paar minuten zeit

das der pc-mag test offensichtlich vollkommen unschlüssig ist, siehst doch auch du ein oder?

los gehts, leider gibts anscheinend kaum weitere tests des r600 cf darum müssen wir mit kompromissen leben:

http://www.guru3d.com/article/content/432/11/ leider kein sli mit dabei, anhand der einzelnen ultra kann man aber gut sehen, dass die sache eindeutig ist

http://enthusiast.hardocp.com/article.html?art=MTM1OSw0LCxoZW50aHVzaWFzdA== mit gts sli, klare sache

Savay
2007-07-13, 14:06:59
ist er...der cb test sagt aber genauso wenig...dann teste halt. (davon habe ich nie was gesagt btw ;))

wenn du aber was wirklich interessantes testen kannst (wie UT3 auf Vista unter DX10 mit ner GTX und ner R600 am besten unter SLI/CF) sag bescheid...

wenn du deine geile GTS durch irgendwelche parcours jagen willst die es in 300facher ausführung mit vorraussichtlich identischen ergebnissen schon gibt...spar dir dir arbeit. wir beide wissen was raus kommt...ich kenne die meisten tests zum r600 :)

ich glaube dir...ich huldige dir oh meister der ultimativen wahren wahrheit! :P wenn es dich beruhigt...du hast gewonnen :rolleyes:

Gast
2007-07-13, 14:08:16
Und FP16 Genauigkeit hilft eher den G8x Karten als den r6xx Karten.


Das ist natürlich absoluter Blödsinn. Einem R600 sollte es vollkommen egal sein, ob jetzt mit FP16 oder FX8 gerechnet wird, einem G80 sicher nicht. Ich denke man kann schon davon ausgehen, dass R600 in Zukunft im Vergleich zu G80 etwas aufholen wird, denn auch der Arithmetikanteil wird weiter steigen, und da sollte ein R600 nicht so schlecht liegen. Ob es fürs überholen reichen wird, wage ich allerdings stark zu bezweifeln, zumindest solange der AA-Bug nicht behoben wurde.

Undertaker
2007-07-13, 14:11:33
ist er...der cb test sagt aber genauso wenig...dann teste halt. (davon habe ich nie was gesagt btw ;))

wenn du aber was wirklich interessantes testen kannst (wie UT3 auf Vista unter DX10 mit ner GTX und ner R600 am besten unter SLI/CF) sag bescheid...

wenn du deine geile GTS durch irgendwelche parcours jagen willst die es in 300facher ausführung mit vorraussichtlich identischen ergebnissen schon gibt...spar dir dir arbeit. wir beide wissen was raus kommt

ich glaube dir...ich huldige dir oh meister der ultimativen wahren wahrheit! :P wenn es dich beruhigt...du hast gewonnen :rolleyes:

sag mal hab ich dir irgendwas getan? ich möchte objektiv diskutieren, habe dir gründe genannt warum der pcmag test fehlerhaft ist und dich um weitere quellen gebeten

wenn du meinst, dass bei cb ebenfalls etwas schiefgelaufen ist erläutere doch was, weitere quellen kann ich dir trotzdem anbieten:

http://www.guru3d.com/article/content/432/11/
http://enthusiast.hardocp.com/article.html?art=MTM1OSw0LCxoZW50aHVzaWFzdA==

und jetzt werd endlich wieder sachlich

Savay
2007-07-13, 14:23:06
nein du hast mir nichts getan du gehst nur von spielregeln aus die in diesem falle nicht gelten...
ich kann hier nichts beweisen und das verlangst du ständig von mir! du verlangst etwas von mir das ich nicht erfüllen kann, was ich aber auch klipp und klar so zum ausdruck gebracht habe.

ich sage ich kann es bis auf ein paar indizien nicht beweisen..dann kommst du damit an das ich es doch bitte anständig beweisen soll. wie soll das gehen? so oder so ist das keine diskussionsgrundlage.

mehr als das verhalten des R600 unter dem 3dmark game und shader tests + die skalierung in R6:Vegas GIBT es diesbezüglich einfach nicht.

wenn du mir irgendwo nen Vista system mit finalen treibern zeigst, das in nem DualGPU testsetup durch nen benchmark parcours von echten SM3.0 oder besser 4.0 spielen jagt dann kann ich dir vielleicht weiter helfen.

das CF besser skaliert (sogar unter DX9) sieht man aber z.B. auch hier:
http://www.tomshardware.com/de/geforce-8800-ultra-nvidia-vergleichstest,testberichte-239695.html

das problem mit den meisten benches ist nur das da ausschließlich irgendwelches DX9b...wenn es hochkommt 9c material verwurstet wird. wenn es ganz exklusiv ist kommt noch nen auf Dx10 aufgeblasenes DX9 spiel dazu...

ich finde die gesamten benchmark parcours einfach ziemlich unglücklich wenn es darum geht ne aussage über die performance in zukünftigen spielen zu treffen die mit hinblick auf SM3.0 und SM4.0 designed wurden

Undertaker
2007-07-13, 14:31:05
nein du hast mir nichts getan du gehst nur von spielregeln aus die in diesem falle nicht gelten...
ich kann hier nichts beweisen und das verlangst du ständig von mir! du verlangst etwas von mir das ich nicht erfüllen kann, was ich aber auch klipp und klar so zum ausdruck gebracht habe.

ich sage ich kann es bis auf ein paar indizien nicht beweisen..dann kommst du damit an das ich es doch bitte anständig beweisen soll. wie soll das gehen? so oder so ist das keine diskussionsgrundlage.

das ist auch absolut kein problem - dann mach nur bitte klar ersichtlich, was spekulation und was harter fakt ist... wenn du solche sachen anführst

wie ich schon vorher schon ca. 100 mal geschrieben habe tippe ich ins blaue...und aufgrund einiger indizien bin ich mir verdammt sicher das es darauf hinauslaufen wird das der r600 mit ner gtx im schnitt gleichziehen wird in künftigen games

-gametest 4 im 3dmark sehr viel FP16 HDR und sehr aufwändige shadern mit softshadows en masse...deutlicher vorteil auf ner r600 ggü ner gtx
-performance der r600 unter der UE3 im vgl mit der gtx
-skalierung der r600 unter vista und im CF setup

woher sollte ich dann erkennen können, das genau der 2. punkt nur spekulation ist?

mehr als das verhalten des R600 unter dem 3dmark game und shader tests + die skalierung in R6:Vegas GIBT es diesbezüglich einfach nicht.

wenn du mir irgendwo nen Vista system mit finalen treibern zeigst, das in nem DualGPU testsetup durch nen benchmark parcours von echten SM3.0 oder besser 4.0 spielen jagt dann kann ich dir vielleicht weiter helfen.

das CF besser skaliert (sogar unter DX9) sieht man aber z.B. auch hier:
http://www.tomshardware.com/de/geforce-8800-ultra-nvidia-vergleichstest,testberichte-239695.html

habs mal kurz überflogen, mir schien aber eher das gegenteil der fall zu sein: häufig lag zb die msi 8800gts hinter der 2900xt, mit sli dann aber vor dem cf-gespann... oder sehe ich da etwas falsch?

das problem mit den meisten benches ist nur das da ausschließlich irgendwelches DX9b...wenn es hochkommt 9c material verwurstet wird. wenn es ganz exklusiv ist kommt noch nen auf Dx10 aufgeblasenes DX9 spiel dazu...

ich finde die gesamten benchmark parcours einfach ziemlich unglücklich wenn es darum geht ne aussage über die performance in zukünftigen spielen zu treffen die mit hinblick auf SM3.0 und SM4.0 designed wurden

mehr kann man aktuell halt nicht testen. die paar dx10 tests die es bisher gibt (coj zb) lassen aber bisher eher nicht auf völlig veränderte verhältnisse schließen

Savay
2007-07-13, 14:57:19
das ist auch absolut kein problem - dann mach nur bitte klar ersichtlich, was spekulation und was harter fakt ist... wenn du solche sachen anführst

woher sollte ich dann erkennen können, das genau der 2. punkt nur spekulation ist?

ich hab von anfang an nie behauptet das es was anderes als spekulationen sind :|

der 2. punkt ist btw keine pure spekulation...das gefüge der GPUs in D3 lässt sich ja auch auf Prey, Q4 etc übertragen.

immerhin haben wir schon das:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/19/#abschnitt_rainbow_six_vegas

haha sehe grade das CF da garnicht aktiv ist nicht optimierte treiber ahoi?`...naja wir werden sehen wie sich das entwickelt :D

http://www.anandtech.com/video/showdoc.aspx?i=3023&p=9


habs mal kurz überflogen, mir schien aber eher das gegenteil der fall zu sein: häufig lag zb die msi 8800gts hinter der 2900xt, mit sli dann aber vor dem cf-gespann... oder sehe ich da etwas falsch?


bei den pixelshader tests sieht mans am deutlichsten das verhalten ist insgesamt sehr seltsam...stellenweise greift es auch garnicht. und nen Vista SLI und CF test...naja die sucht man eh vergebens :)
bis eben auf diesen GTX SLI vs. 1GBXT CF test mit den "fehlerhaften" 3dmark scores" :rolleyes: die PCs sind übrigends im wesentlichen die selben...es wurde nur unter vista gebencht...treiberbug?! wer weiß! wundertreiber bei ATI? wer weiß!
http://www.pcmag.com/article2/0,1895,2146999,00.asp

wie gesagt diese ganzen tests die da sonst im web rumschwirren sind irgendwie seltsam...mal sinds treiberfehler bei NV und dann gibt es dort ebenfalls oft offensichtliche treibermacken bei ATI...
komplett ist das bild bezüglich der R600 und dem G80 momentan jedenfalls nicht soviel steht fest :smile:


mehr kann man aktuell halt nicht testen. die paar dx10 tests die es bisher gibt (coj zb) lassen aber bisher eher nicht auf völlig veränderte verhältnisse schließen

ja und coj ist für mich nichts weiteres als aufgeblasener DX9 content...die engine ist doch garnicht nativ auf SM3.0 oder SM4.0 designed...geschweige denn hat in der ursprünglichen viel damit am hut. :) das ist alles pseudo DX10 content ja da klatscht man nen SM4.0 pfad dran und nutzt aus jux und dollerei mal nen paar neue features ohne das da im vorfeld wirklich irgendwas darauf ausgerichtet wäre.

bei den auf der UE2.5 basierenden SplinterCell 3&4 kann man ja ähnliches beobachten. die performance mit SM3.0 ist im grunde grottig...kein wunder die engine ist ursprünglich für SM1.1 und DX8 geschrieben worden

es kommt halt nicht darauf an mit was für nem renderpfad man nen spiel ausstattet sonder ob der gesamte content und die engine auch darauf ausgerichtet ist...es ist einfach was anderes ob ich huckepack nen Dx10 renderpfad draufpropfe und drunterliegend einfach immer noch SM2.0 content schlummert oder ob man von vornherein die möglichkeiten ausnutzt die einem die neuen shadermodelle bieten. wenn man das macht verhalten sich dann bestimmte architekturen auch aufeinmal ganz anders...
was anderes versuche ich hier garnicht zu vermitteln. :tongue:

=Floi=
2007-07-13, 15:24:09
SLI hat hier einfach nicht richtig funktioniert (und nun beißt du dich auf cf fest)
vergleich mal die beiden tests (single karte gegen cf da legt die GTX garnicht zu!)

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/

nebenbei war die alte unreal engine sehr von der cpu abhängig und NICHT von der gpu

wenn 3 leute gegen dich reden willst du noch immer recht haben
denk mal drüber nach... ;D

Undertaker
2007-07-13, 15:29:03
ich hab von anfang an nie behauptet das es was anderes als spekulationen sind :|

der 2. punkt ist btw keine pure spekulation...das gefüge der GPUs in D3 lässt sich ja auch auf Prey, Q4 etc übertragen.

immerhin haben wir schon das:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/19/#abschnitt_rainbow_six_vegas

haha sehe grade das CF da garnicht aktiv ist nicht optimierte treiber ahoi?`...naja wir werden sehen wie sich das entwickelt :D

http://www.anandtech.com/video/showdoc.aspx?i=3023&p=9


moment moment, ich meine deine aussage bzgl der "ue3" - und der war doch spekulation oder etwa nicht?



bei den pixelshader tests sieht mans am deutlichsten das verhalten ist insgesamt sehr seltsam...stellenweise greift es auch garnicht. und nen Vista SLI und CF test...naja die sucht man eh vergebens :)
bis eben auf diesen GTX SLI vs. 1GBXT CF test mit den "fehlerhaften" 3dmark scores" :rolleyes: die PCs sind übrigends im wesentlichen die selben...es wurde nur unter vista gebencht...treiberbug?! wer weiß! wundertreiber bei ATI? wer weiß!
http://www.pcmag.com/article2/0,1895,2146999,00.asp

wie gesagt diese ganzen tests die da sonst im web rumschwirren sind irgendwie seltsam...mal sinds treiberfehler bei NV und dann gibt es dort ebenfalls oft offensichtliche treibermacken bei ATI...
komplett ist das bild bezüglich der R600 und dem G80 momentan jedenfalls nicht soviel steht fest :smile:

beim pcmag test haben die mit einem gtx-sli und einem quad weniger punkte als computerbase mit einer einzelnen ultra und einem dualcore - das das nicht der realität entspricht willst du doch nicht bestreiten? die hd2900 ergebnisse dort können also durchaus stimmen, die der nvidia-system nicht einmal annähernd

ja und coj ist für mich nichts weiteres als aufgeblasener DX9 content...die engine ist doch garnicht nativ auf SM3.0 oder SM4.0 designed...geschweige denn hat in der ursprünglichen viel damit am hut. :) das ist alles pseudo DX10 content ja da klatscht man nen SM4.0 pfad dran und nutzt aus jux und dollerei mal nen paar neue features ohne das da im vorfeld wirklich irgendwas darauf ausgerichtet wäre.

bei den auf der UE2.5 basierenden SplinterCell 3&4 kann man ja ähnliches beobachten. die performance mit SM3.0 ist im grunde grottig...kein wunder die engine ist ursprünglich für SM1.1 und DX8 geschrieben worden

es kommt halt nicht darauf an mit was für nem renderpfad man nen spiel ausstattet sonder ob der gesamte content und die engine auch darauf ausgerichtet ist...es ist einfach was anderes ob ich huckepack nen Dx10 renderpfad draufpropfe und drunterliegend einfach immer noch SM2.0 content schlummert oder ob man von vornherein die möglichkeiten ausnutzt die einem die neuen shadermodelle bieten. wenn man das macht verhalten sich dann bestimmte architekturen auch aufeinmal ganz anders...
was anderes versuche ich hier garnicht zu vermitteln. :tongue:

jop, dem stimm ich zu - nur die richtung in welche sich das noch entwickeln könnte ist nicht absehbar

Savay
2007-07-13, 15:42:38
ja der NV Vista treiber dürfte hochgradig scheiße sein :) schon lustig 5 monate länger aufm markt als ATI deren vista treiber BTW scheinbar genauso scheiße sind wenn wohl auch nicht ganz so (CF geht ja wohl)...auf nem grauenvoll unnötigem OS das eine unnötige limitierung in einer grafikAPI bewirkt um die nutzer zu einem unnötigen umstieg zu zwingen.

also mich als kunde überzeugt das voll und ganz...ich brauche sofort nen DX10 tauglichen rechner...um mich mit beschissenen Vista treibern und verbuggten apps mit ner langsameren performance herumschlagen zu dürfen... hey was tut man nicht alles als flimmerempfindlicher maxBQ fetischist um für seine SM3 basierenden Deferd Shading engine games endlich wieder AA zu bekommen :| aber gut das wird langsam OT :D

moment moment, ich meine deine aussage bzgl der "ue3" - und der war doch spekulation oder etwa nicht?

(...)

jop, dem stimm ich zu - nur die richtung in welche sich das noch entwickeln könnte ist nicht absehbar

keine spekulation...was ist R6:Vegas? nen UE3 spiel und die erste wirklich auf SM3 ausgerichtete und frei zugängliche engine die irgendwo in nem test verwendet wird mitsamt logischerweise content der voll und ganz mit SM3.0 als minimum designed wurde wo gibt es das denn sonst bitte großartig

das ist sonst nur bei den gametests 3&4 vom 3dmark der fall...wie sich da der r600 anstellt ist ja auch kein geheimniss :)

die richtung ist dementsprechend imo durchaus absehbar...es wird drauf hinauslaufen das sich die performance des R600 mehr in richtung GTX verschieben wird als es momentan der fall ist. preislich ist er jedenfalls als GTS konkurrent platziert ergo -> P/L tipp für "risikofreudige" käufer :tongue:

=Floi=
2007-07-13, 15:46:28
warum soll es sich verschieben?
1. kann die rechenleistung nicht richtig umgesetzt werden aufgrund der architektur (es sind ja nicht 320 einzelne shaderblöcke)
2. wenn mehr und detailiertere objekte aufgrund der höheren shaderarchitektur dargestellt werden müssen geht der karte erst recht die füllrate aus (bei der physx karte ist es ja das gleiche)

Sternenkind
2007-07-13, 15:56:46
nebenbei war die alte unreal engine sehr von der cpu abhängig und NICHT von der gpu

Das sagt nun was genau über die UE3 Engine aus? :rolleyes:


wenn 3 leute gegen dich reden willst du noch immer recht haben
denk mal drüber nach... ;D

Heißt nicht das es deswegen "richtiger" ist. :P

Savay
2007-07-13, 16:00:01
weil zum xten mal bei der nutzung von HDR und FP16 der R600 nicht die füllrate halbiert bekommt wie der G80, weil die bandbreite größer ist...weil content mit dem minimum designziel auf SM3 dazu führt das mehr parallel berechnet werden kann
nativ auf SM3.0 und die möglichkeiten von SM3.0 fähigen karten ausgerichtete software lastet den r600 automatisch besser aus weil es anspruchsvoller ist...

das ganze SM2 zeug (und mag es auch noch soviele SM3 oder SM4 pfade haben) was wir momentan sehen erzeugt einfach nicht die art von rechenlast für die die rechenwerke des R600 gebaut sind.
das sieht man aber auch ganz deutlich an R6 Vegas und an den SM3/HDR tests im 3dmark

Edit:
Disclaimer

-Ich habe eine Kristallkugel auf meinem Schreibtisch und kann Hellsehen!
-Unter einem Indiz versteht man einen Hinweis, der für sich allein oder in einer Gesamtheit mit anderen Indizien den Rückschluss auf das Vorliegen einer Tatsache zulässt. Im Allgemeinen ist ein Indiz mehr als eine Behauptung, aber weniger als ein Beweis.

N0Thing
2007-07-13, 16:32:52
Wenn man mal annimmt, daß sich die 2900XT in einem Jahr auf/über dem Niveau einer 8800GTX befindet, ist es immer noch fraglich, ob beide Karten bei dann aktuellen Spielen in höheren Auflösungen (bevorzugt mit AA&AF) noch gute Frameraten bringen können, oder ob man dann schon wieder auf die Refresh-/Nachfolgechips setzen muß, um bei einer Auflösung ab 1600x1200 bei vollen Details noch flüssig spielen zu können.

Wenn man mal davon ausgeht, daß die Engine für Unreal 3 aufwendiger wird als bei Vegas und dort schon bei 1600x1200 nicht mehr als 50fps erreicht werden, dürfte es unter Vista mit DX10, wo dann auch AA möglich sein wird, keine Freudigen Gesichter geben.

Savay
2007-07-13, 16:39:52
hehe ne wird es auch nicht geben.
erinnert mich so nen bissl an den run auf die GF1...und die gute alte GF6 (RIP meine gute alte Gainward :().
wer hat jemals T&L wirklich auf der NV10 nutzen können? und wer spielt nen SM3 spiel auf nem NV40 :rolleyes:

streng genommen sollte man bei solchen vertretern der neuen technologie generation auch davon ausgehen dürfen das sich damit zumindest die anstehende generation der spiele gut spielen lässt...das es bis auf den r300 fast nie der fall war...nun gut...

das ganze hat allerdings wenig mit meinen hellseherischen fähigkeiten zu tun :tongue: bis auf das in UT3 der R600 wohl doch spielbare FPS erzeugt...nun die GTX wohl durchaus auch. für HD auflösungen wohl weniger bzw in den regionen wohl kaum onlinetaugliche 60fps aber man kann ja nicht alles haben :wink:

Gast
2007-07-13, 16:57:10
weil zum xten mal bei der nutzung von HDR und FP16 der R600 nicht die füllrate halbiert bekommt wie der G80, weil die bandbreite größer ist...weil content mit dem minimum designziel auf SM3 dazu führt das mehr parallel berechnet werden kann

HDR mit FP16 Genauigkeit hat nichts mit der Texturleistung zu tun. Farcry verwendet FP16 Genauigkeit aber nur eine INT8 Texturfilterung.

nativ auf SM3.0 und die möglichkeiten von SM3.0 fähigen karten ausgerichtete software lastet den r600 automatisch besser aus weil es anspruchsvoller ist...

Bang, nein wieder falsch. Es lastet die Karte nicht besser aus. Man kann auch mit einem PS2.0 Shader die Karte ausbremsen. Man muss nur die Schwächen der Architektur ausnutzen.

das ganze SM2 zeug (und mag es auch noch soviele SM3 oder SM4 pfade haben) was wir momentan sehen erzeugt einfach nicht die art von rechenlast für die die rechenwerke des R600 gebaut sind.
das sieht man aber auch ganz deutlich an R6 Vegas und an den SM3/HDR tests im 3dmark


Och, schon wieder falsch. Auch mit den Beschränkungen des SM2.0 kann man die Hardware vollständig auslasten. Und die rechenlast ist nicht vom SM sondern von der Art der Berechnungen abhängig. PS2.0 erlaubt nur 64 mathematische Berechnungen in einem Shader. Du kannst aber auch 10x64 Shader schreiben, die die Hardware vollständig auslastet.
Und die Karte ist in R6 so stark, da das Spiel direkt von der Box kommt und die r600 eben nur der kleine Bruder ist. Das Spiel setzt voll auf die Rechenleistung.

Savay
2007-07-13, 17:13:32
HDR mit FP16 Genauigkeit hat nichts mit der Texturleistung zu tun. Farcry verwendet FP16 Genauigkeit aber nur eine INT8 Texturfilterung.

ja wohl wahr...ok vielleicht sollte ich mich genauer ausdrücken

FarCry basiert btw auf SM1.1 :|

wie sinnvoll wird es wohl sein in einem spiel der Generation SM3.0 auf FP16 zu verzichten...oder gehen wir ne generation weiter: jooo geilo wir haben voll hochwertiges HDR aber bei den shader instruktionen für die texturen bauen wir mal auf fx8/int8? genau das wird wohl der sinn vom neuen SM4 sein immer mehr instruktionen auf den selben farbwert...der aber langsam nur noch verdammt verlustbehaftet weiterverarbeitet wird!? ;) nun vielleicht endet es auch darin das sich auf den kleinsten sinnvollen nenner ergo FP8 geeinigt wird...nur es können beide performant genug FP16 texturfunktionen ausführen...der G80 verliert anteilig betrachtet mehr...hat aber IMMERNOCH mehr füllrate als der r600.
ne niedrigere genauigkeit ist kein argument pro g80...ne höhere allerdings auch keine kontra g80...es führt nur dazu das sich verbunden mit der HDR performance die effektive rohleistung so ziemlich angleicht.


Bang, nein wieder falsch. Es lastet die Karte nicht besser aus. Man kann auch mit einem PS2.0 Shader die Karte ausbremsen. Man muss nur die Schwächen der Architektur ausnutzen.

schwächen ausnutzen und code generieren der ungünstig für eine architektur ist hat mit auslasten nichts zu tun...das ist nur ne künstliche belastung. klar kann man jeden dämlichen und unsinnigen Code jeden µC unnötig ausbremsen. man kann es verschachteln und loops einbauen und wat weiß ich nicht alles aber praxisnah ist die struktur solcher programme nicht...solche garbageCodes verhalten sich atypisch.

es ist was anderes ob ich eine engine mit dem ziel designe eine SM2 hardware auszunutzen...und damit letztlich nen spiel baue das eben diese spezifikationen auf eine sinnvolle weise ausreizt...und dann später künstlich nen SM3 pfad draufpfropfe ODER ob ich ne engine mit hinblick aufs SM3 entwerfe und darauf nen spiel aufbaue das SM3 hardware als minimum vorraussetzt
der code in solchen anwendungen ist anders...er verhält sich anders und er erzeugt andere belastungen in den rechenwerken. oder etwa nicht?


Och, schon wieder falsch. Auch mit den Beschränkungen des SM2.0 kann man die Hardware vollständig auslasten. Und die rechenlast ist nicht vom SM sondern von der Art der Berechnungen abhängig. PS2.0 erlaubt nur 64 mathematische Berechnungen in einem Shader. Du kannst aber auch 10x64 Shader schreiben, die die Hardware vollständig auslastet.
Und die Karte ist in R6 so stark, da das Spiel direkt von der Box kommt und die r600 eben nur der kleine Bruder ist. Das Spiel setzt voll auf die Rechenleistung.

ja es setzt voll auf die rechenleistung...und nein es ist nicht so stark weil es von der box kommt! gibt genug 360 ports die besser auf nen G80 reagieren.
der r400/xenos tickt was die arbeitsweise der shader angeht ja bekanntlich anders als der r600...ich würde deshalb daraus nun keine schlüsse ziehen das sich R6:Vegas anders verhält als andere UE3 titel und nur weils nen 360 titel ist besonders tolle auf der r600 dasteht :P
im november sind wir schlauer und ich bin zuversichtlich das sich da an der relation zwischen den GPUs nichts weltbewegendes tun wird. UE3 mitm SM4.0 pfad ist dagegen noch sehr interessant und kann da noch etwaige verschiebungen beeinhalten.

Gast
2007-07-13, 17:17:25
ja es setzt voll auf die rechenleistung...und nein es ist nicht so stark weil es von der box kommt! gibt genug 360 ports die besser auf nen G80 reagieren.

Welche? Dirt, R6, Spider-Man 3, Splinter Cell 4? Alle zeigen das selbe Bild.


der r400/xenos tickt was die shader angeht ja bekanntloch anders als der r600...ich würde daraus nun keine schlüsse ziehen das sich R6:Vegas anders verhält als andere UE3 titel :P

Bezweifel ich sehr stark. Der r600 ist nichts anderes als ein Xenos mit leichten Verbesserungen. Die Grundarchitektur ist die selbe.

Savay
2007-07-13, 17:37:59
Welche? Dirt, R6, Spider-Man 3, Splinter Cell 4? Alle zeigen das selbe Bild.

wenn alle das selbe bild zeigen würden...nämlich das ideale nach dem motto "die kommen vom Xenos und verhalten sich alle so wie bei R6"
würde jeder hans und franz den r600 in den himmel loben :|

splinter cell 4...zum einen UE2.5...ne SM1.1 engine auf die nen SM3 pfad "raufgepfropft" ist...performt aufm G80 besser als aufm r600...nach deiner logik dürfte das nicht der fall sein


Bezweifel ich sehr stark. Der r600 ist nichts anderes als ein Xenos mit leichten Verbesserungen. Die Grundarchitektur ist die selbe.

der r400 und der r600 haben nicht viel miteinander am hut was die art und weise angeht wie sie die shader instruktionen durch die pipeline schicken. der grundsätzliche aufbau ist ähnlich und die haben parallelen aber das ding ist mitnichten nen simpel aufgepumpter xenos.

Gast
2007-07-13, 19:37:53
wenn alle das selbe bild zeigen würden...nämlich das ideale nach dem motto "die kommen vom Xenos und verhalten sich alle so wie bei R6"
würde jeder hans und franz den r600 in den himmel loben :|

Hoe? Diese Spiele werden als "pro 2900XT" herangezogen - auch vollkommen zurecht. Nur gibt es auf dem PC Sektor eben noch andere Engine mit anderen Ansprüchen.

splinter cell 4...zum einen UE2.5...ne SM1.1 engine auf die nen SM3 pfad "raufgepfropft" ist...performt aufm G80 besser als aufm r600...nach deiner logik dürfte das nicht der fall sein

Ach Gottchen, du hast keine Ahnung, stimmts? Splinter cell 4 verwendet wahrscheinlich die Vorgängerversion der R6 Engine. Es hat keinen SM2.0 bzw. SM1.1 Fallback. Und die 8800GTX perfomt hier nicht besser als die 2900XT - was auch nicht verwunderlich ist, da beide eine sehr ähnliche nutzbare Rechenleistung haben.

der r400 und der r600 haben nicht viel miteinander am hut was die art und weise angeht wie sie die shader instruktionen durch die pipeline schicken. der grundsätzliche aufbau ist ähnlich und die haben parallelen aber das ding ist mitnichten nen simpel aufgepumpter xenos.

Schonmal das Blockschaltbild beider Architekturen angeschaut? Die sind sich sowas von ähnlich. Der Aufbau ist beim r600 sehr sehr Xenos-ähnlich. Hey, der r600 hat genau die gleiche Tesslationeinheit. Die paar Änderungen machen aus dem r600 kein Abkömmling von Xenos, sondern nur eine (leichte) Verbesserung.

Savay
2007-07-14, 04:42:39
Hoe? Diese Spiele werden als "pro 2900XT" herangezogen - auch vollkommen zurecht. Nur gibt es auf dem PC Sektor eben noch andere Engine mit anderen Ansprüchen.

Ach Gottchen, du hast keine Ahnung, stimmts? Splinter cell 4 verwendet wahrscheinlich die Vorgängerversion der R6 Engine. Es hat keinen SM2.0 bzw. SM1.1 Fallback. Und die 8800GTX perfomt hier nicht besser als die 2900XT - was auch nicht verwunderlich ist, da beide eine sehr ähnliche nutzbare Rechenleistung haben.

SC4 basiert auf UE codedrop 3396...das ist innerhalb der versions spanne die für die UE2 relevant ist. ist ja schön und gut das der renderer SM3 support hat und das die den sm1.1 renderer rausgeworfen haben...per se ist die engine aber nicht auf sm3 ausgerichtet

R6 basiert auf UE codedrop 3500+ die genaue version ist mir nicht bekannt weil keinen zugang zum UDN habe und kein R6:vegas besitze

fakt ist die SC4 engine und die von R6 haben soviel miteinander am hut wie die UT99 engine und die von UT2003



Schonmal das Blockschaltbild beider Architekturen angeschaut? Die sind sich sowas von ähnlich. Der Aufbau ist beim r600 sehr sehr Xenos-ähnlich. Hey, der r600 hat genau die gleiche Tesslationeinheit. Die paar Änderungen machen aus dem r600 kein Abkömmling von Xenos, sondern nur eine (leichte) Verbesserung.

ah ja
der xenos hat 48 shader einheiten...womit wenn man 48 instruktionen durch die pipes schicken kann. beim r600 schwankt das ganze zwischen 64 und >300. im grunde sinds aber 64 "shadereinheiten"
beim g80 sinds 128 threads...vom grundsätzlichen verhalten was die auslastbarkeit der shadereinheiten angeht sind sich der g80 und der xenos demnach ja etwas ähnlicher.

was bei sm3 software und wohl auch sm4 software passiert ist doch das mehr operationen anfallen die parallelisierbar durch die pipes des r600 geschickt werden können...die effektive auslastung der architektur steigt. NUR brauchts dafür eben software bei dem das der fall ist...

=Floi=
2007-07-14, 09:27:39
beim G80 sind es 128threads die mit mehr als dem doppeltem takt arbeiten!

aber in grunde muß das niemand interessieren denn es ist nur wichtig was auf den monitor kommt möglichst zum besten preis und um das ging es hier


ich möchte auch noch anmerken, dass zwar eine schwächere karte als z.B. ein G80 zwar günstiger ist aber wenn ich damit nicht richtig spielen kann geht der nutzen gegen 0 und habe in grunde 150€ in den sand gesetzt!

gutes beispiel war hier der A64 single core den es anfang 2006 sehr günstig gab aber den man jetzt schon wieder "wegwerfen" kann weil er selbst übertaktet in den >neueren< (bitte beachten) spielen nichts mehr reisst

Gast
2007-07-14, 09:55:55
die UE3 ist auch voll mit hinblick auf SM3.0 und 4.0 designed (optionaler fallback auf 2.0) und das scheint schon nen derben unterschied zu machen


btw http://www.falcon-nw.com/keltstake/ati_2900xtx.asp
http://www.computerbase.de/artikel/software/2007/bericht_windows_vista_geschwindigkeitscheck/9/#abschnitt_rainbow_six_vegas
Schau mal in die PCGH mit dem R600-Test: Die Shader sind's bei Rainbow Six: Vegas offenbar nicht - eher was anderes.

Gast
2007-07-14, 09:59:26
oh mann schau doch mal WAS du da postest

AA ist ungleich AF...die AA skalierung ist die selbe...die AF skalierung ist beim G80 besser aufgrund der rohleistung besser. wenn du AA und AF kombinierst ist doch klar das der R600 anfängt stärker einzubrechen. :rolleyes:

Lies du mal genau:

AA-Skalierung CoD2 1600x1200, Einbruch von 1x AA auf 4x FSAA:
G80: auf 89,6% der 1xAA-Leistung
R600: auf 65,7% der 1xAA-Leistung

AA-Skalierung Fear 1600x1200, Einbruch von 1x AA auf 4x FSAA:
G80: auf 58% der 1xAA-Leistung
R600: auf 50% der 1xAA-Leistung

AA-Skalierung Prey 1600x1200, Einbruch von 1x AA auf 4x FSAA:
G80: auf 65,8% der 1xAA-Leistung
R600: auf 57,2% der 1xAA-Leistung

Und das, wo die HD2900 XT mal deutlich mehr Bandbreite hat.

deekey777
2007-07-14, 21:50:04
HDR mit FP16 Genauigkeit hat nichts mit der Texturleistung zu tun. Farcry verwendet FP16 Genauigkeit aber nur eine INT8 Texturfilterung.



Far Cry nutzt wirklich FP16-Filterung, wenn man ihm trauen darf:
Far Cry does take advantage of FP16 filtering if it's available. When it's not available, it does the filtering in the shaders.
http://forum.beyond3d.com/showpost.php?p=1027846&postcount=266

Für die, die nicht wissen, wer OpenGL guy ist: Er hat's drauf und arbeitet bei ATi/AMD.

Das ist natürlich absoluter Blödsinn. Einem R600 sollte es vollkommen egal sein, ob jetzt mit FP16 oder FX8 gerechnet wird, einem G80 sicher nicht. Ich denke man kann schon davon ausgehen, dass R600 in Zukunft im Vergleich zu G80 etwas aufholen wird, denn auch der Arithmetikanteil wird weiter steigen, und da sollte ein R600 nicht so schlecht liegen. Ob es fürs überholen reichen wird, wage ich allerdings stark zu bezweifeln, zumindest solange der AA-Bug nicht behoben wurde.
Du meinst bestimmt gefiltert.

beim G80 sind es 128threads die mit mehr als dem doppeltem takt arbeiten!

Der G80 arbeitet mit etwa 4000 Threads aufeinmal. ;)
Du meinst die 128 SPs, was eh die falsche Bezeichnung ist (Marketing ahoi), genau wie die 320 skalare ALUs des R600. Die Einheiten sind zu SIMD-Kanälen zusammengefasst, die dann an Threads arbeiten.

deekey777
2007-07-14, 22:09:23
jo

Jo...

die ersten beiden game testes verwenden stencil shadows und keine softshadows :| und wir alle wissen das die stencil leistung bei nv traditionell besser ist :tongue: die haben doch extra für doom3 diese hyper mega stencil shadow hardwareeinheiten eingebaut :lol:
Ich erinnere mich an das schöne Jahr 2003, als nVidia Futuremark für deren Schattenalgo kräftig kritisiert hat. Egal.
3D 2005/2006 nutzen Shadowmapping samt DST+PCF, was ein gewisser Vorteil für NV ist, mit dem 2006 wird ATis fetch4 unterstützt. Mit Doom 3 hat das Ganze nichts zu tun.

FP16 hilft eben eher den r600 karten als den g80... 1. bandbreite 2. die TMUs die beim G80 bei FP16 2 passes brauchen..fazit die füllrate gleicht sich an

FP16 hilft dem R600? Angesichts dessen, dass seit dem :massa: R300 mit mindestens FP24 berechnet wird (gilt für PS), brauchen die TMUs des G80 keine zwei Pässe, sie filtern mit halber Geschwindigkeit. Wieviele TFs hat der G80 nochmal?



ja sagen sie...nur spielt in der auch noch andere faktoren rein. die effektive füllrate bei verwendung von HDR zumbeispiel
Sinn?

und was sagt btw R6:Vegas dazu? und sag nicht das sich andere UE3 games komplett anders verhalten werden...das halte ich für unwahrscheinlich
Kennst du Robotblitz, das erste UE3-Spiel für den PC?

Gast
2007-07-14, 22:25:13
Ich erinnere mich an das schöne Jahr 2003, als nVidia Futuremark für deren Schattenalgo kräftig kritisiert hat. Egal.
War das nicht, weil FM sinnloser Weise Multipass-Shader benutzt hat, obwohl die FXen es auch hätten Single-Pass rendern können?

deekey777
2007-07-14, 22:53:01
War das nicht, weil FM sinnloser Weise Multipass-Shader benutzt hat, obwohl die FXen es auch hätten Single-Pass rendern können?

OT: Was ist mit THG los? Wie kann man die Seite so verunstalten?

Zum Thema:
http://www.tomshardware.com/de/3d-mark-2003-routinen-fern-der-praxis,testberichte-548-2.html

Savay
2007-07-15, 05:28:55
jaja ich weiß der 3dmark ist hier ja eh generell verpöhnt...so nen böser absolut praxis ferner synthetischer benchmark! naja angesichts dessen wasfür benches und methoden sonst zum heiligen gral stilisiert werden sage ich da mal nichts weiter zu ;)

(...)
Kennst du Robotblitz, das erste UE3-Spiel für den PC?

nein...verhält es sich denn merklich anders? es geht mir hier seit anfang an nur um tendenzen...die meisten UE2 spiele zeigen auch so ziemlich das selbe verhalten. warum sollte das bei der UE3 plötzlich anders sein :|

diese ganze diskussion führt auch zu nichts, wir werden eh erst in 9-12 monaten sehen wie das gefüge zwischen dem r600 und dem g80 wirklich aussieht! die indizien die sich mir da offenbaren nimmt man ernst oder tut es eben nicht. es gibt nichts zu beweisen insofern muss ich mich vielmals für meinen fehler entschuldigen jemals auch nur damit angefangen zu haben. :rolleyes:

=Floi=
2007-07-15, 06:31:23
im 12 monaten ist der G80 ca21 monate alt ;D
was nützt es mir jetzt noch, dass die ati nen tick vor der alten nv ist aber ich es mit beiden karten nicht so spielen kann wie ich möchte?


sicherlich kann man theoretisch die spiele vergleichen aber praktisch kann es wieder ganz anders aussehen (weil eben am content noch etwas zugelegt wurde wie man im vergleich der beiden spiele sieht und die anforderungen sind auch etwas anders taktik gegen schnelles mp)

Savay
2007-07-15, 06:56:45
ja in 12 monaten gibt es aber erst nen sinnvollen benchmark parcours der auch mal praxisnahe D3D10 titel beinhalten wird...

kaufst du ernsthaft ne SM4 karte um damit das heutige zeug zu zocken?

sry wenn ich mir ne >300€ Grafikkarte anschaffe bleibt die länger als 12 monate im rechner...was nützt mir ne karte die jetzt sowieso schneller als schnell genug ist...ausser ich bin krösus und ich kann geld scheißen

die gf1 war übrigends auch ne richtig geile karte wenn es um DX6 spiele ging...der meiste DX7 kram (wofür die karte eigentlich gebaut war) lief darauf scheiße. die GF6 ist auch der reinste SM3 rohrkrepierer :rolleyes: (ICH habe btw beides bessesen (GF256 DDR & 6800LE@~Ultra) als sie aktuell waren...einziger nicht NV rohrkrepierer den ich hatte war der NV25 in form der Ti4400 die wirklich gehalten hat was sie versprach. was ich daraus gelernt habe -> die refreshchips sind sinnvoller...vorallem bei NV)

daraus lernt man eigentlich NUR das es sich nicht lohnt wegen so nem blödsinn umzurüsten. das argument das aufm g80 momentane games rasend schnell sind...ja toll das kann ich mir auch sonst wo hin schmieren weil dafür jede R580/RV570 sowieso mehr als ausreicht... ;D

so nebenbei ist der G71 in SM1.1/2 games etc. teilweise auch schneller als nen R520/580...nur je akuteller die games und je shaderlastiger umso weiter ziehen die radeons letztlich davon. der vergleich zwischen r520 und r580 ist ja ähnlich interessant!!!

es ist doch absoluter bullshit karten danach zu beurteilen wie sie sich in games verhalten die zum release aktuell waren aber eigentlich für die nächste spiele generation gebaut sind!

wenn es dir nur drauf ankommt wieviel ne karte jetzt durch den framebuffer jagt...schön und gut aber bitte tu dann nicht überrascht wenn die "crappy" r600 (die nebenbei bemerkt ca. soviel wie ne GTS kostet) dann in den meisten echten D3D10 oder gar nur echten D3D9c (SM3) games doch eher wie ne GTX performt...für leute die sich jetzt ne karte kaufen um damit auch noch länger als 6monate zu zocken ist dieser umstand dann sicher schon interessant.

wer nicht über den tellerrand der üblichen benchmarkparcours hinausschauen will und ne GPU nur engstirnig nach dem beurteilen möchte was momentan prüfbar ist...schön und gut. aber mein ding ist das nicht. insofern: ich habe alles wesentliche dazu gesagt was ich dazu anzumerken habe...wer das zwanghaft als blödsinn abstempeln will, von mir aus!
das führt hier alles zu nix und ich werde das hier nicht mehr fortführen
der vollständigkeit halber können wir ja in 9 monaten nochmal schauen wie es dann aussieht und wer letztlich recht hatte...ich bin da btw recht zuversichtlich :tongue:

=Floi=
2007-07-15, 09:44:49
Hallo

zitat
was ich daraus gelernt habe -> die refreshchips sind sinnvoller...vorallem bei NV)

hier kann ich dir zustimmen

zitat
so nebenbei ist der G71 in SM1.1/2 games etc. teilweise auch schneller als nen R520/580...nur je akuteller die games und je shaderlastiger umso weiter ziehen die radeons letztlich davon.

auch das ist richtig


kaufst du ernsthaft ne SM4 karte um damit das heutige zeug zu zocken?
ja, den G80 refresh und die performance des G71 reicht sicherlich nicht überall und schon jetzt sieht man an CM dirt dass auch ein G80 nicht mehr reicht
wenn man mit aktuellen karten spiele die ca 1 jahr alt sind spielt, spart an geld, nerven weil die spiele gepatcht sind und nebebei kann man noch alle details und aa anstellen
so fährt man wesentlich besser

Gast
2007-07-16, 12:50:08
ja in 12 monaten gibt es aber erst nen sinnvollen benchmark parcours der auch mal praxisnahe D3D10 titel beinhalten wird...


Und dann, wenn G80 und R600 eindreiviertel bzw. ein Jahr alt sind und in Sachen "High-End" zum alten Eisen gehören, interessiert deren Leistung noch irgendwen? Glaub' nicht.

Savay
2007-07-16, 12:54:32
...sag bloß du kaufst alle 12monate ne neue grafikkarte die deutlich mehr als 300€ oder gar 400€ verschlingt :rolleyes:

LovesuckZ
2007-07-16, 13:04:44
SC4 basiert auf UE codedrop 3396...per se ist die engine aber nicht auf sm3 ausgerichtet

Nein? Das machst du woran fest?


ah ja
der xenos hat 48 shader einheiten...womit wenn man 48 instruktionen durch die pipes schicken kann.

Eine recheneinheit des Xenos besteht aus einer Vec4+1 Skalar Einheit. Davon hat Xenos 48 Stück, die in 3x16 SIMD Arrays eingeteilt sind. Die Karte kann also maximal, in deiner Sprache, 240 Anweisungen verarbeiten.

beim r600 schwankt das ganze zwischen 64 und >300. im grunde sinds aber 64 "shadereinheiten"
beim g80 sinds 128 threads...vom grundsätzlichen verhalten was die auslastbarkeit der shadereinheiten angeht sind sich der g80 und der xenos demnach ja etwas ähnlicher.

Ähm, der G80 hat bestimmt nicht mehr Übereinstimmungen mit Xenos als der r600.


was bei sm3 software und wohl auch sm4 software passiert ist doch das mehr operationen anfallen die parallelisierbar durch die pipes des r600 geschickt werden können...die effektive auslastung der architektur steigt. NUR brauchts dafür eben software bei dem das der fall ist...

Das hat nichts, aber auch garnichts mit dem SM zu tun. Für die Auslastung der Architektur ist zum Größtenteil der Treiber verantwortlich. Man kann auch mit einem PS4.0 Anweisungen schreiben, die dem G80 oder dem r600 besser schmecken.

wenn es dir nur drauf ankommt wieviel ne karte jetzt durch den framebuffer jagt...schön und gut aber bitte tu dann nicht überrascht wenn die "crappy" r600 (die nebenbei bemerkt ca. soviel wie ne GTS kostet) dann in den meisten echten D3D10 oder gar nur echten D3D9c (SM3) games doch eher wie ne GTX performt...für leute die sich jetzt ne karte kaufen um damit auch noch länger als 6monate zu zocken ist dieser umstand dann sicher schon interessant.

Die 2900XT erkauft sich diesen Leistungsvorteil durch deutlich Nachteile: Kühlkonstruktionslautstärke und Stromaufnahme. Und man muss in vielen Spielen auf AA verzichten, wenn die Karte wie die GTX performen soll.

der vollständigkeit halber können wir ja in 9 monaten nochmal schauen wie es dann aussieht und wer letztlich recht hatte...ich bin da btw recht zuversichtlich

In 9 Monaten ist meine 8800GTX 17 Monate alt. Ich bezweifel, dass ich dann noch Wert auf dem r600 lege, der sowieso nicht schneller als meine Karte sein wird.

Savay
2007-07-16, 13:27:30
Nein? Das machst du woran fest?

die UE2 ist nativ auf welche DX Version programmiert worden? 3396 ist der letzt offizielle codedrop für die UE2/2.5


In 9 Monaten ist meine 8800GTX 17 Monate alt. Ich bezweifel, dass ich dann noch Wert auf dem r600 lege, der sowieso nicht schneller als meine Karte sein wird.

weißt du was? das ist mir ehrlich gesagt scheiß egal wo du vollhorst wert drauf legst. :P

steck dir deine meinung da hin wo die sonne nicht scheint...aber hey da ich ja eh nur lüge wenn ich meine meinung äussere kann dir das doch ebenfalls egal sein insofern verstehe ich nicht weshalb du da überhaupt noch irgendwas kommentierst... :|

ansonsten thx für den bann und cya

LovesuckZ
2007-07-16, 13:33:44
die UE2 ist nativ auf welche DX Version programmiert worden? 3396 ist der letzt offizielle codedrop für die UE2/2.5

Und? Das ist kein Beweis, dass die Engine nicht auf das SM3.0 ausgelegt wurde. Sonst gäbe es irgendein Fallback.

steck dir deine meinung da hin wo die sonne nicht scheint...aber hey da ich ja eh nur lüge wenn ich meine meinung äussere kann dir das doch ebenfalls egal sein insofern verstehe ich nicht weshalb du da überhaupt noch irgendwas kommentierst... :|

Meinungen können auch Lügen sein. Und wenn du, auch nach Berichtigung einer falschen Annahme, diese immer wieder als Fakt hinstellen willst, dann lügst du.

Coda
2007-07-16, 13:34:15
die UE2 ist nativ auf welche DX Version programmiert worden? 3396 ist der letzt offizielle codedrop für die UE2/2.5
Da kann doch jede Menge umgeschmissen worden sein.

was bei sm3 software und wohl auch sm4 software passiert ist doch das mehr operationen anfallen die parallelisierbar durch die pipes des r600 geschickt werden können...die effektive auslastung der architektur steigt. NUR brauchts dafür eben software bei dem das der fall ist...
Das hat wie Lovesuckz schon sagte überhaupt nichts mit der Shaderversion zu tun. SM4 rechnet genauso wie SM3 auf FP32-Werten rum und es gibt dabei die gleichen Basisoperationen. R600 wird also nicht auf einmal mit SM4 schneller, wenn man das gleiche im Shader macht.

Gast
2007-07-16, 13:41:07
...sag bloß du kaufst alle 12monate ne neue grafikkarte die deutlich mehr als 300€ oder gar 400€ verschlingt :rolleyes:
Ja, und dabei verkaufe ich die alte für 250 oder gar 350 Euro wieder.

Savay
2007-07-16, 13:41:26
Da kann doch jede Menge umgeschmissen worden sein.

schon...das endergebniss verhält sich trotzdem nicht so als wenn gleich jede komponente darauf ausgerichtet wäre.

Coda
2007-07-16, 13:44:07
Nach der Shaderversions-Geschichte würde ich mal sagen, dass du das überhaupt nicht beurteilen kannst.

Savay
2007-07-16, 13:44:44
Und? Das ist kein Beweis, dass die Engine nicht auf das SM3.0 ausgelegt wurde. Sonst gäbe es irgendein Fallback.

den fallback gibt es nicht weil er mehrarbeit bedeutet hätte...


Meinungen können auch Lügen sein. Und wenn du, auch nach Berichtigung einer falschen Annahme, diese immer wieder als Fakt hinstellen willst, dann lügst du.

oh und wer urteilt darüber das meine meinung falsch ist? du?!

Gast
2007-07-16, 13:45:36
schon...das endergebniss verhält sich trotzdem nicht so als wenn gleich jede komponente darauf ausgerichtet wäre.
... als wenn jede Komponente (wovon?) darauf (worauf?) ausgerichtet (wie?) wäre.

Meinst du, das Programm - welches auch immer - arbeitet anders, weil über dem

MUL r0,r0,x

ein SM4 statt ein SM3 oder SM2 steht?

Savay
2007-07-16, 13:48:40
Nach der Shaderversions-Geschichte würde ich mal sagen, dass du das überhaupt nicht beurteilen kannst.

welche shaderversions geschicht? wegen der terminologie unteschiede...ob da nun nen .0 hinter kommt oder nicht? wie nun die genaue versions bezeichung der shadereinheiten in der hardware ist und welches SM sie unterstützen? :|

du willst mir doch nicht weiß machen das eine engine die auf eine bestimmte DX version optimiert ist...und dann nachträglich umgeschrieben wird um einen renderpfad für eine aktuellere version zu unterstützen mit dieser besser oder besser gesagt ähnlich performt wie eine engine die von grundauf mit dem minimum dieser neuen version designed wurde?

fakt ist jedenfalls die UE2 und UE3 sind 2 verschiedene paar schuhe.

Coda
2007-07-16, 13:52:44
welche shaderversions geschicht?
Das R6xx angeblich mit SM3 und SM4 auf einmal viel besser zurecht kommt. Das ist für mich ein untrügliches Zeichen dafür, dass du dich nicht mit dem Thema auseinandergesetzt hast, sondern nur nachplapperst.

du willst mir doch nicht weiß machen das eine engine die auf eine bestimmte DX version optimiert ist...und dann nachträglich umgeschrieben wird um einen renderpfad für eine aktuellere version zu unterstützen mit dieser besser oder besser gesagt ähnlich performt wie eine engine die von grundauf mit dem minimum dieser neuen version designed wurde?
Doch genau das will ich, weil bei SC4 fixe Shader verwendet wurden, anstatt wie bei der UE3 von hand konfigurierbare zu verwenden. Das macht die Engine war unflexibler, aber sicher nicht langsamer.

Und ich weiß von was ich rede. Du anscheinend nicht.

oh und wer urteilt darüber das meine meinung falsch ist? du?!
Ich z.B. Und ich sage das gleiche.

Das hier ist kein Deppen-Forum mit ausschließlich Laien. Solltest du dich evtl. dran gewöhnen.

Gast
2007-07-16, 13:56:39
... als wenn jede Komponente (wovon?) darauf (worauf?) ausgerichtet (wie?) wäre.

Meinst du, das Programm - welches auch immer - arbeitet anders, weil über dem

MUL r0,r0.x

ein SM4 statt ein SM3 oder SM2 steht?
Oh, Verzeihung, es sollte
MUL r0,r0.x
heißen.

aths
2007-07-16, 14:05:30
Der r600 ist nichts anderes als ein Xenos mit leichten Verbesserungen. Die Grundarchitektur ist die selbe.Das wüsste ich.

AA skaliert genau wie beim G80...Beim AA ist das Problem, dass die AMD Radeon X2000-Serie als zusätzliche Maßnahme nur langsames CFAA zur weiteren BQ-Verbesserung bietet, der G80 hingegen performantes CSAA. Beides ist bekanntlich nicht das gleiche – CFAA nutzt ein Downsampling mit vergrößertem Filterkernel, welches aus BQ-Sicht jedoch nur im Edge-Detection-Modus allgemein brauchbar ist (da sonst das gesamte Bild unscharf wird) – was leider stark auf die Framerate geht. CSAA nutzt zusätzliche Coverage-Samples, um die Glättung bei Polygon-Außenkanten zu verbessern.

ich spreche davon das es nicht immer auf das format und die sprache ankommt mit der man ne architektur füttert sondern auch wie und was nun drin steht...Der G80 kann dank seiner Architektur mit noch so verzwickeltem Shadercode sehr effizient umgehen, der R600 bietet dies nicht. Dafür ist die arithmetische Rohleistung beim R600 höher. Wenn ich das richtig sehe, ist die Granularität (die Blockgröße, bzw. kleinste Pixelzahl pro Stapel) beim G80 feiner als beim R600 – was wiederum günstig ist, um die Rechenwerke effizient auszulasten.

Gast
2007-07-16, 14:08:53
Das wüsste ich.
Anscheinend ja nicht. ;)

CFAA nutzt ein Downsampling mit vergrößertem Filterkernel, welches aus BQ-Sicht jedoch nur im Edge-Detection-Modus allgemein brauchbar ist (da sonst das gesamte Bild unscharf wird)
Laut AMD ein Feature "reduces texture shimmering"...
Wenn ich das richtig sehe, ist die Granularität (die Blockgröße, bzw. kleinste Pixelzahl pro Stapel) beim G80 feiner als beim R600 – was wiederum günstig ist, um die Rechenwerke effizient auszulasten.
Siehst du richtig.

Savay
2007-07-16, 14:09:26
Das R6xx angeblich mit SM3 und SM4 auf einmal viel besser zurecht kommt. Das ist für mich ein untrügliches Zeichen dafür, dass du dich nicht mit dem Thema auseinandergesetzt hast, sondern nur nachplapperst.

ach wem plappere ich denn nach? den horden r600 fanatikern die sich hier im forum rumtreiben und die geistlos unsinnigen blödsinn von sich geben?
ich sehe hier niemanden! anscheinend bin ich der einzige der hier blödsinn erzählt wenn ich anmerke das mir in bestimmten benchmarks ein seltsames verhalten auffällt...

aber allein die feststellung dessen ist ja sofort falsch...und man lügt ja gleich! nein ganz davon ab wird man gleich zu bombardiert was man ja für ein ideot ist und wie unsinnig die eigenen bemerkungen :|


Doch genau das will ich, weil bei SC4 fixe Shader verwendet wurden, anstatt wie bei der UE3 von hand konfigurierbare zu verwenden. Das macht die Engine war unflexibler, aber sicher nicht langsamer.

Und ich weiß von was ich rede. Du anscheinend nicht.

nochmal worum es mir geht: verhalten sich die SCX und die UE3 engine gleich oder auch nur ansatzweise ähnlich? es ging mir nie um schneller oder langsamer...

edit:
im übrigen habe ich auch irgendwo weiter vorne schonmal geschrieben das es nicht darauf ankommt welche shaderversion benutzt wird sondern was letztlich drin steht!


Ich z.B. Und ich sage das gleiche.

Das hier ist kein Deppen-Forum mit ausschließlich Laien. Solltest du dich evtl. dran gewöhnen.

das will ich doch hoffen.
es krankt hier mehr dran wie gewisse termini aufgefasst werden...redet der eine von spürbar müssens für ihn gleich 50% sein...der andere wäre auch mit 10% schon zufrieden.

mir ist vollkommen schleierhaft warum man hier permanent immer derart hefitg angegangen wird obwohl man nichts anderes tut als sich einfach mal gewisse details etwas kritischer anzuschauen. muss wohl an mir liegen!

aths
2007-07-16, 14:17:43
Die Ultra halte ich eh für Blödsinn, NV konnte sich diese Karte ebenso gut sparen.Psychologische Kriegsführung. Noch vor dem R600 haben sie die Ultra herausgebracht.

- Sie kamen erneut in die Presse
- Sowohl Reviewer als auch Leser, die eigentlich auf den R600 warteten, wurden noch mal abgelenkt
- NV hatte somit nicht nur eine Karte, sondern zwei Produkte die klar schneller als R600 sind (GTX und Ultra statt nur GTX)
- Firmen wie EVGA boten schon länger vorübertaktete GTXe an. Warum sollte NV dann nicht selbst selektieren und die Taktreserven nutzen?


mir ist vollkommen schleierhaft warum man hier permanent immer derart hefitg angegangen wird obwohl man nichts anderes tut als sich einfach mal gewisse details etwas kritischer anzuschauen. muss wohl an mir liegen!Aufschaukel-Effekt. Vor ein paar Seiten warst du – wie alle in der Diskussion – noch nicht so gereizt. Bei Coda muss man wissen, dass er sofern er sich im Recht fühlt sein Wissen leider immer rausrotzt. Was nicht heißt dass er so oft im Recht ist wie er tut =) Das Prinzip (das ich auch hin und wieder anwende) ist, den anderen mit (im Kontext manchmal auch irrelevantem) Detailwissen zu zermürben. Allerdings bin ich auch sehr empfindlich, wenn Fachausdrücke verwendet werden ohne dass derjenige weiß, was sie genau bedeuten. Gerade wenns um Shader geht sollte man nicht auf CHIP- oder THG-Niveau oder so diskutieren.

R580 war deutlich besser als R520. Mal sehen, wie R"650" wird. R650 gegen G90 dürfte das Rennen um D3D10 entscheiden, sofern D3D10 nicht das DX8-Schicksal erfährt.

aths
2007-07-16, 14:21:41
Anscheinend ja nicht. ;)Wenn das so wäre, würde ich es wissen.

Laut AMD ein Feature "reduces texture shimmering"...Ja, watt ham wa jelacht.

Aber es stimmt ja sogar. Schöner wärs natürlich, wenn die Filter so eingestellt sind dass es gar nicht erst zum Texture Shimmering kommt.

Siehst du richtig.Auf der anderen Seite darf man die höhere arithmetische Rohleistung beim R600 nicht übersehen. Der Kunde kauft keine Leistung pro Transistor. Beim G80 rechne ich NV neben der zweifelsohne vorhandenen Ingenieursleistung auch einen Glücksfaktor hinzu – da hat vieles geklappt, was vielleicht hätte schiefgehen können.

Coda
2007-07-16, 14:28:07
nochmal worum es mir geht: verhalten sich die SCX und die UE3 engine gleich oder auch nur ansatzweise ähnlich? es ging mir nie um schneller oder langsamer...
Beide können Shadercode enthalten der entweder G8x oder R6xx besser schmeckt. Das hat nichts mit der Engineversion zu tun.

Was nicht heißt dass er so oft im Recht ist wie er tut
Uuuuh... Wait and see ;)

Gast
2007-07-16, 14:40:06
Wenn das so wäre, würde ich es wissen.
Anscheinend ja nicht. ;)


Ja, watt ham wa jelacht.

Aber es stimmt ja sogar. Schöner wärs natürlich, wenn die Filter so eingestellt sind dass es gar nicht erst zum Texture Shimmering kommt.
Natürlich stimmt es. Direkt Lügen wird keine Marketingabteilung der Welt. Die Frage ist bloß, ob es im Sinne ähnlicher Bildqualität sinnvoll ist, 4-tap-Quincunx "gegen" 12xCFAA zu benchen. ;D


Auf der anderen Seite darf man die höhere arithmetische Rohleistung beim R600 nicht übersehen. Der Kunde kauft keine Leistung pro Transistor. Beim G80 rechne ich NV neben der zweifelsohne vorhandenen Ingenieursleistung auch einen Glücksfaktor hinzu – da hat vieles geklappt, was vielleicht hätte schiefgehen können.
Natürlich kauft der Kunde am Ende reine Fps (oder auch möglichst hübsche Fps). Die Frage, ob Rechenwerke effizient auszulasten sind, bleibt davon jedoch unberührt; das ist eine Angelegenheit der Ingenieure.

Ich glaube, Glück ist das weniger. Man hatte insofern Glück, dass AMD den R600 erst so spät brachte und man lange die hohen Preise für den teuer zu fertigenden Chip halten konnte. Insofern hatten eher die Nvidia-Aktionäre Glück. Angeblich ist der erste G80 anfang 2006 ja ziemlich tot ins Labor gekommen.

Savay
2007-07-16, 14:42:43
Beide können Shadercode enthalten der entweder G8x oder R6xx besser schmeckt. Das hat nichts mit der Engineversion zu tun.


ganz ehrlich ich glaube das wirst du mir wohl nicht abnehmen wollen aber das ist mir nicht wirklich neu!

sind wir uns abseits dessen wenigstens auch noch einig das zu ner engine mehr als der renderer mitsamt shaderversion gehört?
und sind wir uns einig das man wenn man (als leveldesigner und artist) den content designed wenig einfluss darauf hat wie die engine das in shader instruktionen umsetzt?
sind wir uns gleichzeitig einig das wenn wir eine potenzielle engine von grundauf darauf ausrichten mit einem gewissen (hardware) oder besser gesagt software umgebung (die das minimum SM3 bietet) optimale ergebnisse zu erzielen sie sich anders verhält als eine die nachträglich daraufhin angepasst wurde?

Coda
2007-07-16, 15:09:37
Eine Engine ist primär viel Daten- und State-Verwaltung. UE3 bietet jetzt vor allem an, dass man SM3-Shader zusammeklicken kann, was diese natürlich unglaublich erschwert.

Wenn man bei der UE2 also nur einige spezielle Shader verwendet, dann ist die Engine zwar nicht so flexibel, aber dennoch nicht langsamer.

Von Grund auf viel anders anpassen muss man für eine höhere Shaderversion gar nicht. Meshes bleiben Meshes, und Texturen bleiben Texturen.

Gast
2007-07-16, 15:33:44
Eine Engine ist primär viel Daten- und State-Verwaltung. UE3 bietet jetzt vor allem an, dass man SM3-Shader zusammeklicken kann, was diese natürlich unglaublich erschwert.


gabs den materialbrowser und demnach die shader zum "zusammenklicken" nicht auch schon irgendwo ab version 500-927? :)

Coda
2007-07-16, 15:37:09
Jain. Das war ein simples Multipass-Setup und es wurde kein Shadercode damit erzeugt.

Gast
2007-07-16, 16:31:26
ich dachte es ist "egal" was (innerhalb der spezifikation) für code über die shader ausgeführt wird? man kann doch auch "normale" multipass funktionen in shader instruktionen packen.
und wieso gibt es meistens von der selben textur ne multipass und ne shaderversion in den packages?

TnL wird doch in neuen chips auch über die shader emuliert.
klar der treiber interpretiert da die TnL instruktionen einfach in maschinencode für die shadereinheiten um aber an sich dachte ich die shader (software) wären nur ne einheitliche programmiersprache die die (in grenzen) freie programmierbarkeit der hardwareeinheiten ermöglicht!

robbitop
2007-07-16, 16:57:41
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index10.php

demnach skaliert das FSAA sogar besser aufm R600 (wie in den meisten anderen tests btw ebenfalls) ;)
Der Test ist mit HDR. Das AA kostet der R600 hier ein paar Prozent weniger als der R580. Der Einbruch des G80 ist allerdings geringer:

R580 (NoAA-4xAA):
20%

R600 (NoAA-4xAA):
17,5%

G80 (NoAA-4xAA):
15,7%

Das Setting "Herzland" enthielt m.M.n. aber nicht so viele Polyedges und ist damit vieleicht nicht sooo aussagekraeftig. Der Artikel entstand, wie gesagt, in extrem kurzer Zeit.

Coda
2007-07-16, 17:11:38
ich dachte es ist "egal" was (innerhalb der spezifikation) für code über die shader ausgeführt wird?
Die Unreal Engine 2 basiert auf DX7-Technik (nicht DX7) und verwendet keine Shader, außer für eine Passreduktion beim Terrain.

Das die Dinger im Material-Browser "Shader" heißen ist irreführend. Bei Multipass wird wirklich auch heute noch mehrfach gerendert und nicht durch den Treiber ein einziger Shader daraus generiert. Das ist nicht orthogonal zu T&L.

Gast
2007-07-16, 18:03:20
ok das ist soweit klar...aber dann erklär mir bitte kurz woher im D3D8/9 renderer folgende einträge kommen:

UseHardwareTL=False
UseHardwareVS=False
(...)
MaxPixelShaderVersion=255

das verwirrt mich in dem zusammenhang etwas...ja schön und gut es ist durchaus so das lediglich multipass effekte für die texturen verwendet werden...nur wieso gibt es dann diesen shader support in den renderern und wieso bricht die framerate messbar ein wenn man diese ausschaltet?

http://wiki.beyondunreal.com/wiki?action=browse&id=Unreal_Engine_Versions/2&oldid=Unreal_Engine_2
da steht ja eigentlich auch was anderes...hmm

und ja hardwareshader != ShaderModel

Gast
2007-07-16, 18:06:23
ah ok blödsinn man schaltet ja nur die Vertex funktionen aus

Coda
2007-07-16, 18:24:14
Ich zieh mir das nicht aus den Fingernägeln. Man kann z.B. mit dem DirectX Tweaker die Pixelshader einfärben und es ist in der Tat nur ein PS1.4 für's Terrain in Verwendung.