PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X2900 XT in Bioshock schneller als 8800 GTX


Seiten : [1] 2

Schlammsau
2007-08-31, 09:28:40
@3DCenter Main
Beim GameSpot hat man sich mit der Performance des BioShock-Demos unter verschiedenen Grafikkarten, Prozessoren und RAM-Ausbaustufen beschäftigt. Sehr beachtenswert ist hierbei, daß die Radeon HD 2900 XT in diesem Spiel nach wie vor schneller ist als eine GeForce 8800 GTX, auch die anderen ATI-Grafikkarten schlagen sich in dieser Demo klar besser als ihre normalerweise gleichstarken nVidia-Pendants.
http://www.gamespot.com/features/6177688/index.html
bin begeistert! :)

Popeljoe
2007-08-31, 09:34:46
Doch ganz nettes Potential...
Unter DirX9 rennt sie aber besser, als unter DirX10:
http://www.gamespot.com/features/6177688/p-6.html
Trotzdem: hätte ich nicht gedacht, daß die in einem derartig neuen Game die GTX schlägt! ;)
P1

AnarchX
2007-08-31, 09:45:14
Naja, ohne AA und nur 4xAF kein Wunder, dass die 2900XT hier noch ihre hohe arithmetische Leistung mal auspielen kann.

Aber wie wird es wohl aussehen, wenn man 16xAF und 4xAA (per exe-Umbenung) aktiviert? ;)

Gast
2007-08-31, 09:50:04
versuch mal 4x AA zu aktivieren du held

dargo
2007-08-31, 09:55:45
versuch mal 4x AA zu aktivieren du held
Auf nem G80 kein Problem. ;)

http://www.gamespot.com/features/6177688/index.html
bin begeistert! :)
Ich nicht, ist nichts Neues ohne AA/AF bzw. 4xAF. Und die Performance in DX10 ist wohl ein schlechter Witz. :|

Schlammsau
2007-08-31, 10:13:11
Ich nicht, ist nichts Neues ohne AA/AF bzw. 4xAF. Und die Performance in DX10 ist wohl ein schlechter Witz. :|
das sie eine GTX unter DX10 schlägt, is mir neu!
Zwischen den beiden Karten sind fast 200€ Preisunterschied zugunsten der ATI! :P
Hab ja schon im x2600 Thread gesagt, dass die ATI Karten Zukunfts sicherer sind als die von nVidia! Diese Ergebnisse bestätigen mir dies nur wieder eindrucksvoll!:)

AnarchX
2007-08-31, 10:16:27
Gerade unter DX10(=Zukunft) ist die 2900XT doch wieder langsamer. X-D

Und wie kommst du auf fast 200€ Preisunterschied?
Ich sehe da gerade mal ~110€:
http://geizhals.at/deutschland/a256994.html
http://geizhals.at/deutschland/a224901.html
-> 8800GTX ist unter DX10 schneller, als was sie mehr kostet, ergo ein besseres P/L-Verhältnis.

Du solltest dir besser ein anderes Forum zum trollen suchen. ;)

dargo
2007-08-31, 10:19:23
das sie eine GTX unter DX10 schlägt, is mir neu!
Zwischen den beiden Karten sind fast 200€ Preisunterschied zugunsten der ATI! :P

1. Sind es keine 200€ sondern ~110€ Unterschied.
2. Verstehe ich deinen ersten Satz nicht.


Hab ja schon im x2600 Thread gesagt, dass die ATI Karten Zukunfts sicherer sind als die von nVidia! Diese Ergebnisse bestätigen mir dies nur wieder eindrucksvoll!:)
Wie kann man nur so Fanboy verblendet sein? Du hast echt nicht begriffen warum der R600 schwächelt.

[dzp]Viper
2007-08-31, 10:21:56
Gerade unter DX10(=Zukunft) ist die 2900XT doch wieder langsamer. X-D

Bingo und zwar deutlich!

Schlammsau
2007-08-31, 10:22:06
1. Sind es keine 200€ sondern ~110€ Unterschied.
2. Verstehe ich deinen ersten Satz nicht.


Wie kann man nur so Fanboy verblendet sein? Du hast echt nicht begriffen warum der R600 schwächelt.

Ich und Fanboy????? Hast dir schon mal meine Sig angeschaut.....
Komischerweise steht da nur Intel und nVidia drin!
Mir stinkts nur, dass von vorn herein alles von ATI schlecht geredet wird obwohl gar nicht so ist!

[dzp]Viper
2007-08-31, 10:23:27
Mir stinkts nur, dass von vorn herein alles von ATI schlecht geredet wird obwohl gar nicht so ist!

Die Karte ist unter DX9 okay.

Aber unter DX10 (aka Zukunftsicherheit) ist sie arg langsam - was man auch unter Bioshock wieder wunderbar sehen kann. Der Leistungsabfall von DX9 zu DX10 ist enorm!

Winter[Raven]
2007-08-31, 10:25:36
Ich würde abwarten, irgendwie habe ich so einen möglichen Verdacht auf Shaderreplacement oder Optimierung durch ATi jetzt AMD im Treiber...

Das die R600 ihre Stärke in D3D10 nicht ausspielen kann, sollte eigentlich sogar einem ATI-Fanboy sein.

dargo
2007-08-31, 10:27:12
Mir stinkts nur, dass von vorn herein alles von ATI schlecht geredet wird obwohl gar nicht so ist!
Dafür gibt es auch einen Grund!
Ich hatte vor meiner G8800GTS auch nur ATI (R9700pro, R9800pro, X800XL, X1800XL, X1900XT). Habe aber selbst eingesehen, dass die 2xxx Serie ein Fehltritt war. Du musst dir nur paar Games mit AA/AF angucken, von dem Stromverbrauch reden wir lieber erst gar nicht. Vielleicht klappts mit dem R700. Der R680 soll laut Gerüchten keine ernsthafte Konkurenz für NV sein.

Winter[Raven]
2007-08-31, 10:30:36
Vielleicht klappts mit dem R700

Das Gegenprodukt von nVidia kommt aber wohl wieder früher...

dargo
2007-08-31, 10:31:20
;5802090']Das Gegenprodukt von nVidia kommt aber wohl wieder früher...
Das sehe ich schon mittlerweile als die Regel, also nichts Neues. :cool:

dreas
2007-08-31, 10:32:48
Mir stinkts nur, dass von vorn herein alles von ATI schlecht geredet wird obwohl gar nicht so ist!

schlecht stimmt nicht nur die performance UND preis/leistungskrone unter D3D10 sowie mit AA/AF
qualisettings hat ati halt nicht. daher stimmt dein fredftitel einfach nicht. deswegen ist die karte natürlich trotzdem schnell und sicherlich nicht schlecht.

mfg dreas

Gast
2007-08-31, 10:32:51
ach alles wetterfähnchen hier, wenn ATI wieder ne topkarte bringt wird nvidia nieder geflamed...

also lasst es lieber, wenn ich hier forenmod wäre wäre der thread jetzt schon closed, weil man nur "fanboy" geplapper hört

seit forh das es 2 Grafikkarten hersteller gibt sonst könnten sich die meisten nur alle 5 jahre eine neue gpu kaufen, weil sie unbezahlbar wäre

Schlammsau
2007-08-31, 10:34:37
das der R700 nicht das gelbe vom Ei ist, ist mir klar!
gerade der Stromverbrauch ist absolut nicht tragbar! (für mich!)
Aber die Leistung ist meinermeinung nach nicht so schlecht wie sie oft dargestellt wird!

AnarchX
2007-08-31, 10:48:52
Aber die Leistung ist meinermeinung nach nicht so schlecht wie sie oft dargestellt wird!

Wie schlecht wird sie dargestellt?

Wer sich wenigsten etwas mit dem R600 auseinander gesetzt hat, dem sollte klar sein, dass dieser wenn der Shadercode passt, in arithmetiklastigen Szenarien selbst eine 8800Ultra eingreifen kann.
Aber auf der anderen Seite, wohlmöglich ging das auf Kosten von ersterem, da man keinen hohe Taktdomain für die ALUs hat, hat sich beim R600 nicht viel getan bei den Einheiten(TMUs/ROPs) die zum einen für BQ-Features wichtig sind und auch auf denen auch so heute noch der Fokus aktueller Games liegt.
Aber dass man BQ-Features bei einer 300€+ Karte (problemlos) aktivieren kann, erwartet man doch?
Hingegen beim G80 sind diese schon extrem mächtig (z.B. 64 TMUs, 192Zixel/s), weswegen dieser BQ-Features ohne große Einbrüche meistert.

Langfristig besteht die Chance für die HD2000-Serie, dass die Last sich auf Arithmetik stark verschiebt und das mit passendem Code zur Vektor-Architektur, was eine (mehr als) konkurrenzfähige Performance für diese bedeuten würde.
Aber stark performen mit BQ-Features werden sie aber wohl eher nie.

Mr. Lolman
2007-08-31, 11:02:25
Gerade unter DX10(=Zukunft) ist die 2900XT doch wieder langsamer. X-D


Sie ist in Vista generell langsamer. Auch mit DX9. Liegt wohl also an den Treibern...

;5802082']Ich würde abwarten, irgendwie habe ich so einen möglichen Verdacht auf Shaderreplacement oder Optimierung durch ATi jetzt AMD im Treiber...

Lol. Als ob das heutzutage nicht schon längst Gang und Gäbe wär. :rolleyes:


Das die R600 ihre Stärke in D3D10 nicht ausspielen kann, sollte eigentlich sogar einem ATI-Fanboy sein.

Wieso? In COJ zB ist sie doch ganz gut. Und Bioshock ist unter Vista auf den ATIs momentan generell etwas langsam. Auch unter DX9.

MuLuNGuS
2007-08-31, 11:02:33
das der R700 nicht das gelbe vom Ei ist, ist mir klar!
gerade der Stromverbrauch ist absolut nicht tragbar! (für mich!)
Aber die Leistung ist meinermeinung nach nicht so schlecht wie sie oft dargestellt wird!


R700..?

kann ich die auch mal zu testen bekommen?
®

Gast
2007-08-31, 11:07:49
Gerade unter DX10(=Zukunft) ist die 2900XT doch wieder langsamer. X-D


Was schlicht und einfach daran liegt, dass die bei Bioshock verwendeten, sogenannten "DX10-Feature" eben wesentlich mehr auf die Füllrate schlagen. Bei gleicher Bildqualität sind beide Karte in DX10 nicht langsamer, sondern höchstens schneller. Nur viele Hersteller glauben jetzt in ihre DX9-Engine noch irgendwie einen DX10-Modus pflanzen zu müssen, und diesen mittels Softshadows aufzuwerten, um eine bessere BQ dank DX10-Features vortäuschen zu können. Das ganze natürlich mit kräftiger Unterstüzung von NV, die so eine bessere Leistung unter DX10 vorgaukeln können. Deshalb ist diese die eine Karte wird unter DX10 langsamer/schneller und das ist gut/nicht gut für die Zukunft gelaber blödsinn. Die Spreu wird sich erst dann vom Weizen trennen, wenn auch wirklich mal exklusive DX10-Effekte die der Geometrieshader exessiv eingesetzt werden.

reunion

Winter[Raven]
2007-08-31, 11:21:16
Weizen trennen, wenn auch wirklich mal exklusive DX10-Effekte die der Geometrieshader exessiv eingesetzt werden.

Bis dahin haben wir einen R750 oder G150 und da spricht keiner mehr über den R600.

Schlammsau
2007-08-31, 11:21:36
Was schlicht und einfach daran liegt, dass die bei Bioshock verwendeten, sogenannten "DX10-Feature" eben wesentlich mehr auf die Füllrate schlagen. Bei gleicher Bildqualität sind beide Karte in DX10 nicht langsamer, sondern höchstens schneller. Nur viele Hersteller glauben jetzt in ihre DX9-Engine noch irgendwie einen DX10-Modus pflanzen zu müssen, und diesen mittels Softshadows aufzuwerten, um eine bessere BQ dank DX10-Features vortäuschen zu können. Das ganze natürlich mit kräftiger Unterstüzung von NV, die so eine bessere Leistung unter DX10 vorgaukeln können. Deshalb ist diese die eine Karte wird unter DX10 langsamer/schneller und das ist gut/nicht gut für die Zukunft gelaber blödsinn. Die Spreu wird sich erst dann vom Weizen trennen, wenn auch wirklich mal exklusive DX10-Effekte die der Geometrieshader exessiv eingesetzt werden.

reunion
is die unreal 3 engine keine dx10 engine?

Mr. Lolman
2007-08-31, 11:24:18
;5802171']Bis dahin haben wir einen R750 oder G150 und da spricht keiner mehr über den R600.

Jetzt wart mal ab. So mies wie die Bioshock DX9 Performance unter Vista (vgl zu XP) momentan ist, bin ich mir sicher, dass die Treiber da noch was richten können...

dargo
2007-08-31, 11:25:31
Deshalb ist diese die eine Karte wird unter DX10 langsamer/schneller und das ist gut/nicht gut für die Zukunft gelaber blödsinn. Die Spreu wird sich erst dann vom Weizen trennen, wenn auch wirklich mal exklusive DX10-Effekte die der Geometrieshader exessiv eingesetzt werden.

Da gibts nur ein Problem - bis der GS richtig eingesetzt wird wird keiner mehr nach einem R600 schreien. Dann gibts schon den R700/G100.

Popeljoe
2007-08-31, 11:50:21
Naja, wie man einen Konkurrenten via Presse und "Treiberoptimierungen" aushypen kann hat NVidia in der Vergangenheit bereits eindrucksvoll unter Beweis gestellt. ;)
Ansonsten ist der R600 imo rein aufgrund seines Energieverbrauches schon eine Scheiß-GPU!
Imo hat sich ATI da verhauen, evtl. wird der Vorsprung durch die Entwicklung bei den Geo Shadern erst beim R700 durchschlagen.
Dann wäre die 2900XT sozusagen ein Pendant zur 8500 (R200). Aber das ist Glaskugel pur...
P1

Gast
2007-08-31, 12:07:28
;5802082']Ich würde abwarten, irgendwie habe ich so einen möglichen Verdacht auf Shaderreplacement oder Optimierung durch ATi jetzt AMD im Treiber...

So ein Verdacht kann aber nur dann aufkommen, wenn du vorher Werte der HD2900 mit einem unoptimierten Treiber mit/ohne Shaderreplacement gesehen hast. Oder?
Zu der D3D10-Zukunft: NV hat sich nicht umsonst aufgeregt, als die Macher des CoJ bei der D3D10-Version von Hardware-MSAA auf "Software-MSAA" gewechselt sind.
Zu den BS-Werten: Ähm, das ist doch ein einzelnes Beispiel, warum wird daraus so viel Wind gemacht?

Gast
2007-08-31, 13:12:27
Jetzt wart mal ab. So mies wie die Bioshock DX9 Performance unter Vista (vgl zu XP) momentan ist, bin ich mir sicher, dass die Treiber da noch was richten können...


Laut denen hier http://www.firingsquad.com/hardware/bioshock_mainstream_gpu_performance/page6.asp
liegt das daran, dass man unter Vista den DX9 Modus nicht über das Ingamemenu bekommt, sondern nur manuell über die Kommandozeile, dann werden die Frames aber auch deutlich besser.

Ailuros
2007-08-31, 13:18:47
Der R600 Compiler ist umstaendlicher fuer jegliche Treiber-Anpassungen was Spiele betrifft und das heisst nur dass es ziemlich egal sein koennte welcher IHV seine Treiber fuer Spiel X oder Y anpasst. Was hier eher zaehlt ist dass es NV eben mal leichter hat mit dem Zeug.

Zu der D3D10-Zukunft: NV hat sich nicht umsonst aufgeregt, als die Macher des CoJ bei der D3D10-Version von Hardware-MSAA auf "Software-MSAA" gewechselt sind.

Wenn man weiss was Call of Juarez fuer den R600 Launch genau bedeutete, sollte diese Kleinigkeit keinen besonderen Eindruck machen. Einen ISV zu ueberreden MSAA so zu implementieren weil bei der eigenen GPU die HW nicht zu resolve ueber die ROPs faehig ist, ist ja sowieso nichts besonderes.

Zu den BS-Werten: Ähm, das ist doch ein einzelnes Beispiel, warum wird daraus so viel Wind gemacht?

Es ist leider so, dass wenn in jeglichem 0815/D3D9.0 Mistspielchen mit einem D3D10-Pfad G80 schneller sein sollte, dass die NV-Bande gleich jubelt dass R600 doch nichts besonderes mit D3D10-Zeug auf sich hat und wenn umgekehrt R600 schneller sein, jubelt eben dann die ATI-Bande dass R600 doch das vielversprochene 8. Wunder der D3D10-GPUs ist, und die gesamte Welt traegt nur gruene Brillen.

Uhmmm pick your poison :P

Spasstiger
2007-08-31, 13:26:51
Sollte ForceGlobalLighting nicht auf disabled stehen für optimale Bildqualität und auf enabled für mehr Performance?
Dort im Test ists genau umgekehrt, mit Global Lighting enabled ist die Framerate niedriger und die Bildqualität beim Screenshotvergleich besser.

is die unreal 3 engine keine dx10 engine?
Die Unreal Engine 3 hat einen DX9-Renderer und einen DX10-Renderer.

tombman
2007-08-31, 14:06:11
Heul doch, AMD/ATI ;)

http://img368.imageshack.us/img368/8362/ownedfr1.jpg (http://imageshack.us)

Gast
2007-08-31, 14:13:02
...
Wenn man weiss was Call of Juarez fuer den R600 Launch genau bedeutete, sollte diese Kleinigkeit keinen besonderen Eindruck machen. Einen ISV zu ueberreden MSAA so zu implementieren weil bei der eigenen GPU die HW nicht zu resolve ueber die ROPs faehig ist, ist ja sowieso nichts besonderes.

...
Nur schmeckt dieser Lösungsansatz der G80-Architektur nicht.

Ailuros
2007-08-31, 14:44:46
Nur schmeckt dieser Lösungsansatz der G80-Architektur nicht.

Pech fuer NV. Die Loesung ist eben besser fuer die R600 zugeschnitten. Falls es AMD schaffen wuerde alle ISVs zu solchen Loesungen zu ueberreden, wuerde die gesamte Geschichte auch besser fuer AMD aussehen. Ein Fall ist leider nicht genug fuer eine Regel.

Coda
2007-08-31, 14:50:20
Einen ISV zu ueberreden MSAA so zu implementieren weil bei der eigenen GPU die HW nicht zu resolve ueber die ROPs faehig ist, ist ja sowieso nichts besonderes.
Halt halt.

Call of Juarez macht das Resolving selber, weil das eigentlich mit der fixed-function-logic nicht korrekt funktioniert sobald man HDR verwendet. Da muss man eigentlich noch bissel mehr nachrechnen als schlichtes Averaging und Gammakorrektur.

Gast
2007-08-31, 19:53:09
Halt halt.

Call of Juarez macht das Resolving selber, weil das eigentlich mit der fixed-function-logic nicht korrekt funktioniert sobald man HDR verwendet. Da muss man eigentlich noch bissel mehr nachrechnen als schlichtes Averaging und Gammakorrektur.
Halt halt - macht Call of Juarez das denn überhaupt? Ich meine "mehr als schlichtes Averaging und Gammakorrektur"?

Gast
2007-08-31, 23:22:47
In dem Test sieht man das die ATI mit AA+AF in hohen Auflösungen so schlecht nicht ist gegen eine über 700€ Karte (BFG GeForce 8800 GTX OC WC)

http://www.3dgameman.com/content/view/10002/103/

Coda
2007-08-31, 23:39:35
Halt halt - macht Call of Juarez das denn überhaupt? Ich meine "mehr als schlichtes Averaging und Gammakorrektur"?
Ja, steht zumindest in ihren Folien. Sonst wäre es ja auch sinnlos das Downsampling im Shader zu machen.

Und die ganz Paranoiden können ja die Shader analysieren :tongue:

Blaire
2007-08-31, 23:44:34
In dem Test sieht man das die ATI mit AA+AF in hohen Auflösungen so schlecht nicht ist gegen eine über 700€ Karte (BFG GeForce 8800 GTX OC WC)

http://www.3dgameman.com/content/view/10002/103/

Letzlich reiht sie sich zwischen der GTS und GTX ein und ist daher keine News wert. Eine GTX gibts übrigens schon für knapp um die 400€uro und ja auch diese kann man sehr gut übertakten wenn man denn will. ;)

Gast
2007-08-31, 23:48:53
Warum da so niedrigen AA/AF wert gesetzt? da kannst auch gleich aus lassen. damit muss ja die olle XT gut da stehen. Also für die tonne der "benchmark".

Gast
2007-08-31, 23:50:41
"X2900 XT in Bioshock schneller als 8800 GTX"

Auch in MoHA ;-)

http://img258.imageshack.us/img258/333/uuho9.gif (http://imageshack.us)
http://www.chiphell.com/viewthread.php?tid=8674&extra=page%3D1

Gast
2007-08-31, 23:56:41
@Gast
Wer brauch bei 1920x1200 noch 8xAA ?
Is klar ist die ATI mal nich so schlecht ist der Test besch..
Also manche haben echt ein .....

Liszca
2007-09-01, 00:11:21
http://www.gamespot.com/features/6177688/index.html
bin begeistert! :)

wo? eine 8800 rockt die 2900 weg nach strich und faden!

Gast
2007-09-01, 00:19:46
wo? eine 8800 rockt die 2900 weg nach strich und faden!

lol is klar

http://img154.imageshack.us/img154/3165/ttca1.jpg (http://imageshack.us)

Taigatrommel
2007-09-01, 00:19:51
wo? eine 8800 rockt die 2900 weg nach strich und faden!
Na genau dort z.B.:
1600x1200
8800 GTX - 65 fps
2900 XT - 68 fps

Unter DX10 bricht sie bei Gamespot allerdings deutlich stärker ein. Da stehen 68 auf 45 fps den 65 auf 60 fps bei nvidia gegenüber.

Es zeigt am Ende nur, dass die 2900 XT auf jeden Fall eine interessante Karte bleibt und sich halt preislich genau in der richtigen Region befindet.

=Floi=
2007-09-01, 00:23:46
zitat
Wer brauch bei 1920x1200 noch 8xAA ?

JEDER der ein gutes bild will, denn auf einem 24" TFT werden die kanten auch nicht weniger duch seine native auflösung

Coda
2007-09-01, 00:43:14
Wollt ich grad anmerken. Solange die Pixel nicht signifikant kleiner sind - was sie nicht sind bei 24" TFTs - ist AA weiterhin nötig.

Ich brauch bei 1600x1200 auch noch dringens Anti-Aliasing. Ist also Blödsinn.

Gast
2007-09-01, 00:45:36
BIOSHOCK HD2900@stock gegen OC 8800GTX@626mhz

http://img207.imageshack.us/img207/5407/ooozc3.jpg (http://imageshack.us)

http://www.digitalreport.net/content/view/52/1/

Blaire
2007-09-01, 00:45:49
"X2900 XT in Bioshock schneller als 8800 GTX"
Auch in MoHA ;-)

http://img258.imageshack.us/img258/333/uuho9.gif (http://imageshack.us)
http://www.chiphell.com/viewthread.php?tid=8674&extra=page%3D1

Naja nichtmal 1 fps mehr kann man wohl nicht als schneller bezeichnen ,eher sind die dort gleichschnell und ohne AA spielt ohnehin niemand. Sinnloser Bench.

smockdogx
2007-09-01, 01:11:23
Finde es trotzdem lustig das ati so schnell ist in den Game, immerhin kommt beim Anfang ein fettes nvidia Logo bei den Spiel :biggrin:

huha
2007-09-01, 01:40:10
Dieser Thread ist für Diskussionen da. Wofür er nicht da ist: Flames und Beleidigungen, weshalb diese gerade entfernt wurden.

Ich weiß, daß dieses Thema eure Gemüter erregt, aber bitte diskutiert vernünftig, dann macht's nämlich auch mehr Spaß :)

-huha

tombman
2007-09-01, 01:50:27
del

=Floi=
2007-09-01, 04:10:49
gibt es eigentlich benchmarks der GTX und HD2900 mit AA?

Liszca
2007-09-01, 04:54:29
Na genau dort z.B.:
1600x1200
8800 GTX - 65 fps
2900 XT - 68 fps

Unter DX10 bricht sie bei Gamespot allerdings deutlich stärker ein. Da stehen 68 auf 45 fps den 65 auf 60 fps bei nvidia gegenüber.

Es zeigt am Ende nur, dass die 2900 XT auf jeden Fall eine interessante Karte bleibt und sich halt preislich genau in der richtigen Region befindet.

Das ist dein ernst? dass ich in dieser auflösung OHNE aa spiele? wozu hätte ich dann diese karte für teuer geld gekauft?

Gast
2007-09-01, 06:43:26
BIOSHOCK HD2900@stock gegen OC 8800GTX@626mhz

http://img207.imageshack.us/img207/5407/ooozc3.jpg (http://imageshack.us)

http://www.digitalreport.net/content/view/52/1/
Aber bitte nicht ohne die zweite Seite.

http://www.digitalreport.net/content/view/52/29/1/1/

AYAlf
2007-09-01, 08:41:42
war es nicht immer schon so, dass ati die nvidia konkurenz in zukuenftigen spielen verblasen hat (mit zukuenftigen technologien). was ist daran so besonders?
auch mit der x2900xt ist ati ein grosser wurf gelungen. zugegeben nicht so gross wie frueher aber auch ati darf mal schwaecheln. ;)

nvidia schwaechelt schon seit jahren und keiner meckert. ;D

LovesuckZ
2007-09-01, 08:59:09
Werden hier Ergebnisse ohne Anti-Aliasing verglichen? :rolleyes:
Es sollte doch seit Mai bekannt sein, wo die stärken und wo die Schwächen der Architekturen liegen. Und ein "Hoch, die 2900XT ist in einer Xbox360-Portierung ohne AA so doll schnell" sollten keinem mehr vorm Ofen hervorlocken.

The_Invisible
2007-09-01, 09:43:11
Werden hier Ergebnisse ohne Anti-Aliasing verglichen? :rolleyes:
Es sollte doch seit Mai bekannt sein, wo die stärken und wo die Schwächen der Architekturen liegen. Und ein "Hoch, die 2900XT ist in einer Xbox360-Portierung ohne AA so doll schnell" sollten keinem mehr vorm Hofen hervorlocken.

klar, seit dem r600 ist spielen ohne aa/af auf einmal wieder in, man muss eben immer mit der mode gehen.

mfg

reunion
2007-09-01, 10:40:10
Mit AA kann man ja schlecht vergleichen. :rolleyes:

Skinner
2007-09-01, 11:14:06
Mal eine Frage am Rande.... warum wird hier die 2900XT mit einer 8800GTX oder gar Ultra verglichen? Die 8800GTS ist doch das pendant zur 2900XT

James Ryan
2007-09-01, 11:33:11
klar, seit dem r600 ist spielen ohne aa/af auf einmal wieder in, man muss eben immer mit der mode gehen.

mfg

So siehts aus!
Fakt ist: In Bioshock gibt es bei den aktuellen ATi-Karten kein FSAA (oder nur mit Fehlern), das gleiche bei MoH:Airbone. Man ist also mit einer Gf 8800 in jedem Fall besser dran wenn man auch nur halbwegs gute BQ will!
Dass eine HD 2900 XT ohne FSAA + AF sogar mit einer GTX mithalten kann, ist ja nichts besonderes. Aber wer kauft sich schon eine >300€ teure Graka und spielt dann ohne FSAA/AF? :|

MfG :cool:

derwalde
2007-09-01, 11:33:19
gibt es eigentlich benchmarks der GTX und HD2900 mit AA?

nein ati user brauchen kein aa :rolleyes:

Schlammsau
2007-09-01, 11:35:53
Letzlich reiht sie sich zwischen der GTS und GTX ein und ist daher keine News wert. Eine GTX gibts übrigens schon für knapp um die 400€uro und ja auch diese kann man sehr gut übertakten wenn man denn will. ;)

LOL die geteste BFG 8800GTX is eine übertaktete Version und kostet laut Geizhals mindestens 490€!!! http://geizhals.at/deutschland/?fs=bfg+8800+gtx&x=35&y=9&in=
Die HIS 2900XT "nur" knapp 340€!
http://geizhals.at/deutschland/?fs=HIS+2900XT

nein ati user brauchen kein aa :rolleyes:
und was ist das?
http://www.3dgameman.com/vr/3gm_special/2900xt_vs_bfg8800gtx/benchmarks_games_16x12_01.jpg
http://www.3dgameman.com/vr/3gm_special/2900xt_vs_bfg8800gtx/benchmarks_games_19x12_01.jpg
So wie ich diese Benchmarks werte, liegt die XT zwischen 20 und 25% hinter der GTX zurück! is aber halt von Spiel zu Spiel unterschiedlich.....

LovesuckZ
2007-09-01, 11:50:21
Wir kennen den Platz der 2900XT. Wir wissen, dass die Karte zwischen der GTS und der GTX anzusiedeln ist. Wir wissen auch, dass Xbox360-Portierungen auf der Karte sehr gut laufen, da sie eben eine starke Verwandheit zur Xenos-Architektur aufweist. Ausserdem ist uns bewusst, dass durch die niedrige Texturleistung im Vergleich zu den 8800 Karten und den Problemen bezüglich AA die Karte nunmal nicht so besonders ist.
Aber ich habe keine Ahnung, was dieser Thread soll. Solange wie es keine AA Ergebnisse in den Spielen (MoH:Airbone, Bioshock...) gibt, sind die Ergebnisse allseits bekannt.

Req
2007-09-01, 12:28:37
Ist ein interessanter Thread. Ich hab meine 8800GTS 320mb im Ebxx und die HD2900XT ist bestellt.
So eine verarsche von Nvidia, Colin, CoH ist unspielbar und der neue Beta Treiber hilft auch nicht bei den Slowdowns.
Ich will Crysis ordentlich spielen und nicht laufend Alt und Tab drücken.

Seit wann ist Call of Duty usw. eine Konsolenportierung?

LovesuckZ
2007-09-01, 12:30:18
Seit wann ist Call of Duty usw. eine Konsolenportierung?

Seit wann kostet die 320mb Version 320€? :rolleyes:

Gast
2007-09-01, 12:41:40
Seit wann kostet die 320mb Version 320€? :rolleyes:

seit wann gibts denn V-Ram Bug?

bitte noch mehr solcher vergleiche :)

LovesuckZ
2007-09-01, 13:21:20
seit wann gibts denn V-Ram Bug?


Ändert der V-Ram Bug etwas an der Tatsache, dass die 320er Version nicht 320€ kostet? :rolleyes:

Gast
2007-09-01, 14:40:06
;5802171']Bis dahin haben wir einen R750 oder G150 und da spricht keiner mehr über den R600.

...bedauerlicherweise diskutieren in eben diesem jenen schönen forum auch HEUTE noch leute ob nun nen R4x0 oder nen NV4x besser ist! da wird hier und da geblubbert wie geil es doch ist nen Nv40 gekauft zu haben weil man damit ja noch Bioshock spielen könne...während gleichzeitig der "untergang" der X800 beschworen wird ;)

_DrillSarge]I[
2007-09-01, 14:41:14
http://img368.imageshack.us/img368/8362/ownedfr1.jpg (http://imageshack.us)


"longer bars indicate better performance" ;D
wie im richtigen leben halt.

-> cooler bashfred

The_Invisible
2007-09-01, 14:46:10
seit wann gibts denn V-Ram Bug?

bitte noch mehr solcher vergleiche :)

dann hättest halt die 640mb version für weniger/gleich viel geld wie ne 2900xt gekauft, dann hättest einen vergleich

mfg

Blaire
2007-09-01, 15:42:53
LOL die geteste BFG 8800GTX is eine übertaktete Version und kostet laut Geizhals mindestens 490€!!! http://geizhals.at/deutschland/?fs=bfg+8800+gtx&x=35&y=9&in=
Die HIS 2900XT "nur" knapp 340€!
http://geizhals.at/deutschland/?fs=HIS+2900XT

Wer ist so bekloppt und kauft sich die teurere OC Edition wenn er das Gleiche auch mit einer Standard GTX erreicht?

_DrillSarge]I[
2007-09-01, 15:58:39
wer vergleicht sowas?

Schlammsau
2007-09-01, 16:04:00
Wer ist so bekloppt und kauft sich die teurere OC Edition wenn er das Gleiche auch mit einer Standard GTX erreicht?
Nicht jeder übertaktet, ich selber zwar schon aber ich kenne viele denen ist es zu riskant! Garantie usw.....
da könnte man genauso sagen, wer ist so blöd und gibt über 800€ für ein GTX SLI Gespann aus??? ;)

Gast
2007-09-01, 16:19:59
Wir kennen den Platz der 2900XT. Wir wissen, dass die Karte zwischen der GTS und der GTX anzusiedeln ist. Wir wissen auch, dass Xbox360-Portierungen auf der Karte sehr gut laufen, da sie eben eine starke Verwandheit zur Xenos-Architektur aufweist. Ausserdem ist uns bewusst, dass durch die niedrige Texturleistung im Vergleich zu den 8800 Karten und den Problemen bezüglich AA die Karte nunmal nicht so besonders ist.
Aber ich habe keine Ahnung, was dieser Thread soll. Solange wie es keine AA Ergebnisse in den Spielen (MoH:Airbone, Bioshock...) gibt, sind die Ergebnisse allseits bekannt.

R600 ein Xenos Verwandter? Gehts noch ein wenig lächerlicher? Du weißt überhaupt nichts. Bioshock ist kein 360 Port, es wurde von anfang an parallel zur 360 Version von einem anderem Team entwickelt.

Soviel Halbwissen und noch so tun, als wüsste man wovon man spricht, sehr gut !

James Ryan
2007-09-01, 16:25:18
R600 ein Xenos Verwandter? !

Der R600 ist quasi ein für die PC-Plattform umgebauter Xenos. :rolleyes:
Sieht man doch an der (nutzlosen) Tessalationseinheit welche zwar für den Xenos nützlich ist, im R600 aber dank mangelnder Unterstützung nur Transistoren und Strom frisst.

MfG :cool:

Gast
2007-09-01, 16:25:35
R600 ein Xenos Verwandter? Gehts noch ein wenig lächerlicher? Du weißt überhaupt nichts.

5D-ALUs, 16er-SIMD-Arrays, Tesselator, und AMDs eigene Aussagen sprechen eher dafür, dass du überhaupt nichts weißt.


Bioshock ist kein 360 Port, es wurde von anfang an parallel zur 360 Version von einem anderem Team entwickelt.
Ähh.... ja. Deswegen zeigte man in Previews auch die PC-Version, die nur in XBox-360-Auflösungen lief und die noch die Einblendungen der XBox-360 besass.

Wenn man keine Ahnung hat, einfach nicht mit Steinen werfen. ;)

LovesuckZ
2007-09-01, 16:29:05
R600 ein Xenos Verwandter? Gehts noch ein wenig lächerlicher? Du weißt überhaupt nichts.

Du hast es nicht widerlegt.

Bioshock ist kein 360 Port, es wurde von anfang an parallel zur 360 Version von einem anderem Team entwickelt.


Klar, wird ein Unternehmen zwei Teams zwei 99% identische Spiele entwickeln, die sich nur in ihrer Steuerung (die PC-Version lässt sich 1:1 wie die 360er Version spielen!) und einer D3D10 Funktionalität unterscheiden...
Bioshock ist genauso eine Xbox360 Portierung wie LostPlanet. Beide Spiele wurden von einem anderen Team "PC-Ready" gemacht, aber die Anforderungen sind identisch mit denen von anderen Portierungen (Carbon, RS:Vegas...).

Coda
2007-09-01, 16:53:56
Es ist keine Portierung in dem Sinne, dass zuerst auf der Xbox 360 und dann für den PC programmiert wurde. Es wurde beides zeitgleich entwickelt.

Gast
2007-09-01, 17:21:46
Es ist keine Portierung in dem Sinne, dass zuerst auf der Xbox 360 und dann für den PC programmiert wurde. Es wurde beides zeitgleich entwickelt.
Nö, s.o.: "Ähh.... ja. Deswegen zeigte man in Previews auch die PC-Version, die nur in XBox-360-Auflösungen lief und die noch die Einblendungen der XBox-360 besass."

Coda
2007-09-01, 17:23:25
Ähm doch. Der Content ist eben der gleiche. Ich denke auch nicht, dass da viel platformspezifischer Code geschrieben wurde.

Die UE3 ist halt so ausgelegt, dass alles überall läuft. Eine PS3-Version wäre auch kein großes Ding gewesen, nur hat sie Microsoft eben ausgekauft.

Gast
2007-09-01, 17:54:46
Ähm doch. Der Content ist eben der gleiche. Ich denke auch nicht, dass da viel platformspezifischer Code geschrieben wurde.

Die UE3 ist halt so ausgelegt, dass alles überall läuft. Eine PS3-Version wäre auch kein großes Ding gewesen, nur hat sie Microsoft eben ausgekauft.
Es wurde nicht parallel entwickelt - das ist der Punkt. Die PC-Version wurde hinterhergeschoben, genau wie beim Release.

Gast
2007-09-01, 18:36:14
So siehts aus!
Fakt ist: In Bioshock gibt es bei den aktuellen ATi-Karten kein FSAA (oder nur mit Fehlern), das gleiche bei MoH:Airbone. Man ist also mit einer Gf 8800 in jedem Fall besser dran wenn man auch nur halbwegs gute BQ will!
Dass eine HD 2900 XT ohne FSAA + AF sogar mit einer GTX mithalten kann, ist ja nichts besonderes. Aber wer kauft sich schon eine >300€ teure Graka und spielt dann ohne FSAA/AF? :|

MfG :cool:
Du kannst also eine 100%ige Bestätigung geben, dass alle UE3-basierten Spiele auf einer G80er mit MSAA ohne Fehler laufen?

Gast
2007-09-01, 18:37:46
Wir kennen den Platz der 2900XT. Wir wissen, dass die Karte zwischen der GTS und der GTX anzusiedeln ist. Wir wissen auch, dass Xbox360-Portierungen auf der Karte sehr gut laufen, da sie eben eine starke Verwandheit zur Xenos-Architektur aufweist. Ausserdem ist uns bewusst, dass durch die niedrige Texturleistung im Vergleich zu den 8800 Karten und den Problemen bezüglich AA die Karte nunmal nicht so besonders ist.
Aber ich habe keine Ahnung, was dieser Thread soll. Solange wie es keine AA Ergebnisse in den Spielen (MoH:Airbone, Bioshock...) gibt, sind die Ergebnisse allseits bekannt.
Nur geht das MSAA (und auch SSAA) mit UE3 schlecht. Aber wenn interessiert das schon?

Gast
2007-09-01, 18:41:46
nein ati user brauchen kein aa :rolleyes:
Sei vorsichtig, dass du dir die Augen nicht vollständig verdrehst, dass sie aus der Augenhöhle rausfallen...

Wie kann man nur so ein Ignorant sein?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=359896
http://forum.beyond3d.com/showthread.php?p=1054399#post1054399

Das auf der G80 mögliche AA ist ein Hack.

dargo
2007-09-01, 18:58:27
Nur geht das MSAA (und auch SSAA) mit UE3 schlecht.
Inwiefern?

Gast
2007-09-01, 19:00:55
Inwiefern?
Im nächsten Posting ist doch ein Link zu einem Thread im Technologie-Forum?

dargo
2007-09-01, 19:22:20
Im nächsten Posting ist doch ein Link zu einem Thread im Technologie-Forum?
Ich kann dir nur sagen, dass MSAA sehr wohl bei den ersten UE3 Titteln in DX9 mit einem G80 funktioniert. Ob da alles mit rechten Dingen zugeht weiß ich nicht. Ich sehe den Unterschied zumindest mit AA deutlich.

Gast
2007-09-01, 19:28:47
Ich kann dir nur sagen, dass MSAA sehr wohl bei den ersten UE3 Titteln in DX9 mit einem G80 funktioniert. Ob da alles mit rechten Dingen zugeht weiß ich nicht. Ich sehe den Unterschied zumindest mit AA deutlich.
Ich weiß, dass man im CP das AA erzwingen kann (man sieht es auch an den Bildern im B3D-Thread, falls du die weiterführenden Links nicht gelesen hast), aber kannst du die Hand ins Feuer legen, dass das AA fehlerfrei ist bzw keine Bildfehler verursacht? Auch in FEAR ist AA mit Softshadows möglich, aber nicht ohne Fehler (ich hoffe, du erinnerst dich an die Diskussion mit Ail). Und genau darum geht's: Das Erzwingen des AA verliert sofort seinen Sinn, wenn dabei Fehler auftreten.

dargo
2007-09-01, 19:31:28
Ich weiß, dass man im CP das AA erzwingen kann (man sieht es auch an den Bildern im B3D-Thread, falls du die weiterführenden Links nicht gelesen hast), aber kannst du die Hand ins Feuer legen, dass das AA fehlerfrei ist bzw keine Bildfehler verursacht? Auch in FEAR ist AA mit Softshadows möglich, aber nicht ohne Fehler (ich hoffe, du erinnerst dich an die Diskussion mit Ail). Und genau darum geht's: Das Erzwingen des AA verliert sofort seinen Sinn, wenn dabei Fehler auftreten.
Ich kann dir nur sagen, dass mir in der Bioshock und MoH:A Demo keine Fehler aufgefallen sind. Und ich hatte schon jede Ecke abgesucht.

Sterem
2007-09-01, 19:34:28
So schlecht ist die X2900 XT also doch nicht.

http://www.xbitlabs.com/articles/video/display/directx10-games.html

Schneller als eine 8800 Gts ist sie.....

dargo
2007-09-01, 19:37:41
Und jetzt bitte Benchmarks mit 4xMSAA/16xAF. :rolleyes:

Sterem
2007-09-01, 19:39:42
Und jetzt bitte Benchmarks mit 4xMSAA/16xAF. :rolleyes:


Bei 12 fps oder was`?:rolleyes:

dargo
2007-09-01, 19:45:18
Bei 12 fps oder was`?:rolleyes:
Warum? In LP (Snow 2) liefert die GTX gute 44fps mit 4xAA.
Werte im Bereich von 12 fps interessieren mich auf beiden Seiten nicht, da beides unspielbar.

Sterem
2007-09-01, 19:47:46
Warum? In LP (Snow 2) liefert die GTX gute 44fps mit 4xAA.
Werte im Bereich von 12 fps interessieren mich auf beiden Seiten nicht, da beides unspielbar.

Dann guck dir doch die Ergebnisse ohne aa an.Du glaubst doch nicht das hier noch 4aa drinne ist.Der wert mit der GTX ist doch ein Märchen was die Benches beweisen.

Die X2900 XT ist unerwartet gut,finde dich damit ab.

PS:Ausserdem ist lost planet das schlechteste Dx 10 Spiel was kaum einer gespielt hat.COh und COJ kennt jeder....

Valixul
2007-09-01, 19:51:49
So siehts aus!
Fakt ist: In Bioshock gibt es bei den aktuellen ATi-Karten kein FSAA (oder nur mit Fehlern), das gleiche bei MoH:Airbone.
Auf meiner X1800 XT läuft die Demo von Bioshock mit 6xAA fehlerfrei (und flüssig). Ich verstehe dein Problem nicht.

dargo
2007-09-01, 19:53:23
Dann guck dir doch die Ergebnisse ohne aa an.Du glaubst doch nicht das hier noch 4aa drinne ist.Der wert mit der GTX ist doch ein Märchen was die Benches beweisen.

Das lustige daran ist, dass selbst ohne AA die HD2900XT total einbricht.


Die X2900 XT ist unerwartet gut,finde dich damit ab.

Für dich oder die anderen Fanboys vielleicht, für mich nicht.


PS:Ausserdem ist lost planet das schlechteste Dx 10 Spiel was kaum einer gespielt hat.COh und COJ kennt jeder....
Achso, plötzlich ist LP scheiße weil es der HD2900XT nicht schmeckt? :tongue:
Und zeige mir mal wer hier CoJ mit DX10 spielen kann. ;)

Mr. Lolman
2007-09-01, 20:20:04
Interessant wie die 1GB Veriante in COH alles stehenlässt: http://www.xbitlabs.com/articles/video/display/directx10-games_7.html#sect0 :eek:

Blaire
2007-09-01, 20:27:37
Interessant wie die 1GB Veriante in COH alles stehenlässt: http://www.xbitlabs.com/articles/video/display/directx10-games_7.html#sect0 :eek:

Pickst dir aber nur die Rosinen raus...Völlig fürn Arsch der Test total veraltete Treiber "Nvidia ForceWare 158.24" Und beim Blick auf die Minimumfps zeigt mir das da ne Menge schiefgelaufen sein muss. Und auch die Tests sind ohne AA ;)

Gast
2007-09-01, 20:39:09
Interessant wie die 1GB Veriante in COH alles stehenlässt: http://www.xbitlabs.com/articles/video/display/directx10-games_7.html#sect0 :eek:


vor allem seltsam dass die 1GB-version mal deutlich schneller, mal deutlich langsamer als die 512er ist, also irgendwas stimmt da nicht

Coda
2007-09-01, 22:17:49
Es wurde nicht parallel entwickelt - das ist der Punkt. Die PC-Version wurde hinterhergeschoben, genau wie beim Release.
Da sagen die Entwickler aber was anderes. Und da die UE3-Entwicklung immer am PC mit UnrealEd stattfindet, ist das auch grober Käse.

Das auf der G80 mögliche AA ist ein Hack.
Es ist kein Hack, wenn G80 schon den in D3D10.1 vorgesehen Subsample-Zugriff auf den Z-Buffer hat. Der Treiber hat schließlich volle Kontrolle über den Chip.

Gast
2007-09-02, 00:25:12
Da sagen die Entwickler aber was anderes. Und da die UE3-Entwicklung immer am PC mit UnrealEd stattfindet, ist das auch grober Käse.
Jetzt sagen sie was anderes... ;)

Ich schreib dir beizeiten mal eine PM dazu.

James Ryan
2007-09-02, 09:55:25
Auf meiner X1800 XT läuft die Demo von Bioshock mit 6xAA fehlerfrei (und flüssig). Ich verstehe dein Problem nicht.

Guck nochmal genau hin... :rolleyes:

@anderer Gast
Also ich habe jetzt zwei UE3-Engine Spiele auf meiner Gf 8800 GTS gezockt und beide lieferten keine Bildfehler beim AA.
Bei den ATi-Karten sieht das anders aus...

MfG :cool:

dargo
2007-09-02, 10:05:26
Also ich habe jetzt zwei UE3-Engine Spiele auf meiner Gf 8800 GTS gezockt und beide lieferten keine Bildfehler beim AA.

Man muss aber dazu sagen, dass dies nur im DX9 Modus momentan funktioniert.

Gast
2007-09-02, 11:28:17
versuch mal 4x AA zu aktivieren du held

Geht mit einer G80 GK

Neuster Beta Treiben und schon geht AA auch mit Bioshock !

Bis 4AA und 16AF geht es selbst auf eine GTS

Mumins
2007-09-02, 11:45:56
Letzlich reiht sie sich zwischen der GTS und GTX ein und ist daher keine News wert. Eine GTX gibts übrigens schon für knapp um die 400€uro und ja auch diese kann man sehr gut übertakten wenn man denn will. ;)

440 € billiger gibt es keine GTX. Das sind nicht um die 400 €, sondern 10 % mehr.

Gast
2007-09-02, 11:53:17
Bis 4AA und 16AF geht es selbst auf eine GTS

auch 16xAA ist kein problem.

Ronny145
2007-09-02, 12:02:28
Guck nochmal genau hin... :rolleyes:




An welcher Stelle genau? Ich hab ebenfalls ne X1800XT. Würde dann nochmal genauer hinschauen.

Gast
2007-09-02, 16:13:58
Guck nochmal genau hin... :rolleyes:

Mit einer Oblivion-Echse sollte das kein Problem sein. Fehler gibt's aber hier und da wohl trotzdem. Habe grad selbst welche gesehen auf der GF8, wo es ja angeblich im DX9-Modus "funktioniert".

Blaire
2007-09-02, 16:16:00
440 € billiger gibt es keine GTX. Das sind nicht um die 400 €, sondern 10 % mehr.

Letzlich sind es rund 100€uro Unterschied , dafür gibts 768MB Ram,bessere AA Modis und weniger Ärger mit Treiberproblemen. ;)

AnarchX
2007-09-02, 16:17:20
@Gast#109
Bei GF8 kommt es auch drauf an welchen AA-Wert man wählt, damit es fehlerfrei ist:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5783262&postcount=885

J0ph33
2007-09-02, 17:05:22
kann mir schon vorstellen, dass in CoH-DX10 sich das GB VRAM der HD2900XT sehr bemerkbar macht, das Spiel ist schon unter DX9 nen absoluter VRAM-Fresser...

und bei 3 Tests Rosinenpickerei anzuprangern, ist auch etwas übertrieben..immerhin gewinnt die HD2900 2/3 Tests...
man merke: je konkurrenzfähiger die karte ist, desto besser für den Graphikkartenmarkt...

Gast
2007-09-02, 17:15:43
Letzlich sind es rund 100€uro Unterschied , dafür gibts 768MB Ram,bessere AA Modis und weniger Ärger mit Treiberproblemen. ;)

welche treiber probleme?

und die 768MB ram sind nen witz und ja auch die 1Gb ram bei der 2900xtx sind nen witz

The_Invisible
2007-09-02, 17:35:46
super,tombman! und das soll genau was darstellen? was bin ich froh das du dummes subjekt gesperrt bist.
fanboys wie dich hat die welt nicht nötig.
also geh sterben.

ähm, 8800gtx 60fps, hd2900xt 43fps

zahlen bis 100 und englisch lernt man schon in der grundschule

mfg

Schlammsau
2007-09-02, 17:37:55
Letzlich sind es rund 100€uro Unterschied , dafür gibts 768MB Ram,bessere AA Modis und weniger Ärger mit Treiberproblemen. ;)
also, die billigste GTS mit 640MB liegt bei ca. 308€! die billigste GTX bei 433€!
Für 320€ gibts eine 2900XT....... (Preise laut Geizhals.at)
Also wenn die ATI, Leistungsmässig zwischen einer GTS und GTX liegt, is der Preis bei der gebotenen Leistung schon sehr attraktiv. Wenn man mit dem hohen Stromverbrauch einverstanden ist!

Gast
2007-09-02, 19:23:31
Guck nochmal genau hin... :rolleyes:

Hab ich. 6xAA ist aktiviert. Musste die Bioshock.exe in Oblivion.exe umbenennen.
über 40fps mit meiner X1800XT in 1024x768 6xAA 16xAF

Coda
2007-09-02, 20:10:44
Das gibt aber Fehldarstellungen. Sicher. Es fehlen Spotlights und so Zeug.

Pal
2007-09-02, 20:46:28
Letzlich sind es rund 100€uro Unterschied , dafür gibts 768MB Ram,bessere AA Modis und weniger Ärger mit Treiberproblemen. ;)

Die NV verwaltet doch den Vram ganz anders.
Ein Beispiel bei CMD, selbe Settings GTX 600mb und ATI 350mb

James Ryan
2007-09-02, 20:47:42
Das gibt aber Fehldarstellungen. Sicher. Es fehlen Spotlights und so Zeug.

Ach lass es, wir haben doch eh keine Ahnung. ;)

@Gast
AA geht in UE3 Engine Spielen mit ATi-Karten, es gibt aber Fehler! Auf Gf 8 Karten gibt es diese nicht, auch wenn die ein anderer Gast gesehen haben will.
Fertig!

MfG :cool:

J0ph33
2007-09-02, 21:57:48
ach ja, hier noch ein triftiger grund für die überlegenheit der HD2900XT 1GB in CoH DX10 (das bsp zeigt immernoch nur DX9):

Update: Da ich zur Zeit mal wieder ne Runde COH spiele :-)
Rekord verbessert würde ich sagen.
Fette 890MB, und das ohne übertriebene Filtereinstellungen. 2xAA, 8xAF, SSTAA, GCAA, Filteroptimierungen aus, Filter auf HQ
http://img469.imageshack.us/img469/5671/coh25602xaf8xaasstaazd1.th.jpg (http://img469.imageshack.us/my.php?image=coh25602xaf8xaasstaazd1.jpg)

Blaire
2007-09-02, 22:26:28
Welche Überlegenheit?

http://www.computerbase.de/news/software/spiele/strategiespiele/2007/juni/kurztest_company_heroes_directx-10-patch/
http://firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/page9.asp
http://www.legitreviews.com/article/507/3/

PCGH_Carsten
2007-09-02, 22:37:06
@Gast
AA geht in UE3 Engine Spielen mit ATi-Karten, es gibt aber Fehler! Auf Gf 8 Karten gibt es diese nicht, auch wenn die ein anderer Gast gesehen haben will.
Nicht gesehen haben "will" - gesehen hat. Und auch Screenshots gemacht. Sorry, aber es rennt nicht jeder mit 'ner F**boybrille durch die Gegend
http://img101.imageshack.us/my.php?image=bioshock200709021437550yb4.png
http://img101.imageshack.us/my.php?image=bioshock200709021437550yb4.png
Hübscher roter Saum an den Kanten - gell? Dahin gehört er aber leider nicht.

Pal
2007-09-02, 22:38:12
@Blaire
http://www.xbitlabs.com/articles/video/display/directx10-games_7.html#sect0

J0ph33
2007-09-02, 22:44:47
@Blaire
http://www.xbitlabs.com/articles/video/display/directx10-games_7.html#sect0

genau diese überlegenheit!

ist wohl auch der test mit den neuesten treibern auch ATi-Seite

Blaire
2007-09-02, 22:50:43
genau diese überlegenheit!
ist wohl auch der test mit den neuesten treibern auch ATi-Seite

Nochmal die Frage: Welche Überlegenheit? Schonmal drauf geachtet was für alte Nvidia Treiber beim Test verwendet wurden und die Ergebnisse gänzlich ohne AA auskommen? ;)

Pal
2007-09-02, 22:51:15
O.K. der Test ist ja nicht in Quali-settings sprich AA+AF, aber die 2900er macht sich nach und nach.
Die GTX ist im schnitt aber schneller das ist bekannt.
Ich hoffe hier bricht nich gleich wieder das gebashe aus es nervt langsam.

J0ph33
2007-09-02, 23:03:31
mir ist nicht bekannt, dass die DX10-Performance mit den letzten nV-Treibern siginifikant besser geworden ist (lasse mich gern eines besseren belehren)

Vorschlag zur Güte: Benche du doch mal den CoH-Performancetest mit einer GTX in DX10, so lassen sich die Werte vergleichen

Coda
2007-09-02, 23:11:05
Nicht gesehen haben "will" - gesehen hat. Und auch Screenshots gemacht. Sorry, aber es rennt nicht jeder mit 'ner F**boybrille durch die Gegend
http://img101.imageshack.us/my.php?image=bioshock200709021437550yb4.png
http://img101.imageshack.us/my.php?image=bioshock200709021437550yb4.png
Hübscher roter Saum an den Kanten - gell? Dahin gehört er aber leider nicht.
Das sind die typischen Artefakte die man wenn man einfach AA aktiviert mit deferred shading.

Ist das Oblivion.exe auf ATi oder?

Blaire
2007-09-02, 23:18:20
mir ist nicht bekannt, dass die DX10-Performance mit den letzten nV-Treibern siginifikant besser geworden ist (lasse mich gern eines besseren belehren)

Oh doch : Release Notes vom 158.45:
Improved performance for DirectX 10 version of Company of Heroes

Test mit 162.18:
http://www.anandtech.com/video/showdoc.aspx?i=3029&p=4

Cubitus
2007-09-02, 23:28:04
Oh doch : Release Notes vom 158.45:
Improved performance for DirectX 10 version of Company of Heroes

Test mit 162.18:
http://www.anandtech.com/video/showdoc.aspx?i=3029&p=4

oO da wird aber eine XT ordentlich vernascht ;D

Der Fairness halber sollten immer Tests mit den aktuellen Treibern gepostet werden

J0ph33
2007-09-02, 23:30:27
mmh...es wiedersprechen sich die ergebnisse von xbit und anandtech...

es wäre interessant zu wissen, wieviel Prozent der G80 mit dem neuen treiber gewonnen hat

Blaire
2007-09-02, 23:32:29
mmh...es wiedersprechen sich die ergebnisse von xbit

Nochmal der Test von xbit war mit alten 158.24 Treibern gemacht wurden, völlig unlogisch zu so einem Zeitpunkt wo es doch schon die 163.44 gibt.

J0ph33
2007-09-02, 23:39:06
ja, das habe ich schon verstanden....fragt sich nur mit welchem ati-treiber der test von anandtech war...irgendwas liegt da im argen

ich glaube nicht, dass sich ein vorsprung von ca. 50% für ati (bei xbit) durch einen treiber in einen 50%-Vorsprung für nvidia wandelt (bei anandtech - werte geschätzt)

Blaire
2007-09-02, 23:39:54
Das sind die typischen Artefakte die man wenn man einfach AA aktiviert mit deferred shading.

Selbiges tritt auch bei MoH:Airborne und R6 Vegas auf mal mehr mal weniger deutlich.

Ronny145
2007-09-02, 23:42:25
Das sind die typischen Artefakte die man wenn man einfach AA aktiviert mit deferred shading.

Ist das Oblivion.exe auf ATi oder?


Er spricht dort den G80 an, also keine Ati.

DerKleineCrisu
2007-09-02, 23:50:48
ja, das habe ich schon verstanden....fragt sich nur mit welchem ati-treiber der test von anandtech war.........

wenn man in dem artikel nur auf The test blätter sieht man welchen treiber sie genommen haben:


CPU: Intel Core 2 Extreme X6800 (2.93GHz/4MB)
Motherboard: ASUS P5W-DH
Chipset: Intel 975X
Chipset Drivers: Intel 8.2.0.1014
Hard Disk: Seagate 7200.7 160GB SATA
Memory: Corsair XMS2 DDR2-800 4-4-4-12 (1GB x 2)
Video Card: Various
Video Drivers: ATI Catalyst 8.38.9.1-rc2
NVIDIA ForceWare 162.18
Desktop Resolution: 1280 x 800 - 32-bit @ 60Hz
OS: Windows Vista x86


Mfg

DerKleineGrisu

Coda
2007-09-02, 23:50:52
Er spricht dort den G80 an, also keine Ati.
In Moha ist mir das auch schon aufgefallen, allerdings dachte ich das es in Bioshock nicht auftritt, weil es dort offiziell unterstützt wird.

Ich hab's selber noch nicht probiert.

J0ph33
2007-09-02, 23:53:52
wenn man in dem artikel nur auf The test blätter sieht man welchen treiber sie genommen haben

jaa, das habe ich auch gesehen, und tut mir leid, dass ich die die internen treiberbezeichnungen nicht alle bis auf die letzte stelle auswendig kenne, aber vielleicht kannst du mir ja sagen welcher catalyst 7.x das ist...

Blaire
2007-09-02, 23:55:09
Bei MoH:Airborne tritt das sogar ohne AA auf.

Gast
2007-09-03, 02:29:02
ja, das habe ich schon verstanden....fragt sich nur mit welchem ati-treiber der test von anandtech war...irgendwas liegt da im argen

ich glaube nicht, dass sich ein vorsprung von ca. 50% für ati (bei xbit) durch einen treiber in einen 50%-Vorsprung für nvidia wandelt (bei anandtech - werte geschätzt)

So sieht es aus der Test ist vom 5.7.07 und der Treiber bei ATI ist der 8.39XX es gibt sch 2-3 neue seit dem aktuell 8.41XX.
Und die DX10 performance ist mit den letzden gestiegen, hab ich in LP selbst festgestellt.

Gast
2007-09-03, 11:34:50
Das sind die typischen Artefakte die man wenn man einfach AA aktiviert mit deferred shading.

Ist das Oblivion.exe auf ATi oder?

Das ist ne 8800er

AnarchX
2007-09-03, 11:36:59
Das ist ne 8800er

Und auch der "richtige" Value? ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5783262&postcount=885

AMC
2007-09-03, 11:45:14
Pickst dir aber nur die Rosinen raus...Völlig fürn Arsch der Test total veraltete Treiber "Nvidia ForceWare 158.24" Und beim Blick auf die Minimumfps zeigt mir das da ne Menge schiefgelaufen sein muss. Und auch die Tests sind ohne AA ;)

Das Du immer noch die Mühe und Ruhe hast, auf Lolman's Postings zu reagieren...RESPEKT! Es ist doch schon immer so gewesen, dass er sich nur die Rosinen Diagramme/Charts/whatever rausgesucht hat. -> Ignore und gut ist. ;)

AMC

Gast
2007-09-03, 11:48:55
Und auch der "richtige" Value? ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5783262&postcount=885

Es gibt auch normale Kunden, wo nicht so die ahnung von PC haben, also warum sollte PCGH irgendwas an der regestry tweaken?

Der PCGH Leser sieht dann ein getweaktes Bild auf pcgh.de oder im Heft und wundert sich warum es bei sich komplett anders ausieht.

The_Invisible
2007-09-03, 11:52:36
Es gibt auch normale Kunden, wo nicht so die ahnung von PC haben, also warum sollte PCGH irgendwas an der regestry tweaken?

Der PCGH Leser sieht dann ein getweaktes Bild auf pcgh.de oder im Heft und wundert sich warum es bei sich komplett anders ausieht.

wer weiß was AA/AF ist setzt sich auch mit diesem thema auseinander, brauchen tut man dazu nur nhancer und nix registry

mfg

Mr. Lolman
2007-09-03, 11:53:10
Das Du immer noch die Mühe und Ruhe hast, auf Lolman's Postings zu reagieren...RESPEKT! Es ist doch schon immer so gewesen, dass er sich nur die Rosinen Diagramme/Charts/whatever rausgesucht hat. -> Ignore und gut ist. ;)

AMC

Ich pick doch nur deswegen die "Rosinen", um zu zeigen, dass eben nicht alles so s/w ist, wie gedacht. Außerdem ists doch interessant, wie die 1GB Variante in COH abgeht. Das zeigt u.a doch, dass 512MB heutzutage tw. schon wieder zu wenig sind.

BTW: Crewmitglieder kann man AFAIK nicht ignorieren ;)

Gast
2007-09-03, 12:30:15
Es gibt auch normale Kunden, wo nicht so die ahnung von PC haben, also warum sollte PCGH irgendwas an der regestry tweaken?


45 ist standardmäßig im treiber in der kompatibilitätseinstellung eingestellt, der falsche wert ist zwar schneller aber nicht ohne fehler.

AMC
2007-09-04, 12:52:17
klar, seit dem r600 ist spielen ohne aa/af auf einmal wieder in, man muss eben immer mit der mode gehen.

mfg

Jepp! Das ist mir hier auch schon aufgefallen. Seit Geforce 3 - Zeiten wurde doch gerade hier auf ATI-....äh 3D-Center ;) immer auf den Qualitätsfeatures herumgeritten, auf AF-Blumen und AA-Mustern, aber seit dem HD2900XT scheint das nicht mehr so zu sein. Sieht man unter anderem daran, dass in den News diese DX-10 Benchmark auch unkritisch übernommen und schlicht der 2900XT einen Trend bescheinigen wollten, der gar nicht existiert (ist dann ja auch in den Kommentaren zerissen worden)! Schon interessant, wie sich hier nach der roten Fahne gedreht wird. Wo bleiben eigentlich neue Artikel a la "2900XT AA beleuchtet", oder "DX-10 Boliden im AA/AF Vergleich", oder mal einen Artikel, der die (offensichtlichen) AA/AF-Probleme der 2900XT beleuchtet? Ich erinnere mich an Zeiten, da wurde das AF und AA der 7x00 und 6x00 Reihe ganz genau beleuchtet und nach Strich und Faden kritisiert. Vielleicht sollte man wirklich darüber nachdenken, es dem tombman gleichzumachen.

Gast
2007-09-04, 13:06:03
Jepp! Das ist mir hier auch schon aufgefallen. Seit Geforce 3 - Zeiten wurde doch gerade hier auf ATI-....äh 3D-Center ;) immer auf den Qualitätsfeatures herumgeritten, auf AF-Blumen und AA-Mustern, aber seit dem HD2900XT scheint das nicht mehr so zu sein. Sieht man unter anderem daran, dass in den News diese DX-10 Benchmark auch unkritisch übernommen und schlicht der 2900XT einen Trend bescheinigen wollten, der gar nicht existiert (ist dann ja auch in den Kommentaren zerissen worden)! Schon interessant, wie sich hier nach der roten Fahne gedreht wird. Wo bleiben eigentlich neue Artikel a la "2900XT AA beleuchtet", oder "DX-10 Boliden im AA/AF Vergleich", oder mal einen Artikel, der die (offensichtlichen) AA/AF-Probleme der 2900XT beleuchtet? Ich erinnere mich an Zeiten, da wurde das AF und AA der 7x00 und 6x00 Reihe ganz genau beleuchtet und nach Strich und Faden kritisiert. Vielleicht sollte man wirklich darüber nachdenken, es dem tombman gleichzumachen.

kannste knicken, wir leben in deutschland da braucht man immer was zu meckern..

das erste spiel gewinnt deutschland und sie werden hochgejubelt, das zweite verlieren sie und werden niedergemacht.

Ein Land voller Wetterfähnchen!

Sterem
2007-09-04, 15:08:42
Ich finde es komisch das die X2900 Xt grade bei Seiten gut ist die nicht so bekannt sind.Bestimmt haben die grossen Seiten bisschen Taschengeld von Nv bekommen.;)

derwalde
2007-09-04, 15:35:15
Ich finde es komisch das die X2900 Xt grade bei Seiten gut ist die nicht so bekannt sind.Bestimmt haben die grossen Seiten bisschen Taschengeld von Nv bekommen.;)

jo oder die kleinen seiten von ati... was ein comment

Andy67
2007-09-04, 16:09:42
Bestimmt haben die grossen Seiten bisschen Taschengeld von Nv bekommen.;)
Und von wem bekommst du Taschengeld...;D

PCGH_Carsten
2007-09-04, 16:56:25
Und auch der "richtige" Value? ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5783262&postcount=885
Natürlich nicht. Das ist der "auf der GF läuft's - einfach AA erzwingen"-Holzhammer. :) Denn es läuft eben nicht "einfach".

Gast
2007-09-04, 17:20:52
Natürlich nicht. Das ist der "auf der GF läuft's - einfach AA erzwingen"-Holzhammer. :) Denn es läuft eben nicht "einfach".


mit dem 163.44 schon, mit den vorherigen treibern muss man allerdings selbst ein profil anlegen und die AA-values durchprobieren.

PCGH_Carsten
2007-09-04, 17:29:50
mit dem 163.44 schon, mit den vorherigen treibern muss man allerdings selbst ein profil anlegen und die AA-values durchprobieren.
Ich habe den 163.44er benutzt - ganz so fehlerfrei scheint's dann doch nicht zu sein. ;)

dargo
2007-09-04, 17:31:39
Ich habe den 163.44er benutzt - ganz so fehlerfrei scheint's dann doch nicht zu sein. ;)
Erkläre mir das bitte. :)

Gast
2007-09-04, 17:49:27
Ich habe den 163.44er benutzt - ganz so fehlerfrei scheint's dann doch nicht zu sein. ;)


ich hab zwar nur die demo durchgespielt (da auf bioshock dank des kopierschutzes verzichten werde), dort sind mir keine fehler aufgefallen.

Gast
2007-09-04, 19:17:37
Erkläre mir das bitte. :)
Was fehlt dir denn an Erklärung?
Nicht gesehen haben "will" - gesehen hat. Und auch Screenshots gemacht. Sorry, aber es rennt nicht jeder mit 'ner F**boybrille durch die Gegend
http://img101.imageshack.us/my.php?image=bioshock200709021437550yb4.png
http://img101.imageshack.us/my.php?image=bioshock200709021437550yb4.png
Hübscher roter Saum an den Kanten - gell? Dahin gehört er aber leider nicht.

Gast
2007-09-04, 19:19:54
Was fehlt dir denn an Erklärung?

also das gab es auf meiner 8800 nicht.

N0Thing
2007-09-05, 03:00:07
Bei Legion Hardware (http://www.legionhardware.com/document.php?id=680&p=0) gibt es eine schöne Benchmarkreihe mit einer 2900XT 512MB, 8800GTS 640MB und einer 8800GTX.
Der Test wurde mit den aktuellen, offiziellen Treibern von ATI und Nvidia gemacht, gebencht wurde unter XP.


Meiner Meinung nach wird da ein ganz treffendes Fazit gezogen, auch wenn ich mir ein besseres abschneiden der 2900XT gewünscht/erhofft habe.

tombman
2007-09-05, 03:20:32
Bei Legion Hardware (http://www.legionhardware.com/document.php?id=680&p=0) gibt es eine schöne Benchmarkreihe mit einer 2900XT 512MB, 8800GTS 640MB und einer 8800GTX.
Der Test wurde mit den aktuellen, offiziellen Treibern von ATI und Nvidia gemacht, gebencht wurde unter XP.


Meiner Meinung nach wird da ein ganz treffendes Fazit gezogen, auch wenn ich mir ein besseres abschneiden der 2900XT gewünscht/erhofft habe.
Wenn AMD selbst schon zugibt, daß die HD2900XT eher als Konkurrenz für die GTS denn für die GTX gesehen wird, dann besteht da wenig Hoffnung die GTX wirklich zu schlagen.

Sobald im Spiel höher aufgelöste Texturen verwendet werden, die noch dazu 16xAF gefiltert werden und außerdem noch 4xAA dazukommt isses für AMD ganz aus.

Sie haben sich eben zu sehr auf arithmetische Leistung verlassen und Texturpower vernachlässigt.
Trotzdem ist die HD2900XT keine schlechte Karte, und wenn wer geil auf das Teil ist und kaufen will, kann ich das verstehen ;)
Mich würde sie zb mehr als eine GTS anmachen :)

@Test: haben die in Bioshock echt MIT vsync getestet? :uhammer:

James Ryan
2007-09-05, 05:49:19
Solange die Radeons in Bioshock so ein Bild abliefern, ist ein Vergleich eh sinnlos:

http://666kb.com/i/ardkryrcep3finhp5.jpg

Seltsam dass das mal wieder keiner gesehen hat! :rolleyes:

Zugehöriger Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=378587

MfG :cool:

Gast
2007-09-05, 07:44:31
Herrlich diese "ich hab nur das Geld für eine Grafikkarte und muss sie deshalb um jeden Preis verteidigen" Fanboys.

Wenn du eine 8800er UND eine 2900er hättest, wüsstest du, das es je nach Spiel auch bei NV optische Mängel gibt....seltsam das du das...mal wieder...nicht sehen willst.

;-)

The_Invisible
2007-09-05, 08:07:20
Herrlich diese "ich hab nur das Geld für eine Grafikkarte und muss sie deshalb um jeden Preis verteidigen" Fanboys.

Wenn du eine 8800er UND eine 2900er hättest, wüsstest du, das es je nach Spiel auch bei NV optische Mängel gibt....seltsam das du das...mal wieder...nicht sehen willst.

;-)

kann schon sein, aber hier gehts nun mal um bioshock

btw
der legionhardware test ist schon komisch, einmal steht gar nichts dabei, dann "ati 8xaa / nv 16xaa". ansonsten sieht man eigentlich nichts neues, mit aa/af bricht sie eben übel ein.

mfg

Gast
2007-09-05, 08:51:38
also das gab es auf meiner 8800 nicht.
Tja, das Bild oben sieht aber eindeutig eindeutig aus und überzeugt eher als "das gab es bei mir nicht". Mich zumindest.

Tigerchen
2007-09-05, 10:07:56
Solange die Radeons in Bioshock so ein Bild abliefern, ist ein Vergleich eh sinnlos:

http://666kb.com/i/ardkryrcep3finhp5.jpg

Seltsam dass das mal wieder keiner gesehen hat! :rolleyes:

Zugehöriger Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=378587

MfG :cool:

Da hat sich aber einer mächtig angestrengt so einen Screenshot hinzukriegen. Die Unschärfe ist ein Feature die man nur zu sehen kriegt wenn man gerade einstecken muß.

dargo
2007-09-05, 10:56:07
Was fehlt dir denn an Erklärung?
Das sind Bilder einer HD2900XT. :rolleyes:

Gast
2007-09-05, 11:04:57
Das sind Bilder einer HD2900XT. :rolleyes:
Nö.

q-bone
2007-09-05, 11:20:41
Da hat sich aber einer mächtig angestrengt so einen Screenshot hinzukriegen. Die Unschärfe ist ein Feature die man nur zu sehen kriegt wenn man gerade einstecken muß.

es geht ja nicht um die unschärfe sondern um den "raster effekt" :D

http://img511.imageshack.us/my.php?image=bioshock200708261813200nn4.jpg

dargo
2007-09-05, 11:59:58
Nö.
Dann hatte ich PCGH_Carsten vorhin wohl falsch verstanden. Wie dem auch sei, habe es nochmal bei mir probiert. Bei der gleichen Stelle habe ich auch diese roten Punkte am linken Rand. Die sieht man nur aus einem bestimmen Winkel.
Aber mal ganz ehrlich - deswegen die ganze Aufregung? Soll ich jetzt darüber heulen oder lachen? :|

Der AA Modus überwiegt mit deutlichen Vorteilen als dieser kleiner Nachteil mit den roten Punkten. Übrigens, diese Punkte sind mir auch schon früher in CoD2 aufgefallen sobald man CSAA benutzt hat.

Hätte PCGH_Carsten das Bild nicht gepostet wären mir die Punkte wohl nie aufgefallen, zumindest nicht im Spiel. Bei Screenshots dann eher.

N0Thing
2007-09-05, 12:07:12
Trotzdem ist die HD2900XT keine schlechte Karte, und wenn wer geil auf das Teil ist und kaufen will, kann ich das verstehen ;)
Mich würde sie zb mehr als eine GTS anmachen :)


Mich auch, aber dann meldet sich der Verstand und sagt so fiese Dinge wie "Stromverbrauch" oder "Lautstärke". :wink:

Ich warte auf die Refresh-Chips, bzw. die nächste Generation von Nvidia/ATI.

PCGH_Carsten
2007-09-05, 13:09:10
Dann hatte ich PCGH_Carsten vorhin wohl falsch verstanden. Wie dem auch sei, habe es nochmal bei mir probiert. Bei der gleichen Stelle habe ich auch diese roten Punkte am linken Rand. Die sieht man nur aus einem bestimmen Winkel.
Aber mal ganz ehrlich - deswegen die ganze Aufregung? Soll ich jetzt darüber heulen oder lachen? :|
Ich habe das Bild ganz normal während des Spiels gemacht, mich also nicht extra so hingedreht, dass man es sieht. Was die Aufregung anbelangt: Ich rege mich darüber nicht auf, aber es ist einfach nicht richtig zu behaupten "FSAA an und gut" - die Fehler sind nunmal da, unabhängig davon ob sie den einzelnen jetzt stören oder nicht.

drillsarge@woanders
2007-09-05, 13:29:02
Ich habe das Bild ganz normal während des Spiels gemacht, mich also nicht extra so hingedreht, dass man es sieht. Was die Aufregung anbelangt: Ich rege mich darüber nicht auf, aber es ist einfach nicht richtig zu behaupten "FSAA an und gut" - die Fehler sind nunmal da, unabhängig davon ob sie den einzelnen jetzt stören oder nicht.
trotzdem traurig für die neuste highend karten. auf der einen gehts gar nicht, auf der andren nur "halb".

Ronny145
2007-09-05, 13:33:49
trotzdem traurig für die neuste highend karten. auf der einen gehts gar nicht, auf der andren nur "halb".


Das ist auch falsch. Bei der Radeon geht AA mit Bildfehlern und beim G80 fast perfekt. Gar nicht und halb ist nicht passend.

Cubitus
2007-09-05, 14:47:30
Der AA Modus überwiegt mit deutlichen Vorteilen als dieser kleiner Nachteil mit den roten Punkten. Übrigens, diese Punkte sind mir auch schon früher in CoD2 aufgefallen sobald man CSAA benutzt hat.

Hätte PCGH_Carsten das Bild nicht gepostet wären mir die Punkte wohl nie aufgefallen, zumindest nicht im Spiel. Bei Screenshots dann eher.

So ist es, gut die Artfeakte sind da, aber nur in speziellen Winkeln zu sehen
und fallen deshalb eher selten auf.

Aus einer anderen Perspektive scheint doch, bis auf den Fuß der LS, alles in Ordnung zu sein..

http://multipics.net/img/littlesister-f4p1.jpg (http://multipics.net/?img=littlesister-f4p1.jpg)


Beim neuen Medal of Honor Airbone gibt es auch unschöne Ränder die beim Briefing sofort auffallen, dafür im eigentlichen Kampf eher weniger

Klar das zwecks der U3E noch nachgebessert werden muss,
doch lieber gering fehlerhaftes AA als überhaupt keins :biggrin:

http://multipics.net/img/Medal-8wg1.jpg (http://multipics.net/?img=Medal-8wg1.jpg)

Gast
2007-09-05, 15:14:53
Was geht denn hier ab.Hab mir ebend grade denn Test angeguckt und hab schon gedacht das die X2900 Xt nicht gut dasteht.Aber lol die X2900 XT schneidet doch verdammt gut ab!Immer schneller als eine 8800 GTS und bei Airborne schneller als eine 8800 GTX.

Sterem.

Gast
2007-09-05, 15:17:51
Das größte Problem für ATI Karten ist das die meisten spiele auf nvidia zu geschnitten sind.

und warum machen sich einige sorgen um ein DirectX, das es noch gar nicht gibt?

in der vista sp1 beta ist es nicht enthalten und da das sp1 eh erst nächstes jahr kommt und ich denke mal im januar auch die neuen high-end grafikchips, braucht man darüber kaum zu diskutieren.

über die directx10 leistung kann man noch nichts sagen das wird man erst sehen wenn wirklich ein spiel kommt das nur auf directx10 entwickelt wurde und so ein spiel sehe ich noch nicht


naja ich würde zurzeit sagen das alle neuen Grafikkarten geflopt sind, es aber die meisten nicht sehen wollen.

Die Leistung der "alten" Grafikkarten würden eigentlich noch lange ausreichen, wenn die entwickler der spiele sich mal dran machen würden und die spiele richtig optimieren würden.

naja der hardwarewahn geht weiter

Cubitus
2007-09-05, 15:29:16
Das größte Problem für ATI Karten ist das die meisten spiele auf nvidia zu geschnitten sind.


Ein großes Problem der ATI Karten ist das Zuschalten von AA.

Coda
2007-09-05, 15:32:37
Und die Füllrate.

dargo
2007-09-05, 15:41:17
Ich habe das Bild ganz normal während des Spiels gemacht, mich also nicht extra so hingedreht, dass man es sieht. Was die Aufregung anbelangt: Ich rege mich darüber nicht auf, aber es ist einfach nicht richtig zu behaupten "FSAA an und gut" - die Fehler sind nunmal da, unabhängig davon ob sie den einzelnen jetzt stören oder nicht.
Ich möchte die AA Qualität bei der UE3 auch nicht schön reden. Sicherlich ist es nicht perfekt. Aber wie gesagt, mir sind glattere Kanten viel wichtiger als irgendwelche Pünktchen die irgendwann mal auftauchen, die mich eh nicht stören. Das mag ein Anderer wieder anders sehen. :)

Edit:
Kennst du auch eine andere Szene oder ist das die Einzige?

drillsarge@woanders
2007-09-05, 15:43:58
Das ist auch falsch. Bei der Radeon geht AA mit Bildfehlern und beim G80 fast perfekt. Gar nicht und halb ist nicht passend.
für mich ist au der radeon mit aa das spiel (die demo) nicht geniessbar -> geht nicht

Ronny145
2007-09-05, 15:45:39
für mich ist au der radeon mit aa das spiel (die demo) nicht geniessbar -> geht nicht


Für mich schon. Fehler treten nur an einigen Stellen auf, was stört dich denn?

drillsarge@woanders
2007-09-05, 15:47:15
Für mich schon. Fehler treten nur an einigen Stellen auf, was stört dich denn?
aa ist ein bildverbessendes feature.

Ronny145
2007-09-05, 15:50:04
aa ist ein bildverbessendes feature.

Das ist es. Und was stört dich jetzt? Wo treten bei dir überall Fehler auf? Vielleicht habe ich nicht alle bemerkt, kann ja sein.

drillsarge@woanders
2007-09-05, 15:56:52
ich stell ma wenn ich morgen zuhause bin screens rein.
ps: was nützt aa wenn es fehler produziert?

Cubitus
2007-09-05, 16:01:42
auch eine andere Szene oder ist das die Einzige?

Schau mal unter das Happy new year Schild in der Bar :wink:

Ronny145
2007-09-05, 16:01:59
ich stell ma wenn ich morgen zuhause bin screens rein.
ps: was nützt aa wenn es fehler produziert?


Es kommt doch drauf an wieviel Fehler es produziert. Der G80 produziert auch Fehler, es nutzt trotzdem sehr viel. Du tust ja so als wenn an jeder Ecke Fehler auftreten oder es erst gar nicht läuft, dem ist aber nicht so. Deswegen ziehe ich AA vor und nehme ab und an mal eine Fehldarstellung in Kauf. Von ungenießbar sehe ich da nichts.

Gast
2007-09-05, 16:05:24
http://enthusiast.hardocp.com/article.html?art=MTM4Nyw3LCxoZW50aHVzaWFzdA==


da steht die XT2900 aber wieder "nur" auf GTS Niveau, an GTX kommt sie net ran

dargo
2007-09-05, 16:06:06
was nützt aa wenn es fehler produziert?
Sollte das nicht jeder für sich besser entscheiden was ihm eher gefällt? Ich weiß zwar nicht wie es bei ATI aussieht, aber wer beim G80 auf AA wegen diesen Pünktchen verzichtet - da fällt mir nur dieses ein :crazy2:.
Trotzdem akzeptiere ich es.

drillsarge@woanders
2007-09-05, 16:06:27
spiel ich lieber in höherer auflösung ohne aa und grafikfehler.
der sm2.0 fix läuft der nur auf ati x800? laut post ist meine s27 schon seit 2 tagen da (seltsam) unddie hat auch sm2.

AMC
2007-09-05, 16:07:06
Was geht denn hier ab.Hab mir ebend grade denn Test angeguckt und hab schon gedacht das die X2900 Xt nicht gut dasteht.Aber lol die X2900 XT schneidet doch verdammt gut ab!Immer schneller als eine 8800 GTS und bei Airborne schneller als eine 8800 GTX.

Sterem.

Ohne AA und AF kann das sogar vorkommen, aber wir spielen und benchen ja nicht mehr im Jahre 2002, sondern 2007 grundsätzlich mit 4AA/16AF und da sieht es dann nun mal ganz ganz bitter aus.

AMC

P.S. Schaut euch mal die leistungszuwächse der 320er GTS mit dem 163.44 an. Bis inklusive 1600*1200 @ 4AA/16AF überholt nun auch die kleine GTS die HD2900 in den allermeisten Fällen. [sorry for offtopic]

Trice1001
2007-09-05, 16:14:24
Ich möchte die AA Qualität bei der UE3 auch nicht schön reden. Sicherlich ist es nicht perfekt. Aber wie gesagt, mir sind glattere Kanten viel wichtiger als irgendwelche Pünktchen die irgendwann mal auftauchen, die mich eh nicht stören. Das mag ein Anderer wieder anders sehen. :)

Edit:
Kennst du auch eine andere Szene oder ist das die Einzige?

Die U3 Engine ist ja nen witz ne?
Also die hat AA mal nötig :P

AMC
2007-09-05, 16:18:58
Aus dem Review (http://enthusiast.hardocp.com/article.html?art=MTM4NywzLCxoZW50aHVzaWFzdA==)

Bioshock
1600*1200 - DX 10
[...]At 1600x1200, the GeForce 8800 GTS 320MB and the Radeon HD 2900 XT perform almost identically.[...]

1280*960 - DX 10
[...]A little surprisingly, however, the GeForce 8800 GTS 320MB outperformed the ATI Radeon HD 2900 XT.[...]

Schade, dass man in DX-10 in Bioshock kein AA zuschalten kann, daher sind die Benches im Prinzip recht nutzlos, aber ich kann mir bildlich vorstellen, wie es dann wohl für die HD2900 aussieht: noch eine ganze Ecke schwärzer. ;)

In DX9 kämpft der G80 allerdings interessanterweise verstärkt und immer noch mit dem VRAM Bug (unter Bioshock doch recht stark zu erkennen, trotz 163.44), an den GTS 640 / 320 sieht man es hier wieder besonders deutlich beim Einsatz von 4fach AA.

AMC

LovesuckZ
2007-09-05, 16:20:35
P.S. Schaut euch mal die leistungszuwächse der 320er GTS mit dem 163.44 an. Bis inklusive 1600*1200 @ 4AA/16AF überholt nun auch die kleine GTS die HD2900 in den allermeisten Fällen. [sorry for offtopic]

Gibt es dazu mehrere Tests?

Gast
2007-09-05, 16:32:49
Wurde wohl mal wieder mal die Bildquali auf Stufe Wireframe zurückgeschraubt.

Coda
2007-09-05, 16:33:37
Wireframe ist auf heutigen GPUs nur leider langsamer als Fill :tongue:

AMC
2007-09-05, 16:40:57
Gibt es dazu mehrere Tests?

Auf computerbase gab es nen kleinen Benchmarkparcour dazu und soweit ich mich erinnern kann, wurde dort Bioshock nicht mitgetestet! Ergo: zumindest unter DX-10 kommt zu den bekannten Steigerungen ein weiteres Spiel dazu, in dem die GTS 320 vom 163.44 profitieren kann (auch wenn nvidia nicht müde wird verlauten zu lassen, dass der eigentliche Fix erst im nächsten Treiber enthalten sein wird) und sich an der HD2900XT vorbeischiebt. :wink:

AMC

Link: Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/)

[...]Update 29.08.2007 09:08 Uhr: Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren. Nvidia modifiziert in dem neuen Beta-Treiber die Speicherkompression, was in Company of Heroes D3D10 auf einer 256-MB- und einer 320-MB-Karte den gemessenen FPS-Gewinn erklärt. Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt. Laut James Wang wird der VRAM-Bug im nächsten offiziellen Treiber-Release behoben sein.[...]

Nachtrag: Alter Falter, wenn diese durchaus gehörigen Steigerungen durch Treiber-Tweaks und nichtmal durch die Behebung des VRAM Bugs entstehen, dann könnten ja noch richtig heftige Leistungssteigerungen möglich sein! :eek: (y)

Cubitus
2007-09-05, 17:14:03
Auf computerbase gab es nen kleinen Benchmarkparcour dazu und soweit ich mich erinnern kann, wurde dort Bioshock nicht mitgetestet! Ergo: zumindest unter DX-10 kommt zu den bekannten Steigerungen ein weiteres Spiel dazu, in dem die GTS 320 vom 163.44 profitieren kann (auch wenn nvidia nicht müde wird verlauten zu lassen, dass der eigentliche Fix erst im nächsten Treiber enthalten sein wird) und sich an der HD2900XT vorbeischiebt. :wink:

AMC

Link: Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/)

[...]Update 29.08.2007 09:08 Uhr: Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren. Nvidia modifiziert in dem neuen Beta-Treiber die Speicherkompression, was in Company of Heroes D3D10 auf einer 256-MB- und einer 320-MB-Karte den gemessenen FPS-Gewinn erklärt. Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt. Laut James Wang wird der VRAM-Bug im nächsten offiziellen Treiber-Release behoben sein.[...]

Nachtrag: Alter Falter, wenn diese durchaus gehörigen Steigerungen durch Treiber-Tweaks und nichtmal durch die Behebung des VRAM Bugs entstehen, dann könnten ja noch richtig heftige Leistungssteigerungen möglich sein! :eek: (y)

Also mit SLI bemerke ich jetzt schon nichts mehr vom Vram Bug weder bei Oblivion noch bei BS.

Aber schön zu hören das Nvidia das Problem nun endgültig lösen möchte.

James Ryan
2007-09-05, 18:06:58
Da hat sich aber einer mächtig angestrengt so einen Screenshot hinzukriegen. Die Unschärfe ist ein Feature die man nur zu sehen kriegt wenn man gerade einstecken muß.


Mal wieder klar dass nur 1 Sekunde das Bild angeschaut wird und dann so ein Kommentar kommt ohne den dazu gehörigen Thread gelesen zu haben.
Dann wird hier auf ein paar rote Pünktchen herumgeritten welche beim G80-FSAA auftauchen.
Was die Radeon aber für ein Bild liefert scheint absolut egal zu sein!
Das FSAA dort liefert deutlich mehr Fehler (speziell in der Beleuchtung!) und sogar ohen FSAA gibt es schöne Rastereffekte!
Mit diesen Einstellungen wird dann auch noch vergleichen... ;D

MfG :cool:

Gast
2007-09-05, 18:38:16
Solange die Radeons in Bioshock so ein Bild abliefern, ist ein Vergleich eh sinnlos:

http://666kb.com/i/ardkryrcep3finhp5.jpg

Seltsam dass das mal wieder keiner gesehen hat! :rolleyes:

Zugehöriger Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=378587

MfG :cool:
Das Bild ist von einer:
a) HD2900
b) X1900
c) 9800
d) 8500
e) 7200
...
Alles Radeon-Grafikkarten.
Niemand reitet auf den roten Pünktchen bei der Zuschaltung von AA rum (ich empfehle dir Carstens Posting zu Herzen zu nehmen), es ging nur um die Aussage, dass die Zuschaltung von AA auf einer G80 zu keinen Fehlern führt.
Weiterhin fehlen Screenshots mit und ohne AA von Bioshock&G80, um Fehler auszuschließen.
Und komm jetzt bitte nicht mit "lieber paar rote Punkte und MSAA als gar nichts". Aber auch so etwas wie "HD2900 kann gar kein MSAA in Bioshock".
Dass die Umbenennung der Bioshock-EXE in Oblivion.Exe zu Fehlern führt, sollte doch jedem klar sein. Besser gesagt: So naiv kann doch keiner sein, dass eine bloße Umbenennung der EXE AA erzwingen lässt.

Gast
2007-09-05, 18:52:52
Ich Spiele mit meiner X1900 XT mit 2aa und sehe keine Grafikfehler.

Nutze denn Cat 7.4

James Ryan
2007-09-05, 19:34:13
Das Bild ist von einer:
a) HD2900
b) X1900
c) 9800
d) 8500
e) 7200
...
Alles Radeon-Grafikkarten.
Niemand reitet auf den roten Pünktchen bei der Zuschaltung von AA rum (ich empfehle dir Carstens Posting zu Herzen zu nehmen), es ging nur um die Aussage, dass die Zuschaltung von AA auf einer G80 zu keinen Fehlern führt.
Weiterhin fehlen Screenshots mit und ohne AA von Bioshock&G80, um Fehler auszuschließen.
Und komm jetzt bitte nicht mit "lieber paar rote Punkte und MSAA als gar nichts". Aber auch so etwas wie "HD2900 kann gar kein MSAA in Bioshock".
Dass die Umbenennung der Bioshock-EXE in Oblivion.Exe zu Fehlern führt, sollte doch jedem klar sein. Besser gesagt: So naiv kann doch keiner sein, dass eine bloße Umbenennung der EXE AA erzwingen lässt.

Frag El Machiato was er für eine Radeon hat, der Effekt tritt aber sicher bei HD 2900 XT und X1900er Karten auf!
Solange diese beiden Karten solch eine Bild"qualität" liefern sind Vergleiche zwischen Gf 8800 GTS/GTX vs. HD 2900 XT sinnlos!
Dann schaue aber mal auf den Threadtitel und du wirst vielleicht verstehen warum ich mit dem Kopf schüttel...

MfG :cool:

Coda
2007-09-05, 19:36:07
Uhm ich glaube kaum, dass die paar Blockartefakte bei den Licht-Coronas massiv Leistung bringen. Ich gehe da eher von einem Treiberproblem aus der beim Fix überhaupt nichts an der Leistung ändert.

Oder gibt's sonst noch was was auf den Radeons nicht richtig gerendert wird?

Gast
2007-09-05, 19:47:49
In DX9 kämpft der G80 allerdings interessanterweise verstärkt und immer noch mit dem VRAM Bug (unter Bioshock doch recht stark zu erkennen, trotz 163.44), an den GTS 640 / 320 sieht man es hier wieder besonders deutlich beim Einsatz von 4fach AA.

AMC

wäre es nicht denkbar dass die 320MB langsam wirklich knapp werden, auch ohne bug?

smockdogx
2007-09-05, 22:45:45
Also bei mir läuft es Fantastisch und solange man bei 1280.. bleibt wird sie bestimmt noch lange reichen auser vielleicht in 1-2 games ....
Und denn Bug hab ich noch nicht bemerkt ausser vielleicht in css da liegt es aber glaub eher am Server der voll wird :wink:

Wegsel nur vorzeitig wenn Ati eine Super Karte Brint ,will wider Ati *heul*

Ps
Ich finde das Game auch ohne aa schön und es fällt mir garnicht auf das kein aa an ist ,bei andern Games zb Stalker css sehe ich das sofort

AMC
2007-09-05, 23:35:26
wäre es nicht denkbar dass die 320MB langsam wirklich knapp werden, auch ohne bug?

In Auflösungen größer 1600*1200 @ 4fach AA sicherlich. Aber überleg doch mal, zu Geforce 4 und Radeon 9800 Zeiten konnten wir auch schon Spiele in 1600*1200 und 4AA/8AF spielen und ein Frame ist in seiner Größe seit dieser Zeit nicht größer geworden, ergo: was in 128MiB passte, passt dann auch heute in 320 MiB. Bedenke, nur die Texturauflösung und Shadercode haben sich in ihrer Größe geändert, was sich natürlich auf die RAM-Auslastung und direkt auf die Größe eines Frames auswirkt, aber nicht in dem Maße, dass nun die Texturen seit 4 Jahren mal eben 200Mb mehr einsacken. Einfach mal an früher denken, da reichten 128, oder eben 256 MiB. Das der RAM irgendwann knapp wird, ist klar, vor allem jenseits der 1600 und dann bitte mit 4AA, aber ansonsten sehe ich da keinen Zusammenhang, was man ja auch oft an der Performance der x1900er Reihe sehen kann, die ebenfalls in einigen Spielen (wenn auch nicht die aktuellsten) durchaus in der Lage ist, höhere Auflösungen mit 2- oder 4-fach AA zu fahren. Es ist wohl eher so, dass viele Spieleentwickler schlicht nicht richtig programmieren können (siehe lächerliche DX-10 Spiele, die mit meist nicht sichtbaren DX-10 Features aufwarten, aber mit unterirdischer Leistung -> Lost Planet, etc.). nVidia hat ja extra nochmal darauf hingewiesen, dass der Performance-drop unnatürlich hoch ist, denn eine GTS bleibt vom Chip nun mal eine GTS. ;)

AMC

Blaire
2007-09-05, 23:52:57
Ich habe das Bild ganz normal während des Spiels gemacht, mich also nicht extra so hingedreht, dass man es sieht. Was die Aufregung anbelangt: Ich rege mich darüber nicht auf, aber es ist einfach nicht richtig zu behaupten "FSAA an und gut" - die Fehler sind nunmal da, unabhängig davon ob sie den einzelnen jetzt stören oder nicht.

Kann es vieleicht an der Engine selbst liegen, denn wenn man genauer hinsieht gibts es auch leichte Ränder ohne AA, mit AA wird der Effekt nur verstärkt wie ich finde.

Coda
2007-09-06, 00:13:28
Man kann AA auf jeden Fall so implementieren, dass es die Pixelfarben vor dem Downsampling so repräsentiert dass der Effekt nicht schlimmer wird.

Gast
2007-09-06, 01:31:03
Frag El Machiato was er für eine Radeon hat, der Effekt tritt aber sicher bei HD 2900 XT und X1900er Karten auf!
Solange diese beiden Karten solch eine Bild"qualität" liefern sind Vergleiche zwischen Gf 8800 GTS/GTX vs. HD 2900 XT sinnlos!
Dann schaue aber mal auf den Threadtitel und du wirst vielleicht verstehen warum ich mit dem Kopf schüttel...

MfG :cool:

quatsch nicht, vieleicht auf der X19xx gibts die fehler, sicher nicht mit ner HD 2900XT.
Ich hab eine GTX und eine 2900XT 1GB, und BIOSHOCK sieht GENAUSO aus wie auf dem G80, und daist egal ob DX9oder10.
Ich hab genau nach diesem fehler gesucht, Speziel wenn Funken fliegen oder kleine Lichtquellen in der Luft sind.
Klar muss man im Treiber auf HQ stellen, wie es auf LQ aussehen tut kA hab ich noch net Probiert, interessiert mich auch nicht.

James Ryan
2007-09-06, 05:46:51
Kann es vieleicht an der Engine selbst liegen, denn wenn man genauer hinsieht gibts es auch leichte Ränder ohne AA, mit AA wird der Effekt nur verstärkt wie ich finde.

Das interessante ist, dass in MoH:Airborne der Effekt mit FSAA etwas reduziert wird, ohne FSAA hat jede Figur einen deutlicheren weißen Rand!
Scheint also wirklich an der "tollen" Engine zu liegen.

MfG :cool:

Gast
2007-09-06, 08:21:16
In Auflösungen größer 1600*1200 @ 4fach AA sicherlich. Aber überleg doch mal, zu Geforce 4 und Radeon 9800 Zeiten konnten wir auch schon Spiele in 1600*1200 und 4AA/8AF spielen und ein Frame ist in seiner Größe seit dieser Zeit nicht größer geworden,...
Aber sicher ist er das. FP-Buffer allerorten, MRTs usw.

Allein die Buffer können leicht und locker schon weit über 100 MByte fressen heute.

Gast
2007-09-06, 14:01:29
Bedenke, nur die Texturauflösung und Shadercode haben sich in ihrer Größe geändert, was sich natürlich auf die RAM-Auslastung und direkt auf die Größe eines Frames auswirkt, aber nicht in dem Maße, dass nun die Texturen seit 4 Jahren mal eben 200Mb mehr einsacken.


o doch, locker. heute werden alleine ein vielfaches an texturschichten von früher verwendet, dazu kommt noch ein FP16-framebuffer und evtl auch noch texturen mit 16bit/kanal für die es (noch) kein komprimiertes format gibt.

im schnitt haben die texturen heute sicher auch mindestens die doppelte seitenlänge, was einen 4-fachen platzverbrauch verursacht. 300MB nur für texturen sind in der heutigen zeit durchaus denkbar.

AMC
2007-09-06, 15:37:51
Aber sicher ist er das. FP-Buffer allerorten, MRTs usw.

Allein die Buffer können leicht und locker schon weit über 100 MByte fressen heute.

o doch, locker. heute werden alleine ein vielfaches an texturschichten von früher verwendet, dazu kommt noch ein FP16-framebuffer und evtl auch noch texturen mit 16bit/kanal für die es (noch) kein komprimiertes format gibt.

im schnitt haben die texturen heute sicher auch mindestens die doppelte seitenlänge, was einen 4-fachen platzverbrauch verursacht. 300MB nur für texturen sind in der heutigen zeit durchaus denkbar.

Dem möchte ich entgegen halten dass, wie schon erwähnt, auch eine 256MiB X19xx Karte in manchen Spielen für 4/16 reicht und diese sogar noch 70 MiB weniger lokalen VRAM besitzt! Zusätzlich haben sich die Caching-Strategien und Kompressionsalgorithmen STARK verbessert, seit den guten alten "S3TC-und-gut-ist" Zeiten. Man kann also sagen, wie ich auch schrieb, das ein Frame durchaus größer geworden ist, aber nicht linear mit der Größe verbesserten Texturen, Shader- und Geometriedaten -> Kompression / Caching. Wenn Du Dir mal die Aussagen nVidias zum 163.44er Treiber anschaust, wirst Du sehen, was ich meine. Dort hat (laut nvidia) "nur" ein anderer Kompressionsalgorithmus, bzw. ein verbessertes Caching-Verfahren zu Geschwindigkeitsanstiegen > 50% gesorgt (Stalker, CoH).

Ich bin daher sehr zuversichtlich, dass ein endgültiger Patch im nächsten Treiber genau das Bild erzeugt, was wir seit den 256/512MiB Diskussionen bereits kennen: Das 512MiB oder mehr eben erst in sehr hohen Auflösungen Sinn ergeben und man bis 1600*1200 4/16 kaum oder nur geringe Unterschiede sehen wird.

AMC

P.S. Wenn ich mir die aktuellen, teils katastrophalen Ergebnisse erster DX-10 Titel / Benches ansehe und lesen muss, dass oftmals AA designspezifisch nicht funktioniert, dann wird bei den Spielen der jetzigen und nächsten Generation möglicherweise die Größe des VRAMs noch weniger Bedeutung zugemessen, als jetzt. Womit das Augenmerk auf der Effizienz bei der Berechnung komplexer Shader und der reinen FP Rechenleistung liegen könnte.

Coda
2007-09-06, 15:46:08
Es gibt bis heute keine bessere Texturkompression als S3TC.

Gast
2007-09-06, 15:51:05
Dem möchte ich entgegen halten dass, wie schon erwähnt, auch eine 256MiB X19xx Karte in manchen Spielen für 4/16 reicht und diese sogar noch 70 MiB weniger lokalen VRAM besitzt!


das stimmt, trifft das aber auch auf bioshock zu?


Zusätzlich haben sich die Caching-Strategien und Kompressionsalgorithmen STARK verbessert, seit den guten alten "S3TC-und-gut-ist" Zeiten.


an den kompressionsalgorithmen hat sich überhaupt nichts geändert, für texturen gab es damals S3TC und gibt es heute S3TC, das einzige was dazugekommen ist ist 3Dc, was aber nicht die kompression sondern die qualität erhöht.
dafür gibt es nun FP16/INT16-texturen für die überhaupt keine kompression, diese sind damit 8x so groß als S3TC-texturen in gleicher auflösung.

Wenn Du Dir mal die Aussagen nVidias zum 163.44er Treiber anschaust, wirst Du sehen, was ich meine. Dort hat (laut nvidia) "nur" ein anderer Kompressionsalgorithmus, bzw. ein verbessertes Caching-Verfahren zu Geschwindigkeitsanstiegen > 50% gesorgt (Stalker, CoH).


das ganze hat nichts überhaupt nichts mit kompression und caching zu tun.
das einzige was nvidia macht ist nicht mehr gebrauchte daten aus dem VRAM zu entfernen. kompression gibt es keine weitere und caching wird in der regel von der hardware transparent ausgeführt, da kann man von außen nicht viel beeinflussen.

Ich bin daher sehr zuversichtlich, dass ein endgültiger Patch im nächsten Treiber genau das Bild erzeugt, was wir seit den 256/512MiB Diskussionen bereits kennen: Das 512MiB oder mehr eben erst in sehr hohen Auflösungen Sinn ergeben und man bis 1600*1200 4/16 kaum oder nur geringe Unterschiede sehen wird.

AMC

P.S. Wenn ich mir die aktuellen, teils katastrophalen Ergebnisse erster DX-10 Titel / Benches ansehe und lesen muss, dass oftmals AA designspezifisch nicht funktioniert, dann wird bei den Spielen der jetzigen und nächsten Generation möglicherweise die Größe des VRAMs noch weniger Bedeutung zugemessen, als jetzt. Womit das Augenmerk auf der Effizienz bei der Berechnung komplexer Shader und der reinen FP Rechenleistung liegen könnte.[/QUOTE]

Coda
2007-09-06, 17:13:27
das einzige was dazugekommen ist ist 3Dc, was aber nicht die kompression sondern die qualität erhöht.
3DC erhöht die Kompression auf das Doppelte für den Anwendungsfall Normalmaps und man verliert etwas Qualität.

In D3D10 ist der Buzzname zum Glück weggefallen und es wird einfach als ein- bzw. zwei- statt vierkanaligem Blockkompressionsformat geführt, was es auch ist.

Gast
2007-09-06, 17:37:15
wäre es nicht denkbar dass die 320MB langsam wirklich knapp werden, auch ohne bug?
nicht in bioshock oder konsolen portierungen :)

The_Invisible
2007-09-06, 17:40:59
nicht in bioshock oder konsolen portierungen :)

also müsste man mit 256mb ram am pc auch durchkommen bei portierungen ;)

mfg

Gast
2007-09-06, 17:41:43
Ich bin daher sehr zuversichtlich, dass ein endgültiger Patch im nächsten Treiber genau das Bild erzeugt, was wir seit den 256/512MiB Diskussionen bereits kennen: Das 512MiB oder mehr eben erst in sehr hohen Auflösungen Sinn ergeben und man bis 1600*1200 4/16 kaum oder nur geringe Unterschiede sehen wird.

Öffne mal Rivatuner, hangel dich durch ein paar Menüs und beobachte inGame den VRAM-Verbrauch.
Du wirst staunen.

Gast
2007-09-06, 17:42:55
also müsste man mit 256mb ram am pc auch durchkommen bei portierungen ;)

mfg
vll wenn man wie bei der Konsole auf AA oder höchste Texturen Auflösung verzichtet.

Gast
2007-09-06, 18:34:20
also müsste man mit 256mb ram am pc auch durchkommen bei portierungen ;)

mfg
graka ram natürlich reichen da 256 ;)

hauptspeicher wurde hier nicht erwähnt

Gast
2007-09-06, 18:36:42
Öffne mal Rivatuner, hangel dich durch ein paar Menüs und beobachte inGame den VRAM-Verbrauch.
Du wirst staunen.

eine konsole holt sich ja ALLE daten aus ihrem speicher gell ;)

klar sind die 256 voll, was nicht heist das es nicht läuft ;)

ne konsole hat ja auch immer alle texturen eines spiels im RAM gell ;)

Gast
2007-09-06, 18:41:50
ich geb euch recht das 128 mb graka ram zuwenig sind:D

aber 256 reichen noch dick
(auch für pc games, listet eins auf das 512 zwingend brauch bitte :))

smockdogx
2007-09-06, 18:58:54
Kommt auf die Auflösung an und der zugeschalteten Sachen Wie aa und af an ...

freundlicher Gast
2007-09-06, 19:25:33
ich geb euch recht das 128 mb graka ram zuwenig sind:D

aber 256 reichen noch dick
(auch für pc games, listet eins auf das 512 zwingend brauch bitte :))
In 1.024x768 ohne AA oder HDR sicherlich noch keines. Andererseits kaufen sich die wenigsten Leute High-End-Karten, um dann in solchen Einstellungen zu spielen.

Gast
2007-09-06, 19:43:30
also müsste man mit 256mb ram am pc auch durchkommen bei portierungen ;)

mfg

Wenns so aussehen soll wie auf der Konsole sicher... 720p is am PC leicht unter Standard, wobei die Mehrheit ja auf WideTFTs in 1-2 Jahren umgestiegen sein wird, dann is 1680*1050 etabliert. OKOK in Europa, das die Amis mit ihren Gurken hinter her hinken sieht man ja im Steam *g

Aber bevor ne Mainstream Karte 512MB brauch, brauch die erstmal mehr Speed. Schaltet man die Texture Details auf max, brennt das ja nich nur den RAM weg sondern auch ordentlich Leistung, klebt man das Konsolen untypische AA noch drauf is ende mit der Leistung einer Mainstream Chips.
AF zieht kaum noch Leistung behaupte ich mal, da haste 2-3 FPS. Es sei denn du machst HQ aus, und aktivierst optimierungen, aber da sollteste lieber im Game was abschalten oder mal das System überdenken, bevor Matschtexturen anrücken.

Gast
2007-09-06, 20:50:06
Aber bevor ne Mainstream Karte 512MB brauch, brauch die erstmal mehr Speed. Schaltet man die Texture Details auf max, brennt das ja nich nur den RAM weg sondern auch ordentlich Leistung,

nein, die texturauflösung hat auf die leistung nur einen geringen einfluss, so lange der VRAM nicht ausgeht.

AMC
2007-09-06, 23:38:12
In 1.024x768 ohne AA oder HDR sicherlich noch keines. Andererseits kaufen sich die wenigsten Leute High-End-Karten, um dann in solchen Einstellungen zu spielen.

Du meinst, in 1024*768 und 4fach AA/16AF noch keines: definitiv! Zumindest mit nem G80!

AMC

Gast
2007-09-07, 17:03:57
highend karten gibts auch mit 256 mb...

und die reichen sofern kein verbugtes memorymanegment

ich spiele ohne aa noch jedes spiel auf ner 1900xt256

tombman
2007-09-08, 01:21:35
Hier sieht man ja, wie wichtig es ist, immer die aktuellesten und empfohlenen Treiber zu nehmen
http://www.legitreviews.com/article/558/2/

AMC
2007-09-08, 01:24:56
Hier sieht man ja, wie wichtig es ist, immer die aktuellesten und empfohlenen Treiber zu nehmen
http://www.legitreviews.com/article/558/2/

:eek: Den link füge ich sofort zu meinem News-Kommentar hinzu!

AMC

Gast
2007-09-08, 02:04:25
Das interessante ist, dass in MoH:Airborne der Effekt mit FSAA etwas reduziert wird, ohne FSAA hat jede Figur einen deutlicheren weißen Rand!
Scheint also wirklich an der "tollen" Engine zu liegen.

MfG :cool:Auch Starship Troopers leidet an "Anti-Cellshading". Eigentlich mal ein interessantes Thema für einen Artikel, warum AA manchmal nicht geht oder Fehler erzeugt.

Gast
2007-09-08, 03:39:18
http://img187.imageshack.us/img187/6220/kldl3.jpg (http://imageshack.us)
http://www.bit-tech.net/gaming/2007/08/30/bioshock_gameplay_graphics_and_performance/8

AMC
2007-09-08, 03:58:18
Warum kopierst Du nicht auch die anderen mit rein? :rolleyes:

http://img527.imageshack.us/img527/6482/25621626zj6.jpg (http://imageshack.us)
http://img527.imageshack.us/img527/6482/25621626zj6.892d780581.jpg (http://g.imageshack.us/g.php?h=527&i=25621626zj6.jpg)

http://img527.imageshack.us/img527/7421/21344897qc8.jpg (http://imageshack.us)
http://img527.imageshack.us/img527/7421/21344897qc8.9a506185a7.jpg (http://g.imageshack.us/g.php?h=527&i=21344897qc8.jpg)

http://img527.imageshack.us/img527/7264/29952048dc7.jpg (http://imageshack.us)
http://img527.imageshack.us/img527/7264/29952048dc7.65a70695ef.jpg (http://g.imageshack.us/g.php?h=527&i=29952048dc7.jpg)

http://img527.imageshack.us/img527/685/56685037ok9.jpg (http://imageshack.us)
http://img527.imageshack.us/img527/685/56685037ok9.52145a320f.jpg (http://g.imageshack.us/g.php?h=527&i=56685037ok9.jpg)

[Ironie]Ähm, jepp, 320 MiB Speicher scheinen echt nicht mehr zu reichen für Auflösungen > 1024 * 768 in Bioshock. ;D Ich kann hier irgendwie keinen großen Nachteil zur 640MiB Version erkennen -> pwned!

AMC

=Floi=
2007-09-08, 04:06:12
liegt aber auch am fehlenden AA, und bitte erspare uns solche veralgemeinerungen, da es auch genug gegenbeispiele gibt

Gast
2007-09-08, 04:15:30
liegt aber auch am fehlenden AA, und bitte erspare uns solche veralgemeinerungen, da es auch genug gegenbeispiele gibt
Stimmt, in HisN sein Fred sieht man auch das Bioshock nicht so Vram fressent ist :-)

AMC
2007-09-08, 04:17:04
liegt aber auch am fehlenden AA, und bitte erspare uns solche veralgemeinerungen, da es auch genug gegenbeispiele gibt

Äh? Dann mal raus damit! Oder nein, warte: Wir schauen uns einfach mal die Benches an, wenn der finale Treiber von nV kommt. Ich sage, bis 1600*1200 @ 4fach / 16fach kaum/keine Unterschiede von GTS 320/640.

AMC

P.S. Und für die HD2900 kann man nur sagen: zum Glück kein AA in Bioshock unter DX-10. Wenn ich mir die Zahlen anschaue, dann ist eine Ultra meist 50% - 80% schneller, das ist echt nicht feierlich! :eek:

Gast
2007-09-08, 04:25:13
Die 8800 GTS sind auch OC Versionen :rolleyes:
Bei der DX10 Performance muß ATI allerdings die Treiber verbessern

AMC
2007-09-08, 04:34:28
Die 8800 GTS sind auch OC Versionen :rolleyes:
Bei der DX10 Performance muß ATI allerdings die Treiber verbessern

OMG! Du hast recht! 38 Mhz mehr Chiptakt!!!!111einseinseins. :rolleyes: Dat sind 7.4%. Eiei, wenn die auf 512 Mhz takten würden, dann wäre die HD2900 sicher schneller. ;D

AMC

Gast//
2007-09-08, 04:47:05
dann ist eine Ultra fast doppelt so schnell (meist ~50%), das ist echt nicht feierlich! :eek:

Doppelt so schnell ??

AMC
2007-09-08, 05:20:46
Doppelt so schnell ??

Nee, verschriebselt, ist einfach zu spät. ;)

AMC

=Floi=
2007-09-08, 05:32:52
es gibt eben noch untershiede zwischen der 640mb und der 320mb version.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/
In zukunft werden diese eher größer als kleiner.

James Ryan
2007-09-08, 08:02:56
Hier sieht man ja, wie wichtig es ist, immer die aktuellesten und empfohlenen Treiber zu nehmen
http://www.legitreviews.com/article/558/2/

Und da sieht man mal wieder welches Potential noch im G80 steckt! :eek:

MfG :cool:

Gast
2007-09-08, 09:34:00
Du meinst, in 1024*768 und 4fach AA/16AF noch keines: definitiv! Zumindest mit nem G80!

AMC

es reicht auch ne x1900

Gast
2007-09-08, 10:47:56
http://www.bit-tech.net/gaming/2007/08/30/bioshock_gameplay_graphics_and_performance/8

tjo noch ein wenig an den DX10 Treiber feilen, aber DX9 tja, schaut selber xD.

Raff
2007-09-08, 10:53:39
Hier sieht man ja, wie wichtig es ist, immer die aktuellesten und empfohlenen Treiber zu nehmen
http://www.legitreviews.com/article/558/2/

Klingt hart, aber ich halte die Werte für ausgedachten Bullshit. Mal abgesehen davon, dass eine GF8 Ultra in 1600x1200 an der Startstelle locker 100 Fps fahren könnte, bringt die neue ForceWare da einen Scheiß. Die Karte kämpft auch nicht mit VRAM-Überfüllung.

Siehe auch: http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=611445&entity_id=-1&image_id=690269&page=1

MfG,
Raff

_DrillSarge]I[
2007-09-08, 11:19:54
Klingt hart, aber ich halte die Werte für ausgedachten Bullshit. Mal abgesehen davon, dass eine GF8 Ultra in 1600x1200 an der Startstelle locker 100 Fps fahren könnte, bringt die neue ForceWare da einen Scheiß. Die Karte kämpft auch nicht mit VRAM-Überfüllung.

Siehe auch: http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=611445&entity_id=-1&image_id=690269&page=1

MfG,
Raff

sind halt tombmarks ;). aber im vergleich zu ati hat nv seine treiber deutlich besser im griff. kann mir nicht vorstellen, dass es nur an der hw liegt.

Aquaschaf
2007-09-08, 11:31:48
kann mir nicht vorstellen, dass es nur an der hw liegt.

Warum nicht?

_DrillSarge]I[
2007-09-08, 11:40:36
weils ati ist :biggrin:. hoffe ich.

Gast
2007-09-08, 11:54:50
I[;5825250']sind halt tombmarks ;). aber im vergleich zu ati hat nv seine treiber deutlich besser im griff

und morgen kommt der Weihnachstman!!!