PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wo steht die HD2900XT?


Gast
2007-09-10, 15:54:47
Ich habe direkt nach dem Launch der HD2900XT das Desaster noch erlebt, aber wo steht die Karte mit aktuellen Treibern heute im Vergleich zur 8800GTS / 8800GTX? Kann mir jemand einen guten Link mit Benchmarks nennen? Mit Google finde ich recht wenig interessantes Material.

Vielen Dank!

Die gelbe Eule
2007-09-10, 16:00:47
Immernoch da wo sie war, unterhalb der 8800GTS 640MB. Treiber können keine Wunder bewirken und NV schläft auch nicht, siehe RAM Bug.

Gast
2007-09-10, 16:03:25
Immernoch da wo sie war, unterhalb der 8800GTS 640MB. Treiber können keine Wunder bewirken und NV schläft auch nicht, siehe RAM Bug.
Die HD2900XT ist zwischen der GTS und GTX jetzt anzusiedeln also P/L o.k.

NV schläft nich ? Rambug ? Der ist doch nicht behoben....

Gast
2007-09-10, 16:06:31
Die HD2900XT ist zwischen der GTS und GTX jetzt anzusiedeln also P/L o.k.

NV schläft nich ? Rambug ? Der ist doch nicht behoben....

Der jetzige beta von nv soll schonmal etwas dagegen geholfen haben bei der 8800 gts 320. Sie sind jedenfalls auf dem richtigen weg.

Gast
2007-09-10, 16:18:21
Was für ein RAM Bug?

Gast
2007-09-10, 16:32:49
Update 29.08.2007 09:08 Uhr: Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 immer noch vorhanden ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren. Nvidia modifiziert in dem neuen Beta-Treiber die Speicherkompression, was in Company of Heroes D3D10 auf einer 256-MB- und einer 320-MB-Karte den gemessenen FPS-Gewinn erklärt. Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt. Laut James Wang wird der VRAM-Bug im nächsten offiziellen Treiber-Release behoben sein.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/

Super Grobi
2007-09-10, 16:36:06
Wieso kommen immer Gäste mit den VRam-Bug, den ich noch NIE hatte, wenn jemand schreibt, das die 8800GTS gleichwertig oder besser ist?

SG

p.s.
der Bug soll auch erst mit dem nächsten ofi. Treiber behoben werden. Da es seit der Meldung noch keinen neuen Treiber gab, kann das "Prob" auch noch nicht behoben sein.

Tzunamik
2007-09-10, 18:49:07
Die HD2900XT is spürbar schneller als eine GTS640MB

Ich spiele in 1920x1440 und ich spüre den umstieg spürbar.

Beide Systeme mit Quadcore.

Wobei die GTS sogar als Ultra getaktet war.

Die XT is noch auf standard und bietet mir aktuell ca die selbe bis bisschen mehr Leistung.

Die GTX is vor der XT, das war aber klar. Aber mit oc auf die damals versprochenen 800mhz sieht das schon ganz anderst aus ;-)

AnarchX
2007-09-10, 18:50:34
Ich spiele in 1920x1440 und ich spüre den umstieg spürbar.


Ohne AA und nur 8xAF?

Gast
2007-09-10, 18:58:19
wer braucht bitte bei denn auflösungen AA?

Don Vito
2007-09-10, 19:01:51
wer braucht bitte bei denn auflösungen AA?
z.B. ich:cool:

James Ryan
2007-09-10, 19:07:48
wer braucht bitte bei denn auflösungen AA?

Jeder Mensch der halbwegs auf BQ steht? :|

@Thread
Mit FSAA und AF ist eine HD 2900 XT auf Gf 8800 GTS-Level, eher darunter, da die Geforce-Karten im Gegensatz zu den Radeons mit jeden neuen Treiber wirklich schneller wurden.
Ohne FSAA und AF ist teilweise sogar Gf 8800 Ultra Perfomance drin, beispielsweise im 3DMark06! ;D

MfG :cool:

Gast
2007-09-10, 20:35:13
wer braucht bitte bei denn auflösungen AA?
Jeder, der nicht ziemlich mit Blindheit geschlagen ist oder einen Blurfilter echtem FSAA vorzieht?

danger!
2007-09-10, 22:22:38
Wo steht die HD2900XT?

Im Regal beim Händler deines Vertrauens.

d2kx
2007-09-10, 22:36:03
Die HD 2900 XT wird mit jedem Treiber schneller, auch mit AA/AF geht sie mitlerweile (7.9) gut ab. Der 7.10 bringt evtl. nochmal einen größeren AA-Performanceschub.

Super Grobi
2007-09-10, 22:43:21
Die HD 2900 XT wird mit jedem Treiber schneller, auch mit AA/AF geht sie mitlerweile (7.9) gut ab. Der 7.10 bringt evtl. nochmal einen größeren AA-Performanceschub.

Dazu möchte ich gerne einen gescheiten Test sehen gegen eine 640mb GTS/GTS-OC. Dein Posting liest sich so, als wenn es große Schritte geben würde. Es gibt bestimmt Schritte und Verbesserungen, aber was ich so gesehen hab, sind diese klein und der Absgtand zu einer OC GTS 640mb (die sich leichter OCen lässt, als eine 2900XT) immer noch im Durchschnitt groß.

SG

p.s.
bevor einer behauptet, das eine 2900 gut zu clocken ist: Beispiel --> 80mhz GPU bei einer 513mhz GTS bringt mehr, als 80mhz mehr auf einer 720mhz (???) 2900

Dr.Dirt
2007-09-11, 00:42:51
Stromverbrauch im Idle ist jetzt deutlich unterhalb der GF 8800er Reihe, und mit neuesten Treiber wird auch die 3D Leistung immer besser (schau mal in den Catalyst 7.9 Thread).

Ich persönlich würde sie einer 8800 GTS zu diesem Zeitpunkt auf jeden Fall vorziehen.

Super Grobi
2007-09-11, 00:47:30
Stromverbrauch im Idle ist jetzt deutlich unterhalb der GF 8800er Reihe, und mit neuesten Treiber wird auch die 3D Leistung immer besser (schau mal in den Catalyst 7.9 Thread).

Ich persönlich würde sie einer 8800 GTS zu diesem Zeitpunkt auf jeden Fall vorziehen.

Ich will die Karte doch auch nicht schlecht reden! Nur wird manchmal so getan, als wenn ein Treiber aus der Karte ein Überflieger macht.

In einen Ati-Treiber Thread mag ich nicht gerne gucken, weil dort 98% der User eine Ati-Brille auf haben.

Deshalb würde ich gern ein Review mit aktuellen Treibern sehnen (auf beiden Seiten) .

SG

Das Auge
2007-09-11, 01:13:45
p.s.
bevor einer behauptet, das eine 2900 gut zu clocken ist: Beispiel --> 80mhz GPU bei einer 513mhz GTS bringt mehr, als 80mhz mehr auf einer 720mhz (???) 2900

Das ist doch Quatsch Grobi. Natürlich ist eine Erhöhung um 80MHz bei einer GTS prozentual gesehen mehr als bei einer XT - logisch (btw. ist der default-Takt der XT 740 MHz).
Dennoch hat bei mir eine absolut humane Erhöung _nur_ des GPU-Taktes (Speicherbandbreite hat die Karte sowieso genug) auf luschige 800MHz schon mal satte 1200 Punkte im Schwanzmark 05 gebracht :eek:

Kein Witz, ist wirklich so. Wie sich das in Spielen auswirkt kann ich (noch) nicht sagen, außer der Lost Planet DX10-Demo und den Schwanzmärkern hab ich auf meinem Vista-Sys noch nix drauf :redface:
Das wird sich aber bald ändern :D

Das Auge
2007-09-11, 01:14:34
Deshalb würde ich gern ein Review mit aktuellen Treibern sehnen (auf beiden Seiten) .

SG

Was darf es denn sein? Vllt. habe ich das Game ja? ;)

kahlchen
2007-09-11, 02:21:28
Die HD2900XT is spürbar schneller als eine GTS640MB

Ich spiele in 1920x1440 und ich spüre den umstieg spürbar.

Beide Systeme mit Quadcore.

Wobei die GTS sogar als Ultra getaktet war.

Die XT is noch auf standard und bietet mir aktuell ca die selbe bis bisschen mehr Leistung.

Die GTX is vor der XT, das war aber klar. Aber mit oc auf die damals versprochenen 800mhz sieht das schon ganz anderst aus ;-)

Sorry, aber das ist echt der mit Abstand größte Schwachsinn, den ich je gelesen hab.... ;D

Als ob man das wirklich merken würde... vor allem wenn die GTS auf "ultra"-Takt lief...

und "anderst" bitte ohne "t"

Dr.Dirt
2007-09-11, 08:00:46
In einen Ati-Treiber Thread mag ich nicht gerne gucken, weil dort 98% der User eine Ati-Brille auf haben.

Dann wird dir vermutlich dieser Treibervergleich entgangen sein:
http://www.pcgameshardware.de/?article_id=612514&page=1

Super Grobi
2007-09-11, 09:53:02
Was darf es denn sein? Vllt. habe ich das Game ja? ;)

Hast du eine 2900 UND eine 8800gts 640mb da?

Na dann such dir zwei drei Spiele aus und teste diese mit 4xAA und 16xAF in der nativen Auflösung deines TFTs.

SG

Popeljoe
2007-09-11, 10:14:13
Sorry, aber das ist echt der mit Abstand größte Schwachsinn, den ich je gelesen hab.... ;D
Was soll das?
Er hatte beide Karten, schildert seine subjektive Wahrnehmung und du bezeichnest das als Schwachsinn?! :down:
Überprüf mal bitte deinen Tonfall...

Das Auge
2007-09-11, 16:28:12
Hast du eine 2900 UND eine 8800gts 640mb da?

Nun. äh, das eigentlich nicht :redface:

Aber es wäre wohl kein großes Problem eine vergleichbare Basis zu schaffen, bei C2D Systemen ;)

Gast
2007-09-11, 16:46:45
Sorry, aber das ist echt der mit Abstand größte Schwachsinn, den ich je gelesen hab.... ;D

Als ob man das wirklich merken würde... vor allem wenn die GTS auf "ultra"-Takt lief...

und "anderst" bitte ohne "t"

habe

Punkte "..." sind ein deutliches Anzeichen von schwachem Verständnis der deutschen Sprache.

Subjektives Empfinden als Schwachsinn darzustellen, da fehlen einem die Worte. Machen wir es also lautlos und fassen uns an den Kopf (auch wenn sich bei dir wohl keine Haare mehr finden lassen ;)).

Gast
2007-09-11, 18:05:45
http://elitebastards.com/cms/index.php?option=com_content&task=view&id=455&Itemid=27

SIe ist schneller als eine 8800 GTS.

Gast
2007-09-12, 13:37:31
http://elitebastards.com/cms/index.php?option=com_content&task=view&id=455&Itemid=27

SIe ist schneller als eine 8800 GTS.

Hier auch http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html

Super Grobi
2007-09-12, 13:57:03
Hier auch http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html


Stalker und Fear sind da interessant. Beides ja Graka-Killer. Da seh ich nur ein CF Gespann vorne. Sonst hängt die 2900XT gar manchmal hinter der 8800GTS.

SG

Gast
2007-09-12, 14:25:28
Stalker und Fear sind da interessant. Beides ja Graka-Killer. Da seh ich nur ein CF Gespann vorne. Sonst hängt die 2900XT gar manchmal hinter der 8800GTS.

SG

Fear ist schon verdammt alt mein jung.

Super Grobi
2007-09-12, 14:26:36
Fear ist schon verdammt alt mein jung.

Danke für die Info :uhammer:

Denoch ist Fear ein Graka-Killer.

SG

papachrischi
2007-09-12, 14:40:07
Jeder, der nicht ziemlich mit Blindheit geschlagen ist oder einen Blurfilter echtem FSAA vorzieht?


Ach wirklich? Was spielst du? Standbilder? In Shootern wirst du bei dieser Auflösung auf einem TFT keinen Unterschied mit oder ohne AA feststellen.

_DrillSarge]I[
2007-09-12, 14:41:41
.seit dem letzten cat (7.9) steht die 2900xt bissl ÜBER einer 8800gts 640.
ati sollte mal seine treiberabteilung auswechseln. wenn ich mir schon diese ewig langen changelogs anschaue und dann etwas bei "known errors" seit nem halben jahr steht, wird mir schlecht.

pala04
2007-09-17, 12:31:37
Hallo Leute,

ich hab ne Frage und zwar, wie groß würdet Ihr den Unterschied zwischen einer X1800 XT 512 und eine 2900 XT 512 bei Bioshock bewerten? Ich hab bei Bioshock etwa durchschnittlich 25-45 frames, geht aber auch manchmal unter 15-20, ruckelt aber nicht, sondern wird halt zäher. Ach so ist mit Fraps gemessen. Lohnt sich eine neue Grafikkarte bei meinem System noch oder sollte ich komplett aufrüsten. Noch was bei der WIC demo, bin ich schon ziemlich am Limit, vor allem bei der Benchmark. Min 6. Av. 14 Max 33.

Danke.

mfg
pala04

PS WIC default settings 1280-1024.

Gast
2007-09-17, 12:39:57
Ach wirklich? Was spielst du? Standbilder? In Shootern wirst du bei dieser Auflösung auf einem TFT keinen Unterschied mit oder ohne AA feststellen.
Ich brauche keine von dir vorgeschlagene Zukunftsform um zu wissen, dass ich auch in sehr hohen Auflösungen (>2 Megapixel) noch sehr wohl FSAA oder dessen Fehlen erkennen kann. Egal ob Shooter, RPG, RTS oder MMORPG.

Gast
2007-09-17, 12:42:46
Ach wirklich? Was spielst du? Standbilder? In Shootern wirst du bei dieser Auflösung auf einem TFT keinen Unterschied mit oder ohne AA feststellen.
O man.

Wenn du denn Unterschied nicht siehst solltest du dir entweder einen ander Bildschirm oder eine neue Brille holen.

Aliasing kann man immer bei heute käuflichen Monitoren sehen!

Wenn dich das Flimmern der Kanten nicht stört: nur zu schalte AA aus.
Mir persönlich (und ich bin hier nicht der einzige) sticht das absolut ins Auge, dieses Flimmern ist schlimmer als matschige Texturen oder mieses AF.

Gast
2007-09-17, 13:06:13
I[;5837005'].seit dem letzten cat (7.9) steht die 2900xt bissl ÜBER einer 8800gts 640.


Das wage ich mal zu bezweifeln, weil sich an der Performance nichts grundsätzliches getan hat:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/1/#abschnitt_einleitung

H@R
2007-09-17, 19:10:36
Gibts auch irgendwo Benchmarks mit Racegames wie zb GTR2 von der 2900?

Super Grobi
2007-09-17, 19:32:20
Gibts auch irgendwo Benchmarks mit Racegames wie zb GTR2 von der 2900?

Was soll das bringen? Dieses Spiel ist CPU limitiert und sollte gar mit einer 2600 super laufen.

SG

Coda
2007-09-17, 19:45:29
Ach wirklich? Was spielst du? Standbilder? In Shootern wirst du bei dieser Auflösung auf einem TFT keinen Unterschied mit oder ohne AA feststellen.
Gerade auf einem TFT wirst du in der nativen Auflösung immer Aliasing sehen, weil die Pixelkanten messerscharf sind.

H@R
2007-09-17, 19:54:41
Was soll das bringen? Dieses Spiel ist CPU limitiert und sollte gar mit einer 2600 super laufen.

SG
Soll heissen,dass ich mit ner 8800GTS oder 2900 auf einem E6750 nicht mehr Frames bekomme,als auf einer 7900GTO bei 1680x1050 mit AA und AF?

Super Grobi
2007-09-17, 19:57:32
Soll heissen,dass ich mit ner 8800GTS oder 2900 auf einem E6750 nicht mehr Frames bekomme,als auf einer 7900GTO bei 1680x1050 mit AA und AF?

Naja fast ;)

Aber GTR2 läuft mit einer 7900GT auch super flüssig mit hoher Auflösung und AA und AF. Wenn vor dir mehr als 12 Gegner rumlümmeln, wird deine CPU limitieren und die FPS drücken.

SG

Lastensegler
2007-09-20, 05:43:22
Gerade auf einem TFT wirst du in der nativen Auflösung immer Aliasing sehen, weil die Pixelkanten messerscharf sind.
Unfug, mit höheren Auflösungen wird das Problem zunehmend kleiner.
In Shootern, wo man sich eher schnell bewegt, ist es sowieso nicht so tragisch.
Wenn man ganz bewußt darauf achtet, kann man es natürlich sehen.
Wer aber Spiele spielt, und nicht als Techdemo für seine Hardware zweckentfremdet, wird bei den Auflösungen aktueller TFTs nicht mehr viel vom Aliasing bemerken - außer natürlich bei Alpha Blending in Texturen.
Beispiel: Wenn man im Kino, in dem Bewußsein, daß die Schauspieler synchronisiert sind, auf lippensynchrones Sprechen achtet, wird das sicher auch an manchen Stellen unangenehm auffallen. Noch besseres Beispiel: Die Spezialeffekte - da weiß man, daß es nicht real ist. Wenn man es darauf anlegt, sieht man auch heute noch, daß vieles gerendert ist.
Man kann aber auch einfach den Film genießen ... :)
Habe natürlich auch Verständnis dafür, daß manche das Optimum an Bildqualität erzielen wollen (hier paßt bei Grafikfanatikern eher "müssen"), die brauchen natürlich AA, sonst können sie nicht entspannt spielen.
Aber objektiv gesehen, wird den meisten Menschen der Unterschied bei heutigen Auflösungen gar nicht auffallen, wenn sie nicht darauf aufmerksam gemacht werden - erst recht nicht bei Action-Spielen.

mapel110
2007-09-20, 07:08:13
Es kommt auch auf Gewöhnung an. Wenn man erstmal angefangen hat, alles mit 4xAA bei der TFT-Auflösung von 1680x1050 zu zocken und es dann auf einmal nicht mehr geht bei neueren Games, sieht man die Kanten auch mehr als gut.

Das Auge
2007-09-20, 12:32:00
Es kommt auch auf Gewöhnung an. Wenn man erstmal angefangen hat, alles mit 4xAA bei der TFT-Auflösung von 1680x1050 zu zocken und es dann auf einmal nicht mehr geht bei neueren Games, sieht man die Kanten auch mehr als gut.

Bei nem 22"-TFT nmöglicherweise, bei einem 20-Zöller dagegen nicht. Da reicht auch schon popeliges 2xAA um so ziemlich jede Kante verschwinden zu lassen.
Selber Schuld, wenn du dir einen TFT mit einer Pixeldichte jenseits von gut und böse holst :tongue: ;)

Gast
2007-09-20, 13:24:24
Was redest du den für einen mist ? 1680x1050 ist standard bei 20" (widescreen selbstverständlich), und hat eine normale pixeldichte von ca. 100dpi.

The_Invisible
2007-09-20, 15:32:32
Was redest du den für einen mist ? 1680x1050 ist standard bei 20" (widescreen selbstverständlich), und hat eine normale pixeldichte von ca. 100dpi.

ja, aber je größer die bildfläche desto geringer die pixeldichte und desto weniger treppchen sieht man.

freue mich schon auf 20" 1920x1200, notebooks machens vor

mfg