PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD 2900XT: (P)Review-Thread,Teil drei


Seiten : [1] 2 3

deekey777
2007-06-20, 10:24:19
Teil zwei: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=362885
Letztes Posting des zweiten Teils: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5599592#post5599592
Teil 2. Dank geht an LS fürs Pflegen des ersten Postings. :up:
Es scheint loszugehen - einen Tag früher als gedacht.
Viel Spaß beim Lesen, Diskutieren, enttäuscht oder erfreut sein.

Reviews - deutsch
ATi Radeon HD 2900 XT - Ein neuer Platzhirsch ist geboren? (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt)
3DCenter: ATI Radeon HD 2900 XT Review (http://www.3dcenter.org/artikel/radeon_hd_2900_xt/)
ATI Radeon HD2900 XT@Hardwareluxx.de (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=546)
ATIs neue Grafikkarten-Chips für DirectX 10 @pcwelt (http://www.pcwelt.de/tests/hardware-tests/pci-express-grafikkarten/80120/index.html)
ATI Radeon HD 2900 XT: Motor startet, was passiert? (http://hardware.thgweb.de/2007/05/14/ati-radeon-hd-2900-xt-r600-directx10/)

Reviews - englisch:
http://vr-zone.com/?i=4946&s=1 (Rapidsharelink: http://www.forumdeluxx.de/forum/showpost.php?p=6109737&postcount=5731)
ATI Radeon HD 2900 XT – AMD's long awaited R600 DX10 GPU arrives (http://www.tweaktown.com/articles/1100/ati_radeon_hd_2900_xt_amd_s_long_awaited_r600_dx10_gpu_arrives/index.html)
ASUS EAH2900XT ATi Radeon HD 2900XT 512M Review - Benchmarks (http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm)
Radeon HD 2900 XT : Introduction (http://www.tbreak.com/reviews/article.php?id=511)
AMD's R600 has something of the flawed diamond about it
(http://www.the-inquirer.com/default.aspx?article=39580)ATI Radeon HD 2900 XT@HardOCP (http://enthusiast.hardocp.com/article.html?art=MTM0MSwxLCxoZW50aHVzaWFzdA==)
Guru3D (http://www.guru3d.com/article/Videocards/431/)
ATI Radeon HD 2900 XT@Techpowerup (http://www.techpowerup.com/reviews/ATI/HD_2900_XT)
ATI Radeon HD 2900 XTX Review@Hardwarescrets (http://www.hardwaresecrets.com/article/449)
HIS Radeon HD 2900 XT@Hexus.net (http://www.hexus.net/content/item.php?item=8687&page=1)
Drvierheaven's HD 2900XT review (mit Vista-Vergleich) (http://www.driverheaven.net/reviews/r600reviewz/video.php)
AMD's Radeon HD 2900 XT graphics processor@Techreport.com (http://www.techreport.com/onearticle.x/12458)
HD2000 - The First GPU's Under the AMD Name@Bjorn3d.com (http://www.bjorn3d.com/read.php?cID=1099&pageID=3433)
firingsquad AMD-ATI Radeon HD 2900 XT Performance Preview (http://www.firingsquad.com/hardware/amd_ati_radeon_hd_2900_xt_performance_preview/)
ATI Radeon HD 2900 XT: Calling a Spade a Spade@Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2988)
AMD/ATI DirectX 10 Series: RADEON HD 2900 XT (R600). Performance In Game Benchmarks@digit-life (http://www.digit-life.com/articles2/video/r600-part3.html)

Reviews - Restliche Sprachen
AMD Radeon HD 2900 XT : DirectX 10 par ATI !@clubic (http://www.clubic.com/article-73608-7-amd-ati-radeon-hd-2900-xt-directx-10.html)
maschinelle Übersetzung von presence-pc mit D3D10 Test! (http://translate.google.com/translate?u=http%3A%2F%2Fwww.presence-pc.com%2Ftests%2FAMD-Radeon-2900-XT-22674%2F23%2F&langpair=fr%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
ATI Radeon HD 2900 XT@Hardware.fr (http://www.hardware.fr/articles/671-1/ati-radeon-hd-2900-xt.html)

Sonstiges:
Pre-NDA-Folien (http://www.mediafire.com/?1zvucssmixm) (Dank an AnarchX :)) --> bereitgestellt von Chiphell (http://www.chiphell.com/viewthread.php?tid=4048&extra=page%3D1)
Launch of ATI Radeon HD 2000 Series - Radeon HD 2900XT. HD 2600XT, HD 2600 Pro, HD 2400XT, HD 2400 Pro (http://www.ocworkbench.com/2007/ati/ATI-HD-Radeon-HD-2900XT-and-HD-2000-Series/p1.htm)
ASUS EAH2900XT 512M ATi Radeon HD 2900XT Review Introduction (http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm)
Nvidia's FUD presentation revealed (http://www.theinquirer.net/default.aspx?article=39578)
AMD R600 Architecture and GPU Analysis (http://www.beyond3d.com/content/reviews/16/1)
Radeon HD 2000 Series: 3D Architecture Explained@Extremetech (http://www.extremetech.com/article2/0,1697,2128920,00.asp)

---------------------------------------------------------------------
By DK777:
ATI Radeon HD 2900 XT – AMD's long awaited R600 DX10 GPU arrives (http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html)
ATI Radeon HD 2900 XT Vista Performance (http://www.thetechlounge.com/article/411-1/ATI+Radeon+HD+2900+XT+Vista+Performance/)

Sir Eric Demers on AMD R600 (http://www.beyond3d.com/content/interviews/39)
Diskussionsthread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=367613

Seid bitte freundlich und sachlich. :love:

Gast
2007-06-21, 17:37:29
Vielleicht liegt das schlechte Abschneiden des R600 doch an dem Treiber:
http://www.hardware-aktuell.com/viewnews.php?article=456

The_Invisible
2007-06-21, 17:43:33
Vielleicht liegt das schlechte Abschneiden des R600 doch an dem Treiber:
http://www.hardware-aktuell.com/viewnews.php?article=456

also wenns dann solange wie bei nvidia dauert kann man den r600 wirklich abschreiben

mfg

Noebbie
2007-06-21, 17:46:40
also wenns dann solange wie bei nvidia dauert kann man den r600 wirklich abschreiben

mfg

Ich dachte der wär schon längst abgeschrieben. Es sabbern doch mittlerweile eh alle nur noch den Nachfolgern des R600 und des G80 hinterher. Das Directx10 Debut ist fürs erste gelaufen. Part 2 folgt.

Adam D.
2007-06-21, 17:53:42
Man, mir geht dieses Schlechtgerede auf'n Sack. Hört auf so zu tun, als würden wir es hier mit Schrottkarten zu tun haben. Beide Seiten bieten für das Geld hervorragende Lösung und zu sagen, dass das DX-10-Debut gelaufen ist, ist doch Bullshit. Lief zwar nicht alles nach Plan, aber es gab schon deutlich größere Katastrophen.

Odal
2007-06-21, 18:19:15
so siehts aus..allerdings ist die aussage "man wollte mit der 2900XT nicht das highend bedienen sondern nur die oberklasse" ein wenig paradox..das müsste eher heißen das man das highend nicht konstant gut geschafft hat und es daher nur für die oberklasse reicht...

wie dem auch sei..ich glaube schon das da mit anderen treibern noch einiges drin ist....

puntarenas
2007-06-21, 18:28:10
so siehts aus..allerdings ist die aussage "man wollte mit der 2900XT nicht das highend bedienen sondern nur die oberklasse" ein wenig paradox..
Was hätte er denn rufen sollen, "Steinigt uns!"

Gast
2007-06-21, 19:27:39
Das mit den Treibern nervt mich auch... NVIDIA ist da kein Stück besser.

Wenn ich jetzt lesen muss, das die nach knapp 8 Monaten Vista SLI Treiber bringen wollen, dann sollte man diese Zeit auch ATI zugestehen.

laser114
2007-06-21, 19:36:30
Das mit den Treibern nervt mich auch... NVIDIA ist da kein Stück besser.

Wenn ich jetzt lesen muss, das die nach knapp 8 Monaten Vista SLI Treiber bringen wollen, dann sollte man diese Zeit auch ATI zugestehen.

ATI hat doch bereits Crossfire-Treiber für Vista. :confused:

Gast
2007-06-21, 19:44:35
Und was hat deine Frage jetzt mit meiner Aussage zu tun?

Gast
2007-06-21, 19:47:15
Warum sollte man AMD ebenfaöös die Zeit für die Treiber lassen, wenn sie 6 MOnate später auf dem Markt sind?

laser114
2007-06-21, 20:14:01
Und was hat deine Frage jetzt mit meiner Aussage zu tun?

Das war eine Aussage von mir, denn ich weiß das sie diese Treiber habe ... ich verstehe nur deine Aussage in Bezug darauf nicht.

Gast
2007-06-21, 20:20:18
Wenn NVIDIA sich nach knapp 8 Monaten mal bequemt, einen funktionierenden Treiber rauszubringen, der die von anfang an beworbenen Fähigkeiten nutzt, dann sollte man ATI diese Zeit ebenfalls zugestehen. Das meinte ich. Das wäre dann erst Anfang nächstes Jahr. ;)

Dann werden die Karten wegen der neuen Chips sowieso nochmal neu gemischt, aber alle haben mehr Erfahrung mit der Treiberentwicklung und dem neuen OS.

Gast
2007-06-21, 20:22:49
Beantworte doch bitte die Frage, warum man AMD ebenfalls soviel zeit lassen sollte, wenn dieser schon 6 MOnate später auf dem Markt sind?

Gast
2007-06-21, 20:28:17
Warum sollte man AMD ebenfaöös die Zeit für die Treiber lassen, wenn sie 6 MOnate später auf dem Markt sind?

weil sie angeblich seit einem halben jahr funktionierende hardware haben und damit schon lange genug zeit hatten einen ordentlichen treiber zu programmieren?

abgesehen davon sind die NV-treiber für den G80 alles andere als schlecht, XP lief von anfang an gut, nur unter vista gab es einige probleme.

Gast
2007-06-21, 20:35:49
Beantworte doch bitte die Frage, warum man AMD ebenfalls soviel zeit lassen sollte, wenn dieser schon 6 MOnate später auf dem Markt sind?

Weil ein Treiber im Masseneinsatz sehr viel schneller Probleme herrvorbringt, als in einer kleinen Testumgebung.

Außerdem ist der Releasedruck der Hardware oft ein Grund, warum Treiber zum Launch hin schlecht sind. Nach dem Release hat man dafür umso mehr Zeit um sich um die Software zu kümmern und bekommt auch mehr Rückmeldungen, was noch nicht funktioniert und verbessert werden sollte.

Super Grobi
2007-06-21, 20:39:35
Beantworte doch bitte die Frage, warum man AMD ebenfalls soviel zeit lassen sollte, wenn dieser schon 6 MOnate später auf dem Markt sind?

Weil in den 6 Monaten keine Treiber in User Händen war und somit fehler gefixt werde konnten? Wäre so,k als wenn man eine neue Hardware einfach um 6M verschieben könnte um dann einen Treiber zu bringen der fehlerfrei wäre :crazy:

SG

p.s.
mal davon ab, daß die 6M verzögerung NICHTS mit dem Treiber zu tun hat. Du tust so, als wenn die Hardware fertig im Regal lag und nur 6M kein Treiber da war.

Gast
2007-06-21, 21:24:22
Nachdem ich jetzt ein paar neuere Reviews durchgelesen habe, komme ich zu dem Schluß, daß ich mir wahrscheilich doch eine HD2900XT gönne. Wirklich störend finde ich den Lüfter (aka X1900XTX). Gibt es eigentlich bereits eine Alternative zum Standartgebrüll, oder muß man die GPU zwingend unter H²O setzen, wenn man sich dem Lärm nicht aussetzen will?

Sry for OT!

][immy
2007-06-21, 22:51:55
jetzt wo es schon vereinzelt 1 GiB Karten im Handel gibt (wenn auch nur in Kanada) gibt es denn da immernoch keine Benchmarkwerte dieser versionen?

Gast
2007-06-22, 07:23:11
Nachdem ich jetzt ein paar neuere Reviews durchgelesen habe, komme ich zu dem Schluß, daß ich mir wahrscheilich doch eine HD2900XT gönne. Wirklich störend finde ich den Lüfter (aka X1900XTX). Gibt es eigentlich bereits eine Alternative zum Standartgebrüll, oder muß man die GPU zwingend unter H²O setzen, wenn man sich dem Lärm nicht aussetzen will?Nein, es gibt noch keine 3rd-Party-Kühler für die 2900xt. Aber ich würde eh eine 8800 bevorzugen, da sie in meinen Augen einfach mehr fürs Geld bringt und ab Werk leise ist.

Simon Moon
2007-06-22, 08:28:23
Wenn NVIDIA sich nach knapp 8 Monaten mal bequemt, einen funktionierenden Treiber rauszubringen, der die von anfang an beworbenen Fähigkeiten nutzt, dann sollte man ATI diese Zeit ebenfalls zugestehen. Das meinte ich. Das wäre dann erst Anfang nächstes Jahr. ;)


Nur leider gibt der Markt solche Geschenke nicht, ausser man hat ein konkurrenzloses Produkt.

Gast
2007-06-22, 09:38:52
Nein, es gibt noch keine 3rd-Party-Kühler für die 2900xt. Aber ich würde eh eine 8800 bevorzugen, da sie in meinen Augen einfach mehr fürs Geld bringt und ab Werk leise ist.

Imo liegt allerdings noch Potential in der Karte, oder besser, ist die Treiberperformance noch ausbaufähig. Mit meiner X1900 war ich sehr zufrieden.

James Ryan
2007-06-22, 10:45:52
http://www.allround-pc.com/?reviews/07043/bericht.htm
Neues Review mit dem Catalyst 7.5, die HD 2900 XT sieht dort sogar gegen eine Gf 8600 GTS nicht immer gut aus. :confused:

MfG :cool:

Gast
2007-06-22, 10:46:54
http://www.allround-pc.com/?reviews/07043/bericht.htm
Neues Review mit dem Catalyst 7.5, die HD 2900 XT sieht dort sogar gegen eine Gf 8600 GTS nicht immer gut aus. :confused:

MfG :cool:


dann kann das review aber nur totaler bullshit sein.
Das die 2900xt kein überflieger ist, das ist nix neues.
Aber die werte in dem Review sind absolut lächerlich.

Trice1001
2007-06-22, 11:06:26
Ich dachte der wär schon längst abgeschrieben. Es sabbern doch mittlerweile eh alle nur noch den Nachfolgern des R600 und des G80 hinterher. Das Directx10 Debut ist fürs erste gelaufen. Part 2 folgt.

Jap der R600 war nen Reinfall und Ati/AMD wills vertuschen in dem die sagen es soll nur ein Konkurent zu der GTS werden.

Desweiteren wenn man sich das Review von CB anschaut siehts deutlich nach einem Treiber bug aus.
Ich glaub eher das die das aber nicht mehr beheben wollen.

Wegen DX10 klar ist DX10 gelaufen alleine weil selbst ne GTX ganschön an DX10 leiden muss und es nicht schaft nur anähern in dem mittelbereich zu laufen.

Lost Planet 19FPS :eek:

Gut das ich nie ein gedanke an DX10 Verschwendet habe und immer Gesagt habe: DX10? Wartet Lieber sonst ist das Gehäule Gross. und sehe da ich hatte recht ;)

Superheld
2007-06-22, 11:10:57
so schlecht siehts doch garnicht mehr aus;) aber mit HDR kommt sie nur an die 8800GTS ran:|

http://xbitlabs.com/articles/video/display/xfx-gf8800ultra-extreme_8.html#sect0

Gaestle
2007-06-22, 11:28:53
Vielleicht liegt das schlechte Abschneiden des R600 doch an dem Treiber:
http://www.hardware-aktuell.com/viewnews.php?article=456

Ich glaube, dass sich das zwiachen den Zeilen Positiver leist, als das was Eric Reimers tatsächlich gesagt hat. Eric Reimers sprach AFAIR von maximal 10-30% Steigerung (was ja schon ein ganzer Batzen ist), wobei die 10% ehr die Regel und die 30% eher die Ausnahme sein dürften. Aber bei dem von Dir verlinkten Artikel denkt man vielleicht, dass da noch mehr kommt, was sicher nicht zu erwarten ist.

Gast
2007-06-22, 11:32:37
paar leute kapieren nicht das die karte nie high-end werden sollte

es gibt viel zu viele veschiedende tests, ich geb da nichts drauf

eine x1900xtx dreht auf 5.9sone auf, eine 2900xt 3.9

das der ati treiber zu wenig optmierungen hat, weiss man bei ati

wenigstens funktioniert bei ati crossfire unter vista, bei nv nicht

wie lange hatte nv gebraucht um gescheite treiber zu realesen

im gegensatz zu denn andern karten war die karte preislich ein knaller


also lasst dieses ati gebashe, nv hat nicht weniger fehler geamcht

Gast
2007-06-22, 11:41:38
im gegensatz zu denn andern karten war die karte preislich ein knaller


"Ein Knaller"?
Die Karte kostet mehr als die GTS, ist mal schneller mal langsamer, verbraucht mehr Strom und ist unter Last deutlich lauter. Die Karte ist eine Enttäuschung - nur der Preis hält die Karte am Leben. Wer denkt, dass AMD nie High-End angezielt hätte, der darf mal erklären, warum man eine Rechenleistung erreichen wollte, die jenseits von gut und böse ist?

James Ryan
2007-06-22, 11:46:36
paar leute kapieren nicht das die karte nie high-end werden sollte


Selbstverständlich sollte der R600 im absoluten High-End landen, dafür spricht schon allein das 512-Bit Speicherinterface. Nur war der G80 offensichtlich stärker als erwartet und ATi musste die Erwartungen zurückschrauben bzw. den R600 billig raushauen und sagen, dass eigentlich nur die GTS der Gegner ist.
IMO hat ATi beim G80 einen erneuten Aufguss der CineFX Architektur erwartet und nicht so ein Monster wie letzlich raus kam. Mit den Verschiebungen hat man dann versucht den Takt hochzuprügeln um halbwegs konurrenzfähig zu sein.

MfG :cool:

Trice1001
2007-06-22, 11:48:48
Ich würde mir sie alleine wegen dem Geringen Stromverbrauch nicht holen;D

Mr. Lolman
2007-06-22, 12:21:58
so schlecht siehts doch garnicht mehr aus;) aber mit HDR kommt sie nur an die 8800GTS ran:|

http://xbitlabs.com/articles/video/display/xfx-gf8800ultra-extreme_8.html#sect0

Und hat dabei die minfps einer Ultra (bzw sogar Ultra Extreme)

Gast
2007-06-22, 12:24:49
Und hat dabei die minfps einer Ultra (bzw sogar Ultra Extreme)

Müssen wir uns nun darauf einstellen, dass du diesen einem Test aus dem Review dein lebenlang als Beweis für die Konkurrenzfähigkeit heranziehen wirst?

Mr. Lolman
2007-06-22, 13:17:06
Müssen wir uns nun darauf einstellen, dass du diesen einem Test aus dem Review dein lebenlang als Beweis für die Konkurrenzfähigkeit heranziehen wirst?

Ja, seit ich den entdeckt hab, hab ich ca 100 PNs verschickt, die den Test verlinken und Mitteilungen an die gesamte deutschsprachige, sowie auch Teile der internationalen Presse rausgegeben. Des weiteren hab ich einen 3DCenter-Artikel in der Mache, der die Benchmarkergebnisse mit hilfen von unterschiedlichen Farben (inkl. spezieller Zoomdarstellung => siehe Anhang) illustrieren wird - und nen Rohentwurf einer Mail an ATi - dass sie für diese Entdeckung für mich nen Ferrari locker machen sollen - genauso wie ein Rohentwurf ner Mail an NVidia - dass sie für mich nen Ferrari locker machen sollen, damit ich den 3DCenter Artikel doch nicht veröffentliche....

Außerdem hab ich meine Lebensversicherung auf 5 Mille aufgestockt und ne Südseeinsel auf Kredit gekauft. X-D

http://666kb.com/i/apfjfl935f23a5lhf.gif

Gast
2007-06-22, 14:10:37
Ein einfaches ja hätte gereicht. :rolleyes:

Mr. Lolman
2007-06-22, 14:19:41
Ein einfaches ja hätte gereicht. :rolleyes:

Dann hätte aber niemand die Ironie erkannt. :frown:

Gast
2007-06-22, 14:23:30
Ich denke wer Lust auf Experimente hat kann sich ruhig eine hd2900XT gönnen.

Gast
2007-06-22, 15:10:46
Jap der R600 war nen Reinfall und Ati/AMD wills vertuschen in dem die sagen es soll nur ein Konkurent zu der GTS werden.

So ein Blödsinn.

Die Karte wurde zu einem Preis gelauncht, der weitab von dem einer GTX war, somit war nie ein Vergleich mit dieser Karte gegeben.

Das man eine 512MB Karte nicht gegen eine 768MB Karte stellt, war von Anfang an klar.
Der GTS/Ultra Konkurrent kommt erst noch.

Gast
2007-06-22, 15:22:48
Die Karte wurde zu einem Preis gelauncht, der weitab von dem einer GTX war, somit war nie ein Vergleich mit dieser Karte gegeben.


Falsch. Man hat gesagt, man werde eine Karte auf dem Markt bringen, die die Leistung der GTX erreicht und dabei 100-150$ weniger kosten werde.

Gast
2007-06-22, 15:33:40
Man hat gesagt, man werde eine Karte auf dem Markt bringen, die die Leistung der GTX erreicht und dabei 100-150$ weniger kosten werde.

Nö, hat man nicht und niemals gesagt, ich kenne die ganzen Aussagen.

Wenn du meinst das sei so gewesen, kannst du mir sicher eine Quelle dafür liefern. :)

Super Grobi
2007-06-22, 15:35:41
Nö, hat man nicht und niemals gesagt, ich kenne die ganzen Aussagen.

Wenn du meinst das sei so gewesen, kannst du mir sicher eine Quelle dafür liefern. :)

Klar hat man das gesagt, allerdings waren das die ganzen Fanboys die ständig gepostet haben, wie doch der R600 die GTX vernichten wird *ggg*

SG

Gast
2007-06-22, 15:45:39
Ursprünglich war eine 1 GB Version mit höheren Taktraten und Speichertakt geplant. Die wurde jetzt aber offiziell gecancelt.

Mit einer 1 GB Karte @ 850/1200 MHz hätte es gegen die GTX gar nicht so schlecht ausgesehen, da bin ich mir sicher.

Man hat die Karte aber wahrscheinlich ausgesetzt, weil man sicher gehen wollte, die Performancekrone in allen Bereichen holen zu können. Dafür war die 2900XTX wahrscheinlich nicht mehr stark genug.

Ich wäre da auch lieber auf Nummer sicher gegangen. Lieber später ein schnelles Produkt nachliefern, als jetzt ein produkt, welches zurückhängt und dadurch dem Unternehmen eher schadet.

James Ryan
2007-06-22, 15:50:44
Ursprünglich war eine 1 GB Version mit höheren Taktraten und Speichertakt geplant. Die wurde jetzt aber offiziell gecancelt.

Mit einer 1 GB Karte @ 850/1200 MHz hätte es gegen die GTX gar nicht so schlecht ausgesehen, da bin ich mir sicher.

Man hat die Karte aber wahrscheinlich ausgesetzt, weil man sicher gehen wollte, die Performancekrone in allen Bereichen holen zu können. Dafür war die 2900XTX wahrscheinlich nicht mehr stark genug.

Ich wäre da auch lieber auf Nummer sicher gegangen. Lieber später ein schnelles Produkt nachliefern, als jetzt ein produkt, welches zurückhängt und dadurch dem Unternehmen eher schadet.

Jep, sie wurde gecancelt, selbst NVIDIA hat damit wohl nicht gerechnet!
Eine XTX könnte vielleicht einer GTX nahe kommen, aber NVIDIA hat ja für genau diesen Fall die Ultra gelauncht um absoluter Perfomancesieger zu bleiben!
Aber eigentlich ist es müßig noch mehr darüber zu diskutieren, die "Schlacht ist geschlagen", der R600 ist auf GTS/640 Niveau und eine GTX ist und bleibt schneller, die Ultra ist unerreichbar mit dem jetzigen R600.

MfG :cool:

Gast
2007-06-22, 15:55:40
Dafür wird man dann aber sehr wahrscheinlich ein 65/55nm Produkt liefern können, welches deutlich schneller ist, weniger Strom verbraucht und gleich mit brauchbaren Treibern daher kommt.

Aus Sicht von AMD wars auf jeden fall die richtige Entscheidung. Wozu ein Produkt launchen, das negative Kritiken einbringen könnte :)

James Ryan
2007-06-22, 16:04:10
Dafür wird man dann aber sehr wahrscheinlich ein 65/55nm Produkt liefern können, welches deutlich schneller ist, weniger Strom verbraucht und gleich mit brauchbaren Treibern daher kommt.

Aus Sicht von AMD wars auf jeden fall die richtige Entscheidung. Wozu ein Produkt launchen, das negative Kritiken einbringen könnte :)

Nur wird dieses Produkt wann genau kommen?

MfG :cool:

Gast
2007-06-22, 16:16:03
Das bleibt abzuwarten. ;)

NVIDIA wird leider auch Zeit haben zu reagieren, aber so viel fehlte ja nicht, um heran zu kommen.

Bei NVIDIA wird es auch einer überarbeitung bedürfen, denn ein hoher Shadertakt ist Architekturbedingt auch nicht immer gut. Wie wir alle wissen, kann das schnell in die Sackgasse (mehr MHz = viel mehr Spannung nötig) führen. Meines erachtens hat ATI da Vorteile, aber erst in Zukunft.

Bin mal gespannt, ob NVIDIA so stark von 65/55nm profitieren kann, wie man es erwarten würde.

Meine nächste Karte sollte schon ne 1 GHz GPU haben. ;)

Gast
2007-06-22, 16:31:32
Du erzählst unsinn - lieber Gast.

dargo
2007-06-22, 16:44:17
Du erzählst unsinn - lieber Gast.
Jepp, als ob 1Ghz ein Garant für schnelle Leistung wäre. :rolleyes:

Müssen wir uns nun darauf einstellen, dass du diesen einem Test aus dem Review dein lebenlang als Beweis für die Konkurrenzfähigkeit heranziehen wirst?
Vorallem, wen interessiert Farcry heute noch? :tongue:

AnarchX
2007-06-22, 16:48:21
Jepp, als ob 1Ghz ein Garant für schnelle Leistung wäre. :rolleyes:

Da könnte er sich auch eine S3 Destination Films D2 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360435&highlight=Destination+Films) kaufen, die auch mit dem "magischen 1GHz" daherkommt. Fragt sich nur wie es mit der Leistung aussehen wird. :biggrin:

Sir Integral Wingate Hellsing
2007-06-22, 16:58:36
Ja, seit ich den entdeckt hab, hab ich ca 100 PNs verschickt, die den Test verlinken und Mitteilungen an die gesamte deutschsprachige, sowie auch Teile der internationalen Presse rausgegeben. Des weiteren hab ich einen 3DCenter-Artikel in der Mache, der die Benchmarkergebnisse mit hilfen von unterschiedlichen Farben (inkl. spezieller Zoomdarstellung => siehe Anhang) illustrieren wird - und nen Rohentwurf einer Mail an ATi - dass sie für diese Entdeckung für mich nen Ferrari locker machen sollen - genauso wie ein Rohentwurf ner Mail an NVidia - dass sie für mich nen Ferrari locker machen sollen, damit ich den 3DCenter Artikel doch nicht veröffentliche....

Außerdem hab ich meine Lebensversicherung auf 5 Mille aufgestockt und ne Südseeinsel auf Kredit gekauft. X-D

http://666kb.com/i/apfjfl935f23a5lhf.gif

Hammer-Posting :D :D :D

ATi/AMD sollte die HD X2900XT eine HD X2900XT sein lassen - den Kram vergessen - und mit ner HD X2950XTX nvidia nochmal um ne Audienz bitten ;)

So ich fahr auf LAN - die X1950GT nen bissl warm werden lassen ;) Schönes WE!

Gast
2007-06-22, 17:08:03
Jepp, als ob 1Ghz ein Garant für schnelle Leistung wäre. :rolleyes:

Sind sie auch. Ich meinte konsequenterweise 1 GHz auf Basis der jetzt bekannten Architekturen, was auch sonst? ;)

Wenn zukünftige GPUs dazu noch mehr Recheninheiten haben, umso besser! Ich will endlich die Garantie, das 1920x1200 4xAA in allen Fällen mit einer Einzelkarte flüssig läuft.

dargo
2007-06-22, 17:10:09
Ich will endlich die Garantie, das 1920x1200 4xAA in allen Fällen mit einer Einzelkarte flüssig läuft.
Und wer soll dir das garantieren? Oder haben die Spieleentwickler verlauten lassen - ab 2008 gibts einen Stillstand bei der Entwicklung was die Grafikqualität der Games angeht? :D

AnarchX
2007-06-22, 17:11:06
Ich will endlich die Garantie, das 1920x1200 4xAA in allen Fällen mit einer Einzelkarte flüssig läuft.

Dafür das es nicht so sein wird sorgen die Spiele-Entwickler. ;)

edit: time owned...

Gast
2007-06-22, 17:16:56
Und wer soll dir das garantieren?

Die richtige Antwort wäre: Ich mir selbst. Bräuchte nur die passende Technik dazu. ;)

Oder haben die Spieleentwickler verlauten lassen - ab 2008 gibts einen Stillstand bei der Entwicklung was die Grafikqualität der Games angeht? :D
Dafür das es nicht so sein wird sorgen die Spiele-Entwickler. ;)

Keine Sorge, das tun sie nicht. Denn ich entscheide immer noch selbst darüber, was ich mir kaufe.

Zudem ist das seit Jahren ein Ansteigen der möglichen Auflösung zu beobachten. Mit einer Radeon 9800 war damals 1280x960 ohne Probleme möglich... jetzt ist 1280x1024 und 1600x1200 gang und gäbe. Es ist nur eine Frage der Zeit, bis 1920x1200 4xAA sinnvoll überall nutzbar wird.

Gast
2007-06-22, 17:21:30
Zudem ist das seit Jahren ein Ansteigen der möglichen Auflösung zu beobachten. Mit einer Radeon 9800 war damals 1280x960 ohne Probleme möglich... jetzt ist 1280x1024 und 1600x1200 gang und gäbe. Es ist nur eine Frage der Zeit, bis 1920x1200 4xAA sinnvoll überall nutzbar wird.

Unsinn - zum wievielten Mal in diesem Thread?

Gast
2007-06-22, 17:23:49
Die reale Praxis ist für mich kein Unsinn. Ich sehe es schließlich direkt vor mir.
Hätte ich damals versucht 1920x1200 4xAA auf einer Radeon 98xx zu nutzen, wäre ich gnadenlos gescheitert. Jetzt rückt dieser Zeitpunkt immer näher.

Was du dazu denkst, geht mir vollkommen am A* vorbei. ;D

dargo
2007-06-22, 17:24:08
Zudem ist das seit Jahren ein Ansteigen der möglichen Auflösung zu beobachten. Mit einer Radeon 9800 war damals 1280x960 ohne Probleme möglich... jetzt ist 1280x1024 und 1600x1200 gang und gäbe. Es ist nur eine Frage der Zeit, bis 1920x1200 4xAA sinnvoll überall nutzbar wird.
Natürlich ist es eine Frage der Zeit. Nur, ich glaube nicht daran, dass der Zeitpunkt mit dem G92 schon da ist. Es wird immer wieder Spiele geben die in dieser BQ nicht flüßig laufen. Gerade jetzt wo Titel wie Crysis, UT3 und Alan Wake angekündigt sind (und sicherlich auch viele Games mit der UE3 Engine). Was meinst du warum ich mit einem 19" TFT noch unterwegs bin? Ein 22"-er kommt erst frühestens mit dem G92 ins Haus. :)

Gast
2007-06-22, 17:28:56
Ich kaufe mir keine Shooter oder Ballerspiele, deswegen falle ich aus dieses Raster schonmal raus. ;) Mir würden schon ~30fps als minimum in den meisten Fällen reichen

Wenn tatsächlich die theoretische Leistung auf 1 TeraFLOP steigen soll, dann wäre das eine knappe verdoppelung zu jetzt. Das sollte für mich ausreichen und das wäre für nächstes Jahr geplant.

D3D10.1 Support wäre auch nicht schlecht.

dargo
2007-06-22, 17:31:24
Ich kaufe mir keine Shooter oder Ballerspiele, deswegen falle ich aus dieses Raster schonmal raus. ;) Mir würden schon ~30fps als minimum in den meisten Fällen reichen

Was bleibt denn noch übrig? Strategie, Simulation? Hängen alle ziemlich an der CPU.

Gast
2007-06-22, 17:35:58
Was bleibt denn noch übrig?

Manager, RPG, Simulation, Rennspiele, Strategie, Aufbausimulationen etc.

CPU Power habe ich sowieso nie genug. Ich bin mit der Taktik beste CPU die es gibt + schnellste Grafikkarte (1x) immer sehr gut gefahren. Der Rechner mit der 9800Pro hielt ~4 Jahre und selbst NFS2 UG lief ohne zu ruckeln. :eek:

Aber die eckigen Kanten möchte ich dann schon noch weg haben. :)
Was mich auch interessieren würde, ist, wie viel an Mehrleistung mit einer GF8800 Ultra/2900XT drin wären, wenn man denen einen 3,8 GHz Penryn zur Seite stellt. :)

up¦²
2007-06-26, 02:52:37
leider nicht mit dem 7.6er, aber trotzdem nett gemacht:
http://www.tweaktown.com/articles/1122/1/page_1_introduction/index.html

puntarenas
2007-06-26, 09:43:43
Nein, leider schlecht gemacht. 4xAA und 16xAF läuft bei denen unter High Quality separat, die anderen Tests dürften also ATI-freundlich in miserabler Bildqualität stattgefunden haben, nichts wofür man solche Karten einsetzt:
Our high quality tests let us separate the men from the boys and the ladies from the girls. If the cards weren’t struggling before they will start to now.
Lol, ich hoffe sie wurden für das Sinnlos-Gebenche wenigstens anständig entlohnt, das Fazit liest sich wie fertig vorformuliert, man hört halt beim Lesen den kanadischen Akzent nicht raus.

Ich hoffe, dass wir bald ordentliche Vergleiche mit dem aktuellen 7.6er und sinnvollen Einstellungen zu sehen bekommen. Als GTX-Killer braucht man die Karte nun wirklich nicht zu verkaufen, aber (Stromverbrauch und Gebläse außen vor) der GTS dürfte sie immer schwerer im Genick sitzen...

AnarchX
2007-06-27, 10:24:47
Review: Hardware Home: Radeon HD 2900XT 1GB – R600 Done Right? (http://hardware.gotfrag.com/portal/story/38332/?spage=1)

Gast
2007-06-27, 10:46:08
Tjo, schade eigentlich...

seahawk
2007-06-27, 10:55:45
With the new ATI Catalyst 6.7 drivers from AMD due out very soon, no doubt the HD 2900 XT is at the top of the priority list when it comes to performance improvements and even if it doesn’t end up beating the 8800 Ultra, at only half the price, it is very easy to see the value in the Radeon HD 2900 XT. It got some bad press at launch but every time we take a closer look at it, it just seems to get better and better.

Endlich mal ein guter Test. :up:

reunion
2007-06-27, 10:59:19
Mich wundert es schon, dass die Karte überhaupt zulegt, bei gleichem Chiptakt und etwas mehr (1Ghz GDDR4) reichlich vorhandener Bandbreite. Teilweise sind da ganz nette Leistungssprünge drin, scheinen wohl die 512MB doch öfter zu wenig zu sein.

Superheld
2007-06-27, 12:31:54
ich blick da nich ganz durch:confused:
2900xtx ?
2900xt 512mb
2900xt 1024mb

2 versch. Treiber wurden auch benutzt:cool:

Lawmachine79
2007-06-27, 12:36:44
Endlich mal ein guter Test. :up:
Joar, das Ergebnis ist perfekt auf den Herrn Seahawk zugeschnitten hm :D ?

AnarchX
2007-06-27, 12:51:01
ich blick da nich ganz durch:confused:
2900xtx ?
2900xt 512mb
2900xt 1024mb

2 versch. Treiber wurden auch benutzt:cool:

Man muss wohl die XTX mit der XT vergleichen, der Vergleich zur Diamond ist wegen des neueren Treibers eher sinnlos.

4711
2007-06-27, 13:02:52
Mich würde mal interessieren ob der 1024mb Version unter Vista in Oblivion + Quarl3 etc.der Ram ausgeht bzw wie lange es dauert bis der Speicher wieder leer wird und nochmal bzw wie hoch der volläuft.

Gast
2007-06-28, 09:37:07
Scheint so, als ob da wirklich Fortschritte zu sehen sind.

Hier gabs einen Vergleich 7.5 vs 7.6:
http://www.technic3d.com/?site=article&action=article&a=515

Der 7.6 ist durchgehend besser. Nur weiter so!

Gast
2007-06-28, 09:45:17
Fortschritte? Die meisten Ergebnisse liegen im Bereich der Messtoleranz.

Gast
2007-06-28, 09:51:56
78 vs 98, 19 vs 23fps sind für mich keine "Meßtoleranz".

Es zeigt doch nur, das die Karte noch nicht ihr volles Potential gezeigt hat. Zukünftige Treiber könnten nochmal 1-2fps bei jeder Anwendung drauflegen und wenn dies konstant geschieht, dann hat man schnell mal einige Prozent Mehrperformance zusammen.

seahawk
2007-06-28, 09:55:37
von 78FPS aud 98FPS in Far Cry HDR+16xAF.

Gast
2007-06-28, 10:00:29
78 vs 98, 19 vs 23fps sind für mich keine "Meßtoleranz".



Und sonst? Ich schrieb "die meisten Ergebnisse", hast du da ein Verständnisproblem?

James Ryan
2007-06-28, 10:03:24
http://www.forumdeluxx.de/forum/showthread.php?t=357905&highlight=Treibervergleich

Call of Duty 2: 1920x1200 4AA/16AF (AAA)

8.38 RC3 --> 31 FPS (16 FPS)
8.38 RC7 --> 45 FPS (20 FPS)
8.38.1 --> 43 FPS (19 FPS)
Cat 7.5 Final --> 45 FPS (20 FPS)
Cat 7.6 Final --> 35 FPS (17 FPS)

MfG :cool:

Gast
2007-06-28, 10:52:54
Und sonst? Ich schrieb "die meisten Ergebnisse"

Die "meisten" Ergebnisse sind synthetisch und interessieren daher nicht die Bohne. Egal was 3DMark, Aquamark und sonst wer sagt, im Spielealltag hat das null Aussagekraft.

horn 12
2007-06-28, 21:17:29
Wieviel Performance verliere ich im Unterschied zwischen VISTA und WinXP momentan bei der HD 2900 XT und nur einem A64 3800+ OC 2,6 Ghz jedoch nur SINGLECORE !! und mit "nur" 1,5 GB Ram.
Mein XP hat langsam ausgedient und habe ja die erwähnten PROBLEME damit, da bei SP2 Installation schieflief.
Nun werde ich auf die 160 GB das neue Vista draufmachen, aber welchen Treiber für die HD 2900 XT?

Mit dem CAT 7.6 hatte ich in 3D Mark 06 sogar mit OC 835/950 !!!!
nur folgende Werte
SM2.0 2.802
SM3. 3.950
Totale Punkte: 6176

Mit Standardclock diese:
SM2.0 2.622
SM3. 3.758
Totale Punkte: 5960

Limitiert da der Treiber erneut oder die CPU Singlecore nochmals mehr?
Habe ich vielleicht nun den 16xAF aktiv gesetzt im 3D Mark 2006m könnte sein dass deshalb die Performance niedrig ist?
Mit dem Cat 7.5 hatte ich ohne OC schon ca. mind. 10% mehr als mit dem CAT 7.6?

James Ryan
2007-06-29, 05:49:35
Vista mit einem SingleCore ist ganz böse, da würde ich ganz dringend auf einen DualCore aufrüsten!

MfG :cool:

up¦²
2007-07-03, 19:18:44
In Japan wird jetzt auch eine Sapphire mit 1GB verkauft:
http://www.watch.impress.co.jp/akiba/hotline/20070707/etc_29xt1gb.html

Gast
2007-07-06, 14:31:54
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/juli/radeon_hd_2900_xt_1_gb_gddr4_handel/

no_surrender
2007-07-06, 15:36:17
geil bloss 360 €, dann werd ich dann die 1 Gb Version ersetzen gegen die 512er:smile:

HD2900 XT Crossfire schlägt 8800 GTX SLI

http://www.pcgameshardware.de/?article_id=605401

Gast
2007-07-06, 20:37:19
geil http://geizhals.at/deutschland/a265809.html

gerade mal 427€, wenn ich an die preise der gtx/ultra denke...

jojo4u
2007-07-07, 04:23:54
http://666kb.com/i/apfjfl935f23a5lhf.gif

Der war gut!

Daredevil
2007-07-07, 06:27:33
geil http://geizhals.at/deutschland/a265809.html

gerade mal 427€, wenn ich an die preise der gtx/ultra denke...
440€ *kicher*

James Ryan
2007-07-07, 08:42:06
geil http://geizhals.at/deutschland/a265809.html

gerade mal 427€, wenn ich an die preise der gtx/ultra denke...

Eine GTX/Ultra ist ja auch "etwas" schneller als eine HD 2900 XT. ;D

MfG :cool:

=Floi=
2007-07-07, 09:50:38
warum sollte mehr ram die karte schneller machen?

in einen touring bringe ich auch mehr rein aber deshalb hat er auch noch den gleichen motor wie eine limousine... ;D

no_surrender
2007-07-07, 10:16:25
Eine GTX/Ultra ist ja auch "etwas" schneller als eine HD 2900 XT. ;D

MfG :cool:

Aberwarten, der cat 7.7 o. 7.8 wird noch einiges bringen, dann ist sie so schnell wie die GTX.
Für die Ultra wirds nicht reichen aber egal, 427 € vs. 700 €;D

Daredevil
2007-07-07, 10:29:08
warum sollte mehr ram die karte schneller machen?

in einen touring bringe ich auch mehr rein aber deshalb hat er auch noch den gleichen motor wie eine limousine... ;D
Weil der RAM gut und gerne bei 512 limitieren könnte?
Siehe die 8800gts 320.

Gast
2007-07-07, 10:35:17
Aberwarten, der cat 7.7 o. 7.8 wird noch einiges bringen, dann ist sie so schnell wie die GTX.Sicher doch. Selbst die verbohrtesten Fanatiker können doch nicht ernsthaft glauben, dass die mangelhafte Performance der R600-Karten ein Treiberproblem ist.

no_surrender
2007-07-07, 10:47:46
Q6600 @ 3200 Mhz
2Gb RAM DDR2 800
NV 8800 Ultra 721/1100

15400 Punkte im 3D Markk 06

----------------------------

Xeon QX 3210 @ 3000 MHz
2GB RAM DDR2 800
HD 2900XT 512 MB 825/1000

13900 Punkte im 3D Mark 06


Die HD 2900XT 512 MB ist mi dem nächsten Treibe auf der Augenhöhe der GTX.

AnarchX
2007-07-07, 10:51:54
Im 3DMark, dessen Aussagekraft in letzter Zeit immer fragwürdiger wird. ;)

Daredevil
2007-07-07, 10:52:10
Die 2900xt war schon immer auf Augenhöhe mit der GTX wenn du den nicht aussagekräftigen 3DMark06 nimmst mit nicht aussagekräftigen Settings ohne AA/AF, denn dort hat die Karte ihre Probleme, nicht in Standard Settings.

Ich habe selber eine gehabt.

=Floi=
2007-07-07, 14:35:33
kann ich mir nicht vorstellen dass bei der ati der ram schon limitiert weil zunmindest die alte architektur wenig ram brauchte und die einbrüche auch schon bei 1280 zu sehen sind mit 4XAA


jaja, mit den neuen treibern wird sie schneller... ;D ;D

wenn der neue forceware kommt wird die 8800GTS 500% schneller und die 8800Ultra 1000% schneller ;D ;)

no_surrender
2007-07-07, 17:58:52
die rohleistung ist doch einfach nur gut von der HD, sie kackt ab wenn AA ins Spiel kommt, mit dem Cat. 7.6 wurde es schon viel besser.
Aber lach ruhig, ich Zitiere dann dein Post, dann tue ich lachen das ihr schon haufen kohle verballert für Leistung die man auch billiger haben kann 7.7 da ist:wink:

James Ryan
2007-07-07, 18:29:12
wenn der neue forceware kommt wird die 8800GTS 500% schneller und die 8800Ultra 1000% schneller ;D ;)

Das lustige an der Sache ist ja, dass die ATi-Welt auf einen Wundertreiber wartet der die Karte schneller macht und in Wahrheit wird die Gf 8800er Reihe immer mehr beschleunigt, der FW 162.18 bringt abermals ein Stück mehr Leistung, vor allem mit FSAA/AF.
Aber das wird jedes Mal übersehen, hauptsache die Gf 8800 wird immer noch mit alten und langsamen 158.22er getestet.

MfG :cool:

Gast
2007-07-07, 18:33:44
162.18? Wo gibts den denn?

Daredevil
2007-07-07, 19:27:36
kann ich mir nicht vorstellen dass bei der ati der ram schon limitiert weil zunmindest die alte architektur wenig ram brauchte und die einbrüche auch schon bei 1280 zu sehen sind mit 4XAA


jaja, mit den neuen treibern wird sie schneller... ;D ;D

wenn der neue forceware kommt wird die 8800GTS 500% schneller und die 8800Ultra 1000% schneller ;D ;)
Da muss ich mich wohl selbst Zitieren und zwar geht es um den Computerbase Test mit den Beta Release Treibern.
1280x1024 4xAA/16xAF: GTS vs. XT

Anno 1701: XT 26% schneller
Call of Duty 2: GTS 45% schneller ( Mit dem neuen Treiber hat sich in Call of Duty 2 was getan)
Call of Juarez: XT 30% schneller
Company of Heroes: XT 27% schneller
Doom 3: XT 19% schneller
F.E.A.R.: GTS 6% schneller
Gothic 3: GTS 37% schneller
HL2: Lost Coast: GTS 35% schneller
Oblivion: GTS 82% schneller
Prey: XT 11% schneller
Rainbow Six Vegas: XT 47% schneller
The Chronicles of Riddick: XT 25% schneller
Serious Sam 2: GTS 20% schneller
Splinter Cell 3: GTS 11% schneller
Tomb Raider: Legend: GTS 45% schneller

Sehen wir also:
XT ist 7 mal schneller
GTS ist 8 mal schneller

Allerdings muss man dazu noch sagen das es um den Computerbase Test immernoch um die Releasetreiber handelt, in Call of Duty zb. konnte der neue RC7 Treiber viel Performance rausholen.
Je höher die Auflösung, desto näher rückt die XT an die GTS ran/ überholt sie.

Hm?
Huch, die Ati ist bei 4AA ja doch nicht so abgekackt und der Treiber hat in manchen Spielen schon verbesserungen erbracht :eek:

Also Pauschal kann man nicht sagen 4AA = Nvidia, aber einen Wundertreiber wirds wohl nicht geben, trotzdem wird jeder klardenkende Mensch wissen das ein Produkt was 6 Monate später auf den Markt gewurfen wurde mehr Optimierungspotenzial hat als eines das schon seit einem halben Jahr draußen ist.
Kann natürlich auch Nvidia scheiß egal gewesen sein ihr Produkt zu optimieren, das denke ich aber wohl eher nicht... :)

=Floi=
2007-07-07, 23:24:27
Hallo
tut mir leid aber das post hast du jetzt umsonst geschrieben

ich habe HD2900XT 512 gegen 1024 verglichen bzw wo werden beide karten verglichen und warum sollte hier schon bei der 1280er auflösung die 512er limitieren? (dann wären auflösungen um die 1980 oder 2560 wieder nicht richtig möglich weil dann hier der vram limitieren würde...)

und wenn ich mir die benchmarks so ansehe, kackt die karte doch teilweise ab (aber darüber will ich nicht diskutieren, weil das bisher immer gleich war)
ich will nur sagen, dass man auf einen wundertreiber nichts geben darf weil das ganze auch eine große lüge sein kann
wenn er kommt dann ist es wirklich schön (dann muß aber auch die bildqualität und die performance ÜBERALL stimmen und erst muß die karte mal die GTS einholen) aber ich kann es mir nicht vorstellen und sich daran festzuhalten ist einfach nur lustig

was zählt ist der heutige stand am 07.07.2007 mit den jetzt besten treibern für die karte und damit überzeugt sie MICH nunmal nicht.

no_surrender
2007-07-07, 23:31:56
welcher Treiber ist den da genau etwa dieser 7.7 Beta ?

wenn ja hast du mal ein Link wo ich den her bekomme, bitte ?!

no_surrender
2007-07-07, 23:41:26
(dann muß aber auch die bildqualität und die performance ÜBERALL stimmen und erst muß die karte mal die GTS einholen)

Ich hab die GTS 640 MB (685/1028) vorher drin gehabt und sie gegen die HD ausgetauscht, und die egal was die ganzen Tests sagen, die GTS hat keine chance eher die GTX.
Und da rede ich nicht von Benchmarks, sondern von Spielen (und ich hab viiiiiiele) und da hat die GTS das nachsehen und spühren tut man das deutlich.
Das beste Beispiel: TDU, STALKER,BF2142, Call of Juarez,NFS Carbon+MW usw.

Floi du kannst die Karte weiter schlecht reden und auf deine Benchmarks schwören, aber wenn du keine Karte davon hattest und sie nicht selber testen konntest dann lass dein geschreibsel/nachgequatsche bitte hier:mad:

Gast
2007-07-08, 03:12:16
Das lustige an der Sache ist ja, dass die ATi-Welt auf einen Wundertreiber wartet der die Karte schneller macht und in Wahrheit wird die Gf 8800er Reihe immer mehr beschleunigt, der FW 162.18 bringt abermals ein Stück mehr Leistung, vor allem mit FSAA/AF.
Aber das wird jedes Mal übersehen, hauptsache die Gf 8800 wird immer noch mit alten und langsamen 158.22er getestet.

MfG :cool:

Und die 8800 GTS/GTX waren als sie rauskamen genauso schnell wie jetzt? Nvidia hatte durch die Treiber nochmal gut Leistung rausgeholt... doch nun laufen die Karten wohl am Maximum und die 8800er Besitzer fangen an ATI zu bashen weil sie genau wissen daß in ein paar Monaten die 2900XT schneller sein wird, da ATI noch Spielraum zur Optimierung hat.

Waren die 1800/1900er Karten nicht auch langsamer als die Nvidia Karten als sie neu rauskamen? Komisch wieviel Leistung ATI aus den Karten noch rausgeholt hat und man aktuelle Spiele noch gut mit ihnen spielen kann im Gegensatz zur 7000er Serie.

Gast
2007-07-08, 04:06:08
Schaut euch doch einfach mal den Artikel zur 1 GB Karte an...

Da ist die 742/1000 1GB Version erstaunlicherweise deutlich fixer.
http://hardware.gotfrag.com/portal/story/38332/?spage=1

1 GB vs 512MB, 1920x1200, 4xAA
HL2: 86 vs 68 fps
CoH: 50 vs 42fps
Oblivion: 86 vs 73fps
FEAR: 60 vs 52fps

Den Unterschied finde ich schon krass. Der GPU Takt ist gleich geblieben und trotzdem kann sie sich so stark absetzen.

Wäre jetzt die Frage, ob der Unterschied durch die Speichermenge oder durch den Speichertakt verursacht wird?

Potential hat diese Karte auf jeden Fall, warten wir nochmal zwei, drei Treiber ab und schauen dann nochmal.

Es soll auch noch übertaktete 512MB Versionen geben, vielleicht auch als 1GB Version? 850/1000 + neuer Treiber... das hätte Potential!

=Floi=
2007-07-08, 06:02:47
zitat
Floi du kannst die Karte weiter schlecht reden und auf deine Benchmarks schwören, aber wenn du keine Karte davon hattest und sie nicht selber testen konntest dann lass dein geschreibsel/nachgequatsche bitte hier

warum soll ich 300€ in eine HD2900XT stecken? ;D
und was ich tue und lasse musst du mir überlassen


zitat
Das beste Beispiel: TDU, STALKER,BF2142, Call of Juarez,NFS Carbon+MW usw.
da hast du dir natürlich zufällig die spiele rausgesucht die besser auf der HD laufen als auf der GTS
was soll ich noch dazu sagen?
ICH will ein rundes gesamtpaket!
ich glaube eben tests mehr wie deinen gefühlten werten ;D


---------
edit
der unterschied kommt auch aus den unterschiedlichen treibern!

no_surrender
2007-07-08, 10:24:30
;D;D;D dann glaub mal weiter


genau das gleiche haben auch viele über die x1900XTX, und ann hatte jeder zweite ne x1900XTX in der Signatur stehen:ulove2:

desert
2007-07-08, 10:58:31
und nur bei a.i. cheat on, bei a.i. off landet sie doch des öfteren deutlich hinter einer 7900 gtx die auf hq getest wurde.

z.b. hier wo sie doch angeblich unendlich gut abgeht unter cod2

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index14.php

ss2

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index17.php

quake4

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index16.php

riddick

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index18.php

obilivion und far cry

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index19.php

fear

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index19.php


wo ist denn hier die so überlegene power der ati x1950 ohne a.i.? gar nicht vorhanden, die power zieht sie anscheinend nur von a.i.

The_Invisible
2007-07-08, 11:46:04
;D;D;D dann glaub mal weiter


genau das gleiche haben auch viele über die x1900XTX, und ann hatte jeder zweite ne x1900XTX in der Signatur stehen:ulove2:

dieses forum ist nicht repräsentativ für den gesamtmarkt, siehe auch umsatz/gewinnzahlen von nv & ati

@desert
habe ich auch schon des öfteren verlinkt, da kommt entweder gar keine antwort oder es wird auf andere benches mit ai verwiesen. außerdem hat man laut einigen usern hier mit ai off fast gar keinen einbruch, komisch, komisch...

mfg

no_surrender
2007-07-08, 11:52:45
AI cheat lol, über Treiber cheats braucht NV überhauptnix sagen.

Bei NV kann man auch AA und AF auf OF stellen was bei ATI nicht möglich ist, sehr fair.

w0mbat
2007-07-08, 12:34:13
[...]
wo ist denn hier die so überlegene power der ati x1950 ohne a.i.? gar nicht vorhanden, die power zieht sie anscheinend nur von a.i.

Diesen Schluss ziehst du aus einem Review?

deekey777
2007-07-08, 12:54:25
und nur bei a.i. cheat on, bei a.i. off landet sie doch des öfteren deutlich hinter einer 7900 gtx die auf hq getest wurde.

z.b. hier wo sie doch angeblich unendlich gut abgeht unter cod2

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index14.php

ss2

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index17.php

quake4

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index16.php

riddick

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index18.php

obilivion und far cry

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index19.php

fear

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index19.php


wo ist denn hier die so überlegene power der ati x1950 ohne a.i.? gar nicht vorhanden, die power zieht sie anscheinend nur von a.i.
Gibt es viele Tests mit Nvidia-Grafikkarten, wo das Shader-Replacement mit einem einfachen Klick ausgeschaltet werden kann?

Nakai
2007-07-08, 12:56:25
ich glaube eben tests mehr wie deinen gefühlten werten

Nur das bei Tests meistens Peakwerte angegeben werden.;)

Achja dein Rumgeflame gegen ATI wird langsam lächerlich...;D


mfg Nakai

Gast
2007-07-08, 13:06:05
Gibt es viele Tests mit Nvidia-Grafikkarten, wo das Shader-Replacement mit einem einfachen Klick ausgeschaltet werden kann?

A.I. schaltet keine Shaderreplacements (außer in wenigen Sonderfällen, wie D3, Q4) sondern verschlechtert nur die Filterung von Texturen. Das sieht man daran, daß A.I. nur bei Einsatz von AF Wirkung zeigt.

desert
2007-07-08, 13:11:03
Gibt es viele Tests mit Nvidia-Grafikkarten, wo das Shader-Replacement mit einem einfachen Klick ausgeschaltet werden kann?


komischerweise verlieren in einem anderen test die karten halt nur soviel wenn aa und af an ist. und dann möchte ich doch mal bezweifeln das das shader replacement ist, und werden jetzt schon bei ati die shader anders wenn aa und af angeschaltet wird?

ohne aa und af ist da nicht viel unterschied zu a.i. on und a.i. off vielleicht 5-7 fps und nicht wie bei aa und af wo plötzlich bis zu 20 fps unterschied zwischen a.i. on und a.i off sind.

edit: zu spät :(

deekey777
2007-07-08, 14:23:08
A.I. schaltet keine Shaderreplacements (außer in wenigen Sonderfällen, wie D3, Q4) sondern verschlechtert nur die Filterung von Texturen. Das sieht man daran, daß A.I. nur bei Einsatz von AF Wirkung zeigt.
Also findet Shaderreplacement doch statt? Auch in HL2 wurde ein Wasser-Shader zu aggressiv verändert, was nur mit AI off unterbunden werden konnte (Dark Water sollte ein Begriff sein). Auch der Shader-Compiler scheint an AI gebunden zu sein. Die Tests von HT4U wurden auch mit Anti-Aliasing durchgeführt, auch hier gibt es eine Optmierung und zwar an dem Speichercontroller, die mit AI off deaktiviert wird.
Also ist AI nicht nur die Verschlimmbesserung der Texturfilterung, sondern vielmehr (insbesondere AI High).

PCGH_Carsten
2007-07-08, 14:30:13
und nur bei a.i. cheat on, bei a.i. off landet sie doch des öfteren deutlich hinter einer 7900 gtx die auf hq getest wurde.

z.b. hier wo sie doch angeblich unendlich gut abgeht unter cod2

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index14.php
[...]
wo ist denn hier die so überlegene power der ati x1950 ohne a.i.? gar nicht vorhanden, die power zieht sie anscheinend nur von a.i.
Sie ist natürlich immer noch dar.

So, wie die Geforce von Texture-Lookups und unbequemen Shadern gebremst wird, mangelt es AMD eben an Texelfüllrate - ganz besonders mit AF. A.I. ist nun ein Weg, ziemlich viel Texelfill zu sparen, ohne dass viele Nutzer es optisch bemerken. Nvidia hat eben das Problem, dass es für sie keinen so einfachen Weg gab. Einfach ein paar Shader weglassen geht nicht, also muss handoptimiert werden. Wenn das nicht mehr der Fall ist, gehen die Karten ein - siehe NFSC o.ä.

James Ryan
2007-07-08, 15:10:49
Gibt es viele Tests mit Nvidia-Grafikkarten, wo das Shader-Replacement mit einem einfachen Klick ausgeschaltet werden kann?

Das ist ATis eigene Dummheit die Shaderreplacements an die Optimierungen zu koppeln! :|
Das hatten wir doch schon tausend Mal!

MfG :cool:

deekey777
2007-07-08, 15:56:38
Das ist ATis eigene Dummheit die Shaderreplacements an die Optimierungen zu koppeln! :|
Das hatten wir doch schon tausend Mal!

MfG :cool:
Schön, dass ihr das 1000 Mal hattet, aber es scheint immernoch nicht bei jedem angekommen zu sein.
Und nein, das ist keine Dummheit von ATi. Die Dummheit ist, die Bildqualität mittels fragwürdiger "Optimierungen" zu verschlechtern.

desert
2007-07-08, 16:18:27
Sie ist natürlich immer noch dar.

So, wie die Geforce von Texture-Lookups und unbequemen Shadern gebremst wird, mangelt es AMD eben an Texelfüllrate - ganz besonders mit AF. A.I. ist nun ein Weg, ziemlich viel Texelfill zu sparen, ohne dass viele Nutzer es optisch bemerken. Nvidia hat eben das Problem, dass es für sie keinen so einfachen Weg gab. Einfach ein paar Shader weglassen geht nicht, also muss handoptimiert werden. Wenn das nicht mehr der Fall ist, gehen die Karten ein - siehe NFSC o.ä.

ohne es zu merken?

also wenn ich mir mal den vergleich in eurer zeitschrift anschaue. und ich bei a.i. standard ein sehr deutliches moire muster und bei nvidia´s hq nichts dergleichen sehe, dann frage ich mich doch wo sind die beiden vergleichbar?

Wo ist die schelte für die filtertricks von ati?

Bei nivida schreibt Ihr grosse artikel. im stile von "nvidia bescheisst euch, passt auf" und bei ati heisst "geil die bescheissen uns, immer mehr davon"

Flimmert etwas bei ati sind es die bösen texturen, da kann dann ja ati nichts für. Flimmert etwas bei nv, ist sofort nv schuld.

Und ich würde gerne mal einen test von einer x1900 xtx bei nfs carborn mit a.i. off und aa / Af sehen. Mal schauen was dann noch von der rechenleistung übrigbleibt

Und mal ganz ehrlich ich glaube noch nicht mal das vielen benutzern es aufgefallen ist, das mit ihrer gf7 die spiele etwas mehr flimmern. Da fällt es z.b. lolmann oder so auf, und sofort werden artikel usw gestartet. Bei ati fällt es nach deiner argurmentation ja auch nur ein paar leute auf. Wo bleiben da eure artikel. Da ist es wieder mal egal, weil es ja nur ein paar leute sind?

Woher kommt diese ungleichbehandlung?

Mr. Lolman
2007-07-08, 18:59:05
Und ich würde gerne mal einen test von einer x1900 xtx bei nfs carborn mit a.i. off und aa / Af sehen. Mal schauen was dann noch von der rechenleistung übrigbleibt

nichtmal 10% kostet Ailow -> Aioff bei NFS:C



Und mal ganz ehrlich ich glaube noch nicht mal das vielen benutzern es aufgefallen ist, das mit ihrer gf7 die spiele etwas mehr flimmern. Da fällt es z.b. lolmann oder so auf, und sofort werden artikel usw gestartet. Bei ati fällt es nach deiner argurmentation ja auch nur ein paar leute auf. Wo bleiben da eure artikel. Da ist es wieder mal egal, weil es ja nur ein paar leute sind?

Woher kommt diese ungleichbehandlung?

1. Flimmmern <> Flimmern. G70 Q+Opts war/ist in vielen Fällen hässlich. R5x0/600 AIlow ist dem G80 Q ähnlich und in den meisten Fällen absolut ok.
2. Wird beim AF immer optimiert. Bei manchen mehr, bei manchen weniger
3. Der letzte Artikel auf 3DC hat NVidias Filtertricks behandelt, die sich aufgrund eines 'Bug' insofern äußerten, dass man, wenn mans in der falschen Reihenfolge aktiviert hat, selbst auf HQ nur bilineares Filtering bekam. (mit nem deutlich sichtbaren Mipmapübergang)
4. Den besagten 3DC-Artikel hab ich selbst geschrieben. Von stupidem herummeckern und ner paranoiden Idee, dass ein IHV bevorzugt wird, kommt nix. Erst wenn du nicht nur der Meinung bist, dass der eine mehr flimmert, sondern diesbezüglich auch sichtbare Bewiese bringen kannst, dann wird das wohl untersucht werden können. Denn blöd sind die Redakteure auch nicht. Wär R5x0/R600-AI tatsächlich so mies, wies tw immer gemacht wird, gäbs schon genügend Artikel darüber - siehe Punkt 1.
5. Die Filtertricks befinden sich heutzutage auf nem Niveau, bei dem man oft nur in Extremsettings zeigen kann, dass da tw. was nicht in Ordnung ist - so wies Carsten mit NFSCarbon/8xAF gezeigt hat. Denn mit Ingame- bzw. 16xAF und ner höheren Auflösung als 1024x768 siehts auch gleich weniger schlimm aus.
6. In NFSC bringt AI lustigerweise kaum Performance, dafür aber sichtbar schlechtere BQ (zumindest in den paar Sekunden vor dem Rennstart) . In nem andern Spiel liegen zw. 16xHQAF AIoff und 8xHQAF Ailow fast 90% Mehrperformance, ohne die BQ großartig zu beeinträchtigen.
7. Es wird immer optimiert werden, allein schon aufgrund des Prinzips des abnehmenden Grenzertrags. MSAA ist auch nur ne Optimierung.
8. Es wird immer Leut geben die Probleme damit haben und lieber 1000€+ für HW ausgeben, dass sie unoptimiertes 4x4OGSSAA fahren könnn
9. Diese Leute werden immer in der Minderheit sein ;)
10. Ein neuer 3DC-Artikel über ATIs AI ist bereits in der Mache (nachdem der Letzte nie fertig gestellt wurde)

PCGH_Carsten
2007-07-08, 19:48:36
ohne es zu merken?
Ich schrieb "ohne dass viele Nutzer es bemerken". Das "Problem", was die HD2900 XT hat, ist sicherlich auf einen Fehler im Treiber zurückzuführen. Da sollten wir erstmal Catalysts 7.7 und vielleicht 7.8 abwarten, um ein Urteil zu fällen.

Btw, Ati/AMD bekommt seine Schelte, wenn sie es verdienen - genau wie andere auch.

horn 12
2007-07-08, 21:14:19
Ja genau! Hoffe du behälst Recht und das AA/ AAA Problem ist mit dem CAT 7.7 beseitigt. Das AF Problem lässt sich mit OC der Karte auf ca. 830/925 Mhz ganz gut "beseitigen". Damit sollte die XT recht nahe an die GTX kommen, wenn die Probs gefixt werden. Somit hat man ne echt tolle Karte. Nur wann dies sein wird.... Hoffe schneller als macher träumt.:cool:

Super Grobi
2007-07-08, 21:22:38
Macht euch nichts vor und glaubt nicht, das solche Probs von einem zum anderen Treiber auf einmal weg sind. So einen Wundertreiber gabs noch nie.

Wenn dann steckt da noch viel arbeit drin und man darf hoffen, das sowas bis ende des Jahres behoben ist.

SG

Mr. Lolman
2007-07-08, 21:38:10
Macht euch nichts vor und glaubt nicht, das solche Probs von einem zum anderen Treiber auf einmal weg sind. So einen Wundertreiber gabs noch nie.

Doch. Die gabs schon öfter. zB Catalyst die die R300 AA/AF UT2004 Performance um 40-50% erhöhten, ohne die BQ dabei zu beeinträchtigen, genauso wie einen, der das beim R520 in OpenGL geschafft hat...

EDIT: Das soll nicht heissen, dass die Problem mit einem mal alle behoben sind, aber wohl dass es Treiber gibt, die tw. ordentliche Performancesteigerungen brachten.

Spasstiger
2007-07-08, 21:40:18
Macht euch nichts vor und glaubt nicht, das solche Probs von einem zum anderen Treiber auf einmal weg sind. So einen Wundertreiber gabs noch nie.
Allerdings wird dem Treiber schon viel abverlangt. Z.B. können Anfragen der einzelnen Chipsegmente an den Ringbus gewichtet werden, um kurzfristig an einer Stelle mehr Bandbreite zur Verfügung zu stellen. Diese Gewichtung wird vom Treiber vorgenommen und bei falscher Gewichtung sinkt die Effizienz anstatt zu steigen.
Der Treiber muss also abschätzen können, wann welche Gewichtung sinnvoll ist.

Gast
2007-07-09, 10:54:59
Und nein, das ist keine Dummheit von ATi.Richtig. Dieses Verhalten ist aus ATIs Sicht alles andere als dumm. Eher das Gegenteil ist der Fall, weil die ganzen Reviewer Schiss davor haben einfach ohne AI zu benchen. So wird ATI auch noch für die Sauerein belohnt. Solange die Filtercheats an AI hängen, muss imho ausschließlich mit abgeschaltetem AI gebencht werden.

Mr. Lolman
2007-07-09, 10:59:39
Richtig. Dieses Verhalten ist aus ATIs Sicht alles andere als dumm. Eher das Gegenteil ist der Fall, weil die ganzen Reviewer Schiss davor haben einfach ohne AI zu benchen. So wird ATI auch noch für die Sauerein belohnt. Solange die Filtercheats an AI hängen, muss imho ausschließlich mit abgeschaltetem AI gebencht werden.

Kannst du mir bitte erklären warum? Die Filtercheats bringen oft genug mehr Performance als sie BQ zerstören. Und solang G80 Karten mit Q gebencht werden, ist auch gegen AI nix einzuwenden...

James Ryan
2007-07-09, 11:00:17
Richtig. Dieses Verhalten ist aus ATIs Sicht alles andere als dumm. Eher das Gegenteil ist der Fall, weil die ganzen Reviewer Schiss davor haben einfach ohne AI zu benchen. So wird ATI auch noch für die Sauerein belohnt. Solange die Filtercheats an AI hängen, muss imho ausschließlich mit abgeschaltetem AI gebencht werden.

So sieht es aus. Aber dann heißt es wieder "Ai-low ist mit G80 HQ vergleichbar" und die Benches werden dementsprechend auch durchgeführt.

MfG :cool:

James Ryan
2007-07-09, 11:01:35
Kannst du mir bitte erklären warum? Die Filtercheats bringen oft genug mehr Performance als sie BQ zerstören. Und solang G80 Karten mit Q gebencht werden, ist auch gegen AI nix einzuwenden...

Nur sind solche Reviews fernab jeder Realität! Jeder G80 Besitzer wird wohl auf HQ stellen oder nicht? Und eigentlich sollte jeder der eine Radeon besitzt und nur etwas auf BQ steht, auch AI deaktivieren.

MfG :cool:

LovesuckZ
2007-07-09, 11:03:36
Kannst du mir bitte erklären warum? Die Filtercheats bringen oft genug mehr Performance als sie BQ zerstören. Und solang G80 Karten mit Q gebencht werden, ist auch gegen AI nix einzuwenden...

Mit der gleichen Argumentation könnte man auch nVidia 16xCSAA Modus gegen einen reinem 8xMSAA Modus testen, denn der Modus "bring[t] oft genug mehr Performance als sie BQ zerstören". Die G80 verlieren kaum Leistng von QUality auf High Quality, sie werden nicht benachteiligt. Jedoch wird der r600 deutlich bevorzugt, da der Leistungsverlust deutlich höher liegt.
Schon interessant, wie jemand der RGSSAA RGMSAA vorzieht, sowenig interesse an gefilterten Texturen legt.

Mr. Lolman
2007-07-09, 11:04:03
Nur sind solche Reviews fernab jeder Realität! Jeder G80 wird wohl auf HQ stellen oder nicht? Und eigentlich sollte jeder der eine Radeon besitzt und nur etwas auf BQ steht, auch AI deaktivieren.

MfG :cool:

Ich seh das nicht ganz so. zB hab ich in Just Cause mit 16xHQ AF AIoff un einer Szene 16 fps, wos mit 8xHQAF AIlow 30fps sind. Die BQ ist dabei kaum schlechter, bzw für den Ottonormalverbraucher/PCGH-Leser absolut gleich.

Wieso sollte ich mich also mit ruckelnden 16fps begnügen, wenn 30fps auch möglich sind (mit 16xHQAF AIlow sinds immerhin 25fps) und das Spiel in den Settings plötzlich schön spielbar machen...

Jedoch wird der r600 deutlich bevorzugt, da der Leistungsverlust deutlich höher liegt.
Schon interessant, wie jemand der RGSSAA RGMSAA vorzieht, sowenig interesse an gefilterten Texturen legt.

Es ist nunmal die am ehesten Vergleichbare Einstellung. Und BQ mässig ist sie in den meisten Fällen auch absolut ok.


Schon interessant, wie jemand der RGSSAA RGMSAA vorzieht

Hörst du bitte endlich mal auf, mir solche Sachen zu unterstelllen?

James Ryan
2007-07-09, 11:09:22
Es ist nunmal die am ehesten Vergleichbare Einstellung. Und BQ mässig ist sie in den meisten Fällen auch absolut ok.


In den meisten Fällen bedeutet nicht immer. Und genau da fängt es an. Für ein vernünftiges Review sollte AI deaktiviert werden wenn im gleichen Zug bei NV auf HQ gebencht wird.
AI-low vs. NV-Q ist realitätsfern und macht ein Review für mich persönlich unbrauchbar.

MfG :cool:

Gast
2007-07-09, 11:09:45
Kannst du mir bitte erklären warum? Die Filtercheats bringen oft genug mehr Performance als sie BQ zerstören.Das ist Ansichtssache und könnte man genau so bei GF7 "Q" behaupten. Ich finde AI-Low auf R5x0 nicht in Ordnung. Es flimmert in vielen Szenen, während AI-Off einwandfreie Bildqualität liefert, zumindest auf R5x0-Karten. Warum baut man nicht einfach getrennte Schalter für Filtercheats und sinnvolle Optimierungen ein? Dann kann jeder selbst entscheiden, wie viel Bildqualität ihm die höhere Performance wert ist.
Und solang G80 Karten mit Q gebencht werden, ist auch gegen AI nix einzuwenden...Auch einen G80 sollte man in meinen Augen mit HQ benchen.

Gast
2007-07-09, 11:17:31
Und BQ mässig ist sie in den meisten Fällen auch absolut ok.Wer definiert, was in dieser Hinsicht "ok" ist und was nicht? Das hängt einfach zu stark von der persönlichen Wahrnehmung ab. Wenn man es an der großen Masse der Käufer festmachen würde, wäre auch G7x-"Quality" in Ordnung. In meinem Bekanntenkreis kenne ich kaum jemanden, dem der Unterschied zwischen Q und HQ auf G70-Karten überhaupt jemals aufgefallen wäre. Der Otto-Normal-User erkennt i.d.R. auch keinen Unterschied zwischen WA- und WU-AF, wenn man ihn nicht direkt darauf hinweist. Man kann also nicht einfach die Masse der Leute als Maßstab nehmen, wenn es um Bildqualitätsfragen geht.

Mr. Lolman
2007-07-09, 11:55:49
Wer definiert, was in dieser Hinsicht "ok" ist und was nicht? Das hängt einfach zu stark von der persönlichen Wahrnehmung ab. Wenn man es an der großen Masse der Käufer festmachen würde, wäre auch G7x-"Quality" in Ordnung. In meinem Bekanntenkreis kenne ich kaum jemanden, dem der Unterschied zwischen Q und HQ auf G70-Karten überhaupt jemals aufgefallen wäre. Der Otto-Normal-User erkennt i.d.R. auch keinen Unterschied zwischen WA- und WU-AF, wenn man ihn nicht direkt darauf hinweist. Man kann also nicht einfach die Masse der Leute als Maßstab nehmen, wenn es um Bildqualitätsfragen geht.

Dein Einwand ist durchaus berechtigt. Allerdings gilt eben das Gesetz des abnehmenden Grenzertrags. Und wenn NVidia aufgrund der brachialen Füllrte der Karten die Möglichkeit hat/erlaubt schönes HQ-AF anzubieten, gehört das auch positiv hervorgehoben. Allerdings geht es wohl um einen guten Kompromiss zwischen der Kosten und den Nutzen der Features.

Wenn eine Grafikkarte bei aktuellen (ok Just Cause ist nicht mehr ganz aktuell) Spielen an der Texelfüllrate hängt, wär es imo verkehrt diese abzustrafen nur in dem man den bestmöglichen Modus wählt. Das Gefährliche an der Sache ist ja die: Niemand kann dir versprechen, dass die IHVs nicht anfangen, die HQ Modi zu 'optimieren', sollten die Grafikkarten plötzlich damit häufiger gebencht werden. Der G70 HQ Bug war imo genausowenig ein Zufall wie die Möglichkeit sich die BQ zu vermurksen, wenn man die Optimierungen/Af-Settings in der falschen Reihenfolge einstellt. Und dann fängt die Cheatschreiere wieder von vorne an.

Nun ists ja endlich so, dass beide IHV in den Default-Settings vergleichbare BQ bringen und genau das sollte man beim Benchen respektieren. Es nützt niemanden, mit G80 HQ un AI low zu benchen, dadurch verzerrte ERgebnisee zu bekommen, da ja G80 HQ besser zu sein scheint, und dann bei jedem Benchmark darauf hinweisen zu müssen, dass die BQ eben bei NV besser ist, und das mit Screenshots zu untermauern, wo ohnehin quasi niemand was erkennen kann. - Und der kleinste gemeinsame Nenner bei Reviews ist nunmal die BQ, und die sollte bei Tests auf möglichst vergleichbar sein. Unabhängig davon, ob jetzt X oder Y das noch irgendwie besser kann. (wobeis wohl so ist, dass bei Just Cause, auch ein G80 orgentlich Performance verliert, wenn man von Q auf HQ stellt. Zwar auf höherem Niveau, aber wenn nunmal die Texelfillrate limitiert, dann limitiert sie - und ich halte den G80 auch nicht für so shaderschwach, dass die paar Effekte in Just Cause die Limitierung verschieben können ;))


Es ist ja mit dem AA genau das Gleiche. Man hat auch nicht konstet 6xAA gegen 8xAA gebencht, nur weil der eine IHV das konnte, und man überall die beste BQ aktivieren sollte. Genausogut könnte man auf ATi Karte mit Demis DX-Tweaker 2x2 (oder gar schon 4x4?) OGSSAA aktivieren und nur mehr so benchen, weil das doch der BQ zugute kommt.

Das kann zwar durchaus mal der Gegenstand eine BQ-spezifischen Betrachtung sein, aber zu fordern, dass ALLE Reviews auf die beste BQ stellen sollen, ist nicht nur verkehrt, sondern wie gesagt auch gefährlich (was künftige Cheaterein betrifft) - Und das sag ich nicht weil ATi momentan im Hintertreffen ist, sondern weils unsinnig ist. Ich hab wie gesagt ja auch nie gefordert, dass man 6xAA gegen 8xS benchen sollte, weil einerseits dass Polygon EER bei ATi sogar noch besser ist, während bei NV halt die Texturen schöner sind. ;)

Wie gesagt: Die BQ sollte bei Benchmarks immer vergleichbar sein. Wenn nun ein IHV im besten Setting schlechtere BQ liefert als der andere, dann gehört das natürlich erwähnt, aber in direkten Vergleichen haben unterschiedliche BQ-Settings nunmal nix verloren. Was NVidia zB machen könnte, ist per default auf HQ zu stellen (kostet ja quasi nix ;)), dann wär ATI im Zugzwang - und zwar deswegen weil die REviewer dann gezwungen wären, vergleichbare Settings herzustellen.

Und blöderweise ist Q-AILow eher vergleichbar als HQ-AIoff, deswegen wären die Reviewer gezwungen, die BQ bei NV zu verringern und das natürlich in den Reviews zu erwähnen. Vll. wär dann das Ego gewisser Leute eher befriedigt und NV hätte auch nen kleinen Marketingvorteil, andererseits bestünde wiederum die Gefahr, dass auch manche Reviewer den BQ-Unterschied nicht merken und dann HQ vs. AIlow benchen.




Und nochmal: Dass R600-AIlow/G80-Q besser ist als G70 HQ zu Releasezeitpunkt zeigt schon der Umstand, dass damals gar die Dau-foren voll waren mit Beschwerden über Flimmrigkeit und das jetzt aber großteils bloß von den Leuten Meckereien kommen, die nichtmal ne ATi im Rechner haben ;)

Gast
2007-07-09, 12:13:29
Das Gefährliche an der Sache ist ja die: Niemand kann dir versprechen, dass die IHVs nicht anfangen, die HQ Modi zu 'optimieren', sollten die Grafikkarten plötzlich damit häufiger gebencht werden. Ja, aus dieser Perspektive habe ich das noch gar nicht betrachtet. Ist schon was dran.
Und nochmal: Dass R600-AIlow/G80-Q besser ist als G70 HQ zu Releasezeitpunkt zeigt schon der Umstand, dass damals gar die Dau-foren voll waren mit Beschwerden über Flimmrigkeit und das jetzt aber großteils bloß von den Leuten Meckereien kommen, die nichtmal ne ATi im Rechner haben ;)Ich hab zwar in der Tat zur Zeit keine ATI-Karte im Rechner, aber über die Filterqualität eines R580 in den unterschiedlichen AI-Einstellungen bin ich mir sehr wohl bewusst.

dargo
2007-07-09, 18:47:37
Die G80 verlieren kaum Leistng von QUality auf High Quality, sie werden nicht benachteiligt.
Das sehe ich anders. Es gibt Spiele wo der Einbruch nicht zu klein ist zwischen Q und HQ. Ich zb. habe einen G80 und spiele trotzdem fast immer mit Q. Warum sollte ich auf Performance verzichten wenn ich mit Q zufrieden bin? Zum Glück kann jeder für sich entscheiden mit welcher BQ man zufrieden ist oder auch nicht.

Blaire
2007-07-09, 21:03:32
Wäre dennoch mal spannend zu sehen wie sich G80 HQ gegen R600 AIoff schlagen würde. Aber anscheinend traut sich das keiner zu.

Gast
2007-07-09, 23:44:40
wie steht ihr eigentlich zu Benches von Hardocp? Die haben nämlich seit heute nen Benchmark von XT 2900 Single und CF gg GTS 640 Single/SLI und GTX Ultra Single in Oblivion, Stalker, Flight Sim und BF 2142 bei 16*12 und 25*16 mit AA und AF und eh ja .. die XT 2900 wird halt geownt (Cat 7.6)

http://enthusiast.hardocp.com/article.html?art=MTM1OSwxLCxoZW50aHVzaWFzdA==

Fazitzitate "There is absolutely no video card currently from ATI that can achieve a great gameplay experience at 2560x1600"

"To summarize the value of two HD 2900 XT cards in CrossFire, it just isn’t worth it."

Sterem
2007-07-09, 23:56:29
Geownt?Die X2900 XT ist so schnell wie die 8800 Gts oder schneller.....

Gast
2007-07-09, 23:59:25
Wahrscheinlich bin ich blind aber ich hab noch in keinem Spiel (also beim Spielen) auch nur den geringsten Unterschied zwischen AF-Q und AF-HQ auf dem G80 gesehen.

mapel110
2007-07-10, 00:02:06
sind schon ziemliche Honks da am Werk.

Flightsimulator testen die da mit Crossfire und stellen Performanceverlust fest und was machen die Schwachmaten? Testen das Game weiter mit Crossfire und höherer Auflösung. :rolleyes:

Und dann auch nur "Steinzeit 158.22"-Treiber von nvidia genutzt.

Blaire
2007-07-10, 01:06:19
Vieleicht ist das CF Profil Schrott. Aber die anderen Aussagen beim Fazit klingen auch nicht viel besser.

"For the most part two Radeon HD 2900 XT cards in CrossFire improved performance over a single card configuration. We saw a very large improvement in S.T.A.L.K.E.R. That still only barely came close to one single BFGTech 8800 GTS OC2 640MB video card’s performance! With ATI’s 2900 XT and S.T.A.L.K.E.R, you’d have to spend $800 to get close to the same performance that you can get for a $400 NVIDIA card."
"We also saw a performance increase in Oblivion with 2900 XT CrossFire, but it wasn’t enough to allow us to really “crank up” the AA settings, like we can do with SLI. We just simply weren’t able to do 8X AA; the game was way too choppy. We know that with two 8800 GTS card’s in SLI (not shown in the review) at 1600x1200 we can increase to 8X AA just fine in Oblivion."

Gast
2007-07-10, 01:06:35
Geownt?Die X2900 XT ist so schnell wie die 8800 Gts oder schneller.....


echt? wo? schau Dir den direkten Vergleich (apples-to-apples S.7) an, GTS >> XT2900, in manchen ist sogar die XT2900 schlechter als ne Single GTS (FliSim, Stalker 16*12), von 25*16 CF vs GTS SLI vs Single Ultra mal ganz zu schweigen.

@Mappel110

naja, wollten wohl zeigen, dass CF schlechter als SLI geht (steht auch so in der Beschreibung). Und wieso Steinzeit-Treiber? Das System is XP, 158.22 sind die aktuellen offiziellen Nvidia-treiber für GF8.

Gast
2007-07-10, 01:08:29
wollte eigentlich
"in manchen Fällen ist sogar die XT2900 im CF schlechter als ne Single GTS (FliSim, Stalker 16*12)"

schreiben, sorry

mapel110
2007-07-10, 01:35:16
@Mappel110

naja, wollten wohl zeigen, dass CF schlechter als SLI geht (steht auch so in der Beschreibung). Und wieso Steinzeit-Treiber? Das System is XP, 158.22 sind die aktuellen offiziellen Nvidia-treiber für GF8.
Bei nvidia würd ich mich halt nicht auf den offiziellen Treiber konzentrieren, sondern mich mal umhören, was in der Zwischenzeit an Treibern aufgeschlagen ist.
Aber nun gut, wenn die Reviewer Gleichstand bezüglich der Herkunft der Treiber haben wollen, haben sie das offenbar geschafft.

Mittlerweile gibts ja auch Beta-Treiber von ATI, die mehr oder weniger freiwillig ins Netz finden. Da hätte man auch nachforschen können, wobei ich sagen muss, dass ich da nicht auf dem Laufenden bin, was aktuelle Beta-Treiber dort leisten können.

Mr. Lolman
2007-07-10, 05:57:28
sind schon ziemliche Honks da am Werk.

HardOCP war doch irgendwann mal böse auf Nvidia und plötzlich haben eine zeitlang ATI Karten außergewöhnlich gut bei deren Tests abgeschnitten... :rolleyes:

deekey777
2007-07-10, 15:58:58
Richtig. Dieses Verhalten ist aus ATIs Sicht alles andere als dumm. Eher das Gegenteil ist der Fall, weil die ganzen Reviewer Schiss davor haben einfach ohne AI zu benchen. So wird ATI auch noch für die Sauerein belohnt. Solange die Filtercheats an AI hängen, muss imho ausschließlich mit abgeschaltetem AI gebencht werden.
Wenn du schon so pauschalisierst: Jetzt hätte ich eine Begründung, warum Filtertricks mit AI auf Standard bzw. Low gleich Filter-)Cheats sind. Besser gesagt: Wer wird denn betrogen?

Nur sind solche Reviews fernab jeder Realität! Jeder G80 Besitzer wird wohl auf HQ stellen oder nicht? Und eigentlich sollte jeder der eine Radeon besitzt und nur etwas auf BQ steht, auch AI deaktivieren.

MfG :cool:
Wie kommst du auf diese pauschale Aussage?
Wäre dennoch mal spannend zu sehen wie sich G80 HQ gegen R600 AIoff schlagen würde. Aber anscheinend traut sich das keiner zu.
Malwieder so eine Pauschalisierung: Aus welchem Grund genau sollte mit abgeschaltetem AI getestet werden? Was soll damit bewiesen werden? Dass der G80 eine bessere anisotrope Filterung liefert, da fast winkelunabhängig?

Gast
2007-07-10, 16:12:29
Wenn du schon so pauschalisierst: Jetzt hätte ich eine Begründung, warum Filtertricks mit AI auf Standard bzw. Low gleich Filter-)Cheats sind. Besser gesagt: Wer wird denn betrogen?Der Käufer einer teuren Grafikkarte wird betrogen (explizit nicht im juristischen Sinne zu verstehen), da er über 300 € ausgibt und dann hässliches Flimmern zu sehen bekommt, wenn er keine Lust dazu hat, dass die Performance durch AI-Off ins Bodenlose fällt.

deekey777
2007-07-10, 16:14:16
Der Käufer einer teuren Grafikkarte wird betrogen (explizit nicht im juristischen Sinne zu verstehen), da er über 300 € ausgibt und dann hässliches Flimmern zu sehen bekommt, wenn er keine Lust dazu hat, dass die Performance durch AI-Off ins Bodenlose fällt.
Geht es noch pauchaler?

Gast
2007-07-10, 16:36:44
Der Käufer einer teuren Grafikkarte wird betrogen (explizit nicht im juristischen Sinne zu verstehen), da er über 300 € ausgibt und dann hässliches Flimmern zu sehen bekommt, wenn er keine Lust dazu hat, dass die Performance durch AI-Off ins Bodenlose fällt.

wenn man sich informiert (was ich bei 300€ tun würde) weis man was man kauft ;)

deekey777
2007-07-10, 16:41:09
wenn man sich informiert (was ich bei 300€ tun würde) weis man was man kauft ;)
Worüber soll sich der Käufer informieren? Noch besser: Sollte nicht der Verkäufer den Käufer auf die fragwürdigen "Optmierungen" hinweisen, die in bestimmten Spielen einen deutlichen visuellen Nachteil darstellen?
Weder der Käufer noch der Verkäufer haben irgendeine Kontrollmöglichkeit, was das Treiberteam so alles mit AI "optimiert". Das ist kein gutes Argument.

Blaire
2007-07-10, 16:42:01
Malwieder so eine Pauschalisierung: Aus welchem Grund genau sollte mit abgeschaltetem AI getestet werden? Was soll damit bewiesen werden? Dass der G80 eine bessere anisotrope Filterung liefert, da fast winkelunabhängig?

Wäre es nicht mal interessant zu sehen, wie die Karten bei maximal möglicher Qualität performen würden?

deekey777
2007-07-10, 17:16:24
Wäre es nicht mal interessant zu sehen, wie die Karten bei maximal möglicher Qualität performen würden?
Welche Aussagekraft hätte so ein Test?

=Floi=
2007-07-10, 17:20:28
warum soll ich auf etwas verzichten?
warum soll ich mir schlechteren content und schlechtere bildqualität antun?

und blaire bezieht sich warscheinlich darauf dass die ati karte noch mehr einbrechen würde da sie auf optimierungen angewiesen ist und eben auch weniger power besitzt

deekey777
2007-07-10, 17:30:14
warum soll ich auf etwas verzichten?
warum soll ich mir schlechteren content und schlechtere bildqualität antun?

und blaire bezieht sich warscheinlich darauf dass die ati karte noch mehr einbrechen würde da sie auf optimierungen angewiesen ist und eben auch weniger power besitzt
Worauf verzichtest du denn genau? Und was hat jetzt ein schlechterer Content mit dem Thema zu tun?
Blaire bezieht sich definitiv auf die Vergleichbarkeit, besser gesagt: Man kann nicht 100 FPS der Grafikkarte X mit den 100 FPS der Grafikkarte Y vergleichen, wenn die Bildqualität der Grafikkarte X auffällig schlechter ist. Denn auch auf diesen Werten basiert die spätere Kaufentscheidung, welche Grafikkarte gekauft wird.

Mr. Lolman
2007-07-10, 18:27:01
warum soll ich auf etwas verzichten?
warum soll ich mir schlechteren content und schlechtere bildqualität antun?

und blaire bezieht sich warscheinlich darauf dass die ati karte noch mehr einbrechen würde da sie auf optimierungen angewiesen ist und eben auch weniger power besitzt

Warum werden NV-User dann pauschel verarscht, wenn deren Karten doch offensichtlich viel besser können und das nur bei minimalen Performanceverlust? Da kann doch NV gleich HQ per default anbieten, oder? :|

Wem dir obige Ironie entgangen ist - hier nochmal im Klartext:
Tatsache ist doch, dass sowohl ATi als auch NV darauf aus sind, das Beste Verhältnis zw Performance und BQ anzubieten. Und deswegen ist bei NV auch Q die Standardeinstellung und nicht HQ. ;)

LovesuckZ
2007-07-10, 21:48:57
Welche Aussagekraft hätte so ein Test?

Vergleichbarkeit bei eingestellter bester Filterung.
Es ist lächerlich, dass mit TSAA, HQ in Spielen und MSAA höher als 4 getestet wird, aber die Filterung keinem interessiert.
Aber nun gut, wenn wir so argumentieren: Ich will nur noch Vergleiche von nVidia's 16xCSAA Modus gegen AMD's 8x MSAA Modus sehen. Vergleichbarkeit ist gegeben und die Unterschiede rechtfertigen nicht einem fairen Vergleich.
Und wehe jemand kommt mit: Aber nVidia auch einen 8xMSAA Modus. Richtig, aber AMD hat auch einem "HQ" Filter-Modus und trotzdem vergleichen wir nur mit verringerter Filterung auf beiden Karten.

Mr. Lolman
2007-07-10, 22:06:33
Vergleichbarkeit bei eingestellter bester Filterung.
Es ist lächerlich, dass mit TSAA, HQ in Spielen und MSAA höher als 4 getestet wird, aber die Filterung keinem interessiert.
Aber nun gut, wenn wir so argumentieren: Ich will nur noch Vergleiche von nVidia's 16xCSAA Modus gegen AMD's 8x MSAA Modus sehen. Vergleichbarkeit ist gegeben und die Unterschiede rechtfertigen nicht einem fairen Vergleich.
Und wehe jemand kommt mit: Aber nVidia auch einen 8xMSAA Modus. Richtig, aber AMD hat auch einem "HQ" Filter-Modus und trotzdem vergleichen wir nur mit verringerter Filterung auf beiden Karten.

Das ist wohl der Fall, weil in Anbetracht der fps bei neueren Spielen relativ schnell klar wird, dass die 'höheren Einstellungen' oft sinnfrei sind. Aber 4xAA/16xQAF siehts halt oft nicht mehr viel besser aus, sondern kostet nur noch fps.

Dass da jetzt manche mit nem CPU-limitierten GTX(SLI-)System aufschreien werden, ist klar, aber Nutzer solcher extravagenten Konfigurationen haben sich meist eh umfassend informiert (ist ja nicht so, dass nirgends die besseren Modi getestet werden. Beim AA sieht man in Vergrößerung sogar noch eher unterschiede als beim AF)

Und dem Durchschnittkäufer einzureden, dass Nvidia pauschal besser ist, weil das HQ-AF minimal weniger flimmrig sein mag, als das AIoff-AF ist insofern falsch, weil solche User dann ihre wichtigen fps für Settings opfern, die sie eh nicht sehen. Ist ja nicht nur einmal passiert, dass jemand im Screenshotthread Bilder ohne AA postet, aber - darauf angesprochen - zum herumzicken anfängt, weil er ja eh 8xAA eingestellt gehabt hat...

deekey777
2007-07-10, 22:06:52
Was für eine Vergleichbarkeit hätte man? Und wie soll das gehen?
Zunächst muss man also anhand von Vergleichsbildern samt einer Luppe oder ATis Composer zwei eineiige Zwillingsbilder erstellen, die Einstellungen notieren und diese dann als Testsetup nutzen? Na dann, viel Spaß! :uup:

Blaire
2007-07-10, 22:16:55
Und dem Durchschnittkäufer einzureden, dass Nvidia pauschal besser ist, weil das HQ-AF minimal weniger flimmrig sein mag, als das AIoff-AF ist insofern falsch, weil solche User dann ihre wichtigen fps für Settings opfern, die sie eh nicht sehen. Ist ja nicht nur einmal passiert, dass jemand im Screenshotthread Bilder ohne AA postet, aber - darauf angesprochen - zum herumzicken anfängt, weil er ja eh 8xAA eingestellt gehabt hat...

Aber das gilt eben nicht überall, das man die Unterschiede nicht sehen kann. ;)
Der HQ Modus des G7x brachte teilweise schon ein deutlich besseres Bild als Atis AI Low Variante aber deswegen argumentiere ich nicht ,daß es generell so war. Es gab auch Games wo man Nvidias Quality und HQ schwer auseinanderhalten konnte gabs auch. Flimmern ist das eine , Optimierungen das andere und Atis AI Low als sehr gut hinzustellen ist genauso blauäugig, wie falsch.
Bin ohnehin der Meinung das generell beides getestet werden sollte , einmal mit Optimierungen und einmal ohne (was auch immer die Hersteller davon halten...) so daß sich jede Zielgruppe sein eigenes Bild machen kann.

Stormscud
2007-07-10, 22:42:08
Dem letzten Satz kann ich nur zustimmen!

Aber ich bespielsweise zocke lieber ohne AF als ohne AA in Spielen wo viel Gras die Landschaft bedeckt. Bis auf Wege fällt es nicht auf, dass man nur triliniare Filterung drin hat. Ansonsten reicht mir 4*AF.
Und mal ganz ehrlich: Wer zockt denn schon in aberwitzigen Auflösungen (2000irgendwas) mit AA und AF?? 0,1% der Zocker? Kaum jemand, weil fast keiner sich die Hardware leisten kann. Vielmehr sollte man zur Vergleichbarkeit den 17" bis 22" TFT Auflösungen das Haupaugenmerk schenken. Und auch noch 1024*768. Macht z.B. bei Supreme Commander Sinn mit 4*AA und dafür in einer niedrigen Auflösung zu zocken, da meist CPU Limit vorliegt.

AI Low reicht vollkommen. Wenn man nicht gerade Standbilder betrachtet fällt der Unterschied zu AI-Off kaum auf, außer eben das Texturflimmern.
Aber die Meisten User kennen nicht mal ein Wort für dieses "Qualitätsmerkmal" bzw. es fällt ihnen einfach nicht auf.

Es gibt auch mehr als genug Leute, die ihren Komplett-PC ähnlich einer Konsole benutzen: Rechner an, Spiel starten und zocken. Da wird nicht erst in den Optionen rumgespielt. "Was, kann man da verändern? Brauch ich nicht! Ist mir egal" :wink:

So sollte man die Sache vielleicht auch mal betrachten.

up¦²
2007-07-11, 00:14:32
Diamond Viper 2900 XT 1GB Performance
http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/default.asp
Based on this data, it looks like you really won’t see any benefits from the 1GB of memory present on the Diamond Viper Radeon HD 2900 XT 1GB with today’s current crop of games unless you’re playing with HDR+AA. Of course as any hardcore gamer will tell you, the next generation of games should utilize HDR+AA extensively, so Diamond’s 1GB Viper card would be a better long-term purchase than the stock Radeon HD 2900 XT 512MB if this is important to you.

Warten wir mal ab...

Gast
2007-07-11, 00:17:47
wie meist die 512mb variante vorne liegt

Gast
2007-07-11, 00:29:21
Merkwürdiger Test, der passt gar nicht zu dem anderen.
Der andere konnte deutliche Vorteile für die 1GB Version ermitteln.

Aber gut zu sehen, wie der R600 mit dem Takt skaliert...

Gast
2007-07-11, 00:32:35
Okay, Entwarnung.
Die haben mit Vista getestet. :)

Da ist der Treiber wohl noch ziemlicher schrott... hier mit XP SP2 liefs deutlich besser: http://hardware.gotfrag.com/portal/story/38332/?spage=1

deekey777
2007-07-12, 12:40:29
http://www.club3d.nl/index.php/products/graphics/item/270

Habe ich was an den Augen, oder die Club3D HD2900XT hat drei Heatpipes.

AnarchX
2007-07-12, 12:43:50
Da ist definitiv eine kleine Heatpipe rechts neben dem Lüfter dazu gekommen:
Club3D
http://www.club3d.nl/index.php/download/highres/CGAX_XT292
CB-2900XT:
http://pics.computerbase.de/1/7/3/7/4/169.jpg

Vielleicht hat man ja die Lautstärke so etwas gesenkt?

James Ryan
2007-07-12, 13:05:01
Im Hwluxx hat einer eine solche C3D mit 3 Heatpipes, die Temps sind auch etwas niedriger aber auf der Karte ist nur 1,1 ns Speicher verbaut der bei 950 MHz Schluss macht.

MfG :cool:

blutrausch
2007-07-12, 15:42:16
könnte mal jmd vergleichsbilder machen von ai aus/low und nvidia hq/q ohne opitmierungen?

Coda
2007-07-12, 19:00:27
Auf Standbildern lässt sich das sowieso nicht beurteilen.

Gast
2007-07-12, 19:12:50
Auf Standbildern lässt sich das sowieso nicht beurteilen.

Tw. schon. Bei NFS-Carbon sieht man auch auf Standbildern sehr gut, was flimmriger ist.


Lolman

Raff
2007-07-12, 19:31:27
könnte mal jmd vergleichsbilder machen von ai aus/low und nvidia hq/q ohne opitmierungen?

A.I. An/Aus, R5x0 vs. R600: http://www.pcgameshardware.de/?article_id=603118

Tw. schon. Bei NFS-Carbon sieht man auch auf Standbildern sehr gut, was flimmriger ist.


Lolman

Kein Wunder, so wie das flimmert. Nvidias "optimiertes" Quality auf NV40 und G7x sieht man fast überall.

MfG,
Raff

Gouvernator
2007-07-12, 19:39:08
Kann man nicht in der Registry die Filteroptimierung bei AI Einsatz abstellen?

deekey777
2007-07-12, 19:39:55
Kann man nicht in der Registry die Filteroptimierung bei AI Einsatz abstellen?
Nein.;(

Raff
2007-07-12, 19:41:43
Kann man nicht in der Registry die Filteroptimierung bei AI Einsatz abstellen?

Selbst wenn das ginge: Diverse Tests diagnostizieren, dass die bessere Leistung mit A.I. primär durch die Sparfilter kommt. Klar, denn die Radeons haben schon länger wenig Füllrate im Vergleich zur Shaderleistung.

MfG,
Raff

Gouvernator
2007-07-12, 19:47:56
Hm... gibts dann die Möglichkeit Crossfire-AA Modi zu nutzen ohne AI anzustellen? Wäre für mich sehr wichtig...

horn 12
2007-07-12, 20:05:19
Kann mal bitte jemand Stalker austesten mit der 2900 XT und einem Singelcore wenn möglich. Auch mit nur 1,5 GB Ram, wie es bei euch damit läuft. Auflösung sollte 1280x1024 sein, ALLES MAX. (AA) und AF auf höchster Stufe und dynamische Beleuchtung.
Bei mir ruckelt es und stockt immer wieder extrem!! Aber wirklich!
Wenn man 2GB hat und die 2900 XT ist es damit besser oder sind es bei mir gar nicht die Ram´s? CPU Singlecore 3800+ 2,6 Ghz OC.
Wer kann den Unterschied von diesen 512-er MB austesten?

deekey777
2007-07-12, 20:18:27
Dynamische Beleuchtung belastet zu sehr die CPU.
Ruckelt es bei dir oder stockt das Ganze (zB heftige Nachladeruckler)? Dann soll es ein Problem mit den Schaten iVm R600 geben.

Gouvernator
2007-07-12, 20:19:08
Bei mir ruckelt es und stockt immer wieder extrem!! Aber wirklich!

Das ist normal. War bei mir auch so.

Mit der 8800GTS gabs NULL Rückler und hat nicht gestockt. Die FPS waren zwar nicht so berauschend ca. 20 fps lief aber alles butterweich. Hab gestaunt. Hab noch extra im ganzen Dorf rumgelaufen und auf ein Rückler/Stocker gewartet... vergeblich :)

horn 12
2007-07-12, 21:04:28
ist ein Stocken, nicht ein Ruckeln. Bis die Landschaft geladen ist, dann gehts aber wenn ich weitergehe und die Landschaft geladen wird kommt es IMMER wieder zu den Stockern, ca. 1/2 -1 Sekunde lang. Schattenproblem mit R600?

Gandharva
2007-07-12, 23:22:24
Kann man nicht in der Registry die Filteroptimierung bei AI Einsatz abstellen?

Ja das geht. Auf AI Advanced.

AnisotropyOptimise 0
TrilinearOptimise 0

Gast
2007-07-13, 13:58:20
schön wie sie alle deine settings testen und staunen das es geht

deekey777
2007-07-13, 15:27:04
Seit ich erfahren habe, was AI auf High mit unkomprimierten Texturen so anstellt, ist es für mich gestorben.

Gast
2007-07-14, 10:05:34
Und was wäre das?

Mr. Lolman
2007-07-14, 11:53:21
Seit ich erfahren habe, was AI auf High mit unkomprimierten Texturen so anstellt, ist es für mich gestorben.

Und jetzt überleg einmal, wie oft man irgendwo unkomprimierte Texturen findet. ;)

Und was wäre das?

Komprimieren ;)

Gast
2007-07-14, 13:34:25
Komprimieren ;)

Und das heißt?
Man kann auch verlustfrei komprimieren oder nicht? :)

Coda
2007-07-14, 13:40:26
Texturen nicht.

Gast
2007-07-14, 14:47:37
Dann stellt sich für mich immer noch die Frage, ob man den Unterschied überhaupt sehen kann.

Das muss schließlich nicht zwangsläufig der Fall sein. Außerdem glaub ich nicht, das so viele Anwendungen unkomprimierte Texturen verwenden...

deekey777
2007-07-14, 17:31:50
Dann stellt sich für mich immer noch die Frage, ob man den Unterschied überhaupt sehen kann.

Das muss schließlich nicht zwangsläufig der Fall sein. Außerdem glaub ich nicht, das so viele Anwendungen unkomprimierte Texturen verwenden...
Ja, man sieht den Unterschied und er ist zT sehr furchtbar:
D3 Ultra&AI auf High:
http://img408.imageshack.us/img408/2922/d3ultraaihighws4.th.png (http://img408.imageshack.us/my.php?image=d3ultraaihighws4.png)
D3 Ultra&AI auf Low:
http://img124.imageshack.us/img124/3584/aionultrasu1.th.png (http://img124.imageshack.us/my.php?image=aionultrasu1.png)

Das ist doch eine tolle Sache: Man spielt D3 auf Ultra, versucht das letzte Quäntchen an Performance mit AI auf High herauszuktzeln und bekommt eine Texturenqualität, die schlechter als auf D3 High ist.

Gast
2007-07-14, 17:37:35
Das ist doch eine tolle Sache: Man spielt D3 auf Ultra, versucht das letzte Quäntchen an Performance mit AI auf High herauszuktzeln und bekommt eine Texturenqualität, die schlechter als auf D3 High ist.

Ich bezweifel ehrlich gesagt stark, das du einen Unterschied siehst, wenn du dich in einem Multiplayermatch befindest und durch die Gegend rennst. :)

Außerdem muss man nicht damit leben, schließlich lässt sich AI auf mehrere Stufen konfigurieren.

Für Multiplayerzocker ist das optimal... mehr Leistung, ohne das die Qualität sichtbar leidet.

deekey777
2007-07-14, 17:45:54
Ich bezweifel ehrlich gesagt stark, das du einen Unterschied siehst, wenn du dich in einem Multiplayermatch befindest und durch die Gegend rennst. :)

Außerdem muss man nicht damit leben, schließlich lässt sich AI auf mehrere Stufen konfigurieren.

Für Multiplayerzocker ist das optimal... mehr Leistung, ohne das die Qualität sichtbar leidet.
Was hat jetzt das Eine (MP-Match) mit dem eigentlichen Problem zu tun?
Die Qualität leidet sichtbar darunter, das ist keine Pimmeloptimierung wie ein brilinearer Filter, sondern Verschlechterung von Texturen (siehe die rostfarbenen Stellen). Unter AI low gibt es dieses Problem nicht, was auch keine Rolle spielt.

Gast
2007-07-14, 17:49:05
Was hat jetzt das Eine (MP-Match) mit dem eigentlichen Problem zu tun?

Wo liegt hier ein "Problem" vor? Ich sehe da keins.

Die Qualität leidet sichtbar darunter

Mag sein, ABER:
a) du musst nicht damit leben
b) profitiere ich als Multiplayerzocker davon

Wenn ich im Multiplayer zocke, sehe ich die Unterschiede nicht, weil ich keine Zeit habe, mir sekundenlang eine Wand anzuschauen. :)

Mich interessieren da viel mehr die fps und die sind etwas höher.

So lange es abschaltbar ist, ist doch alles im Lot ... schon bei 3dfx Karten konnte ich mit dem LOD die Texturen wie Matsch aussehen lassen um höhere Performance zu bekommen. :)

seahawk
2007-07-14, 17:55:06
Da der Treiber default AI:Low fährt, ist diese Optimierung unbedeutend und eine Option die ATI dem User anbietet, nicht mehr und nicht weniger. Wie sieht eigentlich eine G80 auf High Performance aus ? Wahrscheinlich deutlich schlechter.

deekey777
2007-07-14, 17:55:33
Dann lass einfach die demo1 auf Ultra durchlaufen: einmal mit AI low und dann auf High.
Zu b): Du spielst D3-basierten Spiele im MP-Modus im Ultra-Modus?

GanjaBob
2007-07-14, 19:15:07
dass D3 auf nv-karten besser läuft is ja nun kein geheimnis, und dass es sehr oft noch zum benchmarken genommen wird auch nicht. irgendwo muss ja die "treiberoptimierung" abstriche machen...!

deekey777
2007-07-14, 20:28:59
dass D3 auf nv-karten besser läuft is ja nun kein geheimnis, und dass es sehr oft noch zum benchmarken genommen wird auch nicht. irgendwo muss ja die "treiberoptimierung" abstriche machen...!
Hä? Was hat jetzt das Eine mit dem Anderen zu tun? Ich kenne keinen Test, der mit AI auf High durchgeführt wurde.

Gast
2007-07-14, 20:42:35
dass D3 auf nv-karten besser läuft is ja nun kein geheimnis, und dass es sehr oft noch zum benchmarken genommen wird auch nicht. irgendwo muss ja die "treiberoptimierung" abstriche machen...!

Wieso ist dann in Doom 3 eine HD 2900 XT so schnell wie die 8800 GTX? Selbst mit AA/AF, bei AI-Low.

GanjaBob
2007-07-14, 23:37:19
Hä? Was hat jetzt das Eine mit dem Anderen zu tun? Ich kenne keinen Test, der mit AI auf High durchgeführt wurde.ist high nicht standard?
Wieso ist dann in Doom 3 eine HD 2900 XT so schnell wie die 8800 GTX? Selbst mit AA/AF, bei AI-Low.
damals als ich das noch gespielt hab war ich immer traurig keine NV zu haben weils dort besser drauf lief. tjoa, scheint jetzt wohl besser zu sein... :redface:

Gast
2007-07-14, 23:55:14
AI Low = AI Standard
AI High = AI High

Spasstiger
2007-07-15, 00:01:52
damals als ich das noch gespielt hab war ich immer traurig keine NV zu haben weils dort besser drauf lief. tjoa, scheint jetzt wohl besser zu sein... :redface:
Jetzt scheint ATI gerade bei OpenGL und Doom 3 zu glänzen:

http://www.directupload.net/images/070714/8S6Iy9VW.png
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/.

Man bedenke, dass die Radeon HD2900 XT rund 100€ günstiger ist als die GeForce 8800 GTX.
Wenn die Karte auch bei Direct3D-Spielen so performen würde, hätte ich mir schon eine geholt (+ leisen Kühler). ;)

Dirty-Sánchez
2007-07-15, 00:11:35
Wenn die 2900XT in einen OpenGL Game mit AA und AF nicht so stark einbricht kann es doch eigentlich kein Designfehler oder Hardwaredefekt der Graka geben. Da sie ja scheinbar nur in DirectX Spielen so starke Einbrüche mit AA und AF erfährt deutet es doch eher auf Treiberproblem hin. Oder liege bzw. denke ich da falsch?

(+44)
2007-07-15, 00:14:22
An den Benchmarks ist aber auch was faul, es gibt keinen Grund wieso eine 7950GT schneller (und schon garnicht so krass schneller!) als eine 7900GTX sein sollte.

laser114
2007-07-15, 00:24:59
An den Benchmarks ist aber auch was faul, es gibt keinen Grund wieso eine 7950GT schneller (und schon garnicht so krass schneller!) als eine 7900GTX sein sollte.

Das sieht mir nach einem Tippfehler aus, da die 7900 GTX in 1280*1024 ohne Weiteres normale Eigenschaften hat.

UltraXFX-92
2007-07-15, 02:21:22
Bin ich blind, oder liegt es daran das es schon so spät ist?

Ich zumindest sehe, dass die 7950 GT langsamer ist als die 7900 GTX: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3

Spasstiger
2007-07-15, 08:17:02
Ich zumindest sehe, dass die 7950 GT langsamer ist als die 7900 GTX: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3
Ja, in einem einzigen von vielen Fällen. Ich tippe da auf Treiberproblem oder Tippfehler.

Auf jeden Fall scheint die X2900 XT hier ihren Bandbreitenvorteil ausspielen zu können, da mit steigender Bandbreitenanforderung (hohe Auflösung + hohes AA) der Vorsrpung gegenüber der Konkurrenz steigt.

MechWOLLIer
2007-07-15, 10:44:24
Ich ich gerade sehe ist das ein Tippfehler. habe wohl die falsche Zahl aus den benchmarktabellen genommen.
Die 7900 GTX müsste 31 FPS haben.

dildo4u
2007-07-15, 13:28:55
Auf jeden Fall scheint die X2900 XT hier ihren Bandbreitenvorteil ausspielen zu können, da mit steigender Bandbreitenanforderung (hohe Auflösung + hohes AA) der Vorsrpung gegenüber der Konkurrenz steigt.
Ich tippe eher darauf das unter opengl bei der ATI das AAA nicht funzt und nur normales AA angewendet wird bei den Geforce Karte hingegen TSAA.

deekey777
2007-07-15, 14:16:34
Ich tippe eher darauf das unter opengl bei der ATI das AAA nicht funzt und nur normales AA angewendet wird bei den Geforce Karte hingegen TSAA.
Unter OpenGL funktioniert weder AAA noch EATM noch TSSAA noch TMSAA.

Das einzige, was zu funktionieren scheint, ist Humus' A2C für OpenGL.
Wenn ich daneben liege, bitte korrigieren.

dildo4u
2007-07-15, 14:19:10
Ähm und wie funzt dann das TSAA in Qaukewars? da hab ich es definitv schon gesehen läßt sich sogar Ingame einstellen.

deekey777
2007-07-15, 14:20:45
Ähm und wie funzt dann das TSAA in Qaukewars? da hab ich es definitv schon gesehen läßt sich sogar Ingame einstellen.
Es ist Alpha-2-Coverage, was die Doom-3-Engine beherrscht (von Hause aus und nicht, weil das jemand im Treiber einstellen kann). Trotzdem: Ich glaube es erst, wenn ich es sehe.

Coda
2007-07-15, 14:23:35
A2C ist nichts was Humus erfunden hat. Nur um das klarzustellen...

Mr. Lolman
2007-07-16, 07:24:55
Ja, man sieht den Unterschied und er ist zT sehr furchtbar:
D3 Ultra&AI auf High:
http://img408.imageshack.us/img408/2922/d3ultraaihighws4.th.png (http://img408.imageshack.us/my.php?image=d3ultraaihighws4.png)
D3 Ultra&AI auf Low:
http://img124.imageshack.us/img124/3584/aionultrasu1.th.png (http://img124.imageshack.us/my.php?image=aionultrasu1.png)

Das ist doch eine tolle Sache: Man spielt D3 auf Ultra, versucht das letzte Quäntchen an Performance mit AI auf High herauszuktzeln und bekommt eine Texturenqualität, die schlechter als auf D3 High ist.

Zumindest die braune Textur in der Mitte sieht mit Ultra/AIHigh besser aus mit High/AIlow.

JaDz
2007-07-16, 07:50:13
Zumindest die braune Textur in der Mitte sieht mit Ultra/AIHigh besser aus mit High/AIlow.
Meinst du die Tür?

Mr. Lolman
2007-07-16, 09:10:48
Meinst du die Tür?

Wenn du mit Tür das linke Fenster meinst, dann schon :D

Savay
2007-07-16, 10:05:43
also ich seh da schöne kompressionsartefakte auf High :rolleyes:

mal ab davon das einen eh keiner zwingt ai an zu lassen oder gar auf high zu stellen! ich bin mit ai low recht zufrieden was die BQ angeht.

schwächen gibts nur in spielen die zum flimmern neigen...aber da hilft auch AI off nicht weiter. aufm NV40 sahen die dann aber auch nicht besser aus...müsste mal mit meiner NV25 testen.

die Janus Maps in Unreal2 sind da nen guter test. aber generell bin ich eher anfällig ggü pixelflimmern...mir ist nen gutes FSAA wichtiger als nen perfektes AF. mit 8x oder gar 4x bin ich oft schon sehr glücklich

Mr. Lolman
2007-07-16, 10:08:36
also ich seh da schöne kompressionsartefakte auf High :rolleyes:

Stimmt. Hab die Screenshots verwechselt. :biggrin:

Coda
2007-07-16, 15:40:46
Zumindest die braune Textur in der Mitte sieht mit Ultra/AIHigh besser aus mit High/AIlow.
Das ist ja prinzipiell schonmal gar nicht möglich. Und wie so oft vermischt du angeblich subjektives "besser Aussehen" mit korrekter Darstellung.

Gast
2007-07-16, 15:44:43
Das ist ja prinzipiell schonmal gar nicht möglich. Und wie so oft vermischt du angeblich subjektives "besser Aussehen" mit korrekter Darstellung.

Hab ja schon geschrieben, dass ich die Screenshots verwechselt hab. :rolleyes:

Lolman

Coda
2007-07-17, 12:54:30
Irrelevant. Es ging um die Intention.

Mr. Lolman
2007-07-17, 13:49:28
Irrelevant. Es ging um die Intention.

Ich hab DK erst auf die Idee gebracht - und da hat er in den PNs noch Ultra Qualität mit AIHigh, gegen Hohe Qualität mit AIlow verglichen. Und da wärs theoretisch schon möglich, dass ersteres besser aussieht, da ja bei Hoher Qualität komprimierte Diffusetextures verwendet werden und Ai High imo u.U. theoretisch ne bessere Komprimierung liefern könnte als, es bei den vorkomprimierten Texturen der Fall ist. (zumindest ne andere, die u.U. subjektiv besser aussieht *g*)

Nun hab ich halt DKs Post nicht vernünftig gelesen, dachte deswegen dass er wieder Ultra/High mit Hoch/Low verglichen hat und seh in dem einen Screenshotnamen am Ende 'ultra' und dachte das wurde mit AIhigh komprimiert, während der andere 'high' am Ende stehen hat - was mich zu dem Schluss brachte, dass mit low komprimiert wird.

Alles klar?



Nun hack nicht weiter drauf herum. Ist ja unnötig, oder?

Gast
2007-07-17, 17:14:36
http://www.pcgameshardware.de/?article_id=606925

2900xt 1GB

6503 Punkte im 3DMark06 -Auflösung von 1.920 x 1.080

deekey777
2007-07-20, 15:21:08
Wer man nichts zu tun hat, findet man sich eine Beschäftigung...
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/
Man vergleicht den Sinn des jeweiligen Speichertakts der HD 2900XT mit ihrer 512-bit breiten Speicheranbindung. Mehr als 700 MHz an Speichertakt bringen der HD 2900XT nichts. Was diesen Knick zw. 500-700 MHz verursacht, ist unklar.

Gast
2007-07-20, 16:37:28
Ich habe gehört, dass mit dem gestern erschienen Catalyst die AA/AF-Probleme der HD 2900 behoben sind.
So hat einer gesagt:

Zitat von Gast:
"war vorhin im Pc Laden und habe den HD 2900 XT getestet inkl. neuem CCC 7.7, und ich muss sagen, die Performance mit AA und AF wurden deutlich gestiegert und gewisse Treiberprobleme wurden zufriedenstallend verbessert. Also wenn wieder ein nVidia-FANBOY sagt, der HD 2900 XT sei schlecht mit AA und AF, der wird sich mit der Kombination von CCC 7.7 und der HD 2900 XT mächtig irren. Ich habe es mit meinen eigenen Augen gesehen, die Treiberprobleme sind beseitigt, Gott sei Dank, jetzt kann ich mir mit ruhigem Gewissen eine HD 2900 XT kaufen."

Quelle: http://www.hardware-aktuell.com/viewtopic.php?p=2149#2149

Von daher denke ich das man sich jetzt eine HD 2900 XT kaufen kann.

laser114
2007-07-20, 16:37:49
Wenn ich mir das Diagramm so ansehe, hätte man ja fast DDR2 bei 400 MHz nehmen können und wäre fast auf die selbe Leistung gekommen...
Naja gut, einige kleinere Einschnitte. Aber es spart immerhin Geld. :D

laser114
2007-07-20, 16:39:36
Dass das da in einem fremden Forum ein Gast postet, ist ja nett. Bei Planet3DNow hat auch jemand mit einer 2600 XT gesagt, er hätte 10 - 15% Mehrleistung in praktisch allen Anwendungen / Spielen.

Einen Treibertest würde ich trotzdem gerne sehen.

crux2005
2007-07-21, 19:20:50
Hi Leute

kann mir bitte jemand erklären was ich unter "fully threaded" verstehen soll ? ;(

Of course the sampler hardware is fully threaded

indeed the massively threaded nature of the sampler hardware is a means to hide latency, using the memory controller to make sure the shader core -- as a client of the sampler array via the MC -- is kept busy

http://www.beyond3d.com/content/reviews/16/9 (http://http://www.beyond3d.com/content/reviews/16/9)

danke

_DrillSarge]I[
2007-07-21, 19:25:12
Wer man nichts zu tun hat, findet man sich eine Beschäftigung...
http://www.3dnews.ru/video/512_bit_memory_bus_efficiency/
Man vergleicht den Sinn des jeweiligen Speichertakts der HD 2900XT mit ihrer 512-bit breiten Speicheranbindung. Mehr als 700 MHz an Speichertakt bringen der HD 2900XT nichts. Was diesen Knick zw. 500-700 MHz verursacht, ist unklar.

ich bin leider dem russischen sowohl geschrieben und gesprochen nicht mächtig. kannst du mir mal die grafik und den text erläutern, da diese graphen dort für mich an den haaren herbeigezogen erscheinen, da ich nix russisch + schlechte deutsch. ;)

€: hab mal google übersetzen lassen:

This material, in a sense, continues to develop the ideas contained in the article "Was a bus in video memory 256-bit middle-end? Theory and practice. " At that time, we saw that video middle wide memory bus is not needed. Due to the relatively weak GPU, which can fully take advantage of its benefits. Today we come to the task with the other side and see how the memory bus width of productivity masthead graphics cards. As promised, the main subject of today's review will HD2900XT Radeon videocard, which is a pioneer in the use of bus video 512-bit width. Let us try to figure out how such a wide memory bus is effective, and demanded it videoprotsessorami today. Testing was conducted with the help drivers ForceWare 158.22 and Catalyst 7.6 Methods of testing will remain the same. As a measure of productivity will be important FPS obtained in testing at the Games. Frequency videoprotsessora not changed. The only option, which has been changed is the memory bus. As 3D-prilozheniya, to begin with, take the game Quake 4. Despite the respectable age, the game is adequately tests as a GPU, and video. The first graph shows the results for the resolution of 1280x1024 and High Quality without full smoothing and anisotropic filtering. Let me remind you that Radeon videocard HD2900XT staffed DDR3 memory standard, and its frequency is equal to a full 828 MHz (real), which corresponds to the effective frequency of 1656 MHz DDR. Here, and charts showing that the real frequency. As can be seen from the chart, starting at 700 MHz video (1400 DDR), the total output remains virtually unchanged, and the schedule goes to the horizontal line of "saturation". The video bandwidth of 500 to 700 MHz is a strange "failure". Difficult to say what it was, perhaps, a role played by climate change taymingov video frequency. Or maybe this is a special case of the games in the graphical mode. Look, there is a change, if that's full antialiasing and anisotropic filtering. Clearly, a heavier graphical mode leads to the collapse of FPS, but a timetable has not undergone changes. The site remained and the horizontal line of "saturation", and failure in the range of 500 to 700 MHz. The first impression of the effectiveness of the memory bus Radeon HD2900XT we can now. Please note direct line to the left of the graph. The building they are tangential to a line graph. The slope of these tangents precisely describes the use of video. If productivity Video confined to video, tangents take place through the origin, but this is not happening. So, even with very low frequency video, a tire is fulfilling its responsibilities and is not far videoprotsessor "missed" in the absence of data. There is another remarkable moment. Compare values in the FPS video frequency 800 MHz and 500 MHz. The frequency of memory differs in 1.6 times, while in FPS decreased by only 6% (for the regime 4AA/16AF) and not more than 3% for the regime, without AA / AF. Before you make further conclusions, let us check whether this is true for other games.

daraus: As a measure of productivity will be important FPS obtained in testing at the Games. Frequency videoprotsessora not changed. The only option, which has been changed is the memory bus.

...toll, man zeigt das spiele ihrgendwann cpu limitiert werden und sich die graka langweilt

Gouvernator
2007-07-21, 19:31:58
Bei denen heisst das die X2900XT mit ihren 512bit voll ausgelastet ist. Man bräuchte eigentlich nicht mehr als 1400mhz DDR Takt. Die neue DDR4 Version soll deshalb komplett sinnlos sein, genau so wie das overclocken des Speichers. Die 8800GTX dagegen hat so viel Rohpower das ihr ihre Bandbreite nicht ausreicht...

_DrillSarge]I[
2007-07-21, 19:35:24
der rest übersetzt

The third graph shows the line from the game Quake 4, F.E.A.R. and Company of Heroes for a 1280x1024, 4AA/16AF. In addition, it also results in the game Company of Heroes for the regime 1600h1200, 4AA/16AF. As you can see, character lines remained almost identical for different games, and is not dependent on (and "serious" graphic regime are found above). What conclusions can draw? First, the frequency of video on Radeon HD2900XT at 828 MHz is sufficient, and further increases almost does not increase overall productivity. Secondly, it is painful to hear this overklokeram, HD2900XT to disperse video, and in fact unnecessary (and even counterproductive, in terms of heat). Third, it is not obvious, but is the logical conclusion could be drawn about productivity HD2900XT, complete video type DDR4. Hardly the performance of the card will be very different from the current HD2900XT DDR3 memory. Is that an increase of up to 1 GB of video will benefit in particular "prozhorlivyh" games at high resolution. On the other hand, it is permissible and the other interpretation horizontal line "saturation" in the schedules productivity depending on the video. If the increase in the video does not increase productivity, it is likely that the "protector" is at the GPU. The performance GPU limited to the number (or performance) and blocks rasterizatsii texture modules. Since we can not change the architecture of the chip can only wait out new graphical kernel of AMD. Let us hope that the effective width of the memory bus 512-bit feed there. And what about our competitors? It is well known that in the masthead of the series instead NVIDIA used "non-standard" memory bus width of 320-bit 8800GTS and 384-bit from 8800GTX. Let us see whether a memory bus width of the masthead, or whether the company and NVIDIA in the future is worth waiting for the transition to a wider memory bus?

This graph shows the results of three video game Quake 4 for a 1280x1024 No AA / AF. The red line represents HD2900XT, dark-8800GTS 640 MB of light-8800GTX. As seen on tangents on the left side of the schedule for both video 8800GTS/GTX lower frequency video led to the fall of almost linear. The band close to the normal value of the frequency of video, the picture is somewhat different. 8800GTS results in increased memory continues to increase, while 8800GTX went on a horizontal line saturation. Further investigation revealed that in this case we are faced with insufficient CPU, which limits the "top" results 8800GTX. Let us include full antialiasing and look at the results again


In line with full antialiasing, a decent head graphic cards, we finally get the final picture. The line results for the Radeon HD2900XT not undergone any change from what we have seen. The left side of the graph (video frequency below 500 MHz) line of Radeon HD2900XT is significantly higher than competitors. Gradually affects the memory bus and as a consequence, its higher bandwidth. But on the right side of the schedule results masthead NVIDIA video cards very interesting. No horizontal "its place" in the right part of the schedule and not fighting. With increasing frequency of video results 8800GTS/GTX continue to rise, and far from saturation. On the one hand, it may suggest that bandwidth video insufficient to download GPU, on the other hand, emphasizes more than enough units rasterizatsii and texture in the G80 architecture. The practical consequence of the graphic video-based G80 favourably disposed to disperse the video, unlike HD2900XT. In the future, it would be very interesting to see in the new NVIDIA chip memory bus 512-bit (or higher), the current bus 384-bit did not masthead GPU. Conclusion It has shown that tire 512-bit memory used in the Radeon HD2900XT really shows high efficiency. However, it appears that the architectural features of the R600 GPU limit growth results, and therefore, it does not make much sense to increase the frequency of video (break). The same applies to the future model HD2900XT 1 Gb DDR4. The significant increase in results is possible only in applications and tasks, using more than 512 local Mb video. Simple conversion to the type of memory GDDR4 unlikely that will HD2900XT, with the same architecture and frequency of R600. In turn, the mast products NVIDIA very receptive to the increased frequency of video. It said as a large "reserve capacity" GPU, and its inactivity because of a narrower tyre of memory, compared with HD2900XT. Are we listening wider memory bus in the new NVIDIA products, and how balanced is a new GPU from AMD-time show. Let's wait.

Gast
2007-07-21, 23:29:02
Hi Leute

kann mir bitte jemand erklären was ich unter "fully threaded" verstehen soll ? ;(





http://www.beyond3d.com/content/reviews/16/9 (http://http://www.beyond3d.com/content/reviews/16/9)

danke
Nicht in Reihe mit anderen Ausführungseinheiten geschaltet.

crux2005
2007-07-22, 11:26:19
Nicht in Reihe mit anderen Ausführungseinheiten geschaltet.

danke, das hilft mir schon weiter ... =)

btw: schalten = etwas ausführen ?

horn 12
2007-07-24, 22:03:38
Der neueste CAT 7.7 für die HD 2900 XT/ und alle anderen Karten mit dem alten Controllpaneel ist da.:cool::eek:
Sogar das CC wurde nun geändert/ überarbeitet, und die Performance kann sich wahrlich sehen lassen!
Hier der Link dafür:
http://www.ngohq.com/home.php?page=Files&go=cat&dwn_cat_id=18&go=giveme&dwn_id=466

Mir scheint als dass dieser der derzeit beste Treiber für die GD 2900 XT ist und auch am Bugfreiesten. Alle meine Spiele/ Bug Probleme der HD 2900 wurden nun beseitigt. Echt toll von ATI, nur weiter so!!
Und lasst nicht nach.
:smile:

=Floi=
2007-07-24, 22:11:32
zitat
Und lasst nicht nach.

;D
geiler satz

Gast
2007-07-27, 20:23:04
Neuer Weltrekord beim 3DMark2006:

http://service.futuremark.com/compare?3dm06=2551377

ist es 8800GTX SLI? Nein... ist es 8800Ultra SLI? Nein... es ist die von den Nvidia Fanboys so runtergemachte 2900XT im CF, wer hätte das gedacht... kommt Zeit kommen bessere Treiber :)

Gast
2007-07-27, 20:31:30
Neuer Weltrekord beim 3DMark2006:

http://service.futuremark.com/compare?3dm06=2551377

ist es 8800GTX SLI? Nein... ist es 8800Ultra SLI? Nein... es ist die von den Nvidia Fanboys so runtergemachte 2900XT im CF, wer hätte das gedacht... kommt Zeit kommen bessere Treiber :)
Wenn 3DMark die ganze Welt ist...
Wie sieht's eigentlich in Games mit AA und AF aus? Man braucht die X2900 nicht runtermachen, das wäre unseriös, allerdings spricht nicht wirklich für die Karte auch wenn man kein nV Fanboy ist, traurig aber wahr.
Bleibt nur noch zu sagen:
Kommt Zeit, kommt ein besserer Refresh.

Gast
2007-07-27, 20:44:14
Neuer Weltrekord beim 3DMark2006:

http://service.futuremark.com/compare?3dm06=2551377

ist es 8800GTX SLI? Nein... ist es 8800Ultra SLI? Nein... es ist die von den Nvidia Fanboys so runtergemachte 2900XT im CF, wer hätte das gedacht... kommt Zeit kommen bessere Treiber :)
Wenn die 2900er doch überall so gut wäre wie im 3DMark, dann wäre sie wahrscheinlich auch 100 Euro teurer. :)

dildo4u
2007-07-28, 16:32:55
Neuer Weltrekord beim 3DMark2006:

http://service.futuremark.com/compare?3dm06=2551377

ist es 8800GTX SLI? Nein... ist es 8800Ultra SLI? Nein... es ist die von den Nvidia Fanboys so runtergemachte 2900XT im CF, wer hätte das gedacht... kommt Zeit kommen bessere Treiber :)

Wurde Heute schon wieder von einem 8800ULTRA SLI übertroffen.

http://www.pcgameshardware.de/?article_id=608101

AnarchX
2007-07-30, 17:09:25
AMD Radeon HD2000-Serie im Test @ HT4u (http://hardtecs4u.de/?id=1185749558,20281,ht4u.php)
Es hat ein wenig gedauert, bis wir der Aufforderung AMDs zum Launch am 28.06.2007 folgen konnten. Just zu diesem Zeitpunkt hat AMD seine HD2000-Produktpalette mit den Modellen HD2400 und HD2600 abgerundet. Doch auch schon den Launch der HD2900XT mussten wir auslassen. Von daher haben wir uns nun die Zeit genommen und uns in Ruhe mit den Modellen HD2900XT, HD2600XT und HD2400XT beschäftigt.

Und eigentlich, so zurückblickend, hätten wir uns noch mehr Ruhe nehmen müssen, doch die Hardware-Szene schläft praktisch nie und was heute hui ist, kann morgen pfui sein. So begnügen wir uns hier und jetzt mit unseren 56 Seiten im Artikel und hoffen, dass sich das Warten für die treuen Leser dann doch noch gelohnt hat.

Quaker
2007-07-30, 17:49:57
Naja, nicht wirklich Aufschlussreicher Test, wurde sogar noch mit Cat 7.6 durchgeführt...
Und warum benchen die Doom 3 und Quake 4 - anstatt einfach Prey zu nehmen?
Naja, nicht viel Neues in diesem Test...

Blaire
2007-07-30, 17:55:36
Richtig die GTS gewinnt die meisten Tests wenn AA/AF ins Spiel kommt. Aber die TreiberSettings sind ja mal sowas von...;D

Gast
2007-07-30, 18:04:41
Aber die TreiberSettings sind ja mal sowas von...;D

Abgesehen davon sind Test mit Auflösungen unter 1280*1024 sowieso sinnlos.
Schade, aber wieder geht Quantität vor Qualität. HT4U hätte die Chance gehabt, etwas neues in die Debatte zubringen - nämlich Werte mit A.I Off.

LovesuckZ

Quaker
2007-07-30, 18:28:36
Die Auflösung ist schon in Ordnung, ich fahre auch noch mit 1024x768...
Besonders Für Leute die sich für die Mainstreamkarten interessieren ist das schon sinnvoll.

horn 12
2007-07-30, 19:19:32
Mal eine generelle Frage zur HD 2900 XT und den Settings im Menü:

Welche Einstellungen/ Settings muss ich denn aktivieren um die beste Leistung, aber auch die Beste Bildqualität !!! auf einer HD 2900XT zu erreichen. Verwende den blanken Treiber und für die Einstellungen dann eben "nur" das ATI Tray-Tool (Neueste Version)
Die Settings für AA/ (AAA eben nicht) und AF nehme ich meistens (wohl am besten) dann nur im Spielmenü vor, da dies sie meiste Leistung bringt.
Denn wenn ichs unter ATT einstelle kostet mir dies ganz schon an Leistung, oft bis 20/25%;- vor allem auch das AF16x über die ATT Einstellung.
Also was sollte man unbedingt aktiv, und deaktviert lassen beim ATT.

PS: Ist klar dass ich die neuen AA Modi mit dem ATT nicht nutzen kann!


Dank schonmal!

Fallacy
2007-07-30, 19:19:35
Richtig die GTS gewinnt die meisten Tests wenn AA/AF ins Spiel kommt. Aber die TreiberSettings sind ja mal sowas von...;D

Was ist denn an den Treiber-Settings so drollig? Das HQ auf NVIDIA-Karten aktiviert wurde, weil es mit dem G8x-Karten bzw deren Treibern keine Leistung kostet (http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index8.php) und es dementsprechend keine sichtbaren Unterschiede mehr gibt?


Abgesehen davon sind Test mit Auflösungen unter 1280*1024 sowieso sinnlos.
Schade, aber wieder geht Quantität vor Qualität. HT4U hätte die Chance gehabt, etwas neues in die Debatte zubringen - nämlich Werte mit A.I Off.

LovesuckZ


Gerade bei den Einsteiger-Karten ist 1024x768 in neuen Spielen alles andere als sinnlos. Wie man sieht sind Radeon 2400XT und GF8500GT selbst hier ohne AA/AF teilweise schon überfordert.

Aus privaten Gründen fehlte die Zeit genauere Bildqualitäts-Vergleiche zwischen A.I. On und A.I. Off zu machen, wie wir es für die letzte Generation gemacht hatten. Damals sind wir zu dem Entschluss gekommen, das in unseren Augen A.I. Off eher mit HQ von NV vergleichbar ist - weshalb wir beide Werte in unsere Tests aufnahmen. Da wir - wie gesagt - keine genaueren Analysen machen konnten und A.I. on auf den neuen Karten mit den NV-Settings vergleichbar wirkte, verzichteten wir darauf A.I. Off Werte ebenfalls zu benchen.

Grüße,
Leander - Hardtecs4U

Gast
2007-07-31, 12:33:14
Was ist denn an den Treiber-Settings so drollig? Das HQ auf NVIDIA-Karten aktiviert wurde, weil es mit dem G8x-Karten bzw deren Treibern keine Leistung kostet (http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index8.php) und es dementsprechend keine sichtbaren Unterschiede mehr gibt?



Gerade bei den Einsteiger-Karten ist 1024x768 in neuen Spielen alles andere als sinnlos. Wie man sieht sind Radeon 2400XT und GF8500GT selbst hier ohne AA/AF teilweise schon überfordert.

Aus privaten Gründen fehlte die Zeit genauere Bildqualitäts-Vergleiche zwischen A.I. On und A.I. Off zu machen, wie wir es für die letzte Generation gemacht hatten. Damals sind wir zu dem Entschluss gekommen, das in unseren Augen A.I. Off eher mit HQ von NV vergleichbar ist - weshalb wir beide Werte in unsere Tests aufnahmen. Da wir - wie gesagt - keine genaueren Analysen machen konnten und A.I. on auf den neuen Karten mit den NV-Settings vergleichbar wirkte, verzichteten wir darauf A.I. Off Werte ebenfalls zu benchen.

Grüße,
Leander - Hardtecs4U
Sind immer die gleichen. Macht ihnen wahrscheinlich Spaß den Finger in Amds Wunden zu legen. Wenn man sich für die X2900 entscheidet, dann nur wegen Sympathie zu Amd. Technisch ist die Karte der Konkurrenz (auch der GTS) im Schnitt unterlegen. Dazu kommt die immens hohe Leistungsaufnahme verglichen mit der GTS. Und dass Ai off die Performance nicht erhöhen wird, ist eh klar. Und für die kleineren Modelle erübrigt sich das eh mangels Power. Auch dürfte dem Klientel die Optimierung weitgehend egal sein, denn BQ-Fetischisten kaufen sich keine Mainstreamgrakas. Früher war die Ai / HQ Diskussion interessant, da 7900 und X1800/ X1900 größtenteils performancemäßig gleichwertig waren. Heute ist die Sache im High End hingegen recht klar.

up¦²
2007-07-31, 14:02:45
GeForce 8800 GTS - Radeon HD 2900 XT "Vergleich":
When looking at the Jetway version of the Radeon HD 2900 XT, we somehow got the feeling that this card is capable of more. The looks and design suspect that this XT has been designed to deliver stunning performance, but that some still have to be discovered.
...
The Jetway Radeon HD 2900 XT card is an outstanding graphics card that promises to deliver outstanding performance for any game you can throw at it at a very reasonable price tag.
http://www.mvktech.net/content/view/3641/39/1/0/
Na also! :smile:

Noch eine:
Diamond's Radeon HD 2900 XT 1GB graphics card GDDR4 rides again
Beyond that, most of what's left for the Radeon HD 2900 XT 1GB GDDR is hope for a better future. Perhaps AMD will someday deliver new video drivers that produce dramatically higher performance. Perhaps the first wave of true DirectX 10-only titles will alter the landscape radically. Perhaps the graphics usage model will change over time to where the 2900 XT's relatively weak edge AA and texture filtering capacity doesn't matter so much. Any or all of these things could happen. Or perhaps not.
http://techreport.com/reviews/2007q3/radeon-hd-2900xt-1gb/index.x?pg=1



Nebenbei:
Catalyst 7.8 will fix Source Engine (http://uk.theinquirer.net/?article=41328) ;)

PapercutGT
2007-07-31, 15:05:05
mhh das Techreport Review ist interessant und zeigt eine interessant seite der HD 2900, besonders im Min FPS Bereich.

und der Idle stromverbrauch ist auch sehr gut, wobei man sagen muss das der Nforce 680 auch einiges frisst


ich will einen wunder treiber und dann schaunwa mal weiter

Gast
2007-08-06, 15:34:13
Neues Review von Chiphell :D
http://www.chiphell.com/viewthread.php?tid=7457&extra=page%3D1

Gast
2007-08-06, 21:53:56
Die Reviews wurden noch mit den "alten" treibern gemacht.
Der 7.8beta hat nochmal ne Schippe drauf gelegt

Bei DX10 ca. 15-20% (LP, WIC)
Bei DX 9 ca. 15% Source Games (HL2, CSS usw.)
Mal sehen was bei der Finalen so kommt..;-)

Gast
2007-08-07, 06:02:34
Mal eine nette Abwechselung:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/august/amd_workstation-karte_r600xtx/

ATI FireGL.

Wenn ihr wissen wollt, wie sich der Speicher auswirkt, dann sind Tests dieser Karte genau das richtige.

Schon heftig, was AMD da hergezaubert hat: 2 GB Speicher und ein 512 bit Interface!