PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - HD 2900XT: (P)Review-Thread,Teil drei


Seiten : 1 2 [3]

Adam D.
2007-09-13, 20:37:04
Aber naja, die Performance ist kaum höher als die der Vorgänger-Generation, das hatten wir schon ein paar Mal in den letzten Monaten. Wird sicher gefixt.

Irgendwie hab ich 'n bissl Angst davor, die Karte bald zu besitzen :biggrin:

The_Invisible
2007-09-13, 21:04:29
Aber naja, die Performance ist kaum höher als die der Vorgänger-Generation, das hatten wir schon ein paar Mal in den letzten Monaten. Wird sicher gefixt.

Irgendwie hab ich 'n bissl Angst davor, die Karte bald zu besitzen :biggrin:

naja, es wird ja schon ein hotfix treiber für dieses spiel eingesetzt

btw
die 320mb gts schlägt sich hier mal sehr gut, kaum langsamer als ne 640er

mfg

mapel110
2007-09-13, 21:06:15
btw
die 320mb gts schlägt sich hier mal sehr gut, kaum langsamer als ne 640er

mfg
Offenbar waren die Einstellungen für die Texturqualität ingame nicht auf Anschlag, wie der Gast schon bemerkte. Sowas wirkt sich natürlich auf den VRam aus.

LovesuckZ
2007-09-13, 21:15:17
Der neuste BetaTreiber scheint den VRam Bug abzumindern bzw. beseitigt zu haben. Daher werden die Ergebnisse wohl erst richtig mit AA zu gunsten der 640mb Version sich ausschlagen.
Achja, dass Ergebniss der 2900XT Karten ist blamabel.

Adam D.
2007-09-13, 21:17:02
Ja, aber ich würd jetzt auch nicht so behaupten, dass Quake Wars ein Spiel ist, was jetzt Unmengen an VRam frisst. Sieht zumindest nicht so aus für mich, hab's jetzt aber noch nicht so ausführlich angespielt/durchgechekt.
Dass ein Hotfix-Treiber verwendet wird, hat IMO nix zu sagen. Die 2900XT ist deutlich schneller als der Vorgänger bzw. sollte deutlich schneller sein, wenn alles mitspielt. Das scheint hier mal wie so oft nicht der Fall zu sein :rolleyes:
Wieso die nicht mit maximalen Details getestet haben, ist mir ein Rätsel. Macht bei so einem Testsystem irgendwie keinen Sinn.

LovesuckZ
2007-09-13, 21:19:00
Dass ein Hotfix-Treiber verwendet wird, hat IMO nix zu sagen. Die 2900XT ist deutlich schneller als der Vorgänger bzw. sollte deutlich schneller sein, wenn alles mitspielt. Das scheint hier mal wie so oft nicht der Fall zu sein

Sie ist es eben nicht überall. Und wenn es AMD nach 4 Monaten nicht schafft, die Treiber soweit fertigzustellen, dass die gröbsten Probleme beseitigt sind, dann muss man wohl oder übel sagen: Pech gehabt.
Jedenfalls sollte man sich nicht einreden, die Karte werde in Zukunft noch besser.

Gast
2007-09-13, 21:24:30
Das war wohl eher FX8 was da zum Einsatz kam.

wohl eher FX12, FX8 konnte die NV3x-reihe garnicht mehr, selbst NV2x rechnet mit FX9-genauigkeit.

Adam D.
2007-09-13, 21:26:22
Sie ist es eben nicht überall. Und wenn es AMD nach 4 Monaten nicht schafft, die Treiber soweit fertigzustellen, dass die gröbsten Probleme beseitigt sind, dann muss man wohl oder übel sagen: Pech gehabt.
Jedenfalls sollte man sich nicht einreden, die Karte werde in Zukunft noch besser.
Ich geb dir natürlich recht und ich meine auch nicht, dass sie noch besser wird. Aber ich denke doch schon, dass sie ihren momentanen Stand halten kann und der ist Kopf an Kopf mit der 8800GTS. Diese einzelnen, aber deutlichen Aussetzer der Karte, die immer wieder auftreten, sind aber trotzdem wirklich ärgerlich. Nicht grad ein Kaufargument, wenn man bei jedem neuen Spiel zittern muss :redface:

Gast
2007-09-14, 12:03:11
Sie ist es eben nicht überall. Und wenn es AMD nach 4 Monaten nicht schafft, die Treiber soweit fertigzustellen, dass die gröbsten Probleme beseitigt sind, dann muss man wohl oder übel sagen: Pech gehabt.
Jedenfalls sollte man sich nicht einreden, die Karte werde in Zukunft noch besser.
Ach komm, wie lange hats bei Nvidia gedauert bis der G80 sein volles Potential zeigen konnte (MUL ahoi)? Mal ganz ab vom VRAM-Bug, der nur die 320er zu bremsen scheint.
Der R600 ist in vielen Spielen etwas schneller als eine 640er GTS, solche Ausreißer nach unten sind Treiber bedingt IMO.

LovesuckZ
2007-09-14, 12:07:45
Ach komm, wie lange hats bei Nvidia gedauert bis der G80 sein volles Potential zeigen konnte (MUL ahoi)? Mal ganz ab vom VRAM-Bug, der nur die 320er zu bremsen scheint.

Die Leistung stimmte von anfang an. Das es natürbedingt zu Problemen in der einen oder anderen Anwendung kommen kann, ist bekannt und auch nichts neues. Grobe weitläufige Probleme wie beim r600 traten jedoch nicht auf.


Der R600 ist in vielen Spielen etwas schneller als eine 640er GTS, solche Ausreißer nach unten sind Treiber bedingt IMO.

Das Problem ist die Leistung mit AA und AF. Vorallem ersteres wird von vielen noch als Treiberproblem interpretiert. Da auch nach 4 Monaten hier keine Besserung eingetreten ist, sollte man auch in Zukunft keine mehr erwarten.

AMC
2007-09-14, 12:20:25
Ach komm, wie lange hats bei Nvidia gedauert bis der G80 sein volles Potential zeigen konnte (MUL ahoi)? Mal ganz ab vom VRAM-Bug, der nur die 320er zu bremsen scheint.

Nicht mehr! Seit dem 163.44 verbesserte sich in einigen Spielen (Stalker, CoD2) die Performance durch Veränderung der Speicherkompression!. Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/). Ferner wurde mit dem aktuellen 163.67 der VRAM Bug direkt angegangen und scheint damit extrem abgemildert.

Der R600 ist in vielen Spielen etwas schneller als eine 640er GTS, solche Ausreißer nach unten sind Treiber bedingt IMO.

Nein, ist sie nicht! In den letzten aktuellen Benchmarks (LegitHartware, HardOCP, Computerbase) und nun auch Firingsquad Quakewars:ET (http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/default.asp), verliert die 1GB 2900XT unter 1600*1200 4AA/16AF deutlich gegen eine GTS 320MiB. Die "Ausreißer" sind eher die Fälle, in der die 2900er der GTS überhaupt nahe kommt, z.B. in Bioshock unter DX9 ohne AA und hohe AF-Modi.

AMC

Gast
2007-09-14, 12:55:55
Quake Wars ist doch gerade DAS Negativbeispiel, damit durchgehend zu argumentieren, ist zwecklos. Es scheint hier einen enormen Treiberfehler zu geben. Wenn nicht, dann ist der R600 wohl hardware-technischer Schrott.

AMC
2007-09-14, 12:59:21
Quake Wars ist doch gerade DAS Negativbeispiel, damit durchgehend zu argumentieren, ist zwecklos. Es scheint hier einen enormen Treiberfehler zu geben. Wenn nicht, dann ist der R600 wohl hardware-technischer Schrott.

Hm? Ich hab doch gar nicht "durchgehend" damit argumentiert? Schau Dir doch bitte mal Bioshock unter DX10 an, sowie Stalker mit AA/AF, um zwei andere Spiele zu nennen.

AMC

Gast
2007-09-14, 13:59:33
Hm? Ich hab doch gar nicht "durchgehend" damit argumentiert? Schau Dir doch bitte mal Bioshock unter DX10 an, sowie Stalker mit AA/AF, um zwei andere Spiele zu nennen.

AMC
Ich möchte ja gar nicht sagen, dass die Karte in der Hinsicht teilweise erhebliche Schwächen hat. Und ich kenne die Benchmarks, wenn ich mir jedoch die neuen Tests anschaue, dann sieht's doch gar nicht so schlecht aus ;) Wenn da halt die nervigen Ausnahmen nicht wären ;( Bin trotzdem dazu geneigt, mir die Karte zuzulegen - allein schon aus dem Grund, dass die Datei nvblabla damit unter Vista nicht abstürzen kann :biggrin:

AnarchX
2007-09-14, 14:13:19
Quake Wars ist doch gerade DAS Negativbeispiel, damit durchgehend zu argumentieren, ist zwecklos. Es scheint hier einen enormen Treiberfehler zu geben. Wenn nicht, dann ist der R600 wohl hardware-technischer Schrott.

Wer will sollte mal dies ausprobieren:
http://forum.beyond3d.com/showpost.php?p=1063831&postcount=447
;)

Gast
2007-09-14, 14:19:57
Nein, ist sie nicht! In den letzten aktuellen Benchmarks (LegitHartware, HardOCP, Computerbase) und nun auch

AMC

Die XT512 ist fast überall schneller als die GTS mit 4xAA und 16xAF
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html

Und jetzt komm bloß nicht mit Computerbase der Test ist Uralt. Wenn man keine Ahnung hat, hält man besser die F.....
:rolleyes:

Das bei ETQW ein Treiberfehler herscht ist offensichtlich den in OperGL ist der R600 nicht langsam siehe Prey

http://img137.imageshack.us/img137/4033/kkkkl4.jpg (http://imageshack.us)

][immy
2007-09-14, 14:20:58
Nein, ist sie nicht! In den letzten aktuellen Benchmarks (LegitHartware, HardOCP, Computerbase) und nun auch Firingsquad Quakewars:ET (http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/default.asp), verliert die 1GB 2900XT unter 1600*1200 4AA/16AF deutlich gegen eine GTS 320MiB. Die "Ausreißer" sind eher die Fälle, in der die 2900er der GTS überhaupt nahe kommt, z.B. in Bioshock unter DX9 ohne AA und hohe AF-Modi.

AMC

ihr wisst schon das AMD/ATi schon immer (zumindest in den letzten jahren) einen miesen OpenGL support hatte und das quakewars eine OpenGL-Titel ist?

also dieses einen titel als maßstab zu nehmen ist echt nicht gut, besonders wenn man bedenkt wie "viele" aktuelle OpenGL-Titel es gibt.

Ich hoffe nur das sich durch die Opensource-treiber im Linux/unix bereich zumindest auch was am opengl treiber auf windows-ebene etwas tut.

Nakai
2007-09-14, 14:34:34
ihr wisst schon das AMD/ATi schon immer (zumindest in den letzten jahren) einen miesen OpenGL support hatte und das quakewars eine OpenGL-Titel ist?

Deswegen performt eine HD2900XT immer sehr gut in OGL.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/19/#abschnitt_f_e_a_r

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/18/#abschnitt_doom_3

mfg Nakai

Adam D.
2007-09-14, 14:36:20
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_7.html#sect0
Da bietet die HD2900XT ja eine ziemlich gute Leistung. Widerspricht ein bisschen allem dem, was ich bis jetzt so gelesen hab ;) Weiß nicht, wie adäquat die Quelle ist. Aber die 2900XT holt auf.

Was mich noch interessieren würde: es kommt ja immer wieder vor, dass die HD2900XT teilweise total verreckt (hier z.B. Quake Wars). Liegt es einfach daran, dass die Treiber für die Karte so schwer zu schreiben sind? Oder muss das Team massiv Bugs "wegoptimieren"?

Gast
2007-09-14, 14:40:54
Und jetzt komm bloß nicht mit Computerbase der Test ist Uralt.

Auf jeden Fall nicht so alt wie der Nvidia ForceWare 162.22 Treiber, den XBIT in dem von Dir verlinkten Test benutzt hat! :D

In diesem Sinne, lieber Gast:


Wenn man keine Ahnung hat, hält man besser die F..... :D


Das bei ETQW ein Treiberfehler herscht ist offensichtlich den in OperGL ist der R600 nicht langsam siehe Prey

Wir wollen doch nicht von einem OpenGL Spiel, dazu auch noch mit alten Treibern (sowohl bei ATI und nv), auf die Allgemeinheit schließen? ;D

AMC

AMC
2007-09-14, 14:42:56
Auf jeden Fall nicht so alt wie der Nvidia ForceWare 162.22 Treiber, den XBIT in dem von Dir verlinkten Test benutzt hat! :D

In diesem Sinne, lieber Gast:

:D



Wir wollen doch nicht von einem OpenGL Spiel, dazu auch noch mit alten Treibern (sowohl bei ATI und nv), auf die Allgemeinheit schließen? ;D

AMC

AMC

P.S. Cookies gefress0rn. :|

Gast
2007-09-14, 14:44:02
@Nakai
F.E.A.R. ist OpenGL ?

Hier ein Test DX9/DX10 MOHA

http://img513.imageshack.us/img513/4752/99dg5.jpg (http://imageshack.us)
http://img513.imageshack.us/img513/4752/99dg5.4925f62d4a.jpg (http://g.imageshack.us/g.php?h=513&i=99dg5.jpg)

http://www.legionhardware.com/document.php?id=683&p=0

Nakai
2007-09-14, 14:45:28
Naja die HD2900Xt wird nicht schlechter, aber irgendwie läuft da einiges immer noch nicht rund. Naja, mal schaun ob das noch besser wird.

Aber die 2900XT holt auf.

Ich finde, sie bricht nicht mehr so stark ein, ansonsten ist die Performance genau zwischen GTX und GTS.

mfg Nakai

€: @Nakai
F.E.A.R. ist OpenGL ?

Dachte ich immer schon, wobei ich mich auch irren kann.

AMC
2007-09-14, 14:45:34
Da bietet die HD2900XT ja eine ziemlich gute Leistung. Widerspricht ein bisschen allem dem, was ich bis jetzt so gelesen hab ;) Weiß nicht, wie adäquat die Quelle ist. Aber die 2900XT holt auf.

Was mich noch interessieren würde: es kommt ja immer wieder vor, dass die HD2900XT teilweise total verreckt (hier z.B. Quake Wars). Liegt es einfach daran, dass die Treiber für die Karte so schwer zu schreiben sind? Oder muss das Team massiv Bugs "wegoptimieren"?

Schau Dir einfach mal die anderen Benches an, LegitHardware, HardOCP, Computerbase, oder eben Firingsquad. Diese sind neuer und zeigen ein anderes Bild, als der alte X-Bit Test. Sowohl der Cat 7.8 und 163.44 wurden dort verwendet. Ich habe noch kein komplettes Review mit dem 163.67 gesehen, der ja nun den VRAM Bug angehen soll, aber mit dem 163.44 steigt vor allem der Abstand der GTS zur 2900 in Stalker und Bioshock DX10.

AMC

Adam D.
2007-09-14, 14:49:16
Ich finde, sie bricht nicht mehr so stark ein, ansonsten ist die Performance genau zwischen GTX und GTS. mfg Nakai
Ja, je nach Situation. Der Große Vorteil des G80 ist, dass bei ihm fast alles rund läuft. Ist schon bitter, wenn die HD2900XT in vielen Einzelfällen ihre wahre Power nicht entfalten kann.


Schau Dir einfach mal die anderen Benches an, LegitHardware, HardOCP, Computerbase, oder eben Firingsquad. Diese sind neuer und zeigen ein anderes Bild, als der alte X-Bit Test. Sowohl der Cat 7.8 und 163.44 wurden dort verwendet. Ich habe noch kein komplettes Review mit dem 163.67 gesehen, der ja nun den VRAM Bug angehen soll, aber mit dem 163.44 steigt vor allem der Abstand der GTS zur 2900 in Stalker und Bioshock DX10.
AMC
Ich hab mir die ganzen Reviews durchgelesen, ich will ja vor dem Kauf informiert sein. Und das Bild ist zusammengefasst ein gutes. Es gibt defintiv Ausnahmen, wie schon gesagt. Was genau bei Stalker abgeht, ist mir auch 'n Rätsel. Da verreckt sie wie bei Quake Wars total. Bioshock DX10 wurde ja auch schon oft diskutiert, die Schatten mit DX10 killen sie halt.

AMC
2007-09-14, 14:51:21
@Nakai
F.E.A.R. ist OpenGL ?

Hier ein Test DX9/DX10 MOHA

http://img513.imageshack.us/img513/4752/99dg5.jpg (http://imageshack.us)
http://img513.imageshack.us/img513/4752/99dg5.4925f62d4a.jpg (http://g.imageshack.us/g.php?h=513&i=99dg5.jpg)

http://www.legionhardware.com/document.php?id=683&p=0

Ich halte mit dem hier mal dagegen: HardOCP - Bioshock DX10 (http://enthusiast.hardocp.com/article.html?art=MTM4NywzLCxoZW50aHVzaWFzdA==)

AMC
2007-09-14, 14:59:02
Ja, je nach Situation. Der Große Vorteil des G80 ist, dass bei ihm fast alles rund läuft. Ist schon bitter, wenn die HD2900XT in vielen Einzelfällen ihre wahre Power nicht entfalten kann.

Ich hab mir die ganzen Reviews durchgelesen, ich will ja vor dem Kauf informiert sein. Und das Bild ist zusammengefasst ein gutes. Es gibt defintiv Ausnahmen, wie schon gesagt. Was genau bei Stalker abgeht, ist mir auch 'n Rätsel. Da verreckt sie wie bei Quake Wars total. Bioshock DX10 wurde ja auch schon oft diskutiert, die Schatten mit DX10 killen sie halt.

Ja, im Prinzip spielen die Gründe für Dich als Käufer aber doch eigentlich keine Rolle? Wenn ich ehrlich bin kann ich nicht verstehen warum man sich derzeit eine 2900er kaufen sollte? Selbst wenn es ein paar Spiele gibt, wo sie ohne AA, oder mit weniger AF, auf GTS-Niveau kommt, so ist doch ein in der Gesamtbetrachtung, sagen wir: "unrundes" Bild, nicht unbedingt ein Kaufargument? Fakt ist, eine GTS gibt es für weniger Geld 303 Euro / 640 MiB (http://geizhals.at/deutschland/a224906.html) + 231 Euro / 320 MiB (http://geizhals.at/deutschland/a238849.html) mit oftmals mehr Leistung und besserer Bildqualität (zumindest beim AF). Mir persönlich wären 319 Euro - 2900XT 512 MiB (http://geizhals.at/deutschland/a256994.html) einfach zuviel Geld für ein Experiment. ;)

AMC

Gast
2007-09-14, 15:13:36
Selbst wenn es ein paar Spiele gibt, wo sie ohne AA, oder mit weniger AF, auf GTS-Niveau kommt,
AMC

Sie meistens mit 4xAA/16xAF schneller wie die GTS, also erzähl kein ..... hier vonwegen ohne AA und wenig AF.

Brauchst die Karte ja nicht kaufen ;-)

Adam D.
2007-09-14, 15:19:00
Ja, im Prinzip spielen die Gründe für Dich als Käufer aber doch eigentlich keine Rolle? Wenn ich ehrlich bin kann ich nicht verstehen warum man sich derzeit eine 2900er kaufen sollte? Selbst wenn es ein paar Spiele gibt, wo sie ohne AA, oder mit weniger AF, auf GTS-Niveau kommt, so ist doch ein in der Gesamtbetrachtung, sagen wir: "unrundes" Bild, nicht unbedingt ein Kaufargument? Fakt ist, eine GTS gibt es für weniger Geld 303 Euro / 640 MiB (http://geizhals.at/deutschland/a224906.html) + 231 Euro / 320 MiB (http://geizhals.at/deutschland/a238849.html) mit oftmals mehr Leistung und besserer Bildqualität (zumindest beim AF). Mir persönlich wären 319 Euro - 2900XT 512 MiB (http://geizhals.at/deutschland/a256994.html) einfach zuviel Geld für ein Experiment. ;)

AMC
Wenn man die Situation objektiv betrachtet, spricht fast nichts für die HD2900XT. Ich hatte jetzt Jahre lang Nvidia und möchte jetzt einfach mal ATi ausprobieren. Außerdem darf man bei mir nicht vergessen, dass sie bei mir der Treiber momentan so alle 5 Minuten zurücksetzt, versuch mal damit zu spielen ;) Ich will's einfach probieren. Es ist ein Experiment, aber die GTS spricht mich einfach nicht an - obwohl sie wohl das rundere Paket liefert ;)

AMC
2007-09-14, 15:30:25
Sie meistens mit 4xAA/16xAF schneller wie die GTS, also erzähl kein ..... hier vonwegen ohne AA und wenig AF.

Brauchst die Karte ja nicht kaufen ;-)

Ich denke, es gibt nun im Thread (und hier im Forum) genug links, die das Gegenteil belegen, womit hier für mich nun mit Dir EOD ist. ;-)

AMC

AMC
2007-09-14, 15:33:09
Wenn man die Situation objektiv betrachtet, spricht fast nichts für die HD2900XT. Ich hatte jetzt Jahre lang Nvidia und möchte jetzt einfach mal ATi ausprobieren. Außerdem darf man bei mir nicht vergessen, dass sie bei mir der Treiber momentan so alle 5 Minuten zurücksetzt, versuch mal damit zu spielen ;) Ich will's einfach probieren. Es ist ein Experiment, aber die GTS spricht mich einfach nicht an - obwohl sie wohl das rundere Paket liefert ;)

Ich hätte eine Alternative für Dich: G80 kaufen und brav mit XP zocken! Es wird geflüstert, dass weder DX10 noch Windows Vista so die Knaller wären, sowohl von der Performance, den Features und dem Nutzen. ;)

AMC

P.S. <- Hat einen G80 und 2k, Vista wird stilvoll übergangen.

Adam D.
2007-09-14, 15:38:15
Ich will aber Vista nicht mehr missen und es macht auch keinen Ärger. Außerdem besitze ich keine XP-Lizenz ;) Man kann's kritisieren, aber ich bin den Standard-Scheiß einfach satt, ich will experimentieren - mit der Gefahr im Hinterkopf, dass es schief gehen könnte :biggrin:

AMC
2007-09-14, 15:44:07
Man kann's kritisieren, aber ich bin den Standard-Scheiß einfach satt, ich will experimentieren - mit der Gefahr im Hinterkopf, dass es schief gehen könnte :biggrin:

:up: Kann ich nachempfinden! Wenn schon (sehr bald ;)) das Geld da ist, werde ich mir hier auch noch ein paar schöne Dinge zum experimentieren und basteln leisten: Dual Deltachrome, Dual Destination Films, ein paar ATIs, bissel was altes von 3dfx. :biggrin:

AMC

P.S. Ich ärgere mich immer noch TOT, dass ich damals den BitBoys Pyramid3D nicht gekauft habe, als ich die Gelegenheit dazu hatte. (+ Win98 und 2k Treiber, lauffähig + Quellcodes der Treiber :cool:).

Evil one
2007-09-14, 15:47:43
Ich will aber Vista nicht mehr missen und es macht auch keinen Ärger. Außerdem besitze ich keine XP-Lizenz ;) Man kann's kritisieren, aber ich bin den Standard-Scheiß einfach satt, ich will experimentieren - mit der Gefahr im Hinterkopf, dass es schief gehen könnte :biggrin:
Genau No risk no Fun :-)

AMC<-- Weichei

Adam D.
2007-09-14, 15:49:09
Eben. Vielleicht wird die HD2900XT genau so ein Stück Hardware, wo man sich dann in einem Jahr ärgert, dass man sie sich nicht gekauft hat. Ok, sehr unrealistisch, aber egal :ulol:

AMC
2007-09-14, 15:54:41
Eben. Vielleicht wird die HD2900XT genau so ein Stück Hardware, wo man sich dann in einem Jahr ärgert, dass man sie sich nicht gekauft hat. Ok, sehr unrealistisch, aber egal :ulol:

Wieso? Ist doch einfach nur umgedreht -> Hier ärgert man sich direkt von Anfang an! ;D ;) Der Vorteil: Auch in einem Jahr wirst Du wahrscheinlich noch experimentieren müssen. :tongue:

AMC

Adam D.
2007-09-14, 15:57:47
Wieso? Ist doch einfach nur umgedreht -> Hier ärgert man sich direkt von Anfang an! ;D ;) Der Vorteil: Auch in einem Jahr wirst Du wahrscheinlich noch experimentieren müssen. :tongue:

AMC
Jetzt aber mal nicht zu viel des Sarkasmusses, so schlecht ist die Karte nun wirklich nicht :wink:

Ich werd 'nen großen Thread über die Karte schreiben, dann werdet ihr ja alle sehen, ob ich auf die Schnauze geflogen bin oder nicht. Ich bin zuversichtlich :up:

AMC
2007-09-14, 16:14:02
Jetzt aber mal nicht zu viel des Sarkasmusses, so schlecht ist die Karte nun wirklich nicht :wink:

Ich werd 'nen großen Thread über die Karte schreiben, dann werdet ihr ja alle sehen, ob ich auf die Schnauze geflogen bin oder nicht. Ich bin zuversichtlich :up:

Mach das! Ich hab hier in den ganzen Jahren meiner 3D-Begeisterung so manche Karte gesammelt: von Matrox Mystique und Voodoo1 / 2, über S3 Savage4 und Geforce 1 zu Radeon 1 bis zu aktuellen 7900GT AGP / 7900 GTO / G80, so etwa 20 Karten (AGP / PCI) und nochmal ~10-15 ISA, fast alle lauffähig, mit denen ich nun (hab endlich nen 3 dritten Rechner im Fuhrpark), vielleicht auch noch mal einen Benchmark Shootout verfassen wollte. Dank ConRoe865PE ist es hier sogar möglich, nen E6600 + AGP und DDR1 mit älteren AGP Karten zu kombinieren. Wäre sicher mal interessant zu sehen, welche Karte sich mit welchem System wie verhält, also P3 750 -> P4 1.6A @ 1.6 -> P4 2.8C @ 3.8 -> C2D E6600 @ 2.7, alles unter AGP.

Du siehst, ich teile Deine Experimentierfreude! Viel Spaß mit der 2900er. ;)

AMC

mapel110
2007-09-14, 16:16:25
€:

Dachte ich immer schon, wobei ich mich auch irren kann.
FEAR ist D3D.
Erstaunlich, die Moha-Ergebnisse. Da würd ich gern noch Vergleichswerte von anderen Webseiten sehen.

The_Invisible
2007-09-14, 16:19:59
Ich will aber Vista nicht mehr missen und es macht auch keinen Ärger. Außerdem besitze ich keine XP-Lizenz ;) Man kann's kritisieren, aber ich bin den Standard-Scheiß einfach satt, ich will experimentieren - mit der Gefahr im Hinterkopf, dass es schief gehen könnte :biggrin:

gib dir einfach ein paar linuxe im unstable zweig oder nightly software, da kannst du genug testen und bist vom "standard-scheiß" weg, mach ich auch so.

beim zocken will ich aber am wenigsten experimentieren (höchstens treiber nach dem segen einiger user), das soll ja eigentlich zum entspannen dienen. darum gibts bei mir auch kein SLI und nur "safe-oc".

mfg

dildo4u
2007-09-14, 16:55:26
Hatten wa das schon? Ich dachte der neue Opengl Treiber wurde extra für QW verbessert.

Catalyst 7.9 hotfix driver for ET:QW

http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/images/etqw1600.gif

http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/page5.asp

AnarchX
2007-09-14, 16:57:55
Ohne diesen sähe es wohlmöglich noch schlechter aus... ;)

Hier erklärt Dave Baumann von ATi woran es liegt und wie man vielleicht noch mehr Performance bekommt:
http://forum.beyond3d.com/showpost.php?p=1063831&postcount=447

Gast
2007-09-14, 17:02:45
Denn Fr Test von ET Quak wars kann man vergessen.Laut user berichten hat Firingsquad was falsch gemacht.
http://www.forumdeluxx.de/forum/showthread.php?t=392734

dildo4u
2007-09-14, 17:06:41
Ohne diesen sähe es wohlmöglich noch schlechter aus... ;)
[/url]
Aber nach 4 Monaten Treiber Entwicklung gibts immer noch Fälle wie hier mit 1950XTX Speed das kann doch nicht AMDs Ernst sein.

AMC
2007-09-14, 17:07:53
Denn Fr Test von ET Quak wars kann man vergessen.Laut user berichten hat Firingsquad was falsch gemacht.
http://www.forumdeluxx.de/forum/showthread.php?t=392734

Die "Benches" und "Fazits" werden von einem uns hier durchaus bekannten (und hier gesperrten) User durchgeführt, der wirklich eine komplette grün-Blindheit hat! ;D

Zocker28 anyone? :rolleyes:

Tonne!

AMC

Nachtrag: @ Gast: Zocker28@Gastaccount? ;)

Gast
2007-09-14, 17:53:44
Hatten wa das schon? Ich dachte der neue Opengl Treiber wurde extra für QW verbessert.

Catalyst 7.9 hotfix driver for ET:QW

http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/images/etqw1600.gif

http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/page5.asp
Aber natürlich hatten wir das:
http://www.firingsquad.com/hardware/enemy_territory_quake_wars_performance/default.asp

Quake Wars Performance-Test mit G80/R600.

Leider mal wieder eines dieser Spiele, die man auf dem R600 vergessen kann - und das trotz extra Hotfix-Treiber ;(

Gast
2007-09-14, 18:11:22
Die "Benches" und "Fazits" werden von einem uns hier durchaus bekannten (und hier gesperrten) User durchgeführt, der wirklich eine komplette grün-Blindheit hat! ;D

Zocker28 anyone? :rolleyes:

Tonne!

AMC

Nachtrag: @ Gast: Zocker28@Gastaccount? ;)

Nein die Test sind von Eaglyone der eher Nv Boy ist...:)

AMC
2007-09-14, 18:27:00
Nein die Test sind von Eaglyone der eher Nv Boy ist...:)

Lies mal bitte ein paar Seiten weiter, ich hab den Thread so von Ende bis Seite 35 aufgerollt, dann siehst Du, was ich meine. Ferner sind die Bilder und Angaben auf der ersten Seite von zocker28. ;)

AMC

P.S. Wenn Du Dir ansiehst, was dort für Schwachsinn verzapft wird, dann disqualifiziert das den Thread noch mehr. Mein Tipp: Popkorn holen, Bierchen und zurücklehnen, ist echt klasse, was dort für Schlussfolgerungen gefeiert werden. ;)

Gast
2007-09-14, 18:42:00
Lies mal bitte ein paar Seiten weiter, ich hab den Thread so von Ende bis Seite 35 aufgerollt, dann siehst Du, was ich meine. Ferner sind die Bilder und Angaben auf der ersten Seite von zocker28. ;)

AMC

P.S. Wenn Du Dir ansiehst, was dort für Schwachsinn verzapft wird, dann disqualifiziert das den Thread noch mehr. Mein Tipp: Popkorn holen, Bierchen und zurücklehnen, ist echt klasse, was dort für Schlussfolgerungen gefeiert werden. ;)
Wie kann es eigentlich sein, dass im Idle das gleiche System mit der GTS 276 W und mit der HD2900 nur 230 W braucht? Das sind ja 46 W Unterschied und die GTS braucht doch im Idle "nur" 51 W. Wirkungsgrad des Netzteils ist ja bei beiden Messungen drin und dürfte sich auch nur marginal bei den beiden Belastungen verändern, also müsste der Messwert fast 1:1 vergleichbar sein.

AMC
2007-09-14, 19:09:29
Wie kann es eigentlich sein, dass im Idle das gleiche System mit der GTS 276 W und mit der HD2900 nur 230 W braucht? Das sind ja 46 W Unterschied und die GTS braucht doch im Idle "nur" 51 W. Wirkungsgrad des Netzteils ist ja bei beiden Messungen drin und dürfte sich auch nur marginal bei den beiden Belastungen verändern, also müsste der Messwert fast 1:1 vergleichbar sein.

Zum Beispiel. Oder auch so geniale Aussagen von Uncle Zocker (;)): "Der 7.9 Catalyst bringt 190% mehr Geschwindigkeit!". Japp, brachte er dann auch, von 10 fps auf 28. ;D Spezialisten bei der Arbyte (http://www.forumdeluxx.de/forum/showthread.php?t=392734&page=22)

Der gute Zocker schafft angeblich durch im CF auch gemütliche 98% (;D) Geschwindigkeitssteigerung in Bioshock. link (http://www.forumdeluxx.de/forum/showpost.php?p=7034861&postcount=728)

*Popkorn-hol* ;)

AMC

Gast
2007-09-14, 19:17:34
Zum Beispiel. Oder auch so geniale Aussagen von Uncle Zocker (;)): "Der 7.9 Catalyst bringt 190% mehr Geschwindigkeit!". Japp, brachte er dann auch, von 10 fps auf 28. ;D

AMC
PCHG hat es getestet http://www.pcgameshardware.de/?article_id=612514
verstehe die Aufregung hier nicht;-)

AMC
2007-09-14, 19:25:34
PCHG hat es getestet http://www.pcgameshardware.de/?article_id=612514
verstehe die Aufregung hier nicht;-)

Jo, hab ich doch auch gar nicht bezweifelt. Ich finde es nur lustig diese Geschwindigkeitssteigerung als Vorteil der HD2900 (bzw. deren Potential), zu verkaufen! Mal ehrlich: Wer über 300 Euro für eine Grafikkarte ausgibt, die dann angeblich auch High-End sein soll und sich über 10fps -> 28fps freut, muss doch wirklich starke Drogen nehmen. ;). 28 fps...mit einer aktuellen Karte....muss ich mehr sagen? Egal welcher Hersteller und egal welches Spiel: Ich würde auf jeden Fall die rote Karte zeigen! In diesem Fall wohl beidem, der Karte und dem Spiel. 28fps, da brauchen wir nicht zu diskutieren, sind unspielbar. Ferner finde ich es sowieso lächerlich, wie die "DX10"-Titel performen bei gegenüber dem DX9 Renderpfad, unveränderter Bildqualität (bzw. mit der Lupe zu suchenden Unterschieden), egal ob mit einem G80 oder eienr HD2900. :|

AMC

Gast
2007-09-14, 19:34:58
wer sagt bitte das 2900xt Highend ist???

mapel110
2007-09-14, 19:39:18
wer sagt bitte das 2900xt Highend ist???
Die selben Leute, die sagen, dass 8800 GTS 640 und 320 High End sind. Den Standpunkt kann man durchaus vertreten, auch wenn doch ordentlich Leistung zwischen 8800 GTX und GTS liegt.

Gast
2007-09-14, 19:41:57
wer sagt bitte das 2900xt Highend ist???

Bei über 150 Watt Verbrauch im 3D Modus, wäre wohl nur die Bezeichnung "Fehlschlag" noch zutreffender.

The_Invisible
2007-09-14, 19:52:12
wer sagt bitte das 2900xt Highend ist???

vor einem halben jahr hat man hier noch diskutiert um wie viel die 2900xt die 8800gtx flach bügelt.

mfg

Gast
2007-09-14, 20:21:16
hmm

8800gtx/ultra Highend

2900xt/2900pro/8800gts Midrange

~2600/8600 lowend


so seh ich das persönlich und es ist "meine" meinung

AnarchX
2007-09-14, 20:26:19
hmm

8800gtx/ultra Highend

2900xt/2900pro/8800gts Midrange

~2600/8600 lowend


Ein Preis mit über 300€ ist definitiv kein Mid-Range (in den Augen beider Hersteller). ;)
Eher oberes Performance-Segment, bzw. "Vize-High-End"...

Low-End ist auch eher HD2400/<GF8500.

Gast
2007-09-14, 20:35:57
das liegt daran das die karten zurzeit einfach überteuert sind

450€ für ne GTX nach fast einem jahr, nach einem jahr... das sind fast 900DM und ne gts xt 600~€

Was ham die gekostet wie sie frisch rauskamen? nich viel weniger...

naja ich warte lieber bis Januar dann ist das Weihnachtsgeschäft vorbei und die Preise purzeln oder es gibt gleich ne neue Highend graka die wie meine aktuelle auch 2 Jahre hält (ich hoffes es, sonst wird auf Konsole umgestiegen)

Gast
2007-09-14, 20:36:44
ups meinte 600DM xD

laser114
2007-09-14, 20:51:59
Doch, die waren günstiger. Gerade die GTS ist ordentlich gepurzelt, die startete bei 450-500€.

Und trotzdem bleibt die Karte High-End. Was anderes würde mir als Begriff für eine 640 MB-Karte sowohl von der Leistung als auch zum Preis gar nicht anders einfallen. Mittelklasse ist das garantiert nicht.

AnarchX
2007-09-17, 13:12:46
ATi Catalyst 7.9 - Und monatlich grüßt das Murmeltier... (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/1/#abschnitt_einleitung)

Sieht nicht nach den großen Fortschritten aus, die hier so mancher propagiert hat. ;)

=Floi=
2007-09-17, 13:32:43
ach was, mit dem 8.0 kommt der große performancegewinn ;) ;D;D;D

Gast
2007-09-17, 14:37:15
Bei NV hat sich aber auch nicht viel getan :rolleyes:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16367/1/#abschnitt_einleitung

AnarchX
2007-09-17, 14:41:30
Bei NV hat sich aber auch nicht viel getan :rolleyes:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16367/1/#abschnitt_einleitung

Diese liegen ja auch nicht hinten und nichtsdestotrotz sehe ich hier 10%+ Zuwachs, was bei ATi eben nicht der Fall ist.

Gast
2007-09-17, 14:54:46
Wer liegt hinten?

Bei 1600x1200, 4xAA, 16xAF von 18 Benches

7x ATI schneller
5x NV schneller
6x Ausgeglichen

Gast
2007-09-17, 15:02:38
Wer liegt hinten?

Bei 1600x1200, 4xAA, 16xAF von 18 Benches

7x ATI schneller
5x NV schneller
6x Ausgeglichen

Stimmt die nehmen sich beide nichts, wenn es auf der einen ruckelt tut es das auch auf der anderen.

Gast
2007-09-17, 15:25:23
Wer liegt hinten?

Bei 1600x1200, 4xAA, 16xAF von 18 Benches

7x ATI schneller
5x NV schneller
6x Ausgeglichen


Unfassbar, die 2900XT kann endlich mit der 8800GTS mithalten!!

Adam D.
2007-09-17, 16:01:38
Unfassbar, die 2900XT kann endlich mit der 8800GTS mithalten!!
Was erwartest du bei dem Preis?

3DoMan
2007-09-17, 16:27:11
2900XT in neun Spielen deutlich stärker als 8800 GTS, ja fast auf GTX Niveau
hier ein Beispiel zu Medal of Honour: Airborne, 2900XT praktisch gleichauf mit 8800 GTX ;-) Respekt

hier unter DX9
http://www.legionhardware.com/document.php?id=683&p=2

und unter DX10 ist die 2900XT schneller als die 8800GTX ;-)

http://www.legionhardware.com/document.php?id=683&p=3

Ich glaub ich hab mir die falsche Karte gekauft, unter Idle zieht ja die 2900XT deutlich weniger Energie als die 8800er.

J.Rein
2007-09-17, 16:33:28
UE Games liegen der ATI ist bekannt R6V,BS,MOHA,Stranglehold,usw
und es kommen ca. 60 Titel raus die diese Engine nutzen :-)

LovesuckZ
2007-09-17, 16:35:36
JJa, das hast du.
Was sind schon tausende von Spielen, wo die 8800GTX mit AA und AF deutlich schneller ist gegen zwei Spiele mit der Unreal 3 Engine und ohne AA. :rolleyes:

/edit: Ich seh, du hast garkeine GTX. Mein Fehler...

AnarchX
2007-09-17, 16:36:10
und unter DX10 ist die 2900XT schneller als die 8800GTX ;-)

http://www.legionhardware.com/document.php?id=683&p=3


Wohl auch kein AF verwendet. ;)

UE Games liegen der ATI ist bekannt R6V,BS,MOHA,Stranglehold,usw
und es kommen ca. 60 Titel raus die diese Engine nutzen :-)

Aber leider nur solange man kein AA bzw. höhere AF-Stufen einschaltet...

J.Rein
2007-09-17, 16:37:59
Ich glaub ich hab mir die falsche Karte gekauft, unter Idle zieht ja die 2900XT deutlich weniger Energie als die 8800er.
Deutlich weniger ist übertrieben und unter LAST ist es ja auch mehr.
Je nach dem wieviel man Zockt würde ich sagen es ist ausgeglichen.

The_Invisible
2007-09-17, 17:13:57
UE Games liegen der ATI ist bekannt R6V,BS,MOHA,Stranglehold,usw
und es kommen ca. 60 Titel raus die diese Engine nutzen :-)

eher no AA/AF settings liegen der ATI was deren Usern den letzten jahren ja SO wichtig waren

mfg

Gast
2007-09-17, 17:57:48
Ich glaub ich hab mir die falsche Karte gekauft, unter Idle zieht ja die 2900XT deutlich weniger Energie als die 8800er.
Wo steht das? Braucht die wirklich weniger als eine GTS im Idle? Die GTS braucht ja nach laut Xbitlabs um die 57 W, die HD2900 mit den frühen Treibern ca. 71 W.
Also unter 50 W wird AMD die ned gedrückt mit neuen Treibern haben, wenn überhaupt.

3DoMan
2007-09-17, 23:24:28
Wo steht das? Braucht die wirklich weniger als eine GTS im Idle? Die GTS braucht ja nach laut Xbitlabs um die 57 W, die HD2900 mit den frühen Treibern ca. 71 W.
Also unter 50 W wird AMD die ned gedrückt mit neuen Treibern haben, wenn überhaupt.
Doch das haben sie.

Gast
2007-09-17, 23:31:46
ATi Catalyst 7.9 - Und monatlich grüßt das Murmeltier... (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/1/#abschnitt_einleitung)

Sieht nicht nach den großen Fortschritten aus, die hier so mancher propagiert hat. ;)

Das der test Müll ist müsste auch glaubich auch hier schon agekommen sein oder.
(oder zumindest das meiste)

Coda
2007-09-18, 00:00:15
Weshalb ist das so?

Gast
2007-09-18, 13:47:36
Weshalb ist das so?

Sieht man hier z.b.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5853056&postcount=116

AnarchX
2007-09-18, 13:54:00
Dann frag doch mal MechWOLLIer, ob er die das Savegame von diesem Worst-Case schicken kann. ;)

Gast
2007-09-18, 14:20:24
Ich kenn den nicht, aber kann er ruhig hochladen.
Bei CB wurde mit Vista getestet und ich hab XP aber so ein Differenz ?

Gast
2007-09-18, 16:27:05
2900XT in neun Spielen deutlich stärker als 8800 GTS, ja fast auf GTX Niveau
hier ein Beispiel zu Medal of Honour: Airborne, 2900XT praktisch gleichauf mit 8800 GTX ;-) Respekt

wow, wie neu dass die 2900XT ohne FSAA/AF mit der 8800GTX oft mithalten kann.

PCGH_Carsten
2007-09-18, 16:52:30
Sieht man hier z.b.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5853056&postcount=116
Ich traue CB schon durchaus mehr Kompetenz zu als jemandem, der einfach mal so eine Behauptung aufstellt und dessen Kompetenz man mangels Anmeldung und Bekanntheit nicht einmal erahnen kann.

Gast
2007-09-18, 18:07:58
Ist wirklich Asche was CB grade abzieht.Vielleicht sollten die Frmatieren usw...

Gast
2007-09-18, 19:36:49
http://forumdeluxx.com/forum/showthread.php?t=356476&page=306

ab post #9171


hab doch gewusst das was bei denn cb benchs faul ist...




crysis mit ner 2900xt

http://en.hardspell.com/doc/showcont.asp?news_id=1440

seahawk
2007-09-18, 20:15:17
Ich lach mich schief, wenn die X2900XT in Crysis die 800Ultra vernchtet. Die Presse hat sowieos versucht den R600 schlecht zu reden, dabei wird sie ihre wahre Stärke eben erst mit den echten DX10 Spielen zeigen.

Adam D.
2007-09-18, 20:17:56
Ich lach mich schief, wenn die X2900XT in Crysis die 800Ultra vernchtet. Die Presse hat sowieos versucht den R600 schlecht zu reden, dabei wird sie ihre wahre Stärke eben erst mit den echten DX10 Spielen zeigen.
:ulol: Es gibt einfach viel schlecht zu reden. Nicht dass es eine schlechte Karte wär, aber deutliche Schwächen bleiben. Und deine Prognose warten wir dann mal ab ;)

Coda
2007-09-18, 20:19:13
Es gibt dafür technisch keinen Grund. R600 ist bei bestimmten Workloads schnell, das hat mit der API nichts zu tun.

Ein von den Operationen gleicher Shader hat unter D3D10 und D3D9 die gleiche Performance, da kann höchstens der Treiber dazwischenfunken. Das einzig wirklich schnellere auf R6xx sind Vertex- und Geometryshader. Ich habe aber keine speziell große Last darauf im Crysis-Techpaper gesehen. GS-Effekte gibt's soweit ich weiß gar keine.

Bei den derzeitigen D3D10-Spielen hat R600 vor allem den Vorteil, dass kein Anti-Aliasing funktioniert (was auch nichts mit der API sondern mit der verwendeten Rendertechnik zu tun hat). Das ist in Crysis auch nicht der Fall.

"Vernichten" wird R600 G80 in Crysis also auf keinen Fall. Das ist völlig utopisch.

robbitop
2007-09-18, 20:55:31
Ich lach mich schief, wenn die X2900XT in Crysis die 800Ultra vernchtet. Die Presse hat sowieos versucht den R600 schlecht zu reden, dabei wird sie ihre wahre Stärke eben erst mit den echten DX10 Spielen zeigen.
Meinst du das ernst? :|

Gast
2007-09-18, 20:58:56
Ich traue CB schon durchaus mehr Kompetenz zu als jemandem, der einfach mal so eine Behauptung aufstellt und dessen Kompetenz man mangels Anmeldung und Bekanntheit nicht einmal erahnen kann.
Willst du mir etwa ein Fake unterstellen?

Ich würd gerne mal wissen was PCHG beim WIC DX10 bench mit dem 7.9er gemacht hat, ich wette der lief in DX9, denn in DX10 läuft es genauso beschissen wie mit dem 7.8er (190% Lol) ich und andere User können diesen Performancezuwachs nicht bestättigen.

Bei CB und PCHG sind auch nur Menschen die auch fehler machen, keiner ist Perfekt ;-)

Nicht persönlich nehmen

dildo4u
2007-09-18, 21:31:02
Ich lach mich schief, wenn die X2900XT in Crysis die 800Ultra vernchtet. Die Presse hat sowieos versucht den R600 schlecht zu reden, dabei wird sie ihre wahre Stärke eben erst mit den echten DX10 Spielen zeigen.
Nvidia arbeitet schon seit 2000 mit Crytek zusammen um auf NV Hardware zu optemieren sieht also eher schlecht aus mit einem ATI Comeback bei Crysis.

http://www.gametrailers.com/player/25010.html

Gast
2007-09-18, 21:45:23
Ich lach mich schief, wenn die X2900XT in Crysis die 800Ultra vernchtet. Die Presse hat sowieos versucht den R600 schlecht zu reden, dabei wird sie ihre wahre Stärke eben erst mit den echten DX10 Spielen zeigen.

Ich glaube AMD/ATI lachen über ihren Fehlschlag R600 nicht mehr. Da lacht allenfalls noch Nvidia.

Adam D.
2007-09-18, 21:52:18
Nvidia arbeitet schon seit 2000 mit Crytek zusammen um auf NV Hardware zu optemieren sieht also eher schlecht aus mit einem ATI Comeback bei Crysis.
Wenn der R600 architektonisch bevorteilt ist, dann kann er trotzdem schneller sein - auch wenn Nvidia optimiert wie Sau. Keine Ahnung ob es so ist, aber TWIMTBP ist nicht alles.

Gast
2007-09-18, 21:52:28
Nvidia arbeitet schon seit 2000 mit Crytek zusammen um auf NV Hardware zu optemieren sieht also eher schlecht aus mit einem ATI Comeback bei Crysis.

http://www.gametrailers.com/player/25010.html
Nvidia Arbeitet mit jeden Spiel zusammen.;)Mit Far Cry hat Nvidia auch zusammen gearbeitet.....
Verstehst du was ich meine?

AnarchX
2007-09-18, 21:56:24
Nur scheint aber im Fall Crysis NV auch ein paar Mitarbeiter abdeligiert zu haben und nicht wie sonst bei den meisten TWIMTP-Games einfach nur eine große Anzahl an Testkonfiguration bereitzustellen für Kompatibilitätstests.

Coda
2007-09-18, 21:58:49
Dazu sei auch gesagt, dass ATis Dev-Support-Program einfach ein Witz ist.

Sie haben also einfach auch Pech gehabt, schließlich zahlen wir das bei nVIDIA indirekt auch durch die Karten mit.

Adam D.
2007-09-18, 22:00:29
Nur scheint aber im Fall Crysis NV auch ein paar Mitarbeiter abdeligiert zu haben und nicht wie sonst bei den meisten TWIMTP-Games einfach nur eine große Anzahl an Testkonfiguration bereitzustellen für Kompatibilitätstests.
Kein Wunder - Crysis wird DAS Aushängeschild für die nächste Zeit sein. Wer den Kampf hier gewinnt, gewinnt verdammt viel Prestige.

Gast
2007-09-18, 22:44:06
Willst du mir etwa ein Fake unterstellen?
Ich will gar nichts unterstellen, kenne Wolfgang Andermahr von Computerbase jedoch - dich/J.Rein dagegen nicht. Von daher kann ich deine/seine Kompetenz nicht einschätzen und solange ich das nicht kann halte ich mich erstmal daran, was ich einschätzen kann.

Ich würd gerne mal wissen was PCHG beim WIC DX10 bench mit dem 7.9er gemacht hat
Frag halt Raff - der läuft hier ja auch rum. Und dem traue ich auch mehr Kompetenz zu als dir, weil ich ihn eben auch kenne. :)

PCGH_Carsten

Gast
2007-09-18, 23:17:29
Nvidia Arbeitet mit jeden Spiel zusammen.;)Mit Far Cry hat Nvidia auch zusammen gearbeitet.....
Verstehst du was ich meine?
Wenn alle Games auf Nvidia Karten besser laufen würden, dann gäbe es ATI nicht mehr. Verstehst du was ich meine?
Es gibt sehr viele "NV Games" die auf ATI`s besser liefen.....

Gast
2007-09-18, 23:28:18
stellt euch mal eine welt ohne ati vor :D

was würde dann eine 8800gtx kosten?

wie würde dann AA und AF ausehen?

usw. xD

naja basht ruhig weiter

Coda
2007-09-18, 23:32:31
AF wäre ohne ATi wohl niemals so mieserabel gewesen wie es eine Zeit lang war. Beim AA geb ich dir recht, da wäre die Entwicklung wohl eher langsamer gegangen.

seahawk
2007-09-19, 07:06:13
Meinst du das ernst? :|

Ja, spätestens wenn beide Kartne nicht mehr die Power für AA+AF haben, wird sich das Bild drehen. Es muss nicht Crysis sein, aber insgesamt erwarte ich in Spielen, bei denen DX10 nicht aufgesetzt ist, einen Sieg der R600.

AnarchX
2007-09-19, 08:40:59
Ja, spätestens wenn beide Kartne nicht mehr die Power für AA+AF haben, wird sich das Bild drehen.

Nur wird das beim G80 wohl deutlich später sein, wir reden ja von einem Faktor 2-3 bei der theoretischen Texelleistung und FF-AA gegen halbes Shader-AA bei dem wohl die Farbkompression nicht geht.

Und zukünftige Games werden wohl gleich den arithmetischen Anforderungen auch die Anforderung an die andere Teilleistungen steigern -> Soft-Shadows.

robbitop
2007-09-19, 09:03:30
Ja, spätestens wenn beide Kartne nicht mehr die Power für AA+AF haben, wird sich das Bild drehen. Es muss nicht Crysis sein, aber insgesamt erwarte ich in Spielen, bei denen DX10 nicht aufgesetzt ist, einen Sieg der R600.
Dafuer sehe ich keinen einzigen technischen Grund. Hilf mir bitte auf die Spruenge. ;)

Gast
2007-09-19, 09:06:39
470 vs. 345

mapel110
2007-09-19, 11:06:20
Dafuer sehe ich keinen einzigen technischen Grund.
Den hat auch keiner bei der Geforce FX gesehen. :rolleyes:
Ich finde, man kann schon der Meinung sein wie Seahawk. Nur gibts dafür derzeit recht wenig Indizien.

LovesuckZ
2007-09-19, 11:17:12
Ich finde, man kann schon der Meinung sein wie Seahawk. Nur gibts dafür derzeit recht wenig Indizien.

Zur Zeit ist aber der r600 die FX Karte... ;)

up¦²
2007-09-19, 11:41:54
Sorry, falls schon bekannt, aber: interessant!
EXCLUSIVE - AMD FIREGL V7600 Professional Graphic's Card Review (http://www.3dprofessor.org/Reviews%20Folder%20Pages/FireGLV7600/V7600Pt1.htm)
Da liegt Ati ja blendend im Rennen!

Cpl. Dwayne Hicks
2007-09-19, 11:42:29
Zur Zeit ist aber der r600 die FX Karte... ;)
Man kanns auch uebertreiben... :rolleyes:

Dr.Dirt
2007-09-19, 12:02:37
Zur Zeit ist aber der r600 die FX Karte... ;)
Nein, bei der R600 sind die Schwächen jetzt schon bekannt, bei der FX wurden sie erst später aufgedeckt.

Außerdem wurde hier ja vermutet, daß sich später erst die Stärken der R600 zeigen werden, also eine "inverse FX". :D

seahawk
2007-09-19, 12:17:31
In the past NVIDIA just about cleared the board here with the full remit of “Editors Choice” awards for their new Professional Graphic Cards. Now the FireGL Team are starting to dominate the board. How times have changed, and it’s very difficult to believe this could happen seeing the roles being completely reversed.

As dem Review der Fire GL. Ähnliches ist durchaus auch im Spielesektor denkbar.

Gast
2007-09-19, 12:40:28
Nein, das ist natürlich nicht denkbar, weil die Anforderungen von Spielen und CAD Software komplett verschieden sind.

mapel110
2007-09-19, 12:49:45
Nein, das ist natürlich nicht denkbar, weil die Anforderungen von Spielen und CAD Software komplett verschieden sind.
Jo, man denke nur an 3Dlabs, die zwar im CAD-Bereich sehr gut waren, aber bei Spieleperformance total versagt haben.

Ailuros
2007-09-19, 12:50:04
Ich lach mich schief, wenn die X2900XT in Crysis die 800Ultra vernchtet. Die Presse hat sowieos versucht den R600 schlecht zu reden, dabei wird sie ihre wahre Stärke eben erst mit den echten DX10 Spielen zeigen.

Crysis ist aber leider kein D3D10 Spiel; es ist und bleibt ein reines D3D9.0 Spiel.

Von dem abgesehen, hat die Presse inwiefern "versucht" ein Produkt schlecht zu reden wenn sich dieses wohl eher schwer gegen die Konkurrenz behaupten konnte. Natuerlich handelt es sich um eine globale Konspiration und die gesamte Presse hat alle Benchmarks fuer die R600 verfaelscht oder?

Wenn die wahren ersten D3D10 Spiele kommen, darfst Du wetten dass zukuenftige IGPs der Zukunft schneller sein werden als jegliche R600/G80.

Ailuros
2007-09-19, 12:58:27
Ja, spätestens wenn beide Kartne nicht mehr die Power für AA+AF haben, wird sich das Bild drehen. Es muss nicht Crysis sein, aber insgesamt erwarte ich in Spielen, bei denen DX10 nicht aufgesetzt ist, einen Sieg der R600.

Wenn einer G80 die Puste fuer 4xAA/16xAF ausgeht, dann rettet Dir das Ausschalten von AF erstmal gar nichts und das Ausschalten von 4xAA gibt Dir dann auch nicht mehr die Spielbarkeit zurueck.

Eine einzige Moeglichkeit fuer Deine "Vorhersehung" waere eigentlich nur wenn AMD alle ISVs dazu ueberreden koennte fuer GFs auf SW-MSAA ala Call of Juarez/D3D10 path zu gehen.

Coda
2007-09-19, 13:01:55
Eine einzige Moeglichkeit fuer Deine "Vorhersehung" waere eigentlich nur wenn AMD alle ISVs dazu ueberreden koennte fuer GFs auf SW-MSAA ala Call of Juarez/D3D10 path zu gehen.
Ich glaube kaum, dass das der Grund ist warum Call of Juarez so schlecht auf G8x läuft ggü. R6xx. Ich hab grad keine Monitoring-Driver drauf, sonst könnte man da mal nachhaken ;)

Custom-Downfilter sind bei HDR eigentlich nötig.

Coda
2007-09-19, 13:03:31
Ja, spätestens wenn beide Kartne nicht mehr die Power für AA+AF haben, wird sich das Bild drehen. Es muss nicht Crysis sein, aber insgesamt erwarte ich in Spielen, bei denen DX10 nicht aufgesetzt ist, einen Sieg der R600.
Ich wiederhole mich ungern: Es gibt kein "magisches" D3D10-Feature. Es wird mit den gleichen Recheneinheiten gerechnet wie bei D3D9 auch.

Ein D3D10-Programm dass 16 Texturlagen pro Pixel samplet wird auf G8x immer schneller laufen als auf R6xx, genauso wie eines das reine Geometrielast erzeugt auf R6xx schneller laufen wird. Das ist völlig unabhängig von der API. ATi kann höchstens darauf hoffen dass sich die Last in Zukunft verschiebt.

Und das mit D3D10 "aufsetzen" ist auch Käse. Was wir jetzt haben sind schon reine D3D10-Engines - es geht gar nicht anders.

dildo4u
2007-09-19, 13:09:00
Ja, spätestens wenn beide Kartne nicht mehr die Power für AA+AF haben, wird sich das Bild drehen. Es muss nicht Crysis sein, aber insgesamt erwarte ich in Spielen, bei denen DX10 nicht aufgesetzt ist, einen Sieg der R600.
Bis dahin gibts schon die übernäste Generation(G100?) Ende 2008 vorher wirds keine "reinen" DX10 Games geben und der R600 wär wie der G80 eh zu schwach für diese Games mit High-Details.

StefanV
2007-09-19, 13:41:08
Nein, bei der R600 sind die Schwächen jetzt schon bekannt, bei der FX wurden sie erst später aufgedeckt.
Nein, die Schwächen der FX Serie waren schon kurz nach Erscheinen bekannt, es wurd nur versucht das ganze wegzureden und kleinzudiskutieren, weil spielt ja keine Rolle und so, bekannt wars aber schon sehr früh.

robbitop@uni
2007-09-19, 13:44:47
Den hat auch keiner bei der Geforce FX gesehen. :rolleyes:

Natuerlich hat man den gesehen. Ich empfehle dir, den CineFX Artikel zu lesen.

robbitop@yahoo.de
2007-09-19, 13:48:29
Nein, die Schwächen der FX Serie waren schon kurz nach Erscheinen bekannt, es wurd nur versucht das ganze wegzureden und kleinzudiskutieren, weil spielt ja keine Rolle und so, bekannt wars aber schon sehr früh.
In der Tat spielte Shaderleistung zu Lebzeit der NV30 keine grosse Rolle. (ok einige ganz wenige Spiele mal ausgenommen wie zB Tomb Raider)
Die Radeon konnte sich zusätzlich in MT-Spielen durch das "guenstige" AF (die Qualitaet interessierte damals eher weniger) noch gut nach vorne ziehen.

Ailuros
2007-09-19, 14:21:21
Und das mit D3D10 "aufsetzen" ist auch Käse. Was wir jetzt haben sind schon reine D3D10-Engines - es geht gar nicht anders.

Ansichtssache IMHLO. Ein D3D10 path auf einer reinen D3D9.0 engine, transformiert auch nicht sofort ein Spiel in ein D3D10 Spiel.

So oder so bringt aber jegliche aehnliche Haarspalterei sowieso nichts. Viel wichtiger ist welcher der beiden IHVs die meisten ISVs ueberreden kann Architektur A oder B als Entwicklungs-Plattform zu waehlen fuer die "wahren" D3D10 Spiele der Zukunft.

NVIDIA hat hier nicht nur einen >6-monatigen Vorsprung was die Verfuegbarkeit der G80 betrifft, aber investiert viel mehr Resourcen fuer DevRel. Auf die zwei Kleinigkeiten sollte sich AMD am meisten konzentrieren in der Zukunft. Execution and Developer Relations.

Coda
2007-09-19, 14:48:59
Ansichtssache IMHLO. Ein D3D10 path auf einer reinen D3D9.0 engine, transformiert auch nicht sofort ein Spiel in ein D3D10 Spiel.
Von der API her schon. Er tut ja grad so als wäre es D3D9 mit irgendwelchen D3D10-Calls dazu weshalb die R6xx nicht schnell ist.

Es ist reines D3D10 bei jedem D3D10-Spiel und allein das sagt dass R6xx nicht automatisch mit D3D10 schneller wird.

The_Invisible
2007-09-22, 17:04:41
ATi Catalyst 7.9
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/

also langsam sollte sich da mal was tun wenn die schlechte aa/af performance wirklich nur ein treiberbug ist

mfg

Coda
2007-09-22, 17:10:02
Die AF-Performance ist sicher kein Treiberbug mit nur 16 TMUs.

_DrillSarge]I[
2007-09-22, 18:12:20
haben die zusätzlichen 16 point-sample tmus eigentlich bisher irgendeinen vorteil gebracht? (bei shadow-mapping usw?) die müssten die 16 tmus doch entlasten oder?

chiller
2007-09-22, 19:06:25
ATi Catalyst 7.9
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_79/

also langsam sollte sich da mal was tun wenn die schlechte aa/af performance wirklich nur ein treiberbug ist

mfg

schau mal #562 :wink:

Gast
2007-09-23, 08:35:26
I[;5864882']haben die zusätzlichen 16 point-sample tmus eigentlich bisher irgendeinen vorteil gebracht? (bei shadow-mapping usw?) die müssten die 16 tmus doch entlasten oder?

Die bringen eher was beim FSAA - so komisch sich das jetzt auch anhört. Aber damit kannst du die Samples von vier Pixeln zusätzlich laden, was die 16 normalen TMUs entlastet.

robbitop
2007-09-23, 13:42:27
I[;5864882']haben die zusätzlichen 16 point-sample tmus eigentlich bisher irgendeinen vorteil gebracht? (bei shadow-mapping usw?) die müssten die 16 tmus doch entlasten oder?
Ich glaub die sind derzeit hauptsaechlich fuer Vertexfetches da.

Gast
2007-09-25, 11:15:11
HD2900 Pro

http://www.pcgameshardware.de/?article_id=614326

übertaktet der preisleistungskracher!

Odal
2007-09-25, 11:28:07
schon was über den stromverbrauch bekannt? und ob die eventuellen "bugs" bzgl. AA und Farbkompression beseitigt wurden? Ist die auch 80nm oder 65nm?

Könnte meine nächste Karte werden :D ATI scheint mit der Pro ja mal wieder richtig zuzuschlagen

AnarchX
2007-09-25, 11:28:45
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=381755

The_Invisible
2007-09-25, 11:36:23
schon was über den stromverbrauch bekannt? und ob die eventuellen "bugs" bzgl. AA und Farbkompression beseitigt wurden? Ist die auch 80nm oder 65nm?

Könnte meine nächste Karte werden :D ATI scheint mit der Pro ja mal wieder richtig zuzuschlagen

bug scheint nicht behoben da die xt bei den benchmarks hinter der gts und die pro hinter der xt ist. außerdem kann man ne gts auch übertakten.

btw
ob das wirtschaftlich für amd ist würde mich auch interessieren, vor allem wenn sie tatsächlich ein 512bit speicherinterface abbegkommen was eh nix zu bringen scheint.

mfg

Odal
2007-09-25, 12:25:29
ähm wo ist eine HD2900XT im schnitt hinter einer 8800GTS? LÜGE sag ich da...sie liegt leicht vor einer 8800GTS...

eine 8800GTS kostet 320€.....

wenn die 2900Pro nur 200-220€ kostet und im default zustand nur etwas hinter einer 8800GTS liegt ist das sehrwohl der PreisLeistungshammer....da sie problemlos auf 2900XT übertaktbar sein soll ist das nochmals ein pluspunkt...

ob sich das für AMD/ATI rentiert ist mir persönlich als kunde ziemlich latte.....wobei ich da eher der meinung bin das es dann da die masse macht....

ähnlich schon mit der X1950Pro welche zu Dumpingpreisen erhältlich war..nur das fast jeder der damals kein highend kauft sondern ne klasse drunter sich ne X1950Pro aufgrund der PreisLeistungsdaten in die Kiste gesteckt hat....

wenn genug verkauft werden, weil es ein attraktives angebot ist rentiert sich ein produkt auch bei niedrigerer gewinnspanne

Mr.Fency Pants
2007-09-25, 12:34:19
Das hört sich ja alles erst mal toll an, trotzdem bin ich da noch skeptisch, ob die Karte wirklich bei etwa 200€ landen wird, wenn ja, wär das wirklich der Knüller, dann würden auch die 8800GTS Preise sinken und es käme wieder etwas Bewegung in den Grakamarkt.

Gast
2007-09-25, 12:42:18
Solange die GTS schneller ist als die Pro besteht kein Anlass die Preise zu senken, das P/L-Verhältnis der GTS war schon immer top.

Mr.Fency Pants
2007-09-25, 12:45:29
Wenn die Pro aber sehr nah rankommt und übertaktet ggfs. schneller ist, besteht sehr wohl Grund die Preise zu senken, besonders bei der 320MB Version.

Gast
2007-09-25, 12:46:04
http://img516.imageshack.us/img516/8832/llbe2.jpg (http://imageshack.us)

http://www.guru3d.com/article/Videocards/459/

The_Invisible
2007-09-25, 12:52:41
ähm wo ist eine HD2900XT im schnitt hinter einer 8800GTS? LÜGE sag ich da...sie liegt leicht vor einer 8800GTS...

eine 8800GTS kostet 320€.....

wenn die 2900Pro nur 200-220€ kostet und im default zustand nur etwas hinter einer 8800GTS liegt ist das sehrwohl der PreisLeistungshammer....da sie problemlos auf 2900XT übertaktbar sein soll ist das nochmals ein pluspunkt...

ob sich das für AMD/ATI rentiert ist mir persönlich als kunde ziemlich latte.....wobei ich da eher der meinung bin das es dann da die masse macht....

ähnlich schon mit der X1950Pro welche zu Dumpingpreisen erhältlich war..nur das fast jeder der damals kein highend kauft sondern ne klasse drunter sich ne X1950Pro aufgrund der PreisLeistungsdaten in die Kiste gesteckt hat....

wenn genug verkauft werden, weil es ein attraktives angebot ist rentiert sich ein produkt auch bei niedrigerer gewinnspanne

ok, wenn man nur die aa/af werte ansieht kann man sich darüber streiten.

dem kunden ist es sicher egal, aber da amd nicht gerade in bester finanzieller position ist und nvidia schon fast 1 jahr mit der 8x00er absahnt sollte man sich auch für die zukunft gedanken machen.

wie dem auch sei, konkurrenz ist immer gut, vielleicht fallen dann ja endlich mal die preise der 8800er karten.

mfg

deekey777
2007-10-20, 12:15:23
Gibt es eigentlich ein Treiberreview, indem es explizit auf CFAA-Leistung/-Qualität seit dem Start eingegangen wird?

Gast
2007-10-20, 12:40:03
Ich fürchte leider nicht. :(

Gast
2007-10-20, 14:47:27
Gibt es eigentlich ein Treiberreview, indem es explizit auf CFAA-Leistung/-Qualität seit dem Start eingegangen wird?

Wie krieg man dieses CFAA überhaupt aktiviert?Ist das Narrow tent,wide tent oder Edge Detect=?

Coda
2007-10-20, 14:50:18
Ja.

Gast
2007-10-20, 14:57:28
Ja.

Und welches von den 3 genau?

mapel110
2007-10-20, 14:59:15
Und welches von den 3 genau?
alle 3 ^^
http://www.beyond3d.com/content/reviews/47
für Englischkundige

Gast
2007-10-20, 15:07:59
Hier ein kleiner vergleich zwischen den AA Modi.
4AA http://img3.imagebanana.com/img/dygr59t/4aa.jpg (http://img3.imagebanana.com/)
edge detect http://img3.imagebanana.com/img/mq1idyfa/edge.jpg (http://img3.imagebanana.com/)
narrow tent http://img3.imagebanana.com/img/oh2vt7e4/narrow.jpg (http://img3.imagebanana.com/)
wide tent http://img3.imagebanana.com/img/bkzuuno/wide.jpg (http://img3.imagebanana.com/)

Ich sehe da nicht wirklich ein unterschied.Könnt ihr da was erkennen?

Gast
2007-10-20, 15:11:18
Ist auch was klein die Auflösung;)

Gast
2007-10-20, 15:16:33
Ok werde gleich größere Screens machen.

Gast
2007-10-20, 15:44:52
Vielleicht habe ich auch ne Falsche Szene genommen.Kann kein unterschied erkennen.Die FPS sind alle ungefähr gleich.
http://img109.imagevenue.com/loc1060/th_88027_8aa_123_1060lo.jpg (http://img109.imagevenue.com/img.php?image=88027_8aa_123_1060lo.jpg)http://img130.imagevenue.com/loc469/th_88035_narrow_123_469lo.jpg (http://img130.imagevenue.com/img.php?image=88035_narrow_123_469lo.jpg)http://img104.imagevenue.com/loc1102/th_88042_wide_123_1102lo.jpg (http://img104.imagevenue.com/img.php?image=88042_wide_123_1102lo.jpg)http://img44.imagevenue.com/loc672/th_88046_edge_123_672lo.jpg (http://img44.imagevenue.com/img.php?image=88046_edge_123_672lo.jpg)

Das Auge
2007-10-20, 16:45:56
Wir listen obenstehend von den CFAA-Modi aber nur die höchste Variante mit "Edge Detection" auf, da die darunterliegenden Varianten mit "Narrow Tent" (benutzt aus den vier umliegenden Pixeln jeweils ein Sample) und "Wide Tent" (benutzt aus den vier umliegenden Pixeln jeweils zwei Samples) in dem Sinne Blurfilter (Weichzeichner ähnlich nVidias Quincunx) sind, was nicht dem Grundgedanken von Anti-Aliasing entspricht.

Im ati Subforum hat eine User die AA-Modi auch noch mal näher erläutert, allerdings finde ich den Thread ums verrecken nicht mehr.
Narrow/Wide Tent ist also eigentlich nicht empfehlenswert, höchstens wenn ein Spiel sowieso Matschtexturen hat.

horn 12
2007-10-20, 16:50:33
So an alle Zweifler!:eek:
NEUER Testbericht zur HD 2900XT mit dem Cat 7.10
und als Konkurrenz die 8800 GTS/ GTX.

http://www.hardware-infos.com/tests.php?test=28&seite=1

PS:
So schlecht ist die Karte dennoch nicht im Vergleich sogar zur GTX.

mapel110
2007-10-20, 16:57:35
ForceWare 162.18 (nVidia) (26 Juli kam der raus, na sowas von lol, 5.7.2007 hier im Forum verlinkt)
Lohnt schon gar nicht weiterzulesen mit so einem Asbachtreiber.

Wie haben die bei Stalker AA eingeschaltet? Wohl keine Maxdetails? Kann aber nicht sein, weil fps so mies. :uponder:

ChristianTHB
2007-10-20, 17:44:48
Also ich darf mir die nächste Woche nix mehr mit 2900 Pro/XT anschaun. Jedesmal werd ich dazu hingerissen, mir gleich ne 2900 Pro zu bestellen.
Will aber eigentlich noch auf die 8800 GT warten.

edit:Aso...auf den Treiber hab ich jetzt garned gschaut (selber hau). Was haben die sich wohl dabei gedacht...wohl paar ATi FBs

Gast
2007-10-20, 17:49:23
Also ich darf mir die nächste Woche nix mehr mit 2900 Pro/XT anschaun. Jedesmal werd ich dazu hingerissen, mir gleich ne 2900 Pro zu bestellen.
Will aber eigentlich noch auf die 8800 GT warten.

Von WAS wirst du denne immer hingerissen? Von solchen links von horn 12?

@mapel110 hat eigentlich schon alles gesagt.

Mr. Lolman
2007-10-20, 18:14:37
So. Ich hab mir jetzt mal ne 1GB 2900 Pro um 261€ bestellt. Mal sehen, ob die auch ankommt. :naughty:

deekey777
2007-10-20, 18:18:18
So. Ich hab mir jetzt mal ne 1GB 2900 Pro um 261€ bestellt. Mal sehen, ob die auch ankommt. :naughty:
Gibt es eigentlich ein Treiberreview, indem es explizit auf CFAA-Leistung/-Qualität seit dem Start eingegangen wird?
Doppel-:naughty:

Raff
2007-10-20, 18:18:56
Logisch wird sie, das Ding ist kein Phantom ... nur nicht so zahlreich vertreten. ;)

MfG,
Raff

Gast
2007-10-20, 18:23:23
ForceWare 162.18 (nVidia) (26 Juli kam der raus, na sowas von lol, 5.7.2007 hier im Forum verlinkt)
Lohnt schon gar nicht weiterzulesen mit so einem Asbachtreiber.

Wie haben die bei Stalker AA eingeschaltet? Wohl keine Maxdetails? Kann aber nicht sein, weil fps so mies. :uponder:


Egal,weil man trotzdem sehen kann das die X2900 XT für denn Preis keine schlechte Karte ist.;)

Raff
2007-10-20, 18:26:07
Egal,weil man trotzdem sehen kann das die X2900 XT für denn Preis keine schlechte Karte ist.;)

Im Vergleich zur kleinen Schwester Pro ist sie das. AMD hat sich damit meiner Meinung nach ins eigene Fleisch geschnitten. Wer kauft noch eine XT für ~320€, wenn man für 60€ weniger schon eine Pro mit 1 GB bekommt?

MfG,
Raff

Blutmaul
2007-10-20, 18:40:13
Im Vergleich zur kleinen Schwester Pro ist sie das. AMD hat sich damit meiner Meinung nach ins eigene Fleisch geschnitten. Wer kauft noch eine XT für ~320€, wenn man für 60€ weniger schon eine Pro mit 1 GB bekommt?

MfG,
Raff

Hm, wenn man so die Hardwarestatistiken anschaut, dann geht die XT nicht wiklrich gut und es gibt einfach keine Kannibalisierung, gegen ein "totes" Produkt.

Abgesehn davon - ich kauf beide nicht ;)

mapel110
2007-10-20, 19:02:21
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_2.html#sect0
Was bringen eigentlich die 1 GB Ram auf dem Ding?
Ich seh da nix, was da deutlich besser wäre. Gibts irgendwelche besondere Zahlen dazu?

Gast
2007-10-20, 19:37:29
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_2.html#sect0
Was bringen eigentlich die 1 GB Ram auf dem Ding?
Ich seh da nix, was da deutlich besser wäre. Gibts irgendwelche besondere Zahlen dazu?
Die bringen immer dann viel, wenn die Daten für 512 MiByte zu groß werden - wie bei allen 512/1024 MiByte vergleichen. Reichen 512 MiByte aus, bringen sie logischerweise nichts.

Turpin
2007-10-21, 05:10:48
So. Ich hab mir jetzt mal ne 1GB 2900 Pro um 261€ bestellt. Mal sehen, ob die auch ankommt. :naughty:

Da gibts besseres fürs Geld:
http://www.nvnews.net/vbulletin/showthread.php?t=100717

Mr. Lolman
2007-10-21, 10:23:59
Da gibts besseres fürs Geld:
http://www.nvnews.net/vbulletin/showthread.php?t=100717

Die Bishockergebnisse find ich etwas befremdlich, ist doch die 512MB 2900 pro in manchen Szenen nur halb so schnell, wie erwartet. ;(

Naja. Nen G8x hab ich eh in der Arbeit und Benchmarks hab ich eh nicht vor zu machen. Um ~260€ ist ne GraKa mit 1GB RAM jedenfalls konkurrenzlos günstig und eigentlich hab ich mir das Ding ohnehin nur für BQ-Tests gekauft. Gefällt sie mir, bleibt sie im Rechner. Ansonsten verkauf ich sie, und bau mir wieder die 1900XTX ein, die für 1280x1024 eigentlich in jedem bisherigen Spiel noch ausreichend Leistung hat-

Mumins
2007-10-21, 12:23:44
Was erwartet ihr von so nem Fanboy-Forum wie NVNews?

Gast
2007-10-21, 12:27:32
Da gibts besseres fürs Geld:
http://www.nvnews.net/vbulletin/showthread.php?t=100717
Die 320er ist doch total beschnitten durch den kleinen Vram, ich würde da die 1Gb Pro immer vorziehen.

Gast
2007-10-21, 12:42:02
Was erwartet ihr von so nem Fanboy-Forum wie NVNews?

Und warum sollten die Werte weniger richtig sein als die von Mr.Lolman?

LovesuckZ

Gast
2007-10-21, 13:17:28
Die Bishockergebnisse find ich etwas befremdlich, ...

Ja. Ein wunder das der n4p nicht neben VSync und Global Lighting nicht auch noch den Windowed-Mode auf "on" gestellt hat.
Typischer Fall von "alles on, Gehirn off".

Nakai
2007-10-21, 13:24:12
Und warum sollten die Werte weniger richtig sein als die von Mr.Lolman?

Weil da NV-News in der URL drinsteht...;)


mfg Nakai

deekey777
2007-10-21, 13:44:52
Weil da NV-News in der URL drinsteht...;)


mfg Nakai
Eher weil man Lolman mehr vertrauen schenken kann.

AMC
2007-10-21, 14:08:51
Eher weil man Lolman mehr vertrauen schenken kann.

:ugly:

Naja. Nen G8x hab ich eh in der Arbeit und Benchmarks hab ich eh nicht vor zu machen.

Soviel also dazu, einen Artikel R600 vs. G80 BQ zu schreiben. Wie sagtest Du noch im 2900Pro Review Thread:klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5938446&postcount=588) "Nen G80 hab ich mittlerweile". Auf der Arbeit ist aber was ganz anderes, als Du es hast verstanden wissen wollen. :rolleyes: Wie kann man sich nur so konsequent gegen die GTS/GTX stellen? Es ist Dein Geld, auch wenns 261€ schlecht investierte Euro sind, für das gebotene.

AMC

Nakai
2007-10-21, 14:15:25
Eher weil man Lolman mehr vertrauen schenken kann.

Ich ging von Lovesucks seinem Standpunkt aus. ;)

Lolmann Vertrauen schenken mach ich eh.


mfg Nakai

Gast
2007-10-21, 14:20:37
Weil da NV-News in der URL drinsteht...;)
mfg Nakai

Und?

LovesuckZ

Mumins
2007-10-21, 15:06:15
Dein Geld, auch wenns 261€ schlecht investierte Euro sind, für das gebotene.


So, was gibt es denn besseres für 261 €? Eine 320MB GTS mit Vram Bug, ganz toll, wenn einem der RAM ausgeht.

Nakai
2007-10-21, 15:16:16
Und?

LovesuckZ

Naja dich würde das nicht stören, jedoch würde ich keine Informationen von dieser Seite für voll nehmen. Naja es gab bis jetzt kaum eine seriöse Info von solche Fansites.

Achja, da ich aber Gäste ignoriere sehe ich Postings von Forenmitgliedern als Gäste auch nicht. Bei mir wird immer nur eine Nachricht angezeigt, dass ein Gast gepostet hat. Wenn du schon als Gast auf meine Behauptungen eingehst(damit meine ich jedes Forenmitglied) solltest du als Gast deinen Namen auch ändern.


mfg Nakai

Blaire
2007-10-21, 15:42:59
Naja dich würde das nicht stören, jedoch würde ich keine Informationen von dieser Seite für voll nehmen. Naja es gab bis jetzt kaum eine seriöse Info von solche Fansites.


Warum nicht? Gibt doch genug andere Sites die ähnliche Ergebnisse erreicht haben. Das ist ein Usertest so wie ich das sehe nur weil es auf nvnews steht ist es gleich ein Fake?

Mumins
2007-10-21, 15:50:19
Warum nicht? Gibt doch genug andere Sites die ähnliche Ergebnisse erreicht haben. Das ist ein Usertest so wie ich das sehe nur weil es auf nvnews steht ist es gleich ein Fake?

Wieso Fake? FRAPS ist sowieso denkbar ungeeignet ordentliche Ergebnisse zu bekommen.

Nakai
2007-10-21, 16:06:37
Warum nicht? Gibt doch genug andere Sites die ähnliche Ergebnisse erreicht haben. Das ist ein Usertest so wie ich das sehe nur weil es auf nvnews steht ist es gleich ein Fake?

Hab ich was von Fake gesagt!?

Nein, mir gehts einfach darum, dass in solche Seiten bestimmt kein Neutrales Urteilsvermögen herrscht.

mfg Nakai

Blaire
2007-10-21, 16:22:48
Nein, mir gehts einfach darum, dass in solche Seiten bestimmt kein Neutrales Urteilsvermögen herrscht.


Also gleich alle Sites schließen steht eh überall nur Mist? :rolleyes:

Mumins
2007-10-21, 16:23:22
Wenn die Conclusion ist: GTS rules, dann sagt das schon alles. Außerdem hat er schön die Schwäche der 320MB GTS umschifft, da er nur in 1280x1024 gebencht hat.

Gast
2007-10-21, 16:31:46
man kann sich alles schön reden...

Nakai
2007-10-21, 16:32:18
Also gleich alle Sites schließen steht eh überall nur Mist?

Ich meinte nur solche Fansites.

mfg Nakai

Gast
2007-10-21, 16:38:15
Warum nicht? Gibt doch genug andere Sites die ähnliche Ergebnisse erreicht haben. Das ist ein Usertest so wie ich das sehe nur weil es auf nvnews steht ist es gleich ein Fake?

Genau.
http://www.hardware-infos.com/tests.php?test=28

The_Invisible
2007-10-21, 19:42:40
Genau.
http://www.hardware-infos.com/tests.php?test=28

komisch das der r600 gerade bei bioshock so abfällt. wem kann man jetzt trauen?

laut lolman ist die ja fast doppelt so schnell wie ne gts ;D

mfg

Nakai
2007-10-21, 19:56:01
Der Hardwareinfos-Test finde ich etwas komisch.

Das der R600 so schnell in Stalker und Anno1701 glaube ich nicht.

mfg Nakai

Gast
2007-10-21, 19:56:59
In Bioshock, DX9, kein AA, ist die 2900 XT sogar schneller als eine GTX. :)

LovesuckZ
2007-10-21, 19:57:44
Naja dich würde das nicht stören, jedoch würde ich keine Informationen von dieser Seite für voll nehmen. Naja es gab bis jetzt kaum eine seriöse Info von solche Fansites.

Und wo ist der Unterschied zu den Leistungsvergleichen auf 3DCenter und dem User Review im dortigen Forum?


Achja, da ich aber Gäste ignoriere sehe ich Postings von Forenmitgliedern als Gäste auch nicht. Bei mir wird immer nur eine Nachricht angezeigt, dass ein Gast gepostet hat. Wenn du schon als Gast auf meine Behauptungen eingehst(damit meine ich jedes Forenmitglied) solltest du als Gast deinen Namen auch ändern.
mfg Nakai

Vielleicht solltest du deine Art in diesem Forum ändern. Igoniere Gastpostings vollständig oder gehe auf sie ein. ICH werd' mich dir nicht anpassen. ;)

Nakai
2007-10-21, 20:15:51
Vielleicht solltest du deine Art in diesem Forum ändern. Igoniere Gastpostings vollständig oder gehe auf sie ein. ICH werd' mich dir nicht anpassen.

Ich verlange nicht dass du dich mir anpassen musst und ändern werd ich mich auch nicht, da mich einige Gäste einfach aufregen.

Und wo ist der Unterschied zu den Leistungsvergleichen auf 3DCenter und dem User Review im dortigen Forum?

Der Leistungsvergleich an sich geht schon, jedoch bin ich vorallem mit dem Fazit unzufrieden. Ein so kurzes Fazit für einen so langen Test ist, nach meiner Meinung, falsch.
Ebenso hätte man in einer höheren Auflösung benchen können. Naja wenigstens hat der Tester dies im Fazit beiläufig angegeben.


mfg Nakai

€: Ebenso ist der Test total unübersichtlich.

Gast
2007-10-22, 11:43:16
Ein User-Review aus dem CB-Forum
http://www.computerbase.de/forum/showthread.php?t=335053

The_Invisible
2007-10-22, 13:52:43
Ein User-Review aus dem CB-Forum
http://www.computerbase.de/forum/showthread.php?t=335053

punkte die mir sofort auffallen:
1. dem autor seinen gefühlsausdrücken zufolge tut er so als würde er gegen ne 8800u benchen
2. wenn die ati karte 7fps vorne liegt sackt die gts richtig ab, umgekehrt ist die gts "nur" schneller.
3. zum schluß wird noch geprollt das bei einem anderen test sogar eine gtx geschlagen wird

ja, sehr objektiver test :uup:

mfg

Nakai
2007-10-22, 13:57:31
Ich kann meinem Vorredner zustimmen. Wo sind bitteschön die Beweisphotos?
In welchem Zustand war das Betriebssystem?
Solche Fragen hätte ich gerne geklärt, bevor ich irgendwie einen Test Glauben schenken kann.


mfg Nakai

Gast
2007-10-22, 14:01:35
Dann glaubt ebend weiter denn HWinfos test.

LovesuckZ
2007-10-22, 14:06:57
Ne, Gast,
AMD produziert keine Schrottprodukte und verkaufen diese zu vollkommen überhöhten Preisen! :mad:

Gast
2007-10-22, 14:34:30
wie bitte?

Gast
2007-10-22, 18:41:05
Leute ihr müßt mal lesen was da steht ;-)

Zitat:"
Im folgenden werden nun die beiden Treiber 163.75 und 7.10 verglichen.
Alle Angaben wurden aus den beiden Tests von CB bezogen."


Der Kollege hat nur die ermittelten Werte von CB gegenüber gestellt mit den neusten Treibern.

Hier sind die Links zu den Tests von Computerbase

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_nvidia_forceware_16375_sli/5/#abschnitt_anno_1701
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_710/5/#abschnitt_anno_1701

Gast
2007-10-28, 03:27:24
http://images.tweaktown.com/imagebank/%20crysisspd_g_02.gif

Oh die Ati wird böse verhauen schauts euch das an.

Cpl. Dwayne Hicks
2007-10-28, 03:45:24
Liegt zwischen der GTS und GT... geht ja noch. Mal sehen was neue Cats bringen.
ATi hat ja erst seit kurzem angefangen am D3D10 "Kernel" rumzuschrauben... hoffentlich verbessert sich die D3D10 performance auch noch.

Adam D.
2007-10-28, 08:49:24
Liegt zwischen der GTS und GT... geht ja noch. Mal sehen was neue Cats bringen.
Sie liegt auf dem Niveau einer Karte, die 100€ weniger kostet (und ich mein hier nicht die GT). Ich sag's nochmal: wenn ATi nicht ganz schnell was tut, war der komplette R600 ein Reinfall. Und wenn der RV670 nicht grundlegend was ändert, wird's auch nicht besser.

James Ryan
2007-10-28, 10:44:14
Die Crysis-Benches sind ohne AA! Das heißt die HD 2900 XT liegt noch vergleichsweise gut...

@Adam D.
Full Ack!

MfG :cool:

Gast
2007-10-28, 10:47:02
Sie liegt auf dem Niveau einer Karte, die 100€ weniger kostet (und ich mein hier nicht die GT). Ich sag's nochmal: wenn ATi nicht ganz schnell was tut, war der komplette R600 ein Reinfall. Und wenn der RV670 nicht grundlegend was ändert, wird's auch nicht besser.

Crysis wurde auf Nvidia Hardware entwickelt, die Performance dürfte also schon optimal sein. Was bei AMD/ATI noch nicht der Fall ist.

Adam D.
2007-10-28, 10:56:12
Crysis wurde auf Nvidia Hardware entwickelt, die Performance dürfte also schon optimal sein. Was bei AMD/ATI noch nicht der Fall ist.
Schau dir die Abstände an und schau dir dann an, was vom Release des R600 bis jetzt geschehen ist. Keinen Zweifel, dass die Performance noch besser wird. Aber die Abstände zu den 8800ern sind einfach zu groß.

Die Crysis-Benches sind ohne AA! Das heißt die HD 2900 XT liegt noch vergleichsweise gut...
Ich glaube nicht, dass AA-Benches generell Sinn machen. Mir ist zumindest keine Karte bekannt, die das noch spielbar hinkriegt :D

Gast
2007-10-28, 11:03:29
Ja, die 2900XT ist insgesamt nun etwas schneller als eine 8800GTS, das ist geschehen.
Ich habe in 1280x1024 alles High in dem Benchmark 35fps im Schnitt, min. 20 max 45. mit 2AA und 16AF sinds nur noch knapp 20fps im Schnitt. 2900XT auf 820/850 unter XP. Das kann eine 8800GTS auch nicht viel besser.

James Ryan
2007-10-28, 11:08:32
Ich glaube nicht, dass AA-Benches generell Sinn machen. Mir ist zumindest keine Karte bekannt, die das noch spielbar hinkriegt :D

2xAA sind mit einer GTX oder stark übertakteten GTS in 1280*1024 spielbar in Crysis, natürlich nur unter XP mit DX9.

MfG :cool:

Adam D.
2007-10-28, 11:11:45
2xAA sind mit einer GTX oder stark übertakteten GTS in 1280*1024 spielbar in Crysis, natürlich nur unter XP mit DX9.

MfG :cool:
Bevor ich AA anmache, will ich vorher erstmal die maximalen Details haben :D Aber nun gut, warten wir die final ab. Die Demo hat nicht mal 4-Kern-Support (was zur Hölle ist daran bitte so schwer? :rolleyes: ), dann scheint der Very-High-Modus noch völlig unoptimiert zu sein. Ich glaub, dass man momentan höchstens Tendenzen erkennen kann.

Gast
2007-10-28, 11:15:42
http://images.tweaktown.com/imagebank/%20crysisspd_g_02.gif

Oh die Ati wird böse verhauen schauts euch das an.
Ich habe mal nachgetestet, in 1680x1050 mit Q6600 auf 3ghz und 2900xt Stock, XP.

High. 25,12FPS

Medum. 53,35FPS


Warum ist eine OC lagsamer wie ne normale?

James Ryan
2007-10-28, 12:07:12
Bevor ich AA anmache, will ich vorher erstmal die maximalen Details haben :D Aber nun gut, warten wir die final ab. Die Demo hat nicht mal 4-Kern-Support (was zur Hölle ist daran bitte so schwer? :rolleyes: ), dann scheint der Very-High-Modus noch völlig unoptimiert zu sein. Ich glaub, dass man momentan höchstens Tendenzen erkennen kann.

Unter XP ist High die maximalste Detail-Stufe, und ich werde einen Teufel tun und nur wegen Crysis auf Vista umzusteigen. ;)

MfG :cool:

Liszca
2007-10-28, 12:10:37
http://images.tweaktown.com/imagebank/%20crysisspd_g_02.gif

Oh die Ati wird böse verhauen schauts euch das an.

dachte erst die gelben balken wäre die radeon 2900 xt ;D

Gast
2007-10-28, 12:12:36
Ich habe mal nachgetestet, in 1680x1050 mit Q6600 auf 3ghz und 2900xt Stock, XP.

High. 25,12FPS

Medium. 53,35FPS


Warum ist eine OC lagsamer wie ne normale?
Ich hab nochmal mit OC nachgebencht, 2900XT (825/950)

High. 27,89FPS

Medium. 59,12FPS

MartinRiggs
2007-10-28, 12:14:11
ich find es viel schwacher was NV da abliefert, die sollen doch crytek so viel unterstützt haben, die GTS und GTX kacken aber auch gnadenlos bei dem Game ab.:eek:
Gibt noch keine Graka die dem Game gewachsen ist, schon gar nicht in 1680x1050:ucrazy2:

Adam D.
2007-10-28, 12:22:42
ich find es viel schwacher was NV da abliefert, die sollen doch crytek so viel unterstützt haben, die GTS und GTX kacken aber auch gnadenlos bei dem Game ab.:eek:
Gibt noch keine Graka die dem Game gewachsen ist, schon gar nicht in 1680x1050:ucrazy2:
Was sollen bitte diese völlig sinnlosen Kommentare? Die Karten von Nvidia sind so schnell wie sie halt sind. Wenn Crysis andere Anforderungen hat, dann kann Nvidia was dafür? Was für eine völlig bescheuerte Argumentation.

MartinRiggs
2007-10-28, 12:36:55
weil es einfach schwach ist wie die GTX performt wenn man sich andere Games anschaut.
Hatte da eindeutig mehr erwartet.

Adam D.
2007-10-28, 12:38:06
weil es einfach schwach ist wie die GTX performt wenn man sich andere Games anschaut.
Hatte da eindeutig mehr erwartet
Aha, mit welchem Spiel vergleichst du denn die gebotene Grafikleistung?

Gast
2007-10-28, 14:31:11
Aha, mit welchem Spiel vergleichst du denn die gebotene Grafikleistung?


Oblivion zb.;)

Gast
2007-10-28, 14:39:35
Oblivion zb.;)
Ich weiß ja nicht, ob das ernst gemeint war, aber Oblivion ist technisch sicher um Welten schlechter als Crysis. Ob man das auch immer optisch sieht, was da für ein Vielfaches an Rechenleistung reingesteckt wird, ist wieder ne andere Frage.
Aber Crysis sieht ohne wenn und aber besser aus als Oblivion. Und bei den Toren läuft Oblivion auf meiner GTS in 1280x1024 auch ned flüssig.
Ich halte Oblivion um einiges "unoptimierter" als Crysis.
Crysis mit Armed Assault zu vergleichen geht schon eher in die richtige Richtung.

dargo
2007-10-28, 14:42:03
Oblivion zb.;)
Guter Witz. ;D

ChristianTHB
2007-10-28, 15:30:09
Demnach kann ich meine Bestellung für die 2900 Pro wohl mal getrost in die Tonne kloppen und ne 8800 GT ordern :D

Gast
2007-10-28, 15:39:07
Guter Witz. ;D


MitTexture Mods usw weiter ist Oblivion noch immer eines der schönsten Spiele.;)

Gast
2007-10-30, 01:05:19
Demnach kann ich meine Bestellung für die 2900 Pro wohl mal getrost in die Tonne kloppen und ne 8800 GT ordern :D

Ja Ati sieht kein Land weit und breit

up¦²
2007-11-06, 20:02:58
Ati mal besser?
http://www.xtremesystems.org/forums/showpost.php?p=2535633&postcount=57

Gast
2007-11-06, 20:07:16
Dafür läuft das Spiel nur mit der Hälfte der Frames. Da kann es noch so schön aussehen, an DIAs kommt es nicht heran und an einer spielbaren FPS Zahl ebenfalls nicht.

Gast
2007-11-10, 18:09:16
Ja das kann AMD/ATI auch wenn sie sachen einfach wegoptimiert.
Ist halt ein Treiber betrug von NVIDIA

Die haben ANGST (wollen um jeden Preis schneller sein)

lURKS

horn 12
2007-11-23, 08:10:51
Funkt der Omega 7.10 auch unter Vista32 Bit oder immer noch nur unter WinXP?
Bezüglich des Auf,- Abdrehen des Lüfters.... Ich werd noch verrückt mit dem 7.11- er Treiber. Habe den Lüfter auf 31%, dies stört mich nicht, aber ab 70 Grad dreht der Lüfter auf 38%, welche störend sind. Habe ATItool nun probiert und ab 75 Grad den Lüfter auf 38% gestellt. Dies dauert aber nur 2-4 Minuten länger als die 70 Grad Marke. Habe ein 120mm NT und einen 80mm Lüfter, der A64 4200+ wird im Idle knapp 50 Grad heiss. Was muss ich machen um die <=69 Grad zu erreichen (jetzt im "Winter".
Mit dem Cat 7.7 hat der Lüfter niemals im Idle aufgedreht, was hat ATI da einfach eingestellt, oder die Temp enorm gesenkt?

Pirx
2007-11-23, 08:13:19
Will und kann jetzt nicht alles durchgucken;), wurde irgendwo eine X1950XT... mitgetestet?
Danke

AnarchX
2007-11-23, 08:23:58
Will und kann jetzt nicht alles durchgucken;), wurde irgendwo eine X1950XT... mitgetestet?
Danke

Wenn es die 512MB ist, dann kann man eigentlich auch die X1950XTX heranziehen, der Unterschied in der Leistung ist eher zu vernachlässigen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/

Bei der 256MB XT wird es aber dann eher schwierig.

Stormscud
2007-11-23, 08:44:34
@Horn12:

Auch wenn du es wohl nicht hören willst, aber ich würde an der Belüftung des Gehäuses etwas ändern. NT und ein kleiner 80mm Lüfter sind nicht gerade viel, vor allem nicht wenn man so eine Heizung wie die 2900XT im Rechner hat. Hier sollte ein wenig aufgerüstet werden.
Und ich lese gerade: knapp 50°C CPU im Idle? Bei dir ist wohl Q&Q nicht an. Trotzdem ist der Wert arg hoch. Wieviel macht sie denn unter Last?

Alternativ kannste ja mal den Rechner wieder gründlichst entstauben. Aber mehr Lüfter bringen natürlich mehr.

horn 12
2007-11-23, 09:28:04
So unter Last knapp 60 Grad bis max. 61/62 Grad
Entstaubt habe ich schon, und mein Problem ist dass ich keine weiteren Lüfter verbauen kann in dem Gehäuse. Selbst wenn ich die Seitentür offen habe, dreht der Lüfter unter IDLE immer wieder mal kurz hoch....

PCGH_Carsten
2007-11-23, 09:35:52
Ich habe mir ein 2D-Profil mit dem Ati-Tool gebastelt. Gesenkte Takte und Spannungen und die Karte bleibt selbst mit dem Lüfter auf kaum hörbaren (bei mir ist's sonst sehr leise) 25% kühler als 50°C.

horn 12
2007-11-23, 10:59:52
Sorry, aber wie mach ich dies mit den Gesenkten Taktraten, vor allem aber mit der Spannung. Normal ist bei mir im IDLE 1,00 Volt.
Kannst mir da weiterhelfen, bitte

Cpl. Dwayne Hicks
2007-11-23, 13:05:12
Ich hab meine auf 250/250 bei 0.8V... bleibt eigentlich immer zwischen 55 und 60 grad, der Lüfter ist auf 20% fixiert.
Hier in Australien ist es aber gerade Sommer... in meiner Bude im obersten Stockwerk sind 30 Grad Zimmertemperatur leider gar kein Thema. :( Oft habe ich den Eindruck dass es bei mir drinnen heisser ist als draussen (heute warens 36 Grad)! :hammer:

Aber um auf deine Frage zurück zu kommen:
Lade dir ATi Tool runter (ich benutze die Version 0.27) Unter "Settings" kannst du dann alles mögliche Einstellen... unter anderem die Spannung, und auch dem Lüfter eine bestimmte Drehzahl zuweisen, je nachdem welche Temperatur im chip herrschen usw... kannst ja den Lüfter aus Jucks mal auf 100% stellen... das ist einfach nur bekloppt! :D
Du kannst dann für dein 2D Profil einen hotkey anlegen... allerdings muss Ich immer nochmal in "Settings" gehen und unter Fan Control und Voltage Control das 2D profil laden. (auf den load knopf drücken)

horn 12
2007-11-23, 14:05:14
Vielen Dank,
die SPANNUNG stelle ich von 1,00 auf 0,800 und dann speichere ich unter 2D Profil ab. Nur wie kann ich den Takt von 512/ 509 senken auf 250/250 oder 300/300? Wenn ich dies einstelle und "Apply" drücke kommt die orig. Taktrate wieder daher. Kann die Mhz an Takt unter 2D nicht abändern, geschweige denn speichern, unter dem NEU angelegten "2D Profil"

Cpl. Dwayne Hicks
2007-11-23, 14:22:22
Du drückst also auf "set clock" aber es setzt sich trotzdem wieder auf 512/509 zurück?! Merkwürdig...

Dann musst du die "Clock Safety Range" vielleicht noch nach unten korrieren.

horn 12
2007-11-23, 14:38:25
schon gemacht, funkt aber dennoch nicht.
Was habe ich sonst vielleicht noch vergessen?

horn 12
2007-11-23, 18:14:30
:biggrin:
So, nun hab ichs so gemacht:
AMD Clock Tool auf 300/300 gestellt unter 2D
Geschlossen
ATI Tool gestartet und die Spannung auf 0,850 V gesenkt.
Siehe da 61-63 Grad im IDLE nur mehr und der Lüfter ist sehr leise (31%):biggrin::biggrin:

Jedoch mit 0,800 Volt ist mir vorhin der PC hängengeblieben, :mad:daher frage ich nochmals.
Welche Werte sollte man einstellen um .~99% Sicherheit zu haben dass nichts abraucht oder defekt werden kann. ( Im IDLE Modus)

Cpl. Dwayne Hicks
2007-11-24, 00:13:28
Wieso benutzt du zwei verschidene Programme? Du kannst doch auch mit ATi Tool den Takt ändern... vielleicht gibts deswegen Probleme, wenn du ATi Tool hast brauchst du eigentlich kein AMD clock tool mehr. Was fürn OS benutzt du?
Hast du auch eine 2900XT? :)

Abbrauchen sollte eigentlich nichts, schon ganicht wenn man untertaktet bzw. untervoltet. (solange die Temperatur im grünen Bereich liegt natürlich)

Spasstiger
2008-01-22, 14:15:54
Ich muss mal was zu den CFAA-Modi der Radeon-HD-Generation sagen. Ich verwende es gerade in HL2 Episode 2 und Portal und muss sagen, dass Narrow-Tent gar nicht schlecht ist. Mit 4xAA und Narrow-Tent erreicht man eine subjektive Kantenqualität fast wie bei 8xAA box und das ganze Bild wirkt wie aus einem Guß. Adaptives AA (Multisampling) hab ich auch aktiv. Klar ist eine Unschärfe da, aber die ist kaum schlimmer als das, was ich vom CRT gewohnt war. In vielen Szenen stellt sich auch ein passender Tiefenunschärfeeffekt ein. Und trotz der leichten Unschärfe bringt anisotropes Filtern einen großen Nutzen. Es ist nicht so, dass CFAA den großen Matsch bringt (ok, bei Wide-Tent wirds grenzwertig). Die verbesserten Texturdetails durch AF sind sehr deutlich erkennbar. Das Bild wirkt einfach homogener, Shaderaliasing wird einigermaßen unterdrückt. Eigentlich sehr nette Modi.

Mit 8xadaptivem AA + narrow-tent + 16:1 AF wird die Performance von Episode 2 in 1680x1050 aber schon grenzwertig mit meiner HD2900 Pro 256 Bit. Sind dann zwar noch schätzungweise 30 fps, aber ich spiele da lieber bei geringfügig schlechterer Qualität bei geschätzten 50-60 fps (sehr geschmeidig).

P.S.: Kann man eigentlich was gegen Texturmoire ausrichten? Oder ist das ein Effekt, der im menschlichen Auge entsteht? Ich seh Moire zumindest auch in der Realität bei gewissen Strukturen.