PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 2900Pro-Review-Thread


Seiten : 1 [2] 3

Gast
2007-10-02, 12:19:42
Wenn ATI es wirklich schafft die angegebenen Daten bei der 2950Pro einzuhalten dann hat ATI nach langer Zeit (1 Jahr) wieder ne Konkurrenzkarte auf dem Markt. Das finde ich gut. Aber die Leute die jetzt ATI`s Fabriken räumen sollten wirklich mal daran denken das der jetzige Chip ein Auslaufmodell ist. Ich jedenfalls blicke gespannt auf die 2950Pro. In diesem Sinne

The_Invisible
2007-10-02, 12:24:42
Also mal ganz ehrlich: Das ist doch wohl eine etwas engstirnige Ansicht von der Welt da draußen.
Der größte Teil der Spieler wird nicht mal wissen was AA und AF sind, geschweige denn sie würden es nutzen.
Außerdem haben doch nur wenige Spieler einen solchen Hardcore PC mit dem man alle Schmankerl einschalten kann.

Leute wie ihr, oder auch wie ich, die sich um die grafische Verbesserung von Spielen Gedanken machen sind nunmal eindeutig in der Minderheit.
Aber auch mir reicht 4*AF völlig. Nur bei Racer (nicht verwechseln mit Race 07) mach ich mal 16*AF rein. Und ohne AA komm ich auch klar. Aber wenn es geht mach ich es an.

Erst gestern wieder fragte einer bei uns im Spellforce 2 Forum, warum die Maus bei ihm ruckelt. Wobei ich mir noch nicht ganz genau vorstellen kann was er genau damit meint. Ich vermute nämlich, dass das komplette Spiel ruckelt. Immerhin will der SF2 mit einer FX 5200 spielen :eek:
Das wird nie und nimmer flüssig.

Das ist aber nur mal wieder ein Beweis dafür, mit welcher Hardware viele Spieler da draußen auskommen müssen!
Der Typ ist auch nicht der Erste mit solch einer Anfrage und entsprechend langsamer Hardware. (Lustigerweise hat er aber als Prozessor ein gar nicht so langsamen Pentium D 2,8).
Typischer OEM Rechner halt.


Abgesehen davon, um auch meinen Senf zur 2900Pro zum Besten zu geben: Abgesehen vom Stromverbrauch ist das eine sehr performante Karte für einen recht attraktiven Preis ;)

ist ja nur eine runtergetaktete xt, also kann man spielen auf ner ATI derzeit mit aa/af/dx10 ganz vergessen. und die leute die kein aa/af einsetzten ist selbst ne 100€ karte zu teuer, soviel dazu.

mfg

Gast
2007-10-02, 13:07:53
schon ma einer dran gedacht wenn mein 2 PROs hat die schneller sind ale ne Ultra?
Und nen CF Board hat glaub ich fast jeder, im PC.
jetzt komtm net Cf ist crap, ist es sicher nicht, es ist sogar gleichauf wie SLI.
Und ich weiss wovon ich rede, ich hab beides.
Die 2 Pros verheizen eine 8800 Ultra ohne zu zucken in 1680x1050 4xAA 16xAF und das für 440 € ;)

Gast
2007-10-02, 13:09:04
Cool, dann kaufst du dir zwei Pros um gegen eine 8800Ultra zugewinnen, nur um schlussendlich als armer und tauber Mensch zu sterben...

beos
2007-10-02, 13:09:11
Bitte, wer spielt heute noch ohne AA/AF? Es kann doch nicht angehen, dass wir wieder in der Bildqualität zurückgehen?! Sorry, aber das ist schlicht nicht annehmbar und realistisch.

Btw, ich halte mit den HardOCP und THG Tests dagegen. Bis 1600*1200 sieht die 2900 XT in den meisten Fällen kein Land gegen die GTS 320/640. Schau Dir mal die THG Tests an, oder Bioshock DX10 auf HardOCP, dort sogar mit fps-Verläufen über mehrere Szenen.

AMC

Hand heb :wave2:

Ich spiel nie mit AA oder AF....;)

Gast
2007-10-02, 13:12:10
Cool, dann kaufst du dir zwei Pros um gegen eine 8800Ultra zugewinnen, nur um schlussendlich als armer und tauber Mensch zu sterben...

ach nanu, die 2 Ultras sind auch nicht leise und muss auch Headset aufsetzen beim zocken ;)

Gast
2007-10-02, 13:12:40
Hand heb :wave2:

Ich spiel nie mit AA oder AF....;)

ich ebenfall, AF muss immer an, aber AA brauch ich net bei 1920x1200 :)

Gast
2007-10-02, 13:13:37
schon ma einer dran gedacht wenn mein 2 PROs hat die schneller sind ale ne Ultra?
Und nen CF Board hat glaub ich fast jeder, im PC.
jetzt komtm net Cf ist crap, ist es sicher nicht, es ist sogar gleichauf wie SLI.
Und ich weiss wovon ich rede, ich hab beides.
Die 2 Pros verheizen eine 8800 Ultra ohne zu zucken in 1680x1050 4xAA 16xAF und das für 440 € ;)

Ja, aber haste nen Kraftwerk im Garten stehen? Jetzt mal ehrlich, ich halte persönlich nüscht von CF/SLI. Das ist meine Ansicht der Dinge. Und eine Pro verbrät schon fast soviel unter Last wie ne Ultra. Und auch die Spiele die erstmal Crossfire nicht unterstützen. Kompatibilität und solche Geschichten. Die Lautstärke 2er Düsenjets. Ne, ich bin kein Bastler. Aber die 2950Pro könnte interessant werden. Gruss

Gast
2007-10-02, 13:15:13
was die Karten bei Last fresse interessiert nicht die Bohne, im IDLE ist wichtig.
und die 2 PROs saugen nicht soviel Strom wie ne Ultra im IDLE, das ist was ich sehr schlecht finde bei den Ultras.

Gast
2007-10-02, 13:18:13
Ist mir auch Wurscht weil so ein Gespann kommt mir niemals in die Kiste. Rein aus Prinzip. Ich warte auf die neuen ATI`S denn die scheinen doch endlich mal brauchbar zu sein. Gruss

Gast
2007-10-02, 13:19:01
Ja, aber haste nen Kraftwerk im Garten stehen? Jetzt mal ehrlich, ich halte persönlich nüscht von CF/SLI. Das ist meine Ansicht der Dinge. Und eine Pro verbrät schon fast soviel unter Last wie ne Ultra. Und auch die Spiele die erstmal Crossfire nicht unterstützen. Kompatibilität und solche Geschichten. Die Lautstärke 2er Düsenjets. Ne, ich bin kein Bastler. Aber die 2950Pro könnte interessant werden. Gruss

Wer hat euch den den Bären aufgerbunden das die HDs wie Düsenjets sind??? x_X

Der Lüfter ist nicht wirklich lauter als der G80, stellt mal den G80 Kühler auf 85% diese Lautstärke haben die 2 ATIs im 3D.
Und im 2D sind beide nicht zu hören.

Und wieso soll CF nie funzen?
wenn CF mal nicht geht wird die EXE in 3DMark06 umbenannt und CF funzt immer ;)

Radeonator
2007-10-02, 13:19:28
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/oktober/club_3d_radeon_hd_2900_gt/

Die GT sollte aber sehr günstig werden...nur das Sie gut wird, wage ich zu bezweifeln ;)

EDIT: Sollte ändert sich auf "GEHT SO" : 189,- Euron exkl

Gast
2007-10-02, 13:20:32
Jo, ich meine aber die hier http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/oktober/amd_rv670_19_november/

Gast
2007-10-02, 13:20:49
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/oktober/club_3d_radeon_hd_2900_gt/

Die GT sollte aber sehr günstig werden...nur das Sie gut wird, wage ich zu bezweifeln ;)


muss sie auch net ;)

Die Karte ist MIDRANGE, und ne 8600 zu verheizen schafft die ganz sicher xD

The_Invisible
2007-10-02, 13:39:11
schon ma einer dran gedacht wenn mein 2 PROs hat die schneller sind ale ne Ultra?
Und nen CF Board hat glaub ich fast jeder, im PC.
jetzt komtm net Cf ist crap, ist es sicher nicht, es ist sogar gleichauf wie SLI.
Und ich weiss wovon ich rede, ich hab beides.
Die 2 Pros verheizen eine 8800 Ultra ohne zu zucken in 1680x1050 4xAA 16xAF und das für 440 € ;)

manchmal brauchts aber wohl 3-4 pros -> http://www.firingsquad.com/hardware/geforce_radeon_directx_10_performance_update/default.asp

und unter AA/AF dürften die karten bestenfalls gleichauf liegen

mfg

Gast
2007-10-02, 13:43:34
was die Karten bei Last fresse interessiert nicht die Bohne, im IDLE ist wichtig.
und die 2 PROs saugen nicht soviel Strom wie ne Ultra im IDLE, das ist was ich sehr schlecht finde bei den Ultras.

Dir ist egal was dein CF-Gespann unter Last frisst, aber idle ist dir wichtig? Warum baust du dir dann sowas zusammen? Erkläre mir deine Denkweise, bitte. Ich kann dir nicht folgen! Gruss

Gast
2007-10-02, 14:07:15
manchmal brauchts aber wohl 3-4 pros -> http://www.firingsquad.com/hardware/geforce_radeon_directx_10_performance_update/default.asp

und unter AA/AF dürften die karten bestenfalls gleichauf liegen

mfg

achja, das gute alte Lost Planet xD

Typisch der bench wird immer genommen wo die ATIs keine chance haben.

Wie wäre es mal mit TDU,Bioshock,MOHA,DIRT oder das neue Company of Heros?

In TDU zB geht die Ultra unter und in DIRT ebenfalls, was die da mit WiC machen ka aber die Benches sind falsch von WiC.
ich hab weder so wenig mit der ATI noch so viel mit der Ultra ^^

The_Invisible
2007-10-02, 14:08:42
lol, du tust so als hätte ATI gerade keine sorgen. kann sein das du da was verdrehst?

mfg

Gast
2007-10-02, 14:11:44
Dir ist egal was dein CF-Gespann unter Last frisst, aber idle ist dir wichtig? Warum baust du dir dann sowas zusammen? Erkläre mir deine Denkweise, bitte. Ich kann dir nicht folgen! Gruss

x_X

sry ich Spiele nicht 24 h am Tag, und wenn ich mal Spielen will dann richtig und ohne ruckeln oder sonstwas.
Und damit ich mich nicht über NV oder ATI ärgern muss hab ich beides SLI und CF wenns auf edm einen nicht läuft geh ich zum anderen Tisch ;)
Es ist eher gut ausgeglichen mit SLI und CF, fackt ist, CF ist Effizienter
wie SLI, also von CF hat man mehr wie von SLI will ich damit sagen.
Sicher rennts manchmal auf SLI besser, aber das trifft auch für Crossfire zu.

Gast
2007-10-02, 14:13:21
lol, du tust so als hätte ATI gerade keine sorgen. kann sein das du da was verdrehst?

mfg

was soll ich verdrehen ?

Gast
2007-10-02, 14:14:50
x_X

sry ich Spiele nicht 24 h am Tag, und wenn ich mal Spielen will dann richtig und ohne ruckeln oder sonstwas.
Und damit ich mich nicht über NV oder ATI ärgern muss hab ich beides SLI und CF wenns auf edm einen nicht läuft geh ich zum anderen Tisch ;)
Es ist eher gut ausgeglichen mit SLI und CF, fackt ist, CF ist Effizienter
wie SLI, also von CF hat man mehr wie von SLI will ich damit sagen.
Sicher rennts manchmal auf SLI besser, aber das trifft auch für Crossfire zu.

Na, dann ist ja gut! Die ganz schlauen haben auch nen PC zum surfen, so wie ich *g*. Achso, schönen Feiertag morgen! MfG

Gast
2007-10-02, 14:23:00
Na, dann ist ja gut! Die ganz schlauen haben auch nen PC zum surfen, so wie ich *g*. Achso, schönen Feiertag morgen! MfG

hehe jo, oder halt zum Penisvergleich, aber wenn man "mal" mit den zocken tut haben die nen dicken PC und treffen net mal nen offenes Schäunentor könnt ich immer lachen :D

Gast
2007-10-02, 14:25:57
omfg , "Scheunentor" mein ich xD

Gast
2007-10-02, 14:32:12
Naja, wie dem auch sei, die 2900 Serie ist jetzt wohl total uninteressant. Ich denke ich werde meine 8800GTS 640MB gegen ne 2950Pro eintauschen. Die Daten klingen doch äusserst verlockend. Ausserdem muss ich mal wieder meinen Teil zum Aufbau Ost leisten (Dresden) *g*. MfG

Gast
2007-10-02, 14:33:12
hehe jo, oder halt zum Penisvergleich, aber wenn man "mal" mit den zocken tut haben die nen dicken PC und treffen net mal nen offenes Schäunentor könnt ich immer lachen :D
omfg , "Scheunentor" mein ich xD

So sieht es aus XD

@The_Invisible Verstehe nicht warum du dir ein Kopf um Ati machst und hier rumpöbbelst, zock doch mal mit deinem PC oder gilt für dich auch das was der Gast gesagt hat??

Gast
2007-10-02, 14:35:28
Und nochwas AA ist doch nur was für Camper haha.

Nee, 4x MSAA reicht mir aber dicke aus ;-)

Gast
2007-10-02, 14:35:57
Naja, wie dem auch sei, die 2900 Serie ist jetzt wohl total uninteressant. Ich denke ich werde meine 8800GTS 640MB gegen ne 2950Pro eintauschen. Die Daten klingen doch äusserst verlockend. Ausserdem muss ich mal wieder meinen Teil zum Aufbau Ost leisten (Dresden) *g*. MfG

Soll ich dir mal Benchens GTS VS 2900XT zeigen? :D

Und die 2900 ist sichernicht uninteressant, jedefalls interessanter wie ne GTS 320 MB^^

Gast
2007-10-02, 14:39:57
Mag ja sein, aber schau dir mal das Datenblatt an. Das sieht sehr innovativ aus. Nebenbei eine Einslot! Karte! Ich sag nur 55NM. Stromverbrauch weniger=kühler=leiserer Lüfter. Ich denke ATI hat seine Hausaufgaben gemacht. Ab der Karte mache ich mir jetzt Gedanken meine 8800GTS 640MB in Rente zu schicken. MfG

Gast
2007-10-02, 14:46:03
Ich rede ja nicht von der 2950XT, sondern von ner XT/PRO.

Udn was die neue bringt oder leisten kann sollte noch nicht so hoch angesetzt werden, durch solches gehype werden die Karten dann am ende nieder gemacht (sowies jetzt die HD2900XT), sie wurde viel zuviel gehypt das sie den G80 platt macht, dem war nicht ganz so und jetzt wird sie zerfetzt.
Also solange ich ekien davon in der hand habe, erlaub ich mir auch kein Urteil, und esterecht keine Spekulation was sie können tut.

Aber eins kannst du dir sicher ein 55nm sind schön, aber das holt ATI durch den Takt wieder wieder raus und somit bleibt der Stromverbrauch gleich ;)

Gast
2007-10-02, 14:48:38
Es darf auf erste benches gewartet werden. Aber eins behaupte ich mal: sich jetzt ne 2900 xy zu holen wäre eine Fehlentscheidung! Aber, wie gesagt, meine Meinung. Ich hype die Karte nicht, denke aber es dürfte alle jetzigen ATI-Karten übertreffen. Ich denke mal das ist ganz nüchtern betrachtet korrekt. MfG

Gast
2007-10-02, 14:56:28
wird sich zeigen, wenn sie schneller sind und auch Kühler, dann werden es natürlich 2 davon :D

Megamember
2007-10-02, 18:46:30
Hab jetzt die 2900Pro und die läuft auch mit 800/980 noch wie ne Eins. Leistungsmangel hab ich nicht gemerkt, bei MOH-Airborne in 1280/1024 4AA/16AF max. Details z.B. zwischen 70 u. 100FPS und extrem gute Bildquali. Meine alte X1800 hatte selbst ohne AA und wenig AF kaum über 20;). Die Crysis beta lief auch absolut geschmeidig. 3DMarK06 knapp 12000P.

josefYY
2007-10-02, 19:17:03
Müsste ich in meinem System mit Problemen mit der Stromversorgung rechnen.
Hab 2 Festplatten und ein 400Watt Netzteil?

dargo
2007-10-02, 20:02:34
Hab jetzt die 2900Pro und die läuft auch mit 800/980 noch wie ne Eins. Leistungsmangel hab ich nicht gemerkt, bei MOH-Airborne in 1280/1024 4AA/16AF max. Details z.B. zwischen 70 u. 100FPS und extrem gute Bildquali.
Sicher, dass AA aktiv war?

Megamember
2007-10-02, 20:58:55
Sicher, dass AA aktiv war?

Joa, im Treiber erzwungen:

http://www.777kb.com/vimg/MOHA_2007_10_02_20_48_43_081.jpg

dargo
2007-10-02, 21:18:29
Joa, im Treiber erzwungen:

http://www.777kb.com/vimg/MOHA_2007_10_02_20_48_43_081.jpg
Bei deinen Bildern ist aber kein Antialiasing aktiv wie man unschwer erkennen kann. Deine hohen Frames kamen mir gleich spanisch vor. ;)
So schnell ist die 2900Pro nun wieder auch nicht. ;)

Megamember
2007-10-02, 21:30:19
Hmm, manche Stellen sehen nach AA aus manche nicht. Und warum läuft das nicht? Im Treiber hab ichs erzwungen.

dargo
2007-10-02, 21:33:00
Und warum läuft das nicht? Im Treiber hab ichs erzwungen.
Das musst du schon ATI fragen. :wink:
Die UE3 Games (außer Stranglehold momentan?) funktionieren afaik nur mit einem G8x und MSAA.

Sterem
2007-10-02, 21:42:17
Mit Exe remaining zu Oblivion oder Bioshock sollte es doch gehen`=

Gast
2007-10-02, 21:44:50
Also das Bild ist voll "dreckig" da ist ganz sicher kein AA drin. Hoffentlich verbessert ATI die Treiber bis zur 2950Pro/XT whatever. Denn das ist wahrscheinlich meine neue Graka. Hoffe die Architektur wurde dahingegen verbessert, das sie nicht mehr wie die 2900 Serie unter AA einbricht! P.S.: Hab ne 8800GTS 640MB und wenn ich umsteige, nur auf ne 2950! Mit freundlichen Grüssen

Gast
2007-10-02, 22:43:55
Das musst du schon ATI fragen. :wink:
Die UE3 Games (außer Stranglehold momentan?) funktionieren afaik nur mit einem G8x und MSAA.

Ich glaub nicht das ATI dran schuld ist, normalerweise kann das Game garkein AA, im NV Treiber kann man das erzwingen und wird auch übernommen aber die Leistung ist fürn A.....
Und das sag ich als 8800 Ultra SLI User ;)

Gast
2007-10-02, 23:05:36
Hmm, manche Stellen sehen nach AA aus manche nicht.
Sorry, aber auf dem Bild oben sieht keine einzige Kante nach AA aus.

dargo
2007-10-02, 23:16:03
Ich glaub nicht das ATI dran schuld ist, normalerweise kann das Game garkein AA, im NV Treiber kann man das erzwingen und wird auch übernommen aber die Leistung ist fürn A.....
Und das sag ich als 8800 Ultra SLI User ;)
Ähm, bei welchem relativ graka-limitierten Game ist die Leistung bei Zuschaltung von AA nicht für den A.....? Ich wüsste nicht, dass der G80 zb. 4xMSAA "for free" bietet. ;)

In MoH:A kostet 4xMSAA in 1280x1024 ca. 25%. Das kann sich noch sehen lassen. In der Crysis Beta 3 sinds schon ~33% (ich weiß eine Beta sollte man nicht als Maßstab nehmen, das kann sich noch mit zukünftigen Treibern und der Full ändern).

Gast
2007-10-03, 00:13:50
Ja Dargo, aber der Kollege oben versucht uns "klarzumachen" das ne Ati 2900 son ne Framezahl mit pipapo hat. Sorry das ist bullshit. Ne GTS 640 MB hat da schon mehr zu bieten. Und das MIT AA/AF. Ich glaube einige 2900 user sind blind. Das meine ich jetzt ernst. Nix geflame oder so, tatsache! Gruss

Gast
2007-10-03, 00:20:22
Man beachte die Hand, den Fensterrahmen die Mauer ja, man beachte das GANZE Bild! Einfach lächerlich die Darstellungsweise mancher 2900 User. Sry, meine Augen lügen nicht. Gruss

Blaire
2007-10-03, 00:42:32
Ich glaub nicht das ATI dran schuld ist, normalerweise kann das Game garkein AA, im NV Treiber kann man das erzwingen und wird auch übernommen aber die Leistung ist fürn A.....
Und das sag ich als 8800 Ultra SLI User ;)

Da lief sicher SLI nicht richtig, denn ich kann Airborne sogar mit 8xS gut zocken. 4xAA läuft wie Butter ist mir fast zu schnell. ;)

Gast
2007-10-03, 12:04:01
Ja Dargo, aber der Kollege oben versucht uns "klarzumachen" das ne Ati 2900 son ne Framezahl mit pipapo hat. Sorry das ist bullshit. Ne GTS 640 MB hat da schon mehr zu bieten. Und das MIT AA/AF. Ich glaube einige 2900 user sind blind. Das meine ich jetzt ernst. Nix geflame oder so, tatsache! Gruss

sicherlich, das versucht aber einer seine GTS zu verteidigen lol
Sie hat nunmal keine chance gegen die HD 2900XT wann begreifen das den entlich mal welche, ja auch mit 4xAA 16xAF ist sie schneller.



Blair

Ja stimmt die MOHA Engine ist nicht schlecht, es kommt dir flüssig vor, aber schau ma auf die FPS :(

Matrix316
2007-10-04, 20:00:29
Wie siehts denn eigentlich mit der X2900 PRO im Vergleich zur X1950XT aus?

AnarchX
2007-10-04, 20:22:30
Wie siehts denn eigentlich mit der X2900 PRO im Vergleich zur X1950XT aus?
Wenn die Pro nicht übertaktet ist, dürfte der Unterschied im Durchschnitt nur äußerst gering sein, wenn man mal sich die aktuellen Werte der 2900XT bei CB anschaut:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet

Lohnt sich imo also nicht wirklich, besser noch bis zu November auf 8800GT und 2950Pro/XT warten.

BlackArchon
2007-10-04, 21:50:43
Ohne mir jetzt die letzten 15 Seiten durchgelesen zu haben: gibt es echt keine größeren Hardware-Seiten, die die HD 2900 Pro getestet haben? :|

Gast
2007-10-04, 23:03:48
Ohne mir jetzt die letzten 15 Seiten durchgelesen zu haben: gibt es echt keine größeren Hardware-Seiten, die die HD 2900 Pro getestet haben? :|
iXBT, aber einmal in Russisch und dann naja.
http://www.ixbt.com/video3/r600-3.shtml
Fazit: Das Teil hat einige Minuspunkte, die der Preis aber "neutralisiert".

beos
2007-10-04, 23:24:45
iXBT, aber einmal in Russisch und dann naja.
http://www.ixbt.com/video3/r600-3.shtml
Fazit: Das Teil hat einige Minuspunkte, die der Preis aber "neutralisiert".

Als für meinen Geschmack stehen gerade bei den Gamesbenchs zuviele Minus'e bei der 2900 pro (bei der für mich wichtigen 1280er Auflösung) :(

deekey777
2007-10-04, 23:28:13
Als für meinen Geschmack stehen gerade bei den Gamesbenchs zuviele Minusse bei der 2900 pro (bei der für mich wichtigen 1280er Auflösung) :(
Die Minuspunkte sind egal, es kommt schließlich auf die Performancebalken an:
http://www.ixbt.com/video3/r600-3-d.shtml#p18
Der Preis relativiert schon den einen oder anderen Minuspunkt, weiterhin ist anzumerken, dass es sich um Timedemos handelt.

LovesuckZ
2007-10-04, 23:31:22
Die Minuspunkte sind egal, es kommt schließlich auf die Performancebalken an:
http://www.ixbt.com/video3/r600-3-d.shtml#p18
Der Preis relativiert schon den einen oder anderen Minuspunkt, weiterhin ist anzumerken, dass es sich um Timedemos handelt.

Da führt die 8800GTS mit 320mb...

deekey777
2007-10-04, 23:31:57
Da führt die 8800GTS mit 320mb...
Wo "da"?

LovesuckZ
2007-10-04, 23:34:25
Wo "da"?

Du bist kein Mod mehr, also darfst du jetzt auch wieder mitdenken.
In 6 von 8 Tests liegt die 8800GTS320 vorne.

deekey777
2007-10-04, 23:58:20
Du bist kein Mod mehr, also darfst du jetzt auch wieder mitdenken.
In 6 von 8 Tests liegt die 8800GTS320 vorne.
Wen interessiert das? Komm mir jetzt bitte nicht mit Geizhals-Links, wo die 8800GTS 320 nur wenig teurer als die 2900Pro. Und nur weil die 8800GTS führt, mindert dies doch nicht, dass man mit der 2900Pro spielen kann, oder?
Und wenn ich richtig fies bin: Findest du es nicht seltsam, dass die HD2900 so schlecht in STALKER ist? Ich schon. Der Grund liegt irgendwo in Kiew, es wurde auch nicht die Version 1.0004 benutzt, von der die 2900 profitieren kann. Und WiC beta zählt nicht wirklich, oder? Insbesondere wenn in Kürze ein Patch für das Vollspiel erscheint.

LovesuckZ
2007-10-05, 00:01:34
Ich habe keinen Plan, was du willst.
Du verlinkst den Stalker Vergleich mit dem Kommentar, dass nur die Balkenlänge entscheidend wäre.
6 von 8 Balken sind bei der GTS länger.

deekey777
2007-10-05, 00:27:20
Ich habe keinen Plan, was du willst.
Du verlinkst den Stalker Vergleich mit dem Kommentar, dass nur die Balkenlänge entscheidend wäre.
6 von 8 Balken sind bei der GTS länger.
Dann erkläre ich es dir:
Wenn man den Test einfach liest, so sieht man, dass die 2900Pro hinter der 8800GTS 320 liegt (das sind die Minus-Werte). Nur darf man sich darauf nicht verlassen, schließlich sagen diese Tabellen nur, dass die 8800GTS 320 vor der 2900Pro liegt. Wenn man sich auf der anderen Seite die Performancebalken anschaut, sieht man die Übereinstimmung mit den Tabellen, aber man sieht auch, was die 2900Pro tatsächlich leistet. Nehmen wir zB STalker in 1280x1024+AF. Die 2900Pro bringt 24 % weniger FPS als die 8800GTS, aber sie bringt immernoch 49 FPS in der verwendeten Timedemo.
beos sagt, es sind zu viele Minusse. Stimmt auch, aber nicht wenn man sich die tatsächliche Spielleistung anschaut.

Gummikuh
2007-10-05, 00:34:29
:uponder:Hmmm...bin echt am Überlegen,ob ich mir son teil mal ziehe, ist ja für den Preis net so schlecht...

dildo4u
2007-10-05, 00:39:00
Ok warten kann man immer aber da ATI und NV ziehmlich bald Karten bringen die besser performen und dabei wesentlich weniger Strom verbrauchen(vermutlich auch deutlich leiser sind) würde ich noch warten.

beos
2007-10-05, 00:39:18
:uponder:Hmmm...bin echt am Überlegen,ob ich mir son teil mal ziehe, ist ja für den Preis net so schlecht...

Hmm....ich weiss nicht - für einen Kasten Bier mehr bekommst Du die 8800GTS-320, die ja schneller ist...und leiser....und weniger Strom verbraucht...und bessere Linuxtreiber bietet !

Gummikuh
2007-10-05, 01:02:12
Ja gut...mit den Linux Treibern...ok...nutze das Zeugs nicht.

Ja Lautstärke...ist ein Argument...

Bei der 8800GTS mit 320 MB stören mich letztere...hatte mal ne X1800XT mit 256 MB und son Scheiß mach ich nicht nochmal.

Ja...ist bei mir auch ne Überlegung, hab mich noch nicht festgelegt.Bioshock hab ich mit meiner X1800XT durchgezockt und World in Conflict läuft auch ganz gut (beides in 1280x1024).

Na ja...die 8800 GT sieht auch interessant aus und RV670, da wäre die Pro interessant, aber die soll ja nur 256 Bit Interface beim Speicher haben.

Auf jedenfall liegt mein Preislimit bei ca. 250 Moppen, nach ner nicht billigen NV6800GT und der (auch nicht so billigen) ATI X1800XT hab ich erstmal kein Bock mehr auf so teuren Kram.:naughty:

sklave_gottes
2007-10-05, 02:28:35
Ja gut...mit den Linux Treibern...ok...nutze das Zeugs nicht.

Ja Lautstärke...ist ein Argument...

Bei der 8800GTS mit 320 MB stören mich letztere...hatte mal ne X1800XT mit 256 MB und son Scheiß mach ich nicht nochmal.

Ja...ist bei mir auch ne Überlegung, hab mich noch nicht festgelegt.Bioshock hab ich mit meiner X1800XT durchgezockt und World in Conflict läuft auch ganz gut (beides in 1280x1024).

Na ja...die 8800 GT sieht auch interessant aus und RV670, da wäre die Pro interessant, aber die soll ja nur 256 Bit Interface beim Speicher haben.

Auf jedenfall liegt mein Preislimit bei ca. 250 Moppen, nach ner nicht billigen NV6800GT und der (auch nicht so billigen) ATI X1800XT hab ich erstmal kein Bock mehr auf so teuren Kram.:naughty:


Laut den letzten specs wird der RV670 in der singel variante immer 256Bit haben. Egal ob pro oder xt. Aber mach dir dadurch keinen Kopf. Wichtiger sind andere dinge. Wenns eins ist was die r(v)6xx reihe nicht braucht ist es Speicherbandbreite im überfluss. 256bit mit gutem GDDR4 reichen dicke.

Henroldus
2007-10-05, 15:35:56
PowerColor HD2900 PRO review (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3493&Itemid=34)
3DMark06 OC -> 10927! with AMD X2 5600+ :eek:
für 220eur nicht schlecht

Gast
2007-10-05, 15:42:10
PowerColor HD2900 PRO review (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3493&Itemid=34)
3DMark06 OC -> 10927! with AMD X2 5600+ :eek:
für 220eur nicht schlecht

Ohne AA/AF doch vollkommend Weltenfremd...
Warum hat die CPU ne andere Taktfrequenz bei Fudzilla als im Forumthread der verlinkt ist...

Gast
2007-10-05, 22:36:42
Es kann nicht bezweifelt werden, das die 2900 Serie ein Schuss in den Ofen war. ATI gesteht es ja auch indirekt mit dem Abverkauf der Chips ein. Der Lüfter am Heulen, der Stromverbrauch zum heulen, die AA/AF Performance zum Heulen. Aber zum Glück für ATI kommt ja bald der 2950 Chip, der bügelt dieses "Missverständnis" hoffentlich aus. In diesem Sinne, Prost

Gast
2007-10-05, 22:51:42
PowerColor HD2900 PRO review (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3493&Itemid=34)
3DMark06 OC -> 10927! with AMD X2 5600+ :eek:
für 220eur nicht schlecht
Der X2 ist doch auch gewaltig übertaket -> sogar über dem Niveau vom X2 6400+.

AnarchX
2007-10-06, 01:01:30
Radeon HD 2900 PRO 512MB review (HiS) @ Guru3D (http://www.guru3d.com/article/review/463/)

Power Consumption (peak) ~175W
Hmm...

dildo4u
2007-10-06, 01:06:10
TDP?Weil 25W 45W 175W 215W alles ein bissel zu "Rund" für echte Messungen oder?

deekey777
2007-10-06, 01:07:20
Radeon HD 2900 PRO 512MB review (HiS) @ Guru3D (http://www.guru3d.com/article/review/463/)


Hmm...
Haben sie es nachgemessen, wie es Xbit macht?

AnarchX
2007-10-06, 01:09:14
TDP?Weil 25W 45W 175W 215W alles ein bissel zu "Rund" für echte Messungen oder?

Natürlich TDP, aber die sollte eigentlich bei 150W sein laut AMD und gemessen scheint man auch nur das Gesamtsys.

dildo4u
2007-10-06, 01:10:30
Auf Seite 4 haben sie eine echte Messung aber nur das Gesamtsystem ca 40W weniger als die 2900xT.

http://www.guru3d.com/article/review/463/4

deekey777
2007-10-06, 01:26:27
Auf Seite 4 haben sie eine echte Messung aber nur das Gesamtsystem ca 40W weniger als die 2900xT.

http://www.guru3d.com/article/review/463/4
http://www.guru3d.com/article/review/463/7
Schaut euch das NT an: 1000W? Ähm, hallo?

dildo4u
2007-10-06, 01:31:52
Nur weil das NT viel Watt hat muss nicht automatisch der Wirkungsgrad schlecht sein.

"also because of the very high 80-85% power efficiency of the PSU. That also saves you money on your power bill."

http://www.guru3d.com/article/psu/429/7

deekey777
2007-10-06, 01:36:05
Nur weil das NT viel Watt hat muss nicht automatisch der Wirkungsgrad schlecht sein.

"also because of the very high 80-85% power efficiency of the PSU. That also saves you money on your power bill."

http://www.guru3d.com/article/psu/429/7
Es geht nicht um Wirkungsgrad, sondern was so ein Netzteil in diesem Test zu suchen hat. Überhaupt ist der Unterschied von 40 W irgendwie merkwürdig.

Gast
2007-10-06, 10:04:04
Es geht nicht um Wirkungsgrad, sondern was so ein Netzteil in diesem Test zu suchen hat. Überhaupt ist der Unterschied von 40 W irgendwie merkwürdig.
Passt doch ganz gut. Taktunterschied ca. 20% bei gleicher Spannung des Kerns, 40 Watt entsprechen etwa 20% der ~200 Watt Leistungsaufnahme.

HIMOZ
2007-10-06, 10:46:44
Ich habe gestern bei e-bug eine Sapphire 2900pro bestellt.
Dort wurde aber nachträglich der Text geändert: Speicerbus 256bit.
Ist das ein Angabefehler oder gibt es dies wirklich?
https://www.ebug-europe.com/bug/product.asp?PageNo=PRODUCTCARD&Catalog=HARDWARE&ProductId=110050787&Category=240000,ATIX2900

Bl@de
2007-10-06, 12:02:23
sagt mal. wie laut ist die 2900pro nun wirklich ? ich möchte mir gerne einen htpc zusammenbauen und für meine leistungsansprüche ist die 2900pro genau das richtige. ist es eine turbine wie die 5800 ultra damals ? und gibt es schon kühler von arctic cooling um da nachzuhelfen ?

Mumins
2007-10-06, 12:09:31
sagt mal. wie laut ist die 2900pro nun wirklich ? ich möchte mir gerne einen htpc zusammenbauen und für meine leistungsansprüche ist die 2900pro genau das richtige. ist es eine turbine wie die 5800 ultra damals ? und gibt es schon kühler von arctic cooling um da nachzuhelfen ?

Abartig laut das Ding unter 3D. Hab zum Testen kurz eingebaut. Dann gleich WAKÜ drauf. Evtl. kann man mit Spannungssenkung und Lüfterdrehzahl im 2D eine angenehme Lautstärke bekommen.

Bl@de
2007-10-06, 12:15:58
Abartig laut das Ding unter 3D. Hab zum Testen kurz eingebaut. Dann gleich WAKÜ drauf. Evtl. kann man mit Spannungssenkung und Lüfterdrehzahl im 2D eine angenehme Lautstärke bekommen.

Und im Idle/Video etc. Betrieb ? Bei Spielen wäre das ja nicht so Schlimm aber bei ruhigen Filmen schon.

Gast
2007-10-06, 12:16:46
sagt mal. wie laut ist die 2900pro nun wirklich?
Gestern gemessen: im 3D 3,5 Sone (38% Lüfterdrehzahl lt. Atitool).

Megamember
2007-10-06, 12:21:09
Und im Idle/Video etc. Betrieb ? Bei Spielen wäre das ja nicht so Schlimm aber bei ruhigen Filmen schon.

Wenn man den Lüfter im Windows manuell auf 25% fixed isses ruhig. Sonst dreht er nämlich schon im Windows auf 32 und das ist schon richtig nervig.

Bl@de
2007-10-06, 12:21:53
Wenn man den Lüfter im Windows manuell auf 25% fixed isses ruhig. Sonst dreht er nämlich schon im Windows auf 32 und das ist schon richtig nervig.

aber wie sieht es dann auf dauer mit der kühlleistung aus ?

seb74
2007-10-06, 13:00:58
Die ungeklärte, spannende Frage für alle die auf die PCIe 2.0 2950PRO/G92 mit einem PCIe 1.0 Board warten, ob sie darauf überhaupt laufen wird. Den aktuellen Gerüchten zufolge eher NICHT!
PCie 2 soll nur zu 1.1 kompatibel sein, das erst auf P35 Boards Verwendet wird.
Die Masse der 965 VIA und Asrock C2D Boards wären somit draußen. Hat da jmd genauere Infos darüber?
Ich habe mir angesichts dieser Ungewißheit lieber eine der limitierten und heiß begehrten 2900XT gesichert
(ähmm der drübergeklebte Sticker sagt ja PRO) für nur 220€ und 100% PCIe1.0 kompatibel.
GTS würde ich angesichts des bevorstehenden Refreshs auf 112 shader units nicht kaufen,
schon garnicht die kleine mit nur 320MB, die teurer ist als die 220€ 512MB XT, ähm dh ja PRO

Megamember
2007-10-06, 13:02:29
aber wie sieht es dann auf dauer mit der kühlleistung aus ?

GPU ist dann ca 64 Grad warm, reicht also.

dargo
2007-10-06, 13:04:45
Es geht nicht um Wirkungsgrad, sondern was so ein Netzteil in diesem Test zu suchen hat. Überhaupt ist der Unterschied von 40 W irgendwie merkwürdig.
Warum?

Gast
2007-10-06, 14:35:29
Passt doch ganz gut. Taktunterschied ca. 20% bei gleicher Spannung des Kerns, 40 Watt entsprechen etwa 20% der ~200 Watt Leistungsaufnahme.
Die XT zieht unter Last auch nur ca.165W, bei Xbit

Mumins
2007-10-06, 14:42:31
Und im Idle/Video etc. Betrieb ? Bei Spielen wäre das ja nicht so Schlimm aber bei ruhigen Filmen schon.

Ohne manuellen Eingriff zu laut, wenn man aber den Sound aufdrehen kann wirds gehen. Du kannst aber Spannung und Drehzahl manuell reduzieren.

Gast
2007-10-06, 14:44:11
Die XT zieht unter Last auch nur ca.165W, bei Xbit
Und wieviel zieht die Pro unter Last bei XBit? Richtig - andere Meßmethode.

Gast
2007-10-06, 15:24:40
Und wieviel zieht die Pro unter Last bei XBit? Richtig - andere Meßmethode.
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html

Gast
2007-10-06, 16:10:40
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html
Wo ist da eine HD2900 Pro?

Gast
2007-10-06, 16:33:20
~110-120W würde ich sagen ;-)

beos
2007-10-06, 18:16:10
Ich finds echt schade, dass die Karte nicht mal im Idle richtig leise ist :(

Vielleicht hätte AMD zu ATI noch eine GPU Kühler Schmiede aufkaufen sollen :biggrin:

Gast
2007-10-06, 20:55:28
Ich finds echt schade, dass die Karte nicht mal im Idle richtig leise ist :(

Vielleicht hätte AMD zu ATI noch eine GPU Kühler Schmiede aufkaufen sollen :biggrin:
Der Kühler ist ansich eigentlich schon gut und recht hochwertig.
Viel besser geht das mit Dual Slot und Radiallüfter nicht. Auch die 2900 Pro produziert viel Wärme und bläst einen mächtig warmen Schwall heißer Luft raus. Vor 3 Tagen stand der Rechner meines Kumpels, der eine 2900 Pro hat, mit der Rückseite mir gegenüber. Er hat sie auch übertaktet und beim Spielen spürte ich leicht den warmen Luftstrom, obwohl der Rechner ca. einen Meter entfernt war. An der Grakarückseite kann sich ohne Probleme nasse Hände ruckzuck trocknen.
Bei meiner GTS wird zwar auch Slotblech schön heiß, aber es kommt so gut wie kein Luftstrom raus, auch nicht viel an den Schlitzen an der Unterseite des Kühlkörpers. Lüfter überschreitet nie die 60 %.
Bezweifele stark, ob der GTS Kühler selbst auf voller Pulle eine übertaktete 2900 Pro in Zaun halten könnte.

Bl@de
2007-10-06, 21:47:07
Ohne manuellen Eingriff zu laut, wenn man aber den Sound aufdrehen kann wirds gehen. Du kannst aber Spannung und Drehzahl manuell reduzieren.

kann man sowas bei ati im treibermenü regeln oder geht es nur über externe programme ? sry für die ganzen fragen aber meine letzte ati karte war eine 9500 vor ca. 4 jahren ;D

Stray_bullet
2007-10-10, 17:32:44
Bei HardTecs4you (http://www.hardtecs4u.com/reviews/2007/amd_2900pro/) gibts die Review zur HIS Radeon HD2900 Pro Limited Edition.

Mumins
2007-10-10, 18:02:48
kann man sowas bei ati im treibermenü regeln oder geht es nur über externe programme ? sry für die ganzen fragen aber meine letzte ati karte war eine 9500 vor ca. 4 jahren ;D

ATItool kannste Spannung reduzieren und den Takt ändern für 2D. Wie die Drehzahl geregelt wird keine Ahnung müßte auch damit gehen. Hab gleich die WAKÜ drauf.

Majestic
2007-10-10, 18:18:03
Bei HardTecs4you (http://www.hardtecs4u.com/reviews/2007/amd_2900pro/) gibts die Review zur HIS Radeon HD2900 Pro Limited Edition.

Ech schade das AMD/ATI die GPU so misslungen ist. Für den Preis wäre die Karte sonst bestimmt der Preis/Ausstattungs Hit ;(

Sterem
2007-10-10, 18:18:58
Ech schade das AMD/ATI die GPU so misslungen ist. Für den Preis wäre die Karte sonst bestimmt Preis/Ausstattungs Hit ;(

Der Test ist doch der grösste Müll.Das stimmt doch alles garnicht......

Und dann noch Cat 7.6 Bei der Seite schneiden ATI Karten immer schlecht ab.Laut user Berichten ist die X2900 XT schneller als eine 8800 GTS.Im luxx Forum gibts Leute die beide Karten selbst getestet haben.

GanjaBob
2007-10-10, 18:22:17
Bei HardTecs4you (http://www.hardtecs4u.com/reviews/2007/amd_2900pro/) gibts die Review zur HIS Radeon HD2900 Pro Limited Edition.
hä? toll mit'm 7.6'er treiber ... :|:confused:

The_Invisible
2007-10-10, 18:59:25
das manche noch immer nicht glauben wollen das der r600 quasi ein rohrkrepierer ist mit aa/af. und nvidia wird auch mit uralttreiber getestet ;)

mfg

Gast
2007-10-10, 19:23:44
Die PRO wird doch erst siet dem 7.9 unterstützt :confused:

Gast
2007-10-10, 19:31:44
Linke Seite vom 14.5.07 und Rechte Seite vom 26.9.07

http://img67.imageshack.us/img67/775/terdu2.jpg (http://imageshack.us)

Gast
2007-10-10, 19:46:16
das manche noch immer nicht glauben wollen das der r600 quasi ein rohrkrepierer ist mit aa/af. und nvidia wird auch mit uralttreiber getestet ;)

mfg
Ich frage mich warum du nur bashen tust ?


Die 2900er verliert auch nicht so viel mehr wie die 8800GTS 640 .
Oder denkst du bei der Konkurenz gibt es das for Free?

Beispielein 1280x1024

Anno

2900XT von 4xAA+16xAF->41,6Fps auf 8xAA+16xAF->37,0Fps
8800GTS von 4xAA+16xAF->39,5Fps auf 8xAA+16xAF->34,3Fps

F.E.A.R.

2900XT von 4xAA+16xAF->80Fps auf 8xAA+16xAF->49Fps
8800GTS von 4xAA+16xAF->83Fps auf 8xAA+16xAF->48Fps

Oblivion

2900XT von 4xAA+16xAF->56,5Fps auf 8xAA+16xAF->44,0Fps
8800GTS von 4xAA+16xAF->46,7Fps auf 8xAA+16xAF->39,2Fps

COH

2900XT von 4xAA+16xAF->100,7Fps auf 8xAA+16xAF->74,8Fps
8800GTS von 4xAA+16xAF->85,6Fps auf 8xAA+16xAF->71,9Fps

Bei CoH verliert die ATI zwar mehr, aber bleibt denoch schneller ;)

Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/8/#abschnitt_anno_1701

LovesuckZ
2007-10-10, 20:26:58
Dafür benötigt die Karte auch fast 60 Watt mehr Strom und ist wesentlich lauter.

Das Auge
2007-10-10, 20:35:06
Dafür benötigt die Karte auch fast 60 Watt mehr Strom und ist wesentlich lauter.

Laut ist sie, stimmt. Aber beim Stromverbrauch steht die XT doch gar nicht so übel da, wenn man den idle-Modus bedenkt.

LovesuckZ
2007-10-10, 20:37:06
Laut ist sie, stimmt. Aber beim Stromverbrauch steht die XT doch gar nicht so übel da, wenn man den idle-Modus bedenkt.

Was ein sehr gutes Argument, da man die Karte ja für den IDLE-Modus gekauft hat, gell?

Gast
2007-10-10, 20:38:53
Was ein sehr gutes Argument, da man die Karte ja für den IDLE-Modus gekauft hat, gell?
Es ist schon möglich, dass das System samt Grafikkarte einen wesentlich höheren Teil der Betriebszeit im idle statt unter Volllast zubringt. Nicht jeder startet seinen PC ausschließlich für Benchmarks/Spiele ...

LovesuckZ
2007-10-10, 20:39:46
Es ist schon möglich, dass das System samt Grafikkarte einen wesentlich höheren Teil der Betriebszeit im idle statt unter Volllast zubringt. Nicht jeder startet seinen PC ausschließlich für Benchmarks/Spiele ...

In diesem Fall kauft man sich keine 2900 Karte.

Gast
2007-10-10, 20:40:45
In diesem Fall kauft man sich keine 2900 Karte.
Sondern? Eine 8800GTS/GTX? Was sonst in der Leistungsklasse?

The_Invisible
2007-10-10, 20:40:48
ich hab mir gedacht hier geht es um pro und nicht xt.

aber glückwünsch das die xt endlich gts performance erreicht hat, bleibt zwar noch die schlechtere bq und die miserable dx10 performance aber das ist ja hier egal.

mfg

LovesuckZ
2007-10-10, 20:45:12
Sondern? Eine 8800GTS/GTX? Was sonst in der Leistungsklasse?

Eine 8800GTS. Gleicher IDLE-Verbrauch und sparsamer im Last-Modus.

GanjaBob
2007-10-10, 20:50:08
dafür ist sie aber auch 80 - 100,- billiger als die GTS640

Gast
2007-10-10, 21:28:15
Dafür benötigt die Karte auch fast 60 Watt mehr Strom und ist wesentlich lauter.

:confused:

http://img255.imageshack.us/img255/7287/verbrauchtw8.jpg (http://imageshack.us)

Gast
2007-10-10, 21:47:51
:confused:

http://img255.imageshack.us/img255/7287/verbrauchtw8.jpg (http://imageshack.us)
:D
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif

Gast
2007-10-10, 21:51:25
ich hab mir gedacht hier geht es um pro und nicht xt.


So wie ich das mitbekommen habe, kann man doch sogut wie jede Pro zur XT flashen, oder nicht?

MfG

GanjaBob
2007-10-10, 22:06:35
So wie ich das mitbekommen habe, kann man doch sogut wie jede Pro zur XT flashen, oder nicht?

MfG
flashen geht imo noch nicht, sondern nur auf XT und ggf. höher takten.

Gast
2007-10-10, 22:11:15
klar geht flashen: http://www.pcgameshardware.de/?article_id=616032

Gast
2007-10-10, 22:26:54
Also der Idle Stromverbrauch sämtlicher DX10 Karten gehört verboten. Bedenkt man, dass der PC wohl zu 80% und mehr in diesem Modus läuft, so ist das eine astreine Katastrophe.

GanjaBob
2007-10-10, 22:38:02
klar geht flashen: http://www.pcgameshardware.de/?article_id=616032
hey cool! ... das nicht gewusst ich haben tat.

Gast
2007-10-10, 22:47:44
So wie ich das mitbekommen habe, kann man doch sogut wie jede Pro zur XT flashen, oder nicht?

MfG
Wozu? Die Pro soll schärfere Speichertimings haben als die XT, eine bloße Takterhöhung ist somit viel sinnvoller.

Gast
2007-10-11, 01:42:58
Also der Idle Stromverbrauch sämtlicher DX10 Karten gehört verboten. Bedenkt man, dass der PC wohl zu 80% und mehr in diesem Modus läuft, so ist das eine astreine Katastrophe.

Das ist nur bei High-End der fall...

Mumins
2007-10-11, 07:19:30
In diesem Fall kauft man sich keine 2900 Karte.

Doch, mein Rechner läuft überwiegend im idle. Genau deshalb hab ich den Takt auf 350/400 und 0,85V GPU bzw. 2Vmem. Geht das auch bei der GTS?

MartinRiggs
2007-10-11, 07:50:07
Nö geht bei der GTS natürlich nicht.
Mumins wie hast du das mit dem Idle-Takt geregelt? Stellst du alles manuell mit dem ATI-Tool ein?
Meine HD2900Pro sollte heute kommen

Mumins
2007-10-11, 08:52:38
Ja, manuell mit dem ATItool.

Odal
2007-10-11, 08:59:08
man kann die GPU spannung per software soweit runterregeln?
2900Pro ich komme :D

ich mein ich praktiziere das schon seit anfang an mit meiner X1900XT aber unter 0,95volt bei 200/200 Mhz komm ich nicht....

die dürfte ja tatsächlich an X1900er Idle verbrauchswerte ranrutschen mit so starkem undervolting

The_Invisible
2007-10-11, 09:01:23
Doch, mein Rechner läuft überwiegend im idle. Genau deshalb hab ich den Takt auf 350/400 und 0,85V GPU bzw. 2Vmem. Geht das auch bei der GTS?

meiner wird eigentlich nur mehr zum zocken eingeschalten, und nu?

für schreibarbeiten und programmierung brauche ich zumindest keinen 3ghz c2d, mein lapi braucht ungefährt so 18w, ich wette jedes desktop mainboard braucht mehr.

mfg

myopF
2007-10-11, 09:36:54
hat halt nicht jeder nen lappi, ich selber hab zwar auch einen der nur fürs office is, aber zuhause arbeite ich dann idr doch lieber auf meinem desktop, da is die peripherie einfach ergonomischer.
nur mit dockingstation könnte ich dem was abgewinnen.
im endeffekt bietet die pro das bessere p/l als die gts, daran kann man nicht rummeckern.
stromverbrauch und lautstärke kann man mit dem atitool zu leibe rücken, bringt dem 0815 user aber leider nix ;)

PS: gibts die voltage settings auch bei der 1950 serie (bios || tool)? finde dazu bei atitool atm nix. und 2d/3d takte kann ich auch net getrennt einstellen, bei meiner 76gt ging das noch *murr*

MartinRiggs
2007-10-11, 10:27:13
Doch, mein Rechner läuft überwiegend im idle. Genau deshalb hab ich den Takt auf 350/400 und 0,85V GPU bzw. 2Vmem. Geht das auch bei der GTS?

wie kühl ist die karte dann eigentlich wenn du soweit runtergetaktet hast????
Hast noch den Original-Lüfter drauf?

Gast
2007-10-11, 11:05:23
man kann die GPU spannung per software soweit runterregeln?
2900Pro ich komme :D

ich mein ich praktiziere das schon seit anfang an mit meiner X1900XT aber unter 0,95volt bei 200/200 Mhz komm ich nicht....

die dürfte ja tatsächlich an X1900er Idle verbrauchswerte ranrutschen mit so starkem undervolting
Im Forumluxx gibt es welche die bis 0,68V bei 200/200 runter kommen. Also 0,8 bei 300/300 sind eigentlich immer zu schaffen.
Und im 3D kann man auch auf 1,1V bei 820Mhz gehen, muß jeder für sich testen dann.

Dr.Dirt
2007-10-11, 13:14:09
für schreibarbeiten und programmierung brauche ich zumindest keinen 3ghz c2d, mein lapi braucht ungefährt so 18w, ich wette jedes desktop mainboard braucht mehr.

Was hat das mit der 2900 Pro zu tun?
Ich mache Schreibarbeiten mit Papier und Bleistift, das sind 18W weniger als dein Notebook verbrät, und nun? :rolleyes:

dittohead
2007-10-11, 15:29:55
interessant wäre dann wieviel die karte dann verbraucht bei 0,8 200/200 ? wenn man denn damit leben kann ist sie bald meine bei den preisen

achso, wie würde man das dann regeln, kann man per atitool sowohl takt als auch spannung einstellen ? und wird es dann auch wirklich angewandt ?

Mumins
2007-10-11, 18:12:26
wie kühl ist die karte dann eigentlich wenn du soweit runtergetaktet hast????
Hast noch den Original-Lüfter drauf?

Wakü druff, das geht so auf 38 C°. Aber mit nem neuen Kühlkörper dürfte mehr gehen. Muß nen Swiftech holen, da meiner die Karte nicht mehr optimal kühlt.
Was ich nicht checke warum der Hersteller nicht gleich auf 400/400 im 2D geht.

schapy
2007-10-11, 23:07:52
Nachdem ich gestern durch den Lautstärkepegels des HD2900PRO Lüfters totunglücklich war, habe ich gestern kurzerhand den Heatkiller GPUx meiner x1900xt@xtx "abgeändert" - dazu habe ich einfach die ausladenen Kühlerbeine für die RAM Steine abgeschnitten:

http://s2.directupload.net/images/071011/temp/go2b8d8u.jpg (http://s2.directupload.net/file/d/1212/go2b8d8u_jpg.htm)

Dann habe ich den orignal Lüfter abgeschraubt ...

http://s1.directupload.net/images/071011/temp/n5nyp2fs.jpg (http://s1.directupload.net/file/d/1212/n5nyp2fs_jpg.htm)

Dabei hab ich festgestellt DDR3 Speicher von Hynx ist verbaut ... bei meiner Powercolor x1900xt waren noch Infineon Speicher verlötet.

http://s1.directupload.net/images/071011/temp/59bqx6up.jpg (http://s1.directupload.net/file/d/1212/59bqx6up_jpg.htm)

... das ist die grösste Die die ich bisher gesehen habe

http://s6.directupload.net/images/071011/temp/mz8cdfab.jpg (http://s6.directupload.net/file/d/1212/mz8cdfab_jpg.htm)


Dann habe ich den Heatkiller unter höllische Vorsicht montiert .. seitliches Verkanten kann bei dem um 45Grad gedrehten Chip wohlmöglich schnell tödlich sein (solangsam können sie wieder DAU Kappen montieren, so eine blanke Die macht mir immer Angst)

http://s2.directupload.net/images/071011/temp/sq8c4z3r.jpg (http://s2.directupload.net/file/d/1212/sq8c4z3r_jpg.htm)

hier nochmal der Vergleich zum "Standard" Brülllüfter ... wie kann man sowas verbauen ... damals haben man sich über die Nvidia 5700 Ultra Karten lustig gemacht ... das Ding ist schlimmer

http://s3.directupload.net/images/071011/temp/5tdrikkj.jpg (http://s3.directupload.net/file/d/1212/5tdrikkj_jpg.htm)


nach einer Weile war dann auch alles wieder im Wasserkreislauf

http://s1.directupload.net/images/071011/temp/hzcbsh2g.jpg (http://s1.directupload.net/file/d/1212/hzcbsh2g_jpg.htm) http://s2.directupload.net/images/071011/temp/lcy4gsvo.jpg (http://s2.directupload.net/file/d/1212/lcy4gsvo_jpg.htm)

mal eben mit meinen 24/7 settings ein Belastungstest gefahren ... und ich bin sehr zufrieden, der Rechner ist leise die Temperaturen sind ordentlich. Jetzt kann ich ruhig ins Bett und morgen wird gebenchet .... 850Mhz GPU/1000Mhz RAM hatte ich schon unter Luft

http://s3.directupload.net/images/071011/temp/laq4sz59.jpg (http://s3.directupload.net/file/d/1212/laq4sz59_jpg.htm)




Frage 1).
Wie heiss wird das schwarze Metallblech bei der Luftgekühlten HD2800PRO unter Volllast - warm .. sehr warm o. schon eher heiss ?
Kann das bitte mal jemand von der Fraktion mit den Standardkühler austesten ? Nach längerem Lastbetrieb das SPAWA/RAM Blech mal anpacken und mal sagen wir warm der wir ? Ich habe den LuKü ab und kühle nur noch die GPU mit Wasser - auf das Blech blässt ein Lüfter trotzdem wird das blech sehr warm bis heiss. Ich möchte Wissen ob das mit dem Standard Kühler auch der Fall ist, da ich mir nicht vorstellen kann, das der Standardkühler den Rest auch gut mit kühlt !

Frage 2) Dann habe ich noch eine weitere Frage - was muss ich an dem 8-Steckeranschluss auf Masse schalten, damit ich mit ATI CCC ocen kann, irgendjemand schrieb das hier in dem mitllerweiel über 100seitigen Thread und ich habe gestern schon ne halbe gesucht und findes nicht mehr :(

Frage 3) Mit welchen Tool ausser ATI Tool & Riva Tuner kann ich die VGA auslesen sprich GPU Vcore, Temperaturen --> GPU/RAM/SPAWAS ?

Hintergrund - ich möchte die VGA nur per CCC auf 800/900 betreiben und anundzu die Temps kontrollieren. Rivatuner&ATI Tool konnte ich mich noch nie dauerhaft anfreunden ....




...

Banshee18
2007-10-11, 23:18:49
Frage 3) Mit welchen Tool ausser ATI Tool & Riva Tuner kann ich die VGA auslesen sprich GPU Vcore, Temperaturen --> GPU/RAM/SPAWAS ?
Ich habe immer gerne die ATI Tray Tools verwendet. Ich weiß aber nicht, ob die mit deinem Kärtchen schon funktionieren.

schapy
2007-10-11, 23:22:46
Ich habe immer gerne die ATI Tray Tools verwendet. Ich weiß aber nicht, ob die mit deinem Kärtchen schon funktionieren.

oh ... das ATI Tray Tool, ist auch nicht mein spezieller Freund ... allers irgendwie zu aufwendig und kompliziert. Ich dachte eher an so tools wie Everest, SmartGuardian Oder MotherboardMonitor ...

Dr.Dirt
2007-10-12, 00:24:07
Frage 2) Dann habe ich noch eine weitere Frage - was muss ich an dem 8-Steckeranschluss auf Masse schalten, damit ich mit ATI CCC ocen kann, irgendjemand schrieb das hier in dem mitllerweiel über 100seitigen Thread und ich habe gestern schon ne halbe gesucht und findes nicht mehr :(
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=381856

Bumsfalara
2007-10-12, 13:53:52
Kann mir eigentlich jemand mal erklären, warum es Spiele gibt bei denen die 2900er Chips unter AA/AF dermaßen einbrechen, bei anderen hingegen überhaupt nicht?

Company of Heroes (http://www.hardtecs4u.com/reviews/2007/amd_2900pro/index10.php) zum Beispiel, die Performance bleibt immer hoch.

Gast
2007-10-12, 19:37:03
http://www.hartware.de/review_755_1.html

Fazit

PowerColor Radeon HD 2900 Pro

"Die im Vergeich zur Radeon HD 2900 XT nur bei den Taktraten etwas reduzierte Radeon HD 2900 Pro konnte im Leistungstest überzeugen. In den meisten Fällen ist sie schneller als eine etwas mehr kostende GeForce 8800 GTS mit 320 MByte, manchmal sogar als das deutlich teurere 640-MByte-Modell der 8800 GTS. Dazu kommt ein enormes Übertaktungspotenzial, mit dem sogar die Radeon HD 2900 XT übertrumpft werden kann. Alles in allem deshalb eine sehr gute Performance für den Preis von rund 230 Euro.
Die Radeon HD 2900 Pro hat darüberhinaus den Vorteil, im Gegensatz zu den GeForce 8800 GTS Grafikkarten über einen Video-Eingang und einen mitgelieferten HDMI-Adapter (inkl. Audio) zu verfügen."

Vertigo
2007-10-12, 19:46:44
Danke für den Link zum Review auf hartware.de!

Der bestätigt im Grunde das, was auch die bisherigen, im Eingangsposting verlinkten Reviews ausgesagt haben. Allerdings finde ich solche Kommentare ziemlich blöd:

"Der Leistungsgewinn durch das Overclocking der Radeon HD 2900 Pro ist enorm, im 3DMark06 wurden etwas mehr als 30 Prozent verzeichnet. Damit ist die übertaktete Pro auch 8 bis 10 Prozent schneller als die Radeon HD 2900 XT, zumindest in diesem Test.".

Immerhin kann man sowohl eine 2900XT und auch eine 8800GTS ebenfalls übertakten ...

Sterem
2007-10-12, 19:54:59
Immerhin kann man sowohl eine 2900XT und auch eine 8800GTS ebenfalls übertakten ...

Nur geht eine X2900 ebend besser....

Vertigo
2007-10-12, 19:57:46
Nur geht eine X2900 ebend besser....
Prozentual ggü. der X2900XT - ja. Aber eine 8800GTS lässt sich auch oft genug zu >20% OC bewegen. Davon abgesehen ist OC im Einzelfall immer Glückssache und in anderen Foren kann man auch nachlesen, dass auch nicht jede HD 2900Pro über den XT-Takt hinaus kommt. Von daher sind solche Aussagen wie auf hartware.de ziemlich unsinnig.

Schlammsau
2007-10-12, 20:25:07
also krass.....so viel Leistung bzw. OC Potenzial fürs Geld, gabs noch nie!
Hab mir grad den Test von HardTecs4u durchgelesen.
Überleg echt grad, ob ich mir eine besorgen soll.....

AnarchX
2007-10-12, 20:28:25
also krass.....so viel Leistung bzw. OC Potenzial fürs Geld, gabs noch nie!

Aber sicher:
7900GTO für 220€ im Herbst 06, 7900GX2 für 350€(wo die 7950GX2 noch bei 500€+ war) im Sommer 06,... ;)

Überleg echt grad, ob ich mir eine besorgen soll.....
Würde doch noch raten bis zu 8800 GT bzw. HD2950 pro zu warten.

Vertigo
2007-10-12, 20:34:19
Aber sicher:
7900GTO für 220€ im Herbst 06, 7900GX2 für 350€(wo die 7950GX2 noch bei 500€+ war) im Sommer 06,... ;)


Würde doch noch raten bis zu 8800 GT bzw. HD2950 pro zu warten.
Absolut. Es hat schon einen Grund, warum die HD2900Pro jetzt so günstig ist. Aber wenn die Nachfolger kommen, werden die 2900Pro-Karten wahrscheinlich kaum teurer. Ich würde jetzt nicht upgraden, sondern noch einen Monat warten.

Schlammsau
2007-10-12, 21:04:40
Absolut. Es hat schon einen Grund, warum die HD2900Pro jetzt so günstig ist. Aber wenn die Nachfolger kommen, werden die 2900Pro-Karten wahrscheinlich kaum teurer. Ich würde jetzt nicht upgraden, sondern noch einen Monat warten.
es geht darum, dass die Karte ohne zusätzliche Kühlung laut HT4u auf XT Niveau zu bringen ist! Und das obwohl sie mehr als 100€ günstiger ist!
Die billigste Pro gibts schon für 211 Teuronen.......
is echt ne Überlegung wert.....
....dann müsste ich mir aber ein neues NT besorgen!:P

James Ryan
2007-10-12, 21:04:51
http://www.hartware.de/review_755_1.html

Fazit

PowerColor Radeon HD 2900 Pro

"Die im Vergeich zur Radeon HD 2900 XT nur bei den Taktraten etwas reduzierte Radeon HD 2900 Pro konnte im Leistungstest überzeugen. In den meisten Fällen ist sie schneller als eine etwas mehr kostende GeForce 8800 GTS mit 320 MByte, manchmal sogar als das deutlich teurere 640-MByte-Modell der 8800 GTS. Dazu kommt ein enormes Übertaktungspotenzial, mit dem sogar die Radeon HD 2900 XT übertrumpft werden kann. Alles in allem deshalb eine sehr gute Performance für den Preis von rund 230 Euro.
Die Radeon HD 2900 Pro hat darüberhinaus den Vorteil, im Gegensatz zu den GeForce 8800 GTS Grafikkarten über einen Video-Eingang und einen mitgelieferten HDMI-Adapter (inkl. Audio) zu verfügen."

Verwendete Forceware für alle Gf 8 Karten war der 158.xx! ;D
Das Review ist für die Tonne, jedenfalls um einen Vergleich zwischen 2900 Pro und 8800 GTS zu bekommen.

MfG :cool:

Vertigo
2007-10-12, 21:07:38
es geht darum, dass die Karte ohne zusätzliche Kühlung laut HT4u auf XT Niveau zu bringen ist! Und das obwohl sie mehr als 100€ günstiger ist!
Die billigste Pro gibts schon für 211 Teuronen.......
is echt ne Überlegung wert.....
Schon, aber wenn in ein paar Wochen die besseren Nachfolger auf den Markt kommen, hat man erstens mehr Auswahl und zweitens bestimmt noch bessere Preise auf den dann alten 2900Pro-Karten. Also ich würde lieber einen Monat warten als mich dann ein Jahr lang zu ärgern ... ;)

Schlammsau
2007-10-12, 21:12:23
Schon, aber wenn in ein paar Wochen die besseren Nachfolger auf den Markt kommen, hat man erstens mehr Auswahl und zweitens bestimmt noch bessere Preise auf den dann alten 2900Pro-Karten. Also ich würde lieber einen Monat warten als mich dann ein Jahr lang zu ärgern ... ;)
...weiss man´s?
Ich würd mir in den Arsch beissen wenns nicht so kommt wie du schreibst!
weil diese Karten werden ziemlich schnell vergriffen sein, wenn man den reviews glauben kann.

majortom
2007-10-12, 21:24:24
Verwendete Forceware für alle Gf 8 Karten war der 158.xx! ;D
Das Review ist für die Tonne, jedenfalls um einen Vergleich zwischen 2900 Pro und 8800 GTS zu bekommen.

MfG :cool:

das stimmt allerdings! wie verschieden doch die Testergebnisse sein können:
hier kommt die 320er ziemlich gut weg gegenüber der 2900pro: (aus einem anderen Thread von 3DC)

http://www.guru3d.com/article/review/463/8

sklave_gottes
2007-10-12, 21:45:19
Aber sicher:
7900GTO für 220€ im Herbst 06, 7900GX2 für 350€(wo die 7950GX2 noch bei 500€+ war) im Sommer 06,... ;)


Würde doch noch raten bis zu 8800 GT bzw. HD2950 pro zu warten.

Geht so, die 7900GX2 war/ist wirklich schnell für damalige 350€, Für das selbe geld hast du damals aber schon eine x1900xt/x1950xt bekommen die heute gut 15 bis 20% schneller ist.

Genau das gleiche gilt für 7900GTO, für 180€ gabs auch locker eine x1950pro die heute 15-20% schneller ist.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet

mfg martin

Gast
2007-10-12, 21:58:45
das stimmt allerdings! wie verschieden doch die Testergebnisse sein können:
hier kommt die 320er ziemlich gut weg gegenüber der 2900pro: (aus einem anderen Thread von 3DC)

http://www.guru3d.com/article/review/463/8
Das zeigt einmal mehr das die Reviews nur ein Anhaltspunkt sein können und mehr nicht.

AnarchX
2007-10-12, 22:44:47
Geht so, die 7900GX2 war/ist wirklich schnell für damalige 350€, Für das selbe geld hast du damals aber schon eine x1900xt/x1950xt bekommen die heute gut 15 bis 20% schneller ist.
Ja, heute, aber damals sah es anders aus (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/23/#abschnitt_performancerating_qualitaet). (vor 12Monaten, die meisten GX2-Käufer werden wohl eh schon wieder aufgerüstet haben...)
Zudem ging es ja auch um OCing und da war bei einer 7900GX2 mit 500MHz meist locker 20% drin.


Genau das gleiche gilt für 7900GTO, für 180€ gabs auch locker eine x1950pro die heute 15-20% schneller ist.

Bei der 7900GTO sollte man aber nicht den genialen Kühler vergessen und die X1950Pro kam auch erst, wo die 7900GTO fast weg war bzw. kamen die 512MB Versionen auch nicht gleich zum Release. Hauptkonkurrent war damals die X1900XT 256MB, mit lautem Lüfter und den nur 256MB, was doch manchen für die GTO entscheiden ließ.

Sterem
2007-10-13, 00:00:31
das stimmt allerdings! wie verschieden doch die Testergebnisse sein können:
hier kommt die 320er ziemlich gut weg gegenüber der 2900pro: (aus einem anderen Thread von 3DC)

http://www.guru3d.com/article/review/463/8

Ich sehe nur ein Test und nicht verschiedene.......

majortom
2007-10-13, 00:08:13
ja, das ist ein Test. Der andere, auf den ich mich beziehe, ist der hier:
http://www.hartware.de/review_755_1.html

The_Invisible
2007-10-13, 08:29:10
Ich sehe nur ein Test und nicht verschiedene.......

siehe 3dcenter news: http://www.neoseeker.com/Articles/Hardware/Reviews/pc_hd2900pro/

mfg

Schlammsau
2007-10-13, 09:15:05
es kommt auch immer auf die Games an.....
bei manchen Games bevorzugen eher ATI andere wieder nVidia!

beos
2007-10-13, 10:10:44
...wenn die Karte nur nicht so laut wäre :rolleyes:

Mr.Fency Pants
2007-10-13, 11:34:28
Was mir auffällt: bisher war es oft so, dass bei Erscheinen ATI und Nvidia Karten oftmals gleich schnell sind, später jedoch die ATI Karte schneller, siehe 7900er Serie und 1900er. Kann man davon ausgehen, dass das bei der aktuellen Serie ebenso der Fall ist? Quasi, dass die ATI Serie erst mit der Zeit reift?

James Ryan
2007-10-13, 11:37:05
es kommt auch immer auf die Games an.....
bei manchen Games bevorzugen eher ATI andere wieder nVidia!

Auch...
Aber wenn man die HD 2900 Pro mit den aktuellsten ATi-Treibern testet, sollte man das bitte auch bei den NVIDIA-Karten machen.
Allein das STALKER-Ergebnis der Gf 8800 Ultra zeigt doch dass der 158.xxer Treiber nicht mehr angebracht ist.
Die 163er Treiber haben einen dicken Schub gebracht, auch gerade für die Gf 8800 GTS/320. Die HD 2900 Pro ist nicht schlecht, die Gf 8800 GTS/320 mit aktuellen Treibern ist aber trotzdem schneller.

MfG :cool:

James Ryan
2007-10-13, 11:39:11
Was mir auffällt: bisher war es oft so, dass bei Erscheinen ATI und Nvidia Karten oftmals gleich schnell sind, später jedoch die ATI Karte schneller, siehe 7900er Serie und 1900er. Kann man davon ausgehen, dass das bei der aktuellen Serie ebenso der Fall ist? Quasi, dass die ATI Serie erst mit der Zeit reift?

Nein, diesmal wird es nicht so laufen.
Die Geforce 5 - 7 basierten alle auf dem vermurksten CineFX -Design was ein großes Problem mit Shadern allgemein hatte.
Die Geforce 8 ist völlig neu und wird in Zukunft nicht so absacken wie die letzten NVIDIA-Generationen.

MfG :cool:

desert
2007-10-13, 13:04:52
also krass.....so viel Leistung bzw. OC Potenzial fürs Geld, gabs noch nie!
Hab mir grad den Test von HardTecs4u durchgelesen.
Überleg echt grad, ob ich mir eine besorgen soll.....

und mal wieder hq gegen a.i. standard, dann noch den 158.22 als treiber und voila fertig ist der 8800gts killer.

Wo zum teufel bleibt die fairness? wo ist hier die vergleichbarkeit.

die tests die eigentlich auch mit a.i off laufen sollten, so steht es jedenfalls bei der testumgebung, wurden wohl unter den teppich gekehrt oder wie?

Wahrscheinlich wenn ich mir die ergebnisse der pcgh ansehe wo a.i off mit af an gegen a.i. on mit af an teilweise 30 % prozent langsamer ist.

Wo sind jetzt die ganzen leuten die meinten das man a.i. off nicht testen braucht, da die hd 2900 nur maximal 3 % verliert?

Gast
2007-10-13, 13:21:40
und mal wieder hq gegen a.i. standard, dann noch den 158.22 als treiber und voila fertig ist der 8800gts killer.

Wo zum teufel bleibt die fairness? wo ist hier die vergleichbarkeit.

die tests die eigentlich auch mit a.i off laufen sollten, so steht es jedenfalls bei der testumgebung, wurden wohl unter den teppich gekehrt oder wie?

Wahrscheinlich wenn ich mir die ergebnisse der pcgh ansehe wo a.i off mit af an gegen a.i. on mit af an teilweise 30 % prozent langsamer ist.

Wo sind jetzt die ganzen leuten die meinten das man a.i. off nicht testen braucht, da die hd 2900 nur maximal 3 % verliert?

Hast du dir das Review denn auch richtig durchgelesen?

Bei den Treibereinstellungen setzten wir für die Benchmarks auf „Hohe Qualität“ bei NVIDIA. Bei den ATI/AMD gehen wir weiterhin den Weg die Karten sowohl mit deaktiviertem Catalyst A.I. als auch mit der A.I. Standard-Einstellung zu testen. Für einen – in Bezug auf die GeForce-8-Serie - besser vergleichbaren anisotropen Filter wurde bei ATI das HQ-AF aktiviert. Aufgrund der in vielen Fällen zu hohen Anforderungen an eine Midrange-Karte wurde für diesen Test des Weiteren das Transparenz-Antialiasing deaktiviert.

desert
2007-10-13, 13:33:38
Hast du dir das Review denn auch richtig durchgelesen?


ja wo sind denn die ergebnisse? jedenfalls nicht im review, da sind nur die ergebnisse mit a.i. on.

http://www.hardtecs4u.com/reviews/2007/amd_2900pro/index10.php

und so ist das im ganzen test, nicht einer mit a.i. off

wahrscheinlich war keine zeit mehr, oder die wurden ausversehen gelöscht

Mr. Lolman
2007-10-13, 16:26:44
Die Geforce 8 ist völlig neu und wird in Zukunft nicht so absacken wie die letzten NVIDIA-Generationen.

MfG :cool:

Naja, mittlerweile ist die kleine 8800GTS nicht mehr soviel schneller als eine X1950XTX: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet

Wo sind jetzt die ganzen leuten die meinten das man a.i. off nicht testen braucht, da die hd 2900 nur maximal 3 % verliert?

Wer behauptet denn sowas?

James Ryan
2007-10-13, 16:31:24
Naja, mittlerweile ist die kleine 8800GTS nicht mehr soviel schneller als eine X1950XTX: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet


Verwendete Treiberversion für die Gf 8800 GTS/320: Nvidia ForceWare 158.45 ;D :|
Lesen anyone? :rolleyes:

MfG :cool:

laser114
2007-10-13, 16:35:03
Verwendete Treiberversion für die Gf 8800 GTS/320: Nvidia ForceWare 158.45 ;D :|

VS 7.5 bei dem R580. Wo ist das Problem?

Gast
2007-10-13, 16:41:36
VS 7.5 bei dem R580. Wo ist das Problem?

der 7.5er is quasi ausgereizt fürn R580er.
lesen und denken fanboys. Und wo is nun das Problem?

James Ryan
2007-10-13, 16:47:32
VS 7.5 bei dem R580. Wo ist das Problem?

Das Problem ist, dass gerade die Gf 8800 GTS/320 durch die neuen Treiber extremst profitiert!
Laut Lolman aber ist sie kaum schneller als eine X1950 XTX, als "Beweis" bringt er ein Rating von Computerbase.
Die benutzen aber den besagten alten Treiber, darum steht die Gf 8800 GTS/320 relativ schlecht klar.
Warum muss das wieder und wieder durchgekaut werden? :|

MfG :cool:

Gast
2007-10-13, 16:48:54
Naja, mittlerweile ist die kleine 8800GTS nicht mehr soviel schneller als eine X1950XTX: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet


Wer behauptet denn sowas?
Warum vergleichst du sie nichtmal mit einer X1950 XT mit 256 MB? ODer alternativ mit der 640-MB-Version der GTS?

Immer schön Äpfel mit Birnen...

Gast
2007-10-13, 16:49:40
Das Problem ist, dass gerade die Gf 8800 GTS/320 durch die neuen Treiber extremst profitiert!
Laut Lolman aber ist sie kaum schneller als eine X1950 XTX, als "Beweis" bringt er ein Rating von Computerbase.
Die benutzen aber den besagten alten Treiber, darum steht die Gf 8800 GTS/320 relativ schlecht klar.
Warum muss das wieder und wieder durchgekaut werden? :|

MfG :cool:
Guck dir einfach CoH und CMR Dirt an - dann weist du den Grund für das Rating und auch, warum Lolman es so toll findet.

Nakai
2007-10-13, 16:50:59
Warum vergleichst du sie nichtmal mit einer X1950 XT mit 256 MB? ODer alternativ mit der 640-MB-Version der GTS?

Warum sollte er?

mfg Nakai

Gast
2007-10-13, 16:53:32
Warum sollte er?

mfg Nakai
Weil die vorgebliche Langsamkeit einzig und allein auf den Speichermangel zurückzuführen ist, wie man am Direktvergleich mit der 640-MB-Version sieht - so man denn sehen will.


Und dass eine Karte absackt, wenn ihr der Speicher ausgeht, hat nichts mit zukunftssicherer Technik, AMD und Nvidia oder sonstwas zu tun sondern ist einfach nur logisch.

James Ryan
2007-10-13, 16:54:14
Warum sollte er?

mfg Nakai

Warum sollte er nicht?
Ist doch klar warum er es nicht macht: Es werden immer schön die Rosinen rausgepickt, die Treiber sind total egal, die Settings sind egal, die BQ ist egal, hauptsache am Ende steht Rot vor Grün.
Weißt man dann auf so etwas hin, wird einem Fanboyismus vorgeworfen. :rolleyes:

MfG :cool:

Nakai
2007-10-13, 17:24:44
Weil die vorgebliche Langsamkeit einzig und allein auf den Speichermangel zurückzuführen ist, wie man am Direktvergleich mit der 640-MB-Version sieht - so man denn sehen will.

Ich kapier dein Problem nicht, es ist doch egal was die Karte hat, wichtig ist was hinten rauskommt. Okay die 8800GTS hat ein anderes Featureset, aber von der reinen Performance/Geld ist die X1950XT mit 512Mb besser.

Und dass eine Karte absackt, wenn ihr der Speicher ausgeht, hat nichts mit zukunftssicherer Technik, AMD und Nvidia oder sonstwas zu tun sondern ist einfach nur logisch.

Tja, das ist es. Jedoch ist es für mich egal, für mich zählt der Preis und die Leistung und da bietet die Geforce 8800GTS 320 ein sehr schlechtes Preisverhältnis, wegen dem kleinen Vram.

Warum sollte er nicht?
Ist doch klar warum er es nicht macht: Es werden immer schön die Rosinen rausgepickt, die Treiber sind total egal, die Settings sind egal, die BQ ist egal, hauptsache am Ende steht Rot vor Grün.
Weißt man dann auf so etwas hin, wird einem Fanboyismus vorgeworfen.

Obwohl es jetzt nicht so direkt um mich geht. Ich werfe niemanden Fanboyismus vor, höchstens das jemand einer Firma offener gegenübersteht.

Das die Karte nun 320MB hat, schränkt die Leistung ein. Die Karte wird jedoch genau deswegen billiger verkauft. Ja das Featureset ist anders bzw. die 8800GTS ist da deutlich besser. Das muss man eingestehen.


mfg Nakai

Gast
2007-10-13, 17:58:18
Ich kapier dein Problem nicht, es ist doch egal was die Karte hat, wichtig ist was hinten rauskommt. Okay die 8800GTS hat ein anderes Featureset, aber von der reinen Performance/Geld ist die X1950XT mit 512Mb besser.
Dein einzig lieferbare X1950 XTX/512:
http://geizhals.at/deutschland/a214605.html
289,- Euro

Die billigste lieferbare 8800 GTS/320:
http://geizhals.at/deutschland/a238849.html
235,- Euro


Differenz:
54 Euro.

Die billigste lieferbare 8800 GTS/640:
http://geizhals.at/deutschland/a224912.html
305,- Euro.

Differenz zur X1950 XTX: 16 Euro.

54 > 16.

Daher am ehesten mit der 640er vergleichbar. QED.

Nakai
2007-10-13, 18:01:48
Naja vor 2 Wochen gabs noch ne lieferbare X1950XT 512 für 175€, aber das hat sich wohl erledigt.

mfg Nakai

Gast
2007-10-13, 18:19:24
Tja, das ist es. Jedoch ist es für mich egal, für mich zählt der Preis und die Leistung und da bietet die Geforce 8800GTS 320 ein sehr schlechtes Preisverhältnis, wegen dem kleinen Vram.
Das bestreitet ja keiner.
Aber wenn jemand wie Lolman, der es eigentlich wissen sollte, sowas bei seiner Rosinenpickerei unterschlägt, dann finde ich das schon merkwürdig...

Mr. Lolman
2007-10-13, 18:21:49
Warum sollte er nicht?
Ist doch klar warum er es nicht macht: Es werden immer schön die Rosinen rausgepickt, die Treiber sind total egal, die Settings sind egal, die BQ ist egal, hauptsache am Ende steht Rot vor Grün.
Weißt man dann auf so etwas hin, wird einem Fanboyismus vorgeworfen. :rolleyes:

MfG :cool:

Wenn das Posten des aktuellsten Performancerating auf CB für dich schon Rosinenpickerei ist, dann ist so ein Vorwurf imo durchaus gerechtfertigt. Mit welchen Treibern, Settings oder BQ hätte es der werte Herr gern gebencht gehabt? R580/R600 Ailow vs G70HQ und G80Q ist, von der Winkelabhängigkeit des G70 mal abgesehen, so fair wie möglich...

Das bestreitet ja keiner.
Aber wenn jemand wie Lolman, der es eigentlich wissen sollte, sowas bei seiner Rosinenpickerei unterschlägt, dann finde ich das schon merkwürdig...

Was soll ich bitteschön wo unterschlagen haben? Carsten?

Mumins
2007-10-13, 18:34:07
Dein einzig lieferbare X1950 XTX/512:
http://geizhals.at/deutschland/a214605.html
289,- Euro

Die billigste lieferbare 8800 GTS/320:
http://geizhals.at/deutschland/a238849.html
235,- Euro


Differenz:
54 Euro.

Die billigste lieferbare 8800 GTS/640:
http://geizhals.at/deutschland/a224912.html
305,- Euro.

Differenz zur X1950 XTX: 16 Euro.

54 > 16.

Daher am ehesten mit der 640er vergleichbar. QED.

Was für ein Schwachsinn, eine 7900GTX gibt es auch erst ab 340 €. Die Karten sind längst ausgelaufen und einige Händler gehen auf Deppenfang. Eine 2900Pro gibt es ab 216 € und das ist die Karte zur 8800GTS. Genrauchte X1950XTX gibts für 150 €.

Majestic
2007-10-13, 18:38:24
WEine 2900Pro gibt es ab 216 € und das ist die Karte zur 8800GTS

WO? Link bidde :)

Gast
2007-10-13, 18:50:31
WO? Link bidde :)


Hier steht zumindest ab Lager.

http://www.bestseller-computer.de/?ID=16081

desert
2007-10-13, 19:52:59
Naja, mittlerweile ist die kleine 8800GTS nicht mehr soviel schneller als eine X1950XTX: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet


Wer behauptet denn sowas?

z.b. robbitop auf nachfragen wieso 3dcenter keinen a.i. off tests angeboten hat,wäre nicht nötig weil sie halt nur maximal 3-5 % verliert.

So jetzt hat mal jemand a.i. off getestet und dann kommst sowas bei raus. erstens das a.i. off überhaupt keine shaderreplacement betreibt, sondern nur am filter spart, obwohl ja immer behauptet wird das a.i. off größtenteils nur shaderreplacement betreibt, komischeweise macht sich a.i. off nur bemerkbar wenn af an ist, teilweise ist a.i. off sogar ohne aa/af schneller als a.i. on laut pcgh zwar nur 2 fps aber immerhin, nur wenn man af anmacht dann bricht ati ein und zwar nicht zuknapp.

komischweise wird in diesem test all das bestätigt was ich vermutet habe und auch du immer widersprochen hat, das selbst a.i. off auf einem r600 nicht mit h.q. auf g80 vergleichbar ist.

Schlammsau
2007-10-13, 21:10:54
WO? Link bidde :)
sie gibbet bereits ab 211€ (http://geizhals.at/deutschland/a282339.html)...... :P

Majestic
2007-10-13, 21:48:31
sie gibbet bereits ab 211€ (http://geizhals.at/deutschland/a282339.html)...... :P

Auch lieferbar? ;)

Majestic
2007-10-13, 21:48:52
Hier steht zumindest ab Lager.

http://www.bestseller-computer.de/?ID=16081

Danke :)

Vertigo
2007-10-13, 21:49:56
Auch lieferbar? ;)
Inzwischen offenbar nicht mehr. :O
Bis vorgestern sah das noch ganz anders aus, wenn dir diese Info was nützt. :biggrin:

Aber zumindest ab ~215€ ist eine Sapphire HD 2900Pro 512MB lieferbar:
http://geizhals.at/deutschland/a280299.html

Schlammsau
2007-10-13, 22:36:06
also wenn die Karte so leicht auf XT Taktraten zu bringen ist....wäre es dann auch möglich, einfach ein XT BIOS zu flashen? So wie bei der X1950 GT auf Pro?

Gast
2007-10-13, 23:09:51
also wenn die Karte so leicht auf XT Taktraten zu bringen ist....wäre es dann auch möglich, einfach ein XT BIOS zu flashen? So wie bei der X1950 GT auf Pro?

Ja, funktioniert anscheinend problemlos. Dort gibt es einige die es so gemacht haben.

http://www.forumdeluxx.de/forum/showthread.php?t=399583

MfG

Schlammsau
2007-10-13, 23:31:36
das wird ja immer besser!
ich frag mich jetzt nur, warum sie diese Karte rausgebracht haben?
Wenn sie ja absolut identisch zur XT ist. Und einfach nur weniger Takt hat!

Mansen
2007-10-13, 23:48:07
die karte beim hardtecs4u test wurde out of the box als 2900xt erkannt :)

=Floi=
2007-10-14, 00:34:15
weil sie die gleichen schwächen wie die 2900XT hat und eben jetzt abverkauft wird...

Schlammsau
2007-10-14, 10:14:45
aha...:|

James Ryan
2007-10-14, 10:20:09
Wenn das Posten des aktuellsten Performancerating auf CB für dich schon Rosinenpickerei ist, dann ist so ein Vorwurf imo durchaus gerechtfertigt. Mit welchen Treibern, Settings oder BQ hätte es der werte Herr gern gebencht gehabt? R580/R600 Ailow vs G70HQ und G80Q ist, von der Winkelabhängigkeit des G70 mal abgesehen, so fair wie möglich...


Es geht um den verwendeten Treiber... wie oft denn noch? :rolleyes:
Die Gf 8800 GTS/320 gewinnt bspw. durch den 163.44er in STALKER mal eben locker 30% Perfomance!

MfG :cool:

Mr. Lolman
2007-10-14, 10:27:52
und Settings und BQ, passen also doch?

Gast
2007-10-14, 10:31:26
Was soll ich bitteschön wo unterschlagen haben? Carsten?
"Naja, mittlerweile ist die kleine 8800GTS nicht mehr soviel schneller als eine X1950XTX: http://www.computerbase.de/artikel/h...ting_qualitaet"

Ich glaube nämlich nicht, dass du strunzdumm einfach nur auf Ratings glotzt, sondern auch weißt, wie sich so etwas zusammensetzt. Und wenn sich ein Rating ziemlich deutlich einfach nur mit der Menge des verbauten Grafikspeichers ändert, dann legt das andere Schlüsse nahe, als du es in deinem Posting wolltest (Achtung, Unterstellung - dagegen kannst du mit vernünftiger Begründung selbst etwas tun): Nämlich, dass die Geforce eine "kurzsichtige" Architektur in der von dir eingebildeten Nvidia-Tradition sei (-> "mittlerweile" - impliziert, dass sie früher schneller war und jetzt eben zurückfällt).

Ingo?

Mr. Lolman
2007-10-14, 10:46:28
Interessante Theorie, jedoch verringert sich auch der Abstand zur 640MB GTS bei höherer Last (Auflösung).

LovesuckZ
2007-10-14, 10:51:23
Interessante Theorie, jedoch verringert sich auch der Abstand zur 640MB GTS bei höherer Last (Auflösung).

Was nur logisch ist, da Speicherbandbreite und Rechenleistung auf einem Niveau liegen. :rolleyes:

Matrix316
2007-10-14, 11:10:10
aha...:|
Weil die 2900XT für 330 € anscheinend nicht den absatz findet, den man sich erhofft hat und man denkt, für 100 € weniger (und etwas weniger Takt), kann man mehr verkaufen - was IMO auch passieren dürfte. Wer bezahlt schon 330 für eine 2900XT wenns zum gleichen Preis eine 8800 GTS gibt, die mit AA und AF schneller ist? Für 200 € und weniger Takt, hat man dagegen nur eine 320 MB GTS als Konkurrenz, die ja anscheinend bei höheren Auflösungen und mit AA und AF, nicht ganz so schnell ist, während die PRO mit ihren 512 MB durchaus mithalten und schneller sein kann. Würde nvidia eine 8800GTS mit 640 MB und etwas weniger Takt auch für 220 € anbieten, könnte ATI die 2900 PRO wieder einpacken. ;)

Gast
2007-10-14, 11:24:37
Interessante Theorie, jedoch verringert sich auch der Abstand zur 640MB GTS bei höherer Last (Auflösung).
Nicht bei höherer Auflösung - da bleibt's bei 29%.
Nur bei AA/AF - was, wie schon gesagt, vermutlich an zwei Faktoren liegt:

A)
Treibereinstellungen: Nvidia-Grafikkarten (G8x)
Texturfilterung: Qualität
Vertikale Synchronisierung: Aus
MipMaps erzwingen: keine
Trilineare Optimierung: Ein
Anisotrope Muster-Optimierung: Aus
Negativer LOD-Bias: Clamp
Gamma-angepasstes AA: Ein
AA-Modus: 1xAA, 4xAA, 8xQAA
Transparenz AA: Aus


Treibereinstellungen: ATi-Grafikkarten (R(V)5x0)
Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
AA-Modus: 1xAA, 4xAA
Adaptive Anti-Aliasing: Off
High Quality AF: Off

und

B)
(320x2/8)*800 = (256*2/8)*1000

Wieder einmal nichts, was auf eine geringere Zukunftssicherheit der GF8 schließen lassen könnte.

Schlammsau
2007-10-14, 11:29:27
Weil die 2900XT für 330 € anscheinend nicht den absatz findet, den man sich erhofft hat und man denkt, für 100 € weniger (und etwas weniger Takt), kann man mehr verkaufen - was IMO auch passieren dürfte. Wer bezahlt schon 330 für eine 2900XT wenns zum gleichen Preis eine 8800 GTS gibt, die mit AA und AF schneller ist? Für 200 € und weniger Takt, hat man dagegen nur eine 320 MB GTS als Konkurrenz, die ja anscheinend bei höheren Auflösungen und mit AA und AF, nicht ganz so schnell ist, während die PRO mit ihren 512 MB durchaus mithalten und schneller sein kann. Würde nvidia eine 8800GTS mit 640 MB und etwas weniger Takt auch für 220 € anbieten, könnte ATI die 2900 PRO wieder einpacken. ;)
hm....aber Ati hat doch dann wohl die gleichen Produktionskosten bei der Pro wie bei der XT! Warum kann ATI dann die Karte für hundert 100€ weniger anbieten?
Ohne dabei Verlust zu machen? Is ja nur ein anderes BIOS drauf!:|

LovesuckZ
2007-10-14, 11:32:19
hm....aber Ati hat doch dann wohl die gleichen Produktionskosten bei der Pro wie bei der XT! Warum kann ATI dann die Karte für hundert 100€ weniger anbieten?
Ohne dabei Verlust zu machen? Is ja nur ein anderes BIOS drauf!:|

Verlust werden sie nicht machen. Aber sie werden geringere Margen einnehmen und die Lager räumen. Wenn die neuen Karten erscheinen, wird sich niemand mehr eine 2900 Karte kaufen. Also werden die überflüssigen Chips nun in Form von GT und PRO ins Volk geworfen.

beos
2007-10-14, 11:35:07
Naja - das würde bedeuten, dass ich mir eine Karte kaufe, die in einem Jahr vielelicht dank Treiber oder unterstützender Spiele schneller ist - aber dagegen eine neue Konkurrenzkarte steht , die trotzdem schneller ist..wie jetzt die x1950xt gegen die 8800GTS640mb :confused:

"Naja, mittlerweile ist die kleine 8800GTS nicht mehr soviel schneller als eine X1950XTX: http://www.computerbase.de/artikel/h...ting_qualitaet"

Ich glaube nämlich nicht, dass du strunzdumm einfach nur auf Ratings glotzt, sondern auch weißt, wie sich so etwas zusammensetzt. Und wenn sich ein Rating ziemlich deutlich einfach nur mit der Menge des verbauten Grafikspeichers ändert, dann legt das andere Schlüsse nahe, als du es in deinem Posting wolltest (Achtung, Unterstellung - dagegen kannst du mit vernünftiger Begründung selbst etwas tun): Nämlich, dass die Geforce eine "kurzsichtige" Architektur in der von dir eingebildeten Nvidia-Tradition sei (-> "mittlerweile" - impliziert, dass sie früher schneller war und jetzt eben zurückfällt).

Ingo?

James Ryan
2007-10-14, 11:38:06
hm....aber Ati hat doch dann wohl die gleichen Produktionskosten bei der Pro wie bei der XT! Warum kann ATI dann die Karte für hundert 100€ weniger anbieten?
Ohne dabei Verlust zu machen? Is ja nur ein anderes BIOS drauf!:|

Sowas ist ja nicht neu bei AMD/ATi. Verlust machen sie nicht, Gewinn aber auch nicht viel.
Für den Kunden ist das zwar kurzfristig gesehen gut (viel Leistung für wenig Geld), für das Unternehmen aber ist es schlecht, da unwirtschaftlich.
Geht das Unternehmen dann irgendwann kaputt, ist der Kunde auch der Dumme.

MfG :cool:

Mumins
2007-10-14, 11:45:17
Verlust bzw. keinen Gewinn macht ATI vor allem deswegen, weil sich jeder DAU ne Nvidia Karte holt. Selbst als ATI die schnelleren Karten hatte machte Nvidia mehr Gewinn.

Gast
2007-10-14, 11:48:15
Sowas ist ja nicht neu bei AMD/ATi. Verlust machen sie nicht, Gewinn aber auch nicht viel.
Für den Kunden ist das zwar kurzfristig gesehen gut (viel Leistung für wenig Geld), für das Unternehmen aber ist es schlecht, da unwirtschaftlich.
Geht das Unternehmen dann irgendwann kaputt, ist der Kunde auch der Dumme.

MfG :cool:

Amen. Alter polarisierer. Wenn man dich so reden hört könnt man glatt meinen du verstehst wirklich was du so von dir gibst....

Mr. Lolman
2007-10-14, 11:49:06
Nicht bei höherer Auflösung - da bleibt's bei 29%.
Nur bei AA/AF - was, wie schon gesagt, vermutlich an zwei Faktoren liegt:


Guter Einwurf. Ich dachte bisher, dass CB auch den R580 mittlerweile mit HQ-AF testet.

Wer bezahlt schon 330 für eine 2900XT wenns zum gleichen Preis eine 8800 GTS gibt, die mit AA und AF schneller ist?

Zumindest bei Computerbase sind beide ca. gleich schnell.

Schlammsau
2007-10-14, 11:50:20
und warum machen sie nicht einfach die XT 50-100€ billiger!?
dann würde die sie wie warme Semmeln weggehen!!!!!

LovesuckZ
2007-10-14, 11:52:36
und warum machen sie nicht einfach die XT 50-100€ billiger!?
dann würde die sie wie warme Semmeln weggehen!!!!!

Weil nicht jeder Chip die Taktraten schafft. So können sie die XT noch auf "hohem" Niveau weiterverkaufen und gleichzeitig nicht verwendbare Chips in den Markt bringen.

Schlammsau
2007-10-14, 11:58:13
Weil nicht jeder Chip die Taktraten schafft. So können sie die XT noch auf "hohem" Niveau weiterverkaufen und gleichzeitig nicht verwendbare Chips in den Markt bringen.
und was ist mit dem RAM? Warum haben sie keinen billigeren Speicher verbaut?
Der schafft ja auch die XT Taktraten!

Gast
2007-10-14, 12:10:56
Naja - das würde bedeuten, dass ich mir eine Karte kaufe, die in einem Jahr vielelicht dank Treiber oder unterstützender Spiele schneller ist - aber dagegen eine neue Konkurrenzkarte steht , die trotzdem schneller ist..wie jetzt die x1950xt gegen die 8800GTS640mb :confused:
Ich weiß nicht, ob ich dich richtig verstehe, aber ja: Neue Karten sind meistens schneller als die Vorgänger. Das ist der Sinn der Sache.

horn 12
2007-10-14, 12:12:25
Die Pro wird es nicht lange geben. vielleicht noch 2-3 Wochen,- aber die 2900XT wird sich bis Weihnachten halten können, und erst dann nicht mehr existieren. Der RV670 wird in etwa gleich stark, und besseres AF bieten (kann man dies denn bei Games IM SPIEL sehen, wage zu bezweiflen) und etwas bessere Performance unter Anwendung von AA bieten, welches aber die XT durch OC auch erreichen wird. (Rechne mit 10-15% maximal)
Mehr ist erst beim R700 drinnen welcher wohl im Juni/ AUGUST 2008 des Licht der Welt erblicken wird.

Gast
2007-10-14, 12:12:36
und warum machen sie nicht einfach die XT 50-100€ billiger!?
dann würde die sie wie warme Semmeln weggehen!!!!!
Wenn die RV670 wirklich so gut ist, wie hier allgemein angenommen wird, könnte ich mir durchaus vorstellen, dass mittlerweile gar keine R600 mehr produziert werden.

Schlammsau
2007-10-14, 12:37:30
Aber der RV670 hört sich auch gut an.....verdammt! Dürfte einiges weniger an Strom verbrauchen!

beos
2007-10-14, 20:19:35
Ich weiß nicht, ob ich dich richtig verstehe, aber ja: Neue Karten sind meistens schneller als die Vorgänger. Das ist der Sinn der Sache.

Ich wollte damit nur sagen, dass ich mir eine neue Karte kaufe - weil sie heute schneller sein sollte ...und nicht erst ein Jahr später, wie in dem verlinkten CB-Test.

Matrix316
2007-10-14, 21:06:00
Zumindest bei Computerbase sind beide ca. gleich schnell.

Bei den meisten schon, nur bei dem schönen hier leider net. http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/17/

Und das finde ich irgendwie etwas schade, dass die Performance so schwankt. Einmal zwischen 8800 GTX und Ultra und einmal nur auf X1950XTX Niveau.

AnarchX
2007-10-14, 22:40:39
Und das finde ich irgendwie etwas schade, dass die Performance so schwankt. Einmal zwischen 8800 GTX und Ultra und einmal nur auf X1950XTX Niveau.

Da sieht man eben den Umstand, dass ATi viel zu viel Wert auf Bandbreite und Shaderleistung gelegt hat, während es bei ROPs und TMUs kaum nennenswerte Änderungen/Leistungsteigerungen gab (16TMU/ROPs, wie schon beim R420, wenn auch doch etwas verbessert), was der Karte desöfteren zum Verhängnis wird.

Mal sehen ob kommende Projekte auch diese Tendenz zeigen oder ob man es geschafft hat, bei diesen das Verhältnis etwas harmonischer zu gestalten.

Vertigo
2007-10-14, 22:49:12
Wie sieht es eigentlich inzwischen mit dem Thema AI und Filter-"Optimierungen" aus? Ich habe mal vor einiger Zeit irgendwo gelesen, dass einige Optimierungen auf R600-Karten selbst mit AI off nicht deaktiviert werden. Ist das immernoch der Fall? Wie sieht es da mit aktuellen Treibern aus?

Sterem
2007-10-14, 23:50:49
Wie sieht es eigentlich inzwischen mit dem Thema AI und Filter-"Optimierungen" aus? Ich habe mal vor einiger Zeit irgendwo gelesen, dass einige Optimierungen auf R600-Karten selbst mit AI off nicht deaktiviert werden. Ist das immernoch der Fall? Wie sieht es da mit aktuellen Treibern aus?
Ist doch egal,siehst du alles eh nicht....

The_Invisible
2007-10-15, 07:57:20
Ist doch egal,siehst du alles eh nicht....

lol, das hätte ich einmal gerne zu r5x0/g7x zeiten gehört, da wäre die todesstrafe wohl nicht genug gewesen.

mfg

Mumins
2007-10-15, 08:13:35
Solange es nicht flimmert sieht es kein Schwein während des Spielens. Genau das war das Problem des G70, das Geflimmere. Wobei man sagen muß R580 hat auch geflimmert, GTL z.B.

Vertigo
2007-10-15, 10:12:30
Ist doch egal,siehst du alles eh nicht....
Woher weißt Du das denn? :D

Ich habe doch nicht nach subjektiven Einschätzungen gefragt. Sondern mich interessiert ganz einfach ob das nun so ist oder nicht - nur das lässt sich objektiv feststellen.

Prescott
2007-10-15, 13:29:24
Wollte noch mal was wichtiges hier kundtun:-)

Hatte auf das Powercolor HD2900XT Bios geflasht,und habe dann nicht mehr stabil die 860Mhz Core / 999Mhz Speicher mehr erreicht,die die Pro 100% stabil mitgemacht hat...

Habe jetzt wieder das Pro Bios geflasht,läuft wieder alles..!

Also Finger weg vom XT Bios für die Pro!

Gast
2007-10-15, 13:34:45
Wollte noch mal was wichtiges hier kundtun:-)

Hatte auf das Powercolor HD2900XT Bios geflasht,und habe dann nicht mehr stabil dir 860Mhz Core / 999Mhz Speicher mehr erreicht,die die Pro 100% stabil mitgemacht hat...

Habe jetzt wieder das Pro Bios geflasht,läuft wieder alles..!

Also Finger weg vom XT Bios für die Pro!
Könnte an den schärferen Timings liegen, da auf der Pro meistens 1,1ns Ram sind.(org. XT hat 1,0 oder 0,9ns )

Prescott
2007-10-15, 14:16:46
Das könnte beim Speicher so sein,aber doch nicht beim Core...???

Mr. Lolman
2007-10-15, 14:51:06
lol, das hätte ich einmal gerne zu r5x0/g7x zeiten gehört, da wäre die todesstrafe wohl nicht genug gewesen.

mfg

Du vergisst, dass das R580/600 AI dem G7x HQ ziemlich ähnlich ist. (von der WA mal abgesehen)

Bei den meisten schon, nur bei dem schönen hier leider net. http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/17/

Und das finde ich irgendwie etwas schade, dass die Performance so schwankt. Einmal zwischen 8800 GTX und Ultra und einmal nur auf X1950XTX Niveau.

Jo. Ist echt schade. Andererseits sind die Vistatreiber noch ziemlicher Crap und unter XPx86 fetzt die R600 schon ganz ordentlich - zumindest in neueren Engines. (wie auch der nächste Spiele-Performancereport von Madkiller zeigen wird)

AMC
2007-10-15, 15:19:30
Andererseits sind die Vistatreiber noch ziemlicher Crap und unter XPx86 fetzt die R600 schon ganz ordentlich - zumindest in neueren Engines.

Du meinst wie in Stalker, Bioshock und WiC? :rolleyes:

Ich verstehe nicht, was es hier noch zu diskutieren gibt? Die Mehrzahl aller Reviews sieht die GTS/320/640 vor einer XT, ergo auch vor einer Pro. Sieht man sich die News von gestern (13./14.) und heute an Neoseeker (http://www.neoseeker.com/Articles/Hardware/Reviews/pc_hd2900pro/) (im Schnitt liegt die GTS320 12% vor der Pro und in vielen Spielen damit auch vor der XT), so wird man feststellen, dass AMD/ATI die CF-Effizienz der Treiber stark steigern konnte, für die einzelne Karte der "Wundertreiber" aber nach wie vor fehlt und wohl nicht mehr kommen wird, da die Karte dann doch schon ausgereizt zu sein scheint. Von daher stellt sich doch (auch in Hinblick auf den RV670), die Frage nach einem Kauf einer Pro zum Preis einer GTS320, bzw. einer XT doch gar nicht mehr? Auch wenn ich vom RV670 keine andere Leistungspositionierung erwarte, so könnte der Chip durchaus kühler sein, möglicherweise besser zu oc'en und das rundere Paket abliefern (sofern der Preis stimmt), als eine Pro/XT es derzeit können.

AMC

Gast
2007-10-15, 15:47:51
Was ist mit WIC ? CB hat es doch getestet ;-)

http://img266.imageshack.us/img266/8616/oinv5.jpg (http://imageshack.us)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/21/#abschnitt_world_in_conflict


http://img134.imageshack.us/img134/6686/47477624fx5.jpg (http://imageshack.us)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_710/8/#abschnitt_world_in_conflict

Und mit dem 7.10 CCC gehts noch ein wenig besser.

Gast
2007-10-15, 15:55:06
Hier noch Stalker, zu mehr hab ich jetzt kein Bock

http://img514.imageshack.us/img514/7420/ppnb4.jpg (http://imageshack.us)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/17/#abschnitt_stalker

laser114
2007-10-15, 15:57:08
Der Stalker-Bench ist aber merkwürdig. Die 2600 XT schlägt eine 8600 GTS ziemlich gut und führt auch gegenüber der X1650 XT, die 2900 XT liegt aber hinter 8800 GTS und X1950 XTX (!).

Bug?

Blaire
2007-10-15, 16:01:02
Und mit dem 7.10 CCC gehts noch ein wenig besser.

2 fps Respekt :biggrin: Reicht trotzdem nicht um an der GTS zu kratzen , für neuere Games mit Qualitätssettings taugt die ganze Serie wenig.

Mr. Lolman
2007-10-15, 16:02:12
Bioshock :rolleyes:


abwarten...

EDIT: Und WiC läuft ja auch nicht sooo übel...

AMC
2007-10-15, 16:13:12
abwarten...

EDIT: Und WiC läuft ja auch nicht sooo übel...

WiC PC-Perspective (http://www.pcper.com/article.php?aid=463&type=expert&pid=11) :rolleyes:

http://www.pcper.com/images/reviews/463/7.10-single/wic-1600-bar.jpg

http://www.pcper.com/images/reviews/463/7.10-dual/wic-1600-bar.jpg

AMC

@ gast: Du hast das mit den Treibern (158.xx) aber verstanden, oder?

Gast
2007-10-15, 16:36:57
2 fps Respekt :biggrin: Reicht trotzdem nicht um an der GTS zu kratzen , für neuere Games mit Qualitätssettings taugt die ganze Serie wenig.

Die GTS 640mb hat 25,7FPS und die XT 512mb hat mit dem 7.10CCC jetzt 26,6FPS.

Bei 1600x1200 4/16

Mr. Lolman
2007-10-15, 16:45:10
WiC PC-Perspective (http://www.pcper.com/article.php?aid=463&type=expert&pid=11) :rolleyes:


Testsequenz benutzen wir nicht die integrierte Benchmarkfunktion, da diese sich etwas seltsam verhält. Stattdessen verwenden wir die Introsequenz zur ersten Kampagne der Demo.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/21/#abschnitt_world_in_conflict

http://www.gamespot.com/features/6179006/p-6.html

:rolleyes: :rolleyes:

EDIT: Schaut man sich dein verlinktes Review genauer an, scheint beim Benchmark da wirklich was im Argen zu sein. Dass NV da so viel schneller ist, als in einer echten Spielszene erinnert mich ein bisschen an deren Clipplanegeschichte im 3dmark Naturetest.

Gast
2007-10-15, 16:47:11
Und jetzt zu Bioshock in DX10. Ui auch an der 8800GTS 64mb vorbei.


http://img522.imageshack.us/img522/5373/bsaaec1.jpg (http://imageshack.us)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/18/#abschnitt_bioshock


http://img522.imageshack.us/img522/1778/bsnnoq2.jpg (http://imageshack.us)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_710/8/#abschnitt_bioshock

Blaire
2007-10-15, 16:54:16
Ati scheint wieder zu "cheaten" Wieder einmal fehlen Details und Beleuchtungen in HL2 Episode2.

http://enthusiast.hardocp.com/images/articles/1192319993CCET4fmmbJ_7_18_l.png

http://enthusiast.hardocp.com/images/articles/1192319993CCET4fmmbJ_7_15_l.png

Das hab ich alles schon damals bei HL2 Lost Coast bemerkt (X1900XT vs. 7800GTX) alles nix neues für mich. Fehlende Zäune gibts ja auch keine... ;)

Mr. Lolman
2007-10-15, 16:57:00
Ati scheint wieder zu "cheaten" Wieder einmal fehlen Details und Beleuchtungen in HL2 Episode2.

http://enthusiast.hardocp.com/images/articles/1192319993CCET4fmmbJ_7_18_l.png

http://enthusiast.hardocp.com/images/articles/1192319993CCET4fmmbJ_7_15_l.png

Das hab ich alles schon damals bei HL2 Lost Coast bemerkt (X1900XT vs. 7800GTX) alles nix neues für mich. Fehlende Zäune gibts ja auch keine... ;)

Jetzt fängst du schon wieder mit den Zäunen an. :rolleyes:

Die Zäune sind da, wenn man AF direkt ingame aktiviert. Und die Beleuchtungsfehler hatte NV mit den ersten Treibern auch. Damals wars klarerweise noch Valves Schuld, jetzt ists plötzlich ein ATi-Cheat. :rolleyes:

EDIT: Mit Cheatvermutungen wär ich an deiner Stelle generell eher vorsichtig. Denn diesbezüglich tun sich zB gerade beim integrierten WiC-Benchmark ein paar Fragen auf.

Cubitus
2007-10-15, 17:00:43
ja und was ist mit der fehlenden Beleuchtung im Bild1 ?
Was stimmt da nicht ?

Mr. Lolman
2007-10-15, 17:03:52
ja und was ist mit der fehlenden Beleuchtung im Bild1 ?
Was stimmt da nicht ?

HL² hat für bestimmte HW bestimmte Ingamedetails. Ist eine Grafikkarte nicht bekannt, gibts keine 'vollen' Details.

Blaire
2007-10-15, 17:04:36
EDIT: Mit Cheatvermutungen wär ich an deiner Stelle generell eher vorsichtig. Denn diesbezüglich tun sich zB gerade beim integrierten WiC-Benchmark ein paar Fragen auf.

Die Beleuchtungen die du meinst war der Fog/Nebel Bug das hat aber mit denen nix zu tun. Hier werden aber Details verschluckt bzw. garnicht erst angezeigt und das Problem gibt es schon lange bei Ati...ich bin nicht blind ich hatte beide Karten zum Vergleich damals :rolleyes:

AMC
2007-10-15, 17:05:29
Und jetzt zu Bioshock in DX10. Ui auch an der 8800GTS 64mb vorbei.


http://img522.imageshack.us/img522/5373/bsaaec1.jpg (http://imageshack.us)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/18/#abschnitt_bioshock


http://img522.imageshack.us/img522/1778/bsnnoq2.jpg (http://imageshack.us)
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_710/8/#abschnitt_bioshock

;D Zu geil. Guckst Du Dir die Bilder an, die Du verlinkst? Wo ist da jetzt die XT an der GTS vorbei? ;)

AMC

sklave_gottes
2007-10-15, 17:06:37
Du meinst wie in Stalker, Bioshock und WiC? :rolleyes:

Ich verstehe nicht, was es hier noch zu diskutieren gibt? Die Mehrzahl aller Reviews sieht die GTS/320/640 vor einer XT, ergo auch vor einer Pro. Sieht man sich die News von gestern (13./14.) und heute an Neoseeker (http://www.neoseeker.com/Articles/Hardware/Reviews/pc_hd2900pro/) (im Schnitt liegt die GTS320 12% vor der Pro und in vielen Spielen damit auch vor der XT), so wird man feststellen, dass AMD/ATI die CF-Effizienz der Treiber stark steigern konnte, für die einzelne Karte der "Wundertreiber" aber nach wie vor fehlt und wohl nicht mehr kommen wird, da die Karte dann doch schon ausgereizt zu sein scheint. Von daher stellt sich doch (auch in Hinblick auf den RV670), die Frage nach einem Kauf einer Pro zum Preis einer GTS320, bzw. einer XT doch gar nicht mehr? Auch wenn ich vom RV670 keine andere Leistungspositionierung erwarte, so könnte der Chip durchaus kühler sein, möglicherweise besser zu oc'en und das rundere Paket abliefern (sofern der Preis stimmt), als eine Pro/XT es derzeit können.

AMC


Und sag mal rechnen ist auch nicht so deine stärke oder ?
Wenn die 8800gts 320 12% schneller ist wie eine HD2900pro
Eine HD2900XT gute 20% schneller ist wie eine HD2900pro

Wie kann dann eine 8800gts 320 schneller sein wie eine HD2900XT ???

mfg martin

sklave_gottes
2007-10-15, 17:08:16
Die Beleuchtungen die du meinst war der Fog/Nebel Bug das hat aber mit denen nix zu tun. Hier werden aber Details verschluckt bzw. garnicht erst angezeigt und das Problem gibt es schon lange bei Ati...ich bin nicht blind ich hatte beide Karten zum Vergleich damals :rolleyes:


Kann es sein das es immer nur bei HL auftritt ?

Gast
2007-10-15, 17:13:58
;D Zu geil. Guckst Du Dir die Bilder an, die Du verlinkst? Wo ist da jetzt die XT an der GTS vorbei? ;)

AMC
Man sieht auf den Bildern folgendes

Alter Treiber ATI 32,6 FPS, neuer Treiber(7.10) sind es 34,5FPS

Die GTS 640mb hat 34,2FPS

Fazit: 34,5FPS(ATI) vs. 34,2FPS(NV)

Hast du es jetzt vieleicht verstanden?

Blaire
2007-10-15, 17:17:12
Kann es sein das es immer nur bei HL auftritt ?

Ich hatte es in vielen Games damals NFS:Most Wanted,HL2 Engine Games,Oblivion...

AMC
2007-10-15, 17:19:08
Und sag mal rechnen ist auch nicht so deine stärke oder ?
Wenn die 8800gts 320 12% schneller ist wie eine HD2900pro
Eine HD2900XT gute 20% schneller ist wie eine HD2900pro

Wie kann dann eine 8800gts 320 schneller sein wie eine HD2900XT ???

mfg martin

Und rechnen und Logik sind nicht so Deine Stärke, oder? Diese "12%" sind ein gewichteter Überblick. In den Spielen, in denen die GTS ihre Stärken hat (und das sind nun wirklich eine ganze Menge), ist sie dann dementsprechend auch vor einer XT, schau doch mal auf den vom Lolman verlinkten Benchmark DX-10 WiC, in 1600*1200 4AA/16AF ist die GTS wieder schneller, nur ein paar % aber immerhin und wir fangen doch nicht wieder mit dem Spielen und Benchen ohne AA/AF an, oder? :rolleyes: Deine Aussagen sind Pauschalaussagen und ich habe lediglich gesagt:

Die Mehrzahl aller Reviews sieht die GTS/320/640 vor einer XT, ergo auch vor einer Pro.

Ich bin müde, wieder und wieder und wieder dieselben Reviews zu posten. Schau einfach in den News-comments oder hier im Thread, da gibt es genug Reviews, die (vor allem mit dem seit über einem Monat erhältlichen 163.xx Forceware gemessen), die kleine GTS knapp auf/über der XT sehen, wenn 4fach AA und 16AF genutzt wird. Zumindest bis 1600*1200, in manchen Spielen auch darüber. Auch wenn es einigen nicht gefällt, aber die XT ist eher der Gegner der 320er GTS, egal was Preise und "Markteinordnungen" sagen.

AMC

AMC
2007-10-15, 17:26:23
Man sieht auf den Bildern folgendes

Alter Treiber ATI 32,6 FPS, neuer Treiber(7.10) sind es 34,5FPS

Die GTS 640mb hat 34,2FPS

Fazit: 34,5FPS(ATI) vs. 34,2FPS(NV)

Hast du es jetzt vieleicht verstanden?

Nö. Ich sehe hier vor allem Treibermischmasch. Du vergleichst den Cat 7.10 vs. den 7.7/7.8 aus dem ersten Test in diesem Spiel konstant zum 163.69. Richtig wäre den 7.10er Test mit dem aktuellsten Forceware (169.75/76) zu vergleichen, nicht mit dem 163.69, denn wenn Du schon Treiberveränderungen betrachtest, dann bitte auch auf beiden Seiten, ergo -> Tonne.

AMC

Cubitus
2007-10-15, 17:51:06
HL² hat für bestimmte HW bestimmte Ingamedetails. Ist eine Grafikkarte nicht bekannt, gibts keine 'vollen' Details.

Ok also ein Bug :confused:

Aber was ich bei der ganzen Sache nicht verstehe, es ist doch in dem Sinne ein "ATI powered" game.

http://www.pictureupload.de/originals/pictures/151007175357_hl2_2007-10-15_17-32-51-89.jpg

Also mich wundert es deshalb nicht, das ATI cheating unterstellt wird.
Da mir dieses Zeichen assoziert, dieses Game müsste einer ATI Karte gerade zu auf den Leib geschneidert sein.
Oder taucht dieses Zeichen einfach nur wegen marketing technischen Gründen im Graphikmenü auf ?

wegen den FPS nicht wundern, 8xS + TSSAA ist eingestellt