PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon HD 2900XT: Voller Hoffnung oder doch entäuscht!?


Seiten : 1 2 [3]

Coda
2007-05-17, 12:07:59
Und die Leckströme durch die höhere Spannung. Die XTX hätte nicht umsonst einen Leafblower als Kühlung gehabt.

Gast
2007-05-17, 12:18:27
Und die Leckströme durch die höhere Spannung. Die XTX hätte nicht umsonst einen Leafblower als Kühlung gehabt.
Naja, Leckströme sind für Spitzenwerte nicht so interessant, oder?

Odal
2007-05-17, 12:58:22
gibts zur berechnung der verbrauchswerte ne genauere formel?

also ich wüsste gern mal was meine x1900xt bei meinen 0,95volt @ 165Mhz chip und 165 Mhz ramtakt unter 2d bzw. 2d peak so schluckt wenn die default werte bei 1,45volt (1,25 in 2d) und 625Mhz chiptakt und 700mhz ramtakt (2d 400/500) liegen

http://www.xbitlabs.com/images/video/geforce7950gt/7950gt_power.gif

gibts da ne relativ genaue formel um mal zu berechnen was man da so spart mit undervolting?

laut der formel oben komm ich auf etwas über 7600gt verbrauch

sind schon die default spannungswerte der 2900xt bekannt? da die das teil ja schon auf über 1,2ghz übertaktet haben denk ich das sie evtl. wieder mit nem tool die spannung per software regeln konnten.....dann sind vielleicht doch wieder humane 2d verbrauchswerte drin....

reunion
2007-05-17, 13:22:25
Es wurde schonmal erwähnt, dass da von der XTX ausgegangen wurde, die das auch erreicht hätte.

Das ist für mich deshalb kein Argument, da man ja vorher keinerlei Vergleichswerte hatte. Natürlich kann man jetzt sagen würde die Karte höher takten, hätte sie einen höheren Verbrauch.

Coda
2007-05-17, 13:23:29
Das ist für mich deshalb kein Argument, da man ja vorher keinerlei Vergleichswerte hatte.
Zu was? Meine Quellen sprachen auf jeden Fall bis zuletzt von >200W bei der XTX und die sind zuverlässig ;)

gibts zur berechnung der verbrauchswerte ne genauere formel?
Ne, das kommt komplett auf den Chip und den verwendeten Prozess- und Transistorarten an.

reunion
2007-05-17, 13:33:16
Zu was?

Zu anderen R600-Derivaten. Es kam nur immer 8-Pin-Stromanschluss -> TDP 240W -> realen verbrauch ~200W. Aber ist ja auch egal.

Grivel
2007-05-19, 16:48:48
so ne frage ma : war die x1800 net auch nich so super am anfang von der leistung ??? hab das irgendwie so in erinnerung, weil da genauso die treiber beschissen waren .. aber man die leistung in der techdemo sehen konnte ...

Coda
2007-05-19, 17:11:59
so ne frage ma : war die x1800 net auch nich so super am anfang von der leistung ???
War eigentlich auf 7800GTX-Niveau oder leicht darüber.

Gast
2007-05-19, 18:07:56
Oh man, ATI hat Unmögliches möglich gemacht. In HL:Lost Coast ist r600 genau so schnell wie ein X1900 @OC

Daredevil
2007-05-19, 18:09:52
Das stimmt doch garnicht, übertaktet wäre sie locker doppelt so schnell, auch mit AA und AF

3d
2007-05-19, 19:03:17
warum verbraten die karten eigentlich im desktop so viel strom?

intel bringt ein neues stepping, bei dem die cpu statt 12W nur noch 8W verbraucht und so eine karte zieht 70W nur um den desktop anzuzeigen.
das kann doch nicht sein.

gibt es dafür eine technische erklärung?

Daredevil
2007-05-19, 19:32:14
Naja...... den Herstellern isses wohl egal?!
Solang keiner von beiden in die Richtung geht is man halt nicht gezwungen daran was zu machen.
Aber ne gts die weniger verbraucht oder ne xt die deutlich mehr verbraucht aber auch mehr leistet, is halt so ne Sache was einem wichtiger ist.
Mir is das allerdings auch egal weil ich noch bei Mami wohne, sonst hätt ich mir wohl die GTS geholt... wenn ich dafür überhaupt Geld gehabt hätte.

Gast
2007-05-19, 19:46:46
Naja...... den Herstellern isses wohl egal?!
Solang keiner von beiden in die Richtung geht is man halt nicht gezwungen daran was zu machen.
Aber ne gts die weniger verbraucht oder ne xt die deutlich mehr verbraucht aber auch mehr leistet, is halt so ne Sache was einem wichtiger ist.
Mir is das allerdings auch egal weil ich noch bei Mami wohne, sonst hätt ich mir wohl die GTS geholt... wenn ich dafür überhaupt Geld gehabt hätte.

Hö? Du holst dir ne HD2900XT weil du bei Mami wohnst ansonsten häts nur für eine GTS gelangt. Da frag ich mich eher warum du nicht gleich ne GTX geholt hast...

Grivel
2007-05-19, 19:47:38
ich würde sowieso nie das ultra ++ produkt kaufen, preisleistung dann anfälligkeit (produkt is ja am limit oder nahe dran) und dann oc: is spielraum is auch niedriger und stromverbrauch (oha :D)

Daredevil
2007-05-19, 19:51:08
Hö? Du holst dir ne HD2900XT weil du bei Mami wohnst ansonsten häts nur für eine GTS gelangt. Da frag ich mich eher warum du nicht gleich ne GTX geholt hast...
Ich meine von den Stromkosten her, eine GTS ist zwar langsamer aber deutlich Stromsparender, eine XT verbraucht massiv mehr und ist leicht bis gut schneller.
Eine 8800gtx ist zu teure und da ich eher Experimentierfreudig und ein kleiner Ati Fan seit der 7500 bin für mich das die beste wahl.
Zudem kann man die 2900xt auch gut übertakten was ich auch ausgesprochen gerne tue :D

AMC
2007-05-20, 03:31:53
Ich meine von den Stromkosten her, eine GTS ist zwar langsamer aber deutlich Stromsparender, eine XT verbraucht massiv mehr und ist leicht bis gut schneller.

:| Hast Du die Benches der letzten Tage und Wochen gepflogen überlesen? :| Eine GTS langsamer? In welchem Universum? Oder meinst Du ohne AA und AF, da kommt es hier und da hin. :wink:

AMC

Gast
2007-05-20, 05:37:34
:| Hast Du die Benches der letzten Tage und Wochen gepflogen überlesen? :| Eine GTS langsamer? In welchem Universum? Oder meinst Du ohne AA und AF, da kommt es hier und da hin. :wink:

AMC

Eine GTS ist langsamer und sie wird in Zukunft, 1-2 Monate keinen Stich mehr gegen die XT sehen!

Gast2
2007-05-20, 07:05:48
Ich bleib auch dabei... Die XT kann noch einiges reißen.

In einigen OpenGL Benches liegt sie ja teilweise sehr deutlich vor den nvidia Karten und das soll schon was heißen.

Wenn der D3D Part schrott ist, dann wundern diese Ergebnisse kaum. Aber man muss ganz klar sehen und so fair sein, das NVIDIA mindestens 6 Monate Vorsprung hat, als es um die Entwicklung der Treiber ging. Es wird daher interessant zu sehen sein, wie sich die zukünftigen Refreshkarten und Nachfolger schlagen werden, denn normalerweise bleibt die Basis die gleiche, so lange die Architektur nicht wieder komplett umgekrempelt wird.

Gast
2007-05-20, 10:30:28
Eine GTS ist langsamerAber höchstens, wenn ATI mit EATM anstatt AAA bescheißen kann oder eben ganz ohne AA/AF. Sonst ist die GTS/640 fast immer schneller.
und sie wird in Zukunft, 1-2 Monate keinen Stich mehr gegen die XT sehen!Das ist reine Spekulation und sollte auch so gekennzeichnet werden.

PCGH_Carsten
2007-05-20, 10:41:12
Aber man muss ganz klar sehen und so fair sein, das NVIDIA mindestens 6 Monate Vorsprung hat, als es um die Entwicklung der Treiber ging.
Naja. Andererseits könnte man auch sagen, AMD hat 6 Monate Rückstand mit der Hardware...

Zudem werden die AMD-Entwickler die sechs Monate sicherlich auch nicht faul in der Sonne gesessen haben. :)

Gast
2007-05-20, 10:48:12
Zudem werden die AMD-Entwickler die sechs Monate sicherlich auch nicht faul in der Sonne gesessen haben.

eher wohl im Schatten...................

Coda
2007-05-20, 15:45:41
Faul im Schatten? ;)

up¦²
2007-05-20, 16:16:45
Ist irgendwie ein Braintrain abgefahren im Durcheinander der Fusion mit AMD?
Irgendwas bekannt?
... oder Ati einfach den Zug verpaßt, weil es im Xenos-Sonderzug eingepennt war? :wink:

seahawk
2007-05-20, 16:55:47
Wahrscheinlich war die Erstellung von VISTA-Treibern für beide IHVs schwierig und NV mußte zwar eher raus damit, hatte dafür dann aber ne breitere Nutzerbasis, was ja auch hilfreich ist. ATI hatte mehr Zeit, dafür weniger Nutzer. Eigentlich wäre es gar nicht schlimm, wenn ATI sich nicht so über die VISTA-Treiber der G80 lustig gemacht hätte.

Turrican-II
2007-05-20, 17:32:11
[x]blicke voller Hoffnung in die Zukunft (Treiber!)

hoffentlich kann durch bessere treiber noch was rausgeholt werden :)

Coda
2007-05-20, 17:44:47
Eigentlich wäre es gar nicht schlimm, wenn ATI sich nicht so über die VISTA-Treiber der G80 lustig gemacht hätte.
Waren das nicht eher die ATI-Nutzer?

Gast
2007-05-20, 17:51:08
Waren das nicht eher die ATI-Nutzer?Nein, in diesem Fall war es wirklich ein ATI-Pressesprecher. Die Aussage sollte sich mit der Suchfunktion finden lassen, bin aber gerade zu faul dazu. ;)

Gast2
2007-05-20, 18:04:21
Zudem werden die AMD-Entwickler die sechs Monate sicherlich auch nicht faul in der Sonne gesessen haben. :)

Ja, schon. Aber es ist schon was ganz anderes, intern zu entwickeln und danach nochmal für Millionen von Rechnern ...

Sieht man oft genug bei games. Die paar Betatester haben niemals die Zeit, die Hardware und Software ausreichend zu testen, wie die Millionen von Käufern!

Die haben ja nicht mal jedes Spiel getestet, daher können sie auch nicht jeden Fehler finden. Die Masse der Käufer jedoch schon.

defleppard78
2007-05-21, 14:40:50
Wollte auch mal kurz meinen Senf zur neuen ATI Karte loswerden:

Angefangen habe ich mit den Voodoo Karten, 1, 2, 3. Dann kam Geforce 2, 4 und 5900. Dann kam ATI X800 XT-PE und dann X1800 XT.

Hab also alles schon mal durchgetestet.

Alle meine Karten liefen super stabil und ich hatte nie Probleme. Bin also kein Fanboy und schaue nur nach Karten von einem Hersteller. Ich kaufe mir das wovon ich meine dass es das beste Preis-Leistung Verhältnis hat.

Nach der sehr starken 8800 GTX war ich gespannt wie ATI antwortet. Von der 2900 XT bin ich aber sehr entäuscht. Obwohl man sich eventuell hätte denken können dass ATI Probleme hat, weil die Karte ja immer wieder verschoben wurde.

Allerdings hätte man auch denken können dass sie durch die Verschiebungen noch in Sachen Leistung eins draufpacken.

Ende vom Lied: Die 2900 XT ist von der 8800 GTX ganz weit weg, und wird in Qualitätseinstellungen sehr oft von der 8800 GTS geschlagen.

Wenn ich mir den Markt so anschaue hat im Moment die 8800 GTS wirklich das beste Preis-Leistung Verhältnis. Die Karte ist für ca. 300 Euro zu haben, was ein guter Preis ist.

Zudem kann man Glück haben und ein Modell erwischen welches sich gut übertakten lässt, dann rück man ein kleines Stück näher an die 8800 GTX ran.

Die 2900 XT bricht mit Kantenglättung sehr stark ein, eventuell ist es ja ein Treiberproblem... Aber selbst wenn dieses beseitigt wird, an eine 8800 GTX wird sie nicht rankommen. Und selbst wenn sie damit durchgängig schneller als eine 8800 GTS sein sollte: Diese ist erheblich günstiger, und wenn man diese dann wie gesagt noch gut übertakten kann...

Ich würde zumindest im Moment keinen Grund sehen meine 1800 XT mit einer 2900 XT zu ersetzen.

Wenn schon dann mit einer 8800 GTS. Zumal ich mit der 1800 XT in 1280 mit 4xAA und 8xAF auch aktuelle Titel wie STALKER mit fast allen Details (ausser Sonnen- und Grasschatten) flüssig spielen kann.

Fazit:

In dem Segment eine Stufe unter absolutes High End ist die 8800 GTS im Moment der absolute König.

Mr. Lolman
2007-05-21, 19:31:12
Wenn schon dann mit einer 8800 GTS. Zumal ich mit der 1800 XT in 1280 mit 4xAA und 8xAF auch aktuelle Titel wie STALKER mit fast allen Details (ausser Sonnen- und Grasschatten) flüssig spielen kann.


Stalker kann kein (vernünftiges) AA.

defleppard78
2007-05-21, 22:02:08
Stalker kann kein (vernünftiges) AA.

Sorry, hab mich verschrieben. Meinte dass ich Stalker mit fast allem flüssig spielen kann. Und den Rest mit 4x und 8x.

Raff
2007-05-21, 22:09:15
Gerade S.T.A.L.K.E.R. liegt dem R520 gar nicht. Meine Karte hat selbst @ 740 MHz GPU-Takt (R600-Texturpower ;)) starke Probleme, 1280x1024 mit AF konstant flüssig darzustellen. Hier ist die 2900 XT eigentlich recht stark, jedoch nur ohne AF. Ich sehe jedenfalls auch keinen Sinn darin, einen R600 zu kaufen, auch wenn ich mit meinen beiden Radeons sehr zufrieden war und bin.

Ich hoffe für uns Konsumenten, dass Terrys Abteilung dem R600 noch einige Leistungsschübe entlocken können wird. Potenzial ist da ... wäre schade, wenn das erst mit dem R650 freigesetzt würde, denn dann kann es schon zu spät sein. Der G90 wird es sicher nicht noch einmal so "leicht" machen wie die G80 Ultra.

MfG,
Raff

seahawk
2007-05-22, 07:22:21
Ist Potential da ? Man sprach auch beim NV30 Launch von Potential, leider wurde es nie realisiert.

Erst wenn wir definitv wissen wo das Problem herkommt, können wir uns über Potential unterhalten.

[dzp]Viper
2007-05-22, 09:40:49
Und die Preise fallen immer weiter

337€ für die Saphire Karte
http://geizhals.at/deutschland/a255143.html

=Floi=
2007-05-22, 10:54:28
also gewinn bringt das nicht für ati/amd
hier will man wohl nur verluste begrenzen durch minimale marge
imho ein inditz dafür dass keine leistung mehr freigesetzt werden kann

AMC
2007-05-22, 13:39:16
Sollte es noch nicht erwähnt worden sein - HD(oder doch eher Low-D :biggrin: )2900XT unter 16-bit: Bericht auf PCGH (http://www.pcgameshardware.de/?article_id=601826). Nais Quality, ist aber *sicher* wieder nur ein weiterer Treiberbug der gefixt wird, oder etwa nicht? ;) Und ich glaube, dass die 16-bit Quali im Moment nicht gerade Priorität 1 für das Treiberteam bei ATI hat. :wink:

AMC

Gast
2007-05-22, 13:52:15
Sollte es noch nicht erwähnt worden sein - HD(oder doch eher Low-D :biggrin: )2900XT unter 16-bit: Bericht auf PCGH (http://www.pcgameshardware.de/?article_id=601826). Nais Quality, ist aber *sicher* wieder nur ein weiterer Treiberbug der gefixt wird, oder etwa nicht? ;) Und ich glaube, dass die 16-bit Quali im Moment nicht gerade Priorität 1 für das Treiberteam bei ATI hat. :wink: Wieso sollte es auch, ist bei der Konkurrenz doch nicht anders. Was ich übrigens von beiden gleich besch...eiden finde.

MartinRiggs
2007-05-22, 14:35:33
Gerade S.T.A.L.K.E.R. liegt dem R520 gar nicht. Meine Karte hat selbst @ 740 MHz GPU-Takt (R600-Texturpower ;)) starke Probleme, 1280x1024 mit AF konstant flüssig darzustellen. Hier ist die 2900 XT eigentlich recht stark, jedoch nur ohne AF. Ich sehe jedenfalls auch keinen Sinn darin, einen R600 zu kaufen, auch wenn ich mit meinen beiden Radeons sehr zufrieden war und bin.

Ich hoffe für uns Konsumenten, dass Terrys Abteilung dem R600 noch einige Leistungsschübe entlocken können wird. Potenzial ist da ... wäre schade, wenn das erst mit dem R650 freigesetzt würde, denn dann kann es schon zu spät sein. Der G90 wird es sicher nicht noch einmal so "leicht" machen wie die G80 Ultra.

MfG,
Raff

Wirkt bei STALKER die Shader-Power so viel?
Ich konnte es auf meiner X1900XT in 1680x1050 gut spielen.
Glaube allerdings nicht an Wunder die ATI aus dem R600 noch locken will, wahrscheinlich wird es wirklich der Nachfolger richten müssen.

Gast
2007-05-22, 16:47:48
Wollte auch mal kurz meinen Senf zur neuen ATI Karte loswerden:

.


Nach der sehr starken 8800 GTX...
Die 2900 XT ist von der 8800 GTX ganz weit weg...
....sehr oft von der 8800 GTS geschlagen (die ATI)...
Glück haben und ein Modell erwischen welches sich gut übertakten lässt (GTS)
.....näher an die 8800 GTX ran (die GTS).....
an eine 8800 GTX wird sie nicht rankommen (ATI)
Diese ist erheblich günstiger (die GTS).....
Ich würde zumindest im Moment keinen Grund sehen meine 1800 XT mit einer 2900 XT zu ersetzen.....
Wenn schon dann mit einer 8800 GTS.....
die 8800 GTS im Moment der absolute König.
Bin also kein Fanboy

(hahahahahahahahahahahza...hahaha..hahah)
Danke. Klar bist du kein FunBoy, aber besser hätte es nicht mal Nvidia`´s verkaufabteilung machen können.

Und so unter uns: warum sollte man dir nicht glauben und deinem "tipp" folgen, du hast doch selber eine ATI karte.........

mfg

The_Invisible
2007-05-22, 16:52:23
Viper;5515253']Und die Preise fallen immer weiter

337€ für die Saphire Karte
http://geizhals.at/deutschland/a255143.html

klar, wenn der preis der 8800gts auch sinkt, man will die karte ja nicht noch unattraktiver machen

mfg

defleppard78
2007-05-22, 17:07:13
(hahahahahahahahahahahza...hahaha..hahah)
Danke. Klar bist du kein FunBoy, aber besser hätte es nicht mal Nvidia`´s verkaufabteilung machen können.

Und so unter uns: warum sollte man dir nicht glauben und deinem "tipp" folgen, du hast doch selber eine ATI karte.........

mfg

Hat dein Posting auch eine Aussage? Ich hab einfach die Fakten aufgezählt.

Und ja, ich hasse ATI, steh voll auf nVidia, deswegen habe ich auch seit drei Jahren ne ATI Karte im Rechner.

Gast
2007-05-22, 20:25:33
Was hier leider oft übersehen sind: Also die Crossfire Performance finde ich sehr beeindruckend! Scheinbar skaliert die 2900XT im CF sehr gut mit.

Das lässt hoffen auf die zukünftige Entwicklung mit mehreren Chips auf der Karte bzw. Multicores.