PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wer kauft eine Radeon HD 2900 XT?


BAGZZlash
2007-05-15, 21:48:23
So, die Luft ist raus, HD 2900 XT ist da. Wie sieht's nun mit Kaufentscheidungen aus? Ausdrücklich keine Option habe ich eingerichtet für Leute, die sowieso im Moment keine Graka kaufen wollten, solche Leute (wie z.B. ich selbst) sollten dann gar nichts ankreuzen. Los geht's!

puntarenas
2007-05-15, 21:50:22
Langsam wird es aber ein wenig unübersichtlich mit den R600-Threads. Ich selbst kaufe keine, abert ich tippe auf Dell ;)

Heimatloser
2007-05-15, 21:56:14
Ich will unbedingt diese 2600XT haben.

Die sollte sich eigentlich supergut für einen Wohnzimmer-PC eignen.

DerHeimatlose

Mr. Lolman
2007-05-15, 21:58:17
[x] Hatte vorher schon/habe nun hochwahrscheinlich vor, R600 zu kaufen, warte jetzt aber erstmal ab.

Hätte auch so noch abgewartet. Denn R600 kauf ich mir, sobalds Spiele gibt die von der Architektur profitieren...

Gmax
2007-05-15, 21:59:35
Ich kaufe definitiv HD 2900 XT/Derivat (RV610/630).

Ich hab mal das angekreuzt, wenn es auch eine RV670 werden wird.

WEGA
2007-05-15, 22:01:15
da fehlt ne antwort und zwar:
[X] Ich habe schone ne andere

Wolfram
2007-05-15, 22:02:59
Und es fehlt

[x]wollte mir schon vorher auf jeden Fall eine G80 kaufen

Heimatsuchender
2007-05-15, 22:04:44
Das sind sehr wenig Antwortmöglichkeiten. Bei mir:
Ich habe eine Geforce 8800 GTS (640 MB) und hatte den R600 im Auge. Das hat sich aber zerschlagen, da es finanziell gesehen Blödsinn ist.

tobife

Endorphine
2007-05-15, 22:04:49
Warum wird eigentlich so ein Wirbel um den R600 gemacht, obwohl es doch ganz offensichtlich ist, dass der G80 scheinbar in jeder Hinsicht bessere Wahl ist?

Für die GF8600 interessierte sich doch kurz nach dem Launch auch niemand mehr, nachdem klar wurde, dass es eine Verliererkarte ist. Wieso also dieser Wirbel um den Verlierer R600? :|

Kommt mir irgendwie vor wie zum Ende der 3dfx-Zeiten. Da wurde auch viel Rummel um neue Voodoo-Produkte gemacht, obwohl die Konkurrenz sachlich gesehen weit besseres zu bieten hatte.

Gast
2007-05-15, 22:04:56
Ich kaufe mir jetzt ne G8 GTS. Lange genug gewartet.

Coda
2007-05-15, 22:08:18
Denn R600 kauf ich mir, sobalds Spiele gibt die von der Architektur profitieren...
Also nie? *scnr*

laser114
2007-05-15, 22:09:42
Mich interessieren vorallem die Derivate (RV630 & RV670), also muss ich ohne abwarten. Daher mal das angekreuzt, weil definitiv ist das noch nicht...

knallebumm
2007-05-15, 22:09:52
Ich bin öfter mal am überlegen, ob ich mir ein neues System zulegen soll. Mein Augenmerk liegt dabei im Moment auf der 8800gts 640mb, welche grad auch deutlich im Preis gefallen ist.

Die 2900xt kommt für mich allein aufgrund des Stromverbrauchs nicht in Frage. Dabei beziehe ich mich auf die Computerbase Messungen. Außerdem ist die Lautstärke ein weiteres K.O. Kriterium für mich.

dr.denton
2007-05-15, 22:13:44
Für mich wird es auch ein RV630 in Form der 2600XT werden, irgendeine neue Karte werde ich für Bioshock einfach brauchen und da nV mit den 8600ern ja nicht gerade Lorbeeren geernetet hat bleibt meine einzige Hoffnung ATi.

mfG

denton

eXodia
2007-05-15, 22:15:36
Für die GF8600 interessierte sich doch kurz nach dem Launch auch niemand mehr, nachdem klar wurde, dass es eine Verliererkarte ist. Wieso also dieser Wirbel um den Verlierer R600? :|

Die GF8600 ist alles, aber ganz bestimmt keine Verliererkarte, denn das ist der R600 auch nicht. Sind beides keine über-grakas, aber ganz bestimmt keine _verlierer_ gpus.

@ Topic. Die kleinen Abkömmlinge sehen sehr interessant aus, aber nur, und jetzt schlagt mich, wenn da was für AGP kommt :D

Regards

laser114
2007-05-15, 22:17:06
@ Topic. Die kleinen Abkömmlinge sehen sehr interessant aus, aber nur, und jetzt schlagt mich, wenn da was für AGP kommt :D

AMD hat nichts dagegen, das haben sie in einem Interview bereits einmal gesagt. Der Brückenchip ATI Rialto ist auch kompatibel zur neuen Serie. Muss halt nur ein Hersteller eine Karte auf AGP-Basis herausbringen..

Mr. Lolman
2007-05-15, 22:17:10
Kommt mir irgendwie vor wie zum Ende der 3dfx-Zeiten. Da wurde auch viel Rummel um neue Voodoo-Produkte gemacht, obwohl die Konkurrenz sachlich gesehen weit besseres zu bieten hatte.

Sachlich gesehen wars, wenn man sich NVs Marketingfolien verinnerlicht hatte?

san.salvador
2007-05-15, 22:20:20
Was soll ich anklicken?
Ich hab mir vor drei Wochen eine 8800 GTS geholt und fühle mich nun sehr bestätigt in meiner Entscheidung.

Coda
2007-05-15, 22:21:43
Ach so:

[x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

knallebumm
2007-05-15, 22:26:24
Oh ja, die Karte kostet im Moment 5€ weniger - ich Depp! ;D

Die Gainward gibts immerhin für 268€ + Versand lieferbar bei einem mindfactory Ableger.
http://geizhals.at/deutschland/Gainward_BLISS_GeForce_8800_GTS_8279_a225880.html

Endorphine
2007-05-15, 22:26:44
Sachlich gesehen wars, wenn man sich NVs Marketingfolien verinnerlicht hatte? Grafikkarten nach sachlichen Kriterien zu bewerten heißt auf die Leistung, Bildqualität, technische Umsetzung (z. B. integrierter 3D-Beschleuniger mit D3D/OGL-Fenstermodus vs. Fullscreen-only mit analogem Schleifenkabel für gesenkte Bildqualität), Treiberqualität, API-Kompatibilität und Feature-Fortschrittlichkeit zu schauen und die Marke außen vor zu lassen. Darum hab ich damals von Voodoo² + Matrox G200 auf TNT2/Ultra gewechselt und vor ein paar Jahren von GF3Ti/500 auf ne R9700.

Eigentlich müsste ein großes Gähnen durch's 3DCenter gehen und das Interesse am R600 schnell abebben. Stattdessen kann man sich kaum retten vor Threads. Warum nur, wenn doch klar ist, dass es sich nicht lohnt, einen R600 zu kaufen?

Kommt mir vor wie in der Werbung "ich hätte gerne das zweitbeste Steak und für meine Frau den zweitbesten Wein". Warum diese R600-Euphorie, wenn doch klar ist, dass die Karte völlig unattraktiv ist? :confused:

Blaire
2007-05-15, 22:31:58
[x] Keine Chance ,hab aus der Vergangenheit gelernt und meide Ati Produkte :D

mapel110
2007-05-15, 22:34:29
[x] Kaufe jetzt doch Geforce 8/anderes, weil ich ausdrücklich JETZT KEINE R600 mehr will.

wird bei mir wohl noch ein paar Monate dauern, aber dann wirds wohl ein passiv gekühlter G8x-Chip werden.

BAGZZlash
2007-05-15, 22:37:16
Ich hab mal das angekreuzt, wenn es auch eine RV670 werden wird.

Hoppla, sorry, den hatte ich vergessen. Kann ein Mod den RV670 bitte in Antwortmöglichkeit 2 hinzuadden?


da fehlt ne antwort und zwar:
[X] Ich habe schone ne andere

Nee, das ist Absicht, weil das ja irgendwo auf jeden zutrifft, oder? :rolleyes:
Nein, ich wollte, daß nur Leute antworten, die definitiv vorher mit HD 2000 geliebäugelt haben und deren Entscheidung nun nach dem Launch gefallen ist/von dem Launch abhing.


Und es fehlt
[x]wollte mir schon vorher auf jeden Fall eine G80 kaufen


Dito.

Raff
2007-05-15, 22:38:22
Warum wird eigentlich so ein Wirbel um den R600 gemacht, obwohl es doch ganz offensichtlich ist, dass der G80 scheinbar in jeder Hinsicht bessere Wahl ist?

Für die GF8600 interessierte sich doch kurz nach dem Launch auch niemand mehr, nachdem klar wurde, dass es eine Verliererkarte ist. Wieso also dieser Wirbel um den Verlierer R600? :|

Kommt mir irgendwie vor wie zum Ende der 3dfx-Zeiten. Da wurde auch viel Rummel um neue Voodoo-Produkte gemacht, obwohl die Konkurrenz sachlich gesehen weit besseres zu bieten hatte.

Hättest du damals wirklich Wert auf BQ gelegt, dann wäre die V5 5500 die richtige Karte gewesen. Immer die selbe Diskussion ...

Eigentlich müsste ein großes Gähnen durch's 3DCenter gehen und das Interesse am R600 schnell abebben. Stattdessen kann man sich kaum retten vor Threads. Warum nur, wenn doch klar ist, dass es sich nicht lohnt, einen R600 zu kaufen?

3DCenter wäre nicht 3DCenter, wenn man sich hier nicht über einen scheinbar verbuggten Chip auslassen könnte. Eventuell wendet sich alles zum Guten. Ok, eher nicht. Und das ist für uns Konsumenten nicht gut.

[x] Werde weder R600 noch G80 kaufen (außer letzterer kostet plötzlich in GTX-Form nur noch 300€)

MfG,
Raff

Odal
2007-05-15, 22:51:18
Eigentlich müsste ein großes Gähnen durch's 3DCenter gehen und das Interesse am R600 schnell abebben. Stattdessen kann man sich kaum retten vor Threads. Warum nur, wenn doch klar ist, dass es sich nicht lohnt, einen R600 zu kaufen?

Kommt mir vor wie in der Werbung "ich hätte gerne das zweitbeste Steak und für meine Frau den zweitbesten Wein". Warum diese R600-Euphorie, wenn doch klar ist, dass die Karte völlig unattraktiv ist? :confused:

Weil die R600 eher ein mydterium derzeit ist...potential scheint da zu sein schaltet man aber AA dazu bricht sie bis ins bodenlose (trotz gigantischer bandbreite) ein

das kann ja so nicht gewollt sein
stellt sich eben die frage ob sich das noch ändert oder eben nicht

christoph
2007-05-15, 22:57:52
Weil die R600 eher ein mydterium derzeit ist...potential scheint da zu sein schaltet man aber AA dazu bricht sie bis ins bodenlose (trotz gigantischer bandbreite) ein

das kann ja so nicht gewollt sein
stellt sich eben die frage ob sich das noch ändert oder eben nicht

beim af ist es ja noch schlimmer.....

4711
2007-05-15, 23:01:32
[x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Odal
2007-05-15, 23:13:52
beim af ist es ja noch schlimmer.....


naja allerdings kann man sich das beim AF wenigstens erklären weil das teil eher nicht so das tmu monster ist...aber bei AA trotz dieser gigantischen bandbreite deutlich mehr einzubrechen als der vorgänger ist einfach unerklärlich.....wenn das nicht so extrem der fall wäre und 4xAA fast umsonst wäre kann man mit der geringen tmu leistung ganz gut leben...

Die gelbe Eule
2007-05-15, 23:14:03
[x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Da wart ich lieber auf die 8900er ;)

Merlin31
2007-05-15, 23:16:16
[x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Will keinen Hörschaden bekommen :mad:

S.T.A.L.K.E.R
2007-05-15, 23:17:07
[x] Kaufe jetzt doch Geforce 8/anderes, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Ich kaufe keine ATI Karte da Nvidia einfach besser ist und ich mich für die 8800GTX entscheide.;)

Blutmaul
2007-05-15, 23:20:23
Die Generation lasse ich aus und die nächste guck ich mir erst an, ob ich die brauche.

HOT
2007-05-15, 23:24:15
Solange das ROP Problem besteht, ist die R600 keine Empfehlung wert und ich werde sie mir solange das Problem besteht definitiv nicht zulegen. Zumal die Karte mindestens genauso warm wie die Geforce8.

4711
2007-05-15, 23:33:12
highend wird auch in 10 Jahren nicht "kälter" werden....ohne Tools...
sorry für OT

Tjell
2007-05-15, 23:46:11
Ergänzung:

R600 hat mich nie direkt interessiert, sondern die Karten nur als Auslöser für Preissenkungen der 8800 erhofft. ;)

w0mbat
2007-05-15, 23:55:51
Hatte den R600 4 Tage, also war ich so frei "Hab schon" anzukreuzen.

Hakim
2007-05-16, 00:15:09
Wollte ehrlich nach lange zeit wieder mal eine ATI kaufen. Nach der R600 Enttäuschung wirds Höchstwahrscheinlich eine GF 89xx. Ob GTX, GTS, GTO GX2 usw dahintersteht entscheidet P/L Verhältnis.

Mr. Lolman
2007-05-16, 00:29:22
[x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Da wart ich lieber auf die 8900er ;)

Hast ja eh schon ne 8800 :rolleyes:

Cubitus
2007-05-16, 00:44:06
[X] ne bin bestens bedient:biggrin:

Robbson
2007-05-16, 02:15:15
[x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Habe 'ne 8800GTX und hätte mir bei "fast GTX Performance" womöglich die ATI gekauft, z.B. wegen der ganzen nvidia-Treiberprobleme und deren nicht vorankommende Entwicklung.

Doch jetzt... ATI in 2D ebenso fetter Stromverbrauch, Performance eher GTS-Niveau, Treiber unausgereift (obwohl sicher noch einiges mehr drin), Geräuschkulisse mit Standard-Kühler unter 3D turbinenartig...
Btw. leisere Spezialeditionen der Karte sind sowieso teuerer und für 'nen Eigenumbau auf irgend 'nen Accelero hätte ich eh keine Lust/Zeit mehr...

Also doch erstmal bei der GTX bleiben... ist ja keine Konkurrenz in Sicht und damit auch kein großer Wertverlust. ;-)
Außerdem wollte ich ja mal mit CUDA herumspielen.

Robbson.

VooDoo7mx
2007-05-16, 02:43:28
Für mich ist die Geforce 8800 die deutlich bessere Karte. Es gibt keinen enzigen Bereich wo sich die X2900 behaupten kann.
In jeden Teilbereich wird sie vom nVidia Pendant geschlagen. ;(

Da ich den G80 als die überlegene Architektur sehe, werde ich mir eine entsprechende Karte zulegen. Aber nicht in den nächsten Monaten. Dafür gefällt mir meine Asus X1950Pro noch viel zu gut.
Und wenn dann kauf ich mir einen 65nm G80 der im upper Mainstream oder lower High-End Bereich angesiedelt ist. In etwa so wie die 7900GS und X1950 Pro im Herbst letzten Jahres. Der Stromverbrauch soll natürlich nicht allzuweit über den meiner aktuellen Karte liegen.

Radeonator
2007-05-16, 03:19:33
[x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will

Keine Power und verbuggtes Design...so wie es bisher ausschaut.
Naja, abwarten, vielleicht kommt ja doch noch "Das Wunder von AMD/ATi" ;)

Meine X1950Pro tuts noch gut unter 2-4xFSAA+16xAF in allem was ich derzeit so daddel.

OT: Hätte mir gerne ne 8600er gekauft, leider ist Sie nicht so ein geniales Stück HW wie die 7600GT es war/ist :frown:

Saw
2007-05-16, 07:47:57
[x] Nein, ich bevorzuge im allgemeinen die gesamte Karte und nicht nur den Chip.
[x] Nein, ich schaue weiter zur GF8800 GTS rüber.
[x] Ich vervollständige den Satz und löse: Wer kauft sich eine Radeon HD 2900XT?

seahawk
2007-05-16, 07:52:32
[x] Nein, da mir die Zeit zwischen deim Fixen der Bug im treiber und dem Erscheinen des Nachfolgers gefährlich kurz erscheint

Thodin
2007-05-16, 08:38:17
Meine Entscheidung würde im Moment zu gunsten des G80 ausfallen, weil für mich die Lautstärke und der Stromverbrauch ein nicht zu unterschätzendes Kaufkriterium sind.

captainsangria
2007-05-16, 08:41:37
Hatte vorher schon/habe nun hochwahrscheinlich vor, R600 zu kaufen, warte jetzt aber erstmal ab.

So muss meine X1950GT halt jetzt länger herhalten, als gedacht.

Daredevil
2007-05-16, 09:17:25
Ich kaufe definitiv HD 2900 XT/Derivat (RV610/630) und zwar die 2900xt, will mich gern selber über die Probleme und Lautstärke überzeugen, habe ja 14 Tage Rückgaberecht und wenn in den Tagen dann nix passiert wandert sie wieder zurück.

DrFreaK666
2007-05-16, 10:47:17
Haltet mich für ein Spinner, aber ich kaufe mir definitiv eine Radeon.
Welche es wird weiss ich noch nicht, aber mit meiner 6800GT war ich nie so richtig glücklich

James Ryan
2007-05-16, 10:55:25
[x] Kaufe jetzt doch Geforce 8/anderes, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Habe seit November gewartet und wollte dann bei einem "Über-R600" mir wieder eine ATi kaufen.
Das ist nicht eingetreten, darum warte ich noch ein wenig ab bis die Preise sinken und kaufe mir dann wohl eine Gf 8800 GTX, da der Sprung von meiner Gf 7900 GTX auf eine GTS wohl nicht so super groß wäre.
Außerdem habe ich mich seit der 7900er an einen perfekten Stockkühler gewöhnt und habe keine Lust mehr auf einen Grakakühlertausch, was bei einer HD 2900 XT dank bescheidenem Kühler mal wieder nötig wäre!

MfG :cool:

Gast
2007-05-16, 13:04:54
*g* bin einer der wenigen die eine kaufen werden :D

PP
2007-05-16, 13:08:30
[x] Ich habe eine 2900XT und werde noch eine kaufen…
Aber, wer noch keine hat und JETZT eine neue kaufen will, sollte eine 8800 GTS 640MB nehmen, die ist JETZT mit AA schneller und nicht erst mit dem nächsten oder übernächsten oder mit dem überübernächsten Treiber… :mad:

AYAlf
2007-05-16, 13:49:07
also meine naechste karte wird bestimmt wieder eine ati/amd ... weiss aber noch nicht wann ich sie mir holen werde. bin mit meiner noch sehr zufrieden :biggrin:

Radeonator
2007-05-16, 14:08:27
Hehe, ich kann verstehen das sich einige Leute die Karte kaufen wollen...ich habe das Gefühl, das die 2900XT die FX für ATi werden könnte. Da hat auch jeder gesagt :FINGER WEG...ich habe mir die 5800er gekauft und danach 5900er...ich hatte an beiden Spass :)

Genau das gleiche war damals mit ATi Fury MAXX , Deltachrome usw.

Ist zwar OT, denke aber dadurch verstehen einige hier die Bewggründe besser, warum viele sich die Karte doch holen werden : Pionier Geist, Neugier, Expermintieren etc. machen jeden HW Fan einfach heiß...da hilft kein Vernunfts Argument :) :up:

Slipknot79
2007-05-16, 17:34:26
Diesen hier [x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

lilgefo~
2007-05-16, 17:37:14
Abwarten Tee trinken..wenn die Treiber alles richten (wovon ich aus gehe) wirds nen r600 ansonsten eine gf8.

MiamiNice
2007-05-16, 17:44:38
[X] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Warte auf die 8900 GTX/ULTRA und schlage dann zu.

urbi
2007-05-16, 17:49:39
Ich persönlich bin zwar auf der Suche nach einer neuen, aber ich kann mich weder mit der Radeon HD 2900XT noch der Geforce 8800-Serie anfreunden:

Spricht für die R600:
-zur Zeit bessere Treiber
-Preis (400€ für eine Karte mit einer Performance zwischen 8800GTS und GTX)

Spricht dagegen (für eine Geforce):
-die Radeon HD 2900XT hat einen (noch) höheren Stromverbrauch als die Geforce-Karten
-die Radeon HD 2900XT bietet nicht die gleiche Bildqualität wie die Geforce-Karten
-die Radeon HD 2900XT ist minimal lauter als die Geforce-Karten
-ATI hat durch den Kauf durch AMD eine ungewisse Zukunft, u.A. soll das ATI Catalyst Controll Center ja zum AMD Controll Center werden, was auch AMD Chipsätze usw. steuern kann - für AMD-Nutzer nice, für Intel-Nutzer IMO eher suboptimal

Insgesamt überzeugt mich das daher alles nicht so wirklich und ich warte noch auf einen Geforce 8800GTS-Refresh o.Ä..

Super-S
2007-05-16, 17:54:53
[x] Hatte vorher schon/habe nun hochwahrscheinlich vor, R600 zu kaufen, warte jetzt aber erstmal ab.

Hätte auch so noch abgewartet. Denn R600 kauf ich mir, sobalds Spiele gibt die von der Architektur profitieren...

Die 100-Punkte-Aussage.... das trifft exakt auch auf mich zu!

Winter[Raven]
2007-05-16, 17:55:57
Spricht für die R600:
-zur Zeit bessere Treiber

Ne ... ist klar.... :crazy2:

Arcanoxer
2007-05-16, 17:59:32
;5500387']Ne ... ist klar.... :crazy2:
heheh

[x] bevor sich nichts grundlegendes an den ati linux treibern ändert kommt mir gar kein amd/ati gedöns mehr in den rechner.

The_Invisible
2007-05-16, 18:11:58
[X] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Warte auf die 8900 GTX/ULTRA und schlage dann zu.

me too.

erwarte mir sowas wie die 7900gtx, also ausgereift und sehr gute treiber.

mfg

Odal
2007-05-16, 19:26:44
erwarte mir sowas wie die 7900gtx also ausgereift


OMG lol das klingt ja nach masochismus ;D

r3ptil3
2007-05-16, 19:35:56
[x] Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Mal schauen was der Herbst mit sich bringt.

Tigerchen
2007-05-17, 07:36:54
So, die Luft ist raus, HD 2900 XT ist da. Wie sieht's nun mit Kaufentscheidungen aus? Ausdrücklich keine Option habe ich eingerichtet für Leute, die sowieso im Moment keine Graka kaufen wollten, solche Leute (wie z.B. ich selbst) sollten dann gar nichts ankreuzen. Los geht's!

Ich warte bis Januar und kauf mir dann ein R600 Derivat. Sollte aber schon ein Knüller sein wie meine 1950 Pro.

KaKÅrØT
2007-05-20, 13:27:35
Ich persönlich bin zwar auf der Suche nach einer

Spricht dagegen (für eine Geforce):
1-die Radeon HD 2900XT hat einen (noch) höheren Stromverbrauch als die Geforce-Karten

2-die Radeon HD 2900XT ist minimal lauter als die Geforce-Karten


1Wieso noch? die Karte ist der E-Heizung schlechthin
2 Minimal würde ich nicht grad sagen , schau dir mal die reviews an ich weiß nicht aber habe da was gelesen 1.2 zu 4.6 sone oder so

Silverbuster
2007-05-21, 12:11:02
1Wieso noch? die Karte ist der E-Heizung schlechthin
2 Minimal würde ich nicht grad sagen , schau dir mal die reviews an ich weiß nicht aber habe da was gelesen 1.2 zu 4.6 sone oder so

1. E-Heizung schlechthin? Sie verbraucht grade mal 30W mehr als eine 8800GTX unter Last. Das ist zwar trotzdem viel, aber irgendwie reagieren hier alle über. Das ein Chipsatz wie der nVidia 680i 50W mehr Strom verbraucht als z.B. ein 965, interessiert niemanden. Darüber regt sich auch keiner auf. Dabei arbeitet man hier mit deutlich weniger Transistoren. ICh will es nicht schön reden das die 2900XT viel verbraucht. Aber das sie überall so dermaßen schlecht geredet wird, finde ich weit übertrieben.

2. Dann hast du nicht genug Reviews gelesen. Die KArte hat eine ordentliche Lüftersteuerung die nur wenig lauter als die einer 8800GTX ist. Es gab scheinbar nur vereinzelte Modelle bei denen die Lüftersteuerung nicht funktioniert hat. Spricht zwar auch nicht unbedingt für AMD, aber das wird sicherlich nachgebessert.

Im Grunde finde ich die Karte nicht schlecht. Udn ich bin mir sicher das es derzeit einfach noch massive Treiberprobleme gibt. Das ist zwar SCHEIßE, aber naja. Ansonsten kann ich mir nicht erklären warum die Karte mit AA und FFA so stark einbrechen sollte. Die Theoretische Rohrechenleistung ist sehr hoch und an der Speicherbandbreite kann es ja nun wirklich nicht liegen.
Auch denke ich, das kommende "echte" DX10 Titel hier von den 5x64 (320) Shader Units profitieren werden.
Aber mal abwarten. Ich werde mir wahrscheinlich Ende des JAhres eine holen. Nicht weil ich ein Fanboy bin, sondern einfach weil ich gerne das kaufe worüber andere meckern *G*!

Coda
2007-05-21, 14:51:11
OMG lol das klingt ja nach masochismus ;D
Was genau war an einer 7900GTX nicht ausgereift (und nein, ich rede jetzt nicht von der Leistung)?

2. Dann hast du nicht genug Reviews gelesen. Die KArte hat eine ordentliche Lüftersteuerung die nur wenig lauter als die einer 8800GTX ist. Es gab scheinbar nur vereinzelte Modelle bei denen die Lüftersteuerung nicht funktioniert hat. Spricht zwar auch nicht unbedingt für AMD, aber das wird sicherlich nachgebessert.
Das Ding ist ca. 4x so laut unter Last. Nein, das ist kein Gerücht.

Silverbuster
2007-05-21, 15:32:33
@Coda
Les dir mal das Review auf Computerbase durch. Ich geh hier von einem Treiberproblem aus der die Lüftersteuerung nicht richtig Verwaltet. Sie ist lauter, ja, aber das sie so hoch dreht ist nicht ganz normal. Wie in dem Bericht erwähnt dreht der Lüfter unter Last ständig hoch und wieder runter, was mit dem nächsten Treiber geändert werden soll. Denke das man da einen Mittelweg finden wird.

James Ryan
2007-05-21, 15:38:38
@Coda
Les dir mal das Review auf Computerbase durch. Ich geh hier von einem Treiberproblem aus der die Lüftersteuerung nicht richtig Verwaltet. Sie ist lauter, ja, aber das sie so hoch dreht ist nicht ganz normal. Wie in dem Bericht erwähnt dreht der Lüfter unter Last ständig hoch und wieder runter, was mit dem nächsten Treiber geändert werden soll. Denke das man da einen Mittelweg finden wird.

Das gleiche Verhalten legte schon die X1950 XTX an den Tag und das wurde auch nie gefixt. :rolleyes:

MfG :cool:

Gast
2007-05-21, 15:43:31
Wenn mein netzteil (bequiet 520watt) ausreicht und es die neuen treiber gibt, bestell ich mir eine :)

Odal
2007-05-21, 17:21:31
Was genau war an einer 7900GTX nicht ausgereift (und nein, ich rede jetzt nicht von der Leistung)?

warum redest du nicht von der leistung? die gehört doch nunmal dazu? was nützt mir die tollste grafikkarte die gut aussieht kaum strom braucht und sogar kochen und backen kann (wobei sie ja nichtmal normales MSAA und HDRR gleichzeitig packte) wenn sie meine spiele nicht flüssig laufen lassen kann? von der beschissenen BQ mal ganz zu schweigen.

mitunter zieht eine 7900GTX im FPS pro Watt vergleich mit einer X1900XTX auch deutlich den Kürzeren. Ausgereift war das Ding mitnichten weil dann würde es nicht so abkacken.

Weder dedie X1900XTX war komplett ausgereift noch die 7900GTX...wobei erste meines Erachtens deutlich ausgereifter ist....

Coda
2007-05-21, 17:23:21
warum redest du nicht von der leistung? die gehört doch nunmal dazu? was nützt mir die tollste grafikkarte die gut aussieht kaum strom braucht und sogar kochen und backen kann wenn sie meine spiele nicht flüssig laufen lassen kann?
Weil's ihm darum nicht ging. Er meinte, dass die Treiber und das drumrum ausgereift sind, was bei G71 sicher der Fall war.

Ausgereift war das Ding mitnichten weil dann würde es nicht so abkacken.
Natürlich war G71 für seine Architektur ausgereift. Mehr war halt nicht drin ohne den ganzen Chip umzuschmeißen was man mit G80 ziemlich radikal getan hat.

Odal
2007-05-21, 17:44:24
Weil's ihm darum nicht ging. Er meinte, dass die Treiber und das drumrum ausgereift sind, was bei G71 sicher der Fall war.


Nein da solltest du nocheinmal lesen...er schrieb:

er erwartet sowas wie die 7900GTX also ausgereift UND gute Treiber.....

gegen die "guten" Treiber hab ich ja nichts gesagt...wobei ich auf meinem Laptop da auch so meine Problemchen hab....da funzt zw. mit der FX5600 kein 2xAA sondern nur 4xAA wofür das teil immer zu schwach ist...2xAA gibt nur son buntes bild..k.a. was das ist..aber darum gehts ja auch nicht...



Natürlich war G71 für seine Architektur ausgereift. Mehr war halt nicht drin ohne den ganzen Chip umzuschmeißen was man mit G80 ziemlich radikal getan hat.

"für seine architektur" wenn ich als Konsument mir eine Grafikkarte zulege interessiert mich nicht ob die Leistung für deren "Architektur" gut ist....mich interessiert nur das diese Grafikkarte mitlerweile in vielen Sachen total vom ehemaligen Konkurenzprodukt versägt wird.....

wie gesagt ausgereift ist beides nicht...bei ner 7900GTX mangelt es massiv an leistung an an diversen (benutzten) features....dafür hat sie halt nen guten kühler (leise) und schluckt nicht soviel saft (wobei FPS/Watt verhältnis dürfte sie verlieren)

Gast
2007-05-21, 18:17:55
Ich glaube du hast eine etwas komische Definition von "ausgereift", lieber Odal. ;)

Silverbuster
2007-05-21, 19:36:13
@Odal
ICh bin ja auch eher ein ATI Fan, aber das die 7900GTX nicht ausgereift war... finde ich keiensfalls. Sie war und ist immer noch eine sehr schnelle Karte und einer X1900XTX ebenbürtig. Das man AA und HDR nicht Gleichzeitig darstellen kann, das hat beim erscheinen der Karte noch keinen Gekümmert. Da hatte ATI einfach ein bisschen die Nase vorne. Außerdem, bei wie vielen Spielen trifft besagter Fall schon zu? Die Spiele kann man an einer Hand abzählen und du wirst nicht mal alle Finger daran brauchen. Und was die Bildqualität betrifft, sehr weit hergeholtes Argument. Zwar hat ATI das bessere FFA, was auch nur sehr selten auffällt, den meisten wohl gar nicht, aber beim AA sieht die 7900GTX wieder besser aus. Grundlegend sind hier die Vorteile Marginal.
Und wo die 7900GTX wirklich langsamer bei Spielen ist, außer bei Gothic3 das ATI unheimlich liegt, musst du mir erstmal zeigen. ZWar würde ich eine X1900XTX jeder 7900GTX vorziehen, aber so schlecht wie du sie darstellst, ist sie in keinem Fall!

JFZ
2007-05-21, 19:49:52
[x]Kaufe jetzt erstmal doch keine neue GraKa, weil ich ausdrücklich JETZT KEINE R600 mehr will.

Ausserdem hab ich die nächsten drei Monate eh kaum Zeit zum Zocken, da wart ich dann gleich auf die 8900GTS ;)

Odal
2007-05-21, 20:11:54
@Odal
ICh bin ja auch eher ein ATI Fan, aber das die 7900GTX nicht ausgereift war... finde ich keiensfalls. Sie war und ist immer noch eine sehr schnelle Karte und einer X1900XTX ebenbürtig. Das man AA und HDR nicht Gleichzeitig darstellen kann, das hat beim erscheinen der Karte noch keinen Gekümmert. Da hatte ATI einfach ein bisschen die Nase vorne. Außerdem, bei wie vielen Spielen trifft besagter Fall schon zu? Die Spiele kann man an einer Hand abzählen und du wirst nicht mal alle Finger daran brauchen.

Ich habe mit Speilen bei denen ich HDRR und AA nutzen konnte schon deutlich über 100 Stunden zugebracht, gut für leute die z.b. Oblivion oder Call of Juarez etc. nicht mögen ist das egal.


Und was die Bildqualität betrifft, sehr weit hergeholtes Argument. Zwar hat ATI das bessere FFA, was auch nur sehr selten auffällt, den meisten wohl gar nicht, aber beim AA sieht die 7900GTX wieder besser aus. Grundlegend sind hier die Vorteile Marginal.

also erst einmal wem der BQ unterschied zwischen G71 und R580 nicht auffällt dem rate ich dringend einen Besuch beim Optiker seines Vertrauens an..das ist ja fast noch schlimmer wie zu behaupten eine 9700 bringt mit AF genauso ein gutes Bild wie eine GeForce4

Beim normalen MSAA sieht die G71 besser aus? Interessant......wie erklärst du mir das technisch?


Und wo die 7900GTX wirklich langsamer bei Spielen ist, außer bei Gothic3 das ATI unheimlich liegt, musst du mir erstmal zeigen. ZWar würde ich eine X1900XTX jeder 7900GTX vorziehen, aber so schlecht wie du sie darstellst, ist sie in keinem Fall!

60% schneller bei Anno1701 find ich schon beachtlich
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/14/#abschnitt_anno_1701

30% bei Call Of Juarez find ich auch nicht wenig
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez

Call Of Duty2 mit nur 11% ist nicht soviel

Company of Heroes ist mit 44% Vorsprung schon wieder DEUTLICH
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes

Bei FEAR sinds nur 20%
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/19/#abschnitt_f_e_a_r

Gothic3 fällt mit den 60% mehr in der Tat besonders hoch aus
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/20/#abschnitt_gothic_3

Prey sinds wieder nur 17%

Rainbow Six Vegas sinds dafür wieder 32%
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/#abschnitt_rainbow_six_vegas

Splinter Cell 3 sind nur 10% und Teil 4 dann schon 21%

und wenn ich dann erst mit Need4Speed Carbon anfange hörts dann ganz auf...da hätte ich nur X1900XT vs 7950GT vom 3Dcenter auf die schnelle zu bieten (zu faul zum suchen)

da haben wir dann schonmal 100% Mehrperformance

also wer behauptet die 7900GTX ist ungefähr gleich schnell wie eine X1900XTX sieht den Unterschied zwischen Golf und 911er Porsche wohl auch nicht ^^

das sind mittlerweile zwei völlig verschiedene Klassen...eine X1950Pro tummelt sich schon oft in der gleichen Liga wie eine 7900GTX

Das ist wie der Unterschied zwischen High-End und Oberes Mainstream.....

genau darum halte ich es für richtig sowohl bei der 2900XT als auch bei 8800GTS erstmal abzuwarten und zu schauen wo der zukünftige Trend hingeht....sonst geht man hinterher nochmal so baden wie mit der FX Serie dem NV40(da war es nicht ganz so wild) und dem G70/71

sulak
2007-05-21, 21:22:13
Ich glaube eher mit einer HD2900XT gehts baden ^^ Ein Treiber kann nicht alles fixen, und an dem werkelt man seit einem Jahr.
Hohe AA Modi schafft die GTS in jeder Auflösung, und wer über 1600*1200 spielt der kauft auch keine abgespeckte Highend Karte sondern immer das Top Modell.
Wobei Reunions Gedanken, G80 läuft immer am Maximum da die Effizienz alle Einheiten voll auslastet und dadurch ist eine weitere Leistungssteigerung kaum noch möglich, die einleuchtenste Erklärung ist, das die HD2900XT zukünftig eventuell sich der 8800GTX annähert. Aber welches Spiel zieht massiv Shaderleistung? Bis es eines gibt wird die Füllrate des G80 genug Leistung rausreisen und in einem Jahr (1,5 nach Release) kräht da doch kein Hahn mehr danach.

Deine Prozentzahlen kann glaube ich keiner Nachvollziehen, wenn man die 7900GTX immer als 100% nimmt, dann passen deine Zahlen nie auf die 1900XTX, seltsam... Oder hast was anderes verglichen als 1280*1024?

Undertaker
2007-05-21, 21:29:30
dumme antwortmöglichkeiten...

[x] habe g80 und brauch keinen r600

The_Invisible
2007-05-21, 21:37:19
Ich habe mit Speilen bei denen ich HDRR und AA nutzen konnte schon deutlich über 100 Stunden zugebracht, gut für leute die z.b. Oblivion oder Call of Juarez etc. nicht mögen ist das egal.



also erst einmal wem der BQ unterschied zwischen G71 und R580 nicht auffällt dem rate ich dringend einen Besuch beim Optiker seines Vertrauens an..das ist ja fast noch schlimmer wie zu behaupten eine 9700 bringt mit AF genauso ein gutes Bild wie eine GeForce4

Beim normalen MSAA sieht die G71 besser aus? Interessant......wie erklärst du mir das technisch?



60% schneller bei Anno1701 find ich schon beachtlich
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/14/#abschnitt_anno_1701

30% bei Call Of Juarez find ich auch nicht wenig
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez

Call Of Duty2 mit nur 11% ist nicht soviel

Company of Heroes ist mit 44% Vorsprung schon wieder DEUTLICH
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes

Bei FEAR sinds nur 20%
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/19/#abschnitt_f_e_a_r

Gothic3 fällt mit den 60% mehr in der Tat besonders hoch aus
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/20/#abschnitt_gothic_3

Prey sinds wieder nur 17%

Rainbow Six Vegas sinds dafür wieder 32%
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/#abschnitt_rainbow_six_vegas

Splinter Cell 3 sind nur 10% und Teil 4 dann schon 21%

und wenn ich dann erst mit Need4Speed Carbon anfange hörts dann ganz auf...da hätte ich nur X1900XT vs 7950GT vom 3Dcenter auf die schnelle zu bieten (zu faul zum suchen)

da haben wir dann schonmal 100% Mehrperformance

also wer behauptet die 7900GTX ist ungefähr gleich schnell wie eine X1900XTX sieht den Unterschied zwischen Golf und 911er Porsche wohl auch nicht ^^

das sind mittlerweile zwei völlig verschiedene Klassen...eine X1950Pro tummelt sich schon oft in der gleichen Liga wie eine 7900GTX

Das ist wie der Unterschied zwischen High-End und Oberes Mainstream.....

genau darum halte ich es für richtig sowohl bei der 2900XT als auch bei 8800GTS erstmal abzuwarten und zu schauen wo der zukünftige Trend hingeht....sonst geht man hinterher nochmal so baden wie mit der FX Serie dem NV40(da war es nicht ganz so wild) und dem G70/71

und jetzt bitte noch einmal mit AI off und schon schrumpft der Vorsprung. oder spielst du etwa mit einer "highend" karte mit optimierungen?

mfg

lilgefo~
2007-05-21, 21:41:40
und jetzt bitte noch einmal mit AI off und schon schrumpft der Vorsprung. oder spielst du etwa mit einer "highend" karte mit optimierungen?

mfg

lol ai off bei nem bench gegen eine 7900gtx

Mr. Lolman
2007-05-21, 21:43:10
*delete*

The_Invisible
2007-05-21, 21:49:46
lol ai off bei nem bench gegen eine 7900gtx

bei r600 ai on vs g80 hq regt sich auch keiner auf.

außerdem verstehe ich nicht was daran witzig sein soll opt off vs opt off zu benchen

mfg

lilgefo~
2007-05-21, 21:57:25
bei r600 ai on vs g80 hq regt sich auch keiner auf.

außerdem verstehe ich nicht was daran witzig sein soll opt off vs opt off zu benchen

mfg

Gegen einen g80 muss (sollte) man auch mit ai off benchen das ist nur fair aber eine 7900gtx hat ja mal gar nichts zu melden was filterqualität angeht auch mit hq von daher ist es lächerlich da noch ai off zu fordern..aber wie du schon sagtest selbst dann wäre sie noch schneller.

Mr. Lolman
2007-05-21, 21:57:57
Gegen einen g80 muss (sollte) man auch mit ai off benchen das ist nur fair

Warum?


außerdem verstehe ich nicht was daran witzig sein soll opt off vs opt off zu benchen

mfg


Weil opt off nicht gleich opt off ist. Nicht immer ist das drin was drauf steht. Wenn der optische Vergleich den Schluss impliziert dass AIon mit HQ vergleichbar ist, sollte man so benchen. Und das auch selbst wenns bei IHV-X "Kack-Quality" hiesse und bei IHV-Y "Godlike-Quality"....

lilgefo~
2007-05-21, 21:58:41
Warum?

weil der g80 winkelunabhängig filtert und der r580 nicht?!

LovesuckZ
2007-05-21, 22:00:17
Warum?

Weil du dich so schön aufregen kannst. ;)
Findest du es nicht lächerlich, immer von SGSSAA zu schwärmen, aber bei der Filterung gibst du dich mit irgendwelchen OPtimierungen zu frieden? Das macht einen wirklich komischen Eindruck.

Mr. Lolman
2007-05-21, 22:02:01
Weil du dich so schön aufregen kannst. ;)
Findest du es nicht lächerlich, immer von SGSSAA zu schwärmen, aber bei der Filterung gibst du dich mit irgendwelchen OPtimierungen zu frieden? Das macht einen wirklich komischen Eindruck.

Wo schwärm ich von SGSSAA? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5492289&postcount=2
Deine restlichen Ausführungen hab ich schon im vorigen Post beantwortet...

Dein komischer Eindruck entsteht nur durch mangelhafter Informationen ;)

weil der g80 winkelunabhängig filtert und der r580 nicht?!

Mit HQ filtert der R580 auch (quasi) winkelunabhängig. Außerdem ist die AF-Blume der Testproggis nicht der Weisheit letzter Schluss. Mit 0xAF und LOD-4 hast du auch ne perfekte Blume. Und ist deswegen die BQ auch automatisch perfekt?

Will sagen, dass die AF-Blume bestenfalls nur ein Indiz der tatsächlichen Qualität darzustellen vermag, da sie keinerlei Rückschlüsse über die tatsächliche Samplegenauigkeit zulässt...

Odal
2007-05-21, 22:30:32
Deine Prozentzahlen kann glaube ich keiner Nachvollziehen, wenn man die 7900GTX immer als 100% nimmt, dann passen deine Zahlen nie auf die 1900XTX, seltsam... Oder hast was anderes verglichen als 1280*1024?

ähm zum nachvollziehen stehen fast überall links darunter....

nein es wurde 1280x1024 verglichen aber natürlich mit AA&AF weil ohne spielt ja wohl kaum jemand der nicht kompletter DAU ist ^^

genau darum sage ich auch das man mit der 2900XT noch zögern soll weil ohne AA&AF müsste man diese natürlich einer 8800GTS bevorzugen (vom leistungsaspekt her)


in 1600x1200 ist der Vorsprung der X1900XTX übrigens meist noch einiges grösser....

ist aber nicht meine (und die häufig) genutzte Auflösung darum hab ich mal nur 1280x1024 mit AA&AF verglichen....


@the_invisible...

warum sollte man bei einer Grafikkarte die sehr gute BQ bietet im Vergleich mit einer Graka welche BQ unter aller Kanone bietet weil sie einfach technisch nicht zu mehr im Stande ist, vergleichen indem man erstere aufs maximal mögliche stellt? Eigentlich müsste man noch nen haken bei AF Optimierungen im ATT reinhaun und selbst dann bekommt man sie nicht aufs niveau einer 7900GTX runter XD

wieder ein eine sache das der G71 nicht ausgereift ist....er ermöglicht halt keine anständige BQ (technisch nichtmal nur durch "optimierungen")

Raff
2007-05-21, 22:32:05
G71-HQ ist weit besser als es hier immer dargestellt wird.

MfG,
Raff

sulak
2007-05-21, 22:40:36
ähm zum nachvollziehen stehen fast überall links darunter....

nein es wurde 1280x1024 verglichen aber natürlich mit AA&AF weil ohne spielt ja wohl kaum jemand der nicht kompletter DAU ist ^^

Jo da haste recht, hat mich nur gewundert, da man schön bei CB einfach mit der Maus die Zahlen sich anschaun kann, falsche Bilder verglichen :redface:

Warum wird eigentlich in 1600*1200 gebencht wenn fast alle auf TFTs umgestiegen sind und da eher 1680*1050 und 1920*1200 angesagt ist?
Irgendwie wohl ein Relikt...

Raff
2007-05-21, 22:42:20
1600x1200 hat rund 10 Prozent mehr Pixel als 1680x1050, ist also in Sachen Spielbarkeit voll übertragbar.

MfG,
Raff

san.salvador
2007-05-21, 22:47:11
1600x1200 hat rund 10 Prozent mehr Pixel als 1680x1050, ist also in Sachen Spielbarkeit voll übertragbar.

MfG,
Raff
Wobei man nicht vergessen darf, dass 16x12 mehr Himmel bzw. Boden darstellt, 16x10 mehr Mitte. Und dort sind auch die aufwändig zu berechnenden Elemente zuhause. bei Strategiespielen wahrscheinlich komplett wurscht, bei Ego-Shootern und Rennspielen kann dass aber sicher für einige Prozent Unterschied gut sein.

sulak
2007-05-21, 22:47:20
Sagt aber nicht, warum es immer noch genutzt wird ^^ Wird sich wohl wie ändern.

Hier im Forum ist ja schon öfters das Argument gefallen das bei vielen Objekten es evtl. sein kann das die Widescreen Auflösungen langsamer laufen, da mehr Details/Gegner dargestellt werden.

€: 2 Dumme, ein Gedanke

Odal
2007-05-21, 23:37:43
naja ich denke mal die meisten leute haben noch keine widescreen TFTs ja viele haben sogar noch die gute alte röhre da währe dann ja 1280x968 (wars doch?) passender...

man kann halt nicht alle verwendeten auflösungen durchtesten...ich glaube 1280x1024 entspricht da gut dem durchschnitt und fürs highend mit dem richtigen anzeigegerät dann eher 1600x1200 im schnitt

Hübie
2007-05-21, 23:57:03
Naja nun tut mal net so als könnte ein G71 garnet filtern.

Ich werde jedenfalls erstmal abwarten, was noch für Modelle kommen und wie sich der Treiber entwickelt.
Da ich bisher immer den RAM verdoppelt hab warte ich bis es Karten mit 1GB gibt. Vorher brauch ich garnet zu gucken.
Mein X1900er CF-Gespann wird sicher noch ne Weile durchhalten (auf die Leistung, nicht Lebensdauer, bezogen;D).


bye Hübie

Gast
2007-05-22, 07:26:51
warum sollte man bei einer Grafikkarte die sehr gute BQ bietet im Vergleich mit einer Graka welche BQ unter aller Kanone bietetDer R580 bietet mit aktiviertem AI aber keine sehr gute Bildqualität.Beim normalen MSAA sieht die G71 besser aus? Interessant......wie erklärst du mir das technisch?Das MSAA bis 4x ist bei beiden absolut gleichwertig. Die Geforce liegt insgesamt aber trotzdem vorne, da sie die sexy Hybridmodi zu bieten hat.

BAGZZlash
2007-05-22, 07:46:43
dumme antwortmöglichkeiten...

[x] habe g80 und brauch keinen r600

Selber dumm. Es geht um Leute, die mit 'ner 2900XT geliebäugelt haben und die ihre Entscheidung vom Launch abhängig gemacht haben. Leute, auf die dies nicht zutrifft, sollten nicht antworten. Erstes Posting lesen, dies wird aber denke ich auch schon aus den vorgegebenen Antwortmöglichkeiten deutlich. Viele andere haben das verstanden.

@ G71 vs R580 Fanboy-Bash-Diskussion: Offtopic, EOD. Sucht Euch 'nen anderen Spielplatz dafür.

Mr. Lolman
2007-05-22, 09:31:46
Die Geforce liegt insgesamt aber trotzdem vorne, da sie die sexy Hybridmodi zu bieten hat.

Hat ATi auch. ASTT + EATM, ASBT + ASTT, ASBT + ASTT + EATM.

James Ryan
2007-05-22, 09:34:42
Hat ATi auch. ASTT + EATM, ASBT + ASTT, ASBT + ASTT + EATM.

Langsam wird es wirklich lächerlich! :rolleyes:

MfG :cool:

Mr. Lolman
2007-05-22, 10:58:59
Langsam wird es wirklich lächerlich! :rolleyes:

MfG :cool:

Warum? ASBT scheint zumindest bei manchen Spielen ein SGSSAA zu erzeugen. Lächerlich ist nur, dass man anfängt über, für aktuelle Spiele, irrelevante Modi, von GraKas der vorigen Generation zu sinnieren anfängt :rolleyes:

James Ryan
2007-05-22, 11:03:20
Du schreibst es schon selber, bei manchen Spielen wird SSAA erzeugt, bei manchen aber nicht... also kein richtiger Ersatz für immer funktionierende Hybrid-Modi!

Außerdem nervt deine Antipatie gegen NVIDIA ziemlich! Der G80 ist zur Zeit einfach der deutlich bessere Chip, da er konstant Leistung bringt!
Wer NVIDIA nicht mag (weil die sind ja böse, haben ja hinterlistig die Götter ala 3dfx aufgekauft, und keine andere Firme hätte so etwas teuflisches gewagt :P ) kauft halt eine HD 2900 XT und gut ist. Dann aber auch bitte nicht bei jeder Gelgenheit den G80 schlecht machen. Wäre er so schlecht, würde sich A/A nicht so schwer tun ihn zu schlagen!

MfG :cool:

Mr. Lolman
2007-05-22, 11:04:50
Außerdem nervt deine Antipatie gegen NVIDIA ziemlich! Der G80 ist zur Zeit einfach der deutlich bessere Chip, da er konstant Leistung bringt!
Wer NVIDIA nicht mag (weil die sind ja böse, haben ja hinterlistig die Götter ala 3dfx aufgekauft, und keine andere Firme hätte so etwas teuflisches gewagt :P ) kauft halt eine HD 2900 XT und gut ist. Dann aber auch bitte nicht bei jeder Gelgenheit den G80 schlecht machen. Wäre er so schlecht, würde sich A/A nicht so schwer tun ihn zu schlagen!

MfG :cool:


Bist wohl ein bisschen paranoid, wa? Wo mach ich den G80 schlecht?

Odal
2007-05-22, 11:05:07
Langsam wird es wirklich lächerlich! :rolleyes:

MfG :cool:

warum lächerich? er hat doch recht..EATM ist ne geniale sache...hab ich praktisch immer aktiviert..kostet kaum leistung und beseitigt das geflimmere durch aliasing von z.b. vegetation usw.....bei älteren sachen (Source Engine z.b. DOD:S oder CSS) schalt ich einfach noch ASTT hinzu oder nutze ASBT

James Ryan
2007-05-22, 11:09:12
warum lächerich? er hat doch recht..EATM ist ne geniale sache...hab ich praktisch immer aktiviert..kostet kaum leistung und beseitigt das geflimmere durch aliasing von z.b. vegetation usw.....bei älteren sachen (Source Engine z.b. DOD:S oder CSS) schalt ich einfach noch ASTT hinzu oder nutze ASBT

EATM wäre wirklich toll, leider störte mich auf meiner ehemaligen X1900 XT das öfters auftauchende Fischernetz erheblich!
Insofern auch nicht wirklich eine tolle Alternative.
ATi hat schon gute Ideen mit sparsamen Mitteln die BQ gut aufzuwerten. Leider lässt die Implementierung aber zu wünschen übrig und EATM ist nicht überall wirklich gut nutzbar!

MfG :cool:

Odal
2007-05-22, 11:13:13
Warum? ASBT scheint zumindest bei manchen Spielen ein SGSSAA zu erzeugen. Lächerlich ist nur, dass man anfängt über, für aktuelle Spiele, irrelevante Modi, von GraKas der vorigen Generation zu sinnieren anfängt :rolleyes:


sehe ich genauso...ich finde ATI macht sich da deutlich mehr Gedanken wie man per AA die BQ nutzbar verbessern kann...das war schon mit dem AAA beim R300 der fall....nun hat sich herausgestellt das EATM eine performantere Möglichkeit ist (die spiele werden ja auch immer anspruchsvoller)....mal sehn wie es in zukunft aussieht....find ich gut das ATI jetzt ihren EATM algorithmus weiterentwickelt und mit anderem AA kombiniert....

gerade mit EATM bekomme ich mit meiner jetzigen Hardware in sogut wie jedem Spiel @high Details ein astreines Bild hin wo sogut wie nix flimmert.....

Mr. Lolman
2007-05-22, 11:14:48
EATM wäre wirklich toll, leider störte mich auf meiner ehemaligen X1900 XT das öfters auftauchende Fischernetz erheblich!
Insofern auch nicht wirklich eine tolle Alternative.

Hat sich in der letzten Zeit aber deutlich gebessert: http://666kb.com/i/aoidm90ygd0y9ad4z.jpg

Odal
2007-05-22, 11:15:46
EATM wäre wirklich toll, leider störte mich auf meiner ehemaligen X1900 XT das öfters auftauchende Fischernetz erheblich!
Insofern auch nicht wirklich eine tolle Alternative.

das muss aber schon sehr ehemalig sein denn das tritt seit ein paar treibern nicht mehr auf...ausser du hast vielleicht noch ATMAlphasharpenBias per registrytweak aktiviert...darum soll man das ja nicht per tweak aktivieren ;)

=Floi=
2007-05-22, 11:27:16
was willst du mit dem bild?
1. komprimiert 666.com die bilder nach aber das habe ich dir schon das letzte mal gesagt
2. hast du das ganze bild wohl noch verkleinert

es soll in deinem post um die bildqualität gehen aber SO ;D kann das nichts werden

Mr. Lolman
2007-05-22, 11:36:04
was willst du mit dem bild?
1. komprimiert 666.com die bilder nach aber das habe ich dir schon das letzte mal gesagt
2. hast du das ganze bild wohl noch verkleinert

es soll in deinem post um die bildqualität gehen aber SO ;D kann das nichts werden


1. Wenn man zu blöd ist, das Häkchen wegzunehmen - ja dann komprimiert 666kb die Bilder erneut.

2. Hab ich da sicher nix verkleinert, aber das könnte einem auch so auffallen, wenn man ein geschultes/geübtes Auge für 3D-Grafik hat.

3. Das war BTW 4xAA+EATM ohne ASTT/ASBT, dafür mit HDR, und allen ATM-Tweaks bis auf Sharpenbias ;)

=Floi=
2007-05-22, 12:20:58
die fraps anzeige ist kleiner wie bei der 1280er auflösung also wurde das bild runterskaliert (von der 1600er auflösung)
hier täuscht sich mein geschultes auge nicht weil ich sogar nachgemessen habe...

James Ryan
2007-05-22, 12:45:16
POST GELÖSCHT

Hübie
2007-05-22, 12:53:47
Manchmal weiß ich echt net was ich von euch Jungs halten soll :rolleyes:



bye Hübie

Mr. Lolman
2007-05-22, 12:55:39
die fraps anzeige ist kleiner wie bei der 1280er auflösung also wurde das bild runterskaliert (von der 1600er auflösung)
hier täuscht sich mein geschultes auge nicht weil ich sogar nachgemessen habe...

Das ist nicht fraps, sondern die OSD-Anzeige der ATT. Wärs runterskaliert worden, wären außerdem 1. die Kanten der Anzeige unscharf und 2. das Wasser besser geglättet :mad:
Runterskaliert auf 1024: http://666kb.com/i/aok3hrmf6w7a0frpf.jpg Und bevor du mir jetzt unterstellst, ich hätte noch nen Blurfilter drübergelegt, probiers lieber selbst aus.

Lass gut sein... das ganze diskutieren hat doch null Sinn!
Mr. Lolman ist der totale 3dfx Freak und da NVIDIA nunmal 3dfx aufgekauft hat, ist es heutzutage natürlich böse und kann sowieso nichts.
Witzig ist, dass genau die Leute, welche die achso tollen Voodoo-Karten gebastelt haben jetzt bei NVIDIA arbeiten. Aber wayne, ATi ist sowieso das absolut beste auf Erden und es kann gar nichts besseres geben!

MfG :cool:

Jetzt reichts aber mit deinen unnötigen Flames => Post gemeldet! :mad:

Crushinator
2007-05-22, 13:05:33
Bitte laßt die Flamerei sein und kehrt wieder zu diskussionstauglichen Ausdrucksweisen zurück, es macht dann auch mehr Spaß mitzulesen. Danke.

Undertaker
2007-05-22, 14:07:07
Selber dumm. Es geht um Leute, die mit 'ner 2900XT geliebäugelt haben und die ihre Entscheidung vom Launch abhängig gemacht haben. Leute, auf die dies nicht zutrifft, sollten nicht antworten. Erstes Posting lesen, dies wird aber denke ich auch schon aus den vorgegebenen Antwortmöglichkeiten deutlich. Viele andere haben das verstanden.

@ G71 vs R580 Fanboy-Bash-Diskussion: Offtopic, EOD. Sucht Euch 'nen anderen Spielplatz dafür.

sag mal, hab ich dich persönlich beleidigt? denke nein, also halte dich lieber mal etwas besser zurück

wie du in der umfrage sehen kannst, habe ich auch gar nix angekreuzt, die kritik das imho weitere sinnvolle optionen fehlen ist absolut berechtigt :rolleyes:

edit: crushi hats ja schon erwähnt...

Gast
2007-05-22, 16:28:54
Lächerlich ist nur, dass man anfängt über, für aktuelle Spiele, irrelevante Modi, von GraKas der vorigen Generation zu sinnieren anfängt :rolleyes:Wer redet denn von aktuellen Spielen? Die Hybridmodi sind imho perfekt um ältere Spiele optisch aufzumöbeln. Wer nur die aktuellen Blockbuster spielt, hat dadurch natürlich keinen Vorteil, aber es soll auch Leute geben, die mal ältere Spiele spielen. Das solltest gerade du aber eigentlich wissen.

Gast
2007-05-23, 16:50:28
ich glaube das sieht auch bei neuen Spielen sehr gut aus oder sollte ich mich da irren?

J0ph33
2007-05-23, 16:53:14
ja, tut es wohl...aber wer mit fps <20 spielen?

Gast
2007-05-23, 16:53:34
bzw.was ist alt und was ist neu :D...coj=alt :D mit 16Xs oder Oblivion ist neu und sieht nix aus mit 16xs...? TDU? :D ohne oder mit...nenene das alter ist sowas von wurst...

Gast
2007-05-23, 16:54:10
ich glaube das sieht auch bei neuen Spielen sehr gut aus oder sollte ich mich da irren?Natürlich sieht es auch in aktuellen Spielen sehr gut aus. Während 8xS mit einer 8800 noch sehr oft nutzbar ist, wird es bei 16xS oder 32xS wohl schon desöfteren knapp. Mit einer GF7 kann mans aber wohl komplett vergessen.

Blaire
2007-05-23, 17:06:50
Natürlich sieht es auch in aktuellen Spielen sehr gut aus. Während 8xS mit einer 8800 noch sehr oft nutzbar ist, wird es bei 16xS oder 32xS wohl schon desöfteren knapp. Mit einer GF7 kann mans aber wohl komplett vergessen.

Bei Nvidia hat man die Qual der Wahl man kann für jedes Game (ob alt oder neu) die AA Stufe sinnvoll anpassen.
Ich gehe jetzt mal von meinen SLI System aus (8xS kann ich eigentlich überall nutzen bis in höchste Auflösungen, selbst 16xS stell oft kein Problem dar wenn man es nicht übertreibt >1600x1200)
Für ältere Games eignen sich dann 4x4SS, 32xS oder gar SLI 64xAA (OGL only Blockbuster wie Wolfenstein ,Rune oder Medal of Honor kann man dann auch optisch aufpolieren und spielbar bleibt es allemal)

Mr. Lolman
2007-05-23, 17:16:33
(8xS kann ich eigentlich überall nutzen bis in höchste Auflösungen, selbst 16xS stell oft kein Problem dar wenn man es nicht übertreibt >1600x1200)

Toll, oder du hättest dir 500€ gespart, einiges weniger an Stromverbrauch und hättest die gleichen fps wie mit 4x (bzw 8xS) AA.

Gast
2007-05-23, 17:32:54
Toll, oder du hättest dir 500€ gespart, einiges weniger an Stromverbrauch und hättest die gleichen fps wie mit 4x (bzw 8xS) AA.Wenn diese Bildqualität ihm das Geld wert ist, was spricht denn dagegen? Um seinen Monitor ordentlich zu befeuern, sollten es schon zwei 8800er sein.

Blaire
2007-05-23, 17:34:51
Toll, oder du hättest dir 500€ gespart, einiges weniger an Stromverbrauch und hättest die gleichen fps wie mit 4x (bzw 8xS) AA.

Warum sollte ich mich mit weniger zufrieden geben? Ausserdem sind bei hohen Auflösungen wie 2560x1600 zwei 8800GTX Pflicht sonst spielt man oft ohne AA und das ist auch keine Alternative. Ich möchte die Karten nicht mehr missen und bereue keinen Cent den ich dafür ausgegeben habe. Wäre ich unzufrieden befänden sich die Karten nicht mehr bei mir im Rechner. ;)

BAGZZlash
2007-05-23, 17:38:42
[...]die Kritik, dass imho weitere sinnvolle Optionen fehlen, ist absolut berechtigt. :rolleyes:


Nein. Am Ende zählen bei einer solchen Umfrage ja die prozentualen Ergebnisse. Und die würden durch irrelevante Möglichkeiten wie "Habe G80 und brauche keinen R600" verzerrt werden, denn wie gesagt: Es geht um Leute, die Ihre Entscheidung vom Launch des R600 abhängig gemacht haben, und jene Leute, die vorgenannte Möglichkeit, so sie denn da wäre, ankreuzen würden, gehören eben nicht zu der gesuchten Stichprobe.
Glaub' mir einfach, ich beschäftige mich mit praktischer Umfrageforschung und hab' mir schon ziemlich genau überlegt, welche Antwortmöglichkeiten ich vorgebe uch welche ich auslasse.

Mr. Lolman
2007-05-23, 17:39:22
Wenn diese Bildqualität ihm das Geld wert ist, was spricht denn dagegen? Um seinen Monitor ordentlich zu befeuern, sollten es schon zwei 8800er sein.

Wenn er dann eh alles mit 8xS spielt? Aber natürlich, wenns einem das Geld wert ist, warum nicht. Es steht halt bloß nicht, in nem guten P/L Verhältnis, das Ganze. Nämlich, dass man mal schnell doppelte Rechenleistung verpuflert, nur damit die Kanten in eine Richtung besser gegelättet werden und die Texturen etwas glatter sind (also nach glatter, als das ohnehin schon 'perfekte' G80-AF schafft)

Andererseits, hab ich schon oft genug meine Einstellung zu OGSS kundgetan, und will den Thread damit jetzt auch nicht weiter penetrieren. =)

Warum sollte ich mich mit weniger zufrieden geben? Ausserdem sind bei hohen Auflösungen wie 2560x1600 zwei 8800GTX Pflicht sonst spielt man oft ohne AA und das ist auch keine Alternative. Ich möchte die Karten nicht mehr missen und bereue keinen Cent den ich dafür ausgegeben habe. Wäre ich unzufrieden befänden sich die Karten nicht mehr bei mir im Rechner. ;)

Hm, Ich dachte, dass du 8xS selbst in höchsten Auflösungen eigentlich überall nutzen kannst. Aber egal, lassen wir diese Korinthenkackerei ;)

Blaire
2007-05-23, 17:51:54
Hm, Ich dachte, dass du 8xS selbst in höchsten Auflösungen eigentlich überall nutzen kannst. Aber egal, lassen wir diese Korinthenkackerei ;)

Natürlich kann man das. Es kommt eben auch immer auf die Einstellungen drauf an. Gibt ja so nette Extras wie HDR,Bloom,Softshadows etc. ;) Wenn 8xS nicht mehr reicht , hat man ja auch noch die Wahl zwischen 4xS,4xMSAA,Coverage AA oder Transparenten AA Modis.

webmaster.com
2007-06-04, 14:49:30
So lange ich keine wirklich überzeugenden Berichte gelesen habe, bleibe ich bei meiner X1950XT

mdevil666
2007-06-04, 14:55:59
Habe meine X1800 XT letzte Woche durch eine Club3D HD 2900 XT ersetzt und bin bisher sehr zufrieden.
Einzig die Lautstärke des Lüfters auf max ist nicht sehr angenehm. Sobald sich das per Tool regeln lässt
gibt es aber nichts mehr zu meckern.