PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7900GTX vs. X1900XTX


Seiten : [1] 2

Kladderadatsch
2006-03-09, 17:20:33
der review-thread behandelt irgendwie alles außer der performance der beiden topmodelle, daher eröffne ich diesen thread, in der hoffnung, es werden ein paar gescheite benchmarks zusammengetragen. bei guru3d (http://www.guru3d.com/article/Videocards/326/) habe ich das gefühl, da stimmt was mit den werten nicht. anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2717&p=1) hat da imo einen ernstzunehmenderen benchmarkparkour...oder?
da liegen 7900gtx und x1800xtx auch mehr oder minder gleichauf.
aber was ist denn jetzt mit der prognose, der r580 wachse mit den kommenden games noch mit? welche gpu schätzt ihr als die potentere ein? wer ist schneller?

reviews:
guru3d (http://www.guru3d.com/article/Videocards/326/)
anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2717&p=1)
ixbit (http://www.ixbt.com/video2/g71-part2.shtml)
clubic (http://www.clubic.com/article-32655-2-nvidia-geforce-7900-gt-gtx-bonjour-g71.html)
techreport (http://www.techreport.com/reviews/2006q1/geforce-7600-7900/index.x?pg=1)
hexus (http://www.hexus.net/content/item.php?item=4872)
firingsquad (http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/default.asp)
tomshardware.com (http://www.tomshardware.com/2006/03/09/ati_and_nvidias_same_day_mega_launch_mayhem/index.html)
digitlife (http://www.digit-life.com/articles2/video/g71-part1.html)

Gast
2006-03-09, 18:31:09
Wenns nur um Speed geht, nehmen sich die beiden nicht viel. Mal ist ATI schnell, mal NV. Viel interessanter finde ich da die restlichen Vor- und Nachteile der Karten

Ati:
+ gutes AF
+ verliert nicht soviel Performance mit AA/AF
+ HDRR+MSAA
+ performantes DB im Pixelshader

- keine Filterung von FP16-Texturen ("Steinzeit-TMUs)
- kein VTF
- laut und heiß
- kein Supersampling bzw. Hybridmodi

NV:
+ leise, kühl
+ FP-Filterung
+ VTF
+ SSAA und Hybridmodi

- verliert verhätlnismäßig viel Speed mit AA
- lahmes dynamisches Branching im PS
- nur winkelabhängiges AF
- kein MSAA auf FP16-Rendertargets

Gast
2006-03-09, 18:31:51
Dazu kommt natürlich auf beiden Seiten noch der Fanboy-Bonus. :D

tombman
2006-03-09, 18:37:17
Also nachdem was ich bisher gelesen habe ist die X1900XTX schneller sobald die ganze Sache extrem anspruchsvoll wird- sprich AA+AF und haufenweise Shader. Zusammen mit den besseren features, sprich wuAF und AA+HDR ist sie die interessantere Karte.

[marcel reich ran.] ABER:[/marcel r.r.] bringt nur alles ned sehr viel bei heutigen games, denn so modern sind vielleicht soviele wie an einer Hand Finger sind. Nvidia hat daher ned ganz unrecht, wenn sie sagen ATI sei übers Ziel ein bischen hinausgeschossen. Sie brauchen 100 Millionen Transistoren mehr, deutlich mehr Chipfläche und deutlich mehr Strom und Hitze um praktisch die selbe Leistung in heutigen games zu erreichen. Unter Last verbraucht die 7900GTX soviel wie eine 7800GTX(256mb!!)!!. Dh, man braucht auch kein abartiges Netzteil kaufen, so wie derzeit bei 7800gtx(512mb) SLI und X1900 Crossfire, sondern ein 500Watt NT sollte ausreichen. (bei 7800gtx512 SLi und X1900 Cf --> ab 600 Watt aufwärts ;))

Die Effizienz in der Leistung und Strombedarf ist beim G71 deutlich überlegen, und da er so klein ist, auch wirtschaftlich total "geil" ;)

Fazit: wer schon X1900XT(X) hat -> dabei bleiben, die 7900gtx bringt nix, was man ned schon hat ;)

Großes Fragezeichen: Quad-SLI. Sicher ist bis jetzt nur, daß Dell und andere system builder solche Systeme anbieten werden, äußerst unsicher dagegen ob es jemals retail werden wird. Nvidia hat, laut Anandtech, nämlich Angst und Bedenken, ob die Leute überhaupt die entsprechenden 800 bis 1000 Watt Netzteile auftreiben können und ob die Kühlung sichergestellt wäre. (also ICH würds sicher schaffen ;D). Daß die performance vom anderen Stern wäre bezweifelt wohl niemand, auch wenn man 90% cpu limitiert wäre. Aber wozu gibts denn 16xAA und co? :cop:

Kladderadatsch
2006-03-09, 18:45:58
hm, die ati braucht wirklich viel mehr strom. (74 watt mehr als die 7900gtx (http://www.techreport.com/reviews/2006q1/geforce-7600-7900/power-load.gif))
das dürfte sich wohl auch deutlich aufs oc-potential auswirken...

hm, verstehe ich die ixbit-benches (http://www.ixbt.com/video2/g71-part3.shtml) richtig, ist die 7900gtx ohne aa/af im schnitt 10% schneller; genau wie sie mit aa/af immer rund 10% langsamer als die x1900xtx ist.
woran liegt das?

wer wird in den zukünftigen games voraussichtlich schneller sein?

tombman
2006-03-09, 18:47:30
jo, das siehst du richtig, sobald AA/AF drinn ist gewinnt X1900

Banshee18
2006-03-09, 19:18:18
hm, die ati braucht wirklich viel mehr strom. (74 watt mehr als die 7900gtx (http://www.techreport.com/reviews/2006q1/geforce-7600-7900/power-load.gif))
das dürfte sich wohl auch deutlich aufs oc-potential auswirken...

hm, verstehe ich die ixbit-benches (http://www.ixbt.com/video2/g71-part3.shtml) richtig, ist die 7900gtx ohne aa/af im schnitt 10% schneller; genau wie sie mit aa/af immer rund 10% langsamer als die x1900xtx ist.
woran liegt das?

wer wird in den zukünftigen games voraussichtlich schneller sein?

Dass der R5x0 mit AA vorne liegt, liegt wohl u.a. am Speichercontroller, der afaik 8-fach unterteilt ist, bei nV nur 4-fach.
In zukünftigen Games liegt wahrscheinlich die X1900XTX vorne, aufgrund ihrer höheren arithmetischen Power.

O RLY?
2006-03-09, 19:40:34
[x]objektiv: 7900GTX

Bin ziemlich der Ansicht wie tombman, was die 7900 GTX anbelangt.
Deshalb lass' ich das mal so stehen :cool:

derMeister
2006-03-09, 19:49:48
EDIT

mapel110
2006-03-09, 19:52:14
X1900 XTX, (sofern ein Zalman drauf montiert wird.)

Die 7900 GTX müsste schon mindestens 100 € billiger sein als eine X1900 XT, damit ich sie mir antun würde.

Kladderadatsch
2006-03-09, 19:59:01
(guru3d lediglich für ss2 beachtet)
serious sam: nv gewinnt durch die bank (10x7: 143:136 | 12x10: 140:114 | 19x12: 113:93)
splinter cell 3: ati liegt mit ~5 fps leicht vorne (10x7: 81:78 | 16x12: 62:58 | 10x7, 4xaa/16xaf: 118:117 | 16x12, 4xaa/16xaf: 68:62)
quake 4: nv liegt deutlich vorne (12x10, 4xaa: 101:87 | 16x12, 4xaa: 76:68)
fear: bis 1280x1024 (+aa!) gewinnt nv, alles darüber führt ati knapp bis gut an (12x10, 4xaa: 61:56 | 12x10, 4xaa/16xaf: 57:46 | 16x12, 4xaa: 43:42)
bf2: ati immer leicht schneller (12x9, 4xaa: 89:88 | 16x12, 4xaa: 74:70 | 19x14, 4xaa, 16xaf: 66:63)
3dmark06: 7000 zu 6500
lost coast: umgekehrtes bild: bis 1280x960 (+aa/af) liegt ati vorne, darüber führt nv leicht an. das af scheint bei nv sehr stark zu ziehen, weniger würde die differenz zugunsten nv wohl deutlich lockern (10x7, hdr, 16xaf: 90:82 | 12x9, hdr, 16xaf: 81:79 | 16x12, hdr, 16xaf: 66:64)
oblivion: 16x12, 4xaa, 16xaf, bloom: 35:25. ob fake oder nicht, weiß man nicht. ich glaube auch nicht, dass der abstand in niedrigeren settings so groß bleibt. warum sollte er?

je länger ich die benches vergleiche, desto deutlich wird ein unentschieden...was ein mod vielleicht der umfrage hinzufügen könnte.

quintessenz:
nv: für den energiebewussten;), vielleicht auch für die besseren oc-ergebnisse
ati: bei empfindlichem auge (bq), für msaa+hdrr.

die aa/af-dominanz seitens ati hat sich in meinen augen durch die (auch oben benutzen benches) von hexus, anadtech, guru3d (für ss2) und techreport ziemlich relativiert...

IceLord
2006-03-09, 20:04:46
[x] objektiv: 7900GTX wegen SSAA und Hybridmodi, gutem Kühler und den besseren Linux Treiber. Ich hoffe aber sehr das NV mit der nächsten Generation den AF verbessert.

r3ptil3
2006-03-09, 20:13:59
[X]objektiv: X1900XTX

guru3d.

An diesem Review kommt mir was schief vor.
Lieber viele Reviews anschauen und sich ein gesamtbild machen.

Und das die die 7900 GTX ohne AA AF vor der XTX ist spricht überhaupt nicht für die 7900 GTX, weil man Grafikkarten auch richtig testen sollte, sprich max. AA AF .

Chrisch
2006-03-09, 20:15:18
[X]objektiv: X1900XTX
dito

(del676)
2006-03-09, 20:17:18
[X]objektiv: X1900XTX

Kladderadatsch
2006-03-09, 20:18:59
bitte auch den ein oder anderen grund, ok?:love3:

Umfrg
2006-03-09, 20:21:03
[X]objektiv: Keine

Ich favorisiere eine X1900 XT!!!!!!!!!

thade
2006-03-09, 20:21:24
[X]objektiv: X1900XTX ;)

NV hat natürlich auch seine Vorzüge, aber für Mich ist ATi in den relevanten Punkten vorne!

Gast
2006-03-09, 20:24:41
Objektiv: Eine X1900XTX mit der Kühlung und der Leistungsaufnahme der 7900GTX.

Ich hoffe also weiter auf eine X1900XL mit einem leisen Kühler eines Fremdherstellers.


Q

tombman
2006-03-09, 20:28:32
[x] objektiv: 7900GTX wegen SSAA und Hybridmodi, gutem Kühler und den besseren Linux Treiber. Ich hoffe aber sehr das NV mit der nächsten Generation den AF verbessert.

Also SSAA kannst zwar theoretisch fahren, in der Praxis wirst aber SLI brauchen sonst sind die fps zu wenig...

Btw, mit Crossfire bekommst auch SSAA, wenn auch nur maximal 2x

Pirx
2006-03-09, 20:34:52
hm, die ati braucht wirklich viel mehr strom. (74 watt mehr als die 7900gtx (http://www.techreport.com/reviews/2006q1/geforce-7600-7900/power-load.gif))
...
Bei Anand siehts nicht ganz so schlimm aus.

http://www.anandtech.com/video/showdoc.aspx?i=2717&p=4


[x]X1900XT, bessere Bildqualität und schnell, wenn es drauf ankommt

Blackpitty
2006-03-09, 20:36:13
mir ist die 7900ter Reihe eigentlich egal, bringen mir nichts, und wenn dann die 8xxx Reihe

HockleXX
2006-03-09, 20:42:23
bin irgendwie für ATi ^^

Gast
2006-03-09, 20:47:52
lol, wie sie hier alle meinen objektiv zu sein. ;)

Ich sehe ATI leicht vorne, wenn es um einzelne Karten geht. Bei Multi-GPU hat aber weiterhin NV die Nase vorn. Die Vor- und Nachteile der Karten habe ich schon ganz am Anfang des Threads aufgezählt.

Was mich bei der x1900xtx störem würde, ist, dass es keine Hybridmodi gibt. Gerade für ältere Spiele sind mir 8xS und 16xS sehr ans Herz gewachsen und ich möchte sie nicht mehr missen.

Gast
2006-03-09, 20:48:52
Boah, nur ATI-Fanboys hier. ;D

Warum gibt es eigentlich kein unentschieden zur Auswahl?

ShadowXX
2006-03-09, 21:02:20
[x] objektiv: x1900xt(x)

Selbst bei durchschnittlichen Gleichstand zwischen nV & ATI (vom Speed sehe ich die Karte nicht sehr weit auseinander....wobei ich erst mal Test von nV mit HQ und deaktivierten Optimierungen sehen will, bis ich da ein abschliessendes Urteil bilde), liegt die ATI durch die besser BQ vorne.

Ich persönlich würde sogar dann noch eine x1900xt(x) kaufen, wenn ATI alle Tests mit 10% verlieren würde (wegen der besseren BQ).

Trotzdem muss man zugeben, das nV aus wesentlich weniger Transitoren allerhand rausholt und das erntet bei mir zumindest eine gewisse "Alle Achtung"-Sympatie.

Da ich das ganze aber mehr von der "Was kommt hinten raus Seite, scheiss auf Verbrauch und Hitze" sehe (eben als Gamer), ist bei mir der r580 der "kleine" Gewinner.

Ich bin schon auf den Showdown r600 vs. G80 gespannt.....

Kladderadatsch
2006-03-09, 21:07:30
Warum gibt es eigentlich kein unentschieden zur Auswahl?
das habe ich bereits erbeten.;) wurde aber wohl nicht gelesen.

ich weiß wirklich nicht, welche der beiden karten ich jetzt kaufen soll;(
in cod2 scheint ati auch klar zu dominieren. das dürfte doch technisch ziemlich wegweisend sein, oder?
q4, bzw. die d3-engine aber genauso...

Supermax2004
2006-03-09, 21:11:10
Ich bin klar für die 7900GTX ohne jetzt Details zu nennen ^^

IceLord
2006-03-09, 21:15:47
Also SSAA kannst zwar theoretisch fahren, in der Praxis wirst aber SLI brauchen sonst sind die fps zu wenig...

Btw, mit Crossfire bekommst auch SSAA, wenn auch nur maximal 2x
SSAA brauch ich eher für ältere Spiele. Finde es halt toll wenn ich bei Max Payne oder Gothic mit 16xAA spielen kann. So wird die überschüssige Leistung in Bildqualität umgewandelt. Was nützen mir 150FPS...

tombman
2006-03-09, 21:15:57
l
Was mich bei der x1900xtx störem würde, ist, dass es keine Hybridmodi gibt.
Bei Crossfire bekommst du Hybridmodi...

Mumins
2006-03-09, 21:16:37
Ich bin klar für die 7900GTX ohne jetzt Details zu nennen ^^

Egal was kommt, Du wärst immer für die Nvidia Karte.

Sonyfreak
2006-03-09, 21:21:48
{x}1900XTX - bin zwar eher NV-Freund aber die aktuelle ATI Generation ist wohl schneller

mfg.

Sonyfreak

ShadowXX
2006-03-09, 21:24:19
SSAA brauch ich eher für ältere Spiele. Finde es halt toll wenn ich bei Max Payne oder Gothic mit 16xAA spielen kann. So wird die überschüssige Leistung in Bildqualität umgewandelt. Was nützen mir 150FPS...

Jupps....das ist das einzige, was mich an ATI stört.

Man kann allerdings Demis DXTweaker benutzen um SSAA auch mit den Radeons zu benutzen.



das habe ich bereits erbeten. wurde aber wohl nicht gelesen.

ich weiß wirklich nicht, welche der beiden karten ich jetzt kaufen soll
in cod2 scheint ati auch klar zu dominieren. das dürfte doch technisch ziemlich wegweisend sein, oder?
q4, bzw. die d3-engine aber genauso...


Q4 und D3 benutzen relativ wenig Shader und dazu kurze. Die brauchen viel Texelfüllrate & Stencil-Power. Speziell aus ersten Grund liegt nV bei der D3-Engine momentan auch vorne.

Der XBit-Test hat relativ gut gezeigt, das je länger die Shader werden und je weniger dadurch die Füllrate eine Rolle spielt, das desto stärker die r580 wird.

Trotzdem werde ich dir hier kein Kaufempfehlung geben, da momentan keiner sagen kann, wie es in der näheren Zukunft aussieht.
Für die "fernere" Zukunft sehe ich allerdings den r580 im vorteil...nur ob das dann noch was bringt, steht auf einem anderen Blatt (7900GTX 3FPS vs. x1900xt 8FPS....)

Ich hatte es oben schon erwähnt. Wer auf sehr gute BQ setzt, sollte zur ATI greifen. Wer es lieber etwas leiser, kühler und sparender möchte (und BQ nicht soooo wichtig ist) kann durchaus auch zur 7900GTX greifen.

Kladderadatsch
2006-03-09, 21:29:33
Der XBit-Test hat relativ gut gezeigt, das je länger die Shader werden und je weniger dadurch die Füllrate eine Rolle spielt, das desto stärker die r580 wird.

wie kommt es dann, dass die 7900gtx dann gerade in fear so gut mithält (http://www.anandtech.com/video/showdoc.aspx?i=2717&p=7)?

Katrin
2006-03-09, 21:31:28
[x] X1900xtx

werde mir aber wohl ne 7900gt kaufen.. zum Testen.. und dann vielleicht ab in den 2.Rechner damit !.. mal schauen

Kati

aylano
2006-03-09, 21:33:27
Anscheinend geht Nvidea den AMD Weg, indem sie versuchen ihre Produkte effizient und Stromsparend zu machen, was ich befürworte.

ShadowXX
2006-03-09, 21:39:41
wie kommt es dann, dass die 7900gtx dann gerade in fear so gut mithält (http://www.anandtech.com/video/showdoc.aspx?i=2717&p=7)?

nV hat wohl endlich die Bremse bei FEAR gefunden.....

Nein ernsthaft: FEAR hängt (wie auch Coda schon öfters mal sagte) wohl viel stärker an der Stencil-Power als an reiner Shaderlast.
(Das haben aber auch schon alte Tests ohne AA/AF gezeigt...ohne AA/AF konnte die 7800GTX / GTX512 immer ganz gut bei FEAR mithalten).

NV hatte nun scheinbar ein Problem im zusammenhang mit AA Ihre Stencilpower auf den Boden zu bekommen...entweder es war ein Treiberproblem oder Sie haben im G71 in dieser Hinsicht was gefixt/verändert (nV soll beim G71 noch irgendetwas an den ROPs gedreht haben.)

gnomi
2006-03-09, 21:59:54
objektiv:
Beide Karte pfeilschnell mit jeweils eigenen Vorzügen, kein eindeutiger Sieger auszumachen

subjektiv:
Ich würde wohl die ATI Karte kaufen. (besseres AF)

Doomi
2006-03-09, 22:24:32
7900 GTX weil ich sehr viel vorm Rechner arbeite und etwas sehr leises, stromsparendes und kühles benötige. Da verzichte ich lieber auf das bissel Mehrleistung was die 1900 XTX bietet...

DeX
2006-03-09, 22:45:26
Anscheinend geht Nvidea den AMD Weg, indem sie versuchen ihre Produkte effizient und Stromsparend zu machen, was ich befürworte.

Absolut deiner Meinung. ~70Watt weniger Verbrauch sprechen für sich!


Keine Worte mehr.....
Die Welt sollte mal langsam die Birne einschalten.

LovesuckZ
2006-03-09, 22:49:50
Anscheinend geht Nvidea den AMD Weg, indem sie versuchen ihre Produkte effizient und Stromsparend zu machen, was ich befürworte.

Nvidia ist nicht gerade der "Stromsparfreak".
Seit dem NV40 gehen sie sehr konservativ vor.
Geringe Veränderungen an der Architektur, dafür einen höheren Gewinn pro Chip.
Bei der nächsten Generation kann dies wieder anders aussehen, da sie deutlich mehr beiten müssen.

Chrisch
2006-03-09, 22:51:52
Absolut deiner Meinung. ~70Watt weniger Verbrauch sprechen für sich!


Keine Worte mehr.....
Die Welt sollte mal langsam die Birne einschalten.
naja, idle liegen se gleich auf...

und da man nicht permanent zockt is der höhere verbrauch der XTX auch nich
wild :)

Schalt doch einfach ne Lampe inne Hütte aus, dann sparste das auch :)

Sorry, aber wer ne 500€ + Graka hat sollte sich um den verbrauch keine sorgen
mehr machen ;)

Kladderadatsch
2006-03-09, 23:01:50
Schalt doch einfach ne Lampe inne Hütte aus, dann sparste das auch :)
es geht ja imo weniger um den wirklichen verbrauch, den zieht alleine eine ordentlich esstischlampe 5 mal weg, sondern um die wärmeentwicklung, bzw. benötigte kühlmethode. dabei heraus kommt die dual-slot kühlung bei dennoch relativ lauten drehzahlen...

Coda
2006-03-09, 23:04:01
Ich kann mich nicht entscheiden. Für mich gibt es da keinen Gewinner.

PP
2006-03-09, 23:08:30
objektiv:
Beide Karte pfeilschnell mit jeweils eigenen Vorzügen, kein eindeutiger Sieger auszumachen
Sehe Ich auch so.

Gast
2006-03-09, 23:10:33
die Dinger werden heiß wie sau ich hatte erst eine dann SLI,was nützt es mir wenn die Karten das ganze Gehäuse aufheizen..und das bekommste kaum in den Griff und wenn man dann noch ein Nforce4 hat,aber egal sie sind ja schön leise..denkt mal darüber nach...
Der Verbrauch bei meiner 1900 naja ich kanns nicht ändern weniger wäre mir auch lieber.

Gast
2006-03-09, 23:13:03
Ich kann mich nicht entscheiden. Für mich gibt es da keinen Gewinner.
Die Test bis jetzt?
Da gibt es ja wohl einen klaren Gewinner oder ich kann nicht ablesen....

Kladderadatsch
2006-03-09, 23:16:24
bringt jetzt cb die tage was, oder nicht?
ich habe noch immer keine deutsche review-site gefunden:|

Gast
2006-03-10, 00:30:51
CB hat sichs wohl mit NV verschissen. Kein Wunder bei den bescheuerten Einstellungen, die sie zum Benchen benutzt haben. Optimierungen abschalten ist ja schön und gut, aber dann bitte auf beiden Seiten. Was sie bei AoE3 angestellt haben, hat dem ganzen dann die Krone aufgesetzt und ich hab echt gedacht ich bin versehentlich bei Computerbild gelandet, anstatt bei Computerbase.

(del)
2006-03-10, 00:37:56
CB hat sichs wohl mit NV verschissen. Kein Wunder bei den bescheuerten Einstellungen, die sie zum Benchen benutzt haben. Optimierungen abschalten ist ja schön und gut, aber dann bitte auf beiden Seiten
Du machst mich langsam müde mit Deinen beiden Seiten :| Das Bashen seitens IHVs zeigt übrigens immer, daß die Seiten KORREKT testen und nicht wie der PR-Idiot sich das ausgedacht hat.

Gast
2006-03-10, 00:41:35
CB testet korrekt? Das was die bei AoE3 verbrochen haben, soll korrekt sein? Über die Optimierungen lässt sich ja noch streiten, aber das was die da gebracht haben, kann man echt nicht mehr ernst nehmen.

DrFreaK666
2006-03-10, 00:47:31
objektiv: X1900XTX

Bessere Bildqualität. Das reicht mir schon als grund :-)

(del676)
2006-03-10, 00:47:50
bitte auch den ein oder anderen grund, ok?:love3:

X1900XT weil:
sehr gutes AF
gutes AAA
deshalb kein SSAA zwang
sehr gute Performance

negativpunkte - miese treiber + noch viel mieserer Support + noch viel viel mieseres CCC (kann man dank ATT umgehen)

würde nvidia grieselfreies wuAF bieten würde meine Wahl wohl anders ausfallen, vor allem weil mir alles über 2xMSAA scheissegal is

Gast
2006-03-10, 00:50:15
Also SSAA kannst zwar theoretisch fahren, in der Praxis wirst aber SLI brauchen sonst sind die fps zu wenig...

Btw, mit Crossfire bekommst auch SSAA, wenn auch nur maximal 2x

Wie hoch geht SSAA?Das 8xS ist mit seinem 2fach-Anteil wohl nicht gemeint.

Und bis zu welcher Auflösung ist das technisch möglich?

(del)
2006-03-10, 00:54:13
CB testet korrekt? Das was die bei AoE3 verbrochen haben, soll korrekt sein? Über die Optimierungen lässt sich ja noch streiten, aber das was die da gebracht haben, kann man echt nicht mehr ernst nehmen.
Ich find da nur Test bzw. Benchmarks von AoE3 wo 'sogar' eine 6800U vor der 1800XT liegt. Hast Du mal nen Link für mich?

eXodia
2006-03-10, 00:54:45
Wie hoch geht SSAA?Das 8xS ist mit seinem 2fach-Anteil wohl nicht gemeint.

Und bis zu welcher Auflösung ist das technisch möglich?

Bei NV bis 4x4 bei ATI bis 2x2.

Regards

Odal
2006-03-10, 01:01:04
CB testet korrekt? Das was die bei AoE3 verbrochen haben, soll korrekt sein? Über die Optimierungen lässt sich ja noch streiten, aber das was die da gebracht haben, kann man echt nicht mehr ernst nehmen.


Was meinst du mit nicht korrekt bei AoE3?

Ich befürchte aber das die neusten Tests zu HL2 Lost Coast zu Gunsten von NVidia falsch sind. Bei NV Karten war dort nämlich mit ziemlicher Sicherheit kein AA an.

Gast
2006-03-10, 01:07:29
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/#abschnitt_age_of_empires_3

Dort wurde echtes FP16-HDR-Rendering gegen ATIs FX10-Modus gebencht. 64bit-Frambuffer gegen 32bit-Framebuffer. Dazu kommt, dass bei NV Supersampling aktiv war, während die ATI-Karten mit Multisampling liefen. So entstandene Werte dann in einem Balkendiagramm nebeneinander zu stellen als seien sie vergleichbar, ist echt ganz schön dauig.

(del)
2006-03-10, 01:18:05
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/#abschnitt_age_of_empires_3

Dort wurde echtes FP16-HDR-Rendering gegen ATIs FX10-Modus gebencht. 64bit-Frambuffer gegen 32bit-Framebuffer. Dazu kommt, dass bei NV Supersampling aktiv war, während die ATI-Karten mit Multisampling liefen. So entstandene Werte dann in einem Balkendiagramm nebeneinander zu stellen als seien sie vergleichbar, ist echt ganz schön dauig.
Hallo? :hammer: Steht doch im Text und den Kommentaren im KLARTEXT da. Wo soll hier der Trick sein? Wenn ich einen G7x kaufen soll, dann will ich schon wissen wieviel FPS er mit all den Goodies bringt die NV mir anpreist. Das gleiche gilt für den R5x0. Mehr kann das arme Ding nunmal nicht und dann schau ich mich nach Screenshots um was mir in Anbetracht der erfahrenen FPS die Technik zusätzlich bringt. Wenn das jetzt alles war, dann kannst Du das Rauschen nun abstellen. mann mann mann...

edit: Neben den Balken steht nicht "Platz 1", "Platz 2" usw. Du bist zu oft im 3DMark-Forum... Und wie willst Du dann den R4x0 testen? Garnicht zulassen? Und NV am besten auf Quality da AI an ist? So ein Schmarrn.

Odal
2006-03-10, 01:25:03
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/#abschnitt_age_of_empires_3

Dort wurde echtes FP16-HDR-Rendering gegen ATIs FX10-Modus gebencht. 64bit-Frambuffer gegen 32bit-Framebuffer. Dazu kommt, dass bei NV Supersampling aktiv war, während die ATI-Karten mit Multisampling liefen. So entstandene Werte dann in einem Balkendiagramm nebeneinander zu stellen als seien sie vergleichbar, ist echt ganz schön dauig.

Und HL2 Loast Coast wurde auf NV Karten ohne AA gebencht. Und das steht nichtmal dabei ^^.
Wie sollen sie denn sonst AoE3 Benchen? Ohne HDR? Das lässt sich nicht gesondert aktivieren oder deaktivieren. Da hätte man die SM3 Shader auf allen Karten ausstellen müssen.

Gast
2006-03-10, 01:34:35
Und HL2 Loast Coast wurde auf NV Karten ohne AA gebencht. Und das steht nichtmal dabei ^^.
Wie sollen sie denn sonst AoE3 Benchen? Ohne HDR? Das lässt sich nicht gesondert aktivieren oder deaktivieren. Da hätte man die SM3 Shader auf allen Karten ausstellen müssen.In der Tat gäbe es da nur die Möglichkeit ohne HDR-Rendering zu benchen.

(del)
2006-03-10, 01:39:14
In der Tat gäbe es da nur die Möglichkeit ohne HDR-Rendering zu benchen.
Das ist natürlich ausgerechnet für LostCoast die Idee :D

deekey777
2006-03-10, 01:40:57
Das ist natürlich ausgerechnet für LostCoast die Idee :D

Der VST läuft ohne HDR. :P
Und nicht (nur) das HDRR kostet Leistung in LC, sondern zB höher aufgelöste Texturen etc.

(del)
2006-03-10, 01:47:16
Der VST läuft ohne HDR. :P
Und nicht (nur) das HDRR kostet Leistung in LC, sondern zB höher aufgelöste Texturen etc.
Wessen Aussagen relativieren sich damit?

Blaze
2006-03-10, 08:50:33
[x] Als Fanboy: 7900GTX

ATI ist zu laut, zu heiss und zu stromhungrig.

Die beiden X1900er die ich testweise hier hatte sind gleich wieder rausgeflogen. Mag ja sein dass sie mehr Power als meine aktuellen Karten haben, aber den Krach kann ich als Silentfreak gar nicht haben...

Odal
2006-03-10, 09:07:22
In der Tat gäbe es da nur die Möglichkeit ohne HDR-Rendering zu benchen.

Man kann AoE3 ohne HDR benchen/Spielen ohne Shader Detail von Verry High auf High herunterstellen zu müssen?
Warum is mir diese Option nicht aufgefallen? ^^

Mr.Magic
2006-03-10, 09:11:40
[X] objektiv: 7900GTX

immer noch kein Stereo-3D bei ATi...

Gast
2006-03-10, 09:18:09
Man kann AoE3 ohne HDR benchen/Spielen ohne Shader Detail von Verry High auf High herunterstellen zu müssen?
Warum is mir diese Option nicht aufgefallen? ^^
Weil es diese Möglichkeit nicht gibt.
HDR ist ans SM3 gekoppelt.

Gast
2006-03-10, 09:32:27
[X] objektiv: 7900GTX

immer noch kein Stereo-3D bei ATi...ROFL! Kannst du mir mal sagen wie du "Stereo-3D" praktisch einsetzt, ohne dass dein Kleinhirn nach 30 Minuten vorm Kollaps ist?

Odal
2006-03-10, 09:43:46
hehe naja toll ausschauen tuts schon manchmal...aber spielen kann man damit wirklich nicht...

Ich hab diverse egoshooter damit probiert...unter anderem auch BF1942
"da siehst du kein land" wenn due die brille aufhast :D

Mr.Magic
2006-03-10, 10:24:35
1. Es ist reine Gewöhnungssache. Langsam die Zeit erhöhen in der man die Brille benutzt und nach ein paar Monaten hat man auch bei längeren Sitzungen keinerlei Probleme mehr.
2. Ich spiele keine (reinen) Shooter (Online), die sind mir einfach zu bescheuert. Länger als fünf Minuten ertrage ich stumpfes Geballer nicht am Stück, da lohnt sich keine Onlineverbindung. Ich habe mit der Brille AAO gespielt, bevor es zu einem zweiten Counterstrike verkam, und dank der 3D-Ironsights traf ich damit besser.
3. Praktisch eingesetzt wird/wurde Stereo-3D in den letzten 12 Monaten u.a. bei COD, NWN, Morrowind, Ghost Recon, KotOR, Doom 3, Vampire 2, Bloodrayne, Far Cry, RBR, Painkiller, Cold Fear, Obscure, Boiling Point, GTA-SA. Das sind die Spiele die mir auf anhieb einfallen. Leider funktioniert es nicht immer ganz fehlerfrei (wenn Full-Screen-Effekte nicht abschaltbar sind), aber nVidia verbessert relativ stetig die Treiber. Wer mal ein Spiel testen will das sich perfekt für echtes 3D eignet dem empfehle ich Obscure.

Gast
2006-03-10, 11:05:09
1. Es ist reine Gewöhnungssache. Langsam die Zeit erhöhen in der man die Brille benutzt und nach ein paar Monaten hat man auch bei längeren Sitzungen keinerlei Probleme mehr.Eyeyey... da ist der Sehschaden vorprogrammiert.

Mann bekommt nicht umsonst Kopfschmerzen durch die falsche Projektionsoptik.

Gast
2006-03-10, 11:09:03
Übrigens laufen Shutter-Brillen auch mit ATI-Karten.

Vertigo
2006-03-10, 11:15:18
Übrigens laufen Shutter-Brillen auch mit ATI-Karten.
Ich wusste gar nicht das eine Brille laufen kann - als Nasenfahrrad rollt so etwas doch eher, oder nicht?

Jedenfalls bin ich von der 7900GT(X) etwas enttäuscht, was die Leistung angeht. Aus Preis/Leistungs-Sicht sehen die GTs dagegen schon sehr gut aus. Aber wenn es ums gute Aussehen geht, hat ATI im 3D-Bereich aktuell so klar die Nase vorn, dass die Nachteile, wie höhere Verlustleistung und lautere Lüfter, ziemlich uninteressant sind. Außerdem: wer 600€ für eine Grafikkarte investiert, hat auch noch 20€ für den AC Silencer oder VF700 übrig und macht sich wohl auch keinen Kopf über eine 10€ höhere Stromrechnung pro Jahr ...

Gandharva
2006-03-10, 11:27:09
[x] objektiv X1900XT mit Zalman!

Läuft problemlos auf 700/800 und bietet gute BQ wegen WUAF.

Mr. Lolman
2006-03-10, 12:07:03
Bei NV bis 4x4 bei ATI bis 2x2.

Regards

Ab R520 kann auch ATi 4x4.

Odal
2006-03-10, 12:15:54
Übrigens laufen Shutter-Brillen auch mit ATI-Karten.


aber nicht die elsa 3d relevator oder?

Raff
2006-03-10, 12:20:55
Objektiv: X1900 XTX

Die enorme Hitze und Lautstärke der R5x0s stört zwar, aber Bildqualität gewichte ich mittlerweile sehr stark. Dazu kommt, dass der R580 voraussichtlich in Zukunft dank brachialer Shaderleistung vorne sein wird.

Aber: Im 200-€-Bereich bietet Ati nur Müll. Die 7600 GT könnte der Verkaufsschlager werden.

MfG,
Raff

Botcruscher
2006-03-10, 12:24:30
[x] objektiv X1900XL ;)

Den überteuerten Mist kauft sowieso nur Tombman.

Mr. Lolman
2006-03-10, 12:25:46
Objektiv: X1900 XTX

Die enorme Hitze und Lautstärke der R5x0s stört zwar, aber Bildqualität gewichte ich mittlerweile sehr stark. Dazu kommt, dass der R580 voraussichtlich in Zukunft dank brachialer Shaderleistung vorne sein wird.

Aber: Im 200-€-Bereich bietet Ati nur Müll. Die 7600 GT könnte der Verkaufsschlager werden.

MfG,
Raff
Ne X850XT ist Müll? Flotter als ne 7600GT ist die allemal...

Undertaker
2006-03-10, 12:28:16
[x] Als Fanboy: 7900GTX

ATI ist zu laut, zu heiss und zu stromhungrig.

Die beiden X1900er die ich testweise hier hatte sind gleich wieder rausgeflogen. Mag ja sein dass sie mehr Power als meine aktuellen Karten haben, aber den Krach kann ich als Silentfreak gar nicht haben...

falls du deine 7800er mit dem standard-cooler betreibst ist das aber weit entfernt von "silent", und mit dem arctic(/zalman) sind auch die x1900er zu ertragen und ordentlich kühlbar

Gast
2006-03-10, 12:30:39
Ne X850XT ist Müll? Flotter als ne 7600GT ist die allemal...
lol ! Vergiss bitte nicht dass eine 7600GT jeden SM3-Bench zu null gegen die X850XT gewinnt ...

Raff
2006-03-10, 12:35:45
lol ! Vergiss bitte nicht dass eine 7600GT jeden SM3-Bench zu null gegen die X850XT gewinnt ...

Eben. Zudem läuft die Karte aus. Die X1800 GTO muss weniger als 200 €uro kosten, dann sage ich nichts mehr. ;)

MfG,
Raff

Mr. Lolman
2006-03-10, 12:36:12
lol ! Vergiss bitte nicht dass eine 7600GT jeden SM3-Bench zu null gegen die X850XT gewinnt ...

Damit entsteht die Frage ob man sich lieber das langsamer Ding mit der schlechteren BQ holt, im Hoffen, dass SM3 irgendwann ganz toll und wichtig ist, oder ob doch das flottere Teil mit einwandfreier BQ praktischer wär...

Mr. Lolman
2006-03-10, 12:38:45
Eben. Zudem läuft die Karte aus. Die X1800 GTO muss weniger als 200 €uro kosten, dann sage ich nichts mehr. ;)

MfG,
Raff

Ja und. So lang sie kaufbar ist, ist das doch egal. Nicht alles was alt ist, ist gleich schlecht. Das ist imo ne Haltung, die man sich vorallem als überzeugter NV Nutzer aneignet. Wenn man tw. sieht wie abgeschlagen, die Vorgängergeneration in manchen Spielen ist, wundert mich das auch nicht.

Gast
2006-03-10, 12:40:22
Damit entsteht die Frage ob man sich lieber das langsamer Ding mit der schlechteren BQ holt, im Hoffen, dass SM3 irgendwann ganz toll und wichtig ist, oder ob doch das flottere Teil mit einwandfreier BQ praktischer wär...
Diese Frage wird am Ende der Markt beantworten und ohne mich zu weit aus dem Fenster lehnen zu wollen : es werden in Zukunft mehr 7600GTs verkauft werden als X850XT.

Mr. Lolman
2006-03-10, 12:44:20
Diese Frage wird am Ende der Markt beantworten und ohne mich zu weit aus dem Fenster lehnen zu wollen : es werden in Zukunft mehr 7600GTs verkauft werden als X850XT.

Da stimm ich dir zu. Andererseits sagt das nix, über die Wertigkeit des Produktes aus. Wenn ich mir ansehe wieviele crappige (und wegen beschnittenem Speicherinterface überteuerte) LOWEnd HW verkauft wird...

War ja mit GF2 vs Voodoo5 das gleiche. Und hat man auf ner GF2 Unreal in der Qualität spielen können?: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4064460&postcount=83


BTW: Was dreht denn Anand für einen Scheiss mit seinen Benchmarks?

dildo4u
2006-03-10, 12:48:35
Diese Frage wird am Ende der Markt beantworten und ohne mich zu weit aus dem Fenster lehnen zu wollen : es werden in Zukunft mehr 7600GTs verkauft werden als X850XT.
Ebend und Langsam muss man mit SM2.0 Hardware angst haben bei jede neuen Game nicht alle Details zu haben die letzten Beispiel sind AOE3 oder Schlacht um Mittelerde wo der Schatten graussam aussieht auf meiner ATI Karte :(

Mr. Lolman
2006-03-10, 12:52:01
Ebend und Langsam muss man mit SM2.0 Hardware angst haben bei jede neuen Game nicht alle Details zu haben die letzten Beispiel sind AOE3 oder Schlacht um Mittelerde wo der Schatten graussam aussieht auf meiner ATI Karte :(

Bei AOIII darf man mit SM3 und 7600GT wohl nicht mehr an AA denken ;)
Und bei Mittelerde sehen die Schatten angeblich auf jeder HW grausam aus.

Geo72
2006-03-10, 13:00:54
[x] objektiv: X1900XTX
+ besseres AF, etwas schneller
- heiß und laut

Ich gebe allerdings max. €250,- für eine Graka aus und werden daher noch abwarten, was sich in dem Bereich tut.

geo

Odal
2006-03-10, 13:05:20
lol ! Vergiss bitte nicht dass eine 7600GT jeden SM3-Bench zu null gegen die X850XT gewinnt ...


wer spielt den benches? :rolleyes:

svenw
2006-03-10, 13:07:22
BTW: Was dreht denn Anand für einen Scheiss mit seinen Benchmarks?
Stimmt, irgendwas stimmt da nicht. Auf der einen sEite vernaschen die Nvidias locker die ATIs und auf der anderen Seite ist eine XTX pari mit einem SLI Gespann. Links siehts aus wie ich es bei Doom erwarten würde rechts wie FEAR.

The_Invisible
2006-03-10, 13:09:45
objektiv: 7900GTX

SSAA und vor allem Linux Unterstützung sind mir einfach zu wichtig

mfg

Undertaker
2006-03-10, 13:16:54
objektiv: leichte vorteile für die x1900xtx

der hohe stromverbrauch würde mich zwar schmerzen (was die leise kühlung betrifft müsste man dann wohl einen arctic montieren), dann könnte man sich aber über die bessere bildquali freuen und die meiner meinung nach sehr guten (windows-)treiber von ati; außerdem könnte die x1900xtx dank ihrer shaderpower in zukunft noch besser dastehen

bei cf vs. sli eindeutig 2 7900gtx, cf ist in der jetzigen form nicht das wahre

ausgeben werde ich aber maximal 350€, also wird es bald eine 512mb x1800xt oder etwas später irgendeine günstige 512mb r580-karte

Gast
2006-03-10, 13:26:01
Und bei Mittelerde sehen die Schatten angeblich auf jeder HW grausam aus.
Tun sie. Abhilfe: Schatten runterdrehen. Dann gibt's Blob-Schatten für die Einheiten und so'ne Art Stencil-Schatten für Gebäude.


Q

Fadl
2006-03-10, 13:27:21
X1900XTX

Gast
2006-03-10, 13:33:01
Ne X850XT ist Müll? Flotter als ne 7600GT ist die allemal...
Pickin' raisins again, aren't we?


Q

eXodia
2006-03-10, 13:37:59
Ab R520 kann auch ATi 4x4.

Ah, OK. Gibt es seit dem R520 auch Mischmodi?

Regards

Mr. Lolman
2006-03-10, 13:42:22
Pickin' raisins again, aren't we?


Q

Nö, die X850XT(PE) ist mit AA/AF ca auf 7800GT Niveau. Die 7600GT liegt zw. 6800GS und 7800GT,aber näher bei der 6800GS.
(ca so: x---x-----x)

Meistens ist sie also 15-20% flotter als ne 6800GS. Aber da sollte man auch noch ein paar HQ Tests abwarten. Raffi hat doch schon sicher bezügl HQ@80er Treiber informiert, oder?

Mr. Lolman
2006-03-10, 13:47:56
Ah, OK. Gibt es seit dem R520 auch Mischmodi?

Regards

Nö. Nur mit CF. Aber Mischmodi sind imo ohnehin für die Katz. Das ist mir erst zuletzt wieder aufgefallen, als ich gesehen hab, dass div Texturen von GTA-SA auf meiner 9500 mit 4xAA/8xAF weniger flimmern als auf der 6800GT mit 8xS und 8xAF.

Gouvernator
2006-03-10, 14:30:28
[x] Als Fanboy: 7900GTX

ATI ist zu laut, zu heiss und zu stromhungrig.

Die beiden X1900er die ich testweise hier hatte sind gleich wieder rausgeflogen. Mag ja sein dass sie mehr Power als meine aktuellen Karten haben, aber den Krach kann ich als Silentfreak gar nicht haben...

Es ist sowas von lüstig wenn NV Fans sich rein gar nix ausdenken können was Verteidigung ihrer Firma nützen kann auf solche Lächerlichkeit wie Stromverbrauch konzentrieren. Wir wollen 3d Leistung und nicht was anderes , ich kann euch armen Schlücker :D eine PCI-Karte empfehlen passiv gekühlt natürlich.

Ich hatte viele Karten von einer 6800Gt und X800Pro bis Fx5900 die waren ALLE zu laut . Da hilft nur noch Passivkühler oder WaKü und sagt mir nicht das eure Nvidia mit einem Passivkühler auskommt .

dildo4u
2006-03-10, 14:33:45
Es ist sowas von lüstig wenn NV Fans sich rein gar nix ausdenken können was Verteidigung ihrer Firma nützen kann auf solche Lächerlichkeit wie Stromverbrauch konzentrieren. Wir wollen 3d Leistung und nicht was anderes , ich kann euch armen Schlücker :D eine PCI-Karte empfehlen passiv gekühlt natürlich.
Abgesehen von deinem Ton der mir nicht gefällt sind ATI User auch sher schnell sher vergeßlich zur zeit der X800 hieß es noch SM3.0 braucht keiner Super das ATI die Transitoren gespart hat und die Karten so wenig Strom verbrauchen :rolleyes:

deekey777
2006-03-10, 14:37:34
Abgeshen von deinem Ton, der mir nicht gefällt sind, ATI User auch sehr schnell sehr vergeßlich, zur zeit der X800 hieß es noch, SM3.0 braucht keiner. Super dass ATI die Transitoren gesparrt hat und die Karten so wenig Strom verbrauchen :rolleyes:

Satzzeichen sind cool.

Ich würde jedem empfehlen, nach folgenden Begriffen zu suchen: R390, Loki... Da werden hoffentlich einigen klar, warum der R420 (=R390) so schlank und so schnell war.

c0re
2006-03-10, 14:46:59
Die X1900XTX ist klar die bessere Karte für mich, weil:

- schneller (unter AA + AF, was für mich immer dazu gehört)
- höhere Bildqualität (sowohl im AF als auch HDR + AA)
- Preis für die Leistung im Vgl. zur Konkurrenz i.O


Imo eine so eindeutige Sache, eindeutiger geht es fast nicht! Ich bin auch Fanboy. Fanboy von Leistung,Qualität und guten Preisen. Scheiss egal, welcher Name drauf steht.

Gouvernator
2006-03-10, 14:54:55
Für alle unentschlossenen darf ich was hinzufügen - wenn ihr sieht das Tests mit HQAF und HQ Treibereinstellung durchgeführt werden dann kann man davon ausgehen das ohne diese jede XTX nochmals um einige Punkte zulegen würde. Ich kann euch sagen das BF2 in 2560x1920 Ultra Quality mit 6xAA annehmbar flüssig gespielt werden kann.

Gast
2006-03-10, 15:30:57
Übrigens laufen Shutter-Brillen auch mit ATI-Karten.Und woher willst du die Stereotreiber nehmen? Gibts keine von Ati. Shutter-Brillen sind auf Ati-Karten praktisch unbrauchbar.

martma
2006-03-10, 15:53:45
hm, die ati braucht wirklich viel mehr strom. (74 watt mehr als die 7900gtx (http://www.techreport.com/reviews/2006q1/geforce-7600-7900/power-load.gif))
das dürfte sich wohl auch deutlich aufs oc-potential auswirken...

hm, verstehe ich die ixbit-benches (http://www.ixbt.com/video2/g71-part3.shtml) richtig, ist die 7900gtx ohne aa/af im schnitt 10% schneller; genau wie sie mit aa/af immer rund 10% langsamer als die x1900xtx ist.
woran liegt das?

wer wird in den zukünftigen games voraussichtlich schneller sein?


Diese Liste kann nur ein Fake sein. Eine X1900XTX braucht ca. 130W, nach dieser Liste braucht eine 7900GT 109W weniger. Das würde heisen, dass eine 7900GT ca. 20W braucht. Haha!

Crushinator
2006-03-10, 16:00:45
Wenn es um meinen eigenen Rechner geht, kenne ich zugegebenermaßen keine Objektivität und stimme daher mit ...

[x] als ATI-Fanboy: X1900XTX

Objektiv betrachtet: Wenn kein Zwang zur Aufrüstung herrscht, würde ich gerne auf beide genannten und jeweils auf ihrer eigenen Weise faszinierende Grafikkarten aufgrund ihres mir deutlich zu hohen Stromverbrauches verzichten wollen.

IVN
2006-03-10, 16:44:23
Wenn es um meinen eigenen Rechner geht, kenne ich zugegebenermaßen keine Objektivität und stimme daher mit ...

[x] als ATI-Fanboy: X1900XTX

Objektiv betrachtet: Wenn kein Zwang zur Aufrüstung herrscht, würde ich gerne auf beide genannten und jeweils auf ihrer eigenen Weise faszinierende Grafikkarten aufgrund ihres mir deutlich zu hohen Stromverbrauches verzichten wollen.
Naturlich zwingt dich keiner upzugraden.Stell dir vor ich spiele mit einer go6600@300/300,und lebe noch. :D (in den Fingern juckt es aber wie wahnsinnig)
-Ein Friend von mir ist mit einer HIS 9600pro in den virtuelen Welten von doom3,Q4,AoE3 & co unterwegs,und sagt das ihm die GF auch so gefaehlt.Deswegen kann ich die meisten hier nicht verstehen.(500e fuer eine GK,davon kann ich mich,als Stundent,einige Monate lang ernaehren)

Gast
2006-03-10, 16:48:08
Ich finde die 7900GTX besser da ich auf effizientes Zeug(wie z.B. auch Conroe) stehe. G71 ist mit über 100Mio Transistoren weniger als der R580 genauso schnell, wird weniger warm und verbraucht auch bei weitem nicht so viel Saft.

Der Kühler der GTX ist natürlich auch genial!

DeX
2006-03-10, 16:48:21
naja, idle liegen se gleich auf...

und da man nicht permanent zockt is der höhere verbrauch der XTX auch nich
wild :)

Schalt doch einfach ne Lampe inne Hütte aus, dann sparste das auch :)

Sorry, aber wer ne 500€ + Graka hat sollte sich um den verbrauch keine sorgen
mehr machen ;)

Ja klar, nen bissle mehr oder weniger macht nichts.
Weil ich in letzter Zeit auf meinen Stromverbrauch achte fällt mir das besonders auf.

Ich finde das schon langsam echt zu viel des guten.
Irgenwie habe ich mal wieder lust (falsch) zu rechnen. ;)

Also, wir haben.
50.000 1900XTX Karten (kA wieviele bis jetzt verkauft wurden).
2 Stunden zocken am Tag macht dann 140Watt mehr pro Rechner.
140*50.000=7.000.000Watt (7 Megawatt) mehr am Tag.
Also sind das im Jahr. 7MW*365=2555MW=2,555GW=2.555.000.000Watt im Jahr.
Also muss nen großes AKW über 2 Stunden im Jahr allein für diesen Mehrverbrauch kochen! ;)

Ich hoffe nur das ich nichts Falsches gesagt habe. :biggrin:

Grobblin
2006-03-10, 16:52:56
Trotz, dass ich generell mehr gruen bin ;) wuerde ich wegen der Shaderpower die ATI nehmen

Spacer78
2006-03-10, 16:58:52
hm, die ati braucht wirklich viel mehr strom. (74 watt mehr als die 7900gtx (http://www.techreport.com/reviews/2006q1/geforce-7600-7900/power-load.gif))
das dürfte sich wohl auch deutlich aufs oc-potential auswirken...

hm, verstehe ich die ixbit-benches (http://www.ixbt.com/video2/g71-part3.shtml) richtig, ist die 7900gtx ohne aa/af im schnitt 10% schneller; genau wie sie mit aa/af immer rund 10% langsamer als die x1900xtx ist.
woran liegt das?

wer wird in den zukünftigen games voraussichtlich schneller sein?
Wenn man die Wattzahlen von SLI/CF minus Einzelkarte rechnet, kommt man dazu das eine einzelne Geforce7900Gtx 108Watt braucht und eine einzelne 1900XTX schlappe 99Watt. Wenn ich mir das näher betrachte, wird krampfhaft versucht, das eine einzelne 1900XTX mehr verbraucht als eine SLI-Verbund aus 2 7800Gt. Irgendwie vermisse ich sowieso Zahlen zu einem 7900Gt Sli-Verband.

Ich hab jedenfalls für die 1900XTX gestimmt. Wer den besten Speed will, kriegt ihn und das in schönerer Qualität als bei der Konkurrenz. Und wer soviel Schmott hat für eine oder zwei der schönen 7900Gtx hat, sollte auch nicht auf die Stromrechnung schauen müssen.

Spacer78
2006-03-10, 17:18:34
Ja klar, nen bissle mehr oder weniger macht nichts.
Weil ich in letzter Zeit auf meinen Stromverbrauch achte fällt mir das besonders auf.

Ich finde das schon langsam echt zu viel des guten.
Irgenwie habe ich mal wieder lust (falsch) zu rechnen. ;)

Also, wir haben.
50.000 1900XTX Karten (kA wieviele bis jetzt verkauft wurden).
2 Stunden zocken am Tag macht dann 140Watt mehr pro Rechner.
140*50.000=7.000.000Watt (7 Megawatt) mehr am Tag.
Also sind das im Jahr. 7MW*365=2555MW=2,555GW=2.555.000.000Watt im Jahr.
Also muss nen großes AKW über 2 Stunden im Jahr allein für diesen Mehrverbrauch kochen! ;)

Ich hoffe nur das ich nichts Falsches gesagt habe. :biggrin:

Absolute Milchmädchenrechnung: Du glaubst doch nicht selber, das alle Kraftwerke auf der Welt zu 100% ausgelastet sind. Es wird eher zuviel Strom produziert, um den Strombedarf sichern zu können. Der Strombedarf der 1900XTX dürfte bei 0,00000000001Prozent(geschätzt,eher viel niedrieger :) ) des gesamten weltweiten Strombedarfs liegen. Von daher ist Strombedarf kein gutes Argument. Bleibe noch die Kühlung, jemand der 500 Euro oder auch 1000 Euro ausgibt, sollte sich doch ohne weiteres eine ordentliche Kühlung leisten können.

Gast
2006-03-10, 17:34:54
Bleibe noch die Kühlung, jemand der 500 Euro oder auch 1000 Euro ausgibt, sollte sich doch ohne weiteres eine ordentliche Kühlung leisten können.Nicht jeder möchte bei einer so teuren Karte seine Garantie/Gewährleistung verlieren?

DeX
2006-03-10, 17:38:34
Ich muss ja zugeben das ich dieses Wort "Milchmädchenrechnung" echt langsam nicht mehr hören kann. Ist das irgendwie in Mode gekommen?

Was soll immer dieses "Wenn man schon 500€ für die Graka hat, dann hat man es auch für den Strom".

Mir ist schon selber klar das es wegen der Graka nicht zum Weltuntergang kommt.
Ich möchte das mal wieder mehr an den Stromverbrauch gedacht wird.
Es ist doch nur ein kleiner Tropfen, aber viele Tropfen machen den Ozean aus ;)

Rechne dir mal aus was ein 5Watt Verbraucher (StandBy beim TV) auf 35Millionen Haushalte ausmacht.
Das sind alleine 1.533.000.000.000 Watt im Jahr!

Ich kann dieses Geblubber der 1.Weltler langsam nicht mehr hören.
Ist ja jetzt aber auch egal.

Gast
2006-03-10, 18:00:35
Ja klar, nen bissle mehr oder weniger macht nichts.
Weil ich in letzter Zeit auf meinen Stromverbrauch achte fällt mir das besonders auf.

Ich finde das schon langsam echt zu viel des guten.
Irgenwie habe ich mal wieder lust (falsch) zu rechnen. ;)

Also, wir haben.
50.000 1900XTX Karten (kA wieviele bis jetzt verkauft wurden).
2 Stunden zocken am Tag macht dann 140Watt mehr pro Rechner.
140*50.000=7.000.000Watt (7 Megawatt) mehr am Tag.
Also sind das im Jahr. 7MW*365=2555MW=2,555GW=2.555.000.000Watt im Jahr.
Also muss nen großes AKW über 2 Stunden im Jahr allein für diesen Mehrverbrauch kochen! ;)

Ich hoffe nur das ich nichts Falsches gesagt habe. :biggrin:

Und jetzt musst du uns aber noch bitte sagen wieviel ich für die paar watt mehr im Jahr bezahle.:) Jenau 5 Euro.:rolleyes:

ollix
2006-03-10, 18:11:47
Ich kann dieses Geblubber der 1.Weltler langsam nicht mehr hören.
Ist ja jetzt aber auch egal. Eben. Wenig Stromverbrauch/hohe Effizienz ist einfach ein Qualitätsmerkmal, wie andere Sachen auch (das hat jetzt aber nichts mit ATi oder nVidia zu tun, sondern eben generell).

aylano
2006-03-10, 19:58:29
Nvidia ist nicht gerade der "Stromsparfreak".
Seit dem NV40 gehen sie sehr konservativ vor.
Geringe Veränderungen an der Architektur, dafür einen höheren Gewinn pro Chip.
Bei der nächsten Generation kann dies wieder anders aussehen, da sie deutlich mehr beiten müssen.
Wie ich schon sagte. Es sieht so aus, als will Nvidea die Performance/Watt-Leistung steigern und dieser Weg ist gerade im Trend.

Und gerade deshalb ist es ja wichtig, da viele diesen Weg alias AMD, INTEL gehen.
Der Vorteil bei diesem Weg ist, dass man die Stromspar-Silent-Käuferschicht und die Overlocking-Schicht sehr gut abdecken kann.

Diese Watt-Rechnungen haben aus meiner Sicht gar nicht so viel sinn.
Und vorallem bei Overlocker wären die Stromkosten im Verhältnis zu den Hardwarekosten fast vernachlässigbar.
Vielmehr wären Relative-Rechnung CPU-LCD-GPU Sinnvoller.

Die neuen CPUs werden mitte 2006 unter 65 Watt haben und Anfang 2007 wahrscheinlich noch weniger haben. Tendenz sinkend

So wie es Aussieht wird zumindestens bei Sonys-LCDs die LED TEchnologie im Jahr 2006 den Durchbruch haben und auch die LCDs werden in Zukunft deutlich weniger Strom verbrauchen. Tendenz sinkend

Und wenn keine "Stromspargrafikchips" herausgebracht werden, dann kann der hohe Verbrauch bei der Graphigkarte ein Dorn im Auge sein.
Außerdem ist das Overlocking-Potential bei 50 Watt viel höher als bei 100 Watt.

Ich stehe auf Qualität und das ist bei mir Effizient (Speed, Verbrauch, Lärm) und Graphikqualität.
Und da die Nvidea keine gute Grafik-qualität hat und die Atis realtiv viel Lärm und Wärme produziert, muss ich mir halt genau überlegen, was ich dann mal kaufen werde.

trollkopf
2006-03-10, 20:12:29
Sind die Temperaturen bei den 1800XT/1900XT wirklich so hoch ? 90 ° unter Last finde ich nicht mehr akzebtabel. Einen extra Lüfter wollte ich nicht kaufen, das sind auch wieder Mehrkosten.

aylano
2006-03-10, 20:21:11
Grafikkarten mit leiser Kühlung im Vormarsch (http://www.heise.de/newsticker/meldung/70678)

Also, der Markt reagiert auch. Zuerst die Grafikartenhersteller (Passiv) und dann die Chiphersteller (Aktiv).

Gast
2006-03-10, 20:22:02
Sind die Temperaturen bei den 1800XT/1900XT wirklich so hoch ? 90 ° unter Last finde ich nicht mehr akzebtabel. Einen extra Lüfter wollte ich nicht kaufen, das sind auch wieder Mehrkosten.Ja, die Temperaturen sind wirklich so hoch. Bei der x1900 sogar noch höher als bei der x1800. Temperaturen, die über 90°C hinausgehen sind mit dem Standardkühler keine Seltenheit, sondern ganz normal. Auch wenn ich kein Silent-Fanatiker bin, finde ich das schon irgendwie bedenklich, aber naja, solange sie stabil laufen.

Gast
2006-03-10, 20:24:15
Sind die Temperaturen bei den 1800XT/1900XT wirklich so hoch ? 90 ° unter Last finde ich nicht mehr akzebtabel.

Ja, Temperaturen bis 95 Grad sind normal...

Das ist aber noch im grünen Bereich, denn bis 100 Grad sollte es keinerlei Abstürze oder dergleichen geben.

Problematisch wird natürlich die Wärmeentwicklung in engen Gehäusen, da heizt sich dann alles auf.

Ich sehe jedoch kein Problem. Wenn die Chips die Temperaturen vertragen, dürfen sie auch so heiß sein. :)

Mr.Magic
2006-03-10, 21:20:52
Und woher willst du die Stereotreiber nehmen? Gibts keine von Ati. Shutter-Brillen sind auf Ati-Karten praktisch unbrauchbar.

Der andere Gast meint vermutlich die eDimensional-Treiber. Damit funktionieren Shutterbrillen auch auf ATi-Hardware. Allerdings nur im Interleaved-Modus und bei einer handvoll Spielen, und Geld kosten sie auch noch.
Bei nVidia bekommt man nicht nur vernünftiges (Page-Flip) für die Shutterbrille, man kann dank Unterstützung von Rot-Blau-Gläsern (oder auch das alte Rot-Grün, wenn man das bevorzugt) 3D-Stereo mit einem TFT oder zwei Beamern* verwenden.

Irgendjemand schrieb was von einem Sehschaden durch Shutterbrille. Ich verwende meine Revelator seit 1999 und habe immernoch 140/150 Sehkraft.

*ist natürlich Quatsch, ein Beamer mit R-B-Brille oder zwei mit polarisierten Gläsern

Kladderadatsch
2006-03-10, 22:09:05
was schätzt ihr, dürfte man die 7900gtx durch ocing leicht auf x1900xtx-niveau bekommen? 700mhz dürften im schnitt drin sein, oder? würde das ausreichen?


ps.: von wegen nv und aa/af ist lahm:
http://www.tomshardware.com/2006/03/09/ati_and_nvidias_same_day_mega_launch_mayhem/page12.html
das gilt wohl erst ab auflösungen jenseits der 1280x1024.

reunion
2006-03-10, 22:34:26
was schätzt ihr, dürfte man die 7900gtx durch ocing leicht auf x1900xtx-niveau bekommen? 700mhz dürften im schnitt drin sein, oder? würde das ausreichen?


Eine X1900XTX kann man auch übertakten. Und das durch die Möglichkeit der softwareseitigen Vcore-Erhöhung sogar wesentlich besser.

dildo4u
2006-03-10, 22:37:04
Eine X1900XTX kann man auch übertakten. Und das durch die Möglichkeit der softwareseitigen Vcore-Erhöhung sogar wesentlich besser.
Dagegen spricht aber die deutlich höhere Verlustleistung und die schwächere Kühlung also erstmal abwarten.

Winter[Raven]
2006-03-10, 22:37:57
Eine X1900XTX kann man auch übertakten. Und das durch die Möglichkeit der softwareseitigen Vcore-Erhöhung sogar wesentlich besser.

Das selbe gilt auch für die neuen Chips von Nvidia, wobei die 7xxx OC-Grenze bestimmt höher liegen sollte, findeste nicht?

Kladderadatsch
2006-03-10, 22:41:26
und dürften da 700 mhz (core) drin sein? und würden die ausreichen? gibts da tests?:usad:

reunion
2006-03-10, 22:42:52
']Das selbe gilt auch für die neuen Chips von Nvidia,


Wo? Wie?


wobei die 7xxx OC-Grenze bestimmt höher liegen sollte, findeste nicht?

Bis jetzt durchgesickerte OC-Ergebnisse sagen etwas anderes.

IVN
2006-03-10, 22:49:00
Wo? Wie?



Bis jetzt durchgesickerte OC-Ergebnisse sagen etwas anderes.
Findest du nicht das die Default-Temperatur schon zu hoch ist?(95C)
Wie hoch sollte diese mit einer Taktsteigerung sein?100?110?120?
Soll der Coolerblock als Heard dienen?

reunion
2006-03-10, 22:53:12
Findest du nicht das die Default-Temperatur schon zu hoch ist?(95C)


Der Standardlüfter ist Temperaturgeregelt. Selbst mit deutlich mehr Takt und Vcore erreicht man keine höheren Temperaturen. Wers natürlich auch noch leise haben will, benötigt einen anderen Kühler.


Wie hoch sollte diese mit einer Taktsteigerung sein?100?110?120?


Alle X1900XTX die ich bis jetzt in aktion erleben durfte, und das waren immerhin schon vier, erreichten zwischen 732Mhz und 795Mhz. Letzeres mit Wakü.

nagus
2006-03-10, 22:54:24
X1900XTX natürlich

IVN
2006-03-10, 23:02:52
Der Standardlüfter ist Temperaturgeregelt. Selbst mit deutlich mehr Takt und Vcore erreicht man keine höheren Temperaturen. Wers natürlich auch noch leise haben will, benötigt einen anderen Kühler.



Alle X1900XTX die ich bis jetzt in aktion erleben durfte, und das waren immerhin schon vier, erreichten zwischen 732Mhz und 795Mhz. Letzeres mit Wakü.
K.A. wie du das siehst,fuer mich ist das Energierverschwendung.
Fuer so einen hochen Takt,sollte man schon eine Wakue haben,Luft gekuehlt duerfte die GPU gerade mal einige Monate bei dieser Temperatur ueberleben.

Gouvernator
2006-03-10, 23:08:40
Findest du nicht das die Default-Temperatur schon zu hoch ist?(95C)
Wie hoch sollte diese mit einer Taktsteigerung sein?100?110?120?
Soll der Coolerblock als Heard dienen?

Also bitte! Ich kanns nicht mehr hören, es ist nun mal so das jede vernünftige GraKA immer sehr heiss wird und diese noch zu übertakten... mit Standardkühler ist wie soll ich sagen... :crazy:

dildo4u
2006-03-10, 23:11:03
Also bitte! Ich kanns nicht mehr hören, es ist nun mal so das jede vernünftige GraKA immer sehr heiss wird und diese noch zu übertakten... mit Standardkühler ist wie soll ich sagen... :crazy:
Lol warum bietet ATI dann bitte OC im CP an wenns die Kühlung nicht hergibt dann sollen sie das für ihre Topmodelle rausnehmen.

Winter[Raven]
2006-03-10, 23:12:16
Der Standardlüfter ist Temperaturgeregelt. Selbst mit deutlich mehr Takt und Vcore erreicht man keine höheren Temperaturen. Wers natürlich auch noch leise haben will, benötigt einen anderen Kühler.

Schön, Endpreis = Grakapreis + Kühlerpreis
das macht das ganze um einiges teuerer und ob es "so viel" mehr bringt, ist die andere Frage.

IVN
2006-03-10, 23:13:26
:uhammer: Also bitte! Ich kanns nicht mehr hören, es ist nun mal so das jede vernünftige GraKA immer sehr heiss wird und diese noch zu übertakten... mit Standardkühler ist wie soll ich sagen... :crazy:
Eine die so heiss ist,kann nicht vernunftig sein.Das ist aber egal,der Hyperkonsum ist schon was tolles.

Gouvernator
2006-03-10, 23:15:00
Lol warum bietet ATI dann bitte OC im CP an wenns die Kühlung nicht hergibt dann sollen sie das für ihre Topmodelle rausnehmen.

Können sie ja... die Leistung ist im ÜBERFLÜSS vorhanden :tongue:

Kladderadatsch
2006-03-10, 23:17:21
nachdem ich die tests von firingsquad, guru3d und tomshardware mal genauer angeschaut habe, kann ich das umfrageergebnis ehrlich gesagt nicht nachvollziehen. die 7900gtx ist nicht langsamer. (vielleicht in gleicher bq;))

Gouvernator
2006-03-10, 23:19:59
Ich hab mir noch zu Zeiten AthlonXP eine WaKü zugelegt. Spätestens jetzt muss es jedem aber wirklich JEDEM einleuchten das ohne Wakü man auf verlorenem Posten sitzt.

sklave_gottes
2006-03-10, 23:22:48
die 7900gtx ist nicht langsamer

es geht doch nicht nur darum.

iringsquad, guru3d und tomshardware

nur irgendwie sind die test von tom... total anders als die anderen.(voll pro NV)

Winter[Raven]
2006-03-10, 23:23:43
Lol, aber natürlich ... jeder hat ja noch das Geld sich eine 5xx €Karte zu kaufen, dazu Wasserkühlung z.B. von Innovatek für 250 €, den dazu passenden GPU Kühler für 40 €...

Ich benütze jetzt selbst seit 5 Jahren Wakü, und ich kann es mir mein PC ohne nicht vorstellen, aber Waku ist kein Massenprodukt und wenn ATi eine Herdplatte zusammenbaut ist es ihre Schuld.

IVN
2006-03-10, 23:25:58
Ich hab mir noch zu Zeiten AthlonXP eine WaKü zugelegt. Spätestens jetzt muss es jedem aber wirklich JEDEM einleuchten das ohne Wakü man auf verlorenem Posten sitzt.
Nope,das muss man nur tun:
1.wenn man ein Freak ist
2.ein Mann der etwas durch die Benchmarks kompensieren muss
3 oder ein Lan-Gamer ohne RL,welcher es den "Noobs" Mal so richtig zeigen will :rolleyes:

Gouvernator
2006-03-10, 23:27:11
nachdem ich die tests von firingsquad, guru3d und tomshardware mal genauer angeschaut habe, kann ich das umfrageergebnis ehrlich gesagt nicht nachvollziehen. die 7900gtx ist nicht langsamer. (vielleicht in gleicher bq;))

Ich kann nachvollziehen das 7900GTX villeicht gleichauf ist , aber was sagt uns das ? das sagt uns das jede weitere qualitätssteigerung fatal auf performance auswirken kann. wenn die 7900GTX schon jetzt aus allen löchern pfeifft um mit 1900XTX mithalten zu können was soll man von ihr bei 2600x1600 erwarten , wo eine 1900xtx gerade noch in die knie geht ?

Kladderadatsch
2006-03-10, 23:27:21
es geht doch nicht nur darum.

mir eigentlich ausschließlich;)

nur irgendwie sind die test von tom... total anders als die anderen.(voll pro NV)
das liegt wohl an den niedrigeren auflösungen. das ergibt offensichtlich ein ganz anderes bild. wie gesagt, die krassen beispiele (in denen die ati wesentlich schneller ist), stammen aus extrem hohen auflösungen + aa und af. aber die gibts bei nv bei ss2, q4 und sogar hl² lost coast auch...

wenn die 7900GTX schon jetzt aus allen löchern pfeifft um mit 1900XTX mithalten zu können was soll man von ihr bei 2600x1600 erwarten , wo eine 1900xtx gerade noch in die knie geht ?
das interessiert mich nicht, geschweige denn mein monitor;)

Gouvernator
2006-03-10, 23:29:07
Nope,das muss man nur tun:
1.wenn man ein Freak ist
2.ein Mann der etwas durch die Benchmarks kompensieren muss
3 oder ein Lan-Gamer ohne RL,welcher es den "Noobs" Mal so richtig zeigen will :rolleyes:

Und wenn ich so einer bin ? Ich steh dazu.

IVN
2006-03-10, 23:30:32
Und wenn ich so einer bin ? Ich steh dazu.
Besonders der 2. Punkt?? :tongue:

Gouvernator
2006-03-10, 23:32:53
mir eigentlich ausschließlich;)


das liegt wohl an den niedrigeren auflösungen. das ergibt offensichtlich ein ganz anderes bild. wie gesagt, die krassen beispiele (in denen die ati wesentlich schneller ist), stammen aus extrem hohen auflösungen + aa und af. aber die gibts bei nv bei ss2, q4 und sogar hl² lost coast auch...


das interessiert mich nicht, geschweige denn mein monitor;)


Ja dann kommt bald das Bild wo alle gleich schnell sind wie schon jetzt in 1024x768. Es wird immer schwerer eine Graka in die Knie zu zwingen (besonders die von ATI :) ) Um dann wenigstens ein Anhaltspunkt zu haben wird man sich in absehbarer Zeit auch die Dicken Dinger von DELL und Apple ins Labor stellen.

to IVN : Ich will es nicht abstreiten. Es ist wie in Psychologie man geht seinen Trieben nach :biggrin:

LolekDeluxe
2006-03-10, 23:48:49
Wenn man hier bischen hin und her rechnet.

http://www.techreport.com/reviews/2006q1/geforce-7600-7900/power-load.gif

SLI/CF minus die einzel Karte.

CF X1900XTX 440W - 341W = 99W
SLI 7900GTX 375W - 267W = 108W
SLI 7800GTX 512 456w - 338W = 118W

Da hat doch jemand gewaltig beim Messen Kacke gebaut. :biggrin:
Die Karte mit dem kleisten einzel Verbrach, hat den größten System gesamtverbrauch.

Mumins
2006-03-11, 09:12:41
']Das selbe gilt auch für die neuen Chips von Nvidia, wobei die 7xxx OC-Grenze bestimmt höher liegen sollte, findeste nicht?

So wie es aussieht gehen die 7900GTxen nicht weit über 700MHz, die meisten Gts machen bei 550MHz dicht.

Kladderadatsch
2006-03-11, 09:28:02
So wie es aussieht gehen die 7900GTxen nicht weit über 700MHz, die meisten Gts machen bei 550MHz dicht.
woher weißt du das? ich suche schon den ganzen morgen nach oc-ergebnissen.

Mumins
2006-03-11, 09:54:01
woher weißt du das? ich suche schon den ganzen morgen nach oc-ergebnissen.

Hardwareluxx

Winter[Raven]
2006-03-11, 10:00:08
Also bei Nvnews rennt eine GT bei 565 so what? Von einem Test auf die ganze Produktserie zu schließen ist ganz schön mutig!!! RESPEKT!!!

Chrisch
2006-03-11, 10:04:41
']Also bei Nvnews rennt eine GT bei 565 so what? Von einem Test auf die ganze Produktserie zu schließen ist ganz schön mutig!!! RESPEKT!!!
es gibt ja auch die XFX 7900GT XXX, die ist standart mit 560 / 1650Mhz getaktet ^^

Gruß
Chris

IVN
2006-03-11, 10:10:46
es gibt ja auch die XFX 7900GT XXX, die ist standart mit 560 / 1650Mhz getaktet ^^

Gruß
Chris
Bist du sicher??Ich meine Standart???

Gast
2006-03-11, 10:13:16
nachdem ich die tests von firingsquad, guru3d und tomshardware mal genauer angeschaut habe, kann ich das umfrageergebnis ehrlich gesagt nicht nachvollziehen. die 7900gtx ist nicht langsamer. (vielleicht in gleicher bq;))

Bei allem Respekt, was versucht Du hier eigentlich? Aus deinen Postings liest man heraus, dass Du gerne ne neue Graka hättest, solange sie nicht von ATI ist, obwohl sie Dir leistungs -und featuremässig zusagen würde.
Du beisst Dich auf non AA/AF Werte fest, weil die Karte nur da konkurrenzfähig ist. Eventuell bist Du ja einer der wenigen, die eine solche Karte ohne diese Features nutzen würde. Das würde immerhin zeigen, warum Du auf diese Werte so scharf bist.
Ändert es etwas, wenn ich Dir gut zurede und sage, dass die 7900xtx*5^2 viel besser ist? Ob wahr oder nicht, sei mal dahin gestellt.
Kauf Du Dir deine 7900 und gut ist. Ist dein gutes Recht und es wird Dich auch niemand hassen dafür (jedenfalls die gesunden Wesen nicht).

Godmode
2006-03-11, 10:19:06
Also objektiv würde ich sagen, die 1900XTX ist besser, da ich hier schöneres AF bekommen und auch HDR mit AA möglich ist, außerdem ist dynamisches Branching schneller und diese Karte ist noch einen Tick schneller als die 7900GTX.

Ich werde mir wohl aber eine 7900GT für meinen Shuttle SN25P kaufen, die schön ruhig und kühl läuft. Werde aber noch etwas abwarten, da sie im Preis sicher noch nachgeben werden.

IVN
2006-03-11, 10:20:06
Bei allem Respekt, was versucht Du hier eigentlich? Aus deinen Postings liest man heraus, dass Du gerne ne neue Graka hättest, solange sie nicht von ATI ist, obwohl sie Dir leistungs -und featuremässig zusagen würde.
Du beisst Dich auf non AA/AF Werte fest, weil die Karte nur da konkurrenzfähig ist. Eventuell bist Du ja einer der wenigen, die eine solche Karte ohne diese Features nutzen würde. Das würde immerhin zeigen, warum Du auf diese Werte so scharf bist.
Ändert es etwas, wenn ich Dir gut zurede und sage, dass die 7900xtx*5^2 viel besser ist? Ob wahr oder nicht, sei mal dahin gestellt.
Kauf Du Dir deine 7900 und gut ist. Ist dein gutes Recht und es wird Dich auch niemand hassen dafür (jedenfalls die gesunden Wesen nicht).
Lol gast,sei doch nicht so streng mit ihm. :tongue:


p.s. der laetzte Satz rockt.

Coda
2006-03-11, 10:23:50
Bist du sicher??Ich meine Standart???Auch im Deutschen schreibt man Standard schon immer mit D

Ja ich bin mir ganz sicher. Wer es nicht glaubt möge bitte im Duden oder sonstigen Nachschlagewerken nachschauen.

IVN
2006-03-11, 10:27:17
Auch im Deutschen schreibt man Standard schon immer mit D

Ja ich bin mir ganz sicher. Wer es nicht glaubt möge bitte im Duden oder sonstigen Nachschlagewerken nachschauen.
Achhhhhhhhh komm,erzehl hier keinen Bloedsinn,Standart schreibt man doch nicht mit D. :tongue:

Winter[Raven]
2006-03-11, 10:28:16
Achhhhhhhhh komm,erzehl hier keinen Bloedsinn,Standart schreibt man doch nicht mit D. :tongue:

Spamme bitte nicht rum!

IVN
2006-03-11, 10:30:44
']Spamme bitte nicht rum!
Yes Sir!!General Sir!!

OnT

Ich werde mir wahrscheinlich die x1300 (mit CrossFire,only if possible) kaufen.

Gouvernator
2006-03-11, 13:04:46
Wenn man den FarCry benchmark von Tomshardware nimmt dann ergibt sich folgendes - um in schwierigen Situationen wie 1600x1200+4xAA mit X1900 XTX mithalten zu können bedarf es enormen Taktsteigerung.
Eine 7900GT erreicht unter diesen Umständen 53 Fps --eine GTX---72 fps also +200mhz Core /+150mhzMem ergeben +20 Fps . Nehmen wir mal an das das nur durch + 200 mhz Core Takt entstanden ist dann haben wir 10fps /pro +100mhz Core . Um auf 81 fps einer XTX zu kommen bräuchte Nvidia einen 750 mhz Takt. Geil oder ?

http://www.tomshardware.com/2006/03/09/ati_and_nvidias_same_day_mega_launch_mayhem/page12.html

lipp
2006-03-11, 13:11:29
also ich denke auch dass die X1900XTX die stärkere karte ist. habe dieser tage irgendwo benchs gesehen, wo eine X1900XTX selbst ein 7800GTX 512 MB SLI System abgehängt hat! ;)

Gast
2006-03-11, 13:37:18
also ich denke auch dass die X1900XTX die stärkere karte ist. habe dieser tage irgendwo benchs gesehen, wo eine X1900XTX selbst ein 7800GTX 512 MB SLI System abgehängt hat! ;)
Soll ich dir einen Bench zeigen, wo eine FX5800u noch gut mit einer X1900 mithält?

Bitte bitte, macht doch eure Annahmen nicht immer an irgendwelchen Einzelfällen fest sondern versucht, dass größere Bild zu sehen. Natürlich ist ein Gespann aus zwei Grafikkarten im Schnitt deutlich schneller als eine Einzelkarte vergleichbaren Segments und Generation. Das gilt sowohl in die eine, als auch in die andere Richtung.

Pirx
2006-03-11, 13:44:41
']Also bei Nvnews rennt eine GT bei 565 so what? Von einem Test auf die ganze Produktserie zu schließen ist ganz schön mutig!!! RESPEKT!!!
Genauso schließt du doch aufgrund von nichts, daß sicht die nV's höher takten lassen.:conf2:

Gast
2006-03-11, 13:50:45
Genauso schließt du doch aufgrund von nichts, daß sicht die nV's höher takten lassen.:conf2:
Immerhin haben bereits zwei Hersteller Serien-Karten im Angebot, die beinahe diese Taktraten erreichen.
http://www.evga.com/products/moreinfo.asp?pn=256-P2-N565-AX (550 MHz)
http://www.xfxforce.com/web/product/listConfigurations.jspa?seriesId=185563&productId=185994 (560 MHz)


Q

reunion
2006-03-11, 14:04:31
Die gehen aber sicher auch mit der Spannung hoch.

dildo4u
2006-03-11, 14:12:44
Die gehen aber sicher auch mit der Spannung hoch.
Egal wenns darauf Garantie gibt aber mher Power gabs für Ca320€ schon lange nicht mher.:eek: Die Karten liegen nur Ganz Knapp hinter einer 7800GTX 512mb die vor 1 Woche noch 600€ gekostet hat.


http://www.bjorn3d.com/Material/ReviewImages/XFX_7900_7600/xfx7900_7600_FEARaa.gif

http://www.bjorn3d.com/read.php?cID=891&pageID=2101

Pirx
2006-03-11, 14:17:17
Immerhin haben bereits zwei Hersteller Serien-Karten im Angebot, die beinahe diese Taktraten erreichen.
http://www.evga.com/products/moreinfo.asp?pn=256-P2-N565-AX (550 MHz)
http://www.xfxforce.com/web/product/listConfigurations.jspa?seriesId=185563&productId=185994 (560 MHz)


Q
Ja, ich meinte nicht diese 560 MHz, sondern diese allgemeine Aussage

Eine X1900XTX kann man auch übertakten. Und das durch die Möglichkeit der softwareseitigen Vcore-Erhöhung sogar wesentlich besser.
']Das selbe gilt auch für die neuen Chips von Nvidia, wobei die 7xxx OC-Grenze bestimmt höher liegen sollte, findeste nicht?

Winter[Raven]
2006-03-11, 14:27:49
Trotzdessen, weniger Transistoren bei 0,9nm sollte eigentlich sich in MHz ausschlagen. Das soetwas nicht nur von der Transimenge abhängt ist mir klar!

Winter[Raven]
2006-03-11, 14:30:02
GeForce 7600 GT 560 MHZ / 607 MHz 1400 MHz / 1600 MHz
GeForce 7900 GT 450 MHZ / 545 MHz 1320 MHZ / 1568 MHz
GeForce 7900 GTX 650 MHZ / 705 MHz 1600 MHZ / 1800 MHz

~100 MHz sind meistens immer drinne!

reunion
2006-03-11, 14:45:55
']Trotzdessen, weniger Transistoren bei 0,9nm sollte eigentlich sich in MHz ausschlagen. Das soetwas nicht nur von der Transimenge abhängt ist mir klar!

Warum taktet die 7900GTX dann nicht höher als die X1900XTX?
Theorie ist ja was schöner, nur sagt die Praxis eben etwas anderes.

']~100 MHz sind meistens immer drinne!

Außer beim Topmodell, da ist bei ~700Mhz meistens Schluss.

r3ptil3
2006-03-11, 14:59:58
Gibts irgendwo vergleichs-Bilder aus mehreren Spielen mit AA (bzw. SSAA / AAA) - AF, also 7900 und X1900?

Quasar
2006-03-11, 15:10:05
Ja, ich meinte nicht diese 560 MHz, sondern diese allgemeine Aussage
Yoda haste recht. Allgemein sollte man sowieso nicht von "Übertaktungsmöglichkeiten" sprechen. Mit Pech erwischt man dann eine, wo gar nix geht.

Quasar
2006-03-11, 15:11:54
']GeForce 7600 GT 560 MHZ / 607 MHz 1400 MHz / 1600 MHz
GeForce 7900 GT 450 MHZ / 545 MHz 1320 MHZ / 1568 MHz
GeForce 7900 GTX 650 MHZ / 705 MHz 1600 MHZ / 1800 MHz

~100 MHz sind meistens immer drinne!
47+105+55:3= 69,xx.

Nicht ganz 100. ;) Genau genommen ist es selbst in deinen Beispielen nur bei einer einzigen Karte möglich, sie um 100 MHz zu übertakten.

Gouvernator
2006-03-11, 15:29:30
Egal wenns darauf Garantie gibt aber mher Power gabs für Ca320€ schon lange nicht mher.:eek: Die Karten liegen nur Ganz Knapp hinter einer 7800GTX 512mb die vor 1 Woche noch 600€ gekostet hat.


http://www.bjorn3d.com/Material/ReviewImages/XFX_7900_7600/xfx7900_7600_FEARaa.gif

http://www.bjorn3d.com/read.php?cID=891&pageID=2101

Ich würde dringend davon abraten jetzt ein vermeintliches Schnäppchen für 320€ zu machen. Diese Power reicht gerade mal für heutige Spiele und im Laufe des Jahres kommen etliche dazu. Falls dann die Leistung noch nur für 1024x768 reicht steht ein Neukauf ins Haus. Noch wenigstens bis zum Release von Oblivion warten um sich ein Einblick zu verschaffen was welche Karte leisten kann.

IVN
2006-03-11, 17:04:58
Ich würde dringend davon abraten jetzt ein vermeintliches Schnäppchen für 320€ zu machen. Diese Power reicht gerade mal für heutige Spiele und im Laufe des Jahres kommen etliche dazu. Falls dann die Leistung noch nur für 1024x768 reicht steht ein Neukauf ins Haus. Noch wenigstens bis zum Release von Oblivion warten um sich ein Einblick zu verschaffen was welche Karte leisten kann.
Ist dir klar,das Oblivion eher CPU-limited ist,wie jedes andere RPG Spiel?
Hast du vieleicht X3 gespielt?
Hilft dir da eine x1900xxxxxxxllllllll wenn deine CPU der Flaschenhals ist?

p.s. HL2 ist schon CPU-lastig (obwohl nur ein FPS mit kleinen Levels,und ohne "Hintergrund-Arbeit"),was denkst du,muss die CPU alles fuer die NPCs,Quests,Triggers berechnen,oder die ach so tolle GraKa??

Mr. Lolman
2006-03-11, 17:14:26
47+105+55:3= 69,xx.

Nicht ganz 100. ;) Genau genommen ist es selbst in deinen Beispielen nur bei einer einzigen Karte möglich, sie um 100 MHz zu übertakten.

(47+95+55):3 = 65,xx

Gast
2006-03-11, 18:00:10
Wenn man den FarCry benchmark von Tomshardware nimmt dann ergibt sich folgendes - um in schwierigen Situationen wie 1600x1200+4xAA mit X1900 XTX mithalten zu können bedarf es enormen Taktsteigerung.
Eine 7900GT erreicht unter diesen Umständen 53 Fps --eine GTX---72 fps also +200mhz Core /+150mhzMem ergeben +20 Fps . Nehmen wir mal an das das nur durch + 200 mhz Core Takt entstanden ist dann haben wir 10fps /pro +100mhz Core . Um auf 81 fps einer XTX zu kommen bräuchte Nvidia einen 750 mhz Takt. Geil oder ?

http://www.tomshardware.com/2006/03/09/ati_and_nvidias_same_day_mega_launch_mayhem/page12.html
das wird speicherlimitiert sein.

insane in the mem.
2006-03-11, 18:08:35
Bei allem Respekt, was versucht Du hier eigentlich? Aus deinen Postings liest man heraus, dass Du gerne ne neue Graka hättest, solange sie nicht von ATI ist, obwohl sie Dir leistungs -und featuremässig zusagen würde.
Du beisst Dich auf non AA/AF Werte fest, weil die Karte nur da konkurrenzfähig ist. Eventuell bist Du ja einer der wenigen, die eine solche Karte ohne diese Features nutzen würde. Das würde immerhin zeigen, warum Du auf diese Werte so scharf bist.
Ändert es etwas, wenn ich Dir gut zurede und sage, dass die 7900xtx*5^2 viel besser ist? Ob wahr oder nicht, sei mal dahin gestellt.
Kauf Du Dir deine 7900 und gut ist. Ist dein gutes Recht und es wird Dich auch niemand hassen dafür (jedenfalls die gesunden Wesen nicht).
jap, du hast meine situation ganz genau erkannt; bei der investition muss ich mir nunmal irgendetwas einbilden, um nicht wahnsinnig zu werden(;
ganz so krass, wie du den einbruch der nv-karte bei aa/af schilderst, ist es allerdings auch nicht. bis 1280x1024 + aa/af ist die 7900gtx sehr gut dabei, imo gar zu über 50% über x1900xtx-niveau. so habe ich mir die benches jedenfalls zusammengelegt(;

r3ptil3
2006-03-11, 18:10:13
jap, du hast meine situation ganz genau erkannt; bei der investition muss ich mir nunmal irgendetwas einbilden, um nicht wahnsinnig zu werden(;
ganz so krass, wie du den einbruch der nv-karte bei aa/af schilderst, ist es allerdings auch nicht. bis 1280x1024 + aa/af ist die 7900gtx sehr gut dabei, imo gar zu über 50% über x1900xtx-niveau. so habe ich mir die benches jedenfalls zusammengelegt(;

Hast du eine 7900 GTX die bei 1280x1024 + AA AF über 50% schneller ist als eine X1900 XTX?` :|

Kladderadatsch
2006-03-11, 20:56:02
Hast du eine 7900 GTX die bei 1280x1024 + AA AF über 50% schneller ist als eine X1900 XTX?` :|
ne, hab ich auch nie geschrieben.

Nazar
2006-03-12, 00:29:05
Objektiv X1900XTx

Gründe BQ und Verfügbarkeit.. denn anscheinend gibt es die 7900GTX nicht mehr zu kaufen und wenn, dann nur als "Sammlerstück".

Wieso muss NV eigentlich alles Schlechte ATI nachmachen und das dann auch noch "besser" als ATI?

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1142093307

Fetza
2006-03-12, 00:31:07
objektiv x1900xtx

r3ptil3
2006-03-12, 00:38:12
ne, hab ich auch nie geschrieben.

Aber du hast doch geschrieben das eine 7900 GTX bei 1280x1024 mit AA AF bis zu 50% schneller ist als eine X1900 XTX?

Chrisch
2006-03-12, 00:56:33
Objektiv X1900XTx

Gründe BQ und Verfügbarkeit.. denn anscheinend gibt es die 7900GTX nicht mehr zu kaufen und wenn, dann nur als "Sammlerstück".

Wieso muss NV eigentlich alles Schlechte ATI nachmachen und das dann auch noch "besser" als ATI?

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1142093307
immerhin sind die XFX GTX und GTX Extreme lieferbar!

http://www.geizhals.at/deutschland/a191883.html
http://www.geizhals.at/deutschland/a191876.html

und ich denke bis die auch noch ausverkauft sind gibbet was von anderen herstellern :)

Gruß
Chris

Kladderadatsch
2006-03-12, 07:12:22
Aber du hast doch geschrieben das eine 7900 GTX bei 1280x1024 mit AA AF bis zu 50% schneller ist als eine X1900 XTX?
'zu über 50% über x1900xtx-niveau' heißt 'in über 50% der fälle', sprich der benches, wie es leo in seinem fazit nun auch bestätigt hat;)

Mr. Lolman
2006-03-12, 09:46:49
Das war die 5800 Ultra vgl zur 9700p anfangs auch ;)

Kladderadatsch
2006-03-12, 10:27:06
Das war die 5800 Ultra vgl zur 9700p anfangs auch ;)
das sagst du mir jetzt 2 stunden, nachdem ich bestellt habe:ubash3:
;)

Mr. Lolman
2006-03-12, 11:05:15
das sagst du mir jetzt 2 stunden, nachdem ich bestellt habe:ubash3:
;)

Naja, ganz so schlimm wirds wohl nicht werden. Wer weiss wann dynamisches Branching wirklich zum Einsatz kommt, und ob NV da nicht noch was tricksen kann. Außerdem hatten R420 Nutzer bisher auch kaum Probleme wegen der fehlenden SM3 Funktionabilität. ;)

Gast
2006-03-12, 11:14:15
ist die dynamische branching performance nicht bis zu 50% besser geworden mit den letzten nv beta treibern?

Coda
2006-03-12, 11:15:21
Wüsste ich nix davon, eigentlich wurde nur F.E.A.R. beschleunigt.

Gast
2006-03-12, 14:32:10
(47+95+55):3 = 65,xx
Und wieder ein "Yoda...". :)


Q

Gast
2006-03-12, 14:44:44
das wird speicherlimitiert sein.
Speichergröße oder -bandbreite?
Letzteres sollte ausscheiden, da die X1800 GTO sonst nicht von einer 7600 Gt geschlagen würde. Außerdem finde ich es merkwürdig, dass die 7900 GTX in 1600 ohne AA und AF so viel schneller als in 1024 sein soll. Immerhin 180 zu 148 Fps.

Außerdem hängt viel vom verwendeten Demo ab - ich vermute mal ein CPU/Vertex-limitiertes Aussenlevel, da ansonsten die SLI-Skalierung sicherlich nicht so gut wäre.


Q

Kladderadatsch
2006-03-12, 15:21:54
Speichergröße oder -bandbreite?
Letzteres sollte ausscheiden, da die X1800 GTO sonst nicht von einer 7600 Gt geschlagen würde. Außerdem finde ich es merkwürdig, dass die 7900 GTX in 1600 ohne AA und AF so viel schneller als in 1024 sein soll. Immerhin 180 zu 148 Fps.

Außerdem hängt viel vom verwendeten Demo ab - ich vermute mal ein CPU/Vertex-limitiertes Aussenlevel, da ansonsten die SLI-Skalierung sicherlich nicht so gut wäre.


Q
ja, ich meinte die größe.

mir ist noch gar nicht aufgefallen, dass die 7900gtx bei tomshardware in 10x7 langsamer ist als in 16x12. die xtx wird auch nur 2 fps langsamer. da ist anscheinend ein ganz großer fehler unterlaufen. *mal anschreib*

Gast
2006-03-12, 15:34:33
Speichergröße oder -bandbreite?
Letzteres sollte ausscheiden, da die X1800 GTO sonst nicht von einer 7600 Gt geschlagen würde. Außerdem finde ich es merkwürdig, dass die 7900 GTX in 1600 ohne AA und AF so viel schneller als in 1024 sein soll. Immerhin 180 zu 148 Fps.

Außerdem hängt viel vom verwendeten Demo ab - ich vermute mal ein CPU/Vertex-limitiertes Aussenlevel, da ansonsten die SLI-Skalierung sicherlich nicht so gut wäre.


Q
Streicht bitte "CPU" - brainfart.


Q

Gast
2006-03-12, 16:34:57
Wüsste ich nix davon, eigentlich wurde nur F.E.A.R. beschleunigt.

hab ich hier her:
http://www.beyond3d.com/forum/showthread.php?t=29041

Kladderadatsch
2006-03-12, 21:02:45
so, hab dem tomshardware-reviewer mal gemailt und promt die antwort bekommen:

This was an input error. The real figure was 108.6, not 180.6. I will see to it that this is updated. Thank you for spotting this and we will correct it.



Sincerely,


Darren Polkowski

also doch (natürlich) ein fehler...

ps.: gemacht ist aber noch nichts;)

LovesuckZ
2006-03-12, 21:31:23
Sollte die X19 einen ähnlichen Lüfter wie dei X18 haben, dann sind Features und Speed für mich nur zweitrangig.
Alleine die Lautstärke auf 24% ist schon zu nervig und reicht trotzdem nicht aus, um die Karte in meinem Fall ausreichend zu kühlen (90C).
Ich habe zwar nur eine X18XT, aber eine X19 wird wohl nicht besser sein.

Gast
2006-03-13, 13:24:12
Für mich liegt ATI bereits aus einem Grund vorne: Die Karten sind lieferbar, nVidias Karten so gut wie gar nicht. Schaut euch nur mal um...

Leistungsmäßig geben sich die beiden Karten eh nicht viel, also greife ich zur günstigeren Version, im High-End Bereich ist das eine X1900XT für gerade mal 450,- oder eine 7900 GT/X1800XT für um die 300-350,-.

Coda
2006-03-13, 13:29:22
G71 sollte sehr bald ausreichend verfügbar sein. Ich glaube nicht das es Yield-Probleme gibt bei dieser Die-Größe.

dildo4u
2006-03-13, 13:33:20
Für mich liegt ATI bereits aus einem Grund vorne: Die Karten sind lieferbar, nVidias Karten so gut wie gar nicht. Schaut euch nur mal um...


Hier gibts noch welche.
http://www.geizhals.at/deutschland/a191883.html

reunion
2006-03-13, 13:39:30
nV hat ja eine seltsame Ansicht was eine Verfügbarkeit am Launchtag angeht. Da werden einfach eine Hand voll offensichtlich schon vorher produzierter Karten auf den Markt geworfen, und anschließend kann man warten bis die Karten der Massenproduktion endlich eintreffen. War bei der 7800GS und der GTX512 genau das gleiche.

reunion
2006-03-13, 13:40:57
Sollte die X19 einen ähnlichen Lüfter wie dei X18 haben, dann sind Features und Speed für mich nur zweitrangig.
Alleine die Lautstärke auf 24% ist schon zu nervig und reicht trotzdem nicht aus, um die Karte in meinem Fall ausreichend zu kühlen (90C).
Ich habe zwar nur eine X18XT, aber eine X19 wird wohl nicht besser sein.


Sorry Lovesuckz, aber wer den Lüfter der FX5800 in kauf nimmt, für den kann der Lüfter der X1800XT auf 24% nicht zu laut sein.

Coda
2006-03-13, 13:44:38
nV hat ja eine seltsame Ansicht was eine Verfügbarkeit am Launchtag angeht. Da werden einfach eine Hand voll offensichtlich schon vorher produzierter Karten auf den Markt geworfen, und anschließend kann man warten bis die Karten der Massenproduktion endlich eintreffen. War bei der 7800GS und der GTX512 genau das gleiche.GTX 512? Massenproduktion? ;)

Gouvernator
2006-03-13, 13:53:07
Sollte die X19 einen ähnlichen Lüfter wie dei X18 haben, dann sind Features und Speed für mich nur zweitrangig.
Alleine die Lautstärke auf 24% ist schon zu nervig und reicht trotzdem nicht aus, um die Karte in meinem Fall ausreichend zu kühlen (90C).
Ich habe zwar nur eine X18XT, aber eine X19 wird wohl nicht besser sein.

Ein User Gorod aus XS Forum hat beide Karten 7900GTX und 1900 XTX und er beschwert sich das der Kühler der GTX VIEL lauter wird als der XTX . Er hofft auf neue Version von RT um die Umdrehungen zu begrenzen.

eXodia
2006-03-13, 13:59:41
Ein User Gorod aus XS Forum hat beide Karten 7900GTX und 1900 XTX und er beschwert sich das der Kühler der GTX VIEL lauter wird als der XTX . Er hofft auf neue Version von RT um die Umdrehungen zu begrenzen.

Dann macht er irgendwas falsch, oder sonstwas. In allen Reviews kommt zum Tragen das die XTX viel zu laut ist.

Regards

Gouvernator
2006-03-13, 14:07:35
Ein einziger User der seine Erfahrung unvoreingenommen kundtut wir gleich as Lamer diskreditiert ? http://forums.overclockers.ru/viewtopic.php?t=133163&postdays=0&postorder=asc&start=0
Hier ein paar seiner Benchmarks

eXodia
2006-03-13, 14:12:33
Ein einziger User der seine Erfahrung unvoreingenommen kundtut wir gleich as Lamer diskreditiert ? http://forums.overclockers.ru/viewtopic.php?t=133163&postdays=0&postorder=asc&start=0
Hier ein paar seiner Benchmarks

Gut das das in Russisch ist, da versteht man so viel :) - im Ernst, lies dir mal alle Reviews durch und du wirst festellen das eine XTX wesentlich lauter als eine GTX ist und ja, ich glaube allen Reviewern mehr als einem einzigen User.

Regards

Gouvernator
2006-03-13, 14:20:49
Für mich ist eine XTX mit minimalen Umdrehungen schon zu laut. Leute, steigt auf Wakü um dann interessieren euch solche Sachen nicht mehr !

Coda
2006-03-13, 14:20:49
Vor allem wurde immer überall gesagt dass dieser GTX-512-Lüfter sehr sehr leise ist.

eXodia
2006-03-13, 14:24:03
Für mich ist eine XTX mit minimalen Umdrehungen schon zu laut. Leute, steigt auf Wakü um dann interessieren euch solche Sachen nicht mehr !

Sry. Aber mich interessiert meine Garantie.

Vor allem wurde immer überall gesagt dass dieser GTX-512-Lüfter sehr sehr leise ist.

Eben

Regards

Gouvernator
2006-03-13, 14:30:31
Sry. Aber mich interessiert meine Garantie.



Eben

Regards


Wenn die Grafikkarten NOCH lauter werden wirst du a) deine Ansicht ändern oder b) für eine Graka mit WaKü@on board blechen (die du dann eher auseinander nehmen wirst um deinen Prozzi mit ins Kreislauf zu bringen)

LovesuckZ
2006-03-13, 17:50:15
Sorry Lovesuckz, aber wer den Lüfter der FX5800 in kauf nimmt, für den kann der Lüfter der X1800XT auf 24% nicht zu laut sein.

Ich hatte 9 Monate eine X800 mit einem Silencer neben mir.
Konnte ich im 2D Takt passiv kühlen.
Die Umstellung neben mir ein Geräusch zu haben, ist schon sehr schwer.

Gast
2006-03-13, 19:25:16
Sollte die X19 einen ähnlichen Lüfter wie dei X18 haben, dann sind Features und Speed für mich nur zweitrangig.
Alleine die Lautstärke auf 24% ist schon zu nervig und reicht trotzdem nicht aus, um die Karte in meinem Fall ausreichend zu kühlen (90C).
Sag bloß du läßt den Lüfter mit 24% in 3D laufen? :eek:

Ich habe zwar nur eine X18XT, aber eine X19 wird wohl nicht besser sein.
Ne, noch ein wenig schlechter.

BTW ich kann die Diskussion um die Lautstärke nicht ganz nachvollziehen...
Bei einer FX5800Ultra, die 8-10 Sone laut war, kann man noch sagen, dass es stört. Wobei ich mir das unter 3D nicht wirklich vorstellen kann, da ich meinen Rechner noch nie bei 3D gehört habe.
Ich meine...wer spielt schon ohne Sound...
Und in 2D sind die Karten mit 1-1,5 Sone recht leise.

Gast
2006-03-13, 19:26:27
Sag bloß du läßt den Lüfter mit 24% in 3D laufen? :eek:

Ne, noch ein wenig schlechter.

BTW ich kann die Diskussion um die Lautstärke nicht ganz nachvollziehen...
Bei einer FX5800Ultra, die 8-10 Sone laut war, kann man noch sagen, dass es stört. Wobei ich mir das unter 3D nicht wirklich vorstellen kann, da ich meinen Rechner noch nie bei 3D gehört habe.
Ich meine...wer spielt schon ohne Sound...
Und in 2D sind die Karten mit 1-1,5 Sone recht leise.

Lass ihn ruig Reden der war schon immer ein NVidia Freak.

LovesuckZ
2006-03-13, 19:31:37
Sag bloß du läßt den Lüfter mit 24% in 3D laufen? :eek:


Nein, da ist es mir nicht ganz so wichtig.
Im 2D Modus müssten es 14% sein.
Die Karte wird jedoch auch untertaktet so warm, um dies dauerthaft zu ermöglichen...
Nervt mich.
Was andere dagegen als akzeptabel empfinden, interessiert mich in diesem Fall nicht.

Gast
2006-03-13, 19:46:07
Nein, da ist es mir nicht ganz so wichtig.
Im 2D Modus müssten es 14% sein.
Die Karte wird jedoch auch untertaktet so warm, um dies dauerthaft zu ermöglichen...
In 2D wird die Karte 90° heiß? :eek:
Unmöglich.

Nervt mich.
Was andere dagegen als akzeptabel empfinden, interessiert mich in diesem Fall nicht.
Das kann ich gut verstehen.
Bei mir ist es z.B. die Bildqualität. Hier will ich auch nur das Beste haben, also wäre alles außer einem R5x0 für mich sinnlos, auch wenn die Karte 10 oder gar 20% langsamer wäre als das NV-Pendant.
Zum Glück haben wir die Wahl...:)

Lass ihn ruig Reden der war schon immer ein NVidia Freak.
Spar dir bitte demnächst solche Kommentare...

Malachi
2006-03-14, 14:11:25
Ein User Gorod aus XS Forum hat beide Karten 7900GTX und 1900 XTX und er beschwert sich das der Kühler der GTX VIEL lauter wird als der XTX . Er hofft auf neue Version von RT um die Umdrehungen zu begrenzen.

Ich hatte auch beide Karten und die 7900 GTX ist def. kaum zu hören. Sowohl 2D als auch 3D!! Bei seinem Exemplar muß ein Defekt die Ursache sein.

Zu den Temperaturen:
Die ATI bewegte sich zw. 70°C und 90°C.
Die GeForce ist zw. 40°C und 60°C.

Gast
2006-03-14, 16:06:49
Hier gibts noch welche.
http://www.geizhals.at/deutschland/a191883.html

Also heute ist laut Geizhals KEINE einzige 7900 GTX mehr verfügbar!

Wenn überhaupt, würde ich zur am höchsten getakteten GTX greifen, alles andere lohnt fast gar nicht mehr. :)

dildo4u
2006-03-14, 18:11:30
NVIDIA 7900GTX @ -92C 1GHz Core!

http://resources.vr-zone.com/Shamino/1gigcore2.jpg

http://www.vr-zone.com/?i=3355

http://www.vrforums.com/showthread.php?t=63914

Gouvernator
2006-03-14, 18:20:25
Ja keine grosse Sache für 7900 gibts auch ein Vmod , bei 1900 ist bei 1.60V Schlüss.

Gast
2006-03-14, 18:42:07
mich würd intressieren wie die ergebnisse beim sli betrieb von 2 gtx aussehn würden, is ja bei ati net möglich oder?

dildo4u
2006-03-14, 19:34:48
Ein Paar nette Recorde wurden hier gesammelt.

Intel 955XE(6.2Ghz) + Radeon X1900 XTX
Athlon 64 FX-60(3.5Ghz) + Radeon X1900 XTX
http://www.nordichardware.com/Articles/?skrivelse=468

erwingage
2006-03-28, 20:13:05
(guru3d lediglich für ss2 beachtet)
serious sam: nv gewinnt durch die bank (10x7: 143:136 | 12x10: 140:114 | 19x12: 113:93)
splinter cell 3: ati liegt mit ~5 fps leicht vorne (10x7: 81:78 | 16x12: 62:58 | 10x7, 4xaa/16xaf: 118:117 | 16x12, 4xaa/16xaf: 68:62)
quake 4: nv liegt deutlich vorne (12x10, 4xaa: 101:87 | 16x12, 4xaa: 76:68)
fear: bis 1280x1024 (+aa!) gewinnt nv, alles darüber führt ati knapp bis gut an (12x10, 4xaa: 61:56 | 12x10, 4xaa/16xaf: 57:46 | 16x12, 4xaa: 43:42)
bf2: ati immer leicht schneller (12x9, 4xaa: 89:88 | 16x12, 4xaa: 74:70 | 19x14, 4xaa, 16xaf: 66:63)
3dmark06: 7000 zu 6500
lost coast: umgekehrtes bild: bis 1280x960 (+aa/af) liegt ati vorne, darüber führt nv leicht an. das af scheint bei nv sehr stark zu ziehen, weniger würde die differenz zugunsten nv wohl deutlich lockern (10x7, hdr, 16xaf: 90:82 | 12x9, hdr, 16xaf: 81:79 | 16x12, hdr, 16xaf: 66:64)
oblivion: 16x12, 4xaa, 16xaf, bloom: 35:25. ob fake oder nicht, weiß man nicht. ich glaube auch nicht, dass der abstand in niedrigeren settings so groß bleibt. warum sollte er?

je länger ich die benches vergleiche, desto deutlich wird ein unentschieden...was ein mod vielleicht der umfrage hinzufügen könnte.

quintessenz:
nv: für den energiebewussten;), vielleicht auch für die besseren oc-ergebnisse
ati: bei empfindlichem auge (bq), für msaa+hdrr.

die aa/af-dominanz seitens ati hat sich in meinen augen durch die (auch oben benutzen benches) von hexus, anadtech, guru3d (für ss2) und techreport ziemlich relativiert...

wer hat nun im 3dmark06 7000 punkte???
mit welchem system??? :wink:

eXodia
2006-03-28, 20:41:15
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/

7900GTX vs. X1900XTX @ CB mit HQ Test

Regards

PingpiN
2006-03-28, 20:55:16
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/

7900GTX vs. X1900XTX @ CB mit HQ Test

Regards


Knappe Geschichte aber die X1900 XTX bleibt für mich die beste Karte schon allein wegen der Bildquali....

The_Invisible
2006-03-28, 21:41:47
Knappe Geschichte aber die X1900 XTX bleibt für mich die beste Karte schon allein wegen der Bildquali....

was wiederrum ohne standbilder garnichtmal auffallen würde (außer rennspielen)... da habe ich von weniger stromverbrauch, kühlere gpu und leisen lüfter mehr davon (vor allem wo der sommer kommt)

wenn man da alle vor/nachteile der karten "addiert" kommt ein schönes unentschieden raus

mfg

Gast
2006-03-28, 22:15:33
was wiederrum ohne standbilder garnichtmal auffallen würde (außer rennspielen)... da habe ich von weniger stromverbrauch, kühlere gpu und leisen lüfter mehr davon (vor allem wo der sommer kommt)

wenn man da alle vor/nachteile der karten "addiert" kommt ein schönes unentschieden raus

mfg

Warte mal ein halbes Jahr ab, ich denke dann wird der Abstand zwischen den beiden Karten bei neuen Spielen erheblich größer werden. Ich denke die X1900er haben da noch erhebliches Potential.

The_Invisible
2006-03-28, 22:22:40
Warte mal ein halbes Jahr ab, ich denke dann wird der Abstand zwischen den beiden Karten bei neuen Spielen erheblich größer werden. Ich denke die X1900er haben da noch erhebliches Potential.

das gehört in den speku thread, aber füllrate und shaderleistung ist gleichermaßen wichtig, vor UT2007 wird sicher nix großartiges passieren

mfg

Gouvernator
2006-03-28, 22:29:04
Hat jemand Crisis Trailer gesehen ? Wie flüssig das läuft ! Ich kann mir vorstellen was für eine GraKa drin steckt :lol: ATI .

Coda
2006-03-28, 22:31:20
Hat jemand Crisis Trailer gesehen ? Wie flüssig das läuft ! Ich kann mir vorstellen was für eine GraKa drin steckt :lol: ATI .
Ich tippe ganz ohne Hintergedanken eher auf ein SLI-System oder dass das ganze einfach nur frameweise aufgenommen wurde fürs Video, also man die echte Framerate gar nicht mitbekommt.

Gouvernator
2006-03-28, 22:47:53
Ich möchte einfach das Spiel spielen . Hauptsache es läuft, bin bereit auf 640 umzuschalten. Man, solche Physik-Effekte und Vegetation-Animationen machen die Grafik völlig vernachlässigbar. Von der Grafik hab ich erstmal genug :frown:

The_Invisible
2006-03-28, 23:24:48
Ich möchte einfach das Spiel spielen . Hauptsache es läuft, bin bereit auf 640 umzuschalten. Man, solche Physik-Effekte und Vegetation-Animationen machen die Grafik völlig vernachlässigbar. Von der Grafik hab ich erstmal genug :frown:

ich glaube ohne fette cpu geht da selbst in 640 nix flüssig, oblivion ist ja schon so ein fall für sich...

mfg

Kladderadatsch
2006-03-29, 08:01:14
wer hat nun im 3dmark06 7000 punkte???
grün =nv?!:|


http://www.computerbase.de/artikel/...00_gt_7900_gtx/

7900GTX vs. X1900XTX @ CB mit HQ Test

Regards
thx, den hätte ich jetzt völlig verschlafen=)


Warte mal ein halbes Jahr ab, ich denke dann wird der Abstand zwischen den beiden Karten bei neuen Spielen erheblich größer werden. Ich denke die X1900er haben da noch erhebliches Potential.
ja, ich freue mich auch schon auf quakewars!=)

MikBach
2006-03-29, 21:14:15
was wiederrum ohne standbilder garnichtmal auffallen würde (außer rennspielen)...
Ist nicht dein ernst...
Die BQ-Unterschiede sieht man erst in Bewegung richtig gut...
Das winkelunabhängige AF sieht man in Bewegung deutlich besser, weil die Flächen dann "wandern".

da habe ich von weniger stromverbrauch, kühlere gpu und leisen lüfter mehr davon (vor allem wo der sommer kommt)
Bei Low-End würde ich dir bedingungslos zustimmen, bei High-End interessiert es eh keine Sau (auch wenn ich mich nicht dazu zähle).

wenn man da alle vor/nachteile der karten "addiert" kommt ein schönes unentschieden raus

mfg
Für den Gamer zählt in erster Linie die Performance und BQ, dann kommt erst der Rest...

edit: da die Option BQ-Fanboy nicht vorhanden ist, habe ich als ATI-Fanboy abgestimmt (wegen der BQ).

The_Invisible
2006-03-29, 22:22:40
Ist nicht dein ernst...
Die BQ-Unterschiede sieht man erst in Bewegung richtig gut...
Das winkelunabhängige AF sieht man in Bewegung deutlich besser, weil die Flächen dann "wandern".

ok, dann setzen wir mal nen ahnunglosen (oder einem der nicht von dem BQ Wahn besessen ist oder davon gehört hat) vor nem spiel mit nvidia und dann ati karte (oder umgekehrt), bin mal gespannt (wir sind ja gamer oder?) was der dazu sagt


Bei Low-End würde ich dir bedingungslos zustimmen, bei High-End interessiert es eh keine Sau (auch wenn ich mich nicht dazu zähle).

Für den Gamer zählt in erster Linie die Performance und BQ, dann kommt erst der Rest...

bin ich etwa schiffsmatrose oder sowas? mich interessierts sehr wohl, du kannst nicht alle in einen top werfen...

btw
wie habe ich nur auf so eine antwort gewartet, ist ja immer wieder schön zu sehen wie man nvidia karten keinen einzigen vorteil gönnt ;D

mfg

MikBach
2006-03-29, 22:30:04
ok, dann setzen wir mal nen ahnunglosen (oder einem der nicht von dem BQ Wahn besessen ist oder davon gehört hat) vor nem spiel mit nvidia und dann ati karte (oder umgekehrt), bin mal gespannt (wir sind ja gamer oder?) was der dazu sagt
Auf die Anhungslosen kann ich auch gerne verzichten, hier sind BQ-Profis, wie z.B. aths gefragt.

bin ich etwa schiffsmatrose oder sowas? mich interessierts sehr wohl, du kannst nicht alle in einen top werfen...
Das tue ich sicherlich nicht. Die Meisten werden es wohl so sehen, wie ich geschrieben habe...

btw
wie habe ich nur auf so eine antwort gewartet, ist ja immer wieder schön zu sehen wie man nvidia karten keinen einzigen vorteil gönnt ;D

mfg
Klar habe die NV-Karten auch Vorteile, aber es reicht eben nicht. :)
Die Vorteile der ATIs in BQ und Performance sind nicht von NV nicht zu erreichen, auch wenn NV die superben Hybridmodi anbietet...

Johnny
2006-03-29, 23:48:35
Objektiv: ATI
Subjektiv: NVidia wegen dem Kühler

phil99
2006-04-01, 14:16:29
Objektiv Ati wegen besserem Preis und Lieferbarkeit.
Die anderen Vor und Nachteile (Stromverbrauch vers. Technik) gleichen sich etwa aus.

Mr. Lolman
2006-04-01, 15:14:36
Hab meine XTX bekommen. Und j, sie ist unter Last hörbar. Allerdings absolut im erträglichen Rahmen. Der Chipsatzlüfter des A8N-E ist fast lauter.


Pros:

+ extrem schnell
+ geile BQ

Cons:

- keine merkbaren :)

Raff
2006-04-01, 15:52:08
Geräuschpegel, Hitze und die Stromrechnung stören dich nicht?

Nun, mich auch nicht ... jedenfalls weniger als Flimmern.

MfG,
Raff

Mr. Lolman
2006-04-01, 16:38:38
Geräuschpegel, Hitze und die Stromrechnung stören dich nicht?

Nun, mich auch nicht ... jedenfalls weniger als Flimmern.

MfG,
Raff

Stromrechnung ist wohl nich viel höher als vorher mit OCtem XP (der >100W Verlustleistung hatte). Geräuschpegel geht nur in die Höh, wenn ich länger spiele, aber ich spiel ja ohnehin mit Sound.

Hitze ist mir egal. Da hab ich momentan ohnehin kein Tool installiert, was mir die Temperatur anzeigt. Und mein San Diego @ 3GHz sieht das auch recht locker, mit max. ~40°C :)

dildo4u
2006-04-01, 16:41:25
@Lolman war ein neues Netzteil nötig?

Mr. Lolman
2006-04-01, 16:46:11
@Lolman war ein neues Netzteil nötig?

Ja, zwangweise. Ich hatte vorher ein Antec TruePower 430W, ohne PCIe Stecker. Jetzt hab ich ein Tagan 480W. Die X1900XTX hab ich (auch mangels Tools) noch nicht großartig geOCt. 720MHz GPU dürften nach ersten Tests aber drinnen sein.

Mit X1900XTX @default und 3700+ @3GHz komm ich auf ~11000 3dmarks05. :)

Mumins
2006-04-01, 17:52:51
Hab meine XTX bekommen. Und j, sie ist unter Last hörbar. Allerdings absolut im erträglichen Rahmen. Der Chipsatzlüfter des A8N-E ist fast lauter.


Pros:

+ extrem schnell
+ geile BQ

Cons:

- keine merkbaren :)

Da kann ich nur zustimmen, habe ja vorgestern bei nem Kumpel ein neues Sysmit der X1900XT verbaut. Beim zocken mit normaler Lautstärke ist die Karte nicht zu hören, im 2D auch kaum, kann man ja regeln.

Kladderadatsch
2006-04-01, 19:00:08
Ja, zwangweise. Ich hatte vorher ein Antec TruePower 430W, ohne PCIe Stecker.
also die 7900gtx hat einen adapter. die ati nicht?!

WEGA
2006-04-01, 19:11:12
[X]objektiv: 7900GTX

u.a. wegen der deutlich niedrigeren wvl