PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Schnäppchen @ Alternate: 7950GX2 für 179€


Seiten : [1] 2

AnarchX
2007-05-23, 10:24:22
http://www.alternate.de/html/product/details.html?articleId=205517

EL_Mariachi
2007-05-23, 10:32:22
hui das wirklich günstig... ich frag mich grad passt die in mein Shuttle rein? :confused:

.

Silverbuster
2007-05-23, 10:33:15
Folgt man deinem Link, kostet die 7950GX2 229€! Schäppchen.... in meinen Augen nicht. Eine 8800GTS 320 gibts für 250€ und diese ist teilweise deutlich schneller und unterstützt DX10, bietet zudem die bessere Bildqualität.
Also ich würde keinesfalls zugreifen. UNd anscheinend merken die Händler das auch und gehen deshalb mit dem Preis runter um sie überhaupt noch los zu werden.
Wer noch eine DX9 Karte kauft, der greift dann doch lieber zu günstigen X1950pro Karten, die es schon für ca. 150€ gibt. Ansonsten halt die 8800GTS 320!

Edit:
Hier mal ein kleiner Vergleich zwischen 7950GX2 und 8800GTS 320. Selbst eine X1950XT ist schneller und eine X1900XTX knapp dahinter.

Edit2:
Link vergessen.. *g*.... http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/11/#abschnitt_company_of_heroes

Crop Circle
2007-05-23, 10:34:42
Da steht doch 179€.

Silverbuster
2007-05-23, 10:44:40
:confused:
Ohne Flax. Als ich das erste mal den Link verwendet habe, kamen 229€! Wen ich jetzt drauf gehe, 179€. Schau ich bei Geizhals, dann kommt die gleiche Karte wieder mit 229€
http://geizhals.at/deutschland/a203665.html
Seltsam.

So gesehen ist es ein Schnäppchen. Aber wer eine 7900GT oder X1900GT/X1950pro sein eigen nennt, sollte nicht zugreifen. Den diese Karten reichen noch ein paar Monate und dann wird man die 8800GTS 320 sicherlich für ca. 230€ bekommen. Vielleicht sogar für 220€. Da lohnt der Sprung eher. Zumal viele Spiele eine schlechte SLI Unterstützung bieten. Also in dem Sinne das man gegenüber der Einzelkarte grade mal 30% mehr Leistung hat.

Gast
2007-05-23, 11:08:03
Eine 8800GTS 320 gibts für 250€ und diese ist teilweise deutlich schneller und unterstützt DX10, bietet zudem die bessere Bildqualität. http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/11/#abschnitt_company_of_heroes

Deutlich schneller? Eher nicht.
in 1600x1200 4xAA/16xAF ist die GX2 meilenweit vor der GTS320 in einigen Games (Anno, Doom3, CoD2, FEAR, HL2 usw.)

In einigen Games wie HL2 oder FEAR liegt sie sogar auf Niveau einer GTS640 oder darüber.

Ist auf jeden Fall ein Schnäppchen diese Karte. Einziger Nachteil ist mal wieder, das man leider kein HDR+AA fahren kann.

Silverbuster
2007-05-23, 11:29:13
Deutlich schneller? Eher nicht.
in 1600x1200 4xAA/16xAF ist die GX2 meilenweit vor der GTS320 in einigen Games (Anno, Doom3, CoD2, FEAR, HL2 usw.)

In einigen Games wie HL2 oder FEAR liegt sie sogar auf Niveau einer GTS640 oder darüber.

Ist auf jeden Fall ein Schnäppchen diese Karte. Einziger Nachteil ist mal wieder, das man leider kein HDR+AA fahren kann.

Na klar, packe ich alte Spiele aus dann ist die 7950GX2 vorne. Schaue ich mir aber modernere Titel an, die stark auf Shader setzen, was ja die Zukunft bei Grafik ist, dann verliert die 7950GX2 deutlich.

Splinter Cell 4 1600x1200
7950GX2 18,4fps
8800GTS 320 29,7

Rainbow Six Vegas 1600x1200
7950GX2 14,4
8800GTS 320 30,3fps
Hier ist die 7950GX2 sogar langsamer als eine X1950pro mit 16fps (X1950pro hat doppelt so hohe Shaderleistung als eine einzelne 7950GT)

Oblivion 1600x1200
7950GX2 31,7fps
8800GTS 320MB 48,4fps
Hier sit die 7950GX2 grade mal auf X1900XT NIveau mit 31,7fps

Gothic3 1600x1200
7950GX2 19,3fps
8800GTS 320 29,9fps

Anno 1701 1600x1200
7950GX2 39,1
8800GTS 320 43,7fps

Schau dir mal die reinen Rohdaten der beiden Karten an. Einzig wo die 7950GX2 wirklich Punkten kann, ist bei der Füllrate. Da aber mittlerweile enorme Anforderungen an die Shader gestellt werden, verliert die 7950GX2 um Welten gegen die 8800GTS.
Shaderleistung
8800GTS 153,600 Ops/sec
7950GX2 24.000 Ops/sec
Und nein, ich hab mich nicht vertippt. Siehe hier: http://www.gpureview.com/show_cards.php?card1=475&card2=432

Ältere Spiele wie FEAR u.s.w, sind irrelevant. Neue Spiele setzen auf andere TEchniken wo eine 7950GX2 alt aussieht. ODer warum glaubst du gewinnt eine X1950pro gegen eine 7900GT in neuen Spielen und verliert in alten Spielen? Shaderleistung.

RainingBlood
2007-05-23, 11:53:28
die GX2 finde ich auch kein Schnäppchen.
Riesige Karte, hoher Stromverbrauch, laut, vergleichsweise schlechtes AF, SLI und in etlichen neueren Spielen sieht sie auch nicht mehr so viel Land.

Gast
2007-05-23, 12:12:53
Na klar, packe ich alte Spiele aus dann ist die 7950GX2 vorne.

Anno 1701 alt? Ich glaube du lebst in der falschen Welt.

Außerdem haste die falschen Ergebnisse zum vergleichen genommen. 1600x1200 ohne alles... dafür braucht es weder GTS noch GX2!!!

Bei 1600x1200 4xAA/16xAF ist das Bild deutlich:
Anno1701: GX2 gewinnt
CoD2: GX2 gewinnt
Company of Heroes: GX2 gewinnt
Doom 3: GX2 schlägt GTS640
HL2: GX2 auf Niveau der GTS640
...

Ältere Spiele wie FEAR u.s.w, sind irrelevant.

Blödsinn. Warum sollten alte Spiele irrelevant sein, wenn sie jemand spielt?

Super Grobi
2007-05-23, 12:19:32
Für den Preis auf jedenfall eine echt affenstarke Karte! Leider muss das Board ja SLI unterstützen, daher wird der Käuferkreis kleiner sein.

SG

Gast
2007-05-23, 12:21:03
Leider muss das Board ja SLI unterstützen, daher wird der Käuferkreis kleiner sein.

Nö, das ist nicht notwendig. Die GX2 läuft sogar auf Boards mit nur einem PCIe Slot.

Gast
2007-05-23, 12:21:48
Für den Preis auf jedenfall eine echt affenstarke Karte! Leider muss das Board ja SLI unterstützen, daher wird der Käuferkreis kleiner sein.

SG
Eben nicht. Die Karte funktioniert auf jedem Board mit PCIe16x-Slot, man braucht kein SLI-Board. Das ist ja gerade das schöne daran.

Super Grobi
2007-05-23, 12:23:22
Eben nicht. Die Karte funktioniert auf jedem Board mit PCIe16x-Slot, man braucht kein SLI-Board. Das ist ja gerade das schöne daran.

Bis du dir da sicher? Hätte schwören können, das man SLI benötigt.

Gruss
SG

Gast
2007-05-23, 12:29:03
Bis du dir da sicher? Hätte schwören können, das man SLI benötigt.

Gruss
SG
Absolut. Wenn Du es nicht glaubst, schau doch einfach mal auf die Systemanforderungen - in der Produktbeschreibung bei alternate, oder direkt bei Nvidia. ;)

Gast
2007-05-23, 12:33:21
Deshalb kann man sie auch auf Intel Platinen pflanzen...

Ein ganz entscheidendes Detail wurde hier noch nicht genannt: Ausgereifte Treiber, denn die GF7 Generation ist schon recht alt.

Wer sich nicht mit unausgereiften Treibern und Linux herumärgern will, für den ist die sicher ein blick wert.

Silverbuster
2007-05-23, 12:33:28
@ Gast

Ältere Spiel zählen nicht (anno hatte ich nicht mit eingerechnet) weil es völlig egal ist ob ich mit 57 oder 65fps in 1600x1200 4xaa 16xffa spiele (Beispiel FEAR) Alte Spiele laufen auf beiden Karten immer Flüssig. Da interessieren mehr ob die kommenden Spiele flüssig laufen.

Anno 1701 1600x1200 4xAA/16x FFA
Auf beiden Karten unspielbar, zählt nicht

CoD2 1600x1200 4xAA/16x FFA
Alte Engine, aber richtig, 8800GTS 320 verliert durch die geringere Speichergröße.

CoH 1600x1200 4xAA/16xFFA
Mit diesen FPS Werten, beider Karten, wirst du keinesfalls CoH spielen wollen, zählt nicht.

Doom3 1600x1200 4xAA/16xFFA
Wahnsinn, 85,6 fps (8800GTS 320) zu 102,3fps (7950GX2) Alte Engine, beide KArten flüssig Spielbar, uninteressant.

HL2 1600x1200
Beide Karten völlig flüssig Spielbar, alte Engine, uninteressant.

Irgendwie verstehst du mein Argument nicht. Wen ich heute eine Karte kaufe, will ich das sie auch mit den kommenden und aktuellen Spielen vorne liegt und das tut die 7950GX2 einfach nicht. Neue Spiele fordern eine Grafikkarte ganz anders udn hier verliert die 7950GX2 völlig. Doom3 ist wie alt.... 2 Jahre? HL2 auch sowas in dem dreh. Da ist selbst eine 7600GT völlig ausreichend zum zocken (ok, nicht unbedingt 1600x1200, aber trotzdem). MIt sowas vergleich ich doch nicht.
Was ist mit dem kommenden Crysis? Allen Wake? Schwarze Auge? U.s.w! Was soll ich da noch mit einer 7950GX2 die in HL2 zwar überlegen ist, aber in einem aktuellen Titel wie Rainbow Six Vegas (das immerhin einen Vorgeschmack auf die Unreal 3 Engine bietet) völlig versagt?

Dazu ist die Karte, wie schon erwähnt, laut, verbraucht noch mehr Strom, bietet kein HDR+AA und sichtbar schlechtes FFA?

Und nochmal weil ich 1600x1200 ohne alles genommen habe. Ich wollte Spielbare FPS Werte haben. Die genannten Spiele in dieser Auflösung mit 4xAA/16xFFA sind dann meist unspielbar. Da ist es völlig egal ob eine Karte 20 oder 22fps hat. Wobei hier (z.B. Oblivion) eine 7950GX2 mit AA und FFA in 1600x1200 gar nicht gezeigt wird. Und Vegas gar nicht mit FFA und AA läuft.

Du liest dir wohl die Benches nicht durch wie?

Gast
2007-05-23, 12:36:10
Ältere Spiel zählen nicht (anno hatte ich nicht mit eingerechnet) weil es völlig egal ist ob ich mit 57 oder 65fps in 1600x1200 4xaa 16xffa spiele (Beispiel FEAR) Alte Spiele laufen auf beiden Karten immer Flüssig. Da interessieren mehr ob die kommenden Spiele flüssig laufen.

Sehr merkwürdige Interpretion.

Es zählt immer das, was der User nutzt. Was interessieren mich neue Games, wenn ich die alle sch***** finde oder kein Shooterzocker bin?

Außerdem gibt es genügend mittel, die Karten auch bei alten Games auszureizen. Man dreht einfach Auflösung oder Qualitätssetting hoch, damit bringste jede Karte auf <20fps.

Gast
2007-05-23, 12:40:36
Da aber mittlerweile enorme Anforderungen an die Shader gestellt werden, verliert die 7950GX2 um Welten gegen die 8800GTS.
Shaderleistung
8800GTS 153,600 Ops/sec
7950GX2 24.000 Ops/sec
Und nein, ich hab mich nicht vertippt. Siehe hier: http://www.gpureview.com/show_cards.php?card1=475&card2=432


Was die Seite angibt ist unbrauchbar, da hier Shadereinheiten mal Takt gerechnet werden ungeachtet ihre Leistungsfähigkeit.

In Wirklichkeit sieht es nämlich so aus:

GFLOPs MAD/ADD/MUL:

7950GX2 : 384
8800GTS: 345,6

Warum die 8800GTS trotzdem fast immer gewinnt, liegt an der Architektur.

Silverbuster
2007-05-23, 12:56:21
Sehr merkwürdige Interpretion.

Es zählt immer das, was der User nutzt. Was interessieren mich neue Games, wenn ich die alle sch***** finde oder kein Shooterzocker bin?

Außerdem gibt es genügend mittel, die Karten auch bei alten Games auszureizen. Man dreht einfach Auflösung oder Qualitätssetting hoch, damit bringste jede Karte auf <20fps.

Sicher kann man alles bis zu einem Punkt ausreizen wo man nahezu jede Karte in die Knie zwingt.
Die Argumentation das du alles neue derzeit Scheiße findest ist eine Frage des Geschmacks. Finde auch nich talle neuen Titel toll. Stalker finde ich z.B. eines der schlechtesten Spiele die ich je hatte. Aber das ist halt eine frage des Geschmacks.

Fakt ist trotzdem, das jeder vernünftige Käufer eine Karte haben will mit der er auch kommende Titel in guter Qualität spielen kann. Und die 7950GX2 ist einfach zu alt und zu lahm dafür (Lahm ist Relativ, nur im Vergleich zur 8800GTS gemeint). Eine 8800GTS 320 hat hier mehr Potential. Und nur das zählt. Für die älteren Games brauch ich auch keine 7950GX2, da reicht auch eine 7900GT oder X1900XT noch locker aus. Dazu werde bald erste Ansätze von DX10 Titeln kommen. Da hab ich eh verloren mit der 7950GX2.

Deshalb.. wer schon eine 7900GT oder X1950pro hat, wird mit der 7950GX2 bis ende des Jahres sicher gut genug dastehen, ist aber mit einer 8800GTS auf der Sicheren Seite und wird deutlich länger damit Spaß haben. Und das in besserer optischer Qualität, ohne Hörschaden (bisschen übertrieben von mir ich weis) und schöneres FFA haben, was bei der 79XX Serie nun wirklich nicht der Reißer ist.

Von daher finde ich nicht das die 7950GX2 kein Schnäppchen ist.

Zu der Seite.
Du redest von der "Rechenleistung" der GPU. Also die GFlops Leistung. Wobei du dich vertan hast. Die 345,6GFlops hat die 8800GTX, die 8800GTS hat 230,4GFlops. ICh meinte aber die Shaderleistung. Das sind zwei völlig verschiedene Dinge.

AnarchX
2007-05-23, 13:03:46
Zu der Seite.
Du redest von der "Rechenleistung" der GPU. Also die GFlops Leistung. Wobei du dich vertan hast. Die 345,6GFlops hat die 8800GTX, die 8800GTS hat 230,4GFlops. ICh meinte aber die Shaderleistung. Das sind zwei völlig verschiedene Dinge.

Dann rechne halt bei den GFLOPs der GX2 noch die SFUs ab, trotzdem steht ihr mehr maximale MADD-Leistung für General Shading zur Verfügung.
Was aber im Endeffekt auch nichts aussagt ohne Kentnisse über die Architektur. ;)

Aber die Seite, die du verlinkt hast, sollte man besser aus dem Gedächtnis streichen, da hier nahezu alle Angaben nicht korrekt sind.

Wenn dann sollte man hier schauen:
http://www.beyond3d.com/resources/

Silverbuster
2007-05-23, 13:13:24
Ich weis zwar nicht was an der Seite falsch sein soll, den die Daten stimmen, wem man versteht was gemeint ist, ist aber auch nicht der springende Punkt.

Fakt ist.... in neuen und kommenden Spielen taugt die 7950GX2 nix. Und bei alten spielt es keine Rolle ob man nun 60 oder 80fps hat. Und wieder die Bildqualitätsunterschiede und wieder die Lüftung u.s.w.!

Für mich immer noch kein Schnäppchen sondern nur der Versuch der Händler eine alte Karte los zu werden.

Gast
2007-05-23, 13:25:36
Vergesst mal nicht den Preis. Die GX2 hat 512MB. Die einzig bessere GTS640 kostet glatt 110 € mehr. Das sind knapp 60% Unterschied.

Silverbuster
2007-05-23, 13:28:02
Auweia.... das ist jetzt aber kein ernst gemeintes Argument, oder? Das wäre wie wen ich eine X1950GT 512MB mit einer X1900XT 256MB vergleiche. Durch den Ram wird die Karte auch nicht schneller. Das zeigen die Benchs doch deutlich.

Gast
2007-05-23, 13:38:53
Auweia.... das ist jetzt aber kein ernst gemeintes Argument, oder?

Der Preis ist immer ein Argument.

Durch den Ram wird die Karte auch nicht schneller.

Dann bist du falsch informiert. Bei Games die mehr als 256 MB nutzen bringt das deutlich was und das betrifft schon ziemlich viele.

Die GTS320 ist genauso "untauglich" wie die GX2, wenn es um die "Zukunft" geht. Warum also mehr Geld für etwas nicht zukunftssicheres ausgeben?

Für den Preis der GX2 bekommt man mindestens genauso viel.... man zahlt weniger und kann die Karte wieder zu Geld machen... vom eingesparten Geld kann man sich dann nächstes Jahr oder wann auch immer eine viel bessere Refreshkarten kaufen, die allen jetzigen Karten davonzieht. Auf Zukunft kaufen ist daher wenig sinnvoll.

Silverbuster
2007-05-23, 13:47:59
ICh drücke es mal so aus.... was ich aber auch schon gesagt habe. Wer jetzt eine 7900GT oder X1950pro (oder vergleichbar) hat, wird hier nix vernünftiges bekommen. Wer noch eine 6800 oder X800 in seinem Rechner hat, der hat eh keine riesigen Ansprüche und wird mit der 7950GX auch lange Glücklich sein.

Die 8800GTS ist sicher untauglich für die Zukunft wen man mit mehr als 1280x1024 4xaa/8xFFA spielen will. Solch eine Person sollte dann zur 8800GTX greifen oder halt der 640MB Version der 8800GTS.
Aber trotz des geringeren Rams gegenüber der 7950GX2 ist diese bei modernen Engins schneller. Das ist Fakt. Da kann die 7950GX2 auch 2GB Grafikspeicher haben, das bringt trotzdem nichts.

Und du wirst auch bis Mitte nächsten Jahres fast alle kommenden Titel in 1280x1024 4xAA/8xFFA sicherlich spielen können, und das auch mit DX10. Mit der X1950GX2 kann man das ja jetzt schon teilweise nicht mehr wirklich (UT3 Engine ist hier ein gutes Beispiel, welche ja in einigen kommenden Titeln verwendet wird)

Und man kann immer mindestens 1 Jahr in die Zukunft schauen. Da braucht man nur die Vergangene Entwicklung bei Spielen zu betrachten, es ist fast immer der gleiche Rythmus. Kommt eine Top Karte (8800GTX) so ist die nächst niedrigere ausreichend für knapp 1,5-2 Jahre. Und da ist die Zeit für die 7950GX2 schon fast rum!

Gast
2007-05-23, 14:00:42
Zur GTS640 würde ich auch nochmal was anmerken: Die Karte kostet jetzt knapp 110€ mehr. Die wird nach dem Kauf aber sehr schnell an Wert verlieren, wenn die nächste Preissenkung ansteht, ist man schnell bei 250€. Dadurch ist natürlich auch der Verkaufserlös geringer.

Bei Karten die schon im Einkauf günstig waren, ist das weniger schlimm. Die können nicht viel an Wert verlieren, weil sie nicht mehr viel wert sind. :) Selbst ne 3 Jahre alte Karte wird oft noch für 100€ gehandelt. Aber wie lange wird eine GTS640 über 200€ Wert sein? Ich mags nicht beurteilen. :)

Das sollte man vielleicht in der Überlegung berücksichtigen. Ich bevorzuge, die Grafikkarte öfters zu wechseln:
Jetzt 110€ gespart, Karte für 120€ weiterverkauft und von dem Geld ne neue ... vielleicht bekommt man davon schon nächstes Jahr ne 55nm GPU mit ordentlich Potential. So wäre es jedenfalls wie immer. ;D

Silverbuster
2007-05-23, 14:06:07
Mit dem wiederverkauft hast du recht.... gibt ja genug dumme ;D und das ist auch gut so!

Aber ich seh das so. Wer wird im Dezember noch 100€ für eine DX9 Karte ausgeben wen alles nach DX10 schreit? Ja gar die ersten DX10 only Spiele erscheinen?

RainingBlood
2007-05-23, 14:06:45
von der P/L her finde ich die 8800GTS 640MB auf selben Niveau, mit vorranschreitender Zeit sogar auf besserem. Man beachte die RB6:V Benches, welche die UT3 Engine einsetzt und damit für etliche zukünftige Spiele relevant sein wird. Es wird einfach nicht besser für die GX2, sondern die Performanceschere geht nur noch weiter auf, zu Gunsten der GTS.

Ob ich mir jetzt jedes Jahr eine mittelmäßige Karte hole, oder eine gute Kaufe und diese zwei Jahre behalte, macht selten einen Unterschied in der Performance und im Portmonaie.

Silverbuster
2007-05-23, 14:19:16
Blödsinn geschrieben, sorry!

Gast
2007-05-23, 17:56:33
Zumal viele Spiele eine schlechte SLI Unterstützung bieten. Also in dem Sinne das man gegenüber der Einzelkarte grade mal 30% mehr Leistung hat.SLI muss von der Anwendung überhaupt nicht unterstützt werden, also gibt es auch keine Spiele mit schlechter SLI-Unterstützung. Multi-GPU-Systeme sind für die Anwendung vollkommen transparent. Wenn jemand durch SLI nur 30 % mehr Performance bekommt, ist er ganz einfach ein Voll-DAU, der sich nicht über SLI informiert hat. Spätestens nach ein wenig Profilgefrickel mit dem Nhancer bekommt man praktisch immer sehr gute Ergebnisse.

Gast
2007-05-23, 20:13:21
SLI muss von der Anwendung überhaupt nicht unterstützt werden, also gibt es auch keine Spiele mit schlechter SLI-Unterstützung. Multi-GPU-Systeme sind für die Anwendung vollkommen transparent. Wenn jemand durch SLI nur 30 % mehr Performance bekommt, ist er ganz einfach ein Voll-DAU, der sich nicht über SLI informiert hat. Spätestens nach ein wenig Profilgefrickel mit dem Nhancer bekommt man praktisch immer sehr gute Ergebnisse.
Bei den meisten Profilen muss man gar keine Hand anlegen da sie schon optimal sind, bis auf wenige Ausnahmen abgesehen. Kann es eigentlich sein, dass nV mit neueren Treibern > 100 die SLi Fähigkeit verbessert hat? Denn jetzt funktioniert AFR, AFR 2 bei Spielen, die kein Profil haben, meistens recht aktzeptabel. Früher konnte man das afaik fast immer so gut wie vergessen, da war man meistens langsamer als mit einer Karte oder das Spiel lief stockend.

Coda
2007-05-24, 01:16:10
Leider muss das Board ja SLI unterstützen, daher wird der Käuferkreis kleiner sein.
Muss es nicht.

Ja gar die ersten DX10 only Spiele erscheinen?
Die kommen nicht so schnell, keine Angst ;)

=Floi=
2007-05-24, 02:35:57
aber deshalb hat die karte auch genug nachteile (kein dx10, lüfter, stromverbrauch, leistung, AF qualität )

alleine dass man keinen ersatzlüfter einbauen kann und der lüfter sehr klein ist sind für mich ein ko kriterium

unter vista sehe ich da auch aktuell weniger SLI support (im treiber) welcher gebraucht wird
nicht alles regelt der preis, lieber gebe ich ein ppar € mehr aus oder warte und kaufe mir dann auch ein produkt welches besser abschneidet...

Gast
2007-05-24, 02:42:45
Kein DX10 ist wirklich kein Argument -> es gibt noch keine DX10 Anwendungen.

Stromverbrauch auch nicht, die Karte braucht im idle sogar weniger als die GTS320:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/35/#abschnitt_stromverbrauch

Bei Last ist der Unterschied minimal und da man in der Regel nicht 15h am Tag zockt, ist sie sogar sparsamer. :)

Außerdem hat sie ein enormes Übertaktungspotential.
Die Standard GX2 kommt mit 500/600 MHz daher.

Es gibt aber auch eine GX2 von XFX die standardmäßig mit 570/775 daher kommt! :eek: Mit etwas Glück kann man das auch bei der Standard GX2 erreichen und dann geht sie richtig ab:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/21/#abschnitt_performancerating_qualitaet

Leider hat computerbase die schnelle XFX Version in Zukünftigen Tests nicht mehr verwendet.

Bei einigen Games holt die noch locker 20 frames mehr raus und bei nur 500 MHz GPU und 600 MHz Ramtakt, bewirkt schon eine leichte Steigerung beide Werte ein gutes Performanceplus. Sind ja immerhin zwei GPUs und zwei Speicher.

Fetza
2007-05-24, 03:55:38
Also man kann es eigentlich auf einen punkt bringen, wer alte games gerne zocken will, ohne hdr wird mit der 7950 wohl glücklich, zumal der preis sehr gut ist. Wer aber auf moderne features steht (und ich persönlich möchte ohne hdr nichtmehr zocken) kauft sich die karte für umsonst, da sie hier grottig ist. Alleine der oblivion benchmark spricht bände. Ehrlich gesagt weiss ich aber nicht, wer für alte games so eine karte braucht, schließlich wird er dann ja nicht unbedingt gleich auf 1600 auflösung mit 4xaa und 16xschlecht af spielen wollen.

Ich glaube wir alle können uns vorstellen, wie die karte in bioshock, jericho oder ut3 dastehen wird, nämlich schlecht. Und dann nutzt der günstige preis auch nicht mehr wirklich viel.

btw, bei alternate für 110 euro mehr ne gts 640 kaufen und man hat wirklich moderne grafikleistung zum günstigen preis

greetz

Gast
2007-05-24, 04:19:36
HDR unterstützt die Karte, aber nicht in Zusammenspiel mit AA. Muss man halt die Auflösung höher drehen...

Füllrate hat das Ding ohne Ende und ist daher vorallem für die etwas ältere Garde an Games geeignet.

san.salvador
2007-05-24, 04:26:17
Kein DX10 ist wirklich kein Argument -> es gibt noch keine DX10 Anwendungen.

Stromverbrauch auch nicht, die Karte braucht im idle sogar weniger als die GTS320:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/35/#abschnitt_stromverbrauch

Bei Last ist der Unterschied minimal und da man in der Regel nicht 15h am Tag zockt, ist sie sogar sparsamer. :)

Außerdem hat sie ein enormes Übertaktungspotential.
Die Standard GX2 kommt mit 500/600 MHz daher.

Es gibt aber auch eine GX2 von XFX die standardmäßig mit 570/775 daher kommt! :eek: Mit etwas Glück kann man das auch bei der Standard GX2 erreichen und dann geht sie richtig ab:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/21/#abschnitt_performancerating_qualitaet

Leider hat computerbase die schnelle XFX Version in Zukünftigen Tests nicht mehr verwendet.

Bei einigen Games holt die noch locker 20 frames mehr raus und bei nur 500 MHz GPU und 600 MHz Ramtakt, bewirkt schon eine leichte Steigerung beide Werte ein gutes Performanceplus. Sind ja immerhin zwei GPUs und zwei Speicher.
Die meisten GTS' laufen mit mehr als 610/950 (Standard: 500/800), da ist das Potential der GX2 ein Witz dagegen. ;)

Guckst du. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360591)

Fetza
2007-05-24, 04:33:47
HDR unterstützt die Karte, aber nicht in Zusammenspiel mit AA. Muss man halt die Auflösung höher drehen...

Füllrate hat das Ding ohne Ende und ist daher vorallem für die etwas ältere Garde an Games geeignet.

Da hast du schon recht, nur ist die performance dabei sehr schlecht, sonst würde ich einfach sagen 1600er auflösung und gut ist, aber guck dir einfach mal einen oblivion benchmark an in 1024er auflösung mit hdr, das geht einfach übel in die hose. Aber wie gesagt, für ältere spiele ist die karte natürlich top, und der preis lockt.

Fetza
2007-05-24, 04:34:08
Die meisten GTS' laufen mit mehr als 610/950 (Standard: 500/800), da ist das Potential der GX2 ein Witz dagegen. ;)

Guckst du. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=360591)

Meine läuft mit 650/1512/1050 *freu*.

san.salvador
2007-05-24, 04:35:15
Meine läuft mit 650/1050 *freu*.
Dann meld dich bitte im ensprechenden Thread, ich will auch wissen wie stabil die Geschichte läuft. ;)

Gast
2007-05-24, 06:02:55
Die meisten GTS' laufen mit mehr als 610/950 (Standard: 500/800), da ist das Potential der GX2 ein Witz dagegen. ;)

Kleiner Rechenfehler den du da machst. Das ist ja auch keine Multi GPU!

Zudem gewinnt die GTS sehr viel weniger an Leistung durch erhöhung des Speichertaktes. Bei der GX2 ist der Unterschied recht hoch, da 600 MHz im Standardbetrieb ziemlich mickrig sind. Hier gilt das Gesetz des abnehmende Grenzertrages.

Ebenso bei der GPU... durch Erhöhung des GPU taktes von 500 auf 550, 600 ... MHz wird so ziemlich eine 1:1 Skalierung erreicht, das zeigte schon die 7900 GTX, die bis 700 MHz deutlich zulegen konnte.

Bei Erhöhung des Taktes der GPU von 500 auf 600 MHz sind das schon 20 % Leistungssteigerung bei beiden GPU. Eine Steigerung des Ramtaktes von 600 auf 800 MHz sind auch lockere 33%! "Wenig" ist was anderes!

Dazu kommt noch ein weiteres entscheidendes Detail: Als damals die GX2 getestet wurde, wurde in den meisten Fällen nur eine CPU vom Stand eines FX-60 genutzt (~2,13 GHz Core2) Mittlerweile sind aber wesentlich leistungsfähigere CPUs verfügbar. Während die GTS zum großen teil auf Core2 Systemen gebencht wurde, hat fast niemand eine GX2 auf einem 3,5 GHz Core2 System gebencht. Da hier das CPU limit deutlich geringer ausfällt, sind die damaligen Messwerte deutlich überholt.

Außerdem interessiert das sowieso nicht. Die GTS liegt nicht in der gleichen Preisklasse. Man vergleicht ja auch nicht eine 7900GS mit einer 8800 Ultra. :P

Gast
2007-05-24, 06:09:15
Da hast du schon recht, nur ist die performance dabei sehr schlecht, sonst würde ich einfach sagen 1600er auflösung und gut ist, aber guck dir einfach mal einen oblivion benchmark an in 1024er auflösung mit hdr, das geht einfach übel in die hose. Aber wie gesagt, für ältere spiele ist die karte natürlich top, und der preis lockt.

Lass dich nicht solchen Benchmarks verwirren. Es ist oft so, das bei Benchmarks Stellen getestet werden, die im Spiel so gut wie nicht vorkommen.

Ich habe Oblivion in 1600x1200 mit einer 7950GT mit HDR gezockt - es lief bis zum Ende sehr gut. Eine GX2 packt das locker.

Wenn ich immer nach den Benchmarks gehen würde, dann könnte ich manche Games jgar nicht zocken, weil bei einigen oft nur <20fps gemessen werden. Das ist aber weitab der Realität. Ein Spiel besteht aus weitaus mehr als nur einem Benchmark, zudem sind viele Stelle gar nicht GPU limitiert.

Gast
2007-05-24, 06:20:47
Falls das jemanden zur Einschätzung der Leistung:

Core 2 @3,6 GHz mit XFX GX2 XXX
http://www.iamxtreme.net/video/7950xxx/conroe_7950_02.JPG

http://www.iamxtreme.net/video/7950xxx/conroe_7950_01.JPG

Mit einem FX-60 sinds dagegen nur noch 8.615.

Spasstiger
2007-05-24, 06:26:20
Alleine der oblivion benchmark spricht bände.
Immer noch so schnell wie eine X1950 XT, die mehr Geld kostet. Man muss halt hohe Auflösungen fahren können wegen dem fehlenden AA bei HDR-Rendering.

Gast
2007-05-24, 07:13:38
Zudem zeigen einige Benches so kleine Unterschiede, weil da teilweise noch ein CPU limit vorliegt. Bei 1280x1024 oder 1600x1200 ohne alles kann man natürlich keine großen Unterschiede erwarten.

Hier sieht man es sehr schön:
Doom3
2560x1600 4xAA/16xAF:
nVidia GeForce 8800 Ultra 66,6
ATi Radeon HD 2900 XT 60,4
nVidia GeForce 8800 GTX 58,1
nVidia GeForce 7950 GX2 46,5
ATi Radeon X1950 XTX 38,0

Tomb Raider Legend:
2560x1600 4xAA/16xAF:
nVidia GeForce 8800 Ultra 50,0
nVidia GeForce 8800 GTX 45,2
nVidia GeForce 8800 GTS 28,0
nVidia GeForce 7950 GX2 23,0
ATi Radeon HD 2900 XT 21,9

HL2:
2560x1600 4xAA/16xAF:
nVidia GeForce 8800 Ultra 49,1
nVidia GeForce 8800 GTX 44,9
nVidia GeForce 8800 GTS 29,8
nVidia GeForce 7950 GX2 28,1

Das lässt sich natürlich auf niedrige Auflösungen übertragen. Wer nur 1280x1024 oder 1600x1200 fährt, der muss die Qualitysettings höher als 4xAA schrauben um die GPU richtig zu fordern. Dann würde man auch mehr Unterschiede sehen.

Mr. Lolman
2007-05-24, 09:47:59
Man muss halt hohe Auflösungen fahren können wegen dem fehlenden AA bei HDR-Rendering.

und genau deswegen ist sie imo uninterssant. (auch wenn der Preis tatsächlich nicht übel ist) Andererseits wären die 180€ auch nicht wert, bei vielen Proggis mit dem Eindruck leben zu müssen, dass man mit anderen SLI-Bits eine noch höhere Performance hätte.

Hier sieht man es sehr schön:

Du könntest natürlich auch Benchmarks von neueren Spielen posten:

Anno1701:
1280x1024 4xAA/16xAF:
nVidia GeForce 8800 Ultra 23,2
nVidia GeForce 8800 GTX 21,5
ATi Radeon HD 2900 XT 19,6
ATi Radeon X1950 XTX 18,9
nVidia GeForce 7950 GX2 17,1

Company of Heroes:
1280x1024 4xAA/16xAF:
nVidia GeForce 8800 Ultra 69,4
nVidia GeForce 8800 GTX 62,9
ATi Radeon HD 2900 XT 56,6
ATi Radeon X1950 XTX 45,3
nVidia GeForce 8800 GTS 44,5
ATi Radeon X1900 XTX 43,2
ATi Radeon X1900 XT 41,5
ATi Radeon X1900 XT 256 38,4
nVidia GeForce 7950 GX2 38,4

SC4:
1600x1200:
nVidia GeForce 8800 Ultra 42,4
nVidia GeForce 8800 GTX 39,2
ATi Radeon HD 2900 XT 37,2
nVidia GeForce 8800 GTS 30,0
nVidia GeForce 8800 GTS 320 29,7
ATi Radeon X1950 XTX 28,6
ATi Radeon X1900 XTX 25,7
ATi Radeon X1900 XT 25,1
ATi Radeon X1900 XT 256 23,8
nVidia GeForce 7900 GTX 20,0
ATi Radeon X1950 Pro 19,9
nVidia GeForce 7950 GX2 18,4

Silverbuster
2007-05-24, 11:13:29
Ich versteh auch nciht warum "Gast" immer mit den alten Spielen daher kommt. Fakt ist und bleibt... und ich mach es diesmal kurz....

7950GX2
alte Spiele Hui... neue Spiele Pfui
Und das gilt für die Leistung wie auch für die Bildqualität.
Einfach veraltet in der Technik, basta.

Gast
2007-05-24, 11:39:39
immer mit den alten Spielen daher kommt. Fakt ist und bleibt... und ich mach es diesmal kurz....

Was ist an den Spielen alt? Haste ne Ahnung wieviele Leute noch HL2 oder CS:S zocken?

Zudem sind auch nicht alle der neuen Spiele auf viel Shaderpower angewiesen!! Viele sind immer noch rein füllratenlimitiert.

Gast
2007-05-24, 11:39:45
Du könntest natürlich auch Benchmarks von neueren Spielen posten

Erstens zocke ich die nicht, zweitens gibt es mehrere zehntausend Spiele, wovon nur wenige wirklich neu und spielenswert sind und drittens sind die von dir geposteten Benchmarks nicht aussagekräftig, da noch CPU limitiert. Zieh doch mal die Auflösung höher und schau dann nochmal...

In Company of Heroes.
2560x1600 4xAA/16xAF:
nVidia GeForce 8800 GTS
13,0
nVidia GeForce 7950 GX2
11,6

Von der Rechenleistung ist die GTS640 nur 12% besser, aber 60% teurer!!!

Die GX2 gewinnt das Duell damit klar.

Silverbuster
2007-05-24, 12:29:16
Was ist an den Spielen alt? Haste ne Ahnung wieviele Leute noch HL2 oder CS:S zocken?

Zudem sind auch nicht alle der neuen Spiele auf viel Shaderpower angewiesen!! Viele sind immer noch rein füllratenlimitiert.

HL2 oder CS sind über 2 Jahre alt. Diablo2 zocken auch noch sehr viele, nur ist es witzlos das mit neuen Karten zu Benchen, oder? Also schaut man nach neuen Bechs, den man will ja auch spiele spielen die erst noch kommen werden.

Neue Spiele setzen immer mehr auf Shaderleistung. Füllrate wird zweitrangig. Also kein Argument.

Und dieser schöne Vergleich in 2560x1600 4xAA/16xAF..... lol!
Wen interessieren Benchs die keine spielbaren FPS Werte bringen. Das Argument klingt für mich nach Erpsen zählerei. Fakt ist und bleibt, in aktuellen und kommenden Spielen verliert die 7950GX2. Teilweise überdeutlich.

Gast
2007-05-24, 12:44:54
HL2 oder CS sind über 2 Jahre alt. Diablo2 zocken auch noch sehr viele, nur ist es witzlos das mit neuen Karten zu Benchen, oder? Also schaut man nach neuen Bechs, den man will ja auch spiele spielen die erst noch kommen werden.

Alles eine Frage des persönlichen Profils. Ihr könnt hier gar kein Urteil fällen, wenn ihr nicht mal wisst, was der User überhaupt erwartet!

Diablo2 benchen macht wirklich keinen Sinn, weils auf 800x600 begrenzt ist. ;D

Bei HL2 siehts dagegen anders aus. Mit der GX2 kann man die Auflösung oder das Qualitätssetting höher drehen.

Und dieser schöne Vergleich in 2560x1600 4xAA/16xAF..... lol!
Wen interessieren Benchs die keine spielbaren FPS Werte bringen.

Du hast den Sinn dahinter überhaupt nicht verstanden.

Man testet in der Auflösung nur deshalb, um ein GPU limit zu erzeugen. Würde man in kleinen Auflösungen benchen, so besteht mit großer Wahrscheinlichkeit ein CPU limit und dann ist selbst ne 8800 Ultra nicht schneller. Das entspricht jedoch nicht der Realität!!

Bei HL2 äußert sich dies z.B. so:
1280x1024:
nVidia GeForce 8800 Ultra 156,7
nVidia GeForce 8800 GTX 153,6
nVidia GeForce 8800 GTS 126,6

Unterschied zwischen 8800 Ultra und GTS640: 23,7%

Jetzt nochmal mit höherer Qualität:
2560x1600 4xAA/16xAF:
nVidia GeForce 8800 Ultra 49,1
nVidia GeForce 8800 GTX 44,9
nVidia GeForce 8800 GTS 29,8

Unterscheid zwischen 8800 Ultra und GTS640: 64,8%

Der wirkliche Unterschied in der Leistung liegt also bei jedem GPU Limit bei knapp 60 % und nicht wie uns der andere Benchmark weiß machen will, bei nur 23,7 %.

Wenn eine Grafikkarte bei 2560x1600 bedeutend schneller ist, so wird sie es auch bei niedrigen Auflösungen mit höheren Qualitätssetting sein.

Gast
2007-05-24, 12:48:31
SC4

Die Werte sind für die Tonne.

nVidia GeForce 8800 GTS 15,9
nVidia GeForce 7900 GTX 9,9
nVidia GeForce 7950 GT 9,6
nVidia GeForce 7950 GX2 9,2

Da scheint das Profil nicht zu funzen, denn eine GX2 ist niemals langsamer als eine GT, wenn SLI funktioniert.

Selbst bei einer 80% SLI Skalierung hätte sie schon 16,56fps.

Silverbuster
2007-05-24, 12:52:23
Ich habe den Sinn schon verstanden, aber bei Modernen Spielen läuft auch eine 8800Ultra in 1600x1200 8xAA/16FFA am Limit.
Und ein HL Test ist immer noch völlig unwichtig. Das kann ich auch mit einer 7600GT 8xAA/16FFA flüssig spielen. Die Engine ist zu alt. Ich kaufe eine Karte um Zukünftige Spiele zocken zu können, nicht um alte Spiele, die so oder so schon flüssig laufen noch flüssiger zu spielen.
Dazu ist HL ein Spiel das generell CPU Limitiert ist, ähnlich wie NFS. Aber Teste mal Spiele die GPU Lastig sind. Und auch Aktuell sind. Da verliert die 7950GX2... das ist immer noch Fakt.

Und was hier auch noch einige nicht verstanden haben.... Nur weil man ein SLI System hat, heißt das nicht automatisch das die zweite Karte auch richtig genutzt wird. Spiele müssen das auch unterstützen, das liegt nicht nur am Treiber. Dazu gibts auch ne menge Benchs. Und wen SLI nicht richtig genutzt wird, sieht man ganz alt aus mit einer GX2!

Spasstiger
2007-05-24, 12:57:42
Hm, ich überlege mir ernsthaft, die Karte zu kaufen. Ok, kein MSAA mit HDRR ist hässlich, aber von der Performance her ist sie meiner Radeon X1900 AIW definitiv überlegen, auch in Oblivion oder Gothic 3. Und für meine X1900 AIW bekomme ich auch noch einen ordentlichen Preis, da Vollausstattung (Fernbedienung, Adapter, Spiel, etc.) plus 22 Monate Gewährleistung vorhanden sind.

Außerdem wird die 7950 GX2 auch in ein paar Monaten bei Ebay noch einen guten Preis erzielen, weil der Laie nur denkt: "Geil, zwei Grafikchips, 1 GB Grafikspeicher und so billig".

EDIT: Dass die Karte unter Last so laut ist wie eine X1900 XT, schreckt mich allerdings ab.
Und in Splinter Cell 4 fps-mäßig um Welten hinter einer X1900 XT.

Gast
2007-05-24, 13:03:26
Ich habe den Sinn schon verstanden, aber bei Modernen Spielen läuft auch eine 8800Ultra in 1600x1200 8xAA/16FFA am Limit.

Genau das meine ich doch! Die meisten Tester nutzen aber nur maximal 4xAA, weshalb auch eine GX2 noch nicht ihre volle Leistung zeigen kann. Denn die liegt teilweise auf Niveau einer GTS640 oder manchmal gar darüber. Klar zu wenig für so eine Karte.

Wenn man in 1280x1024 einen Unterschied zwischen zwei GPUs ausmachen will, dann bitte auch so, das die Karte gefordert wird und nicht die CPU die Ergebnisse beeinflusst. 4 faches AA reicht dafür eben noch nicht.

Dazu ist HL ein Spiel das generell CPU Limitiert ist, ähnlich wie NFS. Aber Teste mal Spiele die GPU Lastig sind.

Du hast es leider immer noch nicht verstanden. Wie man ganz klar sieht, verlagert sich die Last bei 2560x1600 stark auf die GPU, deshalb ist dort der Unterschied fast dreimal so groß wie in 1280x1024!

Ob ein game dabei eher CPU limitiert ist, ist völlig wurscht. Ab einer gewissen Auflösung ist es nicht mehr so. Ich garantiere dir eine 100%ige GPU limitiert bei HL2, wenn du in 2560x1600 8xAA bencht.

Merke: Ein System ist nur so schnell, wie seine langsamste Komponente!

AnarchX
2007-05-24, 13:09:59
EDIT: Dass die Karte unter Last so laut ist wie eine X1900 XT, schreckt mich allerdings ab.
Und in Splinter Cell 4 fps-mäßig um Welten hinter einer X1900 XT.

Link? Bei CB scheint SLI nicht zu laufen.

Naja, für 179€ bietet die GX2 durchaus ein interessantes Packet aus Übertaktbarkeit(~20%), Faszination eines Multi-GPU-Systems und Leistung in einigen Titeln.

Wo hingegen auf der anderen Seite die Bildqualitätsfeatures und die Leistung in einigen Titeln sehr zu wünschen lässt.

Aber wirklich etwas falsch machen kann man hier imo nicht.

Gast
2007-05-24, 13:13:02
Aber Teste mal Spiele die GPU Lastig sind. Und auch Aktuell sind. Da verliert die 7950GX2... das ist immer noch Fakt.

Das ist kein Fakt, sondern völliger blödsinn.

Hier haste mal ein paar Beispiele:
Anno 1701
2560x1600 4xAA/16xAF:
nVidia GeForce 8800 GTS 7,7
nVidia GeForce 7950 GX2 6,9

GTS640 nur um 11,6% schneller, aber 60% teurer.
GX2 gewinnt das Duell klar.

Stalker
2560x1600 1xAA/16xAF:
nVidia GeForce 8800 GTS 14,7
nVidia GeForce 7950 GX2 11,6

GTS640 nur um 26,7% schneller, aber 60% teurer.
GX2 gewinnt das Duell klar.

Selbst in Stalker, das gerade erst rauskam, gewinnt die GX2 deutlich, wenn ums Preis-Leistungsverhältniss geht.

Ich würde gerne noch mehr Benches liefern, aber CB liefert leider keine und andere Seiten testen mit deutlich schwächeren CPUs, die das Ergebniss verfälschen.

Spasstiger
2007-05-24, 13:17:11
Das ist kein Fakt, sondern völliger blödsinn.

Hier haste mal ein paar Beispiele:
Anno 1701
2560x1600 4xAA/16xAF:
nVidia GeForce 8800 GTS 7,7
nVidia GeForce 7950 GX2 6,9

GTS640 nur um 11,6% schneller, aber 60% teurer.
GX2 gewinnt das Duell klar.

Stalker
2560x1600 1xAA/16xAF:
nVidia GeForce 8800 GTS 14,7
nVidia GeForce 7950 GX2 11,6
Such mal Benches raus, wo wenigstens 25 fps erreicht werden, bei 6,9 oder 11,6 fps will doch kein Mensch spielen.

Mr. Lolman
2007-05-24, 13:21:05
Link? Bei CB scheint SLI nicht zu laufen.

Naja, für 179€ bietet die GX2 durchaus ein interessantes Packet aus Übertaktbarkeit(~20%), Faszination eines Multi-GPU-Systems und Leistung in einigen Titeln.

Die Faszination ist imo die Gleiche wie bei Dualcore. Nämlich zu wissen, dass der 2. chip nie zu 100% augelastet wird. Bei xbitlabs ist auch kein SLI-Profil aktiv. http://www.xbitlabs.com/articles/video/display/7games-spring2007_10.html

Naja, aber das gehört ja auch irgendwie dazu bei SLI. Nämlich, neben andauernden Treiberinstallationen (war bei mir zumindest bei der 6800GT der Fall => Hm. das könnte sicher noch besser rennen. Installieren wir mal den letzten Beta), noch mit den SLI-Bits herumzuwerken. Die Lastanzeige einzuschalten; sich zu überlegen, ob mit 8xS anstatt 4xAA die Karte nicht besser ausgelastet wär, usw...

Für nen technikinteressierten Bastler ist das sicher ganz spassig. Für nen Gamer der eher möglichst unkompliziert und einfach zum maximalen Spielgenuss kommt, eher kontraproduktiv.

Such mal Benches raus, wo wenigstens 25 fps erreicht werden, bei 6,9 oder 11,6 fps will doch kein Mensch spielen.

Liegt ja zum Großteil an TSAA/AAA. Also entweder ganz ausschalten, oder Performance AA (zumindest bei ATi möglich) nehmen. Oder gleich TRMSAA bzw EATM.

Gast
2007-05-24, 13:21:56
Es ist doch so, dass es für 179€ aktuell nichts Vergleichbares gibt. Wer dieses Budget (+/-20€) hat, macht mit der Karte doch wirklich nicht viel falsch. Die Leistung ist up to date, Features bis auf D3D10 und Filterqualität auch - HDCP wird auch unterstützt. Und lauter als eine X1800/X1900XT(X) ist die Karte definitiv nicht. ;)

Gast
2007-05-24, 13:24:05
Such mal Benches raus, wo wenigstens 25 fps erreicht werden, bei 6,9 oder 11,6 fps will doch kein Mensch spielen.

Wieder einer mehr, der es nicht verstanden hat. Wenn 2560x1600 4xAA spielbar ist, dann ist es 1280x1024 6xAA erst recht.

Und warum fällt es euch so unheimlich schwer logisch zu denken:confused: Wenn ein Setting unspielbar ist, dann passt man die Einstellungen eben an! Dazu braucht man nicht mal die Auflösung anrühren. Wenn 6xAA lahm ist, nutzt man eben nur 4x oder 2x. Problem gelöst!

Spasstiger
2007-05-24, 13:25:33
Was mir bei der 7950 GX2 auch noch aufstößt: Die üble Filterqualität. Ich hab jedenfalls die GeForce 6800 gesehen und das AF in Oblivion und GTA:San Andreas ist zumindest gegenüber meiner X1900 AIW unter aller Kanone.
Dafür reizen wieder die Hybrid-AA-Modi.

AnarchX
2007-05-24, 13:26:46
Was mir bei der 7950 GX2 auch noch aufstößt: Die üble Filterqualität. Ich hab jedenfalls die GeForce 6800 gesehen und das AF in Oblivion und GTA:San Andreas ist zumindest gegenüber meiner X1900 AIW unter aller Kanone.
Dafür reizen wieder die Hybrid-AA-Modi.

Dann solltest wohl doch noch etwas warten und die später eine günstige 88GTS/GTX holen. ;)

Ich würde mir sie persönlich auch nicht holen, zwar wäre sie um Welten schneller als meine 6800GT, aber im Endeffekt bleibt es beim gleichen Featureset, was mir doch etwas langweilig ist.

Gouvernator
2007-05-24, 13:27:22
Was nützen dir dann noch die Hybrid Modi? Es flimmert doch überall.

James Ryan
2007-05-24, 13:30:33
Was nützen dir dann noch die Hybrid Modi? Es flimmert doch überall.

Die Hybridmodi können dies aber etwas dämpfen. ;)

@Topic
Für den Preis eine GX2 ist schon sehr gut, eine 8800 GTS kostet mal eben 100€ mehr und bietet zwar DX10 und besseres AF, aber so viel schneller ist sie auch nicht.

MfG :cool:

Spasstiger
2007-05-24, 13:32:00
Dann solltest wohl doch noch etwas warten und die später eine günstige 88GTS/GTX holen. ;)
Jo, ich glaub auch. Die Negativpunkte sind doch recht schwerwiegend, unter Last lauter als meine X1900 AIW, langsamer, wenn SLI nicht geht, rückständige AF-Qualität, kein MSAA mit HDRR.
Am Ende fällt die 8800 GTS 640 MB noch unter 250€ und ich ärgere mich.
Außerdem kommt jetzt eh der Sommer und die nächste Prüfungssaison, wo ich dann eh nicht so viel Zeit zum intensiven Zocken finde.

Die gelbe Eule
2007-05-24, 13:33:14
Also zwei 7900GT für 180€ neu, da kann man nicht meckern. Wer immer schonmal SLi testen wollte und den Platz dafür im Gehäuse hat, der spart zur 8800GTS 320 mal eben 75€ zur 640 125€, hat aber fast gleiche Performance, wenn auch mit Abstrichen in der Filterung, was aber zu verschmerzen ist bei dem Preis.

Mr. Lolman
2007-05-24, 13:33:45
Es ist doch so, dass es für 179€ aktuell nichts Vergleichbares gibt. Wer dieses Budget (+/-20€) hat, macht mit der Karte doch wirklich nicht viel falsch. Die Leistung ist up to date, Features bis auf D3D10 und Filterqualität auch - HDCP wird auch unterstützt. Und lauter als eine X1800/X1900XT(X) ist die Karte definitiv nicht. ;)

Seitens NV nicht. Aber:

PowerColor Radeon X1950 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe: 195€
http://geizhals.at/eu/a243435.html

Ne nette Alternative wär zb auch (die mit OC ~X1900XT Speed erreichen düfte und zusätzlich nen Tv-Tuner mitbringt):

ATI All in Wonder X1900, 256MB GDDR3, DVI, ViVo, PCIe: 128€
http://geizhals.at/deutschland/a185580.html

Gouvernator
2007-05-24, 13:34:28
Die Hybridmodi können dies aber etwas dämpfen. ;)

@Topic
Für den Preis eine GX2 ist schon sehr gut, eine 8800 GTS kostet mal eben 100€ mehr und bietet zwar DX10 und besseres AF, aber so viel schneller ist sie auch nicht.

MfG :cool:
Das tun sie nicht. ;)

Mr. Lolman
2007-05-24, 13:35:35
Das tun sie nicht. ;)

Und selbst wenn, dann ists imo außerst unsinnig, 50% der Performance dafür zu opfern...

AnarchX
2007-05-24, 13:36:10
Das tun sie nicht. ;)

Kommt wohl auf das Game drauf an, bei mir wird in UT2004 jedenfalls das Flimmern durch 8xS relativ gut reduziert und kostet teilweise weniger als 4xAA mit HQ-AF.;)

Gouvernator
2007-05-24, 13:37:45
Ja stimmt, das Game ist ganz wichtig.

Silverbuster
2007-05-24, 13:41:43
Da würde ich auch eher zu einer X1950XT 512MB greifen. In den neuen Spielen ist sie in der Regel sogar schneller..... in Spielbaren Auflösungen! Und hab dazu noch sichtbar bessere Bildqualität.

Odal
2007-05-24, 13:45:34
Die scheinen jetzt ja den alten Müll herauszuhaun...liegen wohl soviel 7950GT Chips auf Halde und müssen raus.
Würde ich mir nicht kaufen das Ding. Ständig Probs mit SLI Profilen um gerade mal die Performance von einer ähnlich preislich liegenden Single GPU Karte zu erreichen. Dabei katastrophale Bildqualität und nichtmal alle DX9 Möglichkeiten ausgeschöpft. Der Preis ist nicht schlecht aber ich würde mir das nicht in den Rechner stecken, da sind die negativpunkte einfach zuviel. Gibt genug Alternativen.

James Ryan
2007-05-24, 14:13:07
Gibt genug Alternativen.

Nenne mir eine ähnlich perfomante Alternative für 180€!

MfG :cool:

Gast
2007-05-24, 14:14:33
Seitens NV nicht. Aber:

PowerColor Radeon X1950 XT, 512MB GDDR3, 2x DVI, ViVo, PCIe: 195€
http://geizhals.at/eu/a243435.html

Die wird aber teilweise um 50% deklassiert, auch wenn sie in einigen (wenigen) Games etwas schneller ist.

Außerdem ist das Übertaktungspotential bei dieser Karte eher mau. Ich hatte eine hier, die ging gerade mal auf ca. 654/850 ohne Fehler.

Gast
2007-05-24, 15:07:20
langsamer, wenn SLI nicht geht.Das liest man immer wieder, aber noch keiner konnte mir ein konkretes Spiel nennen, bei dem SLI unter WinXP nicht funktioniert. Spätestens wenn man den Nhancer zur Hilfe nimmt, bekommt man durch SLI praktisch immer ordentliche Performancezuwächse, wenn man GPU-limitiert ist.

Spartacus
2007-05-24, 15:58:44
Hallo!
Eigentlich wollte ich die 8800Gts kaufen doch bei diesem Preis bin ich echt am Überlegen ob ich nich lieber die 7950 nehme. Jetzt stellt sich aber die frage ob mein Netztteil dafür ausreicht. Ich habe 2 12V-Leitungen einmal mit 15A und einmal mit 14A.Falls eine einzelne nicht reicht,könnt ich dann eigentlich auch die beiden Leitungen zusammenschließen? :confused:
Wär sehr dankbar für Hilfe:smile:

Gast
2007-05-24, 16:13:31
Das liest man immer wieder, aber noch keiner konnte mir ein konkretes Spiel nennen, bei dem SLI unter WinXP nicht funktioniert. Spätestens wenn man den Nhancer zur Hilfe nimmt, bekommt man durch SLI praktisch immer ordentliche Performancezuwächse, wenn man GPU-limitiert ist.
Bei GTA San Andreas funzt SLi ncht richtig. Die Leistung verbessert sich aber beim Start bleibt für längere Zeit der Bildschirm schwarz, da das EAX und Rockstarlogo nicht angezeigt werden. Glaube auch, das ist der Grund warum nV da Einzel-GPU im Profil vorschlägt.

=Floi=
2007-05-24, 16:15:10
nun macht mal die alten karten nicht so schlecht
und das AF ist auch nicht so schlecht wie IHR es hinstellt...
(ausgerechnet die meckern hier die dann mit 8XAF spielen...)
das hauptproblem der karte ist der lüfter und den kann man eben nicht austauschen ansonsten ist das der abverkauf der karte weil selbst eine einzelne 7950GT noch gut über 210€ kostet
P/L ist sicherlich sehr sehr gut aber wenn man ein bischen wartet gibt es bald auch noch bessere alternativen zu einem ähnlichen preis
wer eine möchte kennt die qualitäten der karte

Gast
2007-05-24, 16:15:24
Bei GTA San Andreas funzt SLi ncht richtig. Die Leistung verbessert sich aber beim Start bleibt für längere Zeit der Bildschirm schwarz, da das EAX und Rockstarlogo nicht angezeigt werden.Hmm, bei mir hat es damals mit NV40-SLI einwandfrei funktioniert. Müsste dann wohl ein Problem neuerer Treiber sein.

Gast
2007-05-24, 16:19:41
Nenne mir eine ähnlich perfomante Alternative für 180€!

MfG :cool:
Gibt keine, man muss sich mal vorstellen, die Karte hat vor einem Jahr noch afaik um die 500 Kröten gekostet. Wenn's damal schon crap gewesen wäre, hätte die so gut wie keiner gekauft. Die ist jetzt nur so billig, da die Nachfolgergeneration sauschnell ist und Ottonormaluser sich so eine Karte nicht zulegt. Folglich muss mit aggressiven Preisen die Lager geräumt werden.

cara
2007-05-24, 16:35:46
Hui, das is wirklich ein wahnsinniges Schnäppchen! Obs sowas auch noch für AGP geben könnte?!:rolleyes:

up¦²
2007-05-24, 16:39:07
Gibt keine, man muss sich mal vorstellen, die Karte hat vor einem Jahr noch afaik um die 500 Kröten gekostet. Wenn's damal schon crap gewesen wäre, hätte die so gut wie keiner gekauft. Die ist jetzt nur so billig, da die Nachfolgergeneration sauschnell ist und Ottonormaluser sich so eine Karte nicht zulegt. Folglich muss mit aggressiven Preisen die Lager geräumt werden.
Ja - Ladenhüter seit der 8800...
an deren IQ kann sie nicht ran :wink:

Gast
2007-05-24, 16:53:50
Ja - Ladenhüter seit der 8800...
an deren IQ kann sie nicht ran :wink:
IQ auch, aber Hauptvorteil ist der Speed in neueren Spielen. Habe eine GTX und vorher eine 7900 GTX gehabt und bei den meisten Games musste ich auf meinem CRT sehr genau schauen, um die bessere Filterung zu erkennen (betrifft jetzt das Unterfiltern, nicht die Winkelunabhängigkeit). Hier wird das immer so dargestellt, als dass bei G80 nichts flimmern würde und bei G70 das ganze Bild am Grieseln ist. Dem ist aber nicht so. Vorteil ist, man kann noch mit der SSAA Keule anrücken, obwohl das bei neueren Games selbst mit ner GTX schon an einigen Stellen knapp wird.

Super Grobi
2007-05-24, 16:57:00
Hat die alte 7950gx2 eigentlich irgentwo Vorteile gegenüber einer 8800gts?

Wie läuft die Karte eigentlich mit STALKER im Vergleich zur 8800gts 640mb?

AnarchX
2007-05-24, 17:42:37
Hat die alte 7950gx2 eigentlich irgentwo Vorteile gegenüber einer 8800gts?
Man kann 2 GPUs und 1GB VRAM sein Eigen nennen. X-D

Naja, der größte Vorteil ist nunmal hier der Preis.


Wie läuft die Karte eigentlich mit STALKER im Vergleich zur 8800gts 640mb?
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/29/#abschnitt_stalker

Super Grobi
2007-05-24, 17:45:03
Danke für den guten Link :up:

Gruss
SG

AnarchX
2007-05-24, 17:51:47
das hauptproblem der karte ist der lüfter und den kann man eben nicht austauschen

Wenn man hier etwas begabt ist, wäre da sicherlich ein Weg zu einer leiseren LuKü:
http://www.swiftnets.com/assets/images/products/geforce-7950%20spacer-kit/picture-wb-v2.jpghttp://www.swiftnets.com/assets/images/products/geforce-7950%20spacer-kit/picture-web.jpg
http://www.xtremesystems.org/forums/showthread.php?t=112372

=Floi=
2007-05-24, 18:06:13
nur wo kriege ich diese steckverbindung her... (deutscher shop und mind. unter20€ )
(2X zalman gibt es auch nicht geschnekt)

noch ein nachteil gegenüber richtigem sli ist auch der betrieb mit 4 monitoren

ravage
2007-05-24, 18:06:23
Arrrr

Jetzt kribbelt es mir in den Fingern. Meine X1800 XL bringt für meinen 20" Widescreen einfach nicht genug Power. Ne neue CPU (C2D 4300 @ 3.0 Ghz) hab ich ja schon hier... aber ich glaub ich warte noch und kauf mir ne DX10 Karte... oder... *verzweifelt*

Super Grobi
2007-05-24, 18:09:43
Ach,
ihr immer mit euer DX10. Wenn das ersten DX10 Game drausen ist, wird bei einer GTS eh im DX9 gezockt, weil es sonst unspielbar ist.

SG

DevilX
2007-05-24, 18:11:03
hmm ich habe im moment ne 7800gtx..
meint ihr das lohnt sich oder sollte ich noch erstmal warten.

AnarchX
2007-05-24, 18:12:01
Ach,
ihr immer mit euer DX10. Wenn das ersten DX10 Game drausen ist, wird bei einer GTS eh im DX9 gezockt, weil es sonst unspielbar ist.


DX10 ist ja nicht nur Eye-Candy.;)

So wird es in einigen Situationen, dank Pass-Reduktionen mehr Leistung bringen (siehe LP bei PCGH) oder eben elementare Features ermöglichen, wie z.B. MSAA in UT3 nur im DX10-Pfad geht.

btw.

Nun kostet sie 189€...

Backet
2007-05-24, 18:18:08
DX10 ist ja nicht nur Eye-Candy.;)

So wird es in einigen Situationen, dank Pass-Reduktionen mehr Leistung bringen (siehe LP bei PCGH) oder eben elementare Features ermöglichen, wie z.B. MSAA in UT3 nur im DX10-Pfad geht.

btw.

Nun kostet sie 189€...


LOL. Angebot und Nachfrage. :)

Auf der ersten Seite meinte jemand man sollte noch ein paar Monate warten, weil die Karte dann vielleicht 10-20 € billiger ist.

Jetzt mal ganz im Ernst Jungs. Wartet jemand ein paar Monate wegen 20€?! Das ist ein Witz, den ich nicht verstehe, oder?!

erwingage
2007-05-24, 18:22:45
lohnt es von einer x1900xtx umzusteigen?:confused:
müsste meine bei ebay vertickern:cool:

Super Grobi
2007-05-24, 18:31:08
lohnt es von einer x1900xtx umzusteigen?:confused:
müsste meine bei ebay vertickern:cool:

Guck dir hier all die Spiele an und entscheide selber. Aber wenn du eh erst die alte Karte verkaufen musst, schätze ich mal, das es bisdahin die Karte nicht mehr gibt.

SG

Edit: Link vergessen *ggg* http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/29/#abschnitt_stalker

Gast
2007-05-24, 18:31:50
Bei GTA San Andreas funzt SLi ncht richtig. Die Leistung verbessert sich aber beim Start bleibt für längere Zeit der Bildschirm schwarz, da das EAX und Rockstarlogo nicht angezeigt werden. Glaube auch, das ist der Grund warum nV da Einzel-GPU im Profil vorschlägt.

Bei GTA brauchste auch kein SLI; denn das Spiel ist ne Konsolenumsetzung und läuft bei mir nur mit aktivierten Framelimiter fehlerfrei. Wenn ich den abstelle, habe ich überall Bildfehler. Und für 30fps reicht jede Karte der letzten paar Monate...

erwingage
2007-05-24, 18:33:01
Guck dir hier all die Spiele an und entscheide selber. Aber wenn du eh erst die alte Karte verkaufen musst, schätze ich mal, das es bisdahin die Karte nicht mehr gibt.

SG

Edit: Link vergessen *ggg* http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/29/#abschnitt_stalker

erst muss ich natürlich die 7950 holen und dann meine bei ebay vertickern:smile:
danke für den link;)

Super Grobi
2007-05-24, 18:34:47
erst muss ich natürlich die 7950 holen und dann meine bei ebay vertickern:smile:
danke für den link;)

Also wenn du die Knette hast, würde ich das machen. Dein System schreit ja gerade zu nach mehr GPU Power.

SG

erwingage
2007-05-24, 18:55:06
Also wenn du die Knette hast, würde ich das machen. Dein System schreit ja gerade zu nach mehr GPU Power.

SG

am geld solls nicht liegen,dafür geht man ja 8std. täglich wackeln:biggrin:

neuer preis 189€

BESTELLT

Fetza
2007-05-24, 19:26:02
Dann meld dich bitte im ensprechenden Thread, ich will auch wissen wie stabil die Geschichte läuft. ;)

Jup ok, ich habe aber gleich noch vor, einen oblivion "stress-test" durchzuführen, wenn die karte da zwei stunden lang ohne probs läuft sollte man das ganze ja als stabil betrachten können :-) Bisher habe ich so ne halbe stunde postal 2 gespielt und 2 mal den 3dmark 06 durchlaufen lassen.

Super Grobi
2007-05-24, 19:30:05
am geld solls nicht liegen,dafür geht man ja 8std. täglich wackeln:biggrin:

neuer preis 189€

BESTELLT

Gut gemacht! Der Preisanstieg deutet darauf, das Alternate nicht mehr viele hat. Hab das schon oft bei abverkauf beobachtet.

Wirst schon viel spass mit dem Teil haben, da bin ich mir sicher. Den nHancer in der neusten Version kannste dir schonmal runterladen ;)

Gruss
SG

Edit: Der "spezial-Shop" hat nachgezogen: http://www.hardwareschotte.de/hardware/preise/proid_8029295/preis_LEADTEK+GeForce+PX7950GX2

Mega-Zord
2007-05-24, 19:34:57
Ich hab mir heute nachmittag auch son Kärtchen bestellt. Mal sehen, wie sie sich im Vergleich zu meiner GTS schlägt... und dann wird eine von beiden wieder verkauft :D

Super Grobi
2007-05-24, 19:38:14
Ich hab mir heute nachmittag auch son Kärtchen bestellt. Mal sehen, wie sie sich im Vergleich zu meiner GTS schlägt... und dann wird eine von beiden wieder verkauft :D

:ulol: :uking: :uhammer:

ICH AUCH! *ggg* Versandbestätigung samt Paket-ID ist schon da. Die Karte bekommt man locker in 3M für 199 Euro SK bei eBay quit.

Gruss
SG

Edit: Aber erwarte nicht zuviel im vergleich zur GTS! In Prey und Quark3 geht die Karte ja wie die Hölle, aber sonst muss du mit mindestens -10% rechnen. Aber übertakten lassen sich die GX2 dafür NV typsich recht gut.

Mega-Zord
2007-05-24, 19:50:06
:ulol: :uking: :uhammer:

ICH AUCH! *ggg* Versandbestätigung samt Paket-ID ist schon da. Die Karte bekommt man locker in 3M für 199 Euro SK bei eBay quit.

Gruss
SG

Edit: Aber erwarte nicht zuviel im vergleich zur GTS! In Prey und Quark3 geht die Karte ja wie die Hölle, aber sonst muss du mit mindestens -10% rechnen. Aber übertakten lassen sich die GX2 dafür NV typsich recht gut.

Also bei den Engines die mich interesseiren laufen bei meiner Auflösung in etwa gleich schnell, die GTS und GX2 etwa gleich schnell.

Aber ich muss ja erst einmal die Versandbestätigung bekommen. Habe zur Zeit nur ne SMS mit der Auftragsbestätigung. Aber dank Online-Banking, sollte die Karte morgen rausgehen. Werden bestellt Produkte eigentlich reserviert bei denen oder verkaufen die fröhlich weiter und wer zu spät kommt den bestraft das Leben?

Kladderadatsch
2007-05-24, 19:52:36
hab auch bestellt.
7900gtx--> 7950x2 ist zwar nicht der sprung schlechthin, aber da ich meine bei ebay noch 150 krieg, nehm ich die für 40 euro doch gerne an;)

Super Grobi
2007-05-24, 19:56:20
@Mega-Zork

Da mach dir mal keine Sorgen. Alternate legt die Karte ja zurück, sobald man bestellt hat. Somit bekomsmt du garantiert eine ab.

hab auch bestellt.
7900gtx--> 7950x2 ist zwar nicht der sprung schlechthin, aber da ich meine bei ebay noch 150 krieg, nehm ich die für 40 euro doch gerne an;)


Lohnt sich auf jeden Fall! 1. sind 40 Euro nicht sooo viel Geld und zweites ist die GX2 mehr wert, als Alternate verlangt.

SG

krass
2007-05-24, 19:57:48
mmh, wie sieht es mit der lautstärke aus? irgendwie will ich auch :smile:

Super Grobi
2007-05-24, 20:02:29
mmh, wie sieht es mit der lautstärke aus? irgendwie will ich auch :smile:

Bütte schän: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/33/#abschnitt_lautstaerke

SG

Kladderadatsch
2007-05-24, 20:04:10
Lohnt sich auf jeden Fall! 1. sind 40 Euro nicht sooo viel Geld und zweites ist die GX2 mehr wert, als Alternate verlangt.

SG
jetzt nur noch hoffen, dass das tagan 380 watt die karte mitmacht:ugly:

Kladderadatsch
2007-05-24, 20:04:55
Bütte schän: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/33/#abschnitt_lautstaerke

SG
so wie du die leute hier animierst steckst du da doch irgendwie mit irgendwas unter einer decke:uponder:

Mega-Zord
2007-05-24, 20:07:20
jetzt nur noch hoffen, dass das tagan 380 watt die karte mitmacht:ugly:

Alter das NT hat 22A auf 12V! Damit solltest du locker hinreichen, wenn du nicht gerade zig Platten und ne CPU mit ner Verlustleistung jenseits der 150W hast.

so wie du die leute hier animierst steckst du da doch irgendwie mit irgendwas unter einer decke

Grobi ist doch hier der Forum-Ama... ähh Animateur ;D

Super Grobi
2007-05-24, 20:07:35
so wie du die leute hier animierst steckst du da doch irgendwie mit irgendwas unter einer decke:uponder:

Weil ich Fragen beantworte? Wäre aber schön, dann bräuchte ich morgen den DHL Mann kein Geld geben.

ich kann dir versichern, das ich (leider) mit Alternate nichts zu tun habe.

Zu dein NT: Unter Last verbrät die gx2 12% mehr.

SG

Kladderadatsch
2007-05-24, 20:12:16
Weil ich Fragen beantworte? Wäre aber schön, dann bräuchte ich morgen den DHL Mann kein Geld geben.

ich kann dir versichern, das ich (leider) mit Alternate nichts zu tun habe.

mensch, der post hat doch vor ironie geradezu getrieft;)

Mega-Zord
2007-05-24, 20:14:01
Weil ich Fragen beantworte? Wäre aber schön, dann bräuchte ich morgen den DHL Mann kein Geld geben.

ich kann dir versichern, das ich (leider) mit Alternate nichts zu tun habe.

Zu dein NT: Unter Last verbrät die gx2 12% mehr.

SG

12% mehr als was?

Was willst du mit Alternate zu tun haben... bin ganz froh, dass ich da nur Kunde bin. Würde da höchstens als Inhaber arbeiten wollen, aber die Stelle scheint schon besetzt und darum ist meine Bewerbung um diese Stelle wohl überflüssig :D

Gast
2007-05-24, 20:20:27
Hier mal was zur Übertaktbarkeit:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/25/#abschnitt_uebertaktbarkeit
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_3x_nvidia_geforce_7950_gx2/23/#abschnitt_uebertaktbarkeit

Bei der Standard GX2 haben die es geschafft, den Core von 500 MHz auf 600 MHz anzuheben und den Speichertakt von 600 auf 820 MHz! :eek:
Das entspricht einer Steigerung von 20 % bei beiden GPUs und 36,7 % beim Speicher! :eek:

Auf der Karte werden zwei G71 verbaut, die abgesehen von der verringerten Kernspannung (wieviel genau?) sich nicht von der GTX unterscheiden und sich am ehesten mit einer ~7950GT vergleichen lassen. Die wird immerhin mit bis zu ~610 MHz ausgeliefert.

Super Grobi
2007-05-24, 20:23:29
12% mehr als was?

(...)

Also seine jetzige unter Volllast.

Gruss
SG

@Gast

Ja die übertaktbarkeit ist wirklich gut. Also man kann gleich, ohne rumtesten, den Regler auf 550mhz GPU und 700mhz Ram schieben. Das sollte JEDE Karte 24/7 ohne murren und fehler packen.

=Floi=
2007-05-24, 20:35:18
kommt mal wieder runter von den hype und schaut euch lieber mal die lautstärke unter last an...
und hinterher soll keiner enttäuscht sein...

Kladderadatsch
2007-05-24, 20:37:00
Auf der Karte werden zwei G71 verbaut, die abgesehen von der verringerten Kernspannung (wieviel genau?) sich nicht von der GTX unterscheiden und sich am ehesten mit einer ~7950GT vergleichen lassen. Die wird immerhin mit bis zu ~610 MHz ausgeliefert.
jo, schaut euch das mal an: http://www.technic3d.com/?site=article&action=article&a=369&p=4

500/600--> 580/765
prey: 63--> 80
far cry: 84--> 100

ich glaube, das gibt meine erste karte, bei der oc nicht nur messbar wird.

Mr. Lolman
2007-05-24, 20:45:05
am geld solls nicht liegen,dafür geht man ja 8std. täglich wackeln:biggrin:

neuer preis 189€

BESTELLT

Lol um 6€ mehr gibts ne X1950XT mit besserer BQ, mehr Leistung in neuen Spielen und ohne SLI-Stress - und trotzdem fahren alle auf dieses Dual-GPU Monster ab. Ich packs nicht ;D;D

Super Grobi
2007-05-24, 20:45:18
Und nu sind es schon 199 Euro und 3-5 Tage Lieferfrist.

SG

Lol um 6€ mehr gibts ne X1950XT mit besserer BQ, mehr Leistung in neuen Spielen und ohne SLI-Stress - und trotzdem fahren alle auf dieses Dual-GPU Monster ab. Ich packs nicht ;D;D


Lach nur und kauf dir die Ati (256Mb, oder?). Aber vergess nicht den Gehörschutz mit zu bestellen. ;)

Gast
2007-05-24, 20:54:39
Lol um 6€ mehr gibts ne X1950XT mit besserer BQ, mehr Leistung in neuen Spielen und ohne SLI-Stress - und trotzdem fahren alle auf dieses Dual-GPU Monster ab. Ich packs nicht ;D;D
Er hat doch schon ne X1900XT. Scheint aber mit der Power nicht mehr zufrieden sein und für nen Appel und en Ei gibt es jetzt die GX2 hinterhergeworfen. So billig war es noch nie, in den Genuss eines besseren "SLi Systems" zu kommen.

Odal
2007-05-24, 20:57:42
Er hat doch schon ne X1900XT. Scheint aber mit der Power nicht mehr zufrieden sein und für nen Appel und en Ei gibt es jetzt die GX2 hinterhergeworfen. So billig war es noch nie, in den Genuss eines besseren "SLi Systems" zu kommen.


jo nur das er sich da net wirklich verbessert.. aber hauptsache 2 GPUs im Rechner haben *lol* das erinnert mich an die leute mit 6600GT SLI system :rolleyes:

Byteschlumpf
2007-05-24, 20:59:29
Lol um 6€ mehr gibts ne X1950XT mit besserer BQ, mehr Leistung in neuen Spielen und ohne SLI-Stress - und trotzdem fahren alle auf dieses Dual-GPU Monster ab. Ich packs nicht ;D;D
Die Filterqualität des Gf7 ist sicher nicht viel besser, wie die einer X800.
Ich würde da doch eher eine X19x0XT/X oder eine G80 vorziehen, da meine Augen nach wirklich guter Filterqualität verlangen! ;)

Super Grobi
2007-05-24, 21:00:23
jo nur das er sich da net wirklich verbessert.. aber hauptsache 2 GPUs im Rechner haben *lol* das erinnert mich an die leute mit 6600GT SLI system :rolleyes:

Na gönn den Leuten doch das gefummel und das *hab was neues*.

SG

erwingage
2007-05-24, 21:01:55
Lol um 6€ mehr gibts ne X1950XT mit besserer BQ, mehr Leistung in neuen Spielen und ohne SLI-Stress - und trotzdem fahren alle auf dieses Dual-GPU Monster ab. Ich packs nicht ;D;D


he mr. lolman augen auf :biggrin:
ich hab schon ne x1900xtx im rechner:wink:
wie gesagt die geht zu ebay und fertig:biggrin:

Mr. Lolman
2007-05-24, 21:02:48
Lach nur und kauf dir die Ati (256Mb, oder?). Aber vergess nicht den Gehörschutz mit zu bestellen. ;)

512MB. Und leise ist sie auch: http://geizhals.at/eu/a243435.html :P

Er hat doch schon ne X1900XT. Scheint aber mit der Power nicht mehr zufrieden sein und für nen Appel und en Ei gibt es jetzt die GX2 hinterhergeworfen. So billig war es noch nie, in den Genuss eines besseren "SLi Systems" zu kommen.

Jo, genau. Kein Area-AF, kein PAAA, kein EATM, kein HDRR+AA. Bei neueren Spielen langsamer, Stress mit SLI-Bits, lauter, mehr Stromverbrauch und insgesamt im Qualitätsrating bei CB (inkl alter Spiele) auch nicht flotter als ne X1900XTX. Im Gegenteil, bei steigender Last gerät sie immer mehr ins Hintertreffen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

he mr. lolman augen auf :biggrin:
ich hab schon ne x1900xtx im rechner:wink:
wie gesagt die geht zu ebay und fertig:biggrin:


Dann muss dir entweder sehr langweilig sein, du hast dich nicht gescheit informiert, oder du bist masochistisch veranlagt und gibst gern Kohle für ein Downgrade aus. Sry, für die harten Worte, aber so isses!

Dr. Frust
2007-05-24, 21:02:52
Lach nur und kauf dir die Ati (256Mb, oder?). Aber vergess nicht den Gehörschutz mit zu bestellen. ;)Die x1950xt hat 512 MiB vRam, tatsächlich das bessere Bild und kostet 195 €.

Mr. Lolman
2007-05-24, 21:05:33
Die Filterqualität des Gf7 ist sicher nicht viel besser, wie die einer X800.
Ich würde da doch eher eine X19x0XT/X oder eine G80 vorziehen, da meine Augen nach wirklich guter Filterqualität verlangen! ;)

Auf HQ ziemlich gleichwertig mit AIlow. Tw. vll etwas flimmerfreier, dafür gibts den "White-lines"-Stress bei div. Rennspielen.

Poweraderrainer
2007-05-24, 21:06:29
aber hauptsache 2 GPUs im Rechner haben *lol* das erinnert mich an die leute mit 6600GT SLI system

was sind das denn für leute? sag schon, spann mich nicht auf die folter!:biggrin:

ich liebe gefummel, deswegen hatte ich auch ein 7600GS- und ein 7600GT SLI-gespann - und deswegen habe ich mir auch eine 7950GX2 bestellt heute mittag ;D

Kladderadatsch
2007-05-24, 21:07:50
Lol um 6€ mehr gibts ne X1950XT mit besserer BQ, mehr Leistung in neuen Spielen
in stalker (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/29/#abschnitt_stalker) oder call of juarez (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez) z.b.?;)
von der d3-engine ganz zu schweigen.
(was da in splinter cell 4 oder rainbow six vegas queroliert, interessiert mich nicht. da ist auch eine 7900gtx schneller als die gx2, aber noch lange nicht spielbar..)

ps.: oc nicht vergessen.

Gast
2007-05-24, 21:08:53
mehr Leistung in neuen Spielen

Die GX2 hat so viel Rohpower, das dies mehr als ausgeglichen wird. Immerhin verfügt sie über doppelt so viele Recheneinheiten wie die 7900GTX. Wenn die 7900GTX deutlich langsamer ist als die X19xx Serie, muss es die GX2 noch lange nicht sein!!

http://www.xbitlabs.com/images/video/foxconn-8800gtx/coj_hdr.gif
http://www.xbitlabs.com/images/video/foxconn-8800gtx/graw_hdr.gif
http://www.xbitlabs.com/images/video/foxconn-8800gtx/prey_4x.gif

Das dieser mist immer wieder verallgemeinert wird, spricht Bände!

Super Grobi
2007-05-24, 21:13:21
*hust*

Das 199 Euro Bundle ist wohl mit USB 1gb STick und Antiwiren Soft. Hab ich garnicht gesehen. Somit ist das allte Bundle schon weg und deshalb kostet dieses jetzt mehr.

SG

Gast
2007-05-24, 21:14:27
Somit ist das allte Bundle schon weg und deshalb kostet dieses jetzt mehr.

Nö.
http://www.alternate.de/html/product/details.html?articleId=205517

Super Grobi
2007-05-24, 21:15:41
Nö.
http://www.alternate.de/html/product/details.html?articleId=205517


*ggg*

Das hab ich gerade nicht mehr gefunden und war nicht mehr online. Komsich


SG

http://www.alternate.de/html/shop/productDetails.html?artno=jcxln3&baseId=9774

p.s.
ist kein USB stick, sonder SD Card (hab ich mir sagen lassen)

Gast
2007-05-24, 21:16:49
Geh in die NVIDIA Rubrik und sortiere nach Speichermenge.

Es gibt 2 Bundles, das eine ist 10 Euro teurer und hat ne 1 GB SD Card + Software dabei.

Mr. Lolman
2007-05-24, 21:18:40
call of juarez (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez) z.b.?;) .

In COJ? Das geht ja nicht mal SM3.0 + AA. Und in Stalker hat CB wohl mit Treiber-AF gebencht. App-AF ist deutlich schneller.

Die GX2 hat so viel Rohpower, das dies mehr als ausgeglichen wird. Immerhin verfügt sie über doppelt so viele Recheneinheiten wie die 7900GTX. Wenn die 7900GTX deutlich langsamer ist als die X19xx Serie, muss es die GX2 noch lange nicht sein!!

http://www.xbitlabs.com/images/video/foxconn-8800gtx/coj_hdr.gif
http://www.xbitlabs.com/images/video/foxconn-8800gtx/graw_hdr.gif
http://www.xbitlabs.com/images/video/foxconn-8800gtx/prey_4x.gif

Das dieser mist immer wieder verallgemeinert wird, spricht Bände!

Recht hast du. Sie kann tw. auch schneller sein. Trotzdem ists ne finanzielle Investition, mit den oben genannten Nachteilen, und bestenfalls ein Sidegrade:

http://www.xbitlabs.com/images/video/foxconn-8800gtx/cnc3_4x.gif

http://www.xbitlabs.com/images/video/foxconn-8800gtx/coh_af.gif

http://www.xbitlabs.com/images/video/foxconn-8800gtx/scm_4x.gif

(Es hat doch keinen Sinn, das Spielchen mit den Benchmarkwars weiter zu betreiben. Einigen wir uns darauf, dass es sinnfrei ist, eine GX2 einer X1900XTX vorzuziehen?)

erwingage
2007-05-24, 21:21:11
In COJ? Das geht ja nicht mal SM3.0 + AA. Und in Stalker hat CB wohl mit Treiber-AF gebencht. App-AF ist deutlich schneller.



Recht hast du. Sie kann tw. auch schneller sein. Trotzdem ists ne finanzielle Investition, mit den oben genannten Nachteilen, und bestenfalls ein Sidegrade:

http://www.xbitlabs.com/images/video/foxconn-8800gtx/cnc3_4x.gif

http://www.xbitlabs.com/images/video/foxconn-8800gtx/coh_af.gif

http://www.xbitlabs.com/images/video/foxconn-8800gtx/scm_4x.gif

(Es hat doch keinen Sinn, das Spielchen mit den Benchmarkwars weiter zu betreiben. Einigen wir uns darauf, dass es sinnfrei ist, eine GX2 einer X1900XTX vorzuziehen?)

das werde ich schon noch mitbekommen:D

Gast
2007-05-24, 21:28:17
Einigen wir uns darauf, dass es sinnfrei ist, eine GX2 einer X1900XTX vorzuziehen?)

Nö. Der Umstieg macht schon Sinn. Featuremäßig mag die Karte vielleicht zurückhingen, aber das interessiert nicht jeden.

Mir wären 50-100 % Performance in ne menge Anwendungen lieber, als die Möglichkeit HDR+AA zu fahren, das übrigens oft zu langsam ist, um es überhaupt sinnvoll nutzen zu können mit der DX9 Generation.

Zudem ist Supreme Commander das denkbar schlechteste Beispiel. Das Spiel ist hochgrad CPU limitiert ... bei C&C vermute ich das ebenfalls, es müssen ja ne menge Einheiten berechnet werden. Hängt also davon ab, was im Benchmark zu sehen ist.

Mr. Lolman
2007-05-24, 21:31:37
Nö. Der Umstieg macht schon Sinn. Featuremäßig mag die Karte vielleicht zurückhingen, aber das interessiert nicht jeden.

Mir wären 50-100 % Performance in ne menge Anwendungen lieber, als die Möglichkeit HDR+AA zu fahren, das übrigens oft zu langsam ist, um es überhaupt sinnvoll nutzen zu können mit der DX9 Generation.

Wo denn gibts 100% Mehrperformance? In irgendnem uralt Spiel? Und was macht man mit soviel fps? BTW: Ich hab bis jetzt noch jedes Spiel mit HDR+AA gespielt (auf ner X1900XTX).

Der Umstieg ist imo absolut sinnfrei.


Zudem ist Supreme Commander das denkbar schlechteste Beispiel. Das Spiel ist hochgrad CPU limitiert ... bei C&C vermute ich das ebenfalls, es müssen ja ne menge Einheiten berechnet werden. Hängt also davon ab, was im Benchmark zu sehen ist.

Genau, und bevor man gerade noch ausreichend viele fps hat, nimmt man lieber ne GraKa, wos gleich komplett unspielbar ist.

Kladderadatsch
2007-05-24, 21:34:56
(Es hat doch keinen Sinn, das Spielchen mit den Benchmarkwars weiter zu betreiben. Einigen wir uns darauf, dass es sinnfrei ist, eine GX2 einer X1900XTX vorzuziehen?)
nö. ich spiele keines der von dir geposteten spiele, die von mir und dem gast geposten aber schon. könnte daran liegen, dass das eine strategiespiele, das andere shooter sind. wer profitiert da jetzt eher? der, der coh mit 31 statt 30 (gx2) fps zockt, oder der, der ghost recon mit 56 (gx2) statt 34 fps spielt?

Gast
2007-05-24, 21:36:15
Wo denn gibts 100% Mehrperformance?

Augen auf. Ein paar Posting vorher siehste schon drei von x beliebigen.

Dumm, das nur wenige überhaupt zum Benchmarken genutzt werden. Schließlich gibts nicht nur 20-30 Games, sondern zehntausende.

Und was macht man mit soviel fps?

Qualitätsettings oder Auflösung höher drehen und sich an der besseren BQ erfreuen.

Genau, und bevor man gerade noch ausreichend viele fps hat, nimmt man lieber ne GraKa, wos gleich komplett unspielbar ist.

Ist es doch gar nicht. Ein Benchmark bildet niemals die Realität ab.

Wenn ich mir die Benches von Oblivion ansehe, dann sieht man dort überall nur 35fps, schon in Auflösungen wie 1600x1200 0xAA.

Wie kommt es dann, das ich dieses game mit einer deutlich schlechteren Karte durchgehend flüssig zocken könnte? Sag mir das mal bitte!

erwingage
2007-05-24, 21:36:43
nö. ich spiele keines der von dir geposteten spiele, die von mir und dem gast geposten aber schon. könnte daran liegen, dass das eine strategiespiele, das andere shooter sind. wer profitiert da jetzt eher? der, der coh mit 31 statt 30 (gx2) fps zockt, oder der, der ghost recon mit 56 (gx2) statt 34 fps spielt?

recht haste:biggrin:

Gast
2007-05-24, 21:38:51
Außerdem sprechen die Ergebnisse dafür, das C&C3 CPU limitiert ist, denn die 8800GTX kann sich gar nicht absetzen.

Zudem scheint bei C&C3 und SC SLI gar nicht zu funktionieren, wundert mich aber auch nicht, diese games sind recht neu. Teste das bitte nochmal mit den Treibern der nächsten Wochen oder mit einem eigenen Profil ...

Mr. Lolman
2007-05-24, 21:52:56
Augen auf. Ein paar Posting vorher siehste schon drei von x beliebigen.

Mir scheint du leidest an Realtitätsverlust. 100% gibts nur in einem Spiel in einer bestimmten Auflösung, der von dir geposteten Benchmarks.

Dumm, das nur wenige überhaupt zum Benchmarken genutzt werden. Schließlich gibts nicht nur 20-30 Games, sondern zehntausende.


Erzähl du MIR bitte nix vom Benchmarken, ich hab mit der 3DC-Crew gemeinsam realtitätsnähere Benchmarkpraktiken ersonnen :P
Und wenn du eins der vielen 3DC-Reviews liest, wirst du auch wissen, woran so ziemlich ALLE Benchmarks im Netz scheitern...


Qualitätsettings oder Auflösung höher drehen und sich an der besseren BQ erfreuen.

Die meisten haben wohl schon nen TFT und hängen fix an ner Auflösung. Naja, das eher unterdurchschnittliche AF kann man ja tw. mit den Hybridmodi schön kompensieren, und zusätzlich bekommt man noch ne bessere Glättung auf ne Bildschirmachse. Verschwendung ahoi :tongue:


Ist es doch gar nicht. Ein Benchmark bildet niemals die Realität ab.

Danke für die wertvolle Info. X-D (Informier DU dich mal lieber woran DEINE geposteten Benchmarks alle kranken - ok, ich gebs zu, ich hab mich auch dazu hinreissen lassen.


Wenn ich mir die Benches von Oblivion ansehe, dann sieht man dort überall nur 35fps, schon in Auflösungen wie 1600x1200 0xAA.

Wie kommt es dann, das ich dieses game mit einer deutlich schlechteren Karte durchgehend flüssig zocken könnte? Sag mir das mal bitte!

Keine Ahnung vll. haste herum getweakt? Du hast doch angefangen Benchmarks zu posten. Und jetzt sollen plötzlich die, die dir nicht in den Kram passen, falsch sein? :confused:

Mal abgesehen, dass in Oblivion 35fps ganz gut ausreichen...

nö. ich spiele keines der von dir geposteten spiele, die von mir und dem gast geposten aber schon. könnte daran liegen, dass das eine strategiespiele, das andere shooter sind. wer profitiert da jetzt eher? der, der coh mit 31 statt 30 (gx2) fps zockt, oder der, der ghost recon mit 56 (gx2) statt 34 fps spielt?

In Splinter Cell und TRL (min fps) siehts auch nicht besser aus. Aber meinetwegen, kauft euch doch das alte Ding. NV macht nämlich in Wahrheit vorspfingstliche Schnäppchengeschenke und will nicht bloß die Lager vom alten Kram geräumt haben. :P


Außerdem sprechen die Ergebnisse dafür, das C&C3 CPU limitiert ist, denn die 8800GTX kann sich gar nicht absetzen.

Zudem scheint bei C&C3 und SC SLI gar nicht zu funktionieren, wundert mich aber auch nicht, diese games sind recht neu. Teste das bitte nochmal mit den Treibern der nächsten Wochen oder mit einem eigenen Profil ...

Ja und. Muss man nun etwa auch gut finden, dass NV-Karten ne höhere CPU-Last erzeugen?(wobei die minfps der 8800GTX eh was anderes zeigen). Und als Betatreibertester ist man auch degradiert, sofern man scharf ist auf bestmögliche GraKanutzung. D.h: Neues Spiel installieren, an den Settings herumschrauben, schaun obs einen besseren/neueren Treiber gibt und dann u.U. noch an den SLI-Bits herumpfuschen, testen ob 8xS spielbar geht, ob die WA eh nicht zu auffällig ist, ob man LOD-Clamp aktivieren sollte (meistens ja) oder besser nicht (Rennspiele zB),...

Wer jetzt nach der vorangegangenen Formulierung völlig verzückt am Sessel herumrutscht, für den mag die 7950GX2 in der Tat das Richtige sein.

Natürlich gehört da auch ein bisschen Verachtung der Umwelt dazu, dass man sich den Spaß mal schnell mit +30W zusätzlichen Idlestromverbauch erkauft, aber piss drauf: Am besten ne DEMO von FAN laufen lassen und dabei schön abwixxen X-D

The_Invisible
2007-05-24, 21:59:42
ist ja geil wie manche leute einem vom kauf einer karte der vorigen generation abhalten wollen weil sie bei der neuen generation nix mehr sagen können.

und nicht vergessen: es gibt auch ältere spiele die man mit SSAA sehr schön aufpolieren kann, die meisten neuen sind sowieso fürn popo

mfg

Kladderadatsch
2007-05-24, 22:01:39
Aber meinetwegen, kauft euch doch das alte Ding. NV macht nämlich in Wahrheit vorspfingstliche Schnäppchengeschenke und will nicht bloß die Lager vom alten Kram geräumt haben. :P
bevor das auf giga zu lesen ist und sich durch ebay gesprochen hat, habe ich meine 7900gtx schon längst in ebay für schlimmstensfalls 150 euro verhökert. dann hab ich eine gx2 für 40 euro, in der in 10 jahren mehr nostalgie als in all deinen voodoos zusammen steckt:P

Mr. Lolman
2007-05-24, 22:10:21
in der in 10 jahren mehr nostalgie als in all deinen vodoos zusammen steckt:P

Wenn dus 100x auf nen Zettel schreibst und zw. die Platinen quetscht vll. :tongue:

Kauft sich ein veraltetes Billigstück Massenware von der Stange und glaubt ernsthaft, dass er in 10 Jahren ein Stückchen mehr Exklusivität besäße. LOL ;D

ist ja geil wie manche leute einem vom kauf einer karte der vorigen generation abhalten wollen weil sie bei der neuen generation nix mehr sagen können.

Die G80-Reihe ist ja im vgl zum Vorgänger auch 1A. Was sollte man da dagegen sagen wollen? Paranoia anyone? :confused:

Super Grobi
2007-05-24, 22:15:37
Wenn dus 100x auf nen Zettel schreibst und zw. die Platinen quetscht vll. :tongue:

Kauft sich ein veraltetes Billigstück Massenware von der Stange und glaubt ernsthaft, dass er in 10 Jahren ein Stückchen mehr Exklusivität besäße. LOL ;D



(...)

Und du kaufst dir nur exlusive Einzelstücke? Mir hat man ja schon fast untergejubelt, das ich bei Alternate arbeite. Bei dir hab ich das Gefühl, das du mit allen Mitteln das Ati Teil schön reden willst und versuchst die gx2 zu einer alten lahmen Ente zu machen.

Werde doch glücklich mit deiner Ati.

SG

SG

Gast
2007-05-24, 22:16:06
Mir scheint du leidest an Realtitätsverlust.

Raffst du denn nicht, das es mehr gibt, als 20 SHIT Benchmarks? Benchmark ist ungleich der Realität. Suchen darfste gerne selbst nach weiteren Ergebnissen.

Die meisten haben wohl schon nen TFT und hängen fix an ner Auflösung.

Deswegen wird die GX2 gerade so interessant.

Nutzer von Auflösungen mit 1680x1050 oder 1920x1200 brauchen schon ne anständige Karte um die native Auflösung zu fahren. Wenn du 1920x1200 mit HDR+AA auf einer X1950 versuchst, geht dir oft schon die Puste aus.
Ich wäre nicht bereit 300€ für ne Karte auszugeben, die ich gar nicht brauche.

Schließlich bedeutet schon das herunterschalten der Auflösung einen Qualitätsverlust den ich mir so ersparen kann.

Und jetzt sollen plötzlich die, die dir nicht in den Kram passen, falsch sein? :confused:

Lesen. Wer redet hier von falsch? Niemand.

Neue Games = kein standardprofil vorhanden. Musste entweder eines erstellen oder auf zukünftige Treiber warten.
Die Ergebnisse dort sind eindeutig ohne SLI. EIN GTX Chip mag vielleicht langsamer als die X1950 sein, aber zwei GPUs sind es gewiss nicht.

Mal abgesehen, dass in Oblivion 35fps ganz gut ausreichen...

In der Realität sinds dennoch mehr, als der Benchmark mir suggerieren will. Ich pfeife deshalb auf diesen "Wert".

Muss man nun etwa auch gut finden, dass NV-Karten ne höhere CPU-Last erzeugen?

Quelle? Du stellst hier immer irgendwelche Thesen auf und kannst sie noch nicht mal begründen. Bei mir landet sowas gleich im Papierkorb.

Natürlich gehört da auch ein bisschen Verachtung der Umwelt dazu, dass man sich den Spaß mal schnell mit +30W zusätzlichen Idlestromverbauch erkauft

Die 8800GTS frisst noch mehr als die GX2, es ist damit immer noch ein guter Deal.

Sterem
2007-05-24, 22:16:52
Die G80-Reihe ist ja im vgl zum Vorgänger auch 1A. Was sollte man da dagegen sagen wollen? Paranoia anyone? :confused:

Er meinte damit natürlich eine ATI X2900 XT wie immer.

Mr. Lolman
2007-05-24, 22:17:03
Und du kaufst dir nur exlusive Einzelstücke?

SG

Nö. Ich behaupte aber auch nicht, dass in meinen gesamten 10 Jahre alten GraKas Nostalgie steckt. ;)

Kladderadatsch
2007-05-24, 22:20:20
Quelle? Du stellst hier immer irgendwelche Thesen auf und kannst sie noch nicht mal begründen. Bei mir landet sowas gleich im Papierkorb.

ne, das stimmt schon, wenn die karte mit sli-profil läuft.

Nö. Ich behaupte aber auch nicht, dass in meinen gesamten 10 Jahre alten GraKas Nostalgie steckt. ;)
achso, die lady rutscht (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361822) dann wohl immer wieder mal ganz zufällig in den rechner?;)

Undertaker
2007-05-24, 22:24:58
ich hatte 7900gtx und x1900xt... es war kein performanceunterschied spürbar...

die gx2 lässt sich nebenbei auch weitaus besser takten - zusammen mit einem guten sli profil ist die gx2 auf jeden fall die bessere wahl, zumal atm ja sogar billiger...

hdr+aa ist praktisch auf dem r580 eh zu langsam, der g70 kann dafür die extrem hübschen hybridmodi... atm machen in der klasse >100€ imo nur 2 ati-karten sinn, die x1950gt 512mb sowie die 2900xt als gts-alternative (wenn einen der stromverbrauch net stört)

btw, zum thema neuere games: in stalker zb sieht der r580 gegen die gx2 kein land, evntl auch weil dort das profil mal gut läuft...

Super Grobi
2007-05-24, 22:26:04
Nö. Ich behaupte aber auch nicht, dass in meinen gesamten 10 Jahre alten GraKas Nostalgie steckt. ;)

Aber das eine GX2 in 10 Jahren schon was besseres ist als eine X1950xt gibts du schon zu?

SG

p.s.
wobei das affig ist. FAKT ist doch, das man die GX2 bei eBay an Noobs für gutes Geld verschachern kann. Eine X1950xt guckt dort keiern mehr an und bietet besonders viel.

Odal
2007-05-24, 22:26:11
wie dem auch sei..ich hatte ja auch überlegt weil für 179€ is das ja nicht unbedingt teuer..aber dann sagte ich mir: ich steig doch nicht von nem pferd auf nen esel ab...

und nen esel ist es bzgl. BQ auf alle fälle im vergleich..und damit mein ich nicht nur HDRR+AA

Odal
2007-05-24, 22:27:28
hdr+aa ist praktisch auf dem r580 eh zu langsam


Das ist aber falsch...ich hab bisher immer AA bei HDRR spielen genutzt wenns ging.

Gast
2007-05-24, 22:28:12
ne, das stimmt schon, wenn die karte mit sli-profil läuft.

Selbst wenn das stimmt -> Dual + Quadcore. Da verlagert sich die Last automatisch auf den ungenutzten Kern. Sollte also keine Performance (mehr) kosten.

Undertaker
2007-05-24, 22:28:27
Das ist aber falsch...ich hab bisher immer AA bei HDRR spielen genutzt wenns ging.

nenn doch mal ein paar beispiele und settings...

in oblivion wars zb nie wirklich schnell genug

Super Grobi
2007-05-24, 22:30:34
wie dem auch sei..ich hatte ja auch überlegt weil für 179€ is das ja nicht unbedingt teuer..aber dann sagte ich mir: ich steig doch nicht von nem pferd auf nen esel ab...

und nen esel ist es bzgl. BQ auf alle fälle im vergleich..und damit mein ich nicht nur HDRR+AA

Wenn dann bitte "zwei Esel" ;)

SG

Odal
2007-05-24, 22:33:55
nenn doch mal ein paar beispiele und settings...

in oblivion wars zb nie wirklich schnell genug

doch oblivion, test drive unlimited, call of juarez

settings sind immer 1280x1024 ingame alles auf maximal (höchstens mal bei den schatten z.b. gras/körperschatten bei oblivion etc. ne stufe runter) mind. 8xHQAF (meistens 16x) HDRR und 4xAA

meistens (z.b. oblivion) noch EATM dazu damit die vegetation nicht mehr durch aliasing flimmert...

Gabbabytes
2007-05-24, 22:36:49
kloppt euch drum! ich hab mir 2 dieser karten bestellt. will mal 4 gpu-kerne im einsatz sehen!

ihr könnt euch für den preis ja eine 8600gts kaufen. hat tolles dx10. da sieht alles viel besser aus als auf der gx2. :P

Super Grobi
2007-05-24, 22:38:58
kloppt euch drum! ich hab mir 2 dieser karten bestellt. will mal 4 gpu-kerne im einsatz sehen!

ihr könnt euch für den preis ja eine 8600gts kaufen. hat tolles dx10. da sieht alles viel besser aus als auf der gx2. :P

Darf man auf ein User Review hoffen?

SG

Mr. Lolman
2007-05-24, 22:39:21
Raffst du denn nicht, das es mehr gibt, als 20 SHIT Benchmarks? Benchmark ist ungleich der Realität. Suchen darfste gerne selbst nach weiteren Ergebnissen.

Du hast behauptet, dass deine 3 Benchmarks mehr als 100% Leistungsplus zeigen. Das ist unwahr. Raffst du das nicht?
Suchen brauch ich nicht. Hab ich ja selbst schon angedeutet, worans scheitert an den Benchmarks. Wie gesagt: Ein beliebiges 3DC-Review durchlesen, da wirds erklärt.


Deswegen wird die GX2 gerade so interessant.

Nutzer von Auflösungen mit 1680x1050 oder 1920x1200 brauchen schon ne anständige Karte um die native Auflösung zu fahren. Wenn du 1920x1200 mit HDR+AA auf einer X1950 versuchst, geht dir oft schon die Puste aus.
Ich wäre nicht bereit 300€ für ne Karte auszugeben, die ich gar nicht brauche.

Schließlich bedeutet schon das herunterschalten der Auflösung einen Qualitätsverlust den ich mir so ersparen kann.

Und ich hab gezeigt, dass CB eruiert hat, dass gerade bei höheren Auflösungen die GX2 stärker einbricht als ne XTX.


Neue Games = kein standardprofil vorhanden. Musste entweder eines erstellen oder auf zukünftige Treiber warten.
Die Ergebnisse dort sind eindeutig ohne SLI. EIN GTX Chip mag vielleicht langsamer als die X1950 sein, aber zwei GPUs sind es gewiss nicht.

Gewiss doch. Hast ja die Benchmarks gesehen. Div. Spiele sind schon mehrere Monate alt, und rennen (deiner Aussage nach) immernoch nicht optimal.


In der Realität sinds dennoch mehr, als der Benchmark mir suggerieren will. Ich pfeife deshalb auf diesen "Wert".

Meinetwegen. Andererseits hab ich doch garkeine Oblivionscores gepostet, oder?


Quelle? Du stellst hier immer irgendwelche Thesen auf und kannst sie noch nicht mal begründen. Bei mir landet sowas gleich im Papierkorb.

Du hast gemeint, dass C&C3 CPU limtiert ist. Ati Katen stehen da aber andererseits enorm gut da. Ergo => NV erzeugt ne höhere CPU-Last (oder die Treiber sind wiedermal suboptimal)


Die 8800GTS frisst noch mehr als die GX2, es ist damit immer noch ein guter Deal.

Ist auch neuer, hat ne bessere BQ, ne bessere Performance, bessere Features, DX10 Support und kein Streß mit SLI-Profilen. (Frisst ne GTS echt mehr als ne GX2, dacht ich eigentlich garnicht)

nenn doch mal ein paar beispiele und settings...

in oblivion wars zb nie wirklich schnell genug

Doch. In 1280x1024x32 kann man Oblivion wunderbar mit HDR+AA+EATM + zusätzliche Optikdetails zocken. TDU auch. COJ müsst ich wiedermal testen (damals gabs noch kein EATM)



achso, die lady rutscht (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361822) dann wohl immer wieder mal ganz zufällig in den rechner?;)

1. ist die noch keine 10 Jahre alt
2. hat die nen eigenen Rechner
3. besitz ich deutlich mehr als 20 GraKas (tw. ~20 Jahre alt)
4. redete ich von meinen GESAMTEN GraKas.

Aber das eine GX2 in 10 Jahren schon was besseres ist als eine X1950xt gibts du schon zu?

SG


Naja, besser? Ein besserer Briefbeschwerer vll.


p.s.
wobei das affig ist. FAKT ist doch, das man die GX2 bei eBay an Noobs für gutes Geld verschachern kann. Eine X1950xt guckt dort keiern mehr an und bietet besonders viel.

Da hast du allerdings recht. Auch wenn man in 10 Jahren da auch nur mehr ein Appel und ein Ei kreigen wird.

Kladderadatsch
2007-05-24, 22:40:23
hat tolles dx10. da sieht alles viel besser aus als auf der gx2. :P
schon, weil man im gegensatz zur gx2 überhaupt etwas sieht;)
hätte ich momentan mehr geld, hätte ich auch lieber zur 8800ultra gegriffen:tongue:


1. ist die noch keine 10 Jahre alt
2. hat die nen eigenen Rechner
3. besitz ich deutlich mehr als 20 GraKas (tw. ~20 Jahre alt)
4. redete ich von meinen GESAMTEN GraKas.
jetzt mach ein :tongue:, ;), :wink: oder beliebiges ugly-smiliy drunter, dann sind wir wieder auf der ernsthaften diskussionsebene, auf der der blödsinn angefangen hat;)
n8

Undertaker
2007-05-24, 22:41:01
doch oblivion, test drive unlimited, call of juarez

settings sind immer 1280x1024 ingame alles auf maximal (höchstens mal bei den schatten z.b. gras/körperschatten bei oblivion etc. ne stufe runter) mind. 8xHQAF (meistens 16x) HDRR und 4xAA

meistens (z.b. oblivion) noch EATM dazu damit die vegetation nicht mehr durch aliasing flimmert...

du sagst es - keine maximalen details mehr... ich denke die meisten verzichten lieber auf aa und haben dafür alles an was geht... ansonsten:

oblivion:
16fps (in der dimension hab ichs auch noch in erinnerung)

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion

test drive:
33fps an langweiliger stelle (damit real teilweise auch unter 20fps)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5216566&postcount=27

coj:
28fps

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez



also ich weis nicht... ich empfinde sowas als definitiv nicht mehr spielbar - zumal auch viele schon mehr als 1280x1024 nutzen, was wir hier gar nicht betrachten wollen... ich will es nicht mit shader 2.0 auf der fx5200 vergleichen, aber features sind das eine, der nutzbare speed das andere - es zu haben ist nicht schlecht, aber als kaufargument würde ich es nicht anführen

Gabbabytes
2007-05-24, 22:46:20
Darf man auf ein User Review hoffen?

SG

wenn ich mit meinem diplom fertig bin, dann sicherlich. ansonsten seht ihr ein review in der pcgh als eigenen artikel.

Mr. Lolman
2007-05-24, 22:48:56
du sagst es - keine maximalen details mehr... ich denke die meisten verzichten lieber auf aa und haben dafür alles an was geht... ansonsten:

oblivion:
16fps (in der dimension hab ichs auch noch in erinnerung

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion

Wer zockt mit QAAA, wenns erstens damals schon PAAA gab und 2. mittlerweile quasi ohne Performanceverlust EATM aktiviert werden kann.


test drive:
33fps an langweiliger stelle (damit real teilweise auch unter 20fps)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5216566&postcount=27

Sind mittlerweile deutlich mehr (39fps, real nur selten unter 30fps): http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5518766&postcount=983


coj:
28fps

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez



auch mit QAAA. Entweder PAAA, oder EATM...


jetzt mach ein :tongue:, ;), :wink: oder beliebiges ugly-smiliy drunter, dann sind wir wieder auf der ernsthaften diskussionsebene, auf der der blödsinn angefangen hat;)
n8

:uup:
n8

Gabbabytes
2007-05-24, 22:49:21
schon, weil man im gegensatz zur gx2 überhaupt etwas sieht;)
hätte ich momentan mehr geld, hätte ich auch lieber zur 8800ultra gegriffen:tongue:



na komm, übertreibs mal net! wenn man sich daran gewöhnt hat und keine direkten vergleichsbilder hat, fällt einem das als gelegenheitsgamer gar net so auf.

Odal
2007-05-24, 22:57:32
du sagst es - keine maximalen details mehr... ich denke die meisten verzichten lieber auf aa und haben dafür alles an was geht...


ähm die körper und grasschatten hab ich ganz unabhängig davon ausgemacht ob es so spielbar ist oder nicht..es ist auch spielbar wenn ich diese anstelle...sie bringen mir nur nix....und von wegen keine max. details..ich hab ein erhöhtes grasaufkommen mehr sichtweite und bessere texturen...eigentlich hab ich mehr details als standard...


ansonsten:

oblivion:
16fps (in der dimension hab ichs auch noch in erinnerung)

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion


ähm erstmal ist das garantiert ein worst case szenario und dann läuft meine karte nicht auf standard takt....ich habe als min FPS eher so um die 20...und im schnitt deutlich mehr...damit ist ein spiel wie oblivion sehr wohl gut spielbar....das geflimmere wenn AA aus ist oder EATM aus ist tu ich mir garantiert nicht an!!!!

ich hasse es ja schon wenn in DOD:S trotz 6xAAA EATM und ASBT 16xHQAF mit A.I. off was leicht flackert weil der Content es begünstigt...
ich werd garantiert nicht ohne AA zocken...genau darum ist Cothic3 ja bei mir von der Platte geflogen und Stalker nicht weitergespielt....


test drive:
33fps an langweiliger stelle (damit real teilweise auch unter 20fps)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5216566&postcount=27


Testdrive ist bei mir auf jeden fall CPU limitiert...da es praktisch keinen unterschied auf meinem system macht ob ich HDRR an oder aus hab oder das Detaillevel runterregle........und meistens hab ich dort auch 35FPS....


coj:
28fps

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/16/#abschnitt_call_of_juarez


haben sie vielleicht ohne patch getestet k.a. ich kann es flüssig spielen...wobei 28 FPS soweit von flüssig auch nicht weg sind...


also ich weis nicht... ich empfinde sowas als definitiv nicht mehr spielbar - zumal auch viele schon mehr als 1280x1024 nutzen, was wir hier gar nicht betrachten wollen...

naja erstmal was andere tun ist mir egal und dann ist 1280x1024 wohl neben 1024x768 noch die am meisten genutzte auflösung


ich will es nicht mit shader 2.0 auf der fx5200 vergleichen, aber features sind das eine, der nutzbare speed das andere - es zu haben ist nicht schlecht, aber als kaufargument würde ich es nicht anführen

Wie gesagt ich habe bisher IMMER AA mit eingesetzt wenn mir das Spiel diese Einstellung bot..und wenn es nicht 4xAA ist kann man ja auch noch auf 2xAA runterstellen..das ist 1000x besser als GARKEIN AA

ps: achja wenn Computerbase da praktisch AAA gebencht hat sind die Ergebnisse eh fürn Arsch weil ich nutz selten AAA meisten EATM und das kostet kaum Leistung....

Sonyfreak
2007-05-24, 22:59:58
oder EATM...Abgesehen davon, dass ich von der GX2 auch nicht viel halte und mir keine pre-G80 Nvidia Karte mehr kaufen würde, ist EATM zumindest für mich keine Alternative. Statt geglätteten Texturen hat zb. bei TDU Palmen, die wie Zuckerwattestangen aussehen.

Zu den Oblivion Benchmarks kann ich nur sagen, dass sie für den ambitionierten Spieler so und so beinahe irrelevant sind. Kein vernünftiger Mensch spielt das Spiel auf den Voreinstellungen. Mit ein paar Minuten Aufwand sieht das Spiel deutlich schicker aus und mehr Frames hat man zudem auch noch.

mfg.

Sonyfreak

Gast
2007-05-24, 23:02:51
Du hast behauptet, dass deine 3 Benchmarks mehr als 100% Leistungsplus zeigen.

Nö, habe ich nicht.

Zitat: "Mir wären 50-100 % Performance in ne menge Anwendungen lieber".

Für dich nochmal in Worten: Fünfzig bis hundert Prozent Leistungszuwachs in einer menge Anwendungen.

Das ist unwahr. Raffst du das nicht?

Habe ich niemals auch nur im Ansatz behauptet. Lesen wäre manchmal sehr hilfreich.

Und ich hab gezeigt, dass CB eruiert hat, dass gerade bei höheren Auflösungen die GX2 stärker einbricht als ne XTX.

Wieder eine These, die du hier nicht belegst. Wieviele Lügen willste uns noch auftischen? Die XTX steht hier gar nicht zur Debatte, die ist 100€ teurer.

Div. Spiele sind schon mehrere Monate alt, und rennen (deiner Aussage nach) immernoch nicht optimal.

Nö, das habe ich nicht behauptet.
Die Ergebnisse sind in den neuen Games deshalb so ernüchternd, weil die Treiber noch kein Profil bereitstellen. Die meisten Tester sind schlichtweg zu faul / zu unfähig eines zu erstellen. Das trifft aber nicht auf alle Käufer zu. Schon gar nicht auf die hier im Forum.

Du hast gemeint, dass C&C3 CPU limtiert ist.

Ist es auch, denn 8800GTX und X1950XTX liegen gleichauf. Das ist nicht realistisch, wenn es um die Rohpower geht. Bei GPU Limitierung zieht die GTX klar davon.

Ati Katen stehen da aber andererseits enorm gut da.

Dann empfehle ich dir nochmal nachschauen:
http://www.xbitlabs.com/images/video/foxconn-8800gtx/cnc3_4x.gif

Alle Karten liefern dort prächtige Ergebnisse. Nur die GX2 fällt um 50% ab. Halbe frameraten mögen für eine 7900GTX realistisch sein, aber nicht für 2x500 MHz GPU -> fehlendes SLI Profil.

Ist auch neuer, hat ne bessere BQ, ne bessere Performance, bessere Features, DX10 Support und kein Streß mit SLI-Profilen. (Frisst ne GTS echt mehr als ne GX2, dacht ich eigentlich garnicht)

+ teurer. Budget überschritten = uninteressant.
im idle ist die GX2 sparsamer, das sagt Computerbase.

Mr. Lolman
2007-05-24, 23:04:15
Statt geglätteten Texturen hat zb. bei TDU Palmen, die wie Zuckerwattestangen aussehen.

Mir gefällts. Das kann man übrigens mit Alphasharpenbias deutlich abschwächen und Oblivion sieht damit schon deutlich besser aus als mit herkömlichen AAA/TSSAA oder gar TRMSAA: http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index6.php

Odal
2007-05-24, 23:06:52
hätte die GX2 nicht so eine miese BQ würde ich da auch zugreifen und mich am voltmodden probieren um zu sehen ob man der noch gut beine machen kann...aber so schrweck ich da einfach zurück....was bringt mir sone dual gpu karte die ich mit vmod noch gut hochprügeln kann wo dann vielleicht ein paar mehr FPS als bei meiner jetzigen hardware rauskommen dafür aber das bild beschissen ist? hm...ok spass am basteln hm naja deswegen grübel ich ja noch immer ob ich mir das ding als versuchskarnickel mal zulegen zum basteln und quälen XD

DevilX
2007-05-24, 23:15:50
ich überleg auch hinn und her aber ich glaube die 7800gtx muß noch durchhalten

Mr. Lolman
2007-05-24, 23:20:58
Nö, habe ich nicht.

Zitat: "Mir wären 50-100 % Performance in ne menge Anwendungen lieber".

Für dich nochmal in Worten: Fünfzig bis hundert Prozent Leistungszuwachs in einer menge Anwendungen.

Habe ich niemals auch nur im Ansatz behauptet. Lesen wäre manchmal sehr hilfreich.

Doch!


Wo denn gibts 100% Mehrperformance?

Augen auf. Ein paar Posting vorher siehste schon drei von x beliebigen.





Wieder eine These, die du hier nicht belegst. Wieviele Lügen willste uns noch auftischen? Die XTX steht hier gar nicht zur Debatte, die ist 100€ teurer.

Nur weil ichs noch nicht belegt hab, ists ne Lüge? Spinnst du?

Hier der Beleg (hättest aber auch selbst nachsehen können):

Rating – 1600x1200 4xAA/16xAF

ATi Radeon HD 2900 XT 100,0
nVidia GeForce 8800 GTS 320 91,2
ATi Radeon X1950 XTX 86,9
nVidia GeForce 7950 GX2 83,0
ATi Radeon X1900 XTX 81,5


Rating – 2560x1600 4xAA/16xAF

ATi Radeon HD 2900 XT 100,0
nVidia GeForce 8800 GTS 96,6
ATi Radeon X1950 XTX 85,3
ATi Radeon X1900 XTX 80,2
ATi Radeon X1900 XT 76,2
nVidia GeForce 7950 GX2 72,7

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

Ich bezog mich btw. auf ne X1900XTX welche ~ einer X1950XT (um 195€ mit Accelero X2) enstpricht.


Nö, das habe ich nicht behauptet.
Die Ergebnisse sind in den neuen Games deshalb so ernüchternd, weil die Treiber noch kein Profil bereitstellen. Die meisten Tester sind schlichtweg zu faul / zu unfähig eines zu erstellen. Das trifft aber nicht auf alle Käufer zu. Schon gar nicht auf die hier im Forum.

Doch hast du. Grad schon wieder (indirekt). Denn, wenn die Treiber kein SLI-Profil bereitstellen, kann man nicht davon sprechen, dass sie optimal rennen.


Ist es auch, denn 8800GTX und X1950XTX liegen gleichauf. Das ist nicht realistisch, wenn es um die Rohpower geht. Bei GPU Limitierung zieht die GTX klar davon.

Dann empfehle ich dir nochmal nachschauen:
http://www.xbitlabs.com/images/video/foxconn-8800gtx/cnc3_4x.gif

Hab ich. In 1600x1200/AA/AF ist ne X1950XTX avg. sogar flotter als ne 640MB 8800GTS. In 1280x1024/AA/AF sind die min.fps minimal höher.

Gast
2007-05-24, 23:37:17
Doch!

Nö.

Ich habe den Text zitiert um hinzuweisen, worum es geht (der Leistungszuwachs). Damit habe ich aber nicht gesagt, das es 100% sind. Ich sagte 50-100%, nicht mehr, nicht weniger.

Nur weil ichs noch nicht belegt hab, ists ne Lüge?

Ja. Reden kann jeder viel, wenn der Tag lang ist.

Hier der Beleg (hättest aber auch selbst nachsehen können):

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

Im Gesamtrating gehen alle Benchmarks mit ein. Schon ein Treiberbug in nur einem Game kann das Ergebniss verfälschen. Zudem gibt es Spiele, die auf bestimmte Karten besser laufen. Wenn ich 10 Games benche, die pro ATI sind und nur 5 die pro NVIDIA sind, wer gewinnt dann ? ... das ganze auch umgekehrt.

Ich bezog mich btw. auf ne X1900XTX welche ~ einer X1950XT (um 195€ mit Accelero X2) enstpricht.

Die Nachteile bleiben: Sie ist immer noch teurer, lässt sich mies overclocken und wird teilweise um 50-100% abgezockt.

Denn, wenn die Treiber kein SLI-Profil bereitstellen, kann man nicht davon sprechen, dass sie optimal rennen.

Klar kann man das. Wer SLI kauft, weiß worauf er sich einlässt. Sollte er jedenfalls.

Undertaker
2007-05-24, 23:44:37
[...]

ich weis gar nicht was man groß diskutieren soll... ich hatte den r580 und habe ihn nicht grundlos wieder abgestoßen :wink: lustige vergleiche ziehen mit ergebnissen, wo zum teil sli überhaupt nicht brauchbar lief (was sich aber mit wenig aufwand beheben lässt) machen zumindest in meinen augen keinen sinn - und wenn sli läuft, ist die gx2 nuneinmal zweifelsfrei schneller * (erst recht wenn man übertakten möchte); weitere vor- und nachteile haben beide karten, das kann man denke ich recht ausgeglichen sehen...

* diese behauptung kann man z.b. recht leicht auch in den 3dc-performancereports nachvollziehen - eine optimal laufende gx2 sollte bis zu 70-80% vor der dort getesteten 7950gt liegen, damit wird die x1900xt (welche ja kaum langsamer als die x1950xt ist) so ziemlich überall geschlagen - man muss halt etwas mit den profilen frickeln :)

Mr. Lolman
2007-05-25, 00:00:44
Nö.

Ich habe den Text zitiert um hinzuweisen, worum es geht (der Leistungszuwachs). Damit habe ich aber nicht gesagt, das es 100% sind. Ich sagte 50-100%, nicht mehr, nicht weniger.

Ich hab dich gefragt wo es 100% gibt, und du hast gemeint: "Augen auf. Ein paar Posting vorher siehste schon drei von x beliebigen.". Und das ist falsch.


Ja. Reden kann jeder viel, wenn der Tag lang ist.

Komische Einstellung. Machst du das auch im RL, dass du primär mal jeden der Lüge bezichtigst, bis er seine Aussagen belegt hat?



Im Gesamtrating gehen alle Benchmarks mit ein. Schon ein Treiberbug in nur einem Game kann das Ergebniss verfälschen. Zudem gibt es Spiele, die auf bestimmte Karten besser laufen. Wenn ich 10 Games benche, die pro ATI sind und nur 5 die pro NVIDIA sind, wer gewinnt dann ? ... das ganze auch umgekehrt.

Es gibts Spiele die besser laufen und welche die schlechter laufen. Und es gibt eine Tendenz dazu, dass sie gerade bei neueren Spielen, trotz funktionierenden SLI-Bits, in hohen Auflösungen an Performance verlieren zu scheint. zB: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes
Und hör mit deiner Pro-ATI, Pro-NV Einstellung auf. Seit dem beide Hersteller massive Optimierungen betreiben (zB in Form von Shaderreplacement) gibts das nicht mehr...


Die Nachteile bleiben: Sie ist immer noch teurer, lässt sich mies overclocken und wird teilweise um 50-100% abgezockt.

Ja um 6€. Und die GX2 wird andererseits genauso abgezockt. Und kann weder HDR+AA, noch EATM/PAAA/Area-AF/ASBT, hat tw. SLI-Streß und verbraucht 30W mehr im idle und ist lauter. Für Bastler mag sie ein nettes Testobjekt sein, aber mehr sicher nicht


Klar kann man das. Wer SLI kauft, weiß worauf er sich einlässt. Sollte er jedenfalls.

Achso. Die GraKa ist irgendwo zu langsam, und wer damit unzufrieden ist, sollte nicht die Schuld bei den Treibern suchen, sondern eher bei sich selbst, weil er doch wusste, worauf er sich einließ?

Klingt nicht unbedingt nach ner Kaufempfehlung. Egal, ich wünsch dir trotzdem ne gute n8. ;)

J0ph33
2007-05-25, 00:01:01
* diese behauptung kann man z.b. recht leicht auch in den 3dc-performancereports nachvollziehen - eine optimal laufende gx2 sollte bis zu 70-80% vor der dort getesteten 7950gt liegen, damit wird die x1900xt (welche ja kaum langsamer als die x1950xt ist) so ziemlich überall geschlagen - man muss halt etwas mit den profilen frickeln :)

70-80% - das ist optimum bei SLI, und das wird garantiert nicht in jedem spiel erreicht...

ich kann auch bestätigen: selbst mit einer X1800XT 512 war oblivion mit HDR+AA ind 1280*1024 max angenehm spielbar...

Mr. Lolman
2007-05-25, 00:13:49
* diese behauptung kann man z.b. recht leicht auch in den 3dc-performancereports nachvollziehen - eine optimal laufende gx2 sollte bis zu 70-80% vor der dort getesteten 7950gt liegen, damit wird die x1900xt (welche ja kaum langsamer als die x1950xt ist) so ziemlich überall geschlagen - man muss halt etwas mit den profilen frickeln :)

Hm, SLI läuft: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/17/#abschnitt_company_of_heroes (84% flotter als ne 7950GT in 1280,noAA/AF)

Ohne AA/AF, in 1280x1024 um 23% flotter als ne X1900XTX. Mit AA/AF ist die X1900XTX in 1600x1200 um knapp 20% flotter und in 2560x1600 schon um 33%. (und bevor man zum meckern über unspielbare fps in 2560 anfängt: Statt QAAA, kann man auch PAAA, oder noch besser - EATM verwenden)

BTW: Das SLI prinzipiell zu funzen scheint, zeigt auch das Performancerating von CB, wo die GX2 in 2560x1600, 4xAA/16xAF im Schnitt um 70% flotter ist, als ne 7950GT. Rechnet man den Taktvorteil der GT weg, ist das für SLI sogar ein äußerst gutes Ergebnis: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating

madjim
2007-05-25, 01:56:58
Also ich finde die ganze Diskusion etwas am Thema vorbei.
Ob eine 1950XTX oder 8800GTS(X) schneller oder besser ist kann eigentlich nicht die Frage sein.
Wer auf maximalen Bums geil ist hat so wieso schon eine 8800er evtl soger SLI im System stecken. Für den Hardcore Freak ist die Karte eh kaum interessant.

Es gibt jedoch viele User (wie ich) die zwar Performence wollen, aber der den besten "Bang for the Buck". Oder anders ausgedrückt = Maximale Fraps (Frames pro Sekunde) für den Euro bei vernüftiger Bildqualität.
Da ist bietet die 7950GX2 im Moment das beste Angebot.
Ich zB besitze noch eine gute alte x800/850 im Rechner mit einem Intel C2D 4300@3GHz. Für die meisten Games reichts Sie sogar noch. Selbst Oblivion läuft zufriedenstellend. Natürlich wollte ich irgend wann mehr Leistung, doch 300€ oder mehr für eine Graka ausgeben die nach 18 Monaten in Regel veraltet ist und vielleicht noch 50% Wert ist, das wollte ich nicht.

Wer sich vor 1 Jahr eine 7950GX2 gekauft hat muss jetzt mit 400€ Verlust leben!!!! Das ist viel Geld!!!
Eines habe ich in 15 Jahren PC Technik gelernt. Investiere in nur in das was man jetzt wirklich braucht.
Wozu in DX10 jetzt investieren??? Spiele?? Gibts (noch) nicht!
Wenn dann wirklich Games kommen die einen echten Grafischen Mehrwert bieten, dann gibts eine 8800GTX vermutlich auch für 189€!
Mann kann auch aber auch sich die neue 9900 GTX mit 1240 MB RAM und 256 unified Shader für 699 kaufen!!!!

Das ist meine Meinung.
Mal ehrlich, wie oft kommt eine solce Preissenkung vor???

Gabbabytes
2007-05-25, 02:03:37
Also ich finde die ganze Diskution etwas am Thema vorbei.
Ob eine 1950XTX oder 8800GTS(X) schneller oder besser ist kann eigentlich nicht die Frage sein.
Wer auf maximalen Bums geil ist hat so wieso schon eine 8800er evtl soger SLI im System stecken. Für den Hardcore Freak ist die Karte eh kaum interessant.

Es gibt jedoch viele User (wie ich) die zwar Performence wollen, aber der den besten "Bang for the Buck". Oder anders ausgedrückt = Maximale Fraps (Frames pro Sekunde) für den Euro bei vernüftiger Bildqualität.
Da ist bietet die 7950GX2 im Moment das beste Angebot.
Ich zB besitze noch eine gute alte x800/850 im Rechner mit einem Intel C2D 4300@3GHz. Für die meisten Games reichts Sie sogar noch. Selbst Oblivion läuft zufriedenstellend. Natürlich wollte ich irgend wann mehr Leistung, doch 300€ oder mehr für eine Graka ausgeben die nach 18 Monaten in Regel veraltet ist und vielleicht noch 50% Wert ist, das wollte ich nicht.

Wer sich vor 1 Jahr eine 7950GX2 gekauft hat muss jetzt mit 400€ Verlust leben!!!! Das ist viel Geld!!!
Eines habe ich in 15 Jahren PC Technik gelernt. Investiere in nur in das was man jetzt wirklich braucht.
Wozu in DX10 jetzt investieren??? Spiele?? Gibts (noch) nicht!
Wenn dann wirklich Games kommen die einen echten Grafischen Mehrwert bieten, dann gibts eine 8800GTX vermutlich auch für 189€!
Mann kann auch aber auch sich die neue 9900 GTX mit 1240 MB RAM und 256 unified Shader für 699 kaufen!!!!

meine Meinung
Mal ehrlich, wie oft kommt eine solce Preissenkung vor???
Nun


diese einstellung habe ich auch. komme an deine 15 jahre erfahrung nicht ganz ran, aber es langt um zu sagen, dass 300,- zu viel für eine neue graka ist.
die preissenkung ist bombastisch. drum habe ich testweise gleich 2 karten gekauft.

madjim
2007-05-25, 02:41:12
´Was man vielleicht noch anmerken sollte:

Es gibt KEIN Game das im Moment NICHT mit einer 7950GX2 in vernüftiger Qualität und Auflösung läuft!!
Das wird auch eine weile so bleiben. Die Hersteller wollen ja möglichst viele Games verkaufen. Ergo, müssen die Spiele (natürlich mit veränderten bzw. evtl. Reduzierten Einstellen) auf so viele Systeme laufen wie möglich.

Ich bin viel unterwegs und besitze deshalb ein Notebook das ich auch oft zum zocken verwende. Es ist ein IBM t40p mit ATI 9000 Grafik mit 64 MB. Also kein Grafikwunder. Doch selbst mit dieser "antiquierten" Grafikkarte was es mir möglich Call of Duty 2 mit spielbaren Fraps zu zocken. Trotz stark verminderten Einstellungen war das Game noch halbwegs hübsch anzusehen und was noch wichtiger ist "Es hat mir viel Spass gemacht".

Übrigens habe ich mir auch eine 7950GX2 bei Alternate bestellt.......... und freue mich mächtig darauf, egal was hier diskutiert wird.

san.salvador
2007-05-25, 02:48:50
´Was man vielleicht noch anmerken sollte:

Es gibt KEIN Game das im Moment NICHT mit einer 7950GX2 in vernüftiger Qualität und Auflösung läuft!!
Das wird auch eine weile so bleiben. Die Hersteller wollen ja möglichst viele Games verkaufen. Ergo, müssen die Spiele (natürlich mit veränderten bzw. evtl. Reduzierten Einstellen) auf so viele Systeme laufen wie möglich.

Ich bin viel unterwegs und besitze deshalb ein Notebook das ich auch oft zum zocken verwende. Es ist ein IBM t40p mit ATI 9000 Grafik mit 64 MB. Also kein Grafikwunder. Doch selbst mit dieser "antiquierten" Grafikkarte was es mir möglich Call of Duty 2 mit spielbaren Fraps zu zocken. Trotz stark verminderten Einstellungen war das Game noch halbwegs hübsch anzusehen und was noch wichtiger ist "Es hat mir viel Spass gemacht".

Übrigens habe ich mir auch eine 7950GX2 bei Alternate bestellt.......... und freue mich mächtig darauf, egal was hier diskutiert wird.
Spiel mal Colin MCrae Dirt in 1680x1050 und high Details, vielleicht noch mit 2xAA/8XAF. Das ist eine gängige Auflösung bei "vernünftiger" Qualität.

Ich glaub nicht dass die GX2 da mehr als 10 fps ausspuckt. :)

madjim
2007-05-25, 03:50:50
Nun ja, der Begriff "vernüftig" lässt sich sehr weit definieren.......
Doch das ist eigentlich hier nicht die Frage.
Wer mit 1600er Auflösung mit max Einstellungen spielen will, der kauft sich doch eine oder zwei (SLI) Grafikkarten vom Schlage einer 8800. Derjenige hat auch genug Geld oder ist zumindest bereit dementsprechend viel aus zugeben.
Ich bin auf jeden Fall nicht bereit so viel Geld aus zu zahlen.
Jeder kann da selbst entscheiden sofern er sich das leisten kann.

Mann sollte sich zu dem nicht blenden lassen. Selbst 200€ für eine Grafikkarte ist immer noch sehr viel Geld. Das sind in DM 400 (vierhundert)!!!!
Klar, wir haben jetzt den Euro. Doch vor dem Euro hatte ich ca. 3600 DM netto pro Monat. Jetzt sind es ca. 2000 €. Zu dem sind die Kosten wie Miete/Strom/Benzin usw. seit dem massiv gestiegen.
Damals hat man zB für eine Geforce2 Ultra kurz nach erscheinen ca. 600 DM bezahlt. Eine 8800 GTX kostete kurz nach erscheinen ca. 600€!!!
Wenn man noch bedenkt das die PC Hardware damals im Jahr 2001 im allgemeinen im Verhältnis zu heute erheblich teuerer war........ naja mehr muss ich ja wohl nicht erläutern.

san.salvador
2007-05-25, 03:52:55
Ich wollte nur klarstellen, dass die Aussage
Es gibt KEIN Game das im Moment NICHT mit einer 7950GX2 in vernüftiger Qualität und Auflösung läuft!!
einfach nicht stimmt. Eine GX2 ist dafür nicht mehr geeignet.

Fetza
2007-05-25, 04:16:43
diese einstellung habe ich auch. komme an deine 15 jahre erfahrung nicht ganz ran, aber es langt um zu sagen, dass 300,- zu viel für eine neue graka ist.
die preissenkung ist bombastisch. drum habe ich testweise gleich 2 karten gekauft.

Nimmst du zwei für quad-sli? Das wiedrrum hört sich doch schon interessant an, allerdings hat quad-sli ja glaub ich nach wie vor massive probleme oder?

=Floi=
2007-05-25, 04:57:48
die GF2 Ultra kostete auch damals zwischen 1200-1400DM
http://www.rivastation.com/gf2ultras.htm
(die eine kostet sogar 1650DM :eek: )

dafür sind sachen auch günstiger geworden!
früher gab es mal 50DM kindergeld und heute sind es über 200€

Liszca
2007-05-25, 05:01:43
@ Gast

Ältere Spiel zählen nicht (anno hatte ich nicht mit eingerechnet) weil es völlig egal ist ob ich mit 57 oder 65fps in 1600x1200 4xaa 16xffa spiele (Beispiel FEAR) Alte Spiele laufen auf beiden Karten immer Flüssig. Da interessieren mehr ob die kommenden Spiele flüssig laufen.

Anno 1701 1600x1200 4xAA/16x FFA
Auf beiden Karten unspielbar, zählt nicht

CoD2 1600x1200 4xAA/16x FFA
Alte Engine, aber richtig, 8800GTS 320 verliert durch die geringere Speichergröße.

CoH 1600x1200 4xAA/16xFFA
Mit diesen FPS Werten, beider Karten, wirst du keinesfalls CoH spielen wollen, zählt nicht.

Doom3 1600x1200 4xAA/16xFFA
Wahnsinn, 85,6 fps (8800GTS 320) zu 102,3fps (7950GX2) Alte Engine, beide KArten flüssig Spielbar, uninteressant.

HL2 1600x1200
Beide Karten völlig flüssig Spielbar, alte Engine, uninteressant.

Irgendwie verstehst du mein Argument nicht. Wen ich heute eine Karte kaufe, will ich das sie auch mit den kommenden und aktuellen Spielen vorne liegt und das tut die 7950GX2 einfach nicht. Neue Spiele fordern eine Grafikkarte ganz anders udn hier verliert die 7950GX2 völlig. Doom3 ist wie alt.... 2 Jahre? HL2 auch sowas in dem dreh. Da ist selbst eine 7600GT völlig ausreichend zum zocken (ok, nicht unbedingt 1600x1200, aber trotzdem). MIt sowas vergleich ich doch nicht.
Was ist mit dem kommenden Crysis? Allen Wake? Schwarze Auge? U.s.w! Was soll ich da noch mit einer 7950GX2 die in HL2 zwar überlegen ist, aber in einem aktuellen Titel wie Rainbow Six Vegas (das immerhin einen Vorgeschmack auf die Unreal 3 Engine bietet) völlig versagt?

Dazu ist die Karte, wie schon erwähnt, laut, verbraucht noch mehr Strom, bietet kein HDR+AA und sichtbar schlechtes FFA?

Und nochmal weil ich 1600x1200 ohne alles genommen habe. Ich wollte Spielbare FPS Werte haben. Die genannten Spiele in dieser Auflösung mit 4xAA/16xFFA sind dann meist unspielbar. Da ist es völlig egal ob eine Karte 20 oder 22fps hat. Wobei hier (z.B. Oblivion) eine 7950GX2 mit AA und FFA in 1600x1200 gar nicht gezeigt wird. Und Vegas gar nicht mit FFA und AA läuft.

Du liest dir wohl die Benches nicht durch wie?

Im prinzip hast du mit deiner argumentation schon recht, aber...
was wenn ich ein 30" display habe?
ich eher auf unreal tournament 3 warte? (kannst mir nicht erzählen das die 8800 dann noch viel rockt unter ut, sie wird wahrscheinlich nicht grottig sein, aber auch nicht der bringer. achso und schon garnicht bei einem display mit 30"

also ist die gx2 durchaus für leute mit >27" display interessant, mit fabel für die letzte spielegeneration!!!!11111

san.salvador
2007-05-25, 05:11:32
Displays über 22'' haben in aller Regel 1920x1200, das wird ein Spaß mit der GX2. :uclap:

Und HL2 und Doom 3 zähl nicht als aktuell. Für Spiele dieser generation mag die Aussage Gültigkeit haben, für wirklich aktuelle Spiele aber nicht.

madjim
2007-05-25, 05:56:27
die GF2 Ultra kostete auch damals zwischen 1200-1400DM
http://www.rivastation.com/gf2ultras.htm
(die eine kostet sogar 1650DM )

dafür sind sachen auch günstiger geworden!
früher gab es mal 50DM kindergeld und heute sind es über 200€

Das stimmt nicht ganz. Du nimmst die Elsa Ultra mit der 3D Brille als Beispiel. Die Elsa war mit Abstand die teuerste GeForce 2 Ultra. Dann waren das die Preise bei Vorstellung der Karte. Nach wenigen Wochen konnte man für zum Strassenpreis von ca. 600 - 700 DM die günstigen GeForce Ultra 2 kaufen.
Das weis ich deswegen so genau weil mir damals ein Freund für sagenhafte 250 DM seine ELSA Geforce 2 Ultra verkauft hat. Sogar mit Brille.
Er ist auch so einer der immer das neueste haben muss. So damals auch. Er hatte sich einer der ersten Geforce 3 Ultra von Asus gekauft.

=Floi=
2007-05-25, 06:15:08
das stimmt aber absolut nicht
http://www.rivastation.com/gf2ultra1.htm
die karte wurde am 31.08.2000 vorgestellt und der test der 3 karten (welche alle noch immer über 1200 dm liegen) ist vom 12.01.2001
und ich nehme nicht die elsa als beispiel sondern die karten welche zwischen 1200 DM und 1400 DM liegen und nicht "bulk" sind

die anderen GX2 sind bei geizhals auch noch doppelt so teuer
entweder der abverkauf oder will man ati noch ein bischen ärgern...

madjim
2007-05-25, 06:37:07
as stimmt aber absolut nicht
http://www.rivastation.com/gf2ultra1.htm
die karte wurde am 31.08.2000 vorgestellt und der test der 3 karten (welche alle noch immer über 1200 dm liegen) ist vom 12.01.2001
und ich nehme nicht die elsa als beispiel sondern die karten welche zwischen 1200 DM und 1400 DM liegen und nicht "bulk" sind

die anderen GX2 sind bei geizhals auch noch doppelt so teuer
entweder der abverkauf oder will man ati noch ein bischen ärgern...

Okay, da muss ich dir wohl recht geben. Gut recherchiert =)
Nichts desto trotz ändert das nichts über meine Meinung bzgl. Preis/Leistung bei Hardware.

Mr. Lolman
2007-05-25, 09:35:06
Es gibt jedoch viele User (wie ich) die zwar Performence wollen, aber der den besten "Bang for the Buck". Oder anders ausgedrückt = Maximale Fraps (Frames pro Sekunde) für den Euro bei vernüftiger Bildqualität.
Da ist bietet die 7950GX2 im Moment das beste Angebot.

Eben nicht. Ne X1950XT kostet 6€ mehr und hat in hohen Auflösungen im Schnitt mehr fps und ne bessere BQ. Ich kann mir schon vorstellen, dass das die GX2 Besitzer nicht einsehen wollen. So isses aber. Und es war bei jeder Generation so. Ich bin mir mittlerweile genauso sicher, dass ne X2900 in 1-1.5 Jahren quasi überall vor dem G80 liegen wird. ATi baut halt zukunftssicherere Karten. Das war schon immer so.

Der Wertverlust der GX2 ist ansich brutal, stimmt. Aber mehr ist das Ding eben heutzutage leider nicht mehr wert.


die GF2 Ultra kostete auch damals zwischen 1200-1400DM
http://www.rivastation.com/gf2ultras.htm
(die eine kostet sogar 1650DM :eek: )


Die GF2 Ultra war auch ein Extrem. Da war NV zu dem Zeitpunkt quasi konkurrenzlos und konnte so problemlos die Leute abzocken. GF1 und GF3 waren viel günstiger.

Gast
2007-05-25, 09:56:00
Eben nicht. Ne X1950XT kostet 6€ mehr und hat in hohen Auflösungen im Schnitt mehr fps und ne bessere BQ. Ich kann mir schon vorstellen, dass das die GX2 Besitzer nicht einsehen wollen. So isses aber. Und es war bei jeder Generation so. Ich bin mir mittlerweile genauso sicher, dass ne X2900 in 1-1.5 Jahren quasi überall vor dem G80 liegen wird. ATi baut halt zukunftssicherere Karten. Das war schon immer so.

Der Wertverlust der GX2 ist ansich brutal, stimmt. Aber mehr ist das Ding eben heutzutage leider nicht mehr wert.
Man kann sagen, dass ein Wechseln von der X1900 zur GX2 in neuen und zukünftigen Spielen nicht viel bringt, allerdings sind eh beide zu langsam dafür. Aber für ältere Games ist das Ding geradezu prädestiniert und man kann die Power in SSAA stecken. Z.B World Racing 1 in 1600x1200 mit Supersampling wird mit einer Karte schon an einigen Stellen (Stadtstrecken) kanpp, mit SLi läufts angenehm flüssig. Meine X1900 war dort kaum schneller als ne X850XT PE. Bei manchen Custom Quake Maps ging der Karte öfters auch mal die Puste aus. Meine übertaktete GX2 war an einigen Stellen doppelt so schnell! Wer allerdings glaubt, dass man mit der Karte bei neuen Games um eine GTS herumkommt, den muss ich leider enttäuschen. Da wäre selbst wohl eine GTS mit 320 MB die bessere Wahl. Somit kommt die Karte für Leute in Frage, die vorwiegend ältere Titel in hohen Auflösungen zocken, gepaart mit SSAA bei noch älteren. Dafür gibt es im Moment keine günstigere Alternative.

Mr. Lolman
2007-05-25, 09:58:17
Bei manchen Custom Quake Maps ging der Karte öfters auch mal die Puste aus. .

Das glaub ich nicht. Lass mich aber gerne vom Gegenteil überzeugen. Hast ein Link?

Gast
2007-05-25, 10:06:13
Das glaub ich nicht. Lass mich aber gerne vom Gegenteil überzeugen. Hast ein Link?
Momentan schlecht, bin auf der Arbeit. War aber afaik ne VIA Map mit DDRR2 Werbung gewesen, wo sich irgendwo in der Mitte ein großer Raum mit Spiegel an der Decke befand. Mit ordentlich Spielern war man da schnell bei 40 fps.

LovesuckZ
2007-05-25, 10:06:23
Eben nicht. Ne X1950XT kostet 6€ mehr und hat in hohen Auflösungen im Schnitt mehr fps und ne bessere BQ.

Nein, das ist falsch. Aber das weißt du ja selbst - hoffentlich.
Für dich ist doch "bessere BQ" immer noch abhängig vom Hersteller.

Und es war bei jeder Generation so.

Noe, frag' mal SM2.b Hardwarekäufer wie sie es finden, von vielen Spielen ausgeschlossen zu werden.

Ich bin mir mittlerweile genauso sicher, dass ne X2900 in 1-1.5 Jahren quasi überall vor dem G80 liegen wird. ATi baut halt zukunftssicherere Karten. Das war schon immer so.

In 1-1.5 Jahren? Dann wäre die 8800 Karten fast 2 Jahre auf dem Markt - na, wenn das nicht zukunftstauglich ist von nVidia.
Das ist das selbe wie mit der Bildqualität - bei dir reines abhängig sein vom Hersteller. Eine HD2900 wird auch in zukünftigen Spielen nicht besser darstehen, da das AA einfach verbuggt ist - oder spielt BQ jetzt plötzlich keine Rolle mehr?
Warum lässt du die Leute hier nicht in Ruhe? Eine GX2 für den Preis ist nicht schlecht und wer sich mit SLI auseinandersetzen möchte, findet hier den perfekten Einstieg.

=Floi=
2007-05-25, 10:08:35
imho hatte sie 64mb teuren ram (und die GPUs waren selektiert ) deshalb war sie so teuer
http://www.rivastation.com/review/geforce2-ultra/gf2ultra_2.htm
aber du bildest dir ja deine eigene meinung...

noch ein nettes zitat im artikel
Mit rund DM 1300,- liegen die offiziellen Preisempfehlungen der Hersteller weitab der 1000DM Schallmauer. Wer kauft eine solche Karte? Nun, schon zur Einführung der Voodoo2 haben sich überraschend viele ein Doppelpack dieser Karten zugelegt - zum damaligen Stückpreis von rund DM 600,-. Genug Enthusiasten scheint es also zu geben.

hier ist die via map
http://www.3dcenter.org/downloads/quake3-via-arena.php ;D
(mensch lief das teil scheisse ;D )

Gast
2007-05-25, 10:09:01
Momentan schlecht, bin auf der Arbeit. War aber afaik ne VIA Map mit DDRR2 Werbung gewesen, wo sich irgendwo in der Mitte ein großer Raum mit Spiegel an der Decke befand. Mit ordentlich Spielern war man da schnell bei 40 fps.
Meinte natürlich DDR1 Werbung statt DDR2!

Poweraderrainer
2007-05-25, 10:15:15
@madjim
wtf? gf3 ultra? sowas gibts nicht...



Ich bin mir mittlerweile genauso sicher, dass ne X2900 in 1-1.5 Jahren quasi überall vor dem G80 liegen wird.
da bin ich mir auch sehr sicher...man muss ja nur die vergangenheit anschauen wie du selber sagtest.

trotzdem muss man nicht versuchen mit aller gewalt die karte schlechtzumachen. imo wissen die meisten 3dc-user sehr gut über die leistung der karte bescheid. jeder der sich die karte hier im thread gekauft hat, hat seinen grund, auch wenn du ihn nicht siehst oder nicht sehen willst.

den meisten geht es einfach wie mir - sie wollen so eine karte mal "ausprobieren"...und das ist für den preis ganz ok

und bitte: es geht hier in dem thread um das angebot von alternate. ich würde lieber posts lesen wie "ich habe ne versandbestätigung bekommen - habe dann und dann bestellt" oder "habe ne mail über nicht lieferbarkeit bekommen weil...." - "das bulk bedeutet dass und dass, die verpackung sieht so und so aus etc.."

es stört einfach nur, wenn sich hier 3-4 leute über 150posts nur bashen welche karte jetzt besser ist! sieh es ein. jmd der die karte kaufen will wird sich durch den thread nicht davon abbringen lassen und jmd der die karte nicht kaufen will, der wird auch ganz sicher nicht von dem thread überzeugt.

wozu also dieses gezanke? um zu beweisen, dass man schlauer ist als der andere? oder wozu?

es nervt....

Mr. Lolman
2007-05-25, 10:17:47
Nein, das ist falsch. Aber das weißt du ja selbst - hoffentlich.
Für dich ist doch "bessere BQ" immer noch abhängig vom Hersteller.

Nö, ich hab schon mehrfach gezeigt warums richtig ist. Wenn du nur die letzten paar Posts liest, ists kein Wunder, dass du dich nicht auskennst.


Noe, frag' mal SM2.b Hardwarekäufer wie sie es finden, von vielen Spielen ausgeschlossen zu werden.

Frag nen 6800GT Käufer, obs Spaß macht Rainbow Six in 800x600 mit Low Details und ~16fps avg. zu zocken...


In 1-1.5 Jahren? Dann wäre die 8800 Karten fast 2 Jahre auf dem Markt - na, wenn das nicht zukunftstauglich ist von nVidia.
Das ist das selbe wie mit der Bildqualität - bei dir reines abhängig sein vom Hersteller. Eine HD2900 wird auch in zukünftigen Spielen nicht besser darstehen, da das AA einfach verbuggt ist - oder spielt BQ jetzt plötzlich keine Rolle mehr?

Bei mir ist da nix vom Hersteller abhängig. Warts ab. Die Vergangenheit zeigt, dass ich recht hab. Ich hab nie bestritten, dass der G80 ein feines Ding ist, als lass bitte gefälligst die Fanboyunterstellungen.


Warum lässt du die Leute hier nicht in Ruhe? Eine GX2 für den Preis ist nicht schlecht und wer sich mit SLI auseinandersetzen möchte, findet hier den perfekten Einstieg.

Weil da tw. soviel Schwachsinn steht. Die Leutz glauben tzw. immernoch, dass ne GX2 in hohen Auflösungen jede Single R580 abzockt, und das stimmt einfach nicht.


trotzdem muss man nicht versuchen mit aller gewalt die karte schlechtzumachen. imo wissen die meisten 3dc-user sehr gut über die leistung der karte bescheid. jeder der sich die karte hier im thread gekauft hat, hat seinen grund, auch wenn du ihn nicht siehst oder nicht sehen willst.


Ich mach die Karte nicht schlecht, ich versuch sie nur von dem Podest runterzuholen, auf dass sie manche Leute stellen. Ne GX2 ist von ner X1900 ein maximal ein Sidegrade. Wenn man das will, ok. Wenn mans nur testen will auch. Aber man kauft da nicht die Überkarte, so wies von manchen Gästen eingeredet wird.

Ne Überkarte wars zum Erscheinenungszeitpunkt. Da hat sie die ATi-Karte in der Tat gut abgezockt. Das ist aber schon länger nicht mehr der Fall.


wozu also dieses gezanke? um zu beweisen, dass man schlauer ist als der andere? oder wozu?

es nervt....

Weil ichs dumm find 30W+ für nix in die Luft zu blasen. (Genau wie ich den Dualcorewahn, wo man sich über 30-50% Performanceplus bei 100% mehr Abwärme freut, dumm find)

imho hatte sie 64mb teuren ram (und die GPUs waren selektiert ) deshalb war sie so teuer
http://www.rivastation.com/review/geforce2-ultra/gf2ultra_2.htm
aber du bildest dir ja deine eigene meinung...

Die Margen im Highendmarkt sind am größten. Die Ultra war den Mehrpreis zu einer Pro von den Materialkosten niemals wert.

=Floi=
2007-05-25, 10:19:05
um die leute vor einem finanziellen schaden zu bewahren wenn die hinterher doch nicht mit der karte glücklich sind!

Poweraderrainer
2007-05-25, 10:20:20
um die leute vor einem finanziellen schaden zu bewahren wenn die hinterher doch nicht mit der karte glücklich sind!

die karte kann man bei ebay locker für den kaufpreis raushauen...ist also kein problem...hatten wir auch schon

Poweraderrainer
2007-05-25, 10:32:43
Ich mach die Karte nicht schlecht, ich versuch sie nur von dem Podest runterzuholen, auf dass sie manche Leute stellen. Ne GX2 ist von ner X1900 ein maximal ein Sidegrade. Wenn man das will, ok. Wenn mans nur testen will auch. Aber man kauft da nicht die Überkarte, so wies von manchen Gästen eingeredet wird.
ja, gastposts sind meist so gehaltvoll, dass man sie 100 posts lang (und wahrscheinlich noch 250posts lang) niederreden muss


Ne Überkarte wars zum Erscheinenungszeitpunkt. Da hat sie die ATi-Karte in der Tat gut abgezockt. Das ist aber schon länger nicht mehr der Fall.

ja, das ist eigentlich jedem klar


Weil ichs dumm find 30W+ für nix in die Luft zu blasen. (Genau wie ich den Dualcorewahn, wo man sich über 30-50% Performanceplus bei 100% mehr Abwärme freut, dumm find)
und dafür brauchst du so viele posts?...ein athlon C 1400 hat mehr gefressen wie ein moderner dualcore...trotzdem wurde der damals gekauft, obwohl es damals auch langsamere und kühlere modelle gab. ich würde auch überlegen: macht ein 4600+X2 für 90€ viel weniger sinn als ein 3800+ für 60€. 100% mehr abwärme hast du unter last aber auch nur sozusagen, wenn die software voll dualcore-tauglich ist...und das sind dann mehr als 30-50% performancezuwachs.


edit: die beiträge werden garnicht automatisch zusammengelegt...oldschool forum *g*

Mr. Lolman
2007-05-25, 10:48:55
ja, gastposts sind meist so gehaltvoll, dass man sie 100 posts lang (und wahrscheinlich noch 250posts lang niederreden muss)

Imo sind viele Gastposts durchaus gehaltvoll. Andere wiederum nicht. Vll. will manchen Schwachsinn einfach nicht unkommentiert stehen lassen. Andererseits geht mir die Diskussion auch gegen den Strich. Nur wenn man mich dann schon der Lügnerei bezichtigt, kann und will ich das nicht einfach so auf mir sitzen lassen. Sry.


ja, das ist eigentlich jedem klar

Anscheinend nicht ganz. Denn ein Schnäppchen ist die GX2 nur genauso sehr wies auch eine X1950XT um den gleichen Preis ist. (und bei der macht man auch kein Aufhebens darum)

LovesuckZ
2007-05-25, 10:49:34
Nö, ich hab schon mehrfach gezeigt warums richtig ist. Wenn du nur die letzten paar Posts liest, ists kein Wunder, dass du dich nicht auskennst.

Ich sehe keine Reviews, wo die X1900XTX im Durchschnitt schneller ist - egal ob 1024*768 oder 1600*1200. Und auch von der BQ Seite ist deine Aussage falsch, da die X190XTX keine hybriden Modie erlauben.


Frag nen 6800GT Käufer, obs Spaß macht Rainbow Six in 800x600 mit Low Details und ~16fps avg. zu zocken...

Wie gesagt: Du definierst dir deine Aussagen doch immer anhand deines Herstellers.


Bei mir ist da nix vom Hersteller abhängig. [...] als lass bitte gefälligst die Fanboyunterstellungen.

Du definierst dir Sachen, um nVidia schlecht darstehen zu lassen. Ja, das ist für mich Fanboytum. Die Leute hier wollen nicht deinen Greul hören, sondern über das Angebot und den eventuell Kauf reden. Den interessierts nicht, ob die Karte nur auf dem Niveau der X1950XTX liegt oder die GTS abzockt.


Weil da tw. soviel Schwachsinn steht. Die Leutz glauben tzw. immernoch, dass ne GX2 in hohen Auflösungen jede Single R580 abzockt, und das stimmt einfach nicht.

Wenn das SLI-Profil funktioniert, liegt die Karte zwischend er X1950XTX und der GTS. Für jedes Beispiel, das du heranziehst, gibt es mindesten zwei Gegenbeispiele. Der einzige der hier etwas glaubt bist du - nämlich, dass die Karte nur auf dem Niveau der X1900XTX läge. Und das ist falsch.

Gast
2007-05-25, 10:59:06
Ich sehe keine Reviews, wo die X1900XTX im Durchschnitt schneller ist - egal ob 1024*768 oder 1600*1200. Und auch von der BQ Seite ist deine Aussage falsch, da die X190XTX keine hybriden Modie erlauben.

Also man muss schon extremst nVidia-freundlich sein um die BQ einer G70 gegenüber einer R580 als überlegen zu bezeichnen. Die Texturfilterung der G70 ist einfach unter aller Kanone und das wiegen auch die Hybrid-AA-Modi nicht auf.

Mr. Lolman
2007-05-25, 11:02:47
Ich sehe keine Reviews, wo die X1900XTX im Durchschnitt schneller ist - egal ob 1024*768 oder 1600*1200. Und auch von der BQ Seite ist deine Aussage falsch, da die X190XTX keine hybriden Modie erlauben.

Ach man. Hör auf mit der selektiven Sichtweise. Ja, hybride Modi (in Form von OGSSAA+MSAA) kann sie nicht. Dafür halt andere Sachen (wie mehrfach dargelegt)

Ich hab auch nie behauptet, dass sie in 1024 oder 1600 im Durchschnitt schneller ist. Nur bei neuen Spielen und bei steigender Last (in Form von hohen Auflösungen): http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5524788#post5524788


Wenn das SLI-Profil funktioniert, liegt die Karte zwischend er X1950XTX und der GTS. Für jedes Beispiel, das du heranziehst, gibt es mindesten zwei Gegenbeispiele. Der einzige der hier etwas glaubt bist du - nämlich, dass die Karte nur auf dem Niveau der X1900XTX läge. Und das ist falsch.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5524788#post5524788

Undertaker
2007-05-25, 11:11:11
Also man muss schon extremst nVidia-freundlich sein um die BQ einer G70 gegenüber einer R580 als überlegen zu bezeichnen. Die Texturfilterung der G70 ist einfach unter aller Kanone und das wiegen auch die Hybrid-AA-Modi nicht auf.

ich würde dies nicht so einseitig sehe - wer einen g71 hatte weis, dass das bild auf hq ziemlich gut ist, ai bei ati ist auch nicht gerade der weisheit letzter schluss (ist trotzdem bei keinem benchmark off)

der unterschied zwischen winkelabhängigem af und der unabhängigen variante ist übrigens im gameralltag weit seltener erkennbar als der zwischen normalem aa und den hybridmodi mit supersamplinganteil (kostet aber, keine frage, auch erheblich mehr leistung)

Poweraderrainer
2007-05-25, 11:13:00
Imo sind viele Gastposts durchaus gehaltvoll. Andere wiederum nicht. Vll. will manchen Schwachsinn einfach nicht unkommentiert stehen lassen. Andererseits geht mir die Diskussion auch gegen den Strich. Nur wenn man mich dann schon der Lügnerei bezichtigt, kann und will ich das nicht einfach so auf mir sitzen lassen. Sry.


natürlich nicht alle, ja.
aber als gast schreibt man gerne provokant anscheinend. siehe gastposting von 11:05:31

darauf darf man sich nur nicht einlassen imo.

genug OT von mir jetzt...

Gast
2007-05-25, 11:23:02
Also man muss schon extremst nVidia-freundlich sein um die BQ einer G70 gegenüber einer R580 als überlegen zu bezeichnen. Die Texturfilterung der G70 ist einfach unter aller Kanone und das wiegen auch die Hybrid-AA-Modi nicht auf.

Viele beschweren sich über die mangelhafte Filterung unter A.I default. HQ auf den G7x Karten soll sogar besser aussehen. Es ist also nicht so einfach von "besserer" Filterung zu reden.

Ach man. Hör auf mit der selektiven Sichtweise. Ja, hybride Modi (in Form von OGSSAA+MSAA) kann sie nicht. Dafür halt andere Sachen (wie mehrfach dargelegt)


Für manche Leute kann dies eben den Ausschlag geben, welche Karte man kaufen will. Das du die hybriden Modi die BQ sogar besser aussehen kann als bei der Konkurrenzkarte, willst du doch hoffentlich nicht abstreiten, oder?

LovesuckZ

Gast
2007-05-25, 11:23:44
ich würde dies nicht so einseitig sehe -

Das ist nicht einseitig, sondern eine Ergänzung bzw. ein Widerpart zu einem einseitigen Pro-nVidia-Posting.
wer einen g71 hatte weis, dass das bild auf hq ziemlich gut ist, ai bei ati ist auch nicht gerade der weisheit letzter schluss (ist trotzdem bei keinem benchmark off)

Was soll der Vergleich? Wenn es um bestmöglich BQ geht, hat AI ebenso wenig zu suchen wie Q. Dass AI in Benchmarks zw. G70 und R500 oft benutzt wurde, ist in den meisten Fällen absolut legitim - Stichwort "vergleichbare BQ" um die Leistung halbwegs angemessen zu vergleichen.

der unterschied zwischen winkelabhängigem af und der unabhängigen variante ist übrigens im gameralltag weit seltener erkennbar als der zwischen normalem aa und den hybridmodi mit supersamplinganteil (kostet aber, keine frage, auch erheblich mehr leistung)
Auch hier gilt: es kommt drauf an. Pauschal lasse ich das so nicht gelten.

Wie steht es mit Spiele wie GTR/GTL? Wenn das auf nVidia-Karten flimmert (trotz HQ und Clamp) und auf ATI-Karten nicht, dann ist natürlich die Engine schuld, bad content eben, nicht etwa dass nVidia die schlechte BQ zu verantworten hätte, nein ...

Digg
2007-05-25, 11:30:12
Wahnsinn dieser Preis. (y)

Undertaker
2007-05-25, 11:51:07
Das ist nicht einseitig, sondern eine Ergänzung bzw. ein Widerpart zu einem einseitigen Pro-nVidia-Posting.

ähm, du nennst es selbst einen widerpart zu einem pro-nvidia posting... ;)

Was soll der Vergleich? Wenn es um bestmöglich BQ geht, hat AI ebenso wenig zu suchen wie Q. Dass AI in Benchmarks zw. G70 und R500 oft benutzt wurde, ist in den meisten Fällen absolut legitim - Stichwort "vergleichbare BQ" um die Leistung halbwegs angemessen zu vergleichen.

das war auch ein punkt den ich meinte, wer es so genau nimmt sollte eben auch in betracht ziehen, das hq eben doch ein stückchen über jeglichen ai-stufen liegt... aber hier will ich mich und viele andere ausschließen: selbst quality auf der 7900gtx ist mir häufig eben nicht negative aufgefallen, ai standard auf dem r580 genausowenig...

Auch hier gilt: es kommt drauf an. Pauschal lasse ich das so nicht gelten.

Wie steht es mit Spiele wie GTR/GTL? Wenn das auf nVidia-Karten flimmert (trotz HQ und Clamp) und auf ATI-Karten nicht, dann ist natürlich die Engine schuld, bad content eben, nicht etwa dass nVidia die schlechte BQ zu verantworten hätte, nein ...

ich habe lange zeit auf beiden karten gtr gespielt, da hat absolut NIX spürbar geflimmert - womit ich nicht behauten will, dass es da auch wirklich 0,0 flimmern gab, aber die problematik war zu der zeit nicht im gespräch, ich habe nicht extra darauf geachtet und von selber nix gemerkt - das ist für mich der punkt, wo ich sage das ich mit der bq leben kann

2 gegenbeispiele:

1. gothic 3
das dumme gras dort hat auf absolut jeder graka geflimmert, ai/hq alles egal (für zustzliches aa hatte eh keine karte leistung über)

2. half-life 2 (+darauf basierende spiele)
das game sah schon auf dem r580 mit aa extrem hübsch aus, aber g71/g80 mit hybridmodi waren eine neue dimension - aber auch hier gibt es wieder eine grenze, von 8xs auf 16xs tut sich nichts mehr großartig

The_Invisible
2007-05-25, 12:37:24
Das ist nicht einseitig, sondern eine Ergänzung bzw. ein Widerpart zu einem einseitigen Pro-nVidia-Posting.

Was soll der Vergleich? Wenn es um bestmöglich BQ geht, hat AI ebenso wenig zu suchen wie Q. Dass AI in Benchmarks zw. G70 und R500 oft benutzt wurde, ist in den meisten Fällen absolut legitim - Stichwort "vergleichbare BQ" um die Leistung halbwegs angemessen zu vergleichen.

Auch hier gilt: es kommt drauf an. Pauschal lasse ich das so nicht gelten.

Wie steht es mit Spiele wie GTR/GTL? Wenn das auf nVidia-Karten flimmert (trotz HQ und Clamp) und auf ATI-Karten nicht, dann ist natürlich die Engine schuld, bad content eben, nicht etwa dass nVidia die schlechte BQ zu verantworten hätte, nein ...

ja, "leider" kann ati bei dieser generation nicht mehr drauf setzen das AI low gegen HQ verglichen werden kann, trotzdem testet jeder so, aber das ist ja "legitim" laut einigen leuten hier (freu mich schon aufs hartecs4u review wo sie mit ai off wieder so richtig federn lassen wird)

btw
ich hoffe doch inständig das die user die über g7x bildquali lästern schön brav mit ai off spielen, sonst kann man sie sowieso nicht ernstnehmen

mfg

Gast
2007-05-25, 12:49:12
ich habe lange zeit auf beiden karten gtr gespielt, da hat absolut NIX spürbar geflimmert - womit ich nicht behauten will, dass es da auch wirklich 0,0 flimmern gab, aber die problematik war zu der zeit nicht im gespräch, ich habe nicht extra darauf geachtet und von selber nix gemerkt - das ist für mich der punkt, wo ich sage das ich mit der bq leben kann
Also die Unterschiede sind so extrem, dass ich kaum glauben kann dass es jemanden nicht auffällt, der vergleichen kann. Aber vielleicht bin ich auch zu sensibel. Außerdem haben wohl die wenigsten wirklich einen direkten Vergleich, man kauft ja entweder eine aktuelle Karte von nVidia oder von ATI bzw. deren OEMs.

Zu deinem sonstigen Postinginhalt fällt mir nur ein ACK ein. ;)

DrFreaK666
2007-05-25, 13:37:22
passt die Karte auf ein ASRock 4CoreDual-VSTA??

AnarchX
2007-05-25, 13:39:47
passt die Karte auf ein ASRock 4CoreDual-VSTA??

Ich bezweifele, dass da noch eine anständige Performance herumkommt, wenn jeder Teilkarte nur x2 Geschwindigkeit zur Verfügung steht.

edit: kompatibel scheint es auch nicht zu sein.

DrFreaK666
2007-05-25, 13:42:29
Ich bezweifele, dass da noch eine anständige Performance herumkommt, wenn jeder Teilkarte nur x2 Geschwindigkeit zur Verfügung steht.

edit: kompatibel scheint es auch nicht zu sein.

inwiefern kompatibel?
Wegen dem Chip-satz?

J0ph33
2007-05-25, 13:48:16
mmmh....ich könnte wohl bald einen Apple Cinema 23 bekommen, Auflösung 1920*1200

ne 8800GTX ist mir zu teuer (zumal schon so lange am markt), ne 8800GTS zu langsam für den Preis (bei dem Preis müsste ich sie ne ganze weile behalten), ne HD2900XT zu verbugt (ob nun treiber- oder HW-mäßig)...bliebe die 7950GX2 als Übergang bis die Refreshs Ende des Jahres kommen...

jetzt habe ich eine X1800XT 512 (OC geht nix)...dass eine X1950XTX einer 7950GX2 Konkurrenz macht, weiß ich, doch wie steht jene mittlerweile im Vergleich zur X1800XT aus?

DrFreaK666
2007-05-25, 14:02:49
Hier ein Review
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/11/#abschnitt_battlefield_2

J0ph33
2007-05-25, 14:09:39
ich kenne die CB-Reviews alle...

im neuesten wird die GX2 jedoch mitunter recht deutlich von der X1900XTX geschlagen, was bei den alten Reviews ja nicht unbedingt der Fall war...jedoch ist in den neuen reviews die X1800XT nicht mehr dabei, so dass man nicht nachvollziehen kann, jene hier auch mitzieht oder deutlich hinter den X1900er zurückbleibt...

seb74
2007-05-25, 14:25:19
Die 1800XT wird durch nur ein Drittel an Pixelshaderanzahl der x19xx bei modernen Spielen ziemlich hinterherhinken.. Daher habe ich meine 1800xt256 ohne Verlust durch eine 1950xt256 ersetzt. Diese würde ich sicher nicht gegen die 7950GX2 eintauschen. Doch wenn man noch eine ältere Graka hat wie NV6er Serie oder 7600gt bzw ATI 8xx oder 1800GTO würde ich bei dem sagenhafte Preis zuschlagen, trotz bekannter kleiner G7x "Schwächen"

Poweraderrainer
2007-05-25, 14:26:18
natürlich ist die x1800xt in allen belangen immernoch langsamer als die x1900xtx...wieso sollte sich das ändern?

J0ph33
2007-05-25, 14:30:17
achtung fiktive werte, will nur meinen gedankengang erklären:

review 1 (2006) ---> 7950GX2 schlägt X1900XTX mit 20%, X1800XT mit 30%
review 2 (2007) ---> 7950GX2 liegt höchstens gleich auf mit X1900XTX, X1800XT nicht mehr augelistet...

schlussfolgerung aus 1 und 2: in review 2 müsste die X1800XT (wenn aufgelistet) der 7950GX2 mit ~10% unterliegen...

Frage: ist das wirklich so? oder profitieren die X1900er in den neuen reviews überproportional durch die 48 Shadereinheiten, so dass sich der Abstand zur X1800 weiter vergrößert hat?

The_Invisible
2007-05-25, 14:36:54
achtung fiktive werte, will nur meinen gedankengang erklären:

review 1 (2006) ---> 7950GX2 schlägt X1900XTX mit 20%, X1800XT mit 30%
review 2 (2007) ---> 7950GX2 liegt höchstens gleich auf mit X1900XTX, X1800XT nicht mehr augelistet...

schlussfolgerung aus 1 und 2: in review 2 müsste die X1800XT (wenn aufgelistet) der 7950GX2 mit ~10% unterliegen...

Frage: ist das wirklich so? oder profitieren die X1900er in den neuen reviews überproportional durch die 48 Shadereinheiten, so dass sich der Abstand zur X1800 weiter vergrößert hat?

ne x1800 kannst jetzt der 7950gt/7900gto gleichstellen

mfg

J0ph33
2007-05-25, 14:46:58
woher weißt? vermutung? eigene erfahrung? schlussfolgerung aus technischen daten?

Blaire
2007-05-25, 14:58:08
Ne 7950GX2 ist schneller als ne X1900XTX lasst euch nix falsches einreden ich hatte beide Karten im Doppelpack und weiss wovon ich rede. Natürlich muss man sich ein wenig mit SLI beschäftigen dann klappts auch mit dem Speed. :smile:

Spartacus
2007-05-25, 15:00:35
Ich will ja nich nerven abe kann mir nich mal bitte einer bei dieser Frage helfen:confused:

Hallo!
Eigentlich wollte ich die 8800Gts kaufen doch bei diesem Preis bin ich echt am Überlegen ob ich nich lieber die 7950 nehme. Jetzt stellt sich aber die frage ob mein Netztteil dafür ausreicht. Ich habe 2 12V-Leitungen einmal mit 15A und einmal mit 14A.Falls eine einzelne nicht reicht,könnt ich dann eigentlich auch die beiden Leitungen zusammenschließen? :confused:
Wär sehr dankbar für Hilfe:smile:

seb74
2007-05-25, 15:06:08
du kannst die beiden Stränge nicht einfach "zusammenschließen". Welche Marke ist es genau? Bei Billig NT siehts schlecht aus, ein MarkeNT könnte es packen. Versuch macht klug, Feuerlöscher bereithalten. ;)

Mr. Lolman
2007-05-25, 15:06:09
06/2006: 7950GX2 um 43% flotter als X1900XTX (1600, AA/AF): http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/23/#abschnitt_performancerating_qualitaet

05/2007: 7950GX2 um 2% flotter als X1900XTX (1600, AA/AF):http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/23/#abschnitt_performancerating_qualitaet

Gast
2007-05-25, 15:07:17
@blaire, das ist doch auch wieder geschwätz.
je nach game ist die 7950gx2 mal schneller mal langsamer mal gleichschnell zu x1900xtx.
Vorteil für die X1900xtx wären bessere BQ, kein rumnervendes SLI-Gefummel, und der Lüftertausch geht auf der x1900 auch einfacher.
Das beide keine Leisetreter sind ist bekannt.
Allen die jetzt umrüsten wollen würde ich gebrauchte x1900er empfehlen, falls die Geforce 8 zu teuer ist.
Ich wollte nicht so ein Sli-auf-einer-Karte-Ding haben, wehe SLI funzt nicht dann sieht es mau aus.
Und wer hat schon bock ständig zu kontrollieren ob auch sli funzt wie es solll?

Super Grobi
2007-05-25, 15:07:37
@Spartacus:

15x12= 180 Watt

Soviel braucht die Karte nicht, daher reicht das NT.


SG

p.s.
die GTS würde genausoviel schlucken

Blaire
2007-05-25, 15:08:05
In dem Fall würde ich die 8800GTS nehmen, was dein Netzteil betrifft wäre es nicht schlecht wenn du mehr Angaben machen könntest welches Netzteil ist das genau?

erwingage
2007-05-25, 15:09:07
Ne 7950GX2 ist schneller als ne X1900XTX lasst euch nix falsches einreden ich hatte beide Karten im Doppelpack und weiss wovon ich rede. Natürlich muss man sich ein wenig mit SLI beschäftigen dann klappts auch mit dem Speed. :smile:

endlich mal einer mit sachverstand!;)

Mr. Lolman
2007-05-25, 15:09:46
Das beide keine Leisetreter sind ist bekannt.

Die hier schon: http://geizhals.at/eu/a243435.html

endlich mal einer mit sachverstand!;)

Endlich mal einer, der das sagt, was du hören willst, meinst du ;)

Dass er unrecht hat, zeigt das letzte CB-Review.

Spartacus
2007-05-25, 15:10:09
Ah gut danke. Das Netzteil is eins von seasonic -SS-401 HT
Ich hab von der Marke noch nich soviel gehört denk also mal eher es is n billignetzteil

Super Grobi
2007-05-25, 15:15:24
Ah gut danke. Das Netzteil is eins von seasonic -SS-401 HT
Ich hab von der Marke noch nich soviel gehört denk also mal eher es is n billignetzteil

Ist ein Marken NT!

SG

Blaire
2007-05-25, 15:15:34
@blaire, das ist doch auch wieder geschwätz.
je nach game ist die 7950gx2 mal schneller mal langsamer mal gleichschnell zu x1900xtx.

Insgesamt ist die z.T. deutlich schneller je nach Game. So Vergleiche mit Computerbase Benchmarks incl. HQ Setting und Adpative AA ziehen nicht. Ich gehe nach spielbaren Settings und da ist die GX2 die bessere Karte.

Vorteil für die X1900xtx wären bessere BQ, kein rumnervendes SLI-Gefummel, und der Lüftertausch geht auf der x1900 auch einfacher.
Das beide keine Leisetreter sind ist bekannt.

Die X1900XTX ist deutlich lauter, die 7950GX2 war dagegen recht leise. Das mit der Bildqualität stimmt, andererseits hat man dort Hybriden. Das mit dem SLI Gefummel wird viel zu sehr überbewertet. Dann ist EATM und die ganzen Inoffiziellen Modis auch nur gefummel und rumprobiererei oder nicht? Es gibt eben immer zwei Seiten.


Allen die jetzt umrüsten wollen würde ich gebrauchte x1900er empfehlen, falls die Geforce 8 zu teuer ist.
Ich wollte nicht so ein Sli-auf-einer-Karte-Ding haben, wehe SLI funzt nicht dann sieht es mau aus.
Und wer hat schon bock ständig zu kontrollieren ob auch sli funzt wie es solll?

SLI funzt immer kenne bis heute kein Game was nicht damit funktioniert hat.

Blaire
2007-05-25, 15:20:27
Ah gut danke. Das Netzteil is eins von seasonic -SS-401 HT
Ich hab von der Marke noch nich soviel gehört denk also mal eher es is n billignetzteil

Das reicht locker! Das hat 30A das langt dicke.

Undertaker
2007-05-25, 15:21:59
Dass er unrecht hat, zeigt das letzte CB-Review.

warum igonrierst du mit jedem post den fakt, das bei denen einfach sli nicht überall geklappt hat???

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/#abschnitt_rainbow_six_vegas

James Ryan
2007-05-25, 15:25:03
06/2006: 7950GX2 um 43% flotter als X1900XTX (1600, AA/AF): http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/23/#abschnitt_performancerating_qualitaet

05/2007: 7950GX2 um 2% flotter als X1900XTX (1600, AA/AF):http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/23/#abschnitt_performancerating_qualitaet

Warum verlinkst du zweimal zum gleichen Test?
Übrigens hat CB zwischen 06/2006 und 05/2007 auch die Benchmarks geändert, insofern ist ein richtiger Vergleich eh nicht möglich.

Hier nochmal das was du eigentlich zeigen wolltest:

06/2006
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/23/#abschnitt_performancerating_qualitaet

05/2007
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

MfG :cool:

erwingage
2007-05-25, 15:29:27
Die hier schon: http://geizhals.at/eu/a243435.html



Endlich mal einer, der das sagt, was du hören willst, meinst du ;)

Dass er unrecht hat, zeigt das letzte CB-Review.

paß mal mister superschlau :biggrin:

ich zocke nur bf2& co,stalker und css und da reicht diese karte locker aus:biggrin:
(sollte etwas besser sein als meine jetzige)

DrFreaK666
2007-05-25, 15:33:25
passt die Karte auf ein ASRock 4CoreDual-VSTA??

Ist das nun möglich oder nicht???
Ne neue Graka wäre nett.
Und die Dual find ich recht günstig

erwingage
2007-05-25, 15:44:21
warum igonrierst du mit jedem post den fakt, das bei denen einfach sli nicht überall geklappt hat???

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/24/#abschnitt_rainbow_six_vegas

"nein dort ist SLI mit großer sicherheit aktiv":biggrin: ;D :biggrin:

edit:meine ist heute vormittag DHL übergeben worden

Gast
2007-05-25, 16:08:37
Hat schon jemand eine Versandbestätigung erhalten? Die "24h versandfertig" werden bei mir nicht eingehalten... . Gestern (24.05.) um 12:15 bestellt und noch keine Versandbestätigung erhalten. Aus anderen "Läden" bin ich "bis 13:00 bestelltam nächsten Tag da" gewohnt.

Ciao

Gast
2007-05-25, 16:21:56
Heute morgen/Nacht mit Kreditkarte bezahlt und bereits Versandbestätigung erhalten.