PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia GeForce 7900 Quad SLI/7950X2


Seiten : [1] 2 3

Futzi
2006-04-30, 15:56:22
http://www.xbitlabs.com/articles/video/display/geforce7900-quad-sli.html

PingpiN
2006-04-30, 16:34:36
Die Performance Balken sehen nicht schlecht aus! :eek:
Aber für was gibts bei Quad Sli ein 32 AA Modus wenn er unbrauchbar ist.

Komisch auch bei denn Sogenanten Nextgen Titeln deklassiert ein X1900 CF gespann Quad SLi (SC3,X3...).

The_Invisible
2006-04-30, 16:40:15
hm, anscheinend das optimale gespann für oblivion in hohen auflösungen, ansonsten ist es eher ernüchternd. allerdings schaut das eher noch nach "viel Treiberarbeit" aus, manche ergebnisse sind schon "komisch", außerdem gibts anscheinend noch viele grafikfehler

mfg

w0mbat
2006-04-30, 18:42:54
Ich denke dass QSLI eher eine Spielerei ist oder halt für Leute die unbeding auf 23'' spielen wollen.

Blaze
2006-04-30, 18:44:08
Wohl eher 30"...

Blaire
2006-04-30, 18:46:15
Steckt alles noch in den Kinderschuhen sieht man an den Problemen die wohl noch damit auftreten, erinnert mich irgendwie an die Anfangszeit wo SLI kam.
Wie Tombman schon sagte, richtig interessant wirds dann wieder mit dem G80 da bekommt man neben einer ausgereiften Technik wie SLI sicher auch bessere Bildqualität oben drauf.

Gast
2006-05-01, 11:37:04
naja daws review ist ja eigentlich vernichtend :
Häufig auftretende Fehler, Abstürze , sauteuer und nicht mal die Performancekrone....
Über Lautstärke, Stromverbrauch braucht wohl eh kein Wort verloren werden...

Aber we schon gesagt : Steckt alles noch in den Kinderschuhen

tombman
2006-05-01, 12:12:42
tjo, na das war ja mal ein schöner Reinfall. In total vielen Tests vernichtet X1900 Crossfire quad-sli ordentlich ;)

Ich wills ja ned sagen, aber : "ICH HABS EUCH JA GESAGT" ;D;D

Obwohl SO schlecht hätte ich es mir auch ned vorgestellt. Abstürze, Bildfehler und noch dazu schlechte Leistung...

Und Xbitlabs wissen was sie tun, also liegts nicht an den reviewern...
(aber die neuen Stacker Cases sind ziemlich geil :D)

Ich weiß nicht, wie Nvidia das noch retten will, denn ob neue Treiber das ausbügeln können wage ich mal schwer zu bezweifeln...
Ist DAS der Grund für die 7950GX2?

Fazit: erstmal Quad-SLi vergessen .... und schauen, daß man an einen Conroe rankommt ;D;D

Undertaker
2006-05-01, 12:30:05
tombman[/POST]']
Ich wills ja ned sagen, aber : "ICH HABS EUCH JA GESAGT" ;D;D

warst du nicht immer der, der gesagt hat, dass er crossfire nur solange nutzen will bis quad-sli erhältlich ist (und die performancekrone natürlich ebenfalls spielend erreicht ;))?

aber hdr+aa würde ich auch nie wieder hergeben wollen :cool:

tombman
2006-05-01, 12:34:10
Undertaker[/POST]']warst du nicht immer der, der gesagt hat, dass er crossfire nur solange nutzen will bis quad-sli erhältlich ist (und die performancekrone natürlich ebenfalls spielend erreicht ;))?

Das war zu einem Zeitpunkt wo noch keiner etwas über quad wußte und man ja nicht annehmen konnte, daß nvidia diesmal so versagt.
In letzter Zeit waren meine Aussagen bzgl quad aber schon ganz anders, als ich den ersten mini Review von ein paar Wochen gesehen hatte ;)

AnarchX
2006-05-01, 13:03:56
Nicht wirklich überzeugend...
Vielleicht kann Nvidia mit G80 Octo SLI wieder etwas reißen... ;)

reunion
2006-05-01, 13:11:24
tombman[/POST]']Das war zu einem Zeitpunkt wo noch keiner etwas über quad wußte und man ja nicht annehmen konnte, daß nvidia diesmal so versagt.
In letzter Zeit waren meine Aussagen bzgl quad aber schon ganz anders, als ich den ersten mini Review von ein paar Wochen gesehen hatte ;)

Nachdem die ersten Reviews zu lesen waren, war es auch keine Kunst mehr, zu wissen, dass Quad-SLi nicht die versprochenen Leistungen liefert. Eigentlich war aufgrund der zu erwartenden hohen CPU-Last, sowie der unvermeidbaren Probleme, welche bei der synchronisation von vier Grafikkarten nunmal auftreten und der verhältnismäßig niedrigen Taktraten der GX2-Karten auch nicht wirklich mehr zu erwarten. Unabhängig von der enttäuschenden Leistung bleibt eine Marketingaktion, bei der die User wieder mal Beta-Tester spielen dürfen, und sich mit zahlreichen Abstürzen, Bildfehlern, etc. herumärgern können. Aber wer so krank ist, und vier Grafikkarten in seinen PC steckt, muss mit derartigem eben auch leben können. Leid tun mir eigentlich nur die Leute, welche sich um 10.000€ einen Dell-PC mit Quad-SLi kaufen, und dann derartige Mängel feststellen müssen.

tombman
2006-05-01, 13:16:24
reunion[/POST]']Nachdem die ersten Reviews zu lesen waren, war es auch keine Kunst mehr, zu wissen, dass Quad-SLi nicht die versprochenen Leistungen liefert.
Es war aber auch keine Nicht-Kunst es vorher _nicht_ zu wissen ;)

Undertaker
2006-05-01, 13:18:29
zumindest die treiberprobleme verwundern mich aber etwas, ist es denn ein so großer schritt von sli -> quad-sli wenn man schon single-graka -> sli relativ problemlos gemeistert hat? technisch ist das doch nur eine relativ geringfügige weiterentwicklung :|

AnarchX
2006-05-01, 13:25:41
Sinnvoller wäre es eigentlich gewesen, ein paar G71 zu selektieren und die mit erhöhten VCore mit eine Kerntakt von 800Mhz+ und einer Wakü auszuliefern.
(800Mhz sind ja selbst bei einer 7900GT mit entsprechnder Lukü möglich)

Das Resultat wäre die Performance einer 7900GX2 ohne diese Probleme, die jetzt noch existieren.
-> 7900Ultra 850/1000Mhz.... vs 2x 500Mhz/600Mhz - Was wird wohl schneller sein unter der Berücksichtung der Skalierung von SLI? ;)


Zudem wäre es bestimmt auch wirtschaftlicher gewesen.

Gast
2006-05-01, 13:34:02
Und immer wieder meine Frage: Wer ist so blöd und kauft für ~ 1.500 € Grafikkarten? Dafür kann man sich locker ein HighEnd-System mit einem Core Duo und einer X1900 XTX leisten.

Ich weiß, dass will keiner hören, trotzdem stelle ich die Frage mal so in den Raum.

AnarchX
2006-05-01, 13:35:17
Gast[/POST]']Und immer wieder meine Frage: Wer ist so blöd und kauft für ~ 1.500 € Grafikkarten? Dafür kann man sich locker ein HighEnd-System mit einem Core Duo und einer X1900 XTX leisten.

Ich weiß, dass will keiner hören, trotzdem stelle ich die Frage mal so in den Raum.

Warum kauft man sich einen Ferrari? ;)
Wer das beste will, muss eben dafür entsprechend bezahlen...

Gast
2006-05-01, 13:39:19
AnarchX[/POST]']Warum kauft man sich einen Ferrari? ;)
Wer das beste will, muss eben dafür entsprechend bezahlen...

7900 GTX = Ferrari

Quad SLI = 4 x Ferrari

So sehe ich das. Eine 7900 GTX bzw. ein Ferrari ist ja ok, aber vier? ;D

tombman
2006-05-01, 13:42:08
Gast[/POST]']
Ich weiß, dass will keiner hören, trotzdem stelle ich die Frage mal so in den Raum.
BITTE stell die Frage in einem ANDEREN Raum. Grundsatzdiskussionen sind einfach schon zu oft geführt worden und haben hier nix verloren.

LovesuckZ
2006-05-01, 14:50:19
tombman[/POST]']tjo, na das war ja mal ein schöner Reinfall. In total vielen Tests vernichtet X1900 Crossfire quad-sli ordentlich ;)


Ja, das stimmt.
Vernichtend geschlagen (beim Stronverbrauch):
http://www.techpowerup.com/reviews/NVIDIA/QuadSLI/images/power.gif

http://www.techpowerup.com/reviews/NVIDIA/QuadSLI/14

G.A.S.T
2006-05-01, 14:52:26
Die frage ist nicht wer so blöd ist 10000€ für ein system auszugeben, die frage ist wer ist sp blöd 10000€ für das DELL system auszugeben ?
Wer sich selber ein 1A system für soviel geld zusammenbaut, respekt, er hat ein hobby und das geld dafür... aber einen deppen der die gleiche summe für das DELL system abdrückt obwohl es die hälfte wert ist, kann und werde ich leider nie verstehen

TM30
2006-05-01, 15:05:11
[OT]

pah! Quad SLI ist doch was für Lamer... OKT SLI rulezz

(wenn ich das doch nur zum laufen bringen würde ;) )

http://www.3dfx.ch/gallery/d/13026-1/oct-sli.jpg

Blaire
2006-05-01, 15:11:31
http://www.firingsquad.com/hardware/nvidia_geforce_7900_gx2_quad_sli/

Gast
2006-05-01, 15:23:00
Es war von Anfang an klar, das Quad SLI nicht das bringen wird, was der Name verspricht.

Von vierfacher Performance kann schon allein aus technischer Sicht nicht die Rede sein.
Zum einen spielt die Skalierung mit rein und zum anderen die deutlich gesenkten Taktraten.

Wären die GX2 Karten mit den gleichen Taktraten einer normalen 7900 GTX gekommen, so wären die Ergebnisse wesentlich besser.
Für den aktuellen Preis sind die GX2 Karten aber viel zu uninteressant.

Für den Preis einer GX2 bekommt man mittlerweile 2x X1900 oder 2x 7900 GT 512 MB.

4 Grafikchips zu übertakten dürfte verdammt schwierig werden, von der Hitzeentwicklung gar nicht erst zu reden, der Preis dürfte bei um die 1600 Euro liegen.

Wenn man sich nur mal die Taktraten anschaut, kommt man leicht zu dem Schluss, dass das nichts werden kann:
GX2: 500 MHz Core, 600 MHz Memory
normale GTX: 650 MHz Core, 800 MHz Memory
Gute GTX: 700 MHz Core, 850 MHz Memory

Im Endeffekt fährt man mit letzter Karte im SLI System deutlich besser und günstiger, da hier sogar noch ein wenig Übertaktungsspielraum ist.

Je einfacher gestrickt ein System ist, desto weniger Fehler können auftreten.

Hamster
2006-05-01, 15:31:16
TM30[/POST]'][OT]

pah! Quad SLI ist doch was für Lamer... OKT SLI rulezz

(wenn ich das doch nur zum laufen bringen würde ;) )

http://www.3dfx.ch/gallery/d/13026-1/oct-sli.jpg

ich wußte gar nicht, daß es die v5 auch mit dvi gab.....

TM30
2006-05-01, 15:36:01
jo die war fürn MAC gemacht.

Gast
2006-05-01, 15:48:32
Es muss nicht mal ne Voodoo sein, es war doch vor kurzem die Rede, das es Dual Chip Grafikkarten aus Basis der X1600 Serie geben soll.

Ich denke die Entwicklung geht langfristig in diese Richtung.
Die GX2 ist dafür leider ein ziemlich schlechtes Beispiel...
Entweder man baut einen Chip mit hohen Taktraten oder zwei Chips mit leicht (!) gesenkten Taktraten, aber doch mit solch riesen Unterschieden.

Wenn man vier Chips verbauen würde, könnte man alle mit weniger Spannung betreiben (da sie zusammengenommen deutlich weniger Takt brauchen um so schnell zu sein, wie einer) und auch die Kühlung wäre ein geringeres Problem.
Leider bleibt da noch das Problem der Skalierung, die müsste erstmal weiter verbessert werden, es geht noch zu viel Performance verloren.

Wenn man das mal weiter spinnen würde, käme man langfristig auf viele Grafikchips, die allesamt leicht (passiv?) kühlbar sind, aber mehr Power haben, wie die aktuellen.

Shared Grafikmemory... ist das nicht schon möglich? Also nicht Extern, sondern bei dem, der auf der Karte verbaut ist.

Naja, der Fertigungsprozess tut sein übriges dazu... die Chips werden ja immer kleiner. Stellt euch mal vor, wie eine Voodoo 3 in 80nm gefertigt aussehen würde. ;)

Coda
2006-05-01, 16:27:07
Ich denke die Entwicklung geht langfristig in diese Richtung.
Nö. Viel zu teuer.

Shared Grafikmemory... ist das nicht schon möglich? Also nicht Extern, sondern bei dem, der auf der Karte verbaut ist.
Nö gibts nich. Der Speicher addiert sich nicht.

Gast
2006-05-01, 16:58:33
Coda[/POST]']Nö. Viel zu teuer.

Ach, und das produzieren von Chips mit enormer Wärmeentwicklung und hoher Taktrate ist so viel billiger? Wieso wurden dann Dualchip X1600 und 6600

Nö gibts nich. Der Speicher addiert sich nicht.

Das meinte ich überhaupt nicht. Es müsste doch möglich sein, einen 512/1024 MB großen Speicher zu verbauen, auf den alle verbauten Grafikchips zugriff haben und zwar onboard?

Gast
2006-05-01, 16:59:06
Argh... wieso wurden dann X1600 und 6800 GTs Dualchipkarten gebaut? Weils zu teuer ist? :)

Black-Scorpion
2006-05-01, 17:04:04
Und wie teuer soll das PCB werden bei deiner Speicherlösung?

mapel110
2006-05-01, 17:08:56
Gast[/POST]']
Das meinte ich überhaupt nicht. Es müsste doch möglich sein, einen 512/1024 MB großen Speicher zu verbauen, auf den alle verbauten Grafikchips zugriff haben und zwar onboard?
Er hat dich schon richtig verstanden und das geht nunmal nicht.

Die Taktraten wurden gesenkt, um weniger Spannung geben zu können. 150 Watt ist Obergrenze für einen PCIe-Slot und da wirds nunmal eng bei zweimal 512MB und zweimal GPU.
Das macht mehr aus, als ein wenig mehr Spannung bei den Single High End Chips.

Gast
2006-05-01, 18:27:35
In den richtigen Auflösungen geht Quad SLI doch z.t ganz gut ab ich mein wer sich Quad Sli kaufen will wird wohl kaum auf 1280 oder 1600 zocken wollen.

Gast
2006-05-01, 18:38:30
mapel110[/POST]']Er hat dich schon richtig verstanden und das geht nunmal nicht.

Die Taktraten wurden gesenkt, um weniger Spannung geben zu können. 150 Watt ist Obergrenze für einen PCIe-Slot und da wirds nunmal eng bei zweimal 512MB und zweimal GPU.
Das macht mehr aus, als ein wenig mehr Spannung bei den Single High End Chips.

Bei Prozessoren gibts ja auch shared Cache, also müssts theoretisch möglich sein.......

Coda
2006-05-01, 19:00:48
Ja, da sind auch beide Prozessorkerne auf einem Die.

Und jetzt rate mal was eine GPU ist? Richtig: Viele Prozessorkerne auf einem Die ;)

Wenn die Kerne getrennt sind müsste man über einen gemeinsamen Speichercontroller gehen und dann richtig dicke Leitungen davon zu den GPUs legen. Es lohnt sich einfach nicht.

Bei GPUs kann man sehr sehr gut mit der verfügbaren Transistorzahl skalieren, deshalb sehe ich da absolut nichts in dieser Richtung für die Zukunft.

r@h
2006-05-01, 19:11:48
LovesuckZ[/POST]']Ja, das stimmt.
Vernichtend geschlagen (beim Stronverbrauch):
http://www.techpowerup.com/reviews/NVIDIA/QuadSLI/images/power.gif

http://www.techpowerup.com/reviews/NVIDIA/QuadSLI/14
Und ich muss ehrlich gestehen, dass ich DAS den eigentlich Hammer nenne!
Crossfire schafft es doch tatsächlich, mehr Strom zu verbrauchen, als ein System mit 4 statt 2 Grafikkarten... echt das Unsinnigste, was ich JEMALS gesehen habe.

Wenn ich vorher schon über SLI gewitzelt habe, Crossfire schlägt dem Faß den Boden aus.
Und wer mich kennt, wird ganz sicher wissen, was ich von Quad-SLI halte...

Ich halte es mit dem Gast, der folgendes sagte:

Gast[/POST]']Und immer wieder meine Frage: Wer ist so blöd und kauft für ~ 1.500 € Grafikkarten? Dafür kann man sich locker ein HighEnd-System mit einem Core Duo und einer X1900 XTX leisten..
Und da kann Tombman erzählen, was er will...
:D

Razor

Gast
2006-05-01, 19:36:16
r@h[/POST]']Und ich muss ehrlich gestehen, dass ich DAS den eigentlich Hammer nenne!
Crossfire schafft es doch tatsächlich, mehr Strom zu verbrauchen, als ein System mit 4 statt 2 Grafikkarten... echt das Unsinnigste, was ich JEMALS gesehen habe.

Wenn ich vorher schon über SLI gewitzelt habe, Crossfire schlägt dem Faß den Boden aus.
Und wer mich kennt, wird ganz sicher wissen, was ich von Quad-SLI halte...

Ich halte es mit dem Gast, der folgendes sagte:


Und da kann Tombman erzählen, was er will...
:D

Razor

Tja, wenn solch ein Crossfire Setup schon schneller ist als 4 GeForce find ich es auch ok wenn es mehr Strom zieht.

Aber als Quad SLI User kann man immerhin prahlen "Ätsch, ich hab 4 GPUs und du nur 2" :D

Quasar
2006-05-01, 19:47:19
mapel110[/POST]']Er hat dich schon richtig verstanden und das geht nunmal nicht.

Die Taktraten wurden gesenkt, um weniger Spannung geben zu können. 150 Watt ist Obergrenze für einen PCIe-Slot und da wirds nunmal eng bei zweimal 512MB und zweimal GPU.
Das macht mehr aus, als ein wenig mehr Spannung bei den Single High End Chips.
Die alten GX2-Karten haben zwei PCIe-Stromanschlüsse zusätzlich zum Saft aus dem Slot. Die 150W Power-Umschlag (Envelope *gg*) sollten da also nicht der Grund sein. Ich vermute eher, dass es daran liegt, dass man konstruktionsbedingt eines der beiden PCBs Single-Slot kühlen muss.

Gast
2006-05-01, 19:49:11
r@h[/POST]']Und ich muss ehrlich gestehen, dass ich DAS den eigentlich Hammer nenne!
Crossfire schafft es doch tatsächlich, mehr Strom zu verbrauchen, als ein System mit 4 statt 2 Grafikkarten... echt das Unsinnigste, was ich JEMALS gesehen habe.

Ein Hammer ist das nicht wirklich...
Zum einen sind die SLI Chips deutlich niedriger getaktet und verbrauchen daher schonmal weniger Strom. Ist auch nötig, weils ja 4 statt 2 Chips sind.
Dazu kommt der derzeitige Vorsprung von nVidia beim Stromverbrauch.

Interessant wirds wohl erst, wenn man den R580+ in 80nm gegen die Quad SLI Karten vergleicht, da dürfte es gänzlich anders aussehen.

Davon mal abgesehen: Die Leistungen dieser Karten liegen ja nicht weit auseinander...

mapel110
2006-05-01, 19:50:21
Quasar[/POST]']Die alten GX2-Karten haben zwei PCIe-Stromanschlüsse zusätzlich zum Saft aus dem Slot. Die 150W Power-Umschlag (Envelope *gg*) sollten da also nicht der Grund sein. Ich vermute eher, dass es daran liegt, dass man konstruktionsbedingt eines der beiden PCBs Single-Slot kühlen muss.
Ich dachte, die Stromversorgung hängt direkt mit den Lanes zusammen, mit denen der Slot mit dem Board verbunden ist. Gibts/Gabs da mehr als 16x PCIe?

Quasar
2006-05-01, 19:58:04
mapel110[/POST]']Ich dachte, die Stromversorgung hängt direkt mit den Lanes zusammen, mit denen der Slot mit dem Board verbunden ist. Gibts/Gabs da mehr als 16x PCIe?
Der PCIe-Slot liefert 75 Watt, das ist richtig. Aber so ein Connector liefert auch nochmal 75 Watt (AFAIK) und wenn man zwei davon hat, sind's halt ingesamt 225 Watt (3*75) - oder reden wir gerade aneinander vorbei?

r@h
2006-05-01, 20:12:49
Gast[/POST]']Tja, wenn solch ein Crossfire Setup schon schneller ist als 4 GeForce find ich es auch ok wenn es mehr Strom zieht.
Aber als Quad SLI User kann man immerhin prahlen "Ätsch, ich hab 4 GPUs und du nur 2" :D
Jo... wenn DAS mal nicht DAS Argument ist!
:biggrin:

Razor

Ailuros
2006-05-01, 20:43:59
Ein Bild fuer 1000 Worte (und ja das ist meine Meinung ueber das was als quad-SLi leider zu vorzeitig praesentiert wurde):

http://users.otenet.gr/~ailuros/hp.jpg

tombman
2006-05-02, 05:50:16
r@h[/POST]']
Und da kann Tombman erzählen, was er will...
r
Der _hat_ wenigstens was zu sagen...
:D

Calypso
2006-05-02, 13:19:01
Haltet mal die Pferde ruhig! (lol)

1.In ein paar Wochen gibts wieder Reviews mit verbesserter Hard/Software.
2.Auch muss ja erst noch HavocFX seine Karten ausspielen.

Schließlich kann NV das wohl unmöglich auf sich sitzten lassen!

Aber selbst wenns dann deutlich besser läuft wird sich die Mehrleistung für den >mündigen< Konsumenten nicht erschließen(vorallem gegenüber übertakteten Single oder vielleicht noch Dual Karten).

Is halt so wie bei anderen Luxuxsartikeln der Sorte auch.
Diese Produkte haben im Endverbrauchermarkt für NV hauptsächlich eine Leuchtturmfunktion, also einen Markting Grund.

So wie beim Daimler ein "Maybach".

tombman
2006-05-02, 13:33:27
Calypso[/POST]']Haltet mal die Pferde ruhig! (lol)

1.In ein paar Wochen gibts wieder Reviews mit verbesserter Hard/Software.
2.Auch muss ja erst noch HavocFX seine Karten ausspielen.

Schließlich kann NV das wohl unmöglich auf sich sitzten lassen!

Aber selbst wenns dann deutlich besser läuft wird sich die Mehrleistung für den >mündigen< Konsumenten nicht erschließen(vorallem gegenüber übertakteten Single oder vielleicht noch Dual Karten).

Is halt so wie bei anderen Luxuxsartikeln der Sorte auch.
Diese Produkte haben im Endverbrauchermarkt für NV hauptsächlich eine Leuchtturmfunktion, also einen Markting Grund.

So wie beim Daimler ein "Maybach".
Laut deiner Logik wären demnach alle Maybach Käufer unmündig :eek: :rolleyes:

Calypso
2006-05-02, 14:35:35
Awa! Soweit würd ich ja nie ausholen!

I bitte zu unterscheiden zwischen Investition und Konsum.

Maybachkäufer wollen/müssen ja was groß präsentieren mit Ihrer Blechkarosse. Geschäftlich ist ja sowas durchaus sinnvoll also eine Investition(Kleider machen Leute).

Ich bezog den Vergleich mit dem Daimler in erster Lienie auf die Leuchtturmfunktion die er für D.C. im Markt für deren Ottonormal-Produkte hat. Was ja auch so für dieses Produkt von NV gilt.

Darüber hinaus könnte für eine Firma die Investition in QuadSLI durchaus sinnvoll sein.


Aber für jeden Markt gilt eben:
Mündige wie unmündige Kosumenten stehen in direktem Zusammenhang mit der Produktqualität und dessen Preisleistung.

tombman
2006-05-02, 15:04:32
Stell dir vor, man kann einen Maybach auch kaufen weil man das Teil tatsächlich mag und die features genießen will, und NICHT nur um damit zu repräsentieren...

Definiere mal "mündige Bürger"... Jeder der DEINEN Vorstellungen von Preis/Leistung zuwiderhandelt ist automatisch unmündig, oder wie?

r@w.
2006-05-02, 15:27:30
Nein.

Der Begriff Preis/Leistung läßt keinen Spielraum für Interpretationen.
Der Punkt Mündig/Unmündig ist wieder ein anderer... aber das hat der Herr Gast ja ganz gut heraus gearbeitet.

Razor

Calypso
2006-05-02, 15:40:51
Die Versinnbildlichung für einen unmündigen Konsumenten ist ja schnell gefunden:
Einer der schon letzte Woche Quad SLI gekauft hat. Zudem keinen Plan von der Technik hat. Am besten noch ohne noch irgendeinen Vergleich zu Konkurrenz anzustellen und ohne blassen Schimmer der Preisleistung des Produkts einfach kauft.
Vielleicht einfach nur weil 4 grade in is.
Einer der für alles zu begeistern ist solange das Marketing stimmt.


Beispiel für einen mündigen Konsumenten währe halt einfach das Gegenteil davon. Einer der bestrebt ist auch hinter die Fassade zu blicken.
Um so Äpfel mit Äpfeln vergleichen zu können und so einen Zusammenhang entdecken zu können zwischen dem Preis und der gebotenen Leistung.

r@w.
2006-05-02, 16:20:43
Insofern sich hier Freund Tombman keine Gedanken machen muss, da er nicht als 'unmündig' bezeichnet werden kann.
:D

Er kennt die Leistung und der Preis ist ihm egal... OK, zumindest fast.
So einfach kann das Leben sein!
:biggrin:

Razor

tombman
2006-05-02, 16:24:24
r@w.[/POST]']Nein.

Der Begriff Preis/Leistung läßt keinen Spielraum für Interpretationen.
Doch, weil Leistung auch subjektiv ist. Für einen ist 30% mehr die Erfüllung, für andere eben nur 30% mehr, also "fast nix". Für einen ist ein Maybach ein Traum auf 4 Rädern, für andere nur ein zu teueres Fortbewegungsmittel. Und sogar der Preis ist auch subjektiv. Für einen sind ein paar Millionen gar nix, für den anderen ein unerreichbarer Stern.
Also wenn einer, für den ein paar Mille gar nix sind, sich einen Maybach kauft, der für denjenigen die Erfüllung schlechthin ist, ist er dann unmündig? Natürlich nicht.
Wenn P/L für dich das einzig wahre sind, dürftest du niemals irgendetwas highendiges kaufen, wahrscheinlich sogar ständig lowend. Aber vielleicht tust das ja tatsächlich ;D

Calypso
2006-05-02, 17:29:52
Ja genau:

Highendiges akzeptiert der Fachmann nur als Highend wenns mit highend Preisschildern ausgezeichnet ist.

Lowendiges erkennt der Profi zuverlässig als Lowend wenns nur lowend Preisschilder hat(worst-case scenario wenns Preisschild ganz fehlt).

....lol....

tombman
2006-05-02, 18:19:24
Ein Maybach ist immer highend, mit und ohne Preisschild :rolleyes:

Frank1974
2006-05-02, 18:26:42
Man kann Autos einfach nicht mit Grafikarten vergleichen :rolleyes:, ein Maybach oder sonstige Luxusautos bleiben immer Highend/Luxus, ne Grafikarte vielleicht 6-12 Monate :wink:.

mfg
frank

tombman
2006-05-02, 18:32:04
Frank1974[/POST]']Man kann Autos einfach nicht mit Grafikarten vergleichen :rolleyes:, ein Maybach oder sonstige Luxusautos bleiben immer Highend/Luxus, ne Grafikarte vielleicht 6-12 Monate :wink:.

Das macht sie ja noch mehr zum Luxus wegen der kurzen Zeit ;) Man kann sie dann nicht mal mehr als Investition sehen, die Kohle ist dann einfach weg ;)

r@h
2006-05-02, 18:33:18
tombman[/POST]']Doch,...
Nein...
Und wenn Du anderer Meinung bist, dann schau' in den Duden oder gleich in ein Wirtschaftslexikon.
Wikipedia tut es zur not auch... ;)

An einem Preis-/Leistungsverhältnis ist nicht subjektives.

Wenn Du subjektive Dinge einbringst, dann ist es lediglich Rechtfertigung, von der wir sprechen und hat mit wirtschaflichen Grundbegriffen nichts zu tun.

Razor

r@h
2006-05-02, 18:36:13
tombman[/POST]']Das Man kann sie dann nicht mal mehr als Investition sehen...
Ich glaube, dass Dir einfach gewisse Grundbegriffe 'fehlen'...
Wie bitte soll ein Endkunden-Consumer-Produkt eine "Investition" darstellen?
:confused:

Ich hoffe inständig, dass Du das anders meintest, als es rüber gekommen ist.
Wenn nicht: welches wirtschaftliche Ziel sollte eine solche "Investition" zum Ziel haben?

Razor

Frank1974
2006-05-02, 18:42:41
tombman[/POST]']Das macht sie ja noch mehr zum Luxus wegen der kurzen Zeit ;) Man kann sie dann nicht mal mehr als Investition sehen, die Kohle ist dann einfach weg ;)

Ah ja, du meinst so eine Art Kurzzeit Luxus, es haben nur wenige Leute in der Zeit ;D, aber nach 12 Monaten sinkt es dann von Luxus sofort auf Bettlerstatus ;D.
Ich hoffe man erkennt meine Ironie :smile:.

mfg
frank

tombman
2006-05-02, 18:53:11
r@h[/POST]']Nein...
Und wenn Du anderer Meinung bist, dann schau' in den Duden oder gleich in ein Wirtschaftslexikon.
Wikipedia tut es zur not auch... ;)

An einem Preis-/Leistungsverhältnis ist nicht subjektives.

Wenn Du subjektive Dinge einbringst, dann ist es lediglich Rechtfertigung, von der wir sprechen und hat mit wirtschaflichen Grundbegriffen nichts zu tun.

Razor

An der Bewertung dessen aber sehr wohl. Und da wir Menschen sind geht ohne subjektive Bewertung gar nix :rolleyes:

tombman
2006-05-02, 18:57:14
r@h[/POST]']Ich glaube, dass Dir einfach gewisse Grundbegriffe 'fehlen'...
Geh bitte, saug dir doch nicht krampfhaft erfundene Imkompetenzen meinerseits aus den Fingern, denn du wirst sowieso scheitern, wie alle die das versucht haben ;)

"tombman mit allen Mitteln als blöd darstellen" hat noch nie funktioniert, funktioniert nie und wird auch nie funktionieren. :cool:

UND JETZT SCHLUSS MIT DIESEM MEGA OFFTOPIC.

r@w.
2006-05-03, 09:31:04
Kannst Du mir mal erzählen, welchen Sinnman Deinen letzten beiden Postings entnehmen soll?
:confused:

Razor

AnarchX
2006-05-03, 13:40:33
News zu 7950GX2:
SLI-Connectoren wurden auf einen reduziert.
http://pics.computerbase.de/1/4/4/7/6/1.jpg
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/mai/geforce_7950_gx2_colorful/

Coda
2006-05-03, 15:36:36
Hm das ist aber seltsam. Normal sollte das der Performance nicht gerade zuträglich sein.

Gast
2006-05-03, 15:39:37
Vielleicht sind die Karten ja untereinander noch anderweitig verbunden als nur über die SLI-Brücke.

Gast
2006-05-03, 19:40:25
Und meine Physik Karte von Ageia hat auch noch Platz dazwischen!?!?

tombman
2006-05-04, 00:50:20
aber schön sieht die schon aus ;)

Gast
2006-05-04, 01:00:29
To bite into!!!!!!!!!!!

DIGITUS
2006-05-04, 01:05:38
Und meine Soundkarte soll ich mir wohl in den Arsch stecken oder was?


Da steckt doch schon meine Physikkarte!








DIGITUS

rpm8200
2006-05-04, 08:03:15
Gast[/POST]']Vielleicht sind die Karten ja untereinander noch anderweitig verbunden als nur über die SLI-Brücke.
100%ack

TobiWahnKenobi
2006-05-04, 08:30:18
Und meine Soundkarte soll ich mir wohl in den Arsch stecken oder was?


Da steckt doch schon meine Physikkarte!


DIGITUS


einfach über sinn und nutzen einer separaten soundkarte nachdenken, das ins verhältnis zur gesteigerten grafikleistung setzen und ggf. die physik per havok FX auf einer der grakas rechnen lassen.

die Q-SLi performance wird sicher noch mit neueren CPUs/Infrastrukturen skalieren. mal angenommen Q-SLi hätte die performance gebracht, die man im verhältnis zur SLi steigerung erwarten würde.. was käme dann von ATI? das gleiche, nur um mithalten zu können? wo kriegt man eigentlich den ganzen strom her?


(..)

mfg
tobi

tombman
2006-05-04, 09:14:39
DIGITUS[/POST]']Und meine Soundkarte soll ich mir wohl in den Arsch stecken oder was?

Kleiner Tip: PCI-RISER + Basteln ;)

Rente
2006-05-13, 02:42:59
Alienware mit Quad-SLi-System für 5500€ inklusive Wasserkühlung/Flüssigkeitskühlung:
http://www.computerbase.de/news/hardware/komplettsysteme/2006/mai/quad-sli-system_alienware_5500_euro/

- FX-60
- nur 1GB Ram
- 850W Netzteil u.w.

Razor
2006-05-13, 12:41:28
- viel zu teuer
- 'alte' Quad-Karten
- KEINE Erweiterungsmöglichkeit
-> überflüssig!

Razor

Rente
2006-05-13, 12:46:32
Razor[/POST]']- viel zu teuer
- 'alte' Quad-Karten
- KEINE Erweiterungsmöglichkeit
-> überflüssig!

Razor
Das waren auch genau meine Gedanken dazu. Alleine das es für 5500€ nur 1 GB Arbeitsspeicher gibt ist der Witz schlecht hin. Naja, wer es braucht...

Coda
2006-05-13, 14:05:36
Gast[/POST]']Vielleicht sind die Karten ja untereinander noch anderweitig verbunden als nur über die SLI-Brücke.
Dann bleibt doch nur noch PCIe.

TM30
2006-05-13, 14:40:33
nö warum... die Karte ist doch ein Doppeldecker, da kann doch auch darüber was laufen...

Razor
2006-05-13, 16:48:38
Ich habe mich sowieso schon gefragt, warum man 2 "Tandems" mit 2 Brücken verbinden muss... wäre ja fast so, als würde man für jede Richtung einer Autobahn eine separate Brücke für 2 Spuren bauen.

Klar, wenn auf den (vorserien?) Karten nur ein PCIe-Splitter die Karten verbindet (die physische Aufteilung des PCIe16x-Slots), dann würde das auch die lausigee Performance der 7900GX2'en erklären... es laufen zwei SLI-Gespanne nebeneinander... und nicht miteinander.

Vielleicht hat man dies bei der 7950GX2 jetzt korrigiert. Quasi eine zusätzliche SLI-Brücke, um die Tandems zu verbinden (was dieses System zudem kompatibel mit ALLEN derzeit erhältlichen 2x16x-SLI-Boards macht) und die 7950GX2 ist selbst schon ein SLI-Gespann und könnte gar in Single-Slot-(SLI-)Systemen werkeln...

Es bleibt spannend!

Auch wenn das Ganze noch immer vollkommen sinnfrei ist.
:D

Razor

TM30
2006-05-13, 16:50:55
Razor[/POST]']
Auch wenn das Ganze noch immer vollkommen sinnfrei ist.

ausser man hat diesen Dell 30" Monster TFT...

Futzi
2006-05-13, 17:03:33
Und selbst dann!

Quad SLI hat noch mehr Bugs als ein Straßenköter aus Mexiko Flöhe!


Und er größte Bug von allen ist der beim Preisleistungsverhältniss....


....wenn der Quatsch für 550,- Euros zu haben währe na dann....

mapel110
2006-05-14, 09:13:52
Futzi[/POST]']Und selbst dann!

Quad SLI hat noch mehr Bugs als ein Straßenköter aus Mexiko Flöhe!


Und er größte Bug von allen ist der beim Preisleistungsverhältniss....


....wenn der Quatsch für 550,- Euros zu haben währe na dann....
High End hat verdammt selten ein gutes Preisleistungsverhältnis...
Dass diese Lösung derzeit nicht immer ihr Maximum an Leistung entfaltet, spielt dabei keine Rolle.

Gast
2006-05-14, 09:34:37
mapel110[/POST]']High End hat verdammt selten ein gutes Preisleistungsverhältnis...
Dass diese Lösung derzeit nicht immer ihr Maximum an Leistung entfaltet, spielt dabei keine Rolle.

Diese Lösung wird nie ihr maximum entfalten können, ganz einfach weil die technischen Daten nicht stimmen.

Masse geht nicht über Klasse oder was ich damit sagen will: Es stehen 4x 500 MHz Core und 4x 600 MHz Memory sowie die SLI Skalierung (da geht nunmal Leistung verloren), gegen eine oder zwei sehr schnelle Karten.

Spätestens mit den nächsten Grafikchips, dürfte diese Art von Quad SLI vollkommen nutzlos sein, da zwei GTX Chips die gleiche Leistung liefern werden und die sind in Sicht, denn man muss auch sagen, bis Quad SLI fehlerfrei funktioniert, vergehen nochmal Monate!

Razor
2006-05-14, 10:54:17
Jo... wie seinerzeit mit SLI auch.
"Out of the box" hat des Zeug noch nie gefunzt...

Razor

P.S.: interessant wäre die 7950GX2, wenn es sich dabei wirklich um ein OnBoard-SLI-Gespann handeln würde und nVidia dessen Verwendung auch auf SingleSlot-(nForce-;-)Chipsätzen zulassen würde. Für 650 Tackerls gäbe es dann eine Dual-7900GT-512MB mit leichter Takt-Anhebung (auf den Core bezogen ;-), welche man (irgendwann ;-) dann noch mit einer weiteren kombinieren könnte. SLI jetzt und QSLI später... auch wenn's keinen Sinn macht.

dildo4u
2006-05-25, 11:27:37
Der 6 Juni ist jetzt der Offizelle Starttermin der 7950 GX2.

"The NVIDIA GeForce 7950GX2 graphics card will launch on June 6, and will retail for $599-649."


http://images.dailytech.com/nimage/1543_large_7950gx2_.png

http://www.dailytech.com/article.aspx?newsid=2505

Coda
2006-05-25, 11:42:44
Typische Deppen-Skala auf dem Bild.

Mr. Lolman
2006-05-25, 11:45:05
Hm, so wirken die Balken gleich weit weniger beeindruckend:
/edit: Mal abgesehen davon, dass das mehr ne zusammengeschraubte Dualgraka als ne Singlegraka ist...

SKYNET
2006-05-25, 11:46:36
dachte ich auch gerade... achtet man nicht auf die zahlen links, würde man denken das die GTXX2, 3x schneller ist als ne normale GTX... :mad:

dildo4u
2006-05-25, 11:47:51
Der Sprung bei Fear ist schon heftig leider gibts noch nicht so viele Games die so auf Massiv auf Shader setzen aber für 600$ also 550€ warum nicht.

Mr. Lolman
2006-05-25, 11:58:10
Um 550€ echt kein schlechter Preis. Nur brauchts wahrscheinlich auch ein neues NT...

TobiWahnKenobi
2006-05-25, 11:58:27
hauptsache das dauert nicht wieder ewig, bis die verfügbar wird. derzeit wäre ich bereit mir zwei 512er GTs zu kaufen. für etwas weniger gibts die alte x2. die ist aber zwei meter zu lang für mein case - wenn also an meinem geburtstag (6.juni !) die neue 7950GX2 gelauncht wird, kauf' ich halt die. das miststück wird dann ja wohl wieder ausreichend kurz sein u. vielleicht gibts dann auch wieder vivo..

irgendwie glaub' ich aber nicht, dass die für 550-600€ zu haben ist.


(..)

mfg
tobi

dildo4u
2006-05-25, 12:02:09
Mr. Lolman[/POST]'] Nur brauchts wahrscheinlich auch ein neues NT...Warum die verbrät auch nicht viel mher als zwei 7900GTs.Liegt also etwa mit einer 1900XTX gleich auf.

AnarchX
2006-05-25, 12:03:11
Mr. Lolman[/POST]']Um 550€ echt kein schlechter Preis. Nur brauchts wahrscheinlich auch ein neues NT...

Sovielmehr wie eine X1900XTX brauch sie auch nicht, sind ja immerhin zwei G71 mit moderaten Taktraten.

SKYNET
2006-05-25, 12:20:25
Mr. Lolman[/POST]']Um 550€ echt kein schlechter Preis. Nur brauchts wahrscheinlich auch ein neues NT...


eben, NV hat nun in allen segmenten das beste P/L verhältnis, highend, midrage und lowend....

ich denke, das wird für ATI, wieder ein SEHR schweres jahr... und NV wird wieder rekordumsätze schieben, wären ATI wieder einbußen hinnehmen muss...


die californier, wissen schon wie mans macht! =)

Gast
2006-05-25, 13:24:06
SKYNET[/POST]']eben, NV hat nun in allen segmenten das beste P/L verhältnis, highend, midrage und lowend....

Die Aussage stimmt nicht.
Die X1900 XT ist deutlich billiger, als jede 7900 GTX, genauso wie die X1800 XT billiger ist, als eine gleichwertige 7900 GT.

SKYNET
2006-05-25, 13:51:26
Gast[/POST]']Die Aussage stimmt nicht.
Die X1900 XT ist deutlich billiger, als jede 7900 GTX, genauso wie die X1800 XT billiger ist, als eine gleichwertige 7900 GT.

performancemäßig ist die OC 7900GT 512 der gegenpart zur X1900XT, und die wird platt gemacht, und ist 50€ günstiger! =)

ebenso, wie die 7900GTX schneller ist als die X1900XTX, und auch güsntiger als die ATI....

und was die X1800XT angeht.... ---> alte generation, somit aussm rennen! =)

Gast
2006-05-25, 14:09:10
SKYNET[/POST]']performancemäßig ist die OC 7900GT 512 der gegenpart zur X1900XT, und die wird platt gemacht, und ist 50€ günstiger! =)

Unsinn³.
Eine normale GT wird von der X1800 und X1900 locker platt gemacht (>10%). Je höher die Auflösung und AA+AF, desto deutlicher. Beweise: Computerbase.de, xbitlabs.com etc.
Eine schnellere GT 512 MB hat gerade mal genug Power, um mit der X1800 gleich zu ziehen bzw. sie leicht hinter sich zu lassen (auf Kosten der BQ). Das ist aber auch schon alles.

ebenso, wie die 7900GTX schneller ist als die X1900XTX, und auch güsntiger als die ATI....

Beides falsch.
Eine normale 7900 GTX ist in der Regel gerade mal gleichstark, in höheren Auflösung gar langsamer.
Erst die deutlich teureren OC-Versionen der 7900 GTX können der X1900 XTX paroli bieten, sind dann aber locker mal um 100 Euro teurer.
Quellen: Siehe oben oder bemühe Google.

und was die X1800XT angeht.... ---> alte generation, somit aussm rennen! =)

Unsinn³
Deiner Argumentation nach ist jede nVidia schrott, weil die immer noch weniger Shaderpower als ATI haben.

Dieses Fanboy blabubb kannst du dir sparen, SKYNET. Ich weiß bescheit, sowohl über dich als auch darüber was die Karten zu leisten vermögen. Lass dir was besseres einfallen.

SKYNET
2006-05-25, 14:37:29
Gast[/POST]']Unsinn³.
Eine normale GT wird von der X1800 und X1900 locker platt gemacht (>10%). Je höher die Auflösung und AA+AF, desto deutlicher. Beweise: Computerbase.de, xbitlabs.com etc.
Eine schnellere GT 512 MB hat gerade mal genug Power, um mit der X1800 gleich zu ziehen bzw. sie leicht hinter sich zu lassen (auf Kosten der BQ). Das ist aber auch schon alles.



Beides falsch.
Eine normale 7900 GTX ist in der Regel gerade mal gleichstark, in höheren Auflösung gar langsamer.
Erst die deutlich teureren OC-Versionen der 7900 GTX können der X1900 XTX paroli bieten, sind dann aber locker mal um 100 Euro teurer.
Quellen: Siehe oben oder bemühe Google.



Unsinn³
Deiner Argumentation nach ist jede nVidia schrott, weil die immer noch weniger Shaderpower als ATI haben.

Dieses Fanboy blabubb kannst du dir sparen, SKYNET. Ich weiß bescheit, sowohl über dich als auch darüber was die Karten zu leisten vermögen. Lass dir was besseres einfallen.


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_powercolor_radeon_x1900_gt/19/#abschnitt_performancerating_qualitaet --> die OC 7900GT ist getaktet wie ne 7800GTX512, die OCGT512 ist dennoch schneller als die 7800GTX512... weitere fragen? gut, setzen sechs! :P

J0ph33
2006-05-25, 14:55:40
SKYNET[/POST]']http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_powercolor_radeon_x1900_gt/19/#abschnitt_performancerating_qualitaet --> die OC 7900GT ist getaktet wie ne 7800GTX512, die OCGT512 ist dennoch schneller als die 7800GTX512... weitere fragen? gut, setzen sechs! :P

die OCGT512 ist mitnichten schneller als eine GTX512, da fehlt noch einiges an RAM-TAKT...

der gast hat schon vollkommen recht, aber mit SKYNET brauch man ja nicht duskutieren, ist eh ein hoffnungsloser fall eines fanboys...

Gast
2006-05-25, 15:19:28
SKYNET[/POST]']die OC 7900GT ist getaktet wie ne 7800GTX512

Falsch.
Die schnellsten 7900 GT 512 MB Karten takten mit 550/700 MHz, die 7800 GTX 512 jedoch mit 550/850 MHz.
Das ist ein Unterschied von 21,4% im Speichertakt und wie Du selbst mit dem geposteten Link belegst, ist die X1900 bei 1600x1200 4xAA/16xAF bereits 4,5% schneller als eine GTX512, die deutlich vor jeder 7900 GT liegt.

Mark
2006-06-01, 14:01:52
http://666kb.com/i/aek8lyuamhvs5bz29.gif
http://666kb.com/i/aek8m6gfnldj8hlj5.gif
http://666kb.com/i/aek8me4o93e0cgbpd.gif
http://666kb.com/i/aek8mmigyz80sfcxt.gif
http://666kb.com/i/aek8mu2jt5zwmjozl.gif
http://666kb.com/i/aek8n3p6n6sxgprgh.gif
http://666kb.com/i/aek8nawoksywheptt.gif
http://666kb.com/i/aek8nixclaez8jm81.gif
http://666kb.com/i/aek8nqt9mis77x8ap.gif
http://666kb.com/i/aek8nwclyexpov2o1.gif

SKYNET
2006-06-01, 14:52:51
irgendwer schon ne ahnung, was für speicher(ns) auf der karte ist?

Gast
2006-06-01, 17:33:14
SKYNET[/POST]']irgendwer schon ne ahnung, was für speicher(ns) auf der karte ist?1,6er sollte ja eigentlich reichen. Bei den GTX/256 war auch nichts schnelleres drauf.

Gast
2006-06-01, 17:35:43
Zwischen soll und Realität liegen aber nunmal welten...

Immerhin ist das eine High End Karte, wäre also stark wünschenswert, das da 1,4 - 1,1ns verbaut werden.
Ich schätze eher so 1,4-1,2ns... bzw. ich hoffe es, weil dann noch Übertaktungsspielraum gegeben ist.

dildo4u
2006-06-02, 16:40:36
Sher gute Nachrichten zur GX2 7950 laut der neusten Ausgabe der PCGH läuft die Karte auch in nicht SLI Boards also auch auf dem Intel 975 Chipsatz z.B.Die Karte ist im Test bei COD2 ca 25% schneller als eine 7900GTX.Die PCB Länge liegt fast gleichauf mit der 7900GTX.

Gast
2006-06-02, 16:46:23
Das hört sich doch mal gut an. Conroe + 7950GX2 könnte doch was werden.

tombman
2006-06-03, 01:54:23
Also wenn das mit den 25% wirklich stimmt isses lächerlich wenig...

die Sache mit dem Treiber ist da schon erfreulicher ;) Denn SLI muß er ja können, sonst würde die Karte ned laufen, also wird man normales SLI auf 975 auch bald haben ;)

Kladderadatsch
2006-06-03, 09:17:53
tombman[/POST]']Also wenn das mit den 25% wirklich stimmt isses lächerlich wenig...

was limitiert denn da so krass, dass da lediglich 25% rausspringen?

AnarchX
2006-06-03, 09:29:27
insane in the membrane[/POST]']was limitiert denn da so krass, dass da lediglich 25% rausspringen?

Vielleicht die um 33% geringere Speicherbandbreite gegenüber einer 7900GTX(600MHz vs 800MHz)?
Chippower hat die GX2 gegenüber einer 7900GTX ca. 50% mehr, 1000MHz vs 650MHz, wobei man hier noch die Effizienz von SLI abziehen muss.

Wenn man das so betrachtet könnten die 25% in CoD2 durchaus passen und mehr kann man eben nicht erwarten.

FEAR z.B. könnte noch etwas mehr skalieren mit der Chippower.

edit: Es scheint wirklich zu passen...
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=27708&stc=1

Kladderadatsch
2006-06-03, 09:33:58
AnarchX[/POST]']Vielleicht die um 33% geringere Speicherbandbreite gegenüber einer 7900GTX(600MHz vs 800MHz9.

das habe ich mir auch gedacht. ich verstehe aber nicht, warum da nv dermaßen verschwenderisch umgeht und die wirklich brachiale leistung schlichtweg eindämmt...

AnarchX
2006-06-03, 09:39:20
insane in the membrane[/POST]']das habe ich mir auch gedacht. ich verstehe aber nicht, warum da nv dermaßen verschwenderisch umgeht und die wirklich brachiale leistung schlichtweg eindämmt...

1GB schnellerer Speicher ist eben nicht ganz so billig.... ;)
Aber vielleicht werden einige Hersteller noch ein paar schnellere Versionen der GX2 bringen.

Ansonsten finde ich hat die 7900GX2 doch ein ziemlich gutes P/L-Verhältnis, da man für einen annehmbaren Aufpreis zur GTX doch ordentlich an Mehrleistung bekommt, was im oberen Highend-Segment, ja meistens nicht so üblich ist.

AnarchX
2006-06-03, 11:50:12
Die Karte ist ja schon für knapp über 500€ gelistet:
http://www.geizhals.at/deutschland/?fs=7950GX2&x=0&y=0&in=
:|

The_Invisible
2006-06-03, 12:44:39
AnarchX[/POST]']Die Karte ist ja schon für knapp über 500€ gelistet:
http://www.geizhals.at/deutschland/?fs=7950GX2&x=0&y=0&in=
:|

lol, wär ja günstiger als so manche gtx, ob das stimmen kann?

mfg

Mark
2006-06-03, 13:02:54
also die karte hat 1.4ns ddr3

TobiWahnKenobi
2006-06-03, 13:06:34
lol, wär ja günstiger als so manche gtx, ob das stimmen kann?

mfg

warum nicht? das ist doch nur ne doppel GT. hier vor ort gibt's die normale 79GT für 250€.


(..)

mfg
tobi

AnarchX
2006-06-03, 13:10:43
TobiWahnKenobi[/POST]']warum nicht? das ist doch nur ne doppel GT. hier vor ort gibt's die normale 79GT für 250€.


Aber wohl kaum mit 512MB, die kosten noch knapp um die 300€... ;)
Die 7950GX2 hat ja 2x 512MB.

TobiWahnKenobi
2006-06-03, 13:13:48
ja - heute noch 302 € und morgen 299,-- / in drei wochen dann 279€ oder 259€ and so on..

händler EK ist für die GX2 kurz über 420€. zumindest war er das gestern nachmittag - das, plus märchensteuer sind ca. 500€. wer sie für mehr verkauft, verdient ordendlich oder hat zu teuer eingekauft. wer sie für 500€ abgibt, hat 10€ verdient.

vorstellung der GX2 ist dienstag. bis die im handel in stückzahlen auftaucht, vergehen 4-6 wochen. alles davor ist teuer, weil nur in homäopathischen dosen verfügbar.


(..)

mfg
tobi

Gast
2006-06-03, 15:28:01
Ich schätze mal, das nVidia die Karten beschnitten hat, damit sie weniger Strom verbraucht.
Was ich mir vorstellen kann ist die Tatsache, das nVidia den Stromverbrauch durch absenken der Corespannung von 1,4V auf 1,2V erreicht hat - weil normale GT Karten laufen auch damit.

Wenn da wirklich 1,4ns drauf sind, müsste man den Speichertakt locker auf 700-800 MHz erhöhen können.

TobiWahnKenobi
2006-06-03, 15:42:06
das wird dann sicher ordendlich was reissen, wenn man im SLi betrieb von 660 auf 760MHz hochclockt..

sry - aber das ist sicher überflüssig, wie ein kropf.


(..)

mfg
tobi

AnarchX
2006-06-03, 15:47:35
TobiWahnKenobi[/POST]']das wird dann sicher ordendlich was reissen, wenn man im SLi betrieb von 660 auf 760MHz hochclockt..

sry - aber das ist sicher überflüssig, wie ein kropf.


Natürlich bringt mehr Speicherbandbreite etwas, immerhin ist diese bei der 7950GX2 im Auslieferungszustand mit nur 600MHz nicht sonderlich hoch.

Mir scheint da jemand etwas angekratzt zu sein, da er sich eine 7900GTX geholt, die in Anbetracht der 7950GX2 nicht mehr so toll ist.... ;)

Gast
2006-06-03, 15:48:04
Übertaktung rentiert sich hier aber doppelt...

Wenn man von 2x500 MHz auf 2x550 MHz Core und von 2x600 MHz VRAM auf 2x700 MHz hochkommt, dann ist das mehr wert, als bei Single Cards, weil dann beide Chips beschleunigt arbeiten.

Gast
2006-06-03, 15:48:42
Fragt sich nur wie es mit dem Stromverbrauch steht?
Sind da zwei PCIe Stecker dran? Soll ja bis zu 160W schlucken.

AnarchX
2006-06-03, 15:55:43
Gast[/POST]']Fragt sich nur wie es mit dem Stromverbrauch steht?
Sind da zwei PCIe Stecker dran? Soll ja bis zu 160W schlucken.

Ich denke mal der Stromvebrauch wird meistens um die 100-110W liegen.
80W pro Chip kann ich mir nicht wirklich vorstellen, wenn man sich den Stromverbrauch einer 7900GT anschaut:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/26/#abschnitt_stromverbrauch

d2kx
2006-06-03, 16:03:01
Hätte sie teurer geschätzt. Für 500€ so eine enorme Leistung! Ob es da von ATI auch was geben wird? Würde mir diese hier sogar kaufen evtl., wenn ich jetzt ein neues System zusammenstellen würde.

Gast
2006-06-03, 16:15:19
Enorm wird die Leistung eigentlich erst, wenn man die Karte auch noch übertaktet...

Nur mal ein kleines Rechenbeispiel: 2x500 MHz Core, 2x600 MHz Memory... = insgesamt 1000/1200 theoretisch (bei einer Single Card).
Jetzt kommt aber noch die SLI Skalierung dazu, die nicht bei 100% liegt... eher so bei 70-90% im optimalfall... dann bleiben bei 80% Effizient nur noch 800/1090 übrig und 700/900 kann man schon mit einer guten GTX schaffen, welche momentan ab 425 Euro erhältlich ist.

So gesehen ist die Leistung zwar gut, aber nicht überragend. Ich hoffe, die Karte wird sich gut übertakten lassen, aber hier könnte der Stromverbrauch zum Verhängniss werden, denn die zieht ja alles aus einen PCIe Slot + 1 (oder 2?) Stromstrecker.

dildo4u
2006-06-03, 23:39:10
So hier gibts die 7950GX2 ab lager für 550€.http://www.pctweaker.de/product_info.php?info=p2530_POINTofVIEW-GF-7950GX2-1024MB-Retail.html

Gebirgskuchen
2006-06-03, 23:43:59
Wie bitte???Nur 549€???
Das is aber extrem günstig, wenn man bedenkt, dass man für den Preis eine einzelne 7900GTX bekommt. Krass :eek:

mike49
2006-06-03, 23:57:26
Wow... 48 Pipes @500MHz und 2*512MB auf einer Karte für ~500€.

Da wird die Luft für die 7900GTX recht dünn...

Gast
2006-06-04, 00:04:29
mike49[/POST]']Da wird die Luft für die 7900GTX recht dünn...

Nicht wirklich, denn eine 7900 GTX kostet momentan auch nur noch 415 Euro (http://www.geizhals.at/eu/a191761.html).

Das zeigt nur mal wieder, das nVidia und ATI wieder Platz schaffen, um neue High End Modelle einzuführen. ;)

The_Invisible
2006-06-04, 00:18:36
hm, da hätte ich jetzt für den fast selben preis wie früher meine gtx ne 7950gx2 bekommen. aber ist halt immer so, warten darf man bei hardware nicht (vor allem nicht bei grafikkarten). bei dem preis wird sicher auch öfter quad sli geben, aber auch das single-card sli ist sehr interessant (vor allem wenns auf non sli mainboards läuft)

mfg

rm-zocker
2006-06-04, 08:24:10
bei dem preis könnte ich ja fast schwach werden. wenn die karte kein sli mobo braucht sollte sie ja auch eigentlich auf meinem asrock dualsata 2 laufen oder?
hab derzeit ein enermax mit 460 watt verbaut welches nur eine 12 v schiene mit 33 A bietet. würde das für diese karte reichen?

Mark
2006-06-04, 10:53:09
Gast[/POST]']Fragt sich nur wie es mit dem Stromverbrauch steht?
Sind da zwei PCIe Stecker dran? Soll ja bis zu 160W schlucken.

143w soll sie schlucken, sie 2 seiten weiter vorne

A.Wesker
2006-06-04, 17:01:13
weiß jemand, ob man die graka auch auf einem i975X board verwenden kann?

AnarchX
2006-06-04, 17:11:40
A.Wesker[/POST]']weiß jemand, ob man die graka auch auf einem i975X board verwenden kann?

Laut der PCGH soll sie auch auf Non-SLI-Boards laufen, wodurch die Wahrscheinlichkeit sehr hoch sein sollte:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4387970&postcount=104

Gast
2006-06-04, 17:17:52
Das wird dann wohl die richtige Karte für den Conroe sein. ;)

Conroe @ 3,6 GHz, 2048 MB DDR2-1000, GeForce 7950 GX2 @ 600/750.

Das sollte wohl ne weile reichen. ;)

PingpiN
2006-06-04, 17:25:53
Gast[/POST]']Das wird dann wohl die richtige Karte für den Conroe sein. ;)

Conroe @ 3,6 GHz, 2048 MB DDR2-1000, GeForce 7950 GX2 @ 600/750.

Das sollte wohl ne weile reichen. ;)

Rausgeschmissene Leistung weil auch die Quad Sli Karte kein HDR-AA kann. :)

Gast
2006-06-04, 17:27:32
Einen Faktor sollte noch berücksichtigt werden: Die Länge der Karte.

Die 7900 GX2 ist zu lang für die meisten Gehäuse, ich hatte schon schwierigkeiten, die 7800 GS+ in mein Midigehäuse zu bekommen, da sie an die Festplatten aneckte.

Die 7950 GX2 ist nun deutlich kürzer... aber wie kurz im Vergleich zu einer 7800 GS+ AGP?

AnarchX
2006-06-04, 17:27:40
PingpiN[/POST]']Rausgeschmissene Leistung weil auch die Quad Sli Karte kein HDR-AA kann. :)

Dafür aber eine Auflösung wo man kein AA mehr brauch, bei einem erträglichen Stromverbrauch... ;)

dildo4u
2006-06-04, 17:30:51
AnarchX[/POST]']Dafür aber eine Auflösung wo man kein AA mehr brauch, bei einem erträglichen Stromverbrauch... ;)Ebend die Karte macht eh nur bei 1600 aufwärtz sinn da ist AA nicht mher soo wichtig.Und die ATI lösung ist auch nicht optimal bei jedem neuen Treiber muss man erstmal auf den extra chuck patch warten.

Gast
2006-06-04, 17:34:18
Naja, die Karte macht auch bei anderen Auflösungen sinn.

Wenn ich mir in ~2 monaten nen neuen rechner hole, dann kommt da die gx2 rein. Ganz einfach deshalb, weil es momentan preislich nicht mehr lohnt, nur eine 7900 gtx zu nehmen... und 2x1900xt sind leider noch ziemlich stromhungrig.

Dann ist es mir auch egal, wenn ich nur in 1280x960, ich habe dann zumindest die gewissheit, das die frames ziemlich hoch sein werden, auch bei hohem aa. ;-)

PingpiN
2006-06-04, 17:37:26
Gast[/POST]']Naja, die Karte macht auch bei anderen Auflösungen sinn.

Wenn ich mir in ~2 monaten nen neuen rechner hole, dann kommt da die gx2 rein. Ganz einfach deshalb, weil es momentan preislich nicht mehr lohnt, nur eine 7900 gtx zu nehmen... und 2x1900xt sind leider noch ziemlich stromhungrig.

Dann ist es mir auch egal, wenn ich nur in 1280x960, ich habe dann zumindest die gewissheit, das die frames ziemlich hoch sein werden, auch bei hohem aa. ;-)
2*Quad SLi Karten fressen mit Sicherheit genau soviel wie 2*X1900 XTX.Und wenn die Quad Sli Karten vielleicht doch weniger Strom fressen,auf die 3 Euro mehr die ich in Jahr bezahle kann ich pfeifen! :rolleyes: 3 Euro kann ich mir an ein Tag auf der Strasse erbetteln. :P Immer wenns heiter wird kommt das Stromverbrauch Argument. ;D

Gast
2006-06-04, 17:40:47
Halt!
Wir reden hier von 1x 7950 GX2 gegen 2x 1900 XTX.
Da schlägt das Pendel doch eindeutig zur GX2 aus.

Quad SLI interessiert mich und andere wohl eher nicht...

Gast
2006-06-04, 17:47:07
Ist sogar ein paar Posting vorher verlinkt:
http://www.techpowerup.com/reviews/NVIDIA/QuadSLI/images/power.gif

325W gegen 494W... das ist schon krass...

Gast
2006-06-04, 18:56:46
PingpiN[/POST]']Rausgeschmissene Leistung weil auch die Quad Sli Karte kein HDR-AA kann. :)Rausgeschmissenes Geld, weil selbst ein x1900-Crossfire-Gespann keine FP-Texturen filtern kann. Merkst du was?

dildo4u
2006-06-04, 18:58:55
So ich hab noch ein Wert aus der PCGH zu FEAR.


Getestet wurde auf einem X2 4800.

Bei 1600*1200 4XAA 8XAF erreicht die 7950GX2 46 fps die 1900XTX 38fps.
Die min Werte sind noch weiter auseinander da bringt die Geforce 32fps und die 1900XTX 19fps.

SKYNET
2006-06-04, 19:09:23
dildo4u[/POST]']So ich hab noch ein Wert aus der PCGH zu FEAR.


Getestet wurde auf einem X2 4800.

Bei 1600*1200 4XAA 8XAF erreicht die 7950GX2 46 fps die 1900XTX 38fps.
Die min Werte sind noch weiter auseinander da bringt die Geforce 32fps und die 1900XTX 19fps.

die minimum frames der ATI sind wohl nen witz.... diashow lässt grüßen!! :o)

J0ph33
2006-06-04, 19:37:32
die minwerte einer 7900GTX will ich auch nicht wissen....


naja, die performance wird dem preis gerecht, 550€ (GX2) zu 360€ (X1900XT)

Gast
2006-06-04, 20:28:46
J0ph33[/POST]']zu 360€ (X1900XT)Es gibt schon für 360€ eine x1900xt? Wo denn?

The_Invisible
2006-06-04, 20:36:13
J0ph33[/POST]']die minwerte einer 7900GTX will ich auch nicht wissen....


naja, die performance wird dem preis gerecht, 550€ (GX2) zu 360€ (X1900XT)

das war aber ne xtx im test, und die gibts sicher nicht unter 400€, also ist das preis/leistungs verhältnis eigentlich sehr gut (darf man das überhaupt zu >500€ karten sagen ? :D)

mfg

AnarchX
2006-06-04, 21:00:01
dildo4u[/POST]']
Bei 1600*1200 4XAA 8XAF erreicht die 7950GX2 46 fps die 1900XTX 38fps.
Die min Werte sind noch weiter auseinander da bringt die Geforce 32fps und die 1900XTX 19fps.

Sehr gute P/L.
68% Mehrleistung für nur 52% Aufpreis X1900XT bzw. 24% bei einer XTX.
Zudem denke ich wird es auch einige 7950GX2-Karten für unter 550€ geben.

PingpiN
2006-06-04, 21:09:46
Gast[/POST]']Rausgeschmissenes Geld, weil selbst ein x1900-Crossfire-Gespann keine FP-Texturen filtern kann. Merkst du was?

Schonmall HDR tests gesehen?Auch ohne Fp filterung performen die Ati Karten mit HDR viel besser als vergleichbare Nvidia Karten..

The_Invisible
2006-06-04, 21:15:15
PingpiN[/POST]']Schonmall HDR tests gesehen?Auch ohne Fp filterung performen die Ati Karten mit HDR viel besser als vergleichbare Nvidia Karten..

kannst du das OT vielleicht mal lassen? Danke.

mfg

PingpiN
2006-06-04, 21:18:23
The_Invisible[/POST]']kannst du das OT vielleicht mal lassen? Danke.

mfg

Wieso ist doch aber die Wahrheit. :P
OT Ende....

Gast
2006-06-04, 21:20:20
PingpiN[/POST]']Schonmall HDR tests gesehen?Auch ohne Fp filterung performen die Ati Karten mit HDR viel besser als vergleichbare Nvidia Karten..Meinst du wie bei AoE3 wo bei ATI-Karten nur der "Fake"-FX10-Modus genutzt wird, während es bei NV-Karten echtes FP16-HDR-Rendering gibt? Oder meinst du wie bei SCCT, wo es für R5x0 auch nur einen Fake-HDRR-Modus gibt, während es bei NV echtes HDRR gibt? Oder meinst du etwa HL2, wo die aktuellen ATI-Karten nur FX16-Texturen bekommen, weil es an FP-Filterung fehlt?

SKYNET
2006-06-04, 21:26:53
J0ph33[/POST]']die minwerte einer 7900GTX will ich auch nicht wissen....


naja, die performance wird dem preis gerecht, 550€ (GX2) zu 360€ (X1900XT)

GTX: 15600M/s
GTX: 41.6GB/s
GX2: 12000M/s x 2
GX2: 38.4GB/s x 2

dann sagen wir mal 80% effektivität, des dualgeschosses....
bleiben:
19200M/s insgesammt... ist ein plus von 23% für die GX2, die wiederum, von dem etwas langsameren speicher gebremst wird... sagen wir effektiv bleiben gute 18% mehrleistung gegenüber der GTX...

32fps minus 18% = 26fps minimum... tschüss ATI! =)

PingpiN
2006-06-04, 21:29:11
Gast[/POST]']Meinst du wie bei AoE3 wo bei ATI-Karten nur der "Fake"-FX10-Modus genutzt wird, während es bei NV-Karten echtes FP16-HDR-Rendering gibt? Oder meinst du wie bei SCCT, wo es für R5x0 auch nur einen Fake-HDRR-Modus gibt, während es bei NV echtes HDRR gibt? Oder meinst du etwa HL2, wo die aktuellen ATI-Karten nur FX16-Texturen bekommen, weil es an FP-Filterung fehlt?

Gibts bei Oblivion und SS 2 auch nur Fake HDR ?Ich sehe kein unterschied zwischen denn Fake HDR und richtiges Fp16 HDR,ist dir was aufgefallen?

Gast
2006-06-04, 21:33:25
PingpiN[/POST]']Gibts bei Oblivion und SS 2 auch nur Fake HDR ?Ich sehe kein unterschied zwischen denn Fake HDR und richtiges Fp16 HDR,ist dir was aufgefallen?Nein, in Oblivion und afaik auch bei SeSam2 gibts auch bei R5x0 "echtes" HDR-Rendering.

In den anderen Spielen sehe ich aber schon Unterschiede zwischen FP16- und Fake-HDRR. In Splinter Cell Chaos Theory bspw. gibt es beim nachträglich von ATI hinzugefügtem Fake-HDRR-Pfad zum Teil übles Colorbanding.

PingpiN
2006-06-04, 21:35:45
Gast[/POST]']Nein, in Oblivion und afaik auch bei SeSam2 gibts auch bei R5x0 "echtes" HDR-Rendering.

In den anderen Spielen sehe ich aber schon Unterschiede zwischen FP16- und Fake-HDRR. In Splinter Cell Chaos Theory bspw. gibt es beim nachträglich von ATI hinzugefügtem Fake-HDRR-Pfad zum Teil übles Colorbanding.

Ja bei Splinter Cell 3 wird ja auch glaub ich noch das Ps 2.0 Profil von denn X800 Karten verwendet.Da stimmt doch irgend was mit denn Tone mapping nicht...

Gast
2006-06-04, 22:56:18
Er will sich ja nur eine GX2 holen, also sollte der Stromverbrauch deutlich unter 2x X1900 XTX liegen.

Gast
2006-06-04, 23:01:03
Ups hab die letzte Seite vergessen zu lesen =)

Blaire
2006-06-04, 23:48:28
AnarchX[/POST]']Dafür aber eine Auflösung wo man kein AA mehr brauch, bei einem erträglichen Stromverbrauch... ;)

2560x1600 rulez :D

J0ph33
2006-06-05, 00:34:39
Gast[/POST]']Es gibt schon für 360€ eine x1900xt? Wo denn?

da: http://www.geizhals.at/deutschland/a185501.html
edit: hups, ist ja die CF-Variante, egal, die läuft auch einzeln...
bzw. dann eben da (wenn auch noch nicht lagernd, allerdings für 370€ schon): http://www.geizhals.at/deutschland/a184941.html

SKYNET[/POST]']
GTX: 15600M/s
GTX: 41.6GB/s
GX2: 12000M/s x 2
GX2: 38.4GB/s x 2

dann sagen wir mal 80% effektivität, des dualgeschosses....
bleiben:
19200M/s insgesammt... ist ein plus von 23% für die GX2, die wiederum, von dem etwas langsameren speicher gebremst wird... sagen wir effektiv bleiben gute 18% mehrleistung gegenüber der GTX...

32fps minus 18% = 26fps minimum... tschüss ATI! =)

schnöde theorie...und nach solchen Füllraten usw Rechnereien wäre eine GTX immer schneller als eine X1900XT, ist sie das? nein...

dildo4u
2006-06-05, 00:42:02
Ja quatschen kann man viel nur wird NV ab morgen die schnellste Singelslot GK haben.Ich bin sher gespannt ob die Karte mher Strom braucht als eine XTX.Und eine passende Antwort wird ATI wohl nicht haben so wahnsinnig zwei XTX Chips auf eine Karte zu bauen werden sie ja nicht sein.Da lohnt es sich halt doch das NV schon ewig auf SLI setzt und das ganze schon sher ausgereift ist.

J0ph33
2006-06-05, 00:48:35
ATIs Antwort: der Preis ;), mehr wohl momentan nicht...

allerdings nicht die schnellste SingleChip-Karte ;)

SKYNET
2006-06-05, 02:52:48
J0ph33[/POST]']ATIs Antwort: der Preis ;), mehr wohl momentan nicht...

allerdings nicht die schnellste SingleChip-Karte ;)

da wird die normale GTX gegen halten, diese ist im durschnitt ja auch schneller als die XTX! :o)

The_Invisible
2006-06-05, 10:28:50
J0ph33[/POST]']ATIs Antwort: der Preis ;), mehr wohl momentan nicht...

allerdings nicht die schnellste SingleChip-Karte ;)

die technik ist egal, es läuft, und das effizienter als EINE XTX

mfg

Gast
2006-06-05, 11:08:34
The_Invisible[/POST]']die technik ist egal, es läuft, und das effizienter als EINE XTX

mfg
Was heisst denn hier technik ist egal?
Ist es nicht.

BTW wofür so viel Performance, wenn man nur Steinzeit-ROPs einsetzt?
Wo bleibt HDRR mit AA?
Wo bleibt vernünftiges AF?
So sind die 7900er nur etwas für Daus, die keine Ansprüche an die BQ stellen...
Nach einer Woche testen (7900GT) habe ich das Recht auf Widderuf in Anspruch genommen und mir eine X1900XT bestellt. Nun ist alles in Butter. Naja, vielleicht wird es mit dem G80 besser. Würde gerne wieder eine Nvidia haben. Vor allem das AF muss dringend verbessert werden. Und ohne AA (HDRR) will ich auch nicht mehr spielen. :)

TobiWahnKenobi
2006-06-05, 11:38:04
vielleicht hätte der gast mal ein bissl mit 8xS AA und ohne optis spielen sollen.. ;)


(..)

mfg
tobi

Coda
2006-06-05, 11:44:55
SKYNET[/POST]']da wird die normale GTX gegen halten, diese ist im durschnitt ja auch schneller als die XTX! :o)
In Spielen in denen die Leistung wirklich gebraucht wird sicher nicht. Aber auch egal...

J0ph33
2006-06-05, 12:54:40
TobiWahnKenobi[/POST]']vielleicht hätte der gast mal ein bissl mit 8xS AA und ohne optis spielen sollen.. ;)


viellleicht ist eine 7900GT dafür in vielen (neuen) spielen schlicht zu langsam ;)
(mal schauen, wie es da mit der GX2 aussieht...)

Coda[/POST]']In Spielen in denen die Leistung wirklich gebraucht wird sicher nicht. Aber auch egal...

recht haste, aber mit skynet brauchste da nicht zu diskutieren...

TobiWahnKenobi
2006-06-05, 13:03:21
viellleicht ist eine 7900GT dafür in vielen (neuen) spielen schlicht zu langsam


also meine GTX wuppt das mit den games, die so auf meiner platte wohnen, mit bravour. ansonsten gibt's ja noch andere optionen, als nur 8xs. hab' das die letzten tage mit BF2, Fable LC und call of cthulu genutzt. bei FC gehts nicht und bei TES4 glaub' ich auch nicht. was aber nichts mit der performance zu tun hat, die ist neuerdings nämlich extremst gut, mit 8xS.


(..)

mfg
tobi

mike49
2006-06-05, 13:04:36
TobiWahnKenobi[/POST]']vielleicht hätte der gast mal ein bissl mit 8xS AA und ohne optis spielen sollen.. ;)
Und? Dann hätte er immer noch kein HDR+AA, was ja wohl sein Hauptkritikpunkt war...

TobiWahnKenobi
2006-06-05, 13:07:55
und ? der eine hat halt HDR+AA und der andere hat HDR mit filterung und ohne AA.. wayne? das ist atm ein nieschenprodukt, dass otto-normal nichtmal an den start bekommt. AFAIR ist das nichtmal spezifizierter bestandteil von DX9.

mit DX10 bzw. WGF haben es dann alle per se.

finde funktionen, die man nicht überall nutzen kann und die man nur mit tricks in gang bekommt, verzichtbar, wie nen kropf.

anständiges AA kann man wenigstens forcieren.. HDR nicht und HDR+MSAA schon gar nicht.


(..)

mfg
tobi

The_Invisible
2006-06-05, 13:27:49
TobiWahnKenobi[/POST]']und ? der eine hat halt HDR+AA und der andere hat HDR mit filterung und ohne AA.. wayne? das ist atm ein nieschenprodukt, dass otto-normal nichtmal an den start bekommt. AFAIR ist das nichtmal spezifizierter bestandteil von DX9.

mit DX10 bzw. WGF haben es dann alle per se.

finde funktionen, die man nicht überall nutzen kann und die man nur mit tricks in gang bekommt, verzichtbar, wie nen kropf.

anständiges AA kann man wenigstens forcieren.. HDR nicht und HDR+MSAA schon gar nicht.


(..)

mfg
tobi

jop, und man muss auch noch AI Standard einstellen das HDR-MSAA überhaupt funktioniert (bei Oblivion), wie vernünftig. und wenn man im ati forum über die treiber liest wird einem auch schlecht, die ati jungs habens zb immer noch nicht geschafft den hdr+msaa patch in den offiziellen treiber zu packen und dann muss man auch noch wissen das AI standard aktiviert werden muss damit msaa funzt... hoffentlich wars kein fehler das ich für meinen bruder ne x1600pro bestellt habe, dann kann ich aber wenigstens auch selber bisschen rumspielen bzw die angeblich superbe BQ selbst bei AI standard sehen (ohne flimmern laut usern hier)

mfg

SKYNET
2006-06-05, 14:08:04
Coda[/POST]']In Spielen in denen die Leistung wirklich gebraucht wird sicher nicht. Aber auch egal...

du darfst nicht nur nach neuen games gehn, die meist gespielten, sind ältere games, wo die GTX nunmal besser performt!

aber ich weiß was du meinst, in shaderlastigen games, ist ne XTX meist schneller...

Blaire
2006-06-05, 15:04:51
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/

Blaire
2006-06-05, 15:06:04
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=390

AnarchX
2006-06-05, 15:11:59
Blaire[/POST]']http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/

Toll, sie haben Oblivion mit aufgenommen... :smile:
Übel, das teilweise die 7950GX2 mit dem X1900 CF gleichzieht... ;D

Zudem hat sie CB noch auf stolze 600/820MHz übertakten können..

Blaire
2006-06-05, 15:33:26
http://www.techreport.com/reviews/2006q2/geforce-7950-gx2/index.x?pg=1

LovesuckZ
2006-06-05, 15:33:42
/edit: Bitte löschen.

Gast
2006-06-05, 15:33:49
600 MHz Coretakt... jetzt würde ich gerne wissen, ob die Chips mit GT oder GTX Corespannung betrieben werden?

Der Speicher scheint jedenfalls nur wegen des Stromverbrauchs so weit runtergetaktet zu sein...

Blaire
2006-06-05, 15:35:17
Leider keine QuadSLI Benchies...

Gast
2006-06-05, 15:35:35
Krass wie die Karte beim 3d mark 05 und allgemein bei AA-AF einbricht.

Gast
2006-06-05, 15:40:11
Wird heiss und Laut Ati lässt grüssen.

deekey777
2006-06-05, 15:42:55
Gast[/POST]']Wird heiss und Laut Ati lässt grüssen.

Auch den Text gelesen und nicht nur Bildchen angeschaut? :|

Blaire
2006-06-05, 15:45:08
http://www.nvnews.net/vbulletin/showthread.php?p=904901#post904901

http://i6.tinypic.com/11rt75v.jpg

Nice :biggrin:

AnarchX
2006-06-05, 16:00:04
Gast[/POST]']Krass wie die Karte beim 3d mark 05 und allgemein bei AA-AF einbricht.

Sie bricht weniger ein als eine X1900XTX beim 3DM05... ;)
Also bitte unterlass diese dummen Spamm.


Die Karte ist imo doch ein ziemlicher Killer für ihren Preis, nur fehlt es leider an ein paar Features... :rolleyes:
Aber wer darauf verzichten kann ist mit der Karte wirklich gut berraten.

thade
2006-06-05, 16:07:53
@Blaire

Deiner SIG entnehme Ich, dass du bald vor hast dir 2 solche 7950er zu kaufen?

AnarchX[/POST]']Sie bricht weniger ein als eine X1900XTX beim 3DM05... ;)
Also bitte unterlass diese dummen Spamm.


Die Karte ist imo doch ein ziemlicher Killer für ihren Preis, nur fehlt es leider an ein paar Features... :rolleyes:
Aber wer darauf verzichten kann ist mit der Karte wirklich gut berraten.

Wakühler kann man auch nicht verbauen, einfach dummes Design, wäre sicher auch so gegangen wie die Asus Dual 7800gt!

TM30
2006-06-05, 16:09:51
Das Computerbase Review ist gerade (?) online gegangen:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/

reunion
2006-06-05, 16:12:08
Schon krass, dass eine X1900XTX in Oblivion jedes SLi-System wegfegt. Sonst verhält sich die Karte natürlich wie erwartet, sind ja nur zwei zusammengeschraubte Platinen.

Undertaker
2006-06-05, 16:16:52
SKYNET[/POST]']du darfst nicht nur nach neuen games gehn, die meist gespielten, sind ältere games, wo die GTX nunmal besser performt!

aber ich weiß was du meinst, in shaderlastigen games, ist ne XTX meist schneller...

das liegt wohl an der höheren füllrate... die frage ist nur, ob man die leistung mehr in alten (füllratenlastigen) oder neuen (shaderlastigen) games braucht...

thade
2006-06-05, 16:19:25
Ich muss ehrlich sagen, Ich finde es einfach nur noch peinlich von Nvidia. ATi legt irgendwie noch wert auf normale Grafikkarten, mit einem Chip. Nvidia geht diesen einsamen, total sinnlosen Weg. Anstatt die Leistung eines Chips deutlich zu heben, wissen sich die Kalifornier nicht anders zu helfen als mit MultiGPU Systemen.

Gegen eine X1900er hat NV einfach nix auszurichten, die 7900gtx kann einem schon leid tun, keiner will die Karte, bzw keiner kauft sie. Ich kenn nur sehr wenige hier in diesem großen Forum mit der Karte, X1900 hat dagegen fast jeder ;)

Naja das muss jeder selbst wissen was er tut.

SKYNET
2006-06-05, 16:24:42
thade[/POST]']Ich muss ehrlich sagen, Ich finde es einfach nur noch peinlich von Nvidia. ATi legt irgendwie noch wert auf normale Grafikkarten, mit einem Chip. Nvidia geht diesen einsamen, total sinnlosen Weg. Anstatt die Leistung eines Chips deutlich zu heben, wissen sich die Kalifornier nicht anders zu helfen als mit MultiGPU Systemen.

Gegen eine X1900er hat NV einfach nix auszurichten, die 7900gtx kann einem schon leid tun, keiner will die Karte, bzw keiner kauft sie. Ich kenn nur sehr wenige hier in diesem großen Forum mit der Karte, X1900 hat dagegen fast jeder ;)

Naja das muss jeder selbst wissen was er tut.

hallo fantroll! :wave2:

Gast
2006-06-05, 16:26:40
Gast[/POST]']Wird heiss und Laut Ati lässt grüssen.
ATI hat gut bei NV abgeguckt (FX5800Ultra), wobei die FX 5800Ultra noch deutlich extremer war. :D

AnarchX
2006-06-05, 16:27:20
thade[/POST]']@Blaire
Wakühler kann man auch nicht verbauen, einfach dummes Design, wäre sicher auch so gegangen wie die Asus Dual 7800gt!

Da hast du schon recht für Freunde leiser PCs ist sie nicht ganz so optimal.
Vielleicht kommt ja noch eine WaKü-Variante.

Schon krass, dass eine X1900XTX in Oblivion jedes SLi-System wegfegt. Sonst verhält sich die Karte natürlich wie erwartet, sind ja nur zwei zusammengeschraubte Platinen.

Wenn man sich die Werte so anschaut, müssen die Devs da doch wirklich etwas verbrochen haben... :|
Oder gibt es Gründe dafür?

Ich muss ehrlich sagen, Ich finde es einfach nur noch peinlich von Nvidia. ATi legt irgendwie noch wert auf normale Grafikkarten, mit einem Chip. Nvidia geht diesen einsamen, total sinnlosen Weg. Anstatt die Leistung eines Chips deutlich zu heben, wissen sich die Kalifornier nicht anders zu helfen als mit MultiGPU Systemen.

Nvidia "kann" eben eine solche Lösung bieten, diese zudem sehr günstig ist für die gebotene Leistung mit 550€ ist.
Selbst der R580+ wird es schwierig haben gegen die 7950GX2 etwas auszurichten.

Wenn ATI stromsparende und leise Karten im Highend bieten würde, wären sie auch meinen Augen der klare Sieger.
Vielleicht mit dem R580+... ;)

LovesuckZ
2006-06-05, 16:27:42
thade[/POST]']Ich muss ehrlich sagen, Ich finde es einfach nur noch peinlich von Nvidia. ATi legt irgendwie noch wert auf normale Grafikkarten, mit einem Chip. Nvidia geht diesen einsamen, total sinnlosen Weg. Anstatt die Leistung eines Chips deutlich zu heben, wissen sich die Kalifornier nicht anders zu helfen als mit MultiGPU Systemen.

Nvidia's "MultiGPU System" verbraucht genauso viel Strom wie eine X1900XTX.
Wenn Nvidia's Weg "total sinnlos" wäre, müsste es der von ATi auch sein.

Gegen eine X1900er hat NV einfach nix auszurichten, die 7900gtx kann einem schon leid tun, keiner will die Karte, bzw keiner kauft sie.

Dafür hält sich der Preis sehr stabil.

thade
2006-06-05, 16:28:26
SKYNET[/POST]']hallo fantroll! :wave2:

Selber der größte Fantroll und mich Fantroll nennen :|

Bitte was ist an meiner Kritik an Nvidia so falsch?

SKYNET
2006-06-05, 16:30:28
thade[/POST]']Selber der größte Fantroll und mich Fantroll nennen :|

Bitte was ist an meiner Kritik an Nvidia so falsch?

das, sie nicht stimmt?!

und im gegensatz zu dir, bin ich noch objektiv:
aber ich weiß was du meinst, in shaderlastigen games, ist ne XTX meist schneller...

thade
2006-06-05, 16:34:00
LovesuckZ[/POST]']Nvidia's "MultiGPU System" verbraucht genauso viel Strom wie eine X1900XTX.
Wenn Nvidia's Weg "total sinnlos" wäre, müsste es der von ATi auch sein.

ATi wird das in den Griff bekommen. Ich finds nur einfach blöd von Nvidia, jetzt wieder eine "neue" Karte zu bringen, deren Technik nicht weiter ist, als der erste G70. Aber das ist den Nvidia Anhängern offensichtlich egal.

Früher habt ihr auf ATis R420 geschimpft, weil kein SM3, das die R420 karten deutlich weniger Strom verbrauchten als ein NV40, das war euch völlig egal. Jetzt wo NV keine Argumente mehr für sich hat, muss halt der Stromverbrauch her. Ist ja einem HighEnd Käufer auch so wichtig, das wird ja mit Sicherheit ein Hartz4 Empfänger sein ;(

SKYNET[/POST]']
und im gegensatz zu dir, bin ich noch objektiv:

Soso, wo habe Ich jetzt so subjektiv gepostet, erzähl mal :rolleyes:

LovesuckZ
2006-06-05, 16:40:46
thade[/POST]']ATi wird das in den Griff bekommen.

Leider nicht heute.

Ich finds nur einfach blöd von Nvidia, jetzt wieder eine "neue" Karte zu bringen, deren Technik nicht weiter ist, als der erste G70. Aber das ist den Nvidia Anhängern offensichtlich egal.

Das ist Fortschritt.
Ich sehe hier kein Kritikpunkt, da die Karte nur das Loch nachoben stopft.
Diese Situation ist anders als zum Zeitpunkt der 5900 oder X1900.

Früher habt ihr auf ATis R420 geschimpft, weil kein SM3, das die R420 karten deutlich weniger Strom verbrauchten als ein NV40, das war euch völlig egal.

Nein, dies ist falsch.
Das Argument "Mehrfeatures" wurde mit dem höherem Stromverbrauch und der größeren Hitzeentwicklung gekontern. Das kannst du gut und gerne von sehr vielen Menschen bestätigen lassen.
Ähnlich wie im neuem Nforce-Thread.

Jetzt wo NV keine Argumente mehr für sich hat, muss halt der Stromverbrauch her.

Nicht der Stromverbrauch ist kritikwürdig, sondern die Kühlvorrichtung, um die Wärme abzugeben.

Ist ja einem HighEnd Käufer auch so wichtig, das wird ja mit Sicherheit ein Hartz4 Empfänger sein ;(

Dem HighEnd Käufer interessiert es nicht, wie die Leistung realisiert wird.

deekey777
2006-06-05, 17:00:05
SKYNET[/POST]']hallo fantroll! :wave2:

Solche Flames bringen die Diskussion nicht weiter, lasst das!

AnarchX
2006-06-05, 17:08:45
Blaire[/POST]']Leider keine QuadSLI Benchies...

Das wird wohl den Grund haben, dass NV die 7950GX2 auf Drängen der Systembuilder die noch nicht für Quad-SLI freigegeben hat.

Blaire
2006-06-05, 17:11:34
Der 91.29 kann QuadSLI und den gibts inoffziell bei station-drivers.com ;)

Coda
2006-06-05, 17:13:01
Und abgesehen davon:
ftp://download.nvidia.com/Windows/91.28/

Naja mich kribbelts auch bissel in den Fingern mir so ne Karte zu besorgen. Oblivion spiel ich eh nicht und ansonsten könnte man damit viele lustige Dinge machen :D

AnarchX
2006-06-05, 17:13:44
Blaire[/POST]']Der 91.29 kann QuadSLI und den gibts inoffziell bei station-drivers.com ;)

Aber wohl nur die 7900GX2.
Auf der Haupseite steht jedenfalls das:

die GeForce 7950 GX2 selber ist jedoch derzeit nicht für Quad-SLI freigegeben. Hier haben anscheinend die großen PC-Bauer bei nVidia erfolgreich interveniert (und ein von The Inquirer in die Welt gesetztes Gerücht stimmte ausnahmsweise ;) mal), so daß Quad-SLI noch für eine gewisse, derzeit unbestimmte Weile den PC-Bauern vorbehalten sein wird ...

Godmode
2006-06-05, 17:14:02
Also für mich wäre die Karte schon attraktiv, da ich nur einen PCIe x16 Slot habe. Aber ich warte lieber mal auf G80 R600, da ich momentan mit meiner 79GT recht gut auskomme.

Blaire
2006-06-05, 17:16:12
AnarchX[/POST]']Aber wohl nur die 7900GX2.
Auf der Haupseite steht jedenfalls das:

Nein die 7950 GX2 rennt mit dem 91.29 der Jakup von nvnews.net hats mir bestätigt.

thade
2006-06-05, 17:18:00
Willst Du dir jetzt 2 solche Dinger kaufen@Blair?

PingpiN
2006-06-05, 17:18:49
Die geht gut ab die Karte,2 davon sind bestimmt fett. :biggrin:Aber bringt das überhaupt was?Wird ein Topmodel R600 G80 schneller sein als so ein Quad SLi ding ?

Gast
2006-06-05, 17:23:23
Gast[/POST]']BTW wofür so viel Performance, wenn man nur Steinzeit-ROPs einsetzt?Wofür so viel Performance, wenn man nur Steinzeit-TMUs einsetzt? ;D

Wie du siehst sind beide nicht perfekt. Es gibt hier auch kein allgemeingültiges "besser" oder "schlechter" zwischen 7900GTX und x1900xt. Beide Karten haben ihre Vor- und Nachteile und man entscheidet am besten anhand der persönlichen Präferenzen was besser zu einem passt.

mike49
2006-06-05, 17:26:40
Blaire[/POST]']http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/
Wow, sehr souveräne Vorstellung der 7950GX2:

In 1.600*1.200 mit 4xAA/16AF rund 30% schneller als eine X1900XTX bei exakt gleichem Stormverbrauch unter Last. Und das für einen Aufpreis von gerade mal ~60€ zur XTX.

Bis auf das nicht erweiterte Feature-Set (HDR+MSAA, Area-AF) eine rundum überzeugende Lösung IMHO. Man benötigt ja wohl nicht mal ein SLI-Board.

Gast
2006-06-05, 17:32:00
thade[/POST]']Anstatt die Leistung eines Chips deutlich zu heben, wissen sich die Kalifornier nicht anders zu helfen als mit MultiGPU Systemen.

Gegen eine X1900er hat NV einfach nix auszurichten, die 7900gtx kann einem schon leid tun,Die 7900GTX ist im Durchschnitt genauso schnell wie die x1900xtx.

Blaire
2006-06-05, 17:33:23
thade[/POST]']Willst Du dir jetzt 2 solche Dinger kaufen@Blair?

Malsehn ich bin noch unschlüssig.

J0ph33
2006-06-05, 17:35:36
60€?...nen bisschen mehr sind's schon, zumal kein mensch ne XTX für 450€ kauft, wenn er ne XT für 360€ haben kann....

insofern stimmt das verhältnis wieder...

Gast
2006-06-05, 17:43:23
Gast[/POST]']Wofür so viel Performance, wenn man nur Steinzeit-TMUs einsetzt? ;D
Nachteile für den normalen Spieler?
Versuche mal einem Dau FP-Flitern zu erklären, viel Spaß. :)
HDRR und gerade AA kennen sogar Daus, wie ich letztens feststellen mußte.
Gast[/POST]']
Wie du siehst sind beide nicht perfekt. Es gibt hier auch kein allgemeingültiges "besser" oder "schlechter" zwischen 7900GTX und x1900xt. Beide Karten haben ihre Vor- und Nachteile und man entscheidet am besten anhand der persönlichen Präferenzen was besser zu einem passt.
Richtig. Für beide Karten gibt es handfeste Arumente.
Pro NV:
- geringe Verlustleistung und die damit verbundenen Vorteile (kühler, leiser - wobei nicht zwangsläufig, was man anhand der Lautstärke der 7900GT sehen kann)
- dieses FP Flitering, was du ansprichst
Pro ATI:
- HDRR mit AA
- besseres AF, wobei es noch besser geht...

Da AA und AF die wichtigsten Bildverbesserer sind, wiegen die Pro-Punkte der ATI einfach viel schwerer. Wenn man noch bedenkt, daß die ATI-Karten preiwerter sind, dann ist Nvidia in dem Bereich 230-400 Euro sehr schlecht aufgestellt. In diesem Preissegment kommt man an ATI kaum vorbei. Es sei denn man arbeitet mit 3D-Anwendungen unter Linux, dann greift man besser zu einer nVidia-Karte.

Aber BTT
Wenn ich ehrlich bin, kann ich weder SLI noch Crossfire etwas abgewinnen. Und dann noch 4 GPUs. :rolleyes:
Hoffentlich geht das Ganze nicht nach Hinten los und die Programmierer anfangen schlundrig zu programmieren, weil ja genung Leistung vorhanden ist...;(
Nicht daß wir bald wirklich 4 Grafikkarten brauchen. ;)

thade
2006-06-05, 17:58:46
Blaire[/POST]']Malsehn ich bin noch unschlüssig.

Wenn Du aufrüstest, dann dürfte wohl dein A64 langsam aber sicher ausgediehnt haben, nen X2@3Ghz wäre da schon besser ;)

Gast
2006-06-05, 18:53:11
Gast[/POST]']
Richtig. Für beide Karten gibt es handfeste Arumente.
Pro NV:
- geringe Verlustleistung und die damit verbundenen Vorteile (kühler, leiser - wobei nicht zwangsläufig, was man anhand der Lautstärke der 7900GT sehen kann)
- dieses FP Flitering, was du ansprichst
Pro ATI:
- HDRR mit AA
- besseres AF, wobei es noch besser geht...Ich würde da noch die Hybrid-AA-Modi bei NV hinzufügen. Sehen einfach sehr geil aus, kosten zwar recht viel Leistung aber sind trotzdem noch oft zu gebrauchen. 8xS für aktuelle Spiele mit nicht ganz so hohen Ansprüchen an die Graka, wie z.b. HL2, Sin Episodes) und 16xS für etwas ältere Spiele. Ich hoffe stark, dass in der nächsten Generation entweder ATI Hybridmodi oder NV weniger stark winkelabhängiges AF bringt. Wenn einer beides zusammen bringt, ist die Wahl für die nächste Graka fast schon gefallen, selbst wenn sie etwas langsamer als die Konkurrenz sein sollte.

Gast
2006-06-05, 19:16:27
Gast[/POST]']Ich würde da noch die Hybrid-AA-Modi bei NV hinzufügen. Sehen einfach sehr geil aus, kosten zwar recht viel Leistung aber sind trotzdem noch oft zu gebrauchen. 8xS für aktuelle Spiele mit nicht ganz so hohen Ansprüchen an die Graka, wie z.b. HL2, Sin Episodes) und 16xS für etwas ältere Spiele.
Bei den älteren Spielen magst du recht haben, aber gerade bei den aktuellen SPielen kannst du SSAA vergessen. Und wer kauft sich schon so eine Rakete um damit alte Spiele zu spielen?
Du kannst ja mal z.B. Titan Quest (Demo) versuchen. SSAA? Never...
Auch keine Hybridmodi. Bei hohen Auflösungen bekommt man stellenweise schon mit MSAA derbe Probleme.
Gast[/POST]']
Ich hoffe stark, dass in der nächsten Generation entweder ATI Hybridmodi oder NV weniger stark winkelabhängiges AF bringt. Wenn einer beides zusammen bringt, ist die Wahl für die nächste Graka fast schon gefallen, selbst wenn sie etwas langsamer als die Konkurrenz sein sollte.
Besser gescheites AA und AF.
6 oder besser 8 oder 12 :D RGMSAA und gutes AF. Bei den aktuellen Spielen hat man nicht genug Power um SSAA einzusetzen.

dildo4u
2006-06-05, 19:20:52
Wurde nochmal in irgendeinem Test bestätigt das die Karte auch 100% auf einem non sli Board wie den 975 Intel Boards funzt?

Bei Oblivion scheints auch sher von der Timedemo abzuhängen welche Karte vorne ist hier liegt z.B die GX2 deutlich vor der XTX.


http://www.techreport.com/reviews/2006q2/geforce-7950-gx2/oblivion.gif

http://www.techreport.com/reviews/2006q2/geforce-7950-gx2/index.x?pg=5

reunion
2006-06-05, 19:23:41
dildo4u[/POST]']Wurde nochmal in irgendeinem Test bestätigt das die Karte auch 100% auf einem non sli Board wie den 975 Intel Boards funzt?

Falls auf der Karte wie bei der 7900GX2 ein PCIe-Switch onboard ist, müsste das problemlos funktionieren.

/Edit: Auch wenn es leicht OT ist, aber welchen ominösen Treiberbug, der offensichtlich nur bei den X1900XT/XTX-Karten auftritt und diese ziemlich ausbremst hat denn computerbase bei FEAR (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/14/#abschnitt_fear)?

Gast
2006-06-05, 19:31:16
Gast[/POST]']Besser gescheites AA und AF.
6 oder besser 8 oder 12 :D RGMSAA und gutes AF. Bei den aktuellen Spielen hat man nicht genug Power um SSAA einzusetzen.Bei Fear oder Oblivion geb ich dir natürlich Recht. Es gibt aber auch aktuelle Spiele, wo noch problemlos 8xS drin ist. Sin Episodes hab ich ja schon genannt, HL2 ebenfalls. Auch bei sehr vielen Konsolenports ist noch 8xS möglich. Ich finde 8xS aufgrund des SSAA-Anteils auch deutlich schöner als 6x MSAA. Zur reinen Polygonkantenglättung reicht mir eigentlich 4x MSAA, wenn dann noch Leistung über ist, setze ich diese lieber in Supersampling um.

The_Invisible
2006-06-05, 19:37:36
es ist ja immer geil...

kommt ne neue nv karte raus -> es werden nur die schlechten seiten begutachtet, sogar das sie jetzt anscheinend laut und heiß und stromhungrig ist (und das von welche die ne x1y00 haben), das man gleich mal viel mehr leistung hat bei moderaten höheren preis wird dagegen überhaupt nicht angesprochen

mfg

dildo4u
2006-06-05, 19:41:54
The_Invisible[/POST]'] das man gleich mal viel mehr leistung hat bei moderaten höheren preis wird dagegen überhaupt nicht angesprochen

mfg

Ebend wenn man die Dual 7800GT von Asus betrachtet hätte man auch locker mit 700-800€ rechnen müssen weil die 1GB ram müssen auch bezahlt werden da sind 500-550€ eine ganz klare positive Überraschung.

Gast
2006-06-05, 20:01:29
Gast[/POST]']Bei Fear oder Oblivion geb ich dir natürlich Recht. Es gibt aber auch aktuelle Spiele, wo noch problemlos 8xS drin ist. Sin Episodes hab ich ja schon genannt, HL2 ebenfalls. Auch bei sehr vielen Konsolenports ist noch 8xS möglich. Ich finde 8xS aufgrund des SSAA-Anteils auch deutlich schöner als 6x MSAA. Zur reinen Polygonkantenglättung reicht mir eigentlich 4x MSAA, wenn dann noch Leistung über ist, setze ich diese lieber in Supersampling um.
Geschmacksache.
HL2 ist auch ein sehr schlechtes Beispiel, da wirkliche Könner am Werk waren und die Performance dem entsprechend ist. SSAA ist auch kein Allheilmittel. Siehe dir z.B. ein paar Fußballspiele an. Die Linien und die Tornetze flimmern immernoch. Bei ATI mit RGMSAA und gescheitem AF kein Problem.

dildo4u
2006-06-05, 20:36:09
Mher Tests.


Hier wird auch die XFX GeForce 7950 GX2 "XXX" getestet Chip 570MHz Speichertakt:1550 MHz liegt vom Speed her schon sher nahe am 7900GTX SLI.
http://www.guru3d.com/article/Videocards/353/

http://www.legitreviews.com/article/354/1/

http://www.hardwarezone.com/articles/view.php?cid=3&id=1926

http://www.hothardware.com/viewarticle.aspx?articleid=826&cid=2

http://www.pcper.com/article.php?aid=256

AnarchX
2006-06-05, 20:40:03
XFX GeForce 7950 GX2 M520 Extreme Edition
http://www.geizhals.at/deutschland/a203698.html
Chiptakt: 2x 520MHz, Speichertakt: 2x 650MHz

XFX GeForce 7950 GX2 M570 XXX
http://www.geizhals.at/deutschland/a203699.html
Chiptakt: 2x 570MHz, Speichertakt: 2x 775MHz


Die XXX wird wohl 1.2ns Speicher haben?

KraetziChriZ
2006-06-05, 20:46:29
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/juni/uebertaktete_geforce_7950_gx2_xfx/

Gast
2006-06-05, 20:57:12
Bei der Karte kann man nicht den Lüfter wechseln, geschweige denn eine WaKü draufhauen, oder?

Palpatin
2006-06-05, 20:58:51
Endlich mal ne Vernüftige Dual GPU Karte die zudem noch recht günstig ist und ein sehr gutes PL hat. Ich find die bisher mit abstand intressanteste SLI Lösung.
Wenn ich da an die Preise der 7800 GTX 512 zurückdenk........

The_Invisible
2006-06-05, 21:32:56
hui, auch schon in recht großer stückzahl lagernd. bin schon gespannt wann der erste user hier im forum davon berichten wird

mfg

Gast
2006-06-05, 21:37:47
AnarchX[/POST]']

XFX GeForce 7950 GX2 M570 XXX
http://www.geizhals.at/deutschland/a203699.html
Chiptakt: 2x 570MHz, Speichertakt: 2x 775MHzAbsolut geiles Teil. Das sind ja fast schon GTX-Taktraten.

Gast
2006-06-05, 21:42:11
Gast[/POST]']Absolut geiles Teil. Das sind ja fast schon GTX-Taktraten.

Kostet aber unnötig Geld...

Bei der Computerbase haben die selbst ne normale auf 600/820 gebracht, wozu Geld für solch niedrige Taktraten ausgeben? :)

KraetziChriZ
2006-06-05, 21:46:33
Gast[/POST]']Bei der Karte kann man nicht den Lüfter wechseln, geschweige denn eine WaKü draufhauen, oder?

Wenn, dann nur den von einer Karte, und nicht von beiden, nehme ich an.

Palpatin[/POST]']Endlich mal ne Vernüftige Dual GPU Karte die zudem noch recht günstig ist und ein sehr gutes PL hat. Ich find die bisher mit abstand intressanteste SLI Lösung.
Wenn ich da an die Preise der 7800 GTX 512 zurückdenk........

Wäre noch interressanter, wenn die auf nem Conroe-System mit Intel i965 laufen würde :biggrin:

gruß
chris

Gast
2006-06-05, 21:55:02
Gast[/POST]']Kostet aber unnötig Geld...

Bei der Computerbase haben die selbst ne normale auf 600/820 gebracht, wozu Geld für solch niedrige Taktraten ausgeben? :)Naja, bei einer >500€-Karte wäre es nicht schlecht, wenn man für den Fall des Falles noch die Gewährleistung/Garantie in Anspruch nehmen kann.

LovesuckZ
2006-06-05, 21:55:36
Gast[/POST]']
Bei der Computerbase haben die selbst ne normale auf 600/820 gebracht, wozu Geld für solch niedrige Taktraten ausgeben? :)

Bei einem anderen Test ging sie nur auf 550/750.
Wobei das fast schon 7800GTX 512 Niveau ist.

PingpiN
2006-06-05, 22:00:36
AnarchX[/POST]']XFX GeForce 7950 GX2 M520 Extreme Edition
http://www.geizhals.at/deutschland/a203698.html
Chiptakt: 2x 520MHz, Speichertakt: 2x 650MHz

XFX GeForce 7950 GX2 M570 XXX
http://www.geizhals.at/deutschland/a203699.html
Chiptakt: 2x 570MHz, Speichertakt: 2x 775MHz


Die XXX wird wohl 1.2ns Speicher haben?

Nein bitte keine von Haus aus übertakteten 7900 Karten. ;D :cop: :ulol:

Coda
2006-06-05, 22:04:52
Naja da dürfts evtl. weniger Probleme machen, weil die Chips ja eh normal relativ niedrig getaktet sind.

LovesuckZ
2006-06-05, 22:07:10
PingpiN[/POST]']Nein bitte keine von Haus aus übertakteten 7900 Karten. ;D :cop: :ulol:

Wäre schön, wenn das Sterben daran festzumachen wäre.
Leider krepieren auch Karten, welche einen Standardtakt haben...

Gast
2006-06-05, 22:27:35
PingpiN[/POST]']Nein bitte keine von Haus aus übertakteten 7900 Karten. ;D :cop: :ulol:War ja klar, dass das von dir kommt.

thade
2006-06-05, 23:00:59
Wieso eigentlich kommt die Karte nicht wie die Voodoo5, Volari oder Asus 7800Dual? Wäre doch kein Problem oder, somit könnte man auch andere Kühler verbauen.

Ich weiß nich was sich Nvidia dabei gedacht hat, so eine optisch vermurkste Karte zu bringen.

AnarchX
2006-06-05, 23:04:55
thade[/POST]']Wieso eigentlich kommt die Karte nicht wie die Voodoo5, Volari oder Asus 7800Dual? Wäre doch kein Problem oder, somit könnte man auch andere Kühler verbauen.


Weil diese einzelnen PCBs günstiger zu produzieren sind, da sie einfach sind... ;)
Deshalb kann man die Karte im Gegensatz zur Asus 7800Dual so günstig verkaufen.

The_Invisible
2006-06-05, 23:07:28
hm, vielleicht ne karte für den kommenden R580+ ?

wäre schon interessant so ne karte, aber bin da schon sehr von dem gtx lüfter verwöhnt, und die 7950er soll doch einiges lauter sein (trotzdem leiser als ein x1y00). sli bekommt man ja schon so gut wie überall zum laufen, sollte also auch kein prob sein. ach, die "gier" immer...

mfg

thade
2006-06-05, 23:08:11
Schwach, Asus schaffte es mit der 7800gt auch, naja typisch Nvidia!

Leistungsmäßig gut, aber praktisch für Wakü und Co eine Schrottkarte, freiwillig würde Ich die mir nicht einbauben wollen.

The_Invisible
2006-06-05, 23:11:09
thade[/POST]']Wieso eigentlich kommt die Karte nicht wie die Voodoo5, Volari oder Asus 7800Dual? Wäre doch kein Problem oder, somit könnte man auch andere Kühler verbauen.

Ich weiß nich was sich Nvidia dabei gedacht hat, so eine optisch vermurkste Karte zu bringen.

lol, jetzt wird schon am design rumgemotzt. interessiert doch keine sau wie die aussieht, die innereien von nem pc bekommt eh keiner zu sehen, ich finds zudem recht futuristisch...

mfg

AnarchX
2006-06-05, 23:16:15
thade[/POST]']Schwach, Asus schaffte es mit der 7800gt auch, naja typisch Nvidia!

Die Karte hat aber mit 1000€ deutlich mehr gekostet, da das PCB eben extrem aufwendig und somit teuer war.
Jetzt hat man das eben clever gelöst.
http://pics.computerbase.de/1/4/6/4/7/41.jpg

Dein dummes Flammen kannst du auch lassen... :rolleyes:

thade
2006-06-05, 23:23:27
lol Ich flame, oh man wenn NV sagt ihr sollt fürs Fenster rausspringen würdets Ihr glatt tun. Ihr müsst nicht alles bis auf den Tod verteidigen, so ein Doppeldecker hat nur Nachteile, clever gelöst ist das deiner Meinung nach, ja sehr clever.

Das AF der Nvidias ist sicher auch sehr clever gelöst was? Naja die NV Fraktion mit ihren fragwürdigen Argumenten, mehr als lächerlich.

ATi macht beileibe nicht alles richtig, aber schon um einiges mehr richtig als diese Kalifornier.

AnarchX
2006-06-05, 23:28:25
thade[/POST]']lol Ich flame, oh man wenn NV sagt ihr sollt fürs Fenster rausspringen würdets Ihr glatt tun. Ihr müsst nicht alles bis auf den Tod verteidigen, so ein Doppeldecker hat nur Nachteile, clever gelöst ist das deiner Meinung nach, ja sehr clever.

Nein, deine Argumentation ist die eines Fanboys für den es nur schwarz und weiß gibt. Mit unsinnigen Argumenten versucht du den neusten Triumph deines "Feindes" zu zereissen... ;)

thade[/POST]']
Das AF der Nvidias ist sicher auch sehr clever gelöst was? Naja die NV Fraktion mit ihren fragwürdigen Argumenten, mehr als lächerlich.

Aus Marktsicht ist es eben auch clever gelöst.
Die meisten User wissen eben nichtmal was AF ist, sondern erinnern sich an die tolle Geforce die sie im ersten PC hatten und nun eben wieder die tollen Benchmarkbalken sehen. ;)

thade[/POST]']
ATi macht beileibe nicht alles richtig, aber schon um einiges mehr richtig als diese Kalifornier.
Das sieht man ja gerade am tollen Portfolio was sie bieten könne, ausserhalb vom Highend. ;D

dildo4u
2006-06-05, 23:29:12
thade[/POST]']

Leistungsmäßig gut, aber praktisch für Wakü und Co eine Schrottkarte, freiwillig würde Ich die mir nicht einbauben wollen.
Da die meisten GK Wakü Kühler sher flach sind kann man die Karte sher whol mit einer Wakü ausstatten.Der NexXxoS NVXP3 NVidia sollte z.B locker passen.


http://www.aquatuning.de/images/product_images/popup_images/750_3.jpg

The_Invisible
2006-06-05, 23:33:23
thade[/POST]']lol Ich flame, oh man wenn NV sagt ihr sollt fürs Fenster rausspringen würdets Ihr glatt tun. Ihr müsst nicht alles bis auf den Tod verteidigen, so ein Doppeldecker hat nur Nachteile, clever gelöst ist das deiner Meinung nach, ja sehr clever.

Das AF der Nvidias ist sicher auch sehr clever gelöst was? Naja die NV Fraktion mit ihren fragwürdigen Argumenten, mehr als lächerlich.

ATi macht beileibe nicht alles richtig, aber schon um einiges mehr richtig als diese Kalifornier.

du musst ati auch nicht bis auf den tod verteidigen und behaupten das dual karten mist sind weils ati nicht schafft ihre herdplatten auf so engen raum unterzubringen

oh gott, alleine schon zu behaupten das die karte optisch nicht ansprechend sei sagt ja schon alles. und das das af von nvidia karten auch nicht das gelbe vom ei weiß jetzt auch schon jeder seit ein paar monaten, und linux/treiber ist mir argument genug das ich mir in meinem hauptrechner keine ati antue

mfg

thade
2006-06-05, 23:36:38
AnarchX[/POST]']Nein, deine Argumentation ist die eines Fanboys für den es nur schwarz und weiß gibt. Mit unsinnigen Argumenten versucht du den neusten Triumph deines "Feindes" zu zereissen... ;)

Ja und Ich bin ein kleiner ATi Fan, aber ein Fanboy bin ich nicht. Bringt NV wieder die bessere Karte, kaufe Ich mir nen G80, aber ohne Unified Shader, nein denke nicht :D

Dildo,
Der NexXxos ist alles andere als flach. Erstens passt er nicht, keiner wird extra für diese Freak Karte einen Wakühler entwerfen, wenn ja, dann bräuchte man 2 Kühler a~65€*2 bei 2 solchen Monstern.

Die gelbe Eule
2006-06-05, 23:42:55
The_Invisible[/POST]']du musst ati auch nicht bis auf den tod verteidigen und behaupten das dual karten mist sind weils ati nicht schafft ihre herdplatten auf so engen raum unterzubringen

oh gott, alleine schon zu behaupten das die karte optisch nicht ansprechend sei sagt ja schon alles. und das das af von nvidia karten auch nicht das gelbe vom ei weiß jetzt auch schon jeder seit ein paar monaten, und linux/treiber ist mir argument genug das ich mir in meinem hauptrechner keine ati antue

mfg

Wäre ein Grund mehr, warum morgen auf der Computex nur eine Dual 1600XT erscheint und nicht eine 1900XT ;)

thade[/POST]']Ja und Ich bin ein kleiner ATi Fan, aber ein Fanboy bin ich nicht. Bringt NV wieder die bessere Karte, kaufe Ich mir nen G80, aber ohne Unified Shader, nein denke nicht :D

Dildo,
Der NexXxos ist alles andere als flach. Erstens passt er nicht, keiner wird extra für diese Freak Karte einen Wakühler entwerfen, wenn ja, dann bräuchte man 2 Kühler a~65€*2 bei 2 solchen Monstern.

Thermaltakes Tide Water SLi passt da aber locker rein.