Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Zum Launch der GeForce 7950 GX2


Leonidas
2006-06-06, 17:15:42
Link:
http://www.3dcenter.org/artikel/2006/06-06.php


Note: Ok, superkurzer Artikel. Ich gebe ehrlich zu, daß dieser nicht unmaßgeblich deswegen geschrieben wurde, um eine aktuelle LineUp-Tabelle bringen zu können, weil ich auf diese in den News immer wieder gern zurückgreife. :)


Update

Der Chiptakt der 7950GX2 wurde schreibfehlerhafterweise mit 600 MHz angegeben, korrekt sind natürlich alleinig 500 MHz.

Update

Zudem wurde die Anzahl der Pixelshader-Einheiten bei der X1900GT falsch mit 12 angegeben, richtig sind natürlich 36.

Kladderadatsch
2006-06-06, 17:16:40
seite zwei wird noch nicht gefunden ;)

Vertigo
2006-06-06, 17:18:24
Korrekturvorschläge:

Zweite Zeile: zumindest (oder mindestens), nicht zumindestens.

Letzter Abschnitt: "...nur daß ATI dies dann eben mit nur einem Chip anstatt zweier erreichen würde."



Zum Inhalt des Artikel : kurz und prägnant. Mit Sicherheit ist die 7950 GX2 aktuell die schnellste "Einzelkarte" und nimmt ja auch nicht mehr Platz weg als eine 7900GTX oder X1900XT(X). Sicher eine wesentlich elegantere Lösung als das bisherige "richtige" SLI.

Kinman
2006-06-06, 17:37:18
Wirklich interessant Karte, wäre das mit der Bildqualität nicht.. Aber das ist ein anderes Thema.

Zum Artikel:
bei dem Wort "monetär" musste ich lachen. Das Wort braucht die Welt :biggrin:

mfg Kinman

BlutenderFleischer
2006-06-06, 18:07:20
Da die entsprechenden Fachleute mir in diesem Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=301184
keine Aufmerksamkeit schenken möchten, bringe ich den Thread halt zu den Fachleuten :).

"Etwas differenziert kann man dies allerdings bei der Radeon X1900 XTX betrachten: Die Top-Karte von ATI mag bezüglich der reinen Performance ebenso wie die GeForce 7900 GTX recht klar unter der GeForce 7950 GX2 zurückliegen, kann aber weiterhin einige 3D-technische Pluspunkte anbringen, welche nVidia nach wie vor nicht zu bieten hat: Als erstes wäre da der winkelunabhängige anisotrope Filter (Area-AF) zu nennen und als zweites die Möglichkeit, Anti-Aliasing auch unter HDR-Rendering einsetzen zu können. Bei HighEnd-Grafikkarten wiegen diese Punkte besonders schwer, weil sich gerade bei diesen die Performance-Reserven zur Nutzung dieser beiden Features ergeben. Insofern kann man der ATI-Karte weiterhin eine Empfehlung aussprechen - das sie nicht mehr die absolut schnellste im Lande ist, mag für Anhänger einer bestmöglichen Bildqualität dann eher zweitrangig sein."
Wie oft muß man euch den fragen, warum ihr euch über Supersampling ausschweigt, bis man eine Antwort bekommt?
Ich lasse mich im Übrigen auch belehren, falls ich auf dem Holzweg bin, ich bin weit davon entfernt in diesem Bereich eine ähnliche Koryphäe zu werden, wie die "Üblichen Verdächtigen" (<-- das ist positiv gemeint).
Ich stelle, mein zum Teil vorhandenes Fachwissen mit gesundem Menschenverstand vermengt, mal folgende Thesen auf.
1) ATI hat weiterhin die effektivste Möglichkeit mit 6xAA Kanten zu glätten.
2) Das menschliche Auge kann 25fps wahrnehmen. Wir bauen ein dickes Polster ein: die Frames dürfen nicht unter 40 droppen. Ich behaupte, daß es mit der 7900GX2 möglich ist, ein schöneres Bild zu erzeugen als mit jeder R5xx Karte ohne daß die FPS unter 40 droppen.
3) Wer kauft sich für 550€ eine Grafikkarte und nutzt sie dann nicht in der höchsten flüssig spielbaren Qualität?
Entschuldigt, daß ich mit dem Thema Nerven, aber bei dem Anspruch, den dieses Forum (zu Recht!) an sich stellt, ist dieses Thema es wert, behandelt zu werden.
Schließend möchte ich noch etwas aus dem Artikel "Neue und Alte Filtertricks bei NVidia" zitieren:
"Was bleibt also übrig: Auf der einen Seite bieten beide Hersteller enorm schnelle HighEnd-Hardware, die trotz erheblicher Architektur-Unterschiede sehr ähnliche Leistung erreichen. Auf der anderen Seite bencht fast jedes Hardware-Blatt immer noch mit performanceverzerrenden Standard-Treibereinstellungen, die wie bereits mehrfach deutlich gemacht, optisch nicht vergleichbar sind (siehe dazu auch unseren Artikel über das Texturenflimmern des G70-Chips). Als lobende Ausnahmen seien die ComputerBase (seit ein paar Monaten) und die PC Games Hardware (seit der Ausgabe 02/06) erwähnt - sowie all jene Nutzer unseres Forums, welche die interessierte Community mit Benchmarks versorgen.

Deswegen appellieren wir an dieser Stelle nochmals an unsere Kollegen, dass die Qualität ihrer Reviews nur gesteigert wird, wenn sie (zugegebenermaßen zeitintensive) Bildqualitätsvergleiche anstellen und deren Erkenntnisse in künftigen Hardwaretests mit verarbeiten."
Bitte Leute, handelt noch den von euch selbst formulierten Appellen.

Undertaker
2006-06-06, 18:11:11
da hast du absolut recht - das wäre doch wirklich mal ein interessanter test, aktuelle high-end karten @ max. qualität, die noch mit über 30fps minimum spielbar ist...

ansonsten ein kurzer, aber guter und informativer artikel :)

Leonidas
2006-06-06, 19:05:24
insane in the membrane[/POST]']seite zwei wird noch nicht gefunden ;)


Da warste zu schnell. Dies konnte erst gefixt werden, nachdem ich das Foren-Posting abgesetzt hatte ;)

Leonidas
2006-06-06, 19:07:26
Touchdown[/POST]']Korrekturvorschläge:

Zweite Zeile: zumindest (oder mindestens), nicht zumindestens.

Letzter Abschnitt: "...nur daß ATI dies dann eben mit nur einem Chip anstatt zweier erreichen würde."



Gefixt.

pco
2006-06-06, 19:20:10
Thema 1: Die Dualchip-Story

Es wird immer gerne erzählt... Ja nVidia, die bauen das jetzt, das ist das erste mal. Pustekuchen. ATI war wohl der erste mit zwei GPUs auf einem PCB (im Home-Segment, im CAD-Segment ists ja durchaus nicht unüblich).
Stichwort: Rage Fury Maxx.
Ein technischer Meilenstein war die Verdopplung (theoretische) der Leistung durch einen zweiten Chip eh nie. Mehr ein fauler Kompromiss, wenn einem Hersteller einfach nix besseres mehr eingefallen ist.

Thema 2: Sinn und Unsinn von Dualchip-Karten

Und genau jene Probleme, die damals die RFM hatte, hat nun auch die GTX2. Erstens: Sie wird richtig schön warm und mit einem wahren Radaubruder wird diese Wärme gleichmäßig im Gehäuse verteilt.
Auch über die wirtschaftlichkeit dieser Karte kann man diskutieren, denn die Produktion von Dual-Chip-Lösungen sind ungleich teurer.
Last but not least hat der Author es ja schon gesagt, in 3 Monaten kommt ATIs neuer Chip, ein paar Wochen später sicher auch nVidias Konter. Beide werden mit einem Chip mindestens die Leistung der GTX2 bringen.
Kneipenphilosophen prophezeiten schon zu Zeiten der Voodoo2-SLI-Lösung: "Irgendwann stecken wir uns einfach noch ne Grafikkarte dazu, wenn wir mehr Power wollen!"
Und irgendwann wird jeder SLI haben und jede Grafikkarte mehr als einen Chip?

Thema 3: Der Preis

Sorry, Leute, aber 550 Euro für eine Grafikkarte ist kein angemessener Preis. Es ist doch hergott noch eins nur die Grafikkarte. Da muss dann noch ein 400 Euro Prozessor her, mit einem 50 Euro Kühler, ein 150 Euro Mainboard und eine 200 Euro Soundkarte, für 170 Euro RAM und das 200 Euro Modding-Gehäuse und und und... sooory, ich mach nicht mehr möt!

Bei den Preisen muss doch jeder sagen: "Möt euch spiel ich nich mehr, ihr seid doof!"
Schon 300 Euro für eine noch halbwegs aktuelle Karte ist der Hammer! Das sind auch 600 DM in Hartgeld. Ach ich erinnere mich noch an das Hallo damals, als nVidia für die Geforce2Ultra beim Start 1000 Mark haben wollte...

Thema 4: Die Qualität
Man sollte also meinen, wenn man das Netzteil, die Kühlung und die Kohle für so eine Highend-Karte rausbläst, dann bekommt man den Traum einer Optik. Ja wo denkst Du hin? In welcher Welt lebst Du eigentlich? Neiiiin,... Du bekommst getweakedte Treiber, mit Performance-Cheats und Abstrichen beim Anti-Aliasing, welche in der aktuellen Beta noch lange nicht mit jedem Spiel super laufen. Auch das eigentlich prunkvoll zu gestaltenden Zubehör glänzt durch ein paar Kabel, ein 15-Seiten-Handbuch und eine CD-ROM.
Wo sind die 5 neuwertigen Vollversionen, die mir damals aus der Schachtel meiner für 200 DM (100 Euro / Lächerlich) erstandenen Diamond-Monster3D engegenpurzelten. Wo ist das Fan-Plakat, wo der exklusive Support. Wo ist die CD rrrrandvoll mit eindrucksvollen Demos? Wie schauts mit Zusatzsoftware aus? Bei XFX? Hör auf!

Wer 550 Euro für eine Grafikkarte ausgibt, soll sich freuen, wenn das Ding überhaupt reibungslos läuft!

So eine Karte (um meinen Vorrednern Anschluss zu leisten) ist auch gar nicht zum Spielen, die ist zum angeben und zum Benchmarken (und damit angeben!).

Ich finde die kühl technische Betrachtung dieser Hardware zwar professionell ist (wie gewohnt), aber um an Aths' Kolumne anzuschliessen, es fehlt mir ein wenig der kritische Unterton.

pco

Tigerchen
2006-06-06, 19:43:32
pco[/POST]']Thema 1: Die Dualchip-Story

Es wird immer gerne erzählt... Ja nVidia, die bauen das jetzt, das ist das erste mal. Pustekuchen. ATI war wohl der erste mit zwei GPUs auf einem PCB (im Home-Segment, im CAD-Segment ists ja durchaus nicht unüblich).
Stichwort: Rage Fury Maxx.
Ein technischer Meilenstein war die Verdopplung (theoretische) der Leistung durch einen zweiten Chip eh nie. Mehr ein fauler Kompromiss, wenn einem Hersteller einfach nix besseres mehr eingefallen ist.

Thema 2: Sinn und Unsinn von Dualchip-Karten

Und genau jene Probleme, die damals die RFM hatte, hat nun auch die GTX2. Erstens: Sie wird richtig schön warm und mit einem wahren Radaubruder wird diese Wärme gleichmäßig im Gehäuse verteilt.
Auch über die wirtschaftlichkeit dieser Karte kann man diskutieren, denn die Produktion von Dual-Chip-Lösungen sind ungleich teurer.
Last but not least hat der Author es ja schon gesagt, in 3 Monaten kommt ATIs neuer Chip, ein paar Wochen später sicher auch nVidias Konter. Beide werden mit einem Chip mindestens die Leistung der GTX2 bringen.
Kneipenphilosophen prophezeiten schon zu Zeiten der Voodoo2-SLI-Lösung: "Irgendwann stecken wir uns einfach noch ne Grafikkarte dazu, wenn wir mehr Power wollen!"
Und irgendwann wird jeder SLI haben und jede Grafikkarte mehr als einen Chip?

Thema 3: Der Preis

Sorry, Leute, aber 550 Euro für eine Grafikkarte ist kein angemessener Preis. Es ist doch hergott noch eins nur die Grafikkarte. Da muss dann noch ein 400 Euro Prozessor her, mit einem 50 Euro Kühler, ein 150 Euro Mainboard und eine 200 Euro Soundkarte, für 170 Euro RAM und das 200 Euro Modding-Gehäuse und und und... sooory, ich mach nicht mehr möt!

Bei den Preisen muss doch jeder sagen: "Möt euch spiel ich nich mehr, ihr seid doof!"
Schon 300 Euro für eine noch halbwegs aktuelle Karte ist der Hammer! Das sind auch 600 DM in Hartgeld. Ach ich erinnere mich noch an das Hallo damals, als nVidia für die Geforce2Ultra beim Start 1000 Mark haben wollte...

Thema 4: Die Qualität
Man sollte also meinen, wenn man das Netzteil, die Kühlung und die Kohle für so eine Highend-Karte rausbläst, dann bekommt man den Traum einer Optik. Ja wo denkst Du hin? In welcher Welt lebst Du eigentlich? Neiiiin,... Du bekommst getweakedte Treiber, mit Performance-Cheats und Abstrichen beim Anti-Aliasing, welche in der aktuellen Beta noch lange nicht mit jedem Spiel super laufen. Auch das eigentlich prunkvoll zu gestaltenden Zubehör glänzt durch ein paar Kabel, ein 15-Seiten-Handbuch und eine CD-ROM.
Wo sind die 5 neuwertigen Vollversionen, die mir damals aus der Schachtel meiner für 200 DM (100 Euro / Lächerlich) erstandenen Diamond-Monster3D engegenpurzelten. Wo ist das Fan-Plakat, wo der exklusive Support. Wo ist die CD rrrrandvoll mit eindrucksvollen Demos? Wie schauts mit Zusatzsoftware aus? Bei XFX? Hör auf!

Wer 550 Euro für eine Grafikkarte ausgibt, soll sich freuen, wenn das Ding überhaupt reibungslos läuft!

So eine Karte (um meinen Vorrednern Anschluss zu leisten) ist auch gar nicht zum Spielen, die ist zum angeben und zum Benchmarken (und damit angeben!).

Ich finde die kühl technische Betrachtung dieser Hardware zwar professionell ist (wie gewohnt), aber um an Aths' Kolumne anzuschliessen, es fehlt mir ein wenig der kritische Unterton.

pco

Seh ich ähnlich. Ich den ganzen Schwindel auch nicht mit. Das Ganze ist mir schlicht zu teuer. Hab einmal ne Grafikkarte für 480 €uro gekauft. Das war die R9700 Pro. Da muß schon viel passieren ehe ich nochmal soviel Geld für ne Grafikkarte ausgebe. Und SLI ist wahrlich was für Angeber.

BlutenderFleischer
2006-06-06, 19:45:30
@pco
In Teilen muss ich dir ja Recht geben, der Preis ist unverschämt. Deshalb kaufe ich mir auch keine. Das einzige Druckmittel, was man gegen Hardwarehersteller hat, ist seine Produkte nicht zu kaufen. Ich boykottiere das jetzt nicht. Nein, mir ist es einfach keine 550€ wert. Aber es gibt Leute, denen ist es eben 550€ wert, es ist halt ihr Hobby, sie sind flüssig, warum sollen sie sich dann keine Karte für 550€ kaufen? Es gibt Frauen die kaufen Schmuck für das Vierfache, das Zeug hat 0 funktionellen Wert :).
Aber ich trauer auch den Voodoo Zeiten hinterher. Voodoo rein, schon war der PC 1 1/2 Jahre up to date und eine Spielekiste. Aber untertreib mal nicht mit dem Preis die hat anfangs auch 400DM gekostet afair.

Gast
2006-06-06, 19:51:36
Danke für den kurzen aber informativen Artikel. :up:

betabös

Leonidas
2006-06-06, 19:58:41
Wie oft muß man euch den fragen, warum ihr euch über Supersampling ausschweigt, bis man eine Antwort bekommt?


Ist doch wieder sehr lustig. Als ich seinerzeit stark auf das 8xS von nVidia als Pluspunkt hingewiesen habe, habe ich Prügel bekommen - heuer nun bekomme ich Prügel, weil ich es mal auslasse.

Zum Thema: Ja, 8xS ist geil. Aber es hat auch die Einschränkung, daß es ziemlich stark an der Performance zieht - weitaus stärker als jedes andere BQ-Setting. 8xS ist also nur dann nutzbar, wenn wirkliche Reserven vorhanden sind, was die Schlagkraft von 8xS als Argument wieder etwas reduziert.

Leonidas
2006-06-06, 20:00:29
pco[/POST]']Thema 1: Die Dualchip-Story

Es wird immer gerne erzählt... Ja nVidia, die bauen das jetzt, das ist das erste mal. Pustekuchen. ATI war wohl der erste mit zwei GPUs auf einem PCB (im Home-Segment, im CAD-Segment ists ja durchaus nicht unüblich).
Stichwort: Rage Fury Maxx.


Ich hab nirgendwo gesagt, daß wären die ersten, die dies so machen. Bitte nicht Aussagen anderer Artikel oder Personen mit den meinen vermengen.

Leonidas
2006-06-06, 20:03:41
pco[/POST]']
Ein technischer Meilenstein war die Verdopplung (theoretische) der Leistung durch einen zweiten Chip eh nie. Mehr ein fauler Kompromiss, wenn einem Hersteller einfach nix besseres mehr eingefallen ist.



Nicht abzustreiten. Andererseits zeigt schon die Entwicklung bei den CPUs: Es ist nun einmal kostengünstiger, mehr Cores zu geben anstatt ständig noch größere Singlecores zu entwickeln. Letztere mögen mehr Durchschlagskraft haben, aber durch den höheren Entwicklungsaufwand rentiert sich das nicht.

Und nVidia ist durchaus was eingefallen: Es ist denen eingefallen, daß der G71-Chip sowie dazugehörige Platinen inzwischen so günstig herzustellen sind, daß man doch locker gleich zwei davon verkaufen kann zu einem Preis, der gerade einmal bei 275 Euro pro Platine liegt - und daß für klares HighEnd-Produkt. Denen ist schlicht eingefallen, die Kosten zu drücken - und diesen Vorteil dann für neue Produkte zu nutzen.

Leonidas
2006-06-06, 20:05:05
pco[/POST]']
Sorry, Leute, aber 550 Euro für eine Grafikkarte ist kein angemessener Preis.


Hab ich nicht gesagt. Ich sagte: In ihrem Preissegment. Und da trifft dies zu, weil es eine relative Aussage ist.

Ruffnax
2006-06-06, 20:24:09
Sorry, aber mit der Einteilung des Highend- bzw. Mainstreamsegment bin ich nicht einverstanden.

Unter vorbehalt, wenn man natürlich nur die 7900er Reihe von Nvidia betrachtet. Ansonsten guter Artikel. Ich behalte mir ebenfalls vor, jetzt eine Einteilung vorzuschlagen :-)

mfg

Ruffnax

Gast
2006-06-06, 23:38:25
pco[/POST]']Wo sind die 5 neuwertigen Vollversionen, die mir damals aus der Schachtel meiner für 200 DM (100 Euro / Lächerlich) erstandenen Diamond-Monster3D engegenpurzelten.Ich glaube da täuscht dich deine Erinnerung oder du hast dir die Monster gekauft als sie schon alt war. Ich kann mich noch recht genau erinnern, dass ich für meine Diamond Voodoo2 mit 12 MiB fast 800 DM bezahlt habe als sie neu war. Wieviel die Voodoo1 gekostet hat, weiß ich nicht mehr genau, aber es war auf jeden Fall deutlich mehr als 200 DM.

Leonidas
2006-06-07, 06:32:43
Ruffnax[/POST]']Sorry, aber mit der Einteilung des Highend- bzw. Mainstreamsegment bin ich nicht einverstanden.

Unter vorbehalt, wenn man natürlich nur die 7900er Reihe von Nvidia betrachtet. Ansonsten guter Artikel. Ich behalte mir ebenfalls vor, jetzt eine Einteilung vorzuschlagen :-)



Dann warte ich mal auf einen Vorschlag. Kein Problem, wenn er besser ist als meine derzeitige Einteilung.

Leonidas
2006-06-07, 06:34:03
Gast[/POST]']Ich glaube da täuscht dich deine Erinnerung oder du hast dir die Monster gekauft als sie schon alt war. Ich kann mich noch recht genau erinnern, dass ich für meine Diamond Voodoo2 mit 12 MiB fast 800 DM bezahlt habe als sie neu war. Wieviel die Voodoo1 gekostet hat, weiß ich nicht mehr genau, aber es war auf jeden Fall deutlich mehr als 200 DM.


Vom Start weg 500 DM, aber da war das Teil noch unbekannt. Als sie sich dann in der Szene durchzusetzen begann, waren es 400 DM, dafür dürften viele Karten weggegangen sein, weil der Preis auch (vor dem Start der Voodoo2) nicht maßgeblich fiel.

pco
2006-06-07, 07:30:34
Zum Thema Preis:
Ihr versteht mich da miss. Klar, man hat sich damals ne Voodoo gleich nach dem Marktstart kaufen könnnen. Aaaber... Die Produktlebenszyklen waren deutlich länger. Die Voodoo war über 1 Jahr Referenz und zwischen Erscheinen der Voodoo1 und Vooodoo2 verging ebenfalls 1 1/2 Jahre.
Selbst als die Voodoo2 draußen war (für fürstliches Geld, ja) war der Kauf einer Voodoo1 keine schlechte Investition.

Das Rennen um die Krone hat nVidia eingeleitet mit ihrer Aktion "alle halbe Jahre ein neuer Chip". Mittlerweile haben sie nen Gang zurück geschaltet. Aber eine 1 Jahr alte Karte ist heute Mittelmaß.

Bye

PCO

Gast
2006-06-07, 11:05:50
pco[/POST]']
Das Rennen um die Krone hat nVidia eingeleitet mit ihrer Aktion "alle halbe Jahre ein neuer Chip". Mittlerweile haben sie nen Gang zurück geschaltet. Aber eine 1 Jahr alte Karte ist heute Mittelmaß.

Ja, aber …

Du bezahlst zum Zeitpunkt X einen Preis Y für eine Karte. Du allein entscheidest, ob du bereits bist, diesen Preis zu zahlen. Der Hersteller Z kann dir nur ein Angebot machen – du allein nimmst es an oder lässt es bleiben.

Zum veralten: Wird deine Karte, die zu zum Zeitpunkt X für Preis Y gekauft hast, nach einem Jahr etwa langsamer? Nein. Es gibt nur andere, schnellere Karten.

Muss halt jeder selbst wissen, ob er jeden Tag den neuesten 5-Euro-Klingelton braucht oder ob er sein Ego nicht unbedingt daran festmacht, jedes neue Spiel nur noch in 2.560x1.600 mit allerhöchsten Details und 100+ Fps spielen will.

BlutenderFleischer
2006-06-07, 11:12:31
Leonidas[/POST]']Ist doch wieder sehr lustig. Als ich seinerzeit stark auf das 8xS von nVidia als Pluspunkt hingewiesen habe, habe ich Prügel bekommen - heuer nun bekomme ich Prügel, weil ich es mal auslasse.

Zum Thema: Ja, 8xS ist geil. Aber es hat auch die Einschränkung, daß es ziemlich stark an der Performance zieht - weitaus stärker als jedes andere BQ-Setting. 8xS ist also nur dann nutzbar, wenn wirkliche Reserven vorhanden sind, was die Schlagkraft von 8xS als Argument wieder etwas reduziert.

Von mir hast du definitv keine Prügel bekommen :).
Auch waren die Karten damals nicht leistungsfähig genug um von diesem Pluspunkt gebrauch zu machen.
Zu den Reserven:
Darauf will ich doch hinaus: ich meine die Reserven sind vorhanden.
Ihr meint sie sind nicht vorhanden, sonst würdet ihr ja die BQ anhand von 8xS (oder sogar 2x2+4xMSAA Mischmodus?) vs. 6xAA vergleichen.
Ich meine die Reserven sind vorhanden.
Gut eigentlich wäre es damit an mir, die Behauptung zu beweisen, nur leider fehlen mir die Möglichkeiten dazu, da ich keine Highend Karte besitze, ich habe für mich nur das Mosaiksteinchen, daß ich CS:Source in 12x10, HQ,16xAF mit 8xS spielen kann, Framedrops nicht unter 40. Auf einer 68GT@U. Eine 7900GX2 hat mehr als die doppelte Füllrate gg. eine 68U.
Nun beweist doch mal mit zahlen, daß eine GX2 nicht leistungsfähig genug ist, um bei ALLEN Spielen mind. 8xS zu nutzen, Auflösung 12x10 (die meisten haben 19"). Ich meine es geht sogar in 16x12.

RavenTS
2006-06-07, 12:11:58
@pco: Stimmt schon, die Hardware ist wirklich einfach teurer geworden, was sicherlich nicht nur an den kürzeren Zyklen liegt. Tatsache ist wohl, dass es einfach immer mehr Leutchen da draussen gibt, die einfach keine echte Lebensphilosophie haben und die sich einfach darüber definieren, dass sie die schnellste und beste Karte überhaupt haben und dies und jenes stets in maximalen Details spielen. Diese Flucht in materielle Werte kann den Produzenten ja nur recht sein, gut Geld verdient man damit allemal, auch wenn es ja nur eher eine kleine Gruppe ist, die solche Hächstpreise bezahlt, aber ich denke im gesamten Top-End-Bereich ab 300€ dürfte man schon recht gut verdienen.

Ich selbst schiel ja derzeit nach einer 7600GS für AGP, 120€ empfinde ich schon fast als das Maximum was ich bereit bin für eine neue GraKa auszugeben...

@Leo: Vor allem die Tabelle finde ich sehr gut gemacht!!

littlejam
2006-06-07, 12:39:51
Müsste die X1900GT nicht 36 Pixelshader haben?

Gruß

Gast
2006-06-07, 12:46:57
littlejam[/POST]']Müsste die X1900GT nicht 36 Pixelshader haben?

Gruß
Ja, aber das wird beim Kopie&Einkleben leicht mal übersehen. Leo hat hier wohl von unten nach oben gearbeitet.

Gast
2006-06-07, 13:58:32
Für den den Preis von 550.- Euro bekommt man ne doppelte GTX, ja sogar ein eigen ständiges SLI die nicht mal ein SLI Bord braucht um zu laufen, voraus gesetzt das Mainbord ist nicht steinalt und vom Acker. Dazu kommt das sich die GX2 gut OC lassen sollen @ 600/800. Da wäre noch das die Karte endlich hoch auflösende Videos darstellen kann, was keine ATI oder NIVIDA Karte bisher konnte, eine Wahnsinns Leistung bei extremen Auflösungen hat. Zu einem Preis etwas mehr als ne 7900 GTX. Für Technik Fans die Spass an neuer Technik haben, ist die GX2 das Geld alle mal Wert.

MFG GeForce 7900 GTX 512 SLI Freak

Tobias123
2006-06-07, 14:42:12
Performance ist nicht alles..... Ohne HighQuality AF und HDR+AA ist die Karte nicht mehr zeitgemäß... zumindest bei dem Preis.

BlutenderFleischer
2006-06-07, 15:01:41
Tobias123[/POST]']Performance ist nicht alles..... Ohne HighQuality AF und HDR+AA ist die Karte nicht mehr zeitgemäß... zumindest bei dem Preis.

Tja, dann gibt es eben keine zeitgemässen Karten. Meiner Meinung nach sind Karten ohne Supersampling nicht mehr zeitgemäß. Aber das ist dann wohl Geschmackssache

dildo4u
2006-06-07, 16:19:54
Wo habt ihr eigentlich die 600/ 600 her eigentlich taktet die normale 7950 GX
2 mit 500/600 es gibt nur zwei Ausnahmen die XFX M520 und die XXX Edition mit 570mhz Chiptakt.


Normal
http://www.geizhals.at/deutschland/a203569.html

XFX M520
http://www.geizhals.at/deutschland/a203698.html

XFX M570 XXX
http://www.geizhals.at/deutschland/a203699.html

http://images.anandtech.com/reviews/video/nvidia/7950gx2/7950compared.png


http://www.anandtech.com/video/showdoc.aspx?i=2769&p=3

http://www.gamepyre.com/reviewsd.html?aid=731&p=3

Gast
2006-06-07, 16:28:41
@ 4u

Les mal den Test genau durch bei Computerbase, die haben die GX2 @ OC laufen lassen, sehr spannend.

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7950_gx2/25/

MFG

Blaire
2006-06-07, 18:44:11
Tobias123[/POST]']Performance ist nicht alles..... Ohne HighQuality AF und HDR+AA ist die Karte nicht mehr zeitgemäß... zumindest bei dem Preis.

Was nutzt dir gute Bildqualität wenn du sie nicht voll ausfahren kannst bzw. die Performance nicht ausreicht ? Und bitte jetzt nicht , von wegen man könne dies...Damals hatte die 6800 Ultra auch schon HDR nur war es viel zu langsam ist heute genau das gleiche nur eben mit der X1900 HDR+AA und viel zu wenig Spiele wo man Nutzen davon hätte.

Gast
2006-06-07, 19:32:53
Die Taktraten sollten mittlerweile bekannt sein, notfalls kann man bei Geizhals und in den diversen Shops jederzeit nachschauen:

http://www.geizhals.at/eu/?cat=gra16_512&sort=p&bpmax=&asuch=7950&filter=+Angebote+anzeigen+

Die normale 7950 GX2 hat demnach 500/600 MHz, es gibt nur zwei Ausnahmen. die XFX GX2 M520 hat 520/650 MHz und die GX2 M570 570/775 MHz.

Jetzt wäre es noch interessant zu erfahren, welche Speicherbausteine diese schnelleren Karten verwenden.
Die M570 wäre mit 1,4ns jedenfalls schon deutlich über den Spezifikationen... 1,2ns?

BlutenderFleischer
2006-06-07, 19:35:00
Blaire[/POST]']Damals hatte die 6800 Ultra auch schon HDR nur war es viel zu langsam ist heute genau das gleiche nur eben mit der X1900 HDR+AA und viel zu wenig Spiele wo man Nutzen davon hätte.

Ich denke schon, daß die X1900 genug Power für HDR+AA hat. Genau wie die Supersampling Sache ist das auch mal einen Artikel wert. Habe Leonidas auch mal eine PN mit dem Vorschlag geschrieben über die beiden Sachen einen Artikel zu schreiben.

Gast
2006-06-07, 19:38:51
Oh man welches Spiel profitiert von 2 GPUs auf einer Grafikkarte?
Ist wie bei Sli erst bei SLI optimierten Spiele war das der fall(FEAR)
Also stellen sich die Fragen für mich nicht nach so einer Grafikkarte
Geldmacherei und für DAUs gans toll

Gast
2006-06-07, 21:26:58
BlutenderFleischer[/POST]']Tja, dann gibt es eben keine zeitgemässen Karten. Meiner Meinung nach sind Karten ohne Supersampling nicht mehr zeitgemäß. Aber das ist dann wohl Geschmackssache

Ati bietet auch Supersamling AA modi an.

Gast
2006-06-07, 21:27:52
Blaire[/POST]']Was nutzt dir gute Bildqualität wenn du sie nicht voll ausfahren kannst bzw. die Performance nicht ausreicht ? Und bitte jetzt nicht , von wegen man könne dies...Damals hatte die 6800 Ultra auch schon HDR nur war es viel zu langsam ist heute genau das gleiche nur eben mit der X1900 HDR+AA und viel zu wenig Spiele wo man Nutzen davon hätte.

ICh kann mich noch an deine Far CRy HDR-AA Benches in 20458/34093 erinnern.;)DU wiedersprichst dir grade selber.^^

Blaire
2006-06-07, 21:41:48
Gast[/POST]']ICh kann mich noch an deine Far CRy HDR-AA Benches in 20458/34093 erinnern.;)DU wiedersprichst dir grade selber.^^

Wie alt ist das Spiel? ;) Nee aber es ist einfach so ,das bei neueren Games (z.b. Oblivion) oft die Power fehlt um solche Schmankerl mit vollen Details und kompromisslos nutzen zu können, da ist MultiGPU Pflicht. Daher ist HDR+AA noch! kein Muss da es nicht ausreichend schnell läuft. Ist meine Meinung .

Gast
2006-06-07, 22:11:44
Blaire[/POST]']Wie alt ist das Spiel? ;) Nee aber es ist einfach so ,das bei neueren Games (z.b. Oblivion) oft die Power fehlt um solche Schmankerl mit vollen Details und kompromisslos nutzen zu können, da ist MultiGPU Pflicht. Daher ist HDR+AA noch! kein Muss da es nicht ausreichend schnell läuft. Ist meine Meinung .

Spricht das spiel denn auch die Multi GPU an?

Blaire
2006-06-07, 22:26:32
Gast[/POST]']Spricht das spiel denn auch die Multi GPU an?

Ja rennt gut mit Ati Crossfire oder SLI :)

Gast
2006-06-08, 00:22:00
Gast[/POST]']Oh man welches Spiel profitiert von 2 GPUs auf einer Grafikkarte?
Ist wie bei Sli erst bei SLI optimierten Spiele war das der fall(FEAR)
Also stellen sich die Fragen für mich nicht nach so einer Grafikkarte
Geldmacherei und für DAUs gans tollDas ist Humbug. Ein Spiel braucht nicht "SLI-optimiert" zu sein. Es reicht, wenn ein Profil vorhanden ist. Bei SLI kann man diese Profile prima selbst erstellen. Jedes Spiel profitiert also von SLI, außer es ist rein CPU-limitiert, aber selbst dann gibt es Wege um von SLI profitieren zu können (16xS, SLI-AA).

Gast[/POST]']Ati bietet auch Supersamling AA modi an.Nö. Zumindest nicht unter Windows. Da bleibt nur die Frickellösung mit dem DXTweaker. Damit geht aber nur reines SSAA und das Interessante sind ja die Hybrid-Modi.

Gast
2006-06-08, 09:23:37
Gast[/POST]']Das ist Humbug. Ein Spiel braucht nicht "SLI-optimiert" zu sein. Es reicht, wenn ein Profil vorhanden ist. Bei SLI kann man diese Profile prima selbst erstellen. Jedes Spiel profitiert also von SLI, außer es ist rein CPU-limitiert, aber selbst dann gibt es Wege um von SLI profitieren zu können (16xS, SLI-AA).

Nö. Zumindest nicht unter Windows. Da bleibt nur die Frickellösung mit dem DXTweaker. Damit geht aber nur reines SSAA und das Interessante sind ja die Hybrid-Modi.

Doch wenn man Crossfire hat.:)

Gast
2006-06-08, 20:27:47
BlutenderFleischer[/POST]']Von mir hast du definitv keine Prügel bekommen :).
Auch waren die Karten damals nicht leistungsfähig genug um von diesem Pluspunkt gebrauch zu machen.Oha... Also ich habe schon damals mit der betagten nv20 nach 4x4 SSAA geschrien, denn bei älteren Spielen hatte schon sie mehr als genug Dampf dafür. Mittlerweile ist deren Leistung ja ein schlechter Scherz verglichen mit aktueller Hardware, dennoch gibt es nix fordernderes, um dieser aktuellen Hardware bei älteren Spielen ein paar Schweißperlen aufs Die zu zaubern. Durch die Beschränkung auf Rendertargets mit maximal 4kx4k, sei es nun durch den Treiber oder die Hardware, ist das ja halbwegs verständlich, die Voodoo5 hatte aber eine SSAA-Methode, die für diesen Stolperstein kaum anfällig war. Gewissermaßen ist diese Methode zurück, wenn auch nur für Multi-GPU-Systeme, wirklich fordernde Modi gibt es aber auch dafür nicht. Wo ist ein SLI-AA-Modus, der jede GPU mit 2x2 SSAA belastet um im Gesamtbild 8xSSAA (4x4 EER) für zwei GPUs, 16xSSAA (8x8 EER) für vier GPUs zu bieten? Das gleiche dann bitte auch für 4x4 SSAA, bei Quad-SLI wäre das bescheidenes 64xSSAA (bei einer ebenso bescheidenen EER von !!!16x16!!!, für "Findet Nemo" hat Pixar auch nicht mehr Samples pro Pixel genutzt). Das dann noch mit MSAA aufpumpen? Och nö, das wäre doch nur noch Speicherverschwendung...
Und überhaupt, warum werden SLI-AA/CF-SuperAA nur für Multi-GPU-Systeme freigeschaltet? Etwa weil die Herren bei NV/ATI ganz genau wissen, daß die Leistung oft auch ohne zwei bis vier GPUs völlig ausreichend wäre und man weniger SLI-/CF-Systeme verkaufen könnte?

Schnitzl
2006-06-08, 22:51:58
pco[/POST]']Thema 1: Die Dualchip-Story

Es wird immer gerne erzählt... Ja nVidia, die bauen das jetzt, das ist das erste mal. Pustekuchen. ATI war wohl der erste mit zwei GPUs auf einem PCB (im Home-Segment, im CAD-Segment ists ja durchaus nicht unüblich).
Stichwort: Rage Fury Maxx.
Ein technischer Meilenstein war die Verdopplung (theoretische) der Leistung durch einen zweiten Chip eh nie. Mehr ein fauler Kompromiss, wenn einem Hersteller einfach nix besseres mehr eingefallen ist.

pco
hi,

war nicht die Voodoo5 die erste Dual-Chip-Karte? Oder kam die danach :confused:

MfG

RavenTS
2006-06-09, 01:05:17
Schnitzl[/POST]']hi,

war nicht die Voodoo5 die erste Dual-Chip-Karte? Oder kam die danach :confused:

MfG

Kam danach, aber selbst die Rage Fury Maxx war nicht die erste Dual-Karte. Zumindest im Semi-Profi Bereich gab es beispielsweise schon zu Voodoo Graphics Zeiten Boards mit mehreren Voodoo-Chips, lief damals wohl schon unter SLI, weil der Voodoo2, der erstmals SLI bot, nur eine marginale Verbesserung des Graphics war...

Gast
2006-06-09, 12:35:24
Leonidas[/POST]']Ist doch wieder sehr lustig. Als ich seinerzeit stark auf das 8xS von nVidia als Pluspunkt hingewiesen habe, habe ich Prügel bekommen - heuer nun bekomme ich Prügel, weil ich es mal auslasse.

Zum Thema: Ja, 8xS ist geil. Aber es hat auch die Einschränkung, daß es ziemlich stark an der Performance zieht - weitaus stärker als jedes andere BQ-Setting. 8xS ist also nur dann nutzbar, wenn wirkliche Reserven vorhanden sind, was die Schlagkraft von 8xS als Argument wieder etwas reduziert.

Smile, ist halt wie mit kleinen Kindern*g*

Paßt aber scho! Ich finde der Artikel ist sehr informativ und verdeutlicht die Schlagkraft von NVIDIA!

Ich bin fest davon überzeugt das ATI immer mehr Marktanteile an NVIDIA verliert und es ist schon wahrlich ein GENIE-Streich auf die Idee zu kommen die xx50 im Produktnamen zu verwenden, war mal nicht was mit ATI und der X850 ;)

Grüsse
Pit

Gast
2006-06-09, 15:28:36
Gast[/POST]']Smile, ist halt wie mit kleinen Kindern*g*

Paßt aber scho! Ich finde der Artikel ist sehr informativ und verdeutlicht die Schlagkraft von NVIDIA!

Ich bin fest davon überzeugt das ATI immer mehr Marktanteile an NVIDIA verliert und es ist schon wahrlich ein GENIE-Streich auf die Idee zu kommen die xx50 im Produktnamen zu verwenden, war mal nicht was mit ATI und der X850 ;)

Grüsse
Pit
http://www.geizhals.at/deutschland/a184832.html

Gast
2006-06-09, 17:04:51
Schnitzl[/POST]']hi,

war nicht die Voodoo5 die erste Dual-Chip-Karte? Oder kam die danach :confused:

MfG
Die erste im Consumer-Bereich war die Voodoo2 - 2*Texel-FX. :)

Gast
2006-06-09, 17:12:18
Gast[/POST]']Smile, ist halt wie mit kleinen Kindern*g*

Paßt aber scho! Ich finde der Artikel ist sehr informativ und verdeutlicht die Schlagkraft von NVIDIA!

Ich bin fest davon überzeugt das ATI immer mehr Marktanteile an NVIDIA verliert und es ist schon wahrlich ein GENIE-Streich auf die Idee zu kommen die xx50 im Produktnamen zu verwenden, war mal nicht was mit ATI und der X850 ;)

Grüsse
Pit

Ünmöglich Ati bietet Future Technisch mehr.damals haben mehr 6800 Karten gekauft wegen PS 3.0.Hats was gebracht?;D

Gast
2006-06-09, 17:57:24
Gast[/POST]']Ünmöglich Ati bietet Future Technisch mehrDu meinst wohl Features, was? Aber auch dann hast du nicht Recht. ATI bietet teilweise mehr (MSAA auf FP16-Rendertargets), teilweise aber auch weniger als NV (keine Filterung von FP-Texturen, kein VTF).

Gast
2006-06-09, 19:50:23
Die Karte wird 80 C warm, gut wenn man keine Küche zuhause hat.

Gast
2006-06-09, 19:53:37
Es sollen endlich die neuen Karten kommen mit GDDR4 und noch schnelleren GPUS, und Shader 4 unterstützung.

Gast
2006-06-09, 22:02:58
Gast[/POST]']Die Karte wird 80 C warm, gut wenn man keine Küche zuhause hat.Welche jetzt? Die 7950GX2? Naja, selbst wenn es stimmt, das Material hält das schon aus. Eine x1900xtx wird sogar noch deutlich wärmer.

Leonidas
2006-06-10, 09:48:22
Update

Der Chiptakt der 7950GX2 wurde schreibfehlerhafterweise mit 600 MHz angegeben, korrekt sind natürlich alleinig 500 MHz.

Quasar
2006-06-10, 09:55:29
Leonidas[/POST]']Update

Der Chiptakt der 7950GX2 wurde schreibfehlerhafterweise mit 600 MHz angegeben, korrekt sind natürlich alleinig 500 MHz.

Ein paar Dinge gibt es zum Launch der nVidia GeForce 7950 GX2 noch nachzutragen: Erstens einmal handelt es sich um eine doch gegenüber der bisherigen GeForce 7900 GX2 abweichende Grafikkarte, da die Taktraten ersterer nun 600/600 MHz betragen, die Taktraten das zweitgenannten älteren Karte jedoch nur bei 500/600 MHz liegen. Hieraus dürfte sich auch erklären, weshalb die GeForce 7950 GX2 so gut gegenüber einem SLI-Gespann aus zwei GeForce 7900 GT Grafikkarten abschneidet: Man hat schlicht einen nicht unerheblichen Vorteil beim Chip-Takt gegenüber dieser nur mit 450/660 MHz antretenden Karte, der Nachteil beim Speichertakt ist durch die Verdopplung durch SLI in diesem Fall dagegen deutlich zweitrangig ...

Schreibfehlerhafterweise oder falschinformierterweise? Im Lichte dieses Newsbeitrages klingt es danach, als sei es kein simpler Vertipper gewesen.

Bitte ändere das dort dann doch auch, ja?

Gast
2006-06-10, 12:08:01
News, 9. Juni

Insofern erstaunt es um so mehr, daß es seitens XFX gleich eine noch einmal ziemlich gut übertaktete GeForce 5950 GX2 gibt

Wieder mal ein Schreibfehler, solch eine Karte ist uns allen wohl unbekannt. ;)

Leonidas
2006-06-11, 22:14:28
Zu schnell geschrieben ... nunja, wird auch noch gefixt.

Gast
2006-06-12, 10:08:02
An alle NV-Freaks...
Erstmal können ATI-KArten genauso gut HD-kramms abspielen.
Hab nämlich mal von NV eine HD-Test-DVD mitgenommen und eingelegt. Auf meinem Notebook mit ner radeon 9700 alle videos vollkommen flüssig und Hoch aufgelöst.

Gast
2006-06-12, 11:49:37
Muß es in der Gegenüberstellung bei der X1900 GT nicht 36 anstatt 12 Pixelshader heißen?

Gast
2006-06-12, 17:26:10
stimmt die karte hat 36 pixelshader und 12 pixelpipelines, oda?

Gast
2006-06-12, 17:31:46
Gast[/POST]']stimmt die karte hat 36 pixelshader und 12 pixelpipelines, oda?Jep. Oder anders gesagt: 12 ROPs, 12 TMUs und 48 ALUs, die jeweils ein MADD und ein ADD raushauen können.

Gast
2006-06-12, 21:19:48
36 ALUs.

Gast
2006-06-12, 21:32:26
Gast[/POST]']36 ALUs.Ja, sorry, da habe ich doch glatt die Kastration unterschlagen. ;)

Leonidas
2006-06-13, 07:14:16
Update

Zudem wurde die Anzahl der Pixelshader-Einheiten bei der X1900GT falsch mit 12 angegeben, richtig sind natürlich 36.

Leonidas
2006-06-13, 07:15:16
Quasar[/POST]']Schreibfehlerhafterweise oder falschinformierterweise? Im Lichte dieses Newsbeitrages klingt es danach, als sei es kein simpler Vertipper gewesen.

Bitte ändere das dort dann doch auch, ja?



Ja, es war dann wohl doch kein Schreib, sondern ein Gedankenfehler. Ich hab den Text mir dann nochmal durchgelesen und hab das dann sofort als Fehler erkannt und gefixt.

Leonidas
2006-06-13, 07:15:34
Gast[/POST]']Muß es in der Gegenüberstellung bei der X1900 GT nicht 36 anstatt 12 Pixelshader heißen?


Gefixt.

paul.muad.dib
2006-06-30, 15:35:47
Angesichts des Preises frage ich mich allerdings, warum NV die andern G71 Karten nicht billiger anbietet, wenn der Chip scheinbar so günstig produziert werden kann. Mögliche Erklärungen dafür wären, dass es entweder nur um Prestige geht, oder groß abgeschöpft wird.