PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : war die 7950gt ein fehlkauf?


Gast
2007-01-12, 22:18:34
hi ich hab vor einer weile eine 7950gt zugelegt hab mich für die entschieden weil sie stromsparender leiser und mehr ram hat als die 1900xt hat. Aber als ich nun die benchmark ergebnisse auf dieser seite von nfs varbon gesehen habe bin ich am zweifeln. Hilft mir der mehr ram in der zukunft oder werden noch optimierte treiber kommen?

Nvidia5
2007-01-13, 00:03:29
Der mehr Ram lohnt sich bei AA usw aufjedenfall. Ich hätte aber auch eher die x1950xt genommen weil die beide gleich schnell sind. Den Ram verbrauch kann man aber nicht wirklich vorraussagen. Daweil hat sich mehr als 256mb gebracht, ab 512 is fraglich. Für die Zukunft ist die 7950gt nach meiner Meinung besser als die x1950xt.

Dktr_Faust
2007-01-13, 07:56:13
Ich würde das ohnehin eher entspannt sehen: Du hast eine sehr schnelle Karte gekauft und mit dieser wirst Du praktisch jedes heutige Spiel in sehr guter Qualität spielen können --> ignorier die Benchmarkergebnisse...alles was weniger als 15-20% Leistungsunterschied ist, bemerkst Du im normalen Betrieb ohnehin nicht.

Grüße

Rehnquist
2007-01-13, 08:46:50
@Gast
Als Erstes: Du hast eine gute Karte. So. Nun: In welchen Auflösungen willst Du denn spielen? Wie sieht der Rest des Systems aus ( Monitor z.B.), und wie lange gedenkst Du die Karte zu behalten?
Ansonsten schließe ich mich Dktr_Faust an. Ab einem bestimmten Punkt ist es völlig Latte. ;)

Gast
2007-01-13, 08:55:34
War auf jeden Fall kein Fehlverkauf. Versuch mal zu übertakten, da lässt sich noch einiges an Leistung rausholen, wenn du ein gutes Modell erwischt hast!

512 MB sind auf jeden Fall sinnvoll, bei Oblivion kannste z.B. hochauflösendere Textmods nutzen oder auf High Quality statt nur High stellen...

Die X1900 ist nicht gerade sparsam, so gesehen, ist deine Karte erste Sahne.

StefanV
2007-01-13, 09:05:55
Obs ein Fehlkauf ist?!
Wenn man das Preis/Leistungsverhältnis betrachtet, auf jeden Fall...

Dazu kommt, das die nV4x Teile bei neueren SPielen auch nicht besser werden, der Abstand zu den Radeons steigt eher noch an...
Die 512MiB helfen zwar durchaus nur was nutzt dir der Speicher, wenn die GPU nicht genug Daten liefern kann??

The_Invisible
2007-01-13, 10:10:53
was hat nv4x mit g7x zu tun?

das die g7x chips zukünftig noch gut tun zeigt die unreal3 engine (rainbow six vegas) http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=279&page=1

mfg

Haarmann
2007-01-13, 10:18:04
The_Invisible

Dort sieht man, dass die x1950pro in der Liga der 7950GT wildert... etwas schwächer, aber in der Währung. Die x1900XT wilderte in der 7900GTX Gegend - wir haben als Vergleich ja nur die x1900XTX.
Das heisst dann doch irgendwie - Fehlkauf - für dieses Spiel zumindest.

The_Invisible
2007-01-13, 10:25:37
ja, hast recht, die 1-2fps unterschied machens natürlich aus :rolleyes:

mfg

Gast
2007-01-13, 10:42:03
Obs ein Fehlkauf ist?!
Wenn man das Preis/Leistungsverhältnis betrachtet, auf jeden Fall...

Welch ein Unsinn. Die Karte kostet 230 €, die X1900 256 jedoch auch schon 208 €.

Die 7950 GT ist eine wunderbare Karte. Zum einen braucht sie deutlich weniger Strom (geht ebenfalls ins Preis-Leistungsverhältniss mit ein, dann steht die 7950 nämlich noch besser da) und zum anderen ist NFS Carbon totaler Müll wenn es ums Benchen geht.

Das Spiel hat keine Allgemeingültigkeit. Denn wenn man z.B. CoD2 nimmt, so hat man genau das gleiche Ergebniss, nur das die 512 MB nVidia dann >50% schneller ist, allein wegen ihres größeren VRAMs.

Ein guter Benchmark zeichnet sich jedoch dadurch aus, das er einen guten Durchschnitt über die gesamte Linie darstellt und darunter fallen weder NFS Carbon noch CoD2 ...

Denn der Unterschied dieser beiden Karten beträgt ganz sicher nicht im Durchschnitt 100 %, wie NFS Carbon es uns weiß machen will ... das ist Unsinn.

Hier liegt z.B. die 7950 GT sogar mal vor einer 512 MB X1900 XT:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_xfx_geforce_7950_gt_570m_extreme/14/#abschnitt_quake_4

Die Regel sind solch schlechte Ergebnisse also garantiert nicht!

StefanV
2007-01-13, 10:53:08
was hat nv4x mit g7x zu tun?

das die g7x chips zukünftig noch gut tun zeigt die unreal3 engine (rainbow six vegas) http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=279&page=1

mfg
G70 = nV47 (oder wars nV48), weißt du doch, eigentlich...
Das G7x ein nur leicht verändeter nV4x ist, weiß man eigentlich...

@Gast
Danke, das du meine Aussage nochmal untermauerst :devil:
Du sagst ja selbst, das die schnellere Karte günstiger ist...

Außerdem _MUSS_ die Radeon schneller sein als die nV 7er, wenns Spielchen ein paar mehr Shader einsetzt, Architekturbedingt...

Gast
2007-01-13, 10:55:53
Du sagst ja selbst, das die schnellere Karte günstiger ist...

Dann solltest du mal lesen+verstehen, genau das sage ich nicht.
Wenn du bei der X1900 XT nochmal 5€ jährliche Stromkosten draufrechnest, so wäre sie nur noch 17 € billiger.

Und 17 € ist kein Preis dafür, das sie in Anwendungen, bei denen 512 MB was bringen um >50 % langsamer ist. Das tritt nämlich öfters ein, als das Beispiel mit Carbon, wo sämtliche nVidia Karten deutlich zurückliegen. Die Regel ist das nämlich nicht.

Haarmann
2007-01-13, 11:03:12
250€ für ne 7950GT und 150€ für ne 1950pro müsst ich löhnen...
Wenn beide sich im 10% gleichen Leistungsbereich sind, dann sind 100€ mehr oder 66% mehr schlicht ein Witz.

Gast

Wieder mal OpenGL bemühen? Die Grafikschnittstelle für Spiele, die keiner spielt?

n4p0
2007-01-13, 11:10:43
Hm,

Also ich würde mir die 7950GT atm auch nicht kaufen, Da man zum gleichen Preis eine X1900XT mit 512MB kaufen kann..
Und diese Karte ist aufjedenfall schneller wie die 7950GT.. außerdem würde mich die schlechte Bildquali stören der 7000er reihe...
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xt_256_mb/20/#abschnitt_performancerating
Aber na klar, schenken sich die beiden Karten auch nicht all zuviel... Also ein totaler Fehlkauf war es auch nicht..

RainingBlood
2007-01-13, 11:28:50
fragt sich warum die ATI in Carbon durchweg 50% schneller ist? Genauso wie in Anno.

StefanV
2007-01-13, 16:40:57
fragt sich warum die ATI in Carbon durchweg 50% schneller ist? Genauso wie in Anno.
Weil Textur Operationen die Alus blockieren, bei nV4x Karten (und Ablegern).
Bei AMD Karten ist das seit R300 nicht der Fall, da können TMUs und Alus unabhängig voneinander arbeiten.
Außerdem ist deine Aussage schlichtweg falsch denn die G80 rammt die AMD Karten in Grund und Boden...

Richtig müsste es heißen:
"Fragt sich, warum nV4x/G7x Karten..."

Und wenn man hier zu faul ist, die nV Guidelines zu lesen, dann kanns mal sein, das die AMD KArten deutlichst schneller sind...

Gast
2007-01-13, 17:54:23
Warum keine 7900 GTO? Die dürfte doch ein wesentlich besseres P/L Verhältnis haben, oder nicht?

RainingBlood
2007-01-13, 17:54:40
Richtig müsste es heißen:
"Fragt sich, warum nV4x/G7x Karten..."



wer den Thread gelesen hat, der weiß worum es geht ;)

Zum Topic. Wenn die 3dcenter Benches stimmen, dann hast du in einer Reihe von Spielen deutliche Performancenachteile. Umgekehrt findet man kaum Software, die nennenswert schneller auf der nv laufen würde. Wenn du diese Spiele zockst, dann kann man schon von einem Fehlkauf reden. Zumal auf den meisten GTs ebenfalls ein Krachmacher-Lüfter verbaut wurde.

Gast
2007-01-13, 17:57:07
Warum keine 7900 GTO? Die dürfte doch ein wesentlich besseres P/L Verhältnis haben, oder nicht?Kommt drauf an. Als die 7900GTO noch breit verfügbar war, sicherlich. Mittlerweile kriegt man die aber nicht mehr zu einem vernünftigen Preis.

StefanV
2007-01-13, 17:57:23
Warum keine 7900 GTO? Die dürfte doch ein wesentlich besseres P/L Verhältnis haben, oder nicht?
Nicht.
Wei erstens gehts per MOndpreisen raus zum anderen kann mans kaufen?

Gast
2007-01-13, 18:35:54
Nicht.
Wei erstens gehts per MOndpreisen raus zum anderen kann mans kaufen?
Also ich habe mir kürzlich eine für 225 € gekauft...

RainingBlood
2007-01-13, 18:39:35
gebraucht oder was? Neu kosten die 299€ lt. Geizhals

Gast
2007-01-13, 18:55:57
gebraucht oder was? Neu kosten die 299€ lt. Geizhals
Ne, neu.

Matrix316
2007-01-13, 19:24:18
Kommt drauf an. Als die 7900GTO noch breit verfügbar war, sicherlich. Mittlerweile kriegt man die aber nicht mehr zu einem vernünftigen Preis.
Wobei selbst die nicht unbedingt soooo mehr ein gutes P/L verhältnis hat, wenn man bedenkt dass die X1950XT oder X1900XT im 7900GTX Bereich wildern.

=Floi=
2007-01-13, 19:24:43
dafür kann man die 7950GT besser übertakten
die karte ist sonst auch einwandfrei

fehlkäufe sehen definitiv anders aus
und bei der ATI ist auch nicht alles gold was glänzt!
lange zeit war die ati auch teurer und wenn ich dann die krummen pcbs sehe wird mir nur noch übel...

StefanV
2007-01-13, 19:33:54
dafür kann man die 7950GT besser übertakten
die karte ist sonst auch einwandfrei
Das kannst aber bei GraKas IDR völlig vergessen, das bringt einfach nichts!!
GraKas sind keine CPUs und laufen wesentlich näher am Limit, daher sind solche Aussagen wie 'XYZ lässt sich besser übertakten' voll für die Tonne, eben weils in der Praxis nix bringt...

Ist ja nicht so, das man aktuelle GraKas 50% übertakten kann, wie es bei CPUs der Fall sein kann...
Gleiches gilt auch beim RAM, auch wenn da 1,1ns druaf stehen, heißt das nicht das der RAM auch mit 900MHz läuft!

paul.muad.dib
2007-01-13, 20:11:52
Ein Fehlkauf ist sie nicht. Auch wenn du bei ATI aktuell mehr für's Geld bekommst, ist die 7950 GT keine schnlechte Karte.

Ein echter Fehlkauf wäre eine Geforce FX gewesen...

Popeljoe
2007-01-14, 17:51:03
Ein Fehlkauf ist sie nicht. Auch wenn du bei ATI aktuell mehr für's Geld bekommst, ist die 7950 GT keine schnlechte Karte.

Ein echter Fehlkauf wäre eine Geforce FX gewesen...
!!!!So isses!!!!! :up:
Wirklich gravierend sind die Unterschiede nicht!
Alle FX Käufer haben sich damals ja echt in den Arsch gebissen, weil die Karte schlicht nur mies und laut war!
All das ist GTO doch nicht!? ;)
P1

DrPeacemaker
2007-01-15, 16:51:31
Hatte die Powercolor 1950pro 512MB Extreme drin. Schnell war die ja, aber die Qualität auf dem Bildschirm war leider schlecht.
Im Desktopbetrieb war alles matschig/unscharf und im 3D Betrieb hatte ich Texturfehler. Das bei neuesten Treibern in default Einstellungen. Deswegen habe ich mir die "langsame" 7950GT 512MB geholt. Jetzt ist alles wieder scharf und bekomme keine Kopfschmerzen mehr. Texturflimmern hab ich auch keins (BF2).

Ich hätte die ATI gerne behalten, denn ich bin kein Freund von Umtauschaktionen. Vor Weihnachten war die Karte ein P/L Hit.

reunion
2007-01-15, 17:04:47
Für die Zukunft ist die 7950gt nach meiner Meinung besser als die x1950xt.

Das glaube ich nicht Tim. Die X1950XT hat wesentlich rechenstärkere ALUs, der Abstand wird in Zukunft sicherlich nicht kleiner.

paul.muad.dib
2007-01-15, 22:56:37
Hatte die Powercolor 1950pro 512MB Extreme drin. Schnell war die ja, aber die Qualität auf dem Bildschirm war leider schlecht.
Im Desktopbetrieb war alles matschig/unscharf und im 3D Betrieb hatte ich Texturfehler. Das bei neuesten Treibern in default Einstellungen. Deswegen habe ich mir die "langsame" 7950GT 512MB geholt. Jetzt ist alles wieder scharf und bekomme keine Kopfschmerzen mehr. Texturflimmern hab ich auch keins (BF2).

Ich hätte die ATI gerne behalten, denn ich bin kein Freund von Umtauschaktionen. Vor Weihnachten war die Karte ein P/L Hit.

Hast du vielleicht nicht die native Auflösung deines TFTs eingestellt? Und Texturfehler? Da tippe ich eher auf eine defekte Karte.

aths
2007-01-16, 15:33:32
Obs ein Fehlkauf ist?!
Wenn man das Preis/Leistungsverhältnis betrachtet, auf jeden Fall...Stefan, du nervst nur noch. Kannst du bitte woanders trollen?


Das glaube ich nicht Tim. Die X1950XT hat wesentlich rechenstärkere ALUs, der Abstand wird in Zukunft sicherlich nicht kleiner.Das muss man differenzierter betrachten. Eigentlich sind die ALUs vom G70 rechenstärker. Sowohl rein von den FLOPs her, als auch mit der Beschleunigung von NRM_PP und natürlich der Möglichkeit zum 2:2-Co-Issue. Allerdings können die ALUs vom R580 meistens besser ausgelastet werden.

hi ich hab vor einer weile eine 7950gt zugelegt hab mich für die entschieden weil sie stromsparender leiser und mehr ram hat als die 1900xt hat. Aber als ich nun die benchmark ergebnisse auf dieser seite von nfs varbon gesehen habe bin ich am zweifeln. Hilft mir der mehr ram in der zukunft oder werden noch optimierte treiber kommen?Ob an den Treibern noch was gemacht wird, wird man sehen.

Man sollte eine Karte nicht nach der Performance in einem Spiel beurteilen. Jede Karte hat ihre Stärken und Schwächen. Es gibt Spiele, die laufen auf Radeons besonders gut, und es gibt Spiele, die laufen auf GeForces besonders gut. Im Großen und Ganzen spielen 7900 und X1900 in der gleichen Liga.

Gast
2007-01-16, 15:42:49
Wie kommst du darauf? Die Fakten, welche Eure und andere Benches zeigen, sehen anders aus. Nimmt man noch den Faktor Bildqualität hinzu, wirds ganz übel. Komisches Relativieren, was hier an den Tag gelegt wird.

DrPeacemaker
2007-01-16, 15:44:10
Hast du vielleicht nicht die native Auflösung deines TFTs eingestellt? Und Texturfehler? Da tippe ich eher auf eine defekte Karte.
Isch abe gar kein Au.. äh TFT. Sitze leider vor einer 17" Röhre.
Ich habe hier und in ein paar anderen Foren über Probleme mit 1950pro Karten gelesen, deswegen hatte ich mich gleich auf eine Nvidia eingelassen.

Haarmann
2007-01-16, 16:18:07
paul.muad.dib

Welch gigantischer Fehlkauf die GF5 Serie war, merkte man auch erst später. Wirklich bemerkbar machen sich Fehlkäufe imho dann, wenn man die Karte austauschen muss (Betonung auf muss und nicht will), weil sie nicht mehr taugt. Je Früher dies der Fall ist, desto grösser der Fehlkauf. Nach so kurzer Zeit ist dies natürlich noch nicht sicher abzusehen, aber die Zeichen lassen sich erkennen, dass die 7950GT schon vor den ATI in die Pension geschickt werden - wie einst die GF5 Serie.

DrPeacemaker

Du nutzt auch Analogübertragung zum Monitor und kaufst dann ne Billigkarte (PowerColor)... Mein Mitleid hält sich in Grenzen...

Andererseits muss ich mich fragen, weiso irgendwer für ne lächerliche 17 Zoll Röhre, die eh nur XGA hinkriegt, so ne teure Karte kauft.

aths

Du hast auch die FX Serie von NVidia noch lange im Punkt Shaderleistung verteidigt... Ich mag nun nicht Zeckensacks Beitrag suchen, wo er Dir darüber mal kurz den Kopf gewaschen hat.

StefanV
2007-01-16, 19:42:21
@aths
Was hast du gegen die Ansichten eines etwas BWL geschädigten einzuwenden?!

Wenn ich mir den Preis und die Benches vom Madkiller anschaue, so sehe ich, das das das AMD Pendant für deutlich weniger Geld zu haben ist, ebenso sehe ich, das die Performance in Shaderlastigen Anwendungen (wie es z.B. Oblivion ist), deutlich besser sein kann und es auch ist, daneben sehe ich, das das nV Pendant im schlechtesten Fall (fürs AMD Produkt) sich nur leicht absetzen kann.

Deine Theoretische Leistung kannst auf 'nen Blatt Papier schreiben und in die Tasche stecken, da eh nicht relevant, wichtig ist, wie es sich in der Praxis verhält und da ists nunmal so, das die AMD Karten deutlich leistungsfähiger sind, wenn man eine hohe Rechenlast erzeugt und nebenbei auch noch ein paar texturen ver-/bearbeiten möchte, da ja die TMU Ops die Rechenwerke der nV4x Serie (zu der auch die G7x gehören!) lahmlegt...

Was du mit deinem Posting bezweckst ist mir auch nicht ganz klar, denn es scheint eben NICHT so zu sein, das 7900 und x1900 in der gleichen Liga spielen sondern eher das sich die AMD Produkte solangsam von den entsprechenden nV Produkten absetzen können, teilweise deutlich, teilweise nicht so deutlich, ein Vorsprung zugunsten der Radeons ist aber vorhanden und er scheint eher größer denn kleiner zu werden, das Verhalten der Geforxe FX Serie scheint sich hier genaus zu widerholen, nur eben später und nicht ganz so stark...

MFG
Stefan, der wo gerade 'ne 7300GS im Rechner haben tut, ohne bewegte Teile :ugly:

aths
2007-01-16, 22:34:06
aths

Du hast auch die FX Serie von NVidia noch lange im Punkt Shaderleistung verteidigt... Ich mag nun nicht Zeckensacks Beitrag suchen, wo er Dir darüber mal kurz den Kopf gewaschen hat.DX9-Shaderleistung war zur Zeit der FX weitgehend unbedeutend. Nur in einigen Titeln (allerdings bekannten Top-Titeln) spielte sie eine Rolle. Während ich mich immerhin um ein Verständnis der Shader-Architektur bemüht hatte, jedoch einige auch per Treiber nicht überwindbare Flaschenhälse noch nicht kannte, kamen die ganzen abwertenden Äußerungen aus der ATI-Fanboyecke ohne jedes Architekturverständis oder ein Bemühen darum.

Warum wird hier im Thread zum Beispiel so auf der Shaderleistung herumgeritten? Das GF-Modell hat doppelt so viel lokalen RAM. Es könnte sein, dass sich das auf Dauer mehr auszahlt als die höhere praxisnutzbare ALU-Leistung der Radeon. Man kann sich nicht irgendwelche Sachen herauspicken und dann jemand anderen, der andere Sachen herauspickt, dafür kritisieren. Soll der Threadersteller ein möglichst vollständiges Bild bekommen oder von der persönlichen Performance-Projektion einzelner User überzeugt werden?

@aths
Was hast du gegen die Ansichten eines etwas BWL geschädigten einzuwenden?!Ich habe eingesehen, dass man mit dir nicht diskutieren kann.

Haarmann
2007-01-17, 00:54:37
aths

Es ist sehr schwer aus den Angaben, die man jeweils kriegt und eigenen Schätzungen, was denn kommen wird, sich ein zutreffendes Bild der Zukunft auszumalen.
Spätestens mit Erscheinen der 5700 hätte man den Braten riechen müssen, dass NV sich grausam verschätzt hat mit dem Bedarf an Shaderleistung. Auch die Chipentwickler müssen ja jeweils schätzen,was gefragt sein wird, beim Erscheinen ihres Produktes - keineswegs eine einfache Aufgabe. Die Resourcen sind ja begrenzt.

Das Problem mit dem Punkt Fehlkauf ist in diesem Fall, dass ich eine ATI zum Preis der GT auch mit 512MB bekommen kann, aber die Wahl hab, eine günstigere 256MB Karte zu nehmen.

Mit Deinem letzten Punkt sprichst Du einen zentralen Aspekt an - was will der User mit der Karte? Wenn sie möglichst lange taugen soll, dann werden die Probleme mit neusten Engineseher ein Indiz drauf sein, dass die Karte vorher ausgemustert werden muss, denn Probleme mit älteren Engines.

Gast
2007-01-17, 11:42:52
Ist die Bemerkung zu Ram und Shaderleistung gespielte Naivität? In euren eigenen Reports ist klar, wann man Ram braucht, wann Shader. Wieso also spekulieren? Deswegen ist wohl auch abzusehen, dass zukünftig die Shaderleistung bis zu gewissen Auflösungen entscheidender ist und limitierend.

Weiterhin wurde ebenso schon bemerkt, dass für das selbe Geld auch mehr Ram gekauft werden kann. Was bezweckt man mit solchen Aussagen?

Haarmann
2007-01-17, 12:13:51
aths

Ich füge mal kurz hinzu...
Für eine Mainstreamkarte der FX Serie war das Kaufkriterium eigentlich nur Shaderfähigkeiten, denn eine Top-Karte der Vorgeneration bot abgesehen von diesen Shaderfähigkeiten schlicht mehr Leistung fürs gleiche Geld.

Odal
2007-01-17, 12:56:37
der wichtigste einwand wurde ja schon gegeben...bei der GeForceFX bemerkte man deren Schwäche auch nicht sofort. Tendenziell weisen so einige neuere Spiele schon auf eine schlechtere Performanz des G70/71 gegenüber dem R580 auf. Das bekannte Problem der äusserst schlechten dynamic branching performance im Pixelshader bei der 7950GT tut sein übriges. 512MB Ram mögen zwar nicht schaden aber zum aktuellen Zeitpunkt ist die erzielte Mehrperformance äusserst gering (<5% im Schnitt) die Mehrperformance einer X1900XT gegenüber einer 7950GT ist aber auch schon zum jetzigen Zeitpunkt deutlich messbar.
Jedemand der eins und eins zusammenzählen kann weiß ob es so clever war sich die 7950GT zuzulegen. Wenn man noch von Bildverbessenden Features und der allgemeinen BQ anfängt sieht die 7950GT kein Land mehr.

Gast
2007-01-17, 13:47:58
Das bekannte Problem der äusserst schlechten dynamic branching performance im Pixelshader bei der 7950GT tut sein übriges.In welchen Spielen wird denn Gebrauch von dynamischem Branching gemacht?Und Texturfehler? Da tippe ich eher auf eine defekte Karte.Das muss nicht so sein. Bei Verwendung von AAA auf R580-Karten kommt es oft genug zu flackernden oder komplett schwarzen Texturen. Das ist zwar im Vergleich mit früheren Treibern deutlich besser geworden, kommt aber leider immer noch vor.

Mr. Lolman
2007-01-17, 13:53:16
http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=279&page=1


http://www.anandtech.com/video/showdoc.aspx?i=2895&p=5

In welchen Spielen wird denn Gebrauch von dynamischem Branching gemacht?Das muss nicht so sein. Bei Verwendung von AAA auf R580-Karten kommt es oft genug zu flackernden oder komplett schwarzen Texturen. Das ist zwar im Vergleich mit früheren Treibern deutlich besser geworden, kommt aber leider immer noch vor.

BQ- interessierte werden wohl eh nur mehr EATM nehmen. Verbessert auch die Optik und kostet quasi keine Performance.

Gast
2007-01-17, 14:00:54
BQ- interessierte werden wohl eh nur mehr EATM nehmen. Verbessert auch die Optik und kostet quasi keine Performance.Ist EATM sowas wie das Transparenz-Multisampling bei NV?

Mr. Lolman
2007-01-17, 14:03:52
Ist EATM sowas wie das Transparenz-Multisampling bei NV?

Quasi. Man hat aber einen haufen Regkeys wo man sich das nach persönlicher Gunst einstellen kann. D.h. dass dann wie beim TMAA üblich nicht nur in der Entfernung oder in der Nahdarstellung sichtbar geglättet wird, sondern generell. Mit 6xMSAA bekommt man das Dithering auch gut in Griff.

Odal
2007-01-17, 14:58:54
In welchen Spielen wird denn Gebrauch von dynamischem Branching gemacht?

Ja eben. Das wird noch nicht wirklich verwendet und trotzdem hat die 7950GT in neueren Spielen schon deutlich das Nachsehen. Die miese dynamic branching performance im pixelshader ist ja hinlänglich bekannt, da ist es gar nicht auszudenken wie stark sich der rückstand vergrössert wenn dynamic branching wirklich in spielen massiv verwendung findet.

Im Gegensatz dazu hatte die FX Reihe erst ihre massiven Schwächen offenbart als die ersten wirklichen DX9 Spiele herauskamen. Bei der 7950GT sind diese Schwächen zum Glück schon vorher bekannt so das man weniger Gefahr laufen müsste wieder in die Sch**ß* zu fassen.

Fazit: Derzeit ist die X1900XT günstiger und schneller + bessere BQ wie die 7950GT + mehr (nutzbare) Features und die Galskugel scheint zu prognostizieren das sich der Geschwindigkeitsvorteil noch zu gunsten der X1900XT vergrössern wird.

Gast
2007-01-17, 15:05:52
Die miese dynamic branching performance im pixelshader ist ja hinlänglich bekanntDafür ist es im Vertexteil deutlich performanter als bei ATI. Jede Architektur hat ihre Schwächen.

Gast
2007-01-17, 15:09:25
Dafür ist es im Vertexteil deutlich performanter als bei ATI. Jede Architektur hat ihre Schwächen.

Welches Game setzt auf sehr hohe Vertex-Leistung ... 3DMark? ;)

Mr. Lolman
2007-01-17, 15:11:58
Dafür ist es im Vertexteil deutlich performanter als bei ATI.

AFAIK nicht: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=342842

StefanV
2007-01-17, 15:28:10
Dafür ist es im Vertexteil deutlich performanter als bei ATI. Jede Architektur hat ihre Schwächen.
Schön, nur erschlägt man auch bei 'alten Karten' das Problem mit brutaler gewalt, nicht umsonst haben einige Karten 8VS Einheiten, wobei die meisten davon Däumchen drehen dürften...

Anm: mich würd echt mal die Auslastung der Vertexshader interessieren, vermutlich ist die garnicht hoch...

Odal
2007-01-17, 15:55:38
Dafür ist es im Vertexteil deutlich performanter als bei ATI. Jede Architektur hat ihre Schwächen.


nur das es einer X1900XT kaum an vertexshaderleistung mangelt. Ok nun könnte man damit kommen das es ihr auch nicht an Pixelshaderleistung mangelt dank der sehr flexiblen 48 pixelshadereinheiten @ 625Mhz vs. der 7950GTs 24 pixelshadereinheiten @ nur 550Mhz

auch wenn man das nicht so einfach vergleichen kann zeigen sich auf dem papier auch resultate welche ein wenig in die angesprochene richtung weisen

btw:

8 Vertexshader@625Mhz der X1900XT vs 8 Vertexshader @ nur 550Mhz der 7950GT

achso hatte ich schon erwähnt das es scheinbar bei keinen spielen so sehr auf vertexleistung ankommt? ach ja hatte ich...

ansonsten wären beispiele nett wo man erkennen kann wie die 7950GT ihre "brachiale" vertexleistung ausspielt

threadstarter
2007-01-17, 16:18:08
wow also es haben wirklich viele zu diesem Thema gepostet. Ich hab eingesehen das es anders wahrscheinlich mehr leistung gäbe. Aber da ich auf den preis achten muss und es mich wirklich gefreut, dass ich mein 300w netzteil behalten konnte ich wollte nicht noch 50€ für ein neues Nt ausgeben, so glaube mich hab ich aus meiner sicht doch keinen fehlkauf getätigt.Außerdem bin ich in den spielen die ich spiele sehr zufrieden mit der Karte. (BF2142, r4 vegas, Oblivion usw.) Aber ich denke da es ein sehr häufiges gebrauchtes Preissegment ist wird der Thread schon vielen helfen.

StefanV
2007-01-17, 16:21:48
Ein ordentliches 300W NT hält mehr aus als du denkst ;)
Ein leicht übertakteter K8 mit x1800XT ist da durchaus möglich...


Natürlich nur sofern du keinen P4D hast...

Gast
2007-01-17, 16:26:07
Ein ordentliches 300W NT hält mehr aus als du denkst ;)
Ein leicht übertakteter K8 mit x1800XT ist da durchaus möglich...


Natürlich nur sofern du keinen P4D hast...
schuldig hab für ne weile noch nen PD

aths
2007-01-17, 17:22:29
aths

Ich füge mal kurz hinzu...
Für eine Mainstreamkarte der FX Serie war das Kaufkriterium eigentlich nur Shaderfähigkeiten, denn eine Top-Karte der Vorgeneration bot abgesehen von diesen Shaderfähigkeiten schlicht mehr Leistung fürs gleiche Geld.Ich weiß nicht, warum hier dauern von der GeForce FX geredet wird. Es geht um eine 7950 GT. Die GeForce 7 ist u. a. dafür bekannt, für ihre 3D-Leistung relativ wenig Strom zu verbrauchen. Für manche zählt das mehr als die Performance in Oblivion.

Wer von der BQ redet und damit AF meint, hat seit ATIs Area-AF eine erstaunliche Wendung genommen. Immer so hindiskutieren, wie es passt, oder wie?

Dafür ist es im Vertexteil deutlich performanter als bei ATI. Jede Architektur hat ihre Schwächen.Eben. Dass hier nur einzelne Aspekte herausgepickt werden, um anschließend einen Sieger zu küren der schon vorher feststand, hilft nicht weiter.


Ja eben. Das wird noch nicht wirklich verwendet und trotzdem hat die 7950GT in neueren Spielen schon deutlich das Nachsehen. Die miese dynamic branching performance im pixelshader ist ja hinlänglich bekannt, da ist es gar nicht auszudenken wie stark sich der rückstand vergrössert wenn dynamic branching wirklich in spielen massiv verwendung findet."Massives" dynamic branching im Pixelshader werden wir erst dann sehen, wenn sich D3D10-Karten durchgesetzt haben.

Wie relevant ist die DB-Performance im PS heute? Ansonsten könnte man der X1000-Serie z. B. auch die Vertexttexturing-Performance vorhalten – von gleich Null. Oder die Performance bei der Filterung von Floating-Point-Texturen: Ebenfalls gleich Null. VT und FP-Filterung werden u. a. deshalb noch nicht breit genutzt, weil es von ATI nicht angeboten wird. Ebenso halten sich die Entwickler zurück, massiv auf DB im PS zu setzen – weil es bei NV (mit Ausnahme auf der GeForce 8) nicht die große Zusatzperformance bringt oder sogar die Leistung drücken kann.


nur das es einer X1900XT kaum an vertexshaderleistung mangelt. Ok nun könnte man damit kommen das es ihr auch nicht an Pixelshaderleistung mangelt dank der sehr flexiblen 48 pixelshadereinheiten @ 625Mhz vs. der 7950GTs 24 pixelshadereinheiten @ nur 550MhzUnd als nächstes fangen wir an, einfach "Pipelines" zu zählen ohne zu fragen, was eine Pipeline pro Takt schafft?

Die Radeon-Pixelshader-ALUs sind gar nicht so flexibel. Die G70-ALUs sind flexibler und rechenstärker. Es hapert dort allerdings bei der Befütterung mit Daten. Verschiedene Sachen (Anzahl der Readports, Anzahl der Temp-Register, TMU-ALU-Blockierung) verhindern, dass die G70-ALUs ausgelastet werden. In der Praxis läuft das auf weniger nutzbare ALU-Ops als bei der Radeon X1900 hinaus.

aths
2007-01-17, 17:26:34
wow also es haben wirklich viele zu diesem Thema gepostet. Ich hab eingesehen das es anders wahrscheinlich mehr leistung gäbe. Aber da ich auf den preis achten muss und es mich wirklich gefreut, dass ich mein 300w netzteil behalten konnte ich wollte nicht noch 50€ für ein neues Nt ausgeben, so glaube mich hab ich aus meiner sicht doch keinen fehlkauf getätigt.Außerdem bin ich in den spielen die ich spiele sehr zufrieden mit der Karte. (BF2142, r4 vegas, Oblivion usw.) Aber ich denke da es ein sehr häufiges gebrauchtes Preissegment ist wird der Thread schon vielen helfen.Beim einen so, beim anderen so.

Dass ich mich letztens für eine GeForce entschied, hatte folgende Hauptgründe:

- Die 2D-Features für meine Zwecke einfach besser waren. (Nview-Software, Bild-Zentrierung bei DVI)

- Dass es vernünftige 3D-Leistung und vor allem Texel-Leistung (7600 GT: 6,7 GT/s, Radeon X1650 XT: 2,4 GT/s) zum vernünftigen Preis passiv gekühlt gab.

Leute mit anderen Anforderungsprofilen wären mit einer Radeon besser gefahren. (Von Sapphire gibts auch die X1600 XT passiv zum vernünftigen Preis.)

Haarmann
2007-01-17, 17:34:45
aths

Weil die 7k Serie offensichtlich auch "klemmt" bei gewissen Situationen/Spielen. Eigentlich auch schon Toptitel (NFS und Anno Serie würd ich mal in diese Kategorie einordnen) ... wobei ich zZ ehrlich zugeben muss, dass es keine aus meiner Sicht der Dinge vernünftigen neuen Spiele gibt.
Ich gehe jedoch davon aus, dass gerade wegen der neuen 8k Serie Karten die Probleme, selbst wenn sie per Treiber begrenzt werden könnten, der 7k Serie nimmer gefixt werden. Das ist zumindest meine Erwartungshaltung und daher kommt auch das Urteil, dass die 60€ (Unten ist die Begründung der Zahl) mehr für die GT schlicht eine Fehlentscheidung sind.

Da ich eine ATI 1950pro mit 512MB für 60€ weniger kriege, denn eine 7950GT mit 512MB ist wohl klar, dass ich die günstigere Karte bevorzuge, selbst wenn die Karten nur gleichauf lägen.

aths
2007-01-17, 18:00:44
Das ist zumindest meine Erwartungshaltung und daher kommt auch das Urteil, dass die 60€ (Unten ist die Begründung der Zahl) mehr für die GT schlicht eine Fehlentscheidung sind.Ja, du hättest die Radeon gekauf.

Als alle Welt die GF2 MX hatte, hatte ich die Voodoo4 4500 gekauft, und für meine Zwecke war sie in der Tat besser (Glide, Antialiasing.)

Als fast jeder Spieler eine Radeon 9700 oder 9800 hatte und Far Cry oder Tomb Raider spielte, kaufte ich eine FX 5900 und genoss das AF, weil ich ein Auge dafür habe und nicht FC oder TR spielte.

Beim Laptop war eine 9700 Mobile drin, weil ich damit auch zocken wollte und gleichpreisige mobile NV-Lösungen bei weitem nicht diese Gaming-Performance bot, die ich haben wollte.

Als ich mich für den Deskop für eine 7600 GT entschied, musste ich bezüglich AF in den sauren Apfel beißen, aber hatte andere Vorteile, die mir wichtiger waren, zumal ich am PC weniger spiele als früher.


Könnten wir also bitte mal davon abkommen, die eigenen Präferenzen als den Maßstab hinzustellen und Leute zu verunsichern, nur weil sie nicht ein Produkt der eigenen Lieblingsmarkte kauften?

Odal
2007-01-17, 18:09:20
Ich weiß nicht, warum hier dauern von der GeForce FX geredet wird. Es geht um eine 7950 GT.

Die FX sollte lediglich als Paradebeispiel dienen das es manchmal vorteilhafter ist frühzeitig die Arlarmglocken schrillen zulassen beim Bekanntwerden grober "Performance Issues".
Sicherlich handelt es sich um eine 7950GT und nicht um eine FX aber es scheint als ereilt die 7950GT (in abgeschwächter Form) ein ähnliches Schicksal wie die FX.


Die GeForce 7 ist u. a. dafür bekannt, für ihre 3D-Leistung relativ wenig Strom zu verbrauchen. Für manche zählt das mehr als die Performance in Oblivion.


Nun selbst dies dürfte nicht den Preisunterschied bzw. gar Preis/Leistungsunterschied innerhalb einer Verwendungsdauer von 12-24Monaten aufwiegen, nichtmal annähernd (es sei denn die Karte wird vielleicht 24/7 im 3D Modus unter Vollast betrieben).



Wer von der BQ redet und damit AF meint, hat seit ATIs Area-AF eine erstaunliche Wendung genommen. Immer so hindiskutieren, wie es passt, oder wie?

Wobei es hier durchaus Leute geben könnte die ATIs BQ erst seit Vorhandensein des Area-AF favorisieren, bzw. seit der Problematik mit negativem LOD beim NV40++ *hust*



Eben. Dass hier nur einzelne Aspekte herausgepickt werden, um anschließend einen Sieger zu küren der schon vorher feststand, hilft nicht weiter.

Wo bei wir in den erhältnichen neusten Spielen wohl eher von einer Pixelshaderleistung Limitierung ausgehen dürften als von einer Vertexshaderlimitierung.


"Massives" dynamic branching im Pixelshader werden wir erst dann sehen, wenn sich D3D10-Karten durchgesetzt haben.

Nun vielleicht wenn nicht gerade "massive" dynamic branching Verwendung dann vielleicht erste Einsätze zur Leistungssteigerung welche die ohnehin schon sehr gute Pixelshaderleistungsfähigkeit des R580 nochmal erhöht?
Gerade du warst doch immer ein "SM3 ist selbst auf NV40 sehr wichtig schon allein für Performanceoptimierung" Verfechter. Was ist denn nun mit der Möglichkeit die teilweise gebeutelten Pixelshader ALUs mittels dynamic branching zu entlasten?


Wie relevant ist die DB-Performance im PS heute?

Nun zumindest ist eine hohe Pixelshaderleistung heutzutage nicht unwichtig. Und warum sollte es irrelevant sein diese durch dynamic branching noch zu verbessern?


Ansonsten könnte man der X1000-Serie z. B. auch die Vertexttexturing-Performance vorhalten – von gleich Null. Oder die Performance bei der Filterung von Floating-Point-Texturen: Ebenfalls gleich Null.

Nun, dieses lässt sich eher in die Kategorie AA auf FP16 Renderingtargets einordnen, wobei von mir erwähntes sogar mehrere sichtbare Praxisanwendungen in Form von Spielen bedient hat.


VT und FP-Filterung werden u. a. deshalb noch nicht breit genutzt, weil es von ATI nicht angeboten wird. Ebenso halten sich die Entwickler zurück, massiv auf DB im PS zu setzen – weil es bei NV (mit Ausnahme auf der GeForce 8) nicht die große Zusatzperformance bringt oder sogar die Leistung drücken kann.

Das klang aber bei wie relevant ist SM3 auf Karten der generation NV40 vs. R420/480 noch ganz anders von dir ;)


Und als nächstes fangen wir an, einfach "Pipelines" zu zählen ohne zu fragen, was eine Pipeline pro Takt schafft?

daher auch mein Zusatz:


auch wenn man das nicht so einfach vergleichen kann zeigen sich auf dem papier auch resultate welche ein wenig in die angesprochene richtung weisen


Selbst der direkte Vergleich in form eines 3DCenter Artikels bescheinigt der X1900XT eine höhere LEistung bei aktuellen Spielen/Engines im Vergleich zur 7950GT.
Nun sollte man mal erörtern woran das liegen mag.

Die Radeon-Pixelshader-ALUs sind gar nicht so flexibel. Die G70-ALUs sind flexibler und rechenstärker. Es hapert dort allerdings bei der Befütterung mit Daten. Verschiedene Sachen (Anzahl der Readports, Anzahl der Temp-Register, TMU-ALU-Blockierung) verhindern, dass die G70-ALUs ausgelastet werden. In der Praxis läuft das auf weniger nutzbare ALU-Ops als bei der Radeon X1900 hinaus.

Das ist ja schön und gut, gerade dein Einwurf mit den Temp-Registern erinnert mich aber zusehends an das Schicksal der FX und bestärkt mich in meinem Eindruck das dort irgendetwas mit der Architektur im Sack ist.

Ein Unternehmer macht auch nicht mehr Umsatz bzw. einen höheren Produktionsausstoss indem er an einem Fliessband an Punkt B die Arbeitskräfte verdoppelt und Herrn Krause noch eine Verstärkung in Form von Herrn Schmidt zur Verfügungstellt, wobei Frau Müller an Punkt A nicht mehr weiss wo vorn und hinten ist. Der Produktionsprozess bleibt dabei nunmal unrentabel.

Haarmann
2007-01-17, 19:15:00
aths

Die Fehlkäufe an Grafikkarten, die ich im Laufe der Zeit so gemacht hab, sind sehr zahlreich, wenn ich das mal dazu sagen darf. Ich definiere alles als Fehlkauf, was meine Erwartungen an die Karte nicht erfüllte.
Die einzige Karte, welche mal wirklich toll war, war die ATI 9700pro, die ich gekauft hab, als sie noch ganz neu war und die eigentlich, bis auf ein kurzes 6800er Intermezzo, ein totaler Fehlkauf, schlicht erst mit dem AGP meinen Rechner verliess. Die hat nämlich meine Erwartungen übertroffen, weil ich nicht damit gerechnet hab, dass ich sie so lange werde nutzen können.

Wenn ich mir nämlich eine Karte kaufe, dann wegen irgendeinem neuen Feature - zB Shader 3.0. Wenn ich dieses Feature dann nicht nutzen kann, weils nicht läuft oder zu langsam läuft, dann ist die Karte ein Fehlkauf, weil nutzlos.
Ebenfalls ein Fehlkauf ist es, wenn sie ihre geplante Lebenserwartung unterschreitet.
Auch ein Fehlkauf wars, das betrifft nur ATI, wenn die "passive" Karte nur lief, wenn ich nen Lüfter irgendwie dranblasen lassen musste... davon gabs auch 2 Fälle.

Ich gehe nämlich vom Eingangspost aus. Da gings vor allem um das Feature Zukunftssicherheit und genau da scheint zZ die GF 7k Serie zu schwächeln.

Gast
2007-01-17, 20:41:38
die 7950gt ist schneller als eine ati 1950pro!!!

aths
2007-01-17, 21:48:04
Die FX sollte lediglich als Paradebeispiel dienen das es manchmal vorteilhafter ist frühzeitig die Arlarmglocken schrillen zulassen beim Bekanntwerden grober "Performance Issues".
Sicherlich handelt es sich um eine 7950GT und nicht um eine FX aber es scheint als ereilt die 7950GT (in abgeschwächter Form) ein ähnliches Schicksal wie die FX.So hart wie bei der GeForce FX dürfte es in keinem Fall werden, insofern ist "ein ähnliches Schicksal wie die FX" eine übertriebene, panikmachende Formulierung.

Es besteht, ganz objektiv, die Tatsache, dass viele aktuelle Spiele auf der GF7900 nicht so gut performen wie auf der Radeon X1900. Daraus könnte man jetzt versuchen, den Trend in die Zukunft zu extrapolieren und der X1900 ein längeres Leben vorhersagen. Ich bin allerdings seit der FX, die sich als deutlich schwächer entpuppte als von mir zunächst angenommen, da vorsichtig geworden, die Zukunft vorhersagen zu wollen.

Es könnte auch sein, dass sich 2007 hohe Texturauflösungen durchsetzen. Dann profitiert man von 512 MiB RAM.

Die Frage ist aber nicht das eine oder andere Detail, sondern ob die 7950 GT ein Fehlkauf war. Das ist sie nach dem jetzigen Stand der Dinge nicht. Selbst wenn sich die Radeon X1950 als etwas bessere Alternative entpuppen sollte, wird die 7950 damit nicht zum Fehlkauf.

Nun selbst dies dürfte nicht den Preisunterschied bzw. gar Preis/Leistungsunterschied innerhalb einer Verwendungsdauer von 12-24Monaten aufwiegen, nichtmal annähernd (es sei denn die Karte wird vielleicht 24/7 im 3D Modus unter Vollast betrieben).Mehr Strom für die Graka = größeren Netzteil, = mehr Abwärme, = schwierigere Kühlung. Man kann natürlich nicht den Stromverbrauch als das entscheidende Kriterium hinstellen. Aber im Umkehrzug kann man sich auch nicht genau die Sachen herauspicken, die für das eine sprechen und die Aspekte, die für das andere sprechen, durchweg als unwichtig wegdiskutieren wollen.

Wobei es hier durchaus Leute geben könnte die ATIs BQ erst seit Vorhandensein des Area-AF favorisieren, bzw. seit der Problematik mit negativem LOD beim NV40++ *hust*Welche Problematik? Spätestens mit LOD-Clamp gibts keine Problematik. ATI hat – auch mit Area-AF – ebenfalls Probleme. Erst recht beim Treiberstandard "A. I. low" kann es zu Texturflimmern kommen. Texturflimmern wird (nicht zuletzt dank meiner Artikel) gerne mit der GeForce assoziiert, trifft aber auf ATI-Karten beim Treiberstandard auch auf. Wem das nicht auffällt, der sieht auch bei GeForce-Karten das Flimmern nicht, sondern erwähnt es nur, um ein Argument gegen die GeForce zu haben.

Wo bei wir in den erhältnichen neusten Spielen wohl eher von einer Pixelshaderleistung Limitierung ausgehen dürften als von einer Vertexshaderlimitierung.

Nun vielleicht wenn nicht gerade "massive" dynamic branching Verwendung dann vielleicht erste Einsätze zur Leistungssteigerung welche die ohnehin schon sehr gute Pixelshaderleistungsfähigkeit des R580 nochmal erhöht?
Gerade du warst doch immer ein "SM3 ist selbst auf NV40 sehr wichtig schon allein für Performanceoptimierung" Verfechter. Was ist denn nun mit der Möglichkeit die teilweise gebeutelten Pixelshader ALUs mittels dynamic branching zu entlasten?

Nun zumindest ist eine hohe Pixelshaderleistung heutzutage nicht unwichtig. Und warum sollte es irrelevant sein diese durch dynamic branching noch zu verbessern?SM3 bietet viele Möglichkeiten, die Performance im Vergleich zu einem SM2-Pfad zu steigern: Mehr Interpolatoren, längere Programme, neue Operationen, Vertex Instancing, ... und DB im PS. Wobei letzteres beim NV40/G70 je nach Situation die Performance steigern kann, aber auch einen gegenteiligen Effekt bewirken kann. Das wertet die ganzen anderen SM3-Features nicht ab. Das macht auch das DB nicht völlig wertlos, da es durchaus Situationen gibt, wo es zu einem Performance-Boost führen kann. Es ist besser, das Feature in der NV40-Version zu haben, als es gar nicht zu haben (R420.)

GeForce-Karten werden immer auch mit dem Hintergedanken der Quadro-Serie gebaut. Dort ist hohe Vertexleistung wichtig. Sollte NV jetzt bei GF-Karten extra die VS-Leistung irgendwie beschneiden? Dass die PS-ALU-Leistung in der Praxis nicht so hoch wie bei ATI ist, stimmt zwar. Für die meisten Spiele ist die Leistung jedoch mehr als ausreichend. Nicht umsonst ist NV in der Mittelklasse auch relativ stark, weil hier im Vergleich zur Konkurrenz deutlich mehr Texelfüllrate geboten wird. Nun reden wir nicht über Mittelklasse sondern D3D9-Highend. Hier erweist sich ATIs Lösung als Shader-stärker. Wird die 7950 GT damit zum Fehlkauf, so lange sie genug Leistung hat?

Nun, dieses lässt sich eher in die Kategorie AA auf FP16 Renderingtargets einordnen, wobei von mir erwähntes sogar mehrere sichtbare Praxisanwendungen in Form von Spielen bedient hat."Richtige" Lösungen für HDR-Rendering gibts erst mit D3D10. Vorher sind alle Versuche – von ATI wie von NV – nur halbherzig. Auch auf NV40 und G70 ist es möglich, "HDR-Effekte" mit Antialiasing zu bringen. Weder NV40/G70 noch R580 bieten alle Features die benötigt werden, um HDR-Lighting in hoher Performance und Qualität zu rendern. Mit D3D10 ist es oft möglich, auf 64-Bit-Formate zu verzichten und spezielle 32-Bit-Formate zu nutzen, die beinahe die Qualität vom 64-Bit-Format liefern.

Das klang aber bei wie relevant ist SM3 auf Karten der generation NV40 vs. R420/480 noch ganz anders von dir ;)Lieber langsames PS-DB als gar keins. Lieber die ganzen anderen (teilweise viel wichtigeren) neuen Shader-Features, als sie nicht zu haben.

daher auch mein Zusatz:

Selbst der direkte Vergleich in form eines 3DCenter Artikels bescheinigt der X1900XT eine höhere LEistung bei aktuellen Spielen/Engines im Vergleich zur 7950GT.
Nun sollte man mal erörtern woran das liegen mag.Genau. Und dabei nicht immer gleich von den ALUs reden. Ich vermute (ohne es belegen zu können) dass das Speicher-Interface bei den Spielen, für die ATI speziell optimiert hat, einiges rausholen kann.

Das ist ja schön und gut, gerade dein Einwurf mit den Temp-Registern erinnert mich aber zusehends an das Schicksal der FX und bestärkt mich in meinem Eindruck das dort irgendetwas mit der Architektur im Sack ist.... sagst du mal so, ohne die Architekturen verstanden zu haben. Nvidia hatte von vornherein darauf gesetzt, dass wo möglich, FP16 genutzt wird. Mit FP16-Flags kann bei shaderlastigen Szenen selbst ein G70 noch zulegen. CineFX ist generell darauf ausgelegt, dass die "Logik" (wie Shader-Optimierung) in der Software steckt, damit man auf diese Art bestimmte Steuer-Logik in der Hardware einsparen kann. ATI hat sich dafür entschieden, die Hardware so zu gestalten, dass sie auch weniger optimierte Shader gut frisst. Entsprechend größer sind die Chips, da die Steuerlogik Transistoren kostet.

Ein Unternehmer macht auch nicht mehr Umsatz bzw. einen höheren Produktionsausstoss indem er an einem Fliessband an Punkt B die Arbeitskräfte verdoppelt und Herrn Krause noch eine Verstärkung in Form von Herrn Schmidt zur Verfügungstellt, wobei Frau Müller an Punkt A nicht mehr weiss wo vorn und hinten ist. Der Produktionsprozess bleibt dabei nunmal unrentabel.Da wäre Nvidia schön blöd ... schade, dass sie dich nicht als Berater engagiert haben!

Die GeForce 7 spart erheblich "Verwaltungslogik" und gleicht dies teilweise durch stärkere ALUs wieder aus. Die Leistung pro Transistor ist bei NV besser. Nun kauft der Kunde keine Leistung pro Transistor, sondern die Endleistung. Dass Nvidias Weg unternehmerisch auch sinnvoll war (und nicht nur ATIs Herangehen, welches natürlich auch sinnvoll war und ist) wird durch den Erfolg der GF7 belegt. Die wären ja alle schön blöd, wenn sie die schlechteren Karten (oder die überteuerten Karten) gekauft hätten, wenn die Radeon doch so viel besser wäre.

Die Radeon hat ihre Stärken. Die GeForce hat ihre Stärken. Für aktuelle Highend-Spiele ist die Radeon im Durchschnitt etwas besser. Das macht die GF 7950 mit 512 MB noch nicht zum Fehlkauf. Deshalb wundere ich mich, warum der Gast die ganze Zeit so verunsichert wird.


Ich gehe nämlich vom Eingangspost aus. Da gings vor allem um das Feature Zukunftssicherheit und genau da scheint zZ die GF 7k Serie zu schwächeln.Bei deiner Hellsichtigkeit wundere ich mich, warum du nicht als Aktienbroker arbeitest.

Nicht dass ich falsch verstanden werde – ich halte es für gut möglich (und wahrscheinlich) dass sich der Trend, dass die Radeon X1900 vor der 7900 liegt, noch verstärkt. Allerdings steht es hier auch 256 MiB zu 512 MiB – und die Frage, ob die 7950 GT ein Fehlkauf ist nur weil man vielleicht mit der Radeon langfristig ein wenig besser gefahren wäre. Zumal Fragen wie Bedienbarkeit, Zweibildschirm-Komfort, DVI-Bildzentrierung etc. leider völlig unter den Tisch fallen. Als ob das bei der täglichen PC-Benutzung nichts zählen würde und es nur auf die Performance in einigen shaderlastigen Highend-Spielen ankäme.

Haarmann
2007-01-17, 22:15:08
aths

Es gibt determinierbarere Ereignisse denn Aktien ...

Ich krieg sowohl x1900xt, als auch x1900pro mit je 512 MB für den gleichen oder geringeren Preis denn eine 7950gt mt 512 MB - damit erübrigt sich dann eben auch dies Problem.
Und Zweischirm-Komfort hat NVidia nie gehabt. Das war einer der Gründe, weswegen ich die 6800er als völligen Fehlkauf bezeichnete.

Aber mich interessiert mal folgende Frage... wozu brauch ich eine DVI Bildzentrierung?

StefanV
2007-01-17, 22:27:46
Aber mich interessiert mal folgende Frage... wozu brauch ich eine DVI Bildzentrierung?
Kommt auf deinen Schirm an!
Wenn du keinen Widescreen Schirm hast, kannst drauf pfeifen, auch bei 5:4 ists nicht weiter tragisch...

Bei Widescreen sollte man btw so schlau sein und einen Schirm nehmen, der das selbst kann, dann hat man auch keine Probleme...
Ganz nebenbei ists auch doppelt sinnfrei, einen Schirm zu nehmen, der das nicht kann, z.B. wenn man mal den Schirm analog anschließen _MUSS_ (warum spielt keine Rolle, kann eben mal vorkommen!) und man die native Auflösung des Schirms nicht nutzen kann...

Ach, ganz nebenbei:
Das Skalierungsverhalten kann ich zwar bei meinem 200W6CS einstellen, nur nutzts mir nix, wenn ich 'ne nV Grafikkarte drin hab und der Schirm per DVI dran hängt...
Ganz ab davon kann man die Skalierung bei AMD Grafikkarten ebenso abschalten...


Fazit:
Wenn man mit der Option des Skalierungsverhaltens seitens der Grafikkarten argumentieren muss, so hat man sich 'nen falschen Schirm gekauft...

reunion
2007-01-17, 23:21:15
Das muss man differenzierter betrachten. Eigentlich sind die ALUs vom G70 rechenstärker. Sowohl rein von den FLOPs her, als auch mit der Beschleunigung von NRM_PP und natürlich der Möglichkeit zum 2:2-Co-Issue. Allerdings können die ALUs vom R580 meistens besser ausgelastet werden.



Mit der höheren FLOPs-Leistung von G70 stehst du alleine auf weiter Flur. Ich bin sicherlich kein Experte, und vielleicht hast du irgendwelche neuen Erkenntnisse, von denen ich nichts weiß. Mein Wissensstand ist jedenfalls, dass man selbst, wenn man die ADD der Mini-ALU bei R580 ignoriert, und sämtliche Schwächen des G70 bei Texturzugriffen und Tempspeichern außer acht lässt, maximal auf einen Gleichstand kommen kann, was die FLOPs-Leistung betrifft.

Die anderen von dir angesprochenen Vorteile sind zwar unbestritten, aber summa summarum bleibt eben doch ein Vorteil bei der Radeon.


Man sollte eine Karte nicht nach der Performance in einem Spiel beurteilen. Jede Karte hat ihre Stärken und Schwächen. Es gibt Spiele, die laufen auf Radeons besonders gut, und es gibt Spiele, die laufen auf GeForces besonders gut. Im Großen und Ganzen spielen 7900 und X1900 in der gleichen Liga.

Eine X1900 leistet sich aktuell in keinem Spiel eine größere Schwäche, während in letzter Zeit immer wieder Spiele erscheinen, bei denen die G7x-Architektur sehr weit abgeschlagen ist. Man kann das natürlich ignorieren und kleinreden, aber man kann hier auch eine Tendenz ablesen, und diese besagt, dass man mit einer X1900 sicherlich nichts falsch macht, während man sich mit einem G70 zunehmend auf dünneres Eis begiebt.

Auch in punto IQ ist man mit einer aktuellen Radeon besser beraten, ein Thema, das gerade du in den letzten Jahren stark thematisiert hast. Von daher bleibt bis auf den geringeren Stromverbauch (und der auch nur in 3D) nicht viel übrig.


- Dass es vernünftige 3D-Leistung und vor allem Texel-Leistung (7600 GT: 6,7 GT/s, Radeon X1650 XT: 2,4 GT/s) zum vernünftigen Preis passiv gekühlt gab.


Eine X1650XT bringt es auf 4,8GT/s. Du meinst vermutlich eine X1600XT.
Wobei diese Zahlen letztendlich IMHO völlig belanglos sind - was zählt ist was rauskommt.


Es könnte auch sein, dass sich 2007 hohe Texturauflösungen durchsetzen. Dann profitiert man von 512 MiB RAM.


Nachdem Haarmann - soweit ich das überblicken kann - inzwischen schon zum vierten Mal angibt, dass man die Radeon auch mit 512MB bekommen kann, und selbst dann nicht teurer fährt, finde ich es doch etwas ignorant von dir, noch immer auf den 256MB RAM herumzureiten.


Die Frage ist aber nicht das eine oder andere Detail, sondern ob die 7950 GT ein Fehlkauf war. Das ist sie nach dem jetzigen Stand der Dinge nicht. Selbst wenn sich die Radeon X1950 als etwas bessere Alternative entpuppen sollte, wird die 7950 damit nicht zum Fehlkauf.


Ansichtssache. Wenn ich zum selben Preis oder gar billiger ein besseres Produkt bekomme, dann habe ich jedenfalls keine schlaue Kaufentscheidung getätigt.


"Richtige" Lösungen für HDR-Rendering gibts erst mit D3D10. Vorher sind alle Versuche – von ATI wie von NV – nur halbherzig. Auch auf NV40 und G70 ist es möglich, "HDR-Effekte" mit Antialiasing zu bringen. Weder NV40/G70 noch R580 bieten alle Features die benötigt werden, um HDR-Lighting in hoher Performance und Qualität zu rendern. Mit D3D10 ist es oft möglich, auf 64-Bit-Formate zu verzichten und spezielle 32-Bit-Formate zu nutzen, die beinahe die Qualität vom 64-Bit-Format liefern.


Ob "halbherzig" oder nicht, unterm Strich bleibt gerade in Zukunft eine bessere Kompatiblität der Radeon was MSAA betrifft.


Genau. Und dabei nicht immer gleich von den ALUs reden. Ich vermute (ohne es belegen zu können) dass das Speicher-Interface bei den Spielen, für die ATI speziell optimiert hat, einiges rausholen kann.


Dagegen spricht der Vergleich R580 vs. R520 - der gerade in diesen Spielen deutlich zugunsten ersterer ausgeht.

Als Extrembeispiel NFS:Carbon: http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

Und dagegen spricht auch, dass sich die Radeon auch in relativ unbekannten Spielen keine großen Schwächen leistet.


... sagst du mal so, ohne die Architekturen verstanden zu haben. Nvidia hatte von vornherein darauf gesetzt, dass wo möglich, FP16 genutzt wird. Mit FP16-Flags kann bei shaderlastigen Szenen selbst ein G70 noch zulegen.

FP16 wird heute kaum noch verwendet, und auch nV hat AFAIK den Support mit G80 eingestellt.

aths
2007-01-18, 00:00:24
Kommt auf deinen Schirm an!
Wenn du keinen Widescreen Schirm hast, kannst drauf pfeifen, auch bei 5:4 ists nicht weiter tragisch...Doch.

Odal
2007-01-18, 00:08:52
So hart wie bei der GeForce FX dürfte es in keinem Fall werden, insofern ist "ein ähnliches Schicksal wie die FX" eine übertriebene, panikmachende Formulierung.

darum sprach ich ja auch von "abgeschwächt"
aths du hast dich damals was die Leistungsfähigkeit der FX in der Praxis anbelangt geirrt, und auch ich hab mich damals geirrt indem ich 2003 ein notebook mit FX5600go statt 9600 gekauft hab.

Der Mensch macht Fehler aber daraus sollte er lernen. Ich für meinen Teil hab daraus gelernt indem ich jetzt sofort Hellhörig werde wenn eine GPU signifikante Architekturbedingte schwächen aufzuweisen scheint.
Das mal eine GPU 10% oder auch 15% langsamer ist als eine gleichklassifizierte der Konkurenz ist normal...aber wenn es plötzlich mehrere neue Spiele gibt wo sie schonmal 40%-50% weniger Performance liefert sollten die Alarmglocken läuten.


Es besteht, ganz objektiv, die Tatsache, dass viele aktuelle Spiele auf der GF7900 nicht so gut performen wie auf der Radeon X1900. Daraus könnte man jetzt versuchen, den Trend in die Zukunft zu extrapolieren und der X1900 ein längeres Leben vorhersagen. Ich bin allerdings seit der FX, die sich als deutlich schwächer entpuppte als von mir zunächst angenommen, da vorsichtig geworden, die Zukunft vorhersagen zu wollen.

Es könnte auch sein, dass sich 2007 hohe Texturauflösungen durchsetzen. Dann profitiert man von 512 MiB RAM.

Unwahrscheinlich. 2007 wird ein Jahr der XBox360 da die Nachfolgekonsole noch auf sich warten lässt. Dem Trend der Konsolenportierungen folgend wird sich vermutlich der Speicherbedarf nicht um Welten erhöhen, da bisherige Portierungen fast immer auch keine höher aufgelösten Texturen bekamen.


Welche Problematik? Spätestens mit LOD-Clamp gibts keine Problematik.

Dann schau dir mal die mittels LOD-Clamp aufgeblurten Streckentexturen bei GTL, GTR2 usw. an.


GeForce-Karten werden immer auch mit dem Hintergedanken der Quadro-Serie gebaut. Dort ist hohe Vertexleistung wichtig. Sollte NV jetzt bei GF-Karten extra die VS-Leistung irgendwie beschneiden? Dass die PS-ALU-Leistung in der Praxis nicht so hoch wie bei ATI ist, stimmt zwar. Für die meisten Spiele ist die Leistung jedoch mehr als ausreichend.

Nun das mag sein, nur ist die Quadro Serie mit deren Einsatzgebieten für den Gamer irrelevant.
Das die PS-Leistung manchmal eben nicht mehr ausreicht sieht man ja an diversen neueren Spielen. Natürlich bekommt man nahezu jedes Spiel durch Detailsreduzierung auf einer 7950GT spierlbar zum laufen, aber das ist nicht der Punkt.


Nicht umsonst ist NV in der Mittelklasse auch relativ stark, weil hier im Vergleich zur Konkurrenz deutlich mehr Texelfüllrate geboten wird. Nun reden wir nicht über Mittelklasse sondern D3D9-Highend. Hier erweist sich ATIs Lösung als Shader-stärker. Wird die 7950 GT damit zum Fehlkauf, so lange sie genug Leistung hat?

Nun wenn ich mir als Durchschnittsgamer jetzt eine Grafikkarte kaufe, möchte ich auch das sie in einem halben Jahr noch ausreichend Leistung hat. Zumindest möchte ich für mein Geld das leistungsfähigste was ich bekommen kann.
Mit Sicherheit sagen wie welche GPU bei noch nicht erschienenen Spielen performen wird kann sicherlich niemand, aber man kann Trends ablesen und deuten.


NV40 und G70 ist es möglich, "HDR-Effekte" mit Antialiasing zu bringen.

Supersampling AA mit HDR-Spielen wie praktisch auf einer GPU vom schlage eines NV40 ;)


Lieber langsames PS-DB als gar keins. Lieber die ganzen anderen (teilweise viel wichtigeren) neuen Shader-Features, als sie nicht zu haben.


Mag sein, nur lieber schnelles PS-DB als langsames PS-DB oder nicht?


... sagst du mal so, ohne die Architekturen verstanden zu haben. Nvidia hatte von vornherein darauf gesetzt, dass wo möglich, FP16 genutzt wird. Mit FP16-Flags kann bei shaderlastigen Szenen selbst ein G70 noch zulegen. CineFX ist generell darauf ausgelegt, dass die "Logik" (wie Shader-Optimierung) in der Software steckt, damit man auf diese Art bestimmte Steuer-Logik in der Hardware einsparen kann. ATI hat sich dafür entschieden, die Hardware so zu gestalten, dass sie auch weniger optimierte Shader gut frisst. Entsprechend größer sind die Chips, da die Steuerlogik Transistoren kostet.
Da wäre Nvidia schön blöd ... schade, dass sie dich nicht als Berater engagiert haben!


Du, mir und den Leuten die sich im Kaufberatungsforum beraten lassen geht es ziemlich am Allerwertesten vorbei wo NVidia wofür Transistoren spart. Wir wollen für unser Geld die maximale Leistung bei bestmöglicher Bildqualität. Ob dies durch Steuerlogik oder brachialer Shaderalu Logik oder Registern oder sonstwie erreicht wird.


Nun kauft der Kunde keine Leistung pro Transistor, sondern die Endleistung.

So siehts aus, und das ist alles was für uns zählt.


Dass Nvidias Weg unternehmerisch auch sinnvoll war (und nicht nur ATIs Herangehen, welches natürlich auch sinnvoll war und ist) wird durch den Erfolg der GF7 belegt. Die wären ja alle schön blöd, wenn sie die schlechteren Karten (oder die überteuerten Karten) gekauft hätten, wenn die Radeon doch so viel besser wäre.

Wenn jeder genau wüsste was das beste für ihn ist bräuchten wir kein Kaufberatungsforum, keine Hardwaremags und kein Marketing ;)


Die Radeon hat ihre Stärken. Die GeForce hat ihre Stärken. Für aktuelle Highend-Spiele ist die Radeon im Durchschnitt etwas besser. Das macht die GF 7950 mit 512 MB noch nicht zum Fehlkauf. Deshalb wundere ich mich, warum der Gast die ganze Zeit so verunsichert wird.


Es ist bereits 5 vor Zwölf für die 7950GT der Gast hat sie nun schon erworben und ihm ist nicht mehr zu helfen, aber anderen Kaufunentschlossenen sollte man doch wenigstens noch dabei behilflich sein die Augen zu öffnen welches potentiell mehr zukünftige Performance liefern wird bei geringerem Preis oder nicht?

StefanV
2007-01-18, 00:15:01
Doch.
Nö, nicht wirklich, zumal man eigentlich sowohl bei AMD als auch nV die Skalierung abschalten kann, von daher...

Und soo groß ist der Unterschied auch nicht, ist zwar nicht schön, so schlimm wie du tust ists aber bei weitem nicht, im Gegensatz zu Widescreens...

Und wie du siehst, scheinen hier auch mehr Leute das ganze eher nicht so zu sehen, wie du es tust :|


Ganz ab davon gibts noch die Möglichkeit, einen 4:3 Schirm zu kaufen.
Und nein, die Teile kosten KEINE 500€uro, die gibts schon für 250€uro...

Gast
2007-01-18, 00:18:30
Leistungsmäßig muss kein Vergleich gezogen werden, vor kurzem kämpften noch X1900XT/X vs. 7900 GTX. Somit sollte die ATI im Prinzip ne Stufe höher rangieren (auch beim Preis der 512MB Version).

Ein viel entscheidenderer Faktor ist allerdings der und das blieb hier teils vollkommen unberücksichtigt: Der Stromverbrauch. Das scheint dem Threadersteller wichtig gewesen zu sein, sonst hät ers nicht geschrieben.

Somit wars definitiv kein Fehlkauf. Wenn nur ein paar Prozente für z.B. 50 W weniger Verbrauch geopfertet werden müssen, ist die Effizienzfrage eigentlich klar...

aths
2007-01-18, 01:58:38
Nö, nicht wirklich,Doch. Wirklich.






Mit der höheren FLOPs-Leistung von G70 stehst du alleine auf weiter Flur. Ich bin sicherlich kein Experte, und vielleicht hast du irgendwelche neuen Erkenntnisse, von denen ich nichts weiß. Mein Wissensstand ist jedenfalls, dass man selbst, wenn man die ADD der Mini-ALU bei R580 ignoriert, und sämtliche Schwächen des G70 bei Texturzugriffen und Tempspeichern außer acht lässt, maximal auf einen Gleichstand kommen kann, was die FLOPs-Leistung betrifft.Das stimmt sofern man die maximale FP32-Leistung zählt. (Mein Posting auf das du dich beziehst, ist missverständlich formuliert.) FP16-Leistung ist nicht unbedingt unwichtig, da für viele Operationen FP16 ausreichend ist.

Die anderen von dir angesprochenen Vorteile sind zwar unbestritten, aber summa summarum bleibt eben doch ein Vorteil bei der Radeon.Das ist eine Geschmacksfrage. Darauf will ich die ganze Zeit hinaus: Man kann nicht die persönlichen Präferenzen als allgemeingültigen Maßstab ansetzen.

Eine X1900 leistet sich aktuell in keinem Spiel eine größere Schwäche, während in letzter Zeit immer wieder Spiele erscheinen, bei denen die G7x-Architektur sehr weit abgeschlagen ist. Man kann das natürlich ignorieren und kleinreden, aber man kann hier auch eine Tendenz ablesen, und diese besagt, dass man mit einer X1900 sicherlich nichts falsch macht, während man sich mit einem G70 zunehmend auf dünneres Eis begiebt.Deine Wahrnehmung. Eine Frage der Wahrnehmung ist auch, ob sich eine Karte in einem Spiel eine Schwäche leistet, oder ob nur die Konkurrenz besonders stark ist.

Auch in punto IQ ist man mit einer aktuellen Radeon besser beraten, ein Thema, das gerade du in den letzten Jahren stark thematisiert hast.Ich habe es wenigstens immer thematisiert und hole es nicht nur dann hervor, wenn gerade eine bestimmte Firma führend ist.

Von daher bleibt bis auf den geringeren Stromverbauch (und der auch nur in 3D) nicht viel übrig. Das ist deine Meinung. Der Threadersteller hat sich auch auf den Stromverbrauch bezogen. Vielleicht ist ihm das wichtiger als dir? Er wäre dir auch keine Rechenschaft schuldig, warum das so ist.

Eine X1650XT bringt es auf 4,8GT/s. Du meinst vermutlich eine X1600XT.
Wobei diese Zahlen letztendlich IMHO völlig belanglos sind - was zählt ist was rauskommt.Ja, ich meinte die Karte mit nur 4 TMUs. Die erreicht auch in der Praxis deutlich weniger Füllratenleistung als eine 7600.

Nachdem Haarmann - soweit ich das überblicken kann - inzwischen schon zum vierten Mal angibt, dass man die Radeon auch mit 512MB bekommen kann, und selbst dann nicht teurer fährt, finde ich es doch etwas ignorant von dir, noch immer auf den 256MB RAM herumzureiten.In diesem Thread geht es eben nicht darum, ob generell eine GeForce oder generell eine Radeon besser wäre. Sondern ob die 7590 GT mit 512 MiB RAM im Vergleich zur 1900 XT mit 256 MiB RAM ein "Fehlkauf" war.

Ansichtssache. Wenn ich zum selben Preis oder gar billiger ein besseres Produkt bekomme, dann habe ich jedenfalls keine schlaue Kaufentscheidung getätigt.Was ist "besser"? Gelten deine Kriterien auch für den Threadersteller?

Ob "halbherzig" oder nicht, unterm Strich bleibt gerade in Zukunft eine bessere Kompatiblität der Radeon was MSAA betrifft.Dafür gibt es keine Kompatibilität gerade in Zukunft, was Vertex Texturing und FP-Texturfilterung betrifft.

Dagegen spricht der Vergleich R580 vs. R520 - der gerade in diesen Spielen deutlich zugunsten ersterer ausgeht.Was nicht heißt, dass das Speicherinterface nicht auch einen wichtigen Einfluss haben kann.

Und dagegen spricht auch, dass sich die Radeon auch in relativ unbekannten Spielen keine großen Schwächen leistet.Oder dass die GeForce in relativ unbekannten Spielen besonders schwächelt. Oder ein Mix.

FP16 wird heute kaum noch verwendet, und auch nV hat AFAIK den Support mit G80 eingestellt.Klar, und wenn man FP16 nutzen will, bleibt beim G80 der Bildschirm schwarz? FP16 wird (inkl. Denorm-Support) von G80 voll unterstützt – ist ja auch eine D3D10-Voraussetzung.

aths
2007-01-18, 02:14:25
darum sprach ich ja auch von "abgeschwächt"
aths du hast dich damals was die Leistungsfähigkeit der FX in der Praxis anbelangt geirrt, und auch ich hab mich damals geirrt indem ich 2003 ein notebook mit FX5600go statt 9600 gekauft hab.

Der Mensch macht Fehler aber daraus sollte er lernen. Ich für meinen Teil hab daraus gelernt indem ich jetzt sofort Hellhörig werde wenn eine GPU signifikante Architekturbedingte schwächen aufzuweisen scheint.
Das mal eine GPU 10% oder auch 15% langsamer ist als eine gleichklassifizierte der Konkurenz ist normal...aber wenn es plötzlich mehrere neue Spiele gibt wo sie schonmal 40%-50% weniger Performance liefert sollten die Alarmglocken läuten.Schon wieder eine panikmachende Behauptung.

Es gab Zeiten, da hat eine Kyro 1 eine GeForce 3 gnadenlos platt gemacht – in Ultima IX. (Das war ein Treiberproblem seitens NV.) Gabs da irgendwo Alarmglocken? Spielt der Threadersteller die Spiele, wo die Radeon jetzt (ja in der Tat deutlich) vorne liegt? Spielt er von diesen Spielen vielleicht eines, aber ansonsten andere, wo die GeForce eine sehr gute Performance liefert? Das sind die Fragen, die aus meiner Sicht interessieren sollten.

Unwahrscheinlich. 2007 wird ein Jahr der XBox360 da die Nachfolgekonsole noch auf sich warten lässt. Dem Trend der Konsolenportierungen folgend wird sich vermutlich der Speicherbedarf nicht um Welten erhöhen, da bisherige Portierungen fast immer auch keine höher aufgelösten Texturen bekamen.Als ob jetzt das Gros der PC-Spiele aus Xbox-360-Konvertierungen bestehen würde.

Dann schau dir mal die mittels LOD-Clamp aufgeblurten Streckentexturen bei GTL, GTR2 usw. an.LOD-Bias = 0 blurrt nicht. LOD-Bias < 0 führt zu Aliasing.

Nun das mag sein, nur ist die Quadro Serie mit deren Einsatzgebieten für den Gamer irrelevant.Hier ging es mir darum zu erläutern, warum NVs Hardware gerade so und nicht anders aussieht. Einige Postings könnte man so lesen, als ob die irgendwie am Bedarf vorbeientwickeln würden.

Das die PS-Leistung manchmal eben nicht mehr ausreicht sieht man ja an diversen neueren Spielen. Natürlich bekommt man nahezu jedes Spiel durch Detailsreduzierung auf einer 7950GT spierlbar zum laufen, aber das ist nicht der Punkt.Der Punkt ist, ob es (1) eine relevante Anzahl Spielen gibt, die (2) vom Threadersteller gespielt werden, die (3) auf der 7950 GT mit 512 MiB RAM nur sehr eingeschränkt laufen während sie (4) auf einer Radeon X1900 XT mit 256 MiB RAM deutlich besser laufen würden. Wenn alle vier Punkte mit "ja" beantwortet werden, dann handelt es sich um einen Fehlkauf.

Nun wenn ich mir als Durchschnittsgamer jetzt eine Grafikkarte kaufe, möchte ich auch das sie in einem halben Jahr noch ausreichend Leistung hat. Zumindest möchte ich für mein Geld das leistungsfähigste was ich bekommen kann.
Mit Sicherheit sagen wie welche GPU bei noch nicht erschienenen Spielen performen wird kann sicherlich niemand, aber man kann Trends ablesen und deuten.Es geht nicht um dich als Gamer, sondern um den Threadersteller.

Natürlich kann jeder – dazu ist ja das Forum da – seine Ansichten einbringen und neue Aspekte anführen. Allerdings habe ich das Gefühl, dass eigene Ansichten dabei überbetont werden, und die tatsächlichen Belange des Fragers in den Hintergrund rücken.

Supersampling AA mit HDR-Spielen wie praktisch auf einer GPU vom schlage eines NV40 ;)

Mag sein, nur lieber schnelles PS-DB als langsames PS-DB oder nicht?Wenn das das einzige wäre, ja. Ist es aber nicht. Der R580 hat einige Features nicht, die bereits der NV40 hatte. Wie wichtig die sind, hängt immer davon ab. Mal wieder "die Spielepraxis" anzuführen halte ich für müßig, da es für jeden eine andere Spielepraxis gibt. Vertex-Texturing wird so weit ich weiß bisher in nur einem einzigen Spiel genutzt. Daher allgemein ziemlich irrelevant. Es sei denn, es ist ausgerechnet das, was man intensiv und mit voller Qualität spielen will. Ich kenne kein Spiel, welches massiv auf DB im PS setzt.

Du, mir und den Leuten die sich im Kaufberatungsforum beraten lassen geht es ziemlich am Allerwertesten vorbei wo NVidia wofür Transistoren spart. Wir wollen für unser Geld die maximale Leistung bei bestmöglicher Bildqualität. Ob dies durch Steuerlogik oder brachialer Shaderalu Logik oder Registern oder sonstwie erreicht wird.Genau. Aber es ist nicht gut, wenn Begründungen technisch falsch sind.

Wenn jeder genau wüsste was das beste für ihn ist bräuchten wir kein Kaufberatungsforum, keine Hardwaremags und kein Marketing ;)Da hier viele nur das empfehlen, was sie mögen, bräuchten wir ein Fanboyforum.

Es ist bereits 5 vor Zwölf für die 7950GT der Gast hat sie nun schon erworben und ihm ist nicht mehr zu helfen, aber anderen Kaufunentschlossenen sollte man doch wenigstens noch dabei behilflich sein die Augen zu öffnen welches potentiell mehr zukünftige Performance liefern wird bei geringerem Preis oder nicht?Schon wieder ein panikmachende Formulierung (fünf vor zwölf), missionarisch dazu ("Augen öffnen".)

aths
2007-01-18, 02:32:14
aths

Es gibt determinierbarere Ereignisse denn Aktien ...

Ich krieg sowohl x1900xt, als auch x1900pro mit je 512 MB für den gleichen oder geringeren Preis denn eine 7950gt mt 512 MB - damit erübrigt sich dann eben auch dies Problem.
Und Zweischirm-Komfort hat NVidia nie gehabt. Das war einer der Gründe, weswegen ich die 6800er als völligen Fehlkauf bezeichnete.

Aber mich interessiert mal folgende Frage... wozu brauch ich eine DVI Bildzentrierung?Das "Problem" wird künstlich herangezüchtet. Um nicht mit einer X1900 XT/256 MiB vergleichen zu müssen, werden jetzt Modelle herangezogen, die im Ersteller-Posting gar nicht zur Debatte standen. Und dann wird das 7950-Schicksal mit der FX verglichen :bonk: Die Konkurrenz war, was Pixelshader 2.0 angeht, damals mindestens Faktor 3 schneller. Davon kann heute bei 7900 vs 1900 gar nicht die Rede sein.

Seit der GeForce 4 Ti nutze ich zwei Monitore. Die NV-Lösung gefällt mir dabei besser als die ATI-Lösung. Ich sage nicht, dass Nview besser als Hydravision ist, sondern dass sie mir besser gefällt.

DVI-Bildzentrierung braucht man, um bei üblichen DVI-TFTs (insbesondere bei Nicht-4:3-Größen) auch nichtnative Auflösungen zentriert bzw. korrekt skaliert darstellen zu können, ohne dass der Inhalt aufs Vollbild gezogen wird.

StefanV
2007-01-18, 02:45:42
DVI-Bildzentrierung braucht man, um bei üblichen DVI-TFTs (insbesondere bei Nicht-4:3-Größen) auch nichtnative Auflösungen zentriert bzw. korrekt skaliert darstellen zu können, ohne dass der Inhalt aufs Vollbild gezogen wird.
1. Oh gott, da nutzt jemand die dt. Übersetzung X-D
2. Heißt das Ding 'Fixed aspect ratio Scaling', ist unter Digital Flat Panel Settings zu finden (zusammen mit 3 weiteren Optionen)
3. Funktioniert das ganze _NUR_ bei digitalem Anschluss. (bei analogem wird immer 4:3 skaliert, wirklich Sinnvoll, echt, wenn man 'nen TFT analog anklemmt :ugly: )
4. Funktioniert das ganze bei mir nicht (wozu auch, das kann der Monitor)
5. Hat das gefälligst Sache des Monitors zu sein denn der weiß eigentlich viel besser, wie er was skalieren muss.
6. Ist diese Option bei guten Monitoren so irrelevant wie ein Sack Reis in China, mein EIZO L461 war so ein Fall und mein Philips 200W6CS ist so ein Fall...
7. Ist diese Option ironischerweise bei 4:3 Panals üblich...
8. Erwähnte ich schon, das es 4:3 Panels schon ab ~250€uro gibt?! (1400x1050)

€dit:
Hier mal was von einem 21" HP Schirm mit PVA Panel, wie es bei einem ordentlichen Schirm auszusehen hat!

Und ja, sowas IST sache des Schirms und NICHT der Grafikkarte, denn es kann ja auch sein, das man mal das Seitenverhältnis oder die Native Auflösung NICHT einstellen kann oder man ihn mal analog anklemmt...

Haarmann
2007-01-18, 09:22:50
aths

Ich hab selbst nur 256MB - wenn diese wirklich mal nimmer reichen sollten, dann kann ich wohl auf die höchste Texturauflösung verzichten - das ersetzt dann aber mehr, denn 256MB. Diese sieht man ja meisst eher selten und daher vermisst man sie auch nicht zwingend. Ansonsten wärs interessant zu sehen, wieviel man verliert, wenn man die 256MB per HM ersetzt. Bisher scheint der Schaden sich dabei im Rahmen zu halten bei 256MB und 1280*1024.

Also bei meiner 1650XT sind das 2 Mausklicks im CCC und dann skaliert die Karte das nimmer und es erscheinen die schwarzen Balken. Das geht mit beiden Monitoren, die ich per DVI dran hab.
Ich dachte schon das sei sowas Heiteres, wie nen Plasma, der 1024*1024 auflöst, somit Rechteckige Pixel hat, korrekt, heisst unverzerrt, anzusteuern.

Für meinen Teil war die NView Steuerung nervend, als das Ding einfach nicht einsehen wollte, dass ich die Monitore anders aufgestellt hab, denn er mir vorgeben wollte... das dürfte inzwischen auch einfacher sein.
Die Skriptfähigkeit der ATI Einstellungen per Hotkeys war gerade für Leute ohne grosses Verständnis der Dinge sehr nützlich. Ich musste denen nur ihre Betriebsarten füttern und das läuft bis Heute. Das hiesse zB Docked, Mobil, Beamer Klon und Beamer Zweitschirm per Knopfdruck.

Die Idee, diese Logik einzusparen bei Shadern ist natürlich verlockend, setzte aber voraus, dass es trotz Shader 3.0 Unterstützung diverser Hersteller, wieder für jeden Hersteller eigene Shader nötig wären, weil nicht davon auszugehen ist, dass alle Chips gleich reagieren. Alternativ kann man zur Not ja wieder den Weg des Shaderreplacements per Treiber gehen, den man schon einmal eingeschlagen hat.
Als Kunde jedenfalls bin ich mit einer Lösung glücklicher, welche das Problem in HW angeht und somit nicht auf die Gnade des Herstellers von Spiel oder Treiber angewiesen ist. Das mag auch daran liegen, dass ich Treiber nur update, wenn was nicht läuft und zuvor das so lasse, wies ist. Never touch ...

RainingBlood
2007-01-18, 10:31:24
es ist doch ganz einfach: Für bestimmte Spiele wars ein Fehlkauf ggü. einer gleichteuren ATI Karte. Damit ist das Topic auch schon beantwortet. Alles was sonst noch gepostet wird dient nicht dem Thema, sondern dem Ego. Ich fänds gut, wenn ihr das im Gamestar Forum oder per PM klären könntet. Gerade von Aths hab ich mehr erwartet. Schade!

Odal
2007-01-18, 11:55:14
Aths, Aths, Aths ^^

Schon wieder eine panikmachende Behauptung.

Es gab Zeiten, da hat eine Kyro 1 eine GeForce 3 gnadenlos platt gemacht – in Ultima IX. (Das war ein Treiberproblem seitens NV.) Gabs da irgendwo Alarmglocken? Spielt der Threadersteller die Spiele, wo die Radeon jetzt (ja in der Tat deutlich) vorne liegt? Spielt er von diesen Spielen vielleicht eines, aber ansonsten andere, wo die GeForce eine sehr gute Performance liefert? Das sind die Fragen, die aus meiner Sicht interessieren sollten.

Wenn mal in einem Spiel was im Argen ist kann man von einem Treiberproblem ausgehen bzw. dieses vermuten....aber wenn bei vielen neuerscheinenden Spielen eine GPU immer weiter hinter eine andere der gleichen Klasse zurückfällt muss man eher davon ausgehen das die GPU Architektur nicht zukunftstauglich ist. Gerade wenn in Treibern nach einer Weile das erst irgendwie hingebastelt werden muss das die GPU nicht soweit zurückfällt ist das immer mehr ein Zeichen dafür das was nicht stimmt. Der G80 ist raus mit völlig neuer Architektur da wird sich NVidia auch immer weniger die Mühe machen es noch irgendwie im Treiber hinzufriemeln. Die Geschichte mit den Treiberproblemen und Optimierungen kenn ich noch von der FX Reihe ^^. Ich bin einfach nicht mehr so blauäugig wie früher.


Als ob jetzt das Gros der PC-Spiele aus Xbox-360-Konvertierungen bestehen würde.

Naja es wird seit geraumer Zeit per Cross-Tools für beide Plattformen gleichzeitig entwickelt. Sieht man ja auch mehr und mehr an den Spielen.


LOD-Bias = 0 blurrt nicht. LOD-Bias < 0 führt zu Aliasing.


Wenn der Gamedesigner ein negatives LOD einbezieht und NVidia mittels LOD-Clamp in Richtung positiv verschiebt (in dem Fall auf 0 festsetzt) wird sehr wohl geblurt. Unter Bemühung der Suchfunktion wird man hier einen Thread zu GTL finden wo genau dieses Problem erläutert und die Clamp Funktion mittels Bildern dokumentiert ist.



Der Punkt ist, ob es (1) eine relevante Anzahl Spielen gibt, die (2) vom Threadersteller gespielt werden, die (3) auf der 7950 GT mit 512 MiB RAM nur sehr eingeschränkt laufen während sie (4) auf einer Radeon X1900 XT mit 256 MiB RAM deutlich besser laufen würden. Wenn alle vier Punkte mit "ja" beantwortet werden, dann handelt es sich um einen Fehlkauf.


Also das ist sicherlich Definitionssache wie man sich einen Fehlkauf auslegt.
Ich sehe etwas als Fehlkauf wenn man für gleiches Geld oder weniger ein Produkt bekomme welches deutlich leistungsfähiger ist (>10%) und auch zukünftige Erwartungen vermutlich besser zufriedenstellen können wird.


Schon wieder ein panikmachende Formulierung (fünf vor zwölf), missionarisch dazu ("Augen öffnen".)

Wenn ich mir so einige Ergebnisse anschaue (unter anderem auch in Artikeln von 3DCenter.de nachzulesen), ist es in der Tat so das es für mich wie 5 vor 12 aussieht da die Kluft in letzter Zeit deutlich gewachsen ist. Vor fast einem Jahr beim release schien die X1900XTX "nur" 40% vor der 7800GTX zu liegenm, jetzt liegt die X1900XTX schon 61% vor der 7800GTX

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/26/#abschnitt_performancerating_qualitaet
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/23/#abschnitt_performancerating_qualitaet

Aber gerade die in letzter Zeit erschienenen und gebenchten Spiele Anno1702, Gothic3, Company of Heroes, NeedforSpeed Carbon, Prey, Call of Juarez...usw.usw. zeigen zum Teil deutliche Unterschiede

Threadstarter
2007-01-18, 13:33:18
also ich melde mich jetzt nochmal zu Wort als ich mir die Karte gekauft habe gab es die 1900xt 512mb nicht zu dem preis wie sie zurzeit angeboten wird also ging es bei mir um die entscheidung 1900xt 256mb genen 7950gt 512mb nur um das klarzustellen.

Haarmann
2007-01-18, 13:34:22
Threadstarter

Welchen Monitor Du hast wär imho auch recht wichtig zu wissen...

Threadstarter
2007-01-18, 13:54:55
Threadstarter

Welchen Monitor Du hast wär imho auch recht wichtig zu wissen...
OK bis jetzt einen crt 17° jaah ich weiß..
aber bald nen tft 19°

Haarmann
2007-01-18, 14:16:10
Threadstarter

Bei den CRT Auflösungen wirds wohl kein Problem geben vorerst...
Von daher gesehen ist es jetzt bestimmt keine Tragödie - selbst wenn die Karte nicht ganz so schnell ist, wie eine x1900xt. Solange die Spiele im spielbaren Bereich sind, tuts ja noch nicht weh - allerdings würde ich auf NFS-C verzichten.

Gast
2007-01-18, 17:10:04
Kommt auf deinen Schirm an!
Wenn du keinen Widescreen Schirm hast, kannst drauf pfeifen, auch bei 5:4 ists nicht weiter tragisch...Das sehe ich anders. Ich bin mir durchaus bewusst, dass sehr viele Leute nicht einmal sehen, dass ein 4:3-Bild auf einem 5:4-Bildschirm verzerrt ist. Mir aber fällt dies sehr wohl auf und ich empfinde es als nicht akzeptabel. Jeder hat da wohl andere Prioritäten. Du kannst nicht einfach sagen, dass "man drauf pfeifen" kann, da das vielleicht für dich gilt, aber nicht automatisch auch für alle anderen.
allerdings würde ich auf NFS-C verzichten.Warum sollte er auf das Spiel verzichten? Nur, weil es auf der 7950GT langsamer läuft als auf einer vergleichbaren ATI-Karte? Trotzdem kann man das Spiel auf einer GF7 spielen. Ich spiele die Demo sogar auf einer 7800GTX und die ist noch ein ganzes Stück langsamer als eine 7950GT. Lasst doch mal die ganze Panikmache sein.

StefanV
2007-01-18, 17:30:44
Das sehe ich anders. Ich bin mir durchaus bewusst, dass sehr viele Leute nicht einmal sehen, dass ein 4:3-Bild auf einem 5:4-Bildschirm verzerrt ist. Mir aber fällt dies sehr wohl auf und ich empfinde es als nicht akzeptabel. Jeder hat da wohl andere Prioritäten. Du kannst nicht einfach sagen, dass "man drauf pfeifen" kann, da das vielleicht für dich gilt, aber nicht automatisch auch für alle anderen.
Bei einem 20" Schirm (unweit!) kann man in der Tat drauf verzichten, wozu sollt ich die Option haben, wenn die AUflösungen die ich einstellen kann, eh 4:3 sind?!
Lustigerweise haben gerade diese Schirme, wos am egalsten ist, diese Option aber in der Regel, wo mans braucht ists aber selten...

Das es etwas verzerrt ist, ein 4:3 Bild auf einem 5:4 Schirm, das ist richtig es ist aber bei weitem nicht soo schlimm als das man nicht damit leben könnte, unschön ja, tragisch, nein.
Bei Widescreens schauts da schlimmer aus, da ist sowas durchaus tragisch und auch wirklich nicht mehr schön...

Und eben aus dem Grund wird mein nächster Schirm auf jeden Fall ein echter 4:3 Schirm...

Gast
2007-01-18, 17:59:45
Bei einem 20" Schirm (unweit!) kann man in der Tat drauf verzichten, wozu sollt ich die Option haben, wenn die AUflösungen die ich einstellen kann, eh 4:3 sind?!Die 20er sind doch eh alle 4:3. Nur bei den 17 und 19"-TFTs mit 1280x1024 wird 5:4 verwendet.
Das es etwas verzerrt ist, ein 4:3 Bild auf einem 5:4 Schirm, das ist richtig es ist aber bei weitem nicht soo schlimm als das man nicht damit leben könnte, unschön ja, tragisch, nein.Für mich ist es schon tragisch. Aber du hast natürlich nicht ganz unrecht, den meisten Leuten fällt es nichtmal auf, demnach stört es sie auch nicht.

Threadstarter
2007-01-18, 18:10:40
ich wollte wegen der sache mit dem monitor mal fragen was es den gutes bis 400€ gibt was auch zum zocken geeignet ist. ws oder normal ist egal auch bei der größe bin ich für alles offen er sollte zum hallt zum spielen taugen und hochwertig sein ich finde nämlich bei aller hardware sollte man am monitor nicht zu viel sparen. Wie ist das überhaupt mit den panels? (falls das einer erklären kann)

StefanV
2007-01-18, 19:05:29
Die 20er sind doch eh alle 4:3. Nur bei den 17 und 19"-TFTs mit 1280x1024 wird 5:4 verwendet.

16 und 18 Zoll gibts (bzw gabs) auch noch.

Von daher wird andersrum ein Schuh draus:
Nur 15" und 20" sind 4:3...

Für mich ist es schon tragisch. Aber du hast natürlich nicht ganz unrecht, den meisten Leuten fällt es nichtmal auf, demnach stört es sie auch nicht.
Die Frage ist doch, wofür man die Auflösung senken sollte?
Da bleiben doch eigentlich nur Spiele übrig...
Sicher, es ist etwas unschön, (da leicht verzerrt), es hält sich aber durchaus in grenzen.

Besser als 4:3 Inhalte auf 16:10 ists auf alle Fälle :ugly:
(dabei ists irrelevant, ob der Schirm auf 4:3 skaliert oder nicht, scheiße ists auf jeden Fall).

StefanV
2007-01-18, 19:06:34
ich wollte wegen der sache mit dem monitor mal fragen was es den gutes bis 400€ gibt was auch zum zocken geeignet ist. ws oder normal ist egal auch bei der größe bin ich für alles offen er sollte zum hallt zum spielen taugen und hochwertig sein ich finde nämlich bei aller hardware sollte man am monitor nicht zu viel sparen. Wie ist das überhaupt mit den panels? (falls das einer erklären kann)
Weit: der 21" HP, über dens 'nen Artikel im Usertest Forum gibt und der Philips 200W6CS.

Unweit: gute Frage, frag in einer Woche nochmal, dann hoffe ich dir was über einen 200P6IS sagen zu können (oder eben einen Iiyama Schirm, je nach dem was kommt).

aths
2007-01-18, 20:57:07
Aths, Aths, Aths ^^

Wenn mal in einem Spiel was im Argen ist kann man von einem Treiberproblem ausgehen bzw. dieses vermuten....aber wenn bei vielen neuerscheinenden Spielen eine GPU immer weiter hinter eine andere der gleichen Klasse zurückfällt muss man eher davon ausgehen das die GPU Architektur nicht zukunftstauglich ist. Gerade wenn in Treibern nach einer Weile das erst irgendwie hingebastelt werden muss das die GPU nicht soweit zurückfällt ist das immer mehr ein Zeichen dafür das was nicht stimmt. Der G80 ist raus mit völlig neuer Architektur da wird sich NVidia auch immer weniger die Mühe machen es noch irgendwie im Treiber hinzufriemeln. Die Geschichte mit den Treiberproblemen und Optimierungen kenn ich noch von der FX Reihe ^^. Ich bin einfach nicht mehr so blauäugig wie früher.Dann würdest du keine Panikmache bezüglich 7950 GT betreiben.

Wenn der Gamedesigner ein negatives LOD einbezieht und NVidia mittels LOD-Clamp in Richtung positiv verschiebt (in dem Fall auf 0 festsetzt) wird sehr wohl geblurt. Unter Bemühung der Suchfunktion wird man hier einen Thread zu GTL finden wo genau dieses Problem erläutert und die Clamp Funktion mittels Bildern dokumentiert ist.Es ergibt einfach keinen Sinn, erst unscharfe Texturen zu erstellen und dann ein negatives LOD-Bias zu nutzen. Man könnte auch irgendwelche Sonderfälle konstruieren, wo Point Sampling besser aussieht als Texturfilterung.

Also das ist sicherlich Definitionssache wie man sich einen Fehlkauf auslegt.
Ich sehe etwas als Fehlkauf wenn man für gleiches Geld oder weniger ein Produkt bekomme welches deutlich leistungsfähiger ist (>10%) und auch zukünftige Erwartungen vermutlich besser zufriedenstellen können wird.Ob die X1900 in seinen Spielen tatsächlich "deutlich leistungsfähiger" ist und nicht nur bei ein, zwei Ausnahmen, ist doch gar nicht geklärt. Dann wäre noch zu fragen, ob den Threadersteller nur stört, dass die X1900 in Benchmarks schneller ist, oder ob er mit der Gaming-Performance seine Karte unzufrieden ist. Spielt der Threadersteller überhaupt die neuen shaderlastigen Top-Spiele?

Wenn ich mir so einige Ergebnisse anschaue (unter anderem auch in Artikeln von 3DCenter.de nachzulesen), ist es in der Tat so das es für mich wie 5 vor 12 aussieht da die Kluft in letzter Zeit deutlich gewachsen ist. Für dich siehte es so aus, für mich nicht. Wie es kommen wird, werden wir sehen. Dass die X1900 in modernen Spielen in Zukunft die 7900 immer abrulen wird, kann natürlich kommen. Ich gehe jedenfalls davon aus, dass in shaderlastigen Spielen der R580 vom G71 nicht mehr geschlagen werden kann. Man kann mit Recht fragen, ob man bei eineir jetzigen Entscheidung noch eine 7900 nimmt oder lieber die X1900. Man sollte imo aber vorsichtig sein, eine bereits gekaufte 7950 GT gleich als "Fehlkauf" abzutun, nur weil sie nicht mehr Nummer 1 ist (oder, je nach Standpunkt, ohnehin nie war.) In Dingen Stromverbrauch (was der Threadersteller als einen der Kaufgründe angesprochen hatte) steht die Radeon z. B. nicht so gut da. Wie hoch man den Stromverbrauch gewichten will, und ob es bei Highend wirklich eine wichtige Rolle spielen sollte, muss jeder selbst wissen.

Ein wenig kommt mir das so vor, als wenn jemandem der fragt ob sich noch eine PS2 lohnt, eine Xbox empfohlen wird.

Gast
2007-01-19, 08:38:02
ich wollte wegen der sache mit dem monitor mal fragen was es den gutes bis 400€ gibt was auch zum zocken geeignet ist. ws oder normal ist egal auch bei der größe bin ich für alles offen er sollte zum hallt zum spielen taugen und hochwertig sein ich finde nämlich bei aller hardware sollte man am monitor nicht zu viel sparen. Wie ist das überhaupt mit den panels? (falls das einer erklären kann)Wenn du noch ein wenig abwarten und evtl. noch ein wenig Geld drauflegen kannst, gibt es den NEC 20WGX²Pro. Ist ein 20,1"-Widescreen-TFT.

http://geizhals.at/deutschland/a223532.html

Der sollte sehr gut sein, aber eben nicht ganz billig. Hätte ich auch sehr gerne, aber leider habe ich zur Zeit nicht genug Geld.

Odal
2007-01-19, 12:43:31
Ob das nun Sinn oder keinen Sinn ergibt ist doch in diesem Fall völlig wumpe. Es wird nunmal in einigen Spielen gemacht und bei nutzung von Textur-Clamp sind die Texturen geblurrt welche ohne Textur-Clamp flimmern. Wer GTL / GTR / GTR2 / Rfractor usw. spielt und diese Spiele auf NVidia Karten (der alten generation) und ATI Karten gesehen hat sowie mit Textur-Clamp experimentiert hat weiss wovon ich spreche.

[quote]
Ob die X1900 in seinen Spielen tatsächlich "deutlich leistungsfähiger" ist und nicht nur bei ein, zwei Ausnahmen, ist doch gar nicht geklärt. Dann wäre noch zu fragen, ob den Threadersteller nur stört, dass die X1900 in Benchmarks schneller ist, oder ob er mit der Gaming-Performance seine Karte unzufrieden ist. Spielt der Threadersteller überhaupt die neuen shaderlastigen Top-Spiele?

Mensch aths gib doch einfach mal zu das die X1900XT bzgl. Preis, Bildqualität sowie Performance die bessere Karte ist und höchstwahrscheinlich ein besserer Kauf gewesen wäre.
Man kann auch mit der "Gamingperformance" einer 6600GT zufrieden sein....wäre diese für gleichen preis einer X1900XT nicht dennoch ein Fehlkauf?
Ich kann mir natürlich auch eine 250€ Karte kaufen um nur Quake3 und das Ur-Sim City darauf zu spielen und argumentieren das die ja dafür vollkommen ausreicht..^^.


Für dich siehte es so aus, für mich nicht. Wie es kommen wird, werden wir sehen. Dass die X1900 in modernen Spielen in Zukunft die 7900 immer abrulen wird, kann natürlich kommen. Ich gehe jedenfalls davon aus, dass in shaderlastigen Spielen der R580 vom G71 nicht mehr geschlagen werden kann. Man kann mit Recht fragen, ob man bei eineir jetzigen Entscheidung noch eine 7900 nimmt oder lieber die X1900. Man sollte imo aber vorsichtig sein, eine bereits gekaufte 7950 GT gleich als "Fehlkauf" abzutun, nur weil sie nicht mehr Nummer 1 ist (oder, je nach Standpunkt, ohnehin nie war.)


Nun ob man die 7950GT heute oder vor einer Woche gekauft hat ist da recht egal. Die war auch vor einer Woche ein Fehlkauf. Die ganzen Spiele wo die 7950GT gegen die X1900XT so dermassen abloost sind schon seit mehreren Wochen auf dem Markt. Würde es sich um eine zum Launchzeitpunkt gekaufte 7900GTX handeln könnte man argumentieren das man damals noch nicht um leistungsfähigkerit bescheid wusste...aber auch hier würde ich sagen jede gekaufte launchkarte ist ein fehlkauf (ausser man bräuchte ganz dringend eine graka)


In Dingen Stromverbrauch (was der Threadersteller als einen der Kaufgründe angesprochen hatte) steht die Radeon z. B. nicht so gut da. Wie hoch man den Stromverbrauch gewichten will, und ob es bei Highend wirklich eine wichtige Rolle spielen sollte, muss jeder selbst wissen.

Ich habs doch schonmal angeführt...
1. steht nur der unterschiedliche stromverbrauch unter 3D zur diskussion....
2. holt die Stromersparnis unter 3D bei normaler Spielenutzung den Mehrpreis einer 7950GT innerhalb 1-2Jahren nicht ein ^^


Ein wenig kommt mir das so vor, als wenn jemandem der fragt ob sich noch eine PS2 lohnt, eine Xbox empfohlen wird.

Für PS2 und XBox gibts unterschiedliche Spiele.

Gast
2007-01-19, 16:09:38
Ich habs doch schonmal angeführt...
1. steht nur der unterschiedliche stromverbrauch unter 3D zur diskussion....
2. holt die Stromersparnis unter 3D bei normaler Spielenutzung den Mehrpreis einer 7950GT innerhalb 1-2Jahren nicht ein ^^

aber mit dem preis für ein neues nt kommt er nahe rab!

Gast
2007-01-19, 16:17:20
Mensch aths gib doch einfach mal zu das die X1900XT bzgl. Preis, Bildqualität sowie Performance die bessere Karte istWieso sollte er es zugeben, wenn es nicht stimmt? Man kann nicht sagen "Karte A ist besser". Es kommt einfach auf die eigenen Präferenzen an. Für dich mag die Karte besser sein, für jemand anderen ist wieder ganz was anderes optimal. Jede Karte hat ihre Vor- und Nachteile und jeder muss für sich selbst abwägen was ihm wichtiger ist. Du kannst das nicht einfach für alle anderen entscheiden.

StefanV
2007-01-19, 16:48:06
Wieso sollte er es zugeben, wenn es nicht stimmt?
Es stimmt aber!
Es gibt keinerlei verifizierbare Belege, das dem nicht so ist, allein schon aufgrund der Architektur ist es so, das die Rx5x0 den G7x überlegen sind!

Man kann nicht sagen "Karte A ist besser".
In diesem Falle kann mans aber, erst die G8x sind mit den aktuellen Radeon x1000 vergleichbar, was die Performance usw betrifft, die G7x ist weit unterlegen, in eigentlich allen Punkten...

Ok, bei einem SW Entwickler schauts anders, aber das dürft hier wohl eher nicht interessant sein...


Es kommt einfach auf die eigenen Präferenzen an. Für dich mag die Karte besser sein, für jemand anderen ist wieder ganz was anderes optimal.
Und wann soll 'ne G7x besser sein als 'ne vergleichbare AMD Karte?! :|
Mir fällt jetzt nicht soo viel ein, auch keine Argumente, die das belegen würden.
Ok, die Leistungsaufnahme ist etwas geringer aber sonst?!


Jede Karte hat ihre Vor- und Nachteile und jeder muss für sich selbst abwägen was ihm wichtiger ist. Du kannst das nicht einfach für alle anderen entscheiden.
Nur dumm, das die G7x eigentlich nur Nachteile gegenüber den vergleichbaren AMD Karten hat.

Nimm mal das Beispiel der Rennspiele die Odal genannt hat, entweder schauts scheußlich aus oder es ist sau lahm (mit SSAA)...

Gast
2007-01-19, 18:41:50
Man sollte vielleicht nicht erwarten, dass Argumente zählen, wenn es eher um eine Glaubensangelegenheit bei manchen geht ...

Ice-Kraem
2007-03-05, 09:59:03
meine 7950gt ist gestern abgeraucht...knapp halbes jahr alt...*heul*....erst pixelgulasch, neustart und das wars...alte pci graka rein und mein sys läuft wieder...

=Floi=
2008-04-21, 21:36:04
Hallo
ich finde die karte war kein fehlkauf. Sie hat zwar ihre schwächen, aber für die neuen spiele braucht man eh eine neue karte und diese kosten nun auch nicht mehr viel geld. Die karte war für ihre generation schnell und gut für damalige spiele und mehr musste sie ja nicht können. Ein kleines problem ist auch der techlevel, denn nur auf der GF8/9 gibt es AA in bestimmten spielen und performance für neuere games. Ich spiele ja sowieso eher ältere titel mit neueren karten (@aa und full details) und deshalb war und ist die 7950GT noch immer brauchbar für die titel, für die sie gebaut wurde.

Ich denke zukunftssicherheit und eine lebensdauer wie vor 5 jahren gibt es schlicht einfach nicht mehr! Wir müssen von dem gedanken weg, dass sich _nur_ die geschwindigkeit verbessert.


Ich finde den thread gang gut und jetzt nach der langen zeit kann man schon ein klareres resümee ziehen. :)