PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Presse nvidia-fan bzw. längerer marketing-arm


Gast
2004-03-01, 08:30:02
kurze feststellung:

wenn mann jemand eine eigenschaft bestätigt die nicht vorhanden ist spricht mann gelinde gesagt von der unwahrheit.

so geschehen in dem bericht: News des 28./29. Februar 2004


... Beachtenswert ist ansonsten noch der hohe Marktanteil von nVidia im DirectX9 Markt, wo es bis dato nur standalone Desktop-Grafikkarten zu kaufen gibt: Durch den superben Marktanteil von 75 Prozent im Value-Segment, resultierend aus den hochvolumingen Verkäufen der GeForceFX 5200 (und weil ATi bis dato preislich keine DirectX9-Antwort auf diese Karte gefunden hat, was sich aber mit dem RV370-Chip ändern soll) erreicht man im gesamten DirectX9-Markt einen Marktanteil von satten 68 Prozent - der Rest von 25 bzw. 32 Prozent entfällt jeweils auf ATi. Zum Mainstream und HighEnd DirectX9 Segment liegen keine Zahlen vor, aber andere Quellen berichten dort von einem Marktanteil von 60 Prozent für ATi.

1. ist die FX5200 eine DX9-Karte die "kein DX9-FEATURE" in der realität ausführen kann. sie ist vielmehr ein marketing-gag der DX9 als GOODIE auf der verpackung hat.

2. ein freier redakteur hätte demnach die marktanteile von nvidia in diesem bereich als nicht verwertbar bewertet und den DAUSIE aufgeklärt.

memo: wenn ich mir die ganzen beiträge über die FX5200 durchlese von uns, den usern, treffe ich auf zustimmung.

nächstes beispiel:

http://www.hartware.net/review_381_4.html

in diesem testbericht wird wissentlich verschwiegen das alle relevanten features bei der Fx5200 & FX5600 in den erweiterten grafik-eigenschaften unter tomb raider ausgeschaltet sind und alleine aus diesem grund die leistung auf 5fps zusammenbricht.

nächstes beispiel:

GeForce FX5900 XT im FX-Vergleich von Frank Schräer 22.02.2004



Jeder ambitionierte PC-Anwender ist immer mal wieder auf der Suche nach dem ''ultimativen Schnäppchen'' - dem Stück Hardware mit dem besten Preis-/Leistungsverhältnis. In der Vergangenheit waren das bei den Grafikkarten oft die etwas abgespeckten Varianten der absoluten Top-Modelle, wie z.B. die GeForce4 Ti4200, die der damaligen High-End Ti4600 in der Leistung nicht viel nachstand, aber deutlich billiger war. Auch aktuell haben die nVidia-Partner seit kurzer Zeit wieder ein solches ''Schmankerl'' im Angebot, nämlich die GeForce FX5900 XT. Solche Grafikkarten besitzen den gleichen Chip wie z.B. eine GeForce FX5900 Ultra, sind allerdings niedriger getaktet. Das gilt insbesondere für den Speicher, wie der folgenden Tabelle zu entnehmen ist


bitte???

wer sich den bericht durchliest wird feststellen das die erfolgreichste grafikkarten serie GF44200 - 4600 von nvidia in einem satz mit dem FX-DESASTER genannt wird. Die GF4200 hat überhaupt nichts gemeinsam mit der FX-SERIE hat.

wer diese garfikkarte FX5900 als das ultimative Schmankerl benennt zieht sich auch die hose mit der kneifzange an!

meine meinung ist krass aber dafür ist ja so ein spekulationsforum auch gedacht!

was meint ihr ? liege ich falsch ?

Gast
2004-03-01, 09:28:05
<<
1. ist die FX5200 eine DX9-Karte die "kein DX9-FEATURE" in der realität ausführen kann. sie ist vielmehr ein marketing-gag der DX9 als GOODIE auf der verpackung hat.
>>
Sie kann.
Sie kann dies nur nicht vielmehr in deiner "Realität" angemessenen Geschwindigkeit ;)

<<
2. ein freier redakteur hätte demnach die marktanteile von nvidia in diesem bereich als nicht verwertbar bewertet und den DAUSIE aufgeklärt.
>>
Die Marktanteile sind verwertbar. In barer Münze sogar.

<<
in diesem testbericht wird wissentlich verschwiegen das alle relevanten features bei der Fx5200 & FX5600 in den erweiterten grafik-eigenschaften unter tomb raider ausgeschaltet sind und alleine aus diesem grund die leistung auf 5fps zusammenbricht.
>>
Wenn Sie ausgeschaltet sind bricht die Leistung wohl nicht zusammen oder?

<<
wer diese garfikkarte FX5900 als das ultimative Schmankerl benennt zieht sich auch die hose mit der kneifzange an!
>>
Nenn mir Deine Grafikarte die deine ultimative Preis/Leistungskrone erhalten würde.


Du liegst eigentlich nicht falsch. Die FX5200 ist eine Krücke sondergleichen. Aber leider eine gute fürs Geschäft :(

Endorphine
2004-03-01, 09:31:49
Du solltest imho einfach versuchen, die Dinge auch mal aus neutraler Sicht zu betrachten. Wenn man bewusst falsches ("FX5200 ist kein DX9"-Gerede) immer wieder wiederholt wird es dadurch auch nicht richtiger.

Auch wenn du's nicht gern hörst und scheinbar lieber die Augen vor Tatsachen verschliesst: nicht nur ATI stellt interessante Grafikchips her, es gibt auch von nVidia derzeit attraktive Lösungen. Zumal du bei realistischerer Betrachtung der Sache festgestellt hättest, dass der FX5900XT-Artikel viel zu spät kam und dadurch jegliche Relevanz verloren hat, da es in dem Preissegment mittlerweile R9800/Pro gibt.

aths
2004-03-01, 10:30:38
Original geschrieben von Gast
kurze feststellung:

wenn mann jemand eine eigenschaft bestätigt die nicht vorhanden ist spricht mann gelinde gesagt von der unwahrheit.Richtig.

Original geschrieben von Gast
1. ist die FX5200 eine DX9-Karte die "kein DX9-FEATURE" in der realität ausführen kann.Ich habe wiederholt gelesen, dass DX9-Demos auf einer FX5200 hardwarebeschleunigt liefen.

Original geschrieben von Gast
sie ist vielmehr ein marketing-gag der DX9 als GOODIE auf der verpackung hat. Die FX5200 hat die DX9.0-Compliance sogar übererfüllt, während die 9800 XT praktisch nur nie notwendigsten Features bietet.

Original geschrieben von Gast
2. ein freier redakteur hätte demnach die marktanteile von nvidia in diesem bereich als nicht verwertbar bewertet und den DAUSIE aufgeklärt.Du gehst von der Voraussetzung aus, die FX5200 sei keine DX9-Karte. Fakt ist zwar, dass 5200 und 5600 keine für DX9-Spiele taugliche Karte ist, aber gibt es im Grafikbereich nicht mehr Einsatzgebiete, als Computerspiele?

DX9-Compliance verlangt nur bestimmte Features, keine Mindestgeschwindigkeit. Das wird erst ab DX-Next gefordert.

Haarmann
2004-03-01, 10:48:32
Ich glaube ihr wollt nicht verstehen, was er gemeint hat. Bisher ist ja kein Longhorn mit DX9 Oberfläche zu haben und somit kann man DX9 Features nur bei DX9 Spielen nutzen. Die FX 5200 soll nun aber unter DX9 zu langsam sein, als dass die Spiele noch flüssig genug leifen um spielbar zu sein, weswegen man diese DX9 Zusätze in den Spielen abschaltet (sein Exempel war TR). Das heisst, dass man ne Karte hat, die DX9 nicht nutzen kann, weil es keine Anwendung gibt, die man damit betreiben kann und braucbar ähm spielbar bleibt.
Er zählt nun einfach nur Features, die man auch praktisch nutzen kann.

deekey777
2004-03-01, 11:16:37
Die FX5200 hat die DX9.0-Compliance sogar übererfüllt, während die 9800 XT praktisch nur nie notwendigsten Features bietet.

Sag das aber nicht weiter....

Dafür hat eine 9600 Pro weniger Probleme mit Full Precision in HL2 als eine 5900 Ultra. (Wieviele Strafpunkte werde ich dafür wohl kriegen?)
:D

Die FX5600- und FX5200-Modelle werden dagegen durch dieses Spiel bzw. deren Effekte enorm ausgebremst

Hier hat sich Hartware.nät wirklich sehr unglücklich ausgedrückt - eher umgekehrt. Aber es ist eine Tatsache, dass die FX-Serie mit den zusätzlichen Effekten in Tomb Raider: AoD schon einige Probleme hat. Beim Spielen geht es auch um Spielspass, der bei zu vielen Effekten nicht verfügabr ist, da aus dem Spiel eine Diashow wird.
Und die 5900XT ist wirklich ein "Schmankerl" mit einem sehr guten Preis-Leistungsverhältnis - auch nach dem Preissturz der 9800 Pro, da die 5900XT auch biliger wurde und zZ eine sofort lieferbare 9800Pro für weit unter 200€ nicht so einfach zu finden ist - eher für ~210 €.

LovesuckZ
2004-03-01, 11:45:08
Original geschrieben von Gast
kurze feststellung:
wenn mann jemand eine eigenschaft bestätigt die nicht vorhanden ist spricht mann gelinde gesagt von der unwahrheit.

Hm, das bedeute, dass das Gut nicht über die Eigenschaft verfüge. Mal sehen, ob dies auf die 5200 zutreffe.

1. ist die FX5200 eine DX9-Karte die "kein DX9-FEATURE" in der realität ausführen kann.

Ich kenne Seiten, die zeigen, dass die 5200 den Mothernaturetest und den PS2.0 Test des 3DMark2003 ausführt. Dazu kann man mit ihr TR6 im DX9 Pfad spielen. Selbst Halo schließt die 5200 nicht ganz aus.

sie ist vielmehr ein marketing-gag der DX9 als GOODIE auf der verpackung hat.

Goodie? Sowas wie'n T-shirt?

2. ein freier redakteur hätte demnach die marktanteile von nvidia in diesem bereich als nicht verwertbar bewertet und den DAUSIE aufgeklärt.

Falsch. Ein freier Redaktur bewertet diesen markt mit, da er nicht an die eine oder andere Firma gebunden ist. Nur weil du ein hartgesockender Fanatiker seist, muessen das andere noch lange nicht.

memo: wenn ich mir die ganzen beiträge über die FX5200 durchlese von uns, den usern, treffe ich auf zustimmung.

Das ist falsch. Es gibt genauso Leute, die die 5200 als sehr gute Karte für den Preis empfinden. Die, die gegen die 5200 wittern, sind Leute wie du: Fanatiker.

GeForce FX5900 XT im FX-Vergleich von Frank Schräer 22.02.2004
bitte???
wer diese garfikkarte FX5900 als das ultimative Schmankerl benennt zieht sich auch die hose mit der kneifzange an!

Nun, das war klar. wen wunders, ein Fanatiker der nur ATikarten durch seine Brille zieht.
Bist du Stefan payne? Oder Mr.Lolman? Koennte fast hinhauen...

meine meinung ist krass aber dafür ist ja so ein spekulationsforum auch gedacht!


Falsches Forum. Deine Meinung ist Fakt, und aendern wird sie sowieso niemand. Dies gehoere entweder ins Grafikchip- oder ins Trashforum!

aths
2004-03-01, 12:38:36
Original geschrieben von deekey777
Sag das aber nicht weiter....

Dafür hat eine 9600 Pro weniger Probleme mit Full Precision in HL2 als eine 5900 Ultra. (Wieviele Strafpunkte werde ich dafür wohl kriegen?)
:D Als verlängerter Arm von Nvidias Marketing werden wir natürlich dein Posting löschen und dich bannen http://www.aths.net/files/smilies/D.gif

Original geschrieben von Haarmann
Ich glaube ihr wollt nicht verstehen, was er gemeint hat. Bisher ist ja kein Longhorn mit DX9 Oberfläche zu haben und somit kann man DX9 Features nur bei DX9 Spielen nutzen.Es gibt also neben dem noch nicht erschienenem Longhorn nur Spiele, die DirectX9 nutzen?

aths
2004-03-01, 12:41:03
Original geschrieben von LovesuckZ
Das ist falsch. Es gibt genauso Leute, die die 5200 als sehr gute Karte für den Preis empfinden. Die, die gegen die 5200 wittern, sind Leute wie du: Fanatiker.Auf die persönliche Ebene wollen wir uns aber nicht begeben.

LovesuckZ
2004-03-01, 12:48:56
Original geschrieben von aths
Auf die persönliche Ebene wollen wir uns aber nicht begeben.

Warum sei die Bezeichnung "Fanatiker" eine unterer persönliche Ebene?
Ich sehe in diesem Thread keinen Sinn. jemand der so argumentiert (siehe "FX5200 eine DX9-Karte die "kein DX9-FEATURE""), ist nicht mehr als ein Fanatiker. Eine simple Feststellung, so wird mir doch auch von andere (komisch, tat dies genau ein gast im Spielelforum) vorgeworfen, ich waere ein "verbohrter nvdiot".
Ausserdem lieber aths, wenn Nvidiot eine unterer "persönliche Ebene" darstelle, dann tue dies ein "NVidia-Jünger" (jaja, ich sah's gerade) auch. Ansonsten auch alles, was "Nvidiot" und "Fanatiker" umschreibe. Sympathisant (?), Vertreter, Verfechter etc. Willst du jedes dieser Worte in Verbindung mit "Nvidia", "ATi", "Sis" oder einer anderen marke verbieten?

aths
2004-03-01, 13:04:54
LS,

deine Rechtfertigungsversuche kannst du dir sparen. Reden wir bitte über die angesprochenen Produkte, und über die Nutzung von Internet-Medien bzw. der Print-Magazine zur Verbreitung von Marketing-Behauptungen.

Wenn du dich wo ungerecht bezeichnest fühlst, melde das Posting. Wenn du in diesem Thread keinen Sinn siehst, beteilige dich halt nicht an ihm. Es bringt nichts, dem Gegenüber Fanatismus vorzuwerfen.

Ailuros
2004-03-01, 13:05:08
Original geschrieben von LovesuckZ
Warum sei die Bezeichnung "Fanatiker" eine unterer persönliche Ebene?
Ich sehe in diesem Thread keinen Sinn. jemand der so argumentiert (siehe "FX5200 eine DX9-Karte die "kein DX9-FEATURE""), ist nicht mehr als ein Fanatiker. Eine simple Feststellung, so wird mir doch auch von andere (komisch, tat dies genau ein gast im Spielelforum) vorgeworfen, ich waere ein "verbohrter nvdiot".
Ausserdem lieber aths, wenn Nvidiot eine unterer "persönliche Ebene" darstelle, dann tue dies ein "NVidia-Jünger" (jaja, ich sah's gerade) auch. Ansonsten auch alles, was "Nvidiot" und "Fanatiker" umschreibe. Sympathisant (?), Vertreter, Verfechter etc. Willst du jedes dieser Worte in Verbindung mit "Nvidia", "ATi", "Sis" oder einer anderen marke verbieten?

Frage: kann man Dich selber als "objektiver" als andere User hier bezeichnen, Deiner Meinung nach? Wenn nicht dann kommt es zu einem einfachen Oxymoron wenn Du selber andere als "egalwasauchimmer" bezeichnest, selbst indirekt.

Sinn oder Unsinn was ein Thema betrifft; ist etwas anderes. Waere es ein Thema dass ATI "schlecht bekommen" wuerde, waere Deine Reaktion auch um etwa 180 Grad anders mit hoechster Wahrscheinlichkeit.

Fazit: wuerdest Du zumindest versuchen etwas objektiver zu denken und andere nicht sooooo leicht als Fanatiker bezeichnen, wuerdest Du normalerweise auch nicht mit der gleichen Leichtheit mit dem gleichem Zeug "angeklagt".

Nicht unbedingt als Kritik gedacht (bei mir ist jeder frei seine Meinung zu aeussern, welche diese auch immer sei; mit verstaendlichen Grenzen natuerlich); sondern eher wie so manche Reaktion in den Augen anderer aussieht. Natuerlich kann Dir meine persoenliche Meinung auch total egal sein.

deekey777
2004-03-01, 13:06:42
"FX5200 eine DX9-Karte die "kein DX9-FEATURE",

Das ist kein FanATismus, das nennt man "KeineAhnunghaben,wasmansagt". Du widersprichst dir selbst: Deine Sticheleien gegen ATi nerven auch einige, dagegen versuchst du mit allen Mitteln eine andere Firma zu schützen und willst nicht als nVidiot bezeichnet werden. Bleib doch objektiv, du bist doch intelligent genug dafür, oder?

Gast
2004-03-01, 13:07:43
Ich frage mich gerade, wieso immer wieder solche Diskussionen geführt werden.

Ja, diese Art von Grafikkarten ist nicht für aktuelle Spiele geeignet. Aber was solls. Der PC-Kunde stellt nicht zwangsläufig ein Gamer dar.

Und warum über ein Feature herziehen, auch wenn es nicht (beschränkt) einsetzbar ist. Hauptsache es leidet nicht das darunter, was der Kunde wünscht. Dann könnte man sich auch über das Vorhandensein von 6fach AA bei einer Radeon9600 aufregen, weil die Spiele damit als DIA-Show laufen.

Also warum wird der Thread nicht einfach geschlossen. Und wenn der Gast des ersten Posts etwas sinnvolles zur Diskussion stellen möchte, dann in einem neuen Thread.

LovesuckZ
2004-03-01, 13:12:49
Original geschrieben von aths
LS,
deine Rechtfertigungsversuche kannst du dir sparen.

Ich rechtfertige nicht, ich zeige dir nur auf, wie, auch wenn du es jetzt als untere "persönliche Ebene" einstufst, daemmlich es ist, Leuten zu verbieten andere als "Fanatiker" oder "Nvidiots" zu bezeichnen. Als Piffan mich Sucker genannt hat, sah Thowe es als "Verniedlungsform" an. Ich sehe aber immer noch ein Unterschied zwischen "Sucker" und "Nvidiot". Das erste ist eien beleidiung, das zweite wohl eine objektive feststellung. Oder darf ich zu leuten, die zum Beispiel den FC Bayern München ständig verteidigen, nicht sagen, dass diese Anhaenger von diesem verein sind?
genau wie einige hier Fanatiker sind, trotz, dass sie sich "neutral" schimpfen.

[size=1]Reden wir bitte über die angesprochenen Produkte, und über die Nutzung von Internet-Medien bzw. der Print-Magazine zur Verbreitung von Marketing-Behauptungen./Size]

Was willst du darüber diskutieren? Ist dir die starke ATilaestigkeit in diesem Forum noch nicht aufgefallen? Das bashen gegen Karten von nvidia gehoert doch hier seit langem zum guten Ton.
Wir koennen mit der Vorstellung der neuen Karten hier weiter machen, zur Zeit ist es wohl doch nur zeitverschwendung, über "die angesprochenen Produkte" zu reden, da man am gast sieht, wohin dies führe.

/edit:deekey777,
Wer keine Ahnung hat, wird nicht so intensiv hier "motzen", da er kein interesse an diesem Thema hat. Alleine schon die Anschuldigung an den newsschreiber, er sein ein "Presse nvidia-fan bzw. längerer marketing-arm" entbehrt jeder "Ahnungslosigkeit". Alleine sein "was meint ihr ? liege ich falsch?" ist sehr gewagt. Ich schmunzel gerade, man sollte sich dies mal bildlich Vorstellen. Jemand diskutiert mit dir heftig und sagt zum Schluss, ob er denn nicht falsch liege...

Gast
2004-03-01, 13:25:18
Wenn wir also schon OT sind, wollte ich noch sagen, dass ich es nicht schlimm oder zu persönlich finde, wenn man jemanden als FAN (Duden: begeisterter Anhänger) tituliert. Es gibt die verschiedensten Gründe (wobei Gefühle ergo eine stark subjektive Sichtweise wohl der entscheidenste Grund sind) ein FAN von jemand oder etwas zu sein und daran finde ich nichts verwerfliches.

Allerdings ist die Bezeichnung als FanATIker oder Nvidiot schon persönlich, da hier der Poster entweder als blinder, rücksichsloser Eiferer bzw. dummer, schwachsinniger Mensch (Definition des Dudens) dargestellt wird. Was man auch als unterste Ebene bezeichnen könnte.

StefanV
2004-03-01, 13:26:38
Hm, ehrlich gesagt hat der TI irgendwie durchaus Recht, zumindest existiert ein Wahrer Kern in seiner Aussage.

Allerdings hat er es teilweise etwas unglücklich formuliert...

Denn das die FX5200 einige Effekte in einigen Spielen nicht darstellen kann, egal, was der User macht, das ist leider eine Tatsache, wer es nun verbockt hat, kann dem User eigentlich egal sein...
Wobei die Spielehersteller hierbei zwischen 2 Stühlen stehen.

Einerseits ists nicht schön, daß man einige Effekte einigen Karten verwehrt, die es eigentlich ausführen können.
Andererseits brechen einige Karten bei einigen Effekten einiger Spiele auch recht stark ein, so daß es durchaus ratsam sein kann diese Effekte zu deaktivieren...

Wem man einen Strick dreht, das bleibt jedem selbst überlassen...

@LS
Zum Thema Payne und eine FX5200 -> http://forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=128219

Bei mir stapeln sich auch momentan mehr nV Karten als ATI Karten, von daher sehe ich nicht, warum man mich als Fanatic bezeichnen könnte :|
Verrückt, durchgeknallt und Freak lasse ich noch durchgehen und sehe ich auch eigentlich eher als Kompliment, nur mache ich mir auch lieber selbst ein Bild von diversen Teilen...

Von daher möchte ich dich und auch alle anderen bitten, mich nicht als Fanatic oder sonstigen Fanboy zu bezeichnen.

original geschrieben von Lovesux
Ich rechtfertige nicht, ich zeige dir nur auf, wie, auch wenn du es jetzt als untere "persönliche Ebene" einstufst, daemmlich es ist, Leuten zu verbieten andere als "Fanatiker" oder "Nvidiots" zu bezeichnen. Als Piffan mich Sucker genannt hat, sah Thowe es als "Verniedlungsform" an. Ich sehe aber immer noch ein Unterschied zwischen "Sucker" und "Nvidiot". Das erste ist eien beleidiung, das zweite wohl eine objektive feststellung

Öhm, LS, er sagte nicht sucker, er sagte 'Suckie', DAS ist ein Unterschied...

Genauso sehe ich es als Beleidigung an, wenn mich jemand als 'Schmärtz' oder Pain bezeichnet, gegen Paynie hab ich nichts einzuwenden, Paynieleinchen würd ich auch noch akzeptieren...

nVidiot und Fanatiker ist eigentlich immer eine Beleidigung, oder würdest du es als Kompliment ansehen, wenn man dich so bezeichnen würde??

LovesuckZ
2004-03-01, 13:29:00
Original geschrieben von Gast
Allerdings ist die Bezeichnung als FanATIker oder Nvidiot schon persönlich, da hier der Poster entweder als blinder, rücksichsloser Eiferer bzw. dummer, schwachsinniger Mensch (Definition des Dudens) dargestellt wird. Was man auch als unterste Ebene bezeichnen könnte.

Manche (ich schließe mich hier nicht aus) benehmen sich aber so. Es gibt viele Beispiel, da wird am Threadersteller vorgeredet, nur um der einen oder anderen Firma eins reinzuwürgen.
Das schlimmste ist aber, dass einige sich immer noch als "neutral" schimpfen...

Mr. Lolman
2004-03-01, 13:38:57
LS ich glaub du bist paranoid. Wenn ich der Meinung bin, der Welt wieder mal mitteilen zu müssen wie schlecht eigentlich NV ist, und das sowohl ihre HW als auch ihr Potential von den Redakteuren total überschätzt wird, dann mach ich einen neuen Tread auf, OHNE mich davor auszuloggen.

SP wird das wohl auch nicht praktizieren. (in anbetracht seines Postcounters ;))


1. Diskrepanz:

Zu den Onlineredakteueren. In 2 von 3 Reviews werden NVfreundliche Spiele getestet. Obwohls lt. 3DC Forum viel mehr Spiele gibt, die verhältnismässig auf Ati HW besser laufen.


2. Diskrepanz:

Eine FX5900XT ist immernoch p/L King, obwohl sie rohleistungsmässig eher auf der Stufe einer 5800 (9500pro Konkurrent) steht. Die 30€ mehr, die eine 9800pro kostet, sind deutlich weniger als der Mehrwert der Karte ausmacht.


3. Diskrepanz:

Fehlinformationen selbst von renommierte HW Seiten. Digit-life ist der Meinung dass der Onslaught Level im Ut2004 in Singletexutring abläuft. Und das allein deswegen, weil ATi z.T. wiedermal deutlich flotter ist.
Solche Informationsbrocken schnappen sich dann manche auf, und sagen, nönö, kein Wunder das ist ST. Wie sollte da NV schneller sein können? Sobald ein Spiel Lightmaps hat verwendet es automatisch Multitexturing.

Und m.E. haben die Digit-Lifefritzen keine Ahnung von der UT Engine, sonst wüssten sie, dass allein schon das Terrain aus mehreren Layern besteht, was Singletexturing ebenso ausschliesst.

(Ausserdem: Hiess es nicht immer, dass der NV35 sowohl als 4x2, als auch als 8x1 Chip arbeiten könnte?)

Demirug
2004-03-01, 13:45:12
Original geschrieben von Mr. Lolman
Und m.E. haben die Digit-Lifefritzen keine Ahnung von der UT Engine, sonst wüssten sie, dass allein schon das Terrain aus mehreren Layern besteht, was Singletexturing ebenso ausschliesst.

Ja, sind 4 wenn man auch nur 3 davon wirklich sieht.

(Ausserdem: Hiess es nicht immer, dass der NV35 sowohl als 4x2, als auch als 8x1 Chip arbeiten könnte?)

Wer sagt den sowas?

aths
2004-03-01, 13:49:20
Original geschrieben von Mr. Lolman
LS ich glaub du bist paranoid. Auf die persönliche Ebene wollen wir uns aber nicht begeben.

aths
2004-03-01, 13:52:32
Original geschrieben von LovesuckZ
Ich rechtfertige nicht, ich zeige dir nur auf, wie, auch wenn du es jetzt als untere "persönliche Ebene" einstufst, daemmlich es ist, Leuten zu verbieten andere als "Fanatiker" oder "Nvidiots" zu bezeichnen. Als Piffan mich Sucker genannt hat, sah Thowe es als "Verniedlungsform" an.Ich sehe Sucker als beleidigend.
Original geschrieben von LovesuckZ
Was willst du darüber diskutieren? Ist dir die starke ATilaestigkeit in diesem Forum noch nicht aufgefallen? Nein.

Angesichts der guten Produktpalette von ATI finde ich es ganz normal, dass die meisten eine Radeon haben, und diese HW entsprechend weiterempfehlen.
Original geschrieben von LovesuckZ
Das bashen gegen Karten von nvidia gehoert doch hier seit langem zum guten Ton. Während andere auf Radeons rumhacken …

Merkst du was? Wir reden nicht über das Topic. Das sollten wir aber. Du hast entscheidend mit dazu beigetragen, wahrscheinlich weil du den Thread für (Zitat) "sinnlos" hälst. Dann frage ich mich, wieso du hier deine Zeit vergeudest.

Mr. Lolman
2004-03-01, 13:53:46
Original geschrieben von aths
Auf die persönliche Ebene wollen wir uns aber nicht begeben.

o.k. sry :-(

Mr. Lolman
2004-03-01, 13:54:20
Original geschrieben von aths
Ich sehe Sucker als beleidigend.


Er wurde Sucki genannt, nicht Sucker..

aths
2004-03-01, 13:54:37
Original geschrieben von Mr. Lolman
Er wurde Sucki genannt, nicht Sucker.. Sucki würde ich als Verballhornung durchgehen lassen, sofern es wirklich nur sehr selten genutzt wird. Ist die Stimmung ohnehin aufgeheizt, gäbe das Punkte von mir.
Original geschrieben von Mr. Lolman
Eine FX5900XT ist immernoch p/L King, obwohl sie rohleistungsmässig eher auf der Stufe einer 5800 (9500pro Konkurrent) steht. Die 30€ mehr, die eine 9800pro kostet, sind deutlich weniger als der Mehrwert der Karte ausmacht.Dürfte ich zwischen 5900 XT und 9800 Pro wählen, beide zum gleichen Preis, würde ich wahrscheinlich die GeForce nehmen.

LovesuckZ
2004-03-01, 13:58:21
Original geschrieben von Mr. Lolman
1. Diskrepanz:
Eine FX5900XT ist immernoch p/L King, obwohl sie rohleistungsmässig eher auf der Stufe einer 5800 (9500pro Konkurrent) steht. Die 30€ mehr, die eine 9800pro kostet, sind deutlich weniger als der Mehrwert der Karte ausmacht.

Stimmt, eine 9600Xt waere für 30€ weniger besser als eine 5900XT. Andersrum funktioniere dies nicht jedoch nicht.
Das meine ich. Es wird so hingelegt, dass ATi immer besser wegkommt.

Fehlinformationen selbst von renommierte HW Seiten. Digit-life ist der Meinung dass der Onslaught Level im Ut2004 in Singletexutring abläuft. Und das allein deswegen, weil ATi z.T. wiedermal deutlich flotter ist.Solche Informationsbrocken schnappen sich dann manche auf, und sagen, nönö, kein Wunder das ist ST.

Hm Onslaught (http://www.xbitlabs.com/articles/video/display/ut2004_4.html)?!
Was schreibst du zusammen?

Mr. Lolman
2004-03-01, 13:58:32
Original geschrieben von aths
Dürfte ich zwischen 5900 XT und 9800 Pro wählen, beide zum gleichen Preis, würde ich wahrscheinlich die GeForce nehmen.

Wegen dem AF? Weisst du das Ati bis 2xAF besser, bzw deutlich besser filtert? (Lt. Demirugs AF Tester)

http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=128267

aths
2004-03-01, 13:59:33
Original geschrieben von Mr. Lolman
Wegen dem AF? Weisst du das Ati bis 2xAF besser, bzw deutlich besser filtert? (Lt. Demirugs AF Tester)ATI filtert 2x schlechter als GeForce1, 2, 3, 4 oder FX.

Mr. Lolman
2004-03-01, 14:01:06
Original geschrieben von LovesuckZ
Hm Onslaught (http://www.xbitlabs.com/articles/video/display/ut2004_4.html)?!
Was schreibst du zusammen?

Dann wars halt Assault. Noch lächerlicher. Da sieht man sofort, dass das garantiert nicht mit ST realisiert wurde.

Original geschrieben von aths
ATI filtert 2x schlechter als GeForce1, 2, 3, 4 oder FX.

Eben nicht. Vgl. mit 45.23 Detos filtert eine Ati um ~0.5% schlechter. Bei 53.05 steht sie schon besser da... (Oder traust du der Texelanalyze nicht übern weg :grübel: )

LovesuckZ
2004-03-01, 14:02:18
Original geschrieben von Mr. Lolman
Dann wars halt Assault. Noch lächerlicher. Da sieht man sofort, dass das garantiert nicht mit ST realisiert wurde.

Dann erklaere doch bitte die Ergebnisse der 5700U und 5900XT.
Da alles so einfach sei, warte ich.

Mr. Lolman
2004-03-01, 14:04:50
Original geschrieben von LovesuckZ
Dann erklaere doch bitte die Ergebnisse der 5700U und 5900XT.
Da alles so einfach sei, warte ich.

Was soll daran nicht passen? wäre ja nicht das erste mal dass eine FX5700Ultra ca. so schnell wie eine Fx5900Xt ist.

Gastritis
2004-03-01, 14:06:24
Original geschrieben von Mr. Lolman
Eine FX5900XT ist immernoch p/L King, obwohl sie rohleistungsmässig eher auf der Stufe einer 5800 (9500pro Konkurrent) steht. Die 30€ mehr, die eine 9800pro kostet, sind deutlich weniger als der Mehrwert der Karte ausmacht.

Eine 5800 wurde von nVidia als 9500pro Konkurrent ins Rennen geschickt?

Die 5800 hat 400 MHz Speichertakt (4x64 bit?). Die 9500pro hat 270 MHz (2x128 bit?).
Die 9500pro fing preislich bei 220€ an (MediaMarkt). Die 5800 mit 300€ (und das Monate nach der MM-9500pro).

LovesuckZ
2004-03-01, 14:06:52
Original geschrieben von Mr. Lolman
Was soll daran nicht passen? wäre ja nicht das erste mal dass eine FX5700Ultra ca. so schnell wie eine Fx5900Xt ist.

Und wann kann eine 5700U so schnell wie eine 5900XT sein?
Genau, in Singletexturingsituation oder dann, wenn die VS limitieren. Da 2. in UT2004 wohl nicht passiere, sollte die Loesung klar sein.

LovesuckZ
2004-03-01, 14:08:27
Original geschrieben von Gastritis
Eine 5800 wurde von nVidia als 9500pro Konkurrent ins Rennen geschickt?


Nein, wurde sie nicht. Sie ist der Konkurent zur 9700 und wird, bis auf DX9, dies auch gerecht. Am Anfang lag sie aber preislich bei der 9700pro und aufgrund weniger Review's dieser Karte konnte man meinen, sie sei dieser auch gewachsen. unja, irrglaube :)

Gastritis
2004-03-01, 14:08:42
Sorry, meinte natürlich 4x32bit / 2x64bit (naja, ist sowieso alles kalter Kaffee)

Mr. Lolman
2004-03-01, 14:09:02
Nö eher als 9700 nonpro Konkurrent. Ein Ziel was leider nur unter OpenGL (und da auch nicht immer) erreicht wurde. Als dann die Shaderschwäche der NV30 bekannt wurde, konnte man den vergleich mit einer 9500pro schon als wohlwollend sehen. (Beim NV35 ists nicht mehr sooo schlimm)

StefanV
2004-03-01, 14:10:41
Original geschrieben von LovesuckZ
Dann erklaere doch bitte die Ergebnisse der 5700U und 5900XT.
Da alles so einfach sei, warte ich.

Hm, klemmender Texturcache oder irgendwas anderes, was zum Pipelinestall führt.

Oder wie erklärst du dir, daß eine Radeon 9000 PRO teilweise schneller als eine Radeon 8500 ist, selbst bei gleichem Takt??

Eine ST/MT hinkt meist, besonders bei Radeon 8500 <-> 9000 PRO...
Das kann man sich auch nur damit erklären, daß bei der 8500 was nicht so funktioniert, wie es sollte...

Oder aber die FX5900 kann die Bandbreite nicht ganz ausspielen, so daß nur reiner Takt zählt...
Oder irgendwas anderes, was bei der FX5700U besser läuft, funzt auf der FX5900 nicht so ganz...

Die FX5700U läuft ja uach mit ~475/475MHz, die FX5900 'nur' mit ~400/350MHz...
Es kann z.B. auch eine Situation sein, in der die Bandbreite nicht mehr so wirklich wichtig ist und nur noch die Latenz zählt...

Mr. Lolman
2004-03-01, 14:11:09
Original geschrieben von LovesuckZ
Und wann kann eine 5700U so schnell wie eine 5900XT sein?
Genau, in Singletexturingsituation oder dann, wenn die VS limitieren. Da 2. in UT2004 wohl nicht passiere, sollte die Loesung klar sein.

Vielleicht doch. Oder muss ich jetzt mal Bilder von Atis Quality AF bei Assault bringen (Weisst eh, eine bilineare Mipmap und es ist KEIN ST ;))

Original geschrieben von Demirug
Wer sagt den sowas?

Haben das nicht die SPatzen von den Dächern gepfiffen, bis du mal meintest, dass bei der FX nicht mehr von Pipelines in dem Sinn sprechen kann?

Gast
2004-03-01, 14:33:55
Original geschrieben von Mr. Lolman
Nö eher als 9700 nonpro Konkurrent. Ein Ziel was leider nur unter OpenGL (und da auch nicht immer) erreicht wurde. Als dann die Shaderschwäche der NV30 bekannt wurde, konnte man den vergleich mit einer 9500pro schon als wohlwollend sehen. (Beim NV35 ists nicht mehr sooo schlimm)

Die Shader bei 9500pro und 9700 sind genau gleichschnell. Die Karten unterscheiden sich nur beim OnBoard-RAM (128bit vs. 256bit).

aths
2004-03-01, 14:35:10
Original geschrieben von Mr. Lolman
Haben das nicht die SPatzen von den Dächern gepfiffen, bis du mal meintest, dass bei der FX nicht mehr von Pipelines in dem Sinn sprechen kann? NV30 bzw. 35 arbeiten als 4x2 oder 8x0.

NV31, 34 und 36 arbeiten als 4x1* oder 2x2 oder 4x0.

* Afaik Marketingmodus, für Spiele irrelevant.

aths
2004-03-01, 15:37:05
Original geschrieben von Mr. Lolman
Eben nicht. Vgl. mit 45.23 Detos filtert eine Ati um ~0.5% schlechter. Bei 53.05 steht sie schon besser da... (Oder traust du der Texelanalyze nicht übern weg :grübel: )Ich rede beim AF vom A-F. Wenn er bri statt tri filtert, hat das mit der Anisotropie nichts zu tun. Letztlich gibt die Texelanalyse soweit ich weiß "nur" den internen Arbeitsaufwand wieder, und nicht zwangsläufig die Qualität. Müsste Demirug mal was zu sagen.

Demirug
2004-03-01, 15:41:59
Original geschrieben von aths
Ich rede beim AF vom A-F. Wenn er bri statt tri filtert, hat das mit der Anisotropie nichts zu tun. Letztlich gibt die Texelanalyse soweit ich weiß "nur" den internen Arbeitsaufwand wieder, und nicht zwangsläufig die Qualität. Müsste Demirug mal was zu sagen.

Das Teil zählt die Texel die für das gesamte Bild verrechnet werden indem die für jeden einzelnen Pixel verwendeten Texel hochsummiert werden.

Wenn man also definiert das mehr Texel auch mehr Qualität bedeuten wird auch die Qualität gemsssen.

tokugawa
2004-03-01, 15:42:22
Original geschrieben von Gast
1. ist die FX5200 eine DX9-Karte die "kein DX9-FEATURE" in der realität ausführen kann. sie ist vielmehr ein marketing-gag der DX9 als GOODIE auf der verpackung hat.



Ist Blödsinn, natürlich kann sie in der Realität DX9 Features ausführen, hab ich doch selber gemacht!

Ich darf daran erinnern dass Spiele nicht die einzige Anwendungen sind, bei denen Grafikkarten zum Einsatz kommen. Ich verwend einige Anwendungen und auch selbstgeschriebene Tools, die sehr wohl eine FX5200 unter DX9 verwenden. Sind halt keine schnellen "zeitkritischen Echtzeitanwendungen" wie Spiele, aber es ist DX9, es ist eine FX5200, also bist du widerlegt.

Bloß weil dein DX9-Anwendungsprofil so limitiert ist, heißt das doch lange nicht, dass DX9 auf der FX5200 nur ein Papierfeature ist!

aths
2004-03-01, 15:44:01
Original geschrieben von Demirug
Das Teil zählt die Texel die für das gesamte Bild verrechnet werden indem die für jeden einzelnen Pixel verwendeten Texel hochsummiert werden.

Wenn man also definiert das mehr Texel auch mehr Qualität bedeuten wird auch die Qualität gemsssen. Das heißt, bei brilinearer Filterung ist man gegenüber trilinear im Nachteil.

tokugawa
2004-03-01, 15:44:31
Original geschrieben von Haarmann
Ich glaube ihr wollt nicht verstehen, was er gemeint hat. Bisher ist ja kein Longhorn mit DX9 Oberfläche zu haben und somit kann man DX9 Features nur bei DX9 Spielen nutzen. Die FX 5200 soll nun aber unter DX9 zu langsam sein, als dass die Spiele noch flüssig genug leifen um spielbar zu sein, weswegen man diese DX9 Zusätze in den Spielen abschaltet (sein Exempel war TR). Das heisst, dass man ne Karte hat, die DX9 nicht nutzen kann, weil es keine Anwendung gibt, die man damit betreiben kann und braucbar ähm spielbar bleibt.
Er zählt nun einfach nur Features, die man auch praktisch nutzen kann.

Spiele sind nicht die einzigen DX9 Anwendungen!

StefanV
2004-03-01, 16:01:26
Original geschrieben von tokugawa
Spiele sind nicht die einzigen DX9 Anwendungen!

Aber für uns (=die meisten User dieses Forums) schon ;)

Tigerchen
2004-03-01, 16:07:54
Original geschrieben von tokugawa
Spiele sind nicht die einzigen DX9 Anwendungen!

Aber die Häufigsten. Die überwältigende Mehrheit nutzt 3D Beschleuniger nur zum spielen.

aths
2004-03-01, 16:11:35
Original geschrieben von Tigerchen

Aber die Häufigsten. Die überwältigende Mehrheit nutzt 3D Beschleuniger nur zum spielen. Empfiehlt Nvidia die FX 5200 für DX9-Spiele?

Afaik nein.

DX9-Karten sind es trotzdem, oder nicht? Ob jede DX9-Karte für jedes DX9-Spiel geeignet ist, wäre imo eine andere Frage. Mit einer 9200 LE würde ich z. B. nicht unbedingt Morrowind spielen wollen.

Demirug
2004-03-01, 16:35:50
Original geschrieben von aths
Das heißt, bei brilinearer Filterung ist man gegenüber trilinear im Nachteil.

Ja brilinear bringt weniger "Punkte".

Tigerchen
2004-03-01, 16:41:53
Original geschrieben von aths
Empfiehlt Nvidia die FX 5200 für DX9-Spiele?

Afaik nein.

DX9-Karten sind es trotzdem, oder nicht? Ob jede DX9-Karte für jedes DX9-Spiel geeignet ist, wäre imo eine andere Frage. Mit einer 9200 LE würde ich z. B. nicht unbedingt Morrowind spielen wollen.

aths. Wenn ich eins an dir hasse dann ist es deine Polemik.
Wie Haarmann schon bemerkte muß man auch verstehen wollen was dein Gegenüber ausdrücken will.

Gast
2004-03-01, 16:45:42
Original geschrieben von aths
Auf die persönliche Ebene wollen wir uns aber nicht begeben.

Mr. Lolman
2004-03-01, 16:46:31
Original geschrieben von aths
DX9-Karten sind es trotzdem, oder nicht? Ob jede DX9-Karte für jedes DX9-Spiel geeignet ist, wäre imo eine andere Frage. Mit einer 9200 LE würde ich z. B. nicht unbedingt Morrowind spielen wollen.

Eine 9200LE kannst du auch nicht mit einer Fx5200 vergleichen. (soferns keine 64bit ist)

Die einzigen Shader die eine Fx5200 halbwegs flüssig darstellen kann, sind simple Lichteffekte, (diffuse Lighting, oder Per Pixel Enviroment (Bump) Mapping), im Shadermark 2.0. Bei den Enviroment Effekten muss das Licht ausserdem statisch sein, damit die FX5200 mehr als 20 fps erreicht.

Nur zur Info: Meine ATi ist hier mehr als 10x so schnell.

LovesuckZ
2004-03-01, 16:47:37
Original geschrieben von Mr. Lolman
Nur zur Info: Meine ATi ist hier mehr als 10x so schnell.

Deine 9500 ist auch nicht mit einer 5200 vergleichbar (aeh, hast du das selbe nicht mit einer 9200LE gesagt?!)...

Mr. Lolman
2004-03-01, 16:54:05
Original geschrieben von LovesuckZ
Deine 9500 ist auch nicht mit einer 5200 vergleichbar (aeh, hast du das selbe nicht mit einer 9200LE gesagt?!)...

Stimmt. Ich wollte nur die ungefähren Verhältnisse wiedergeben. Denn wenn eine ATi auch nur 50fps hätte, könnte man damit argumentieren, dass die FX Karte aufgrund ihres günstigen Preises auch in der Dx9 Leistung beschnitten wäre. So ists eher ein Goodie, wo man sich freut es zu haben, ohne es wirklich (zu) nutzen (zu können). Ähnlich wie beim Truform mit R3x0 Chips.

LovesuckZ
2004-03-01, 16:58:39
Original geschrieben von Mr. Lolman
Denn wenn eine ATi auch nur 50fps hätte, könnte man damit argumentieren, dass die FX Karte aufgrund ihres günstigen Preises auch in der Dx9 Leistung beschnitten wäre.

Wie kann ein Chip in der DX9 Leistung beschnitten sein? Sei deine 9500 ebenfalls beschnitten, weil eine 9800XT doppelt/dreifach schneller waere?

So ists eher ein Goodie, wo man sich freut es zu haben, ohne es wirklich (zu) nutzen (zu können). Ähnlich wie beim Truform mit R3x0 Chips.

Man kann es nutzen. Mothernature, die Nvidiademos, TR6 (nicht jeder spielt in 1600*1024) usw.
Oder soll ich anfangen und 6AA meiner 9500 kritisieren, weil es zu Leistungsschwach und mit 64MB dies nur bis 1024*768 verwendbar ist?

Mr. Lolman
2004-03-01, 17:06:40
Original geschrieben von LovesuckZ
Wie kann ein Chip in der DX9 Leistung beschnitten sein? Sei deine 9500 ebenfalls beschnitten, weil eine 9800XT doppelt/dreifach schneller waere?


Jo, ein bisschen schon :)


Man kann es nutzen. Mothernature, die Nvidiademos, TR6 (nicht jeder spielt in 1600*1024) usw.

Nur wird jeder mit einer FX5200 froh sein, wenn man die PS im Spiel auch mit 1.1-1.3 laufen lassen kann.


Oder soll ich anfangen und 6AA meiner 9500 kritisieren, weil es zu Leistungsschwach und mit 64MB dies nur bis 1024*768 verwendbar ist?

Kannst du ruhig. Nur verkauft ATi die 9500 nicht als 6xAA Karte. Ich seh schon, die Diskussion führt zu nichts. Einigen wir uns darauf, dass die FX5200 zwar DX9 kann, aber das dieser Umstand nicht gleichbedeutend mit einer Kaufempfehlung ist?


P.S.: Lassen die FX5200 gewisse PS-Funktionen nicht ohnehin von der CPU berechnen? Ich meine da mal was läuten gehört zu haben.

Coda
2004-03-01, 17:08:04
P.S.: Lassen die FX5200 gewisse Funktonien nicht ohnehin von der CPU berechnen. Ich meine da mal was läuten gehört zu haben.

LovesuckZ
2004-03-01, 18:17:43
Original geschrieben von Mr. Lolman
Kannst du ruhig. Nur verkauft ATi die 9500 nicht als 6xAA Karte.

Feature and Benefits

2x/4x/6x Full Scene Anti - Aliasing Modes


ATi's Radeon 9500 [...] New Smartshader 2.0 technology (the best visual effect ever).

Ich seh schon, die Diskussion führt zu nichts. Einigen wir uns darauf, dass die FX5200 zwar DX9 kann, aber das dieser Umstand nicht gleichbedeutend mit einer Kaufempfehlung ist?


Manche meinen, dass 4AA der 9600 waere ein Kaufgrund für diese. Warum ist DX9 dies nun aufeinmal nicht?

aths
2004-03-01, 18:21:52
Original geschrieben von Tigerchen

aths. Wenn ich eins an dir hasse dann ist es deine Polemik.
Wie Haarmann schon bemerkte muß man auch verstehen wollen was dein Gegenüber ausdrücken will.
Das die meisten mit ihrem PC nur spielen, ist doch kein Grund, aus dieser mehrheitlichen Anwendung eine generelle Brauchbarkeit einer Eigenschaft abzuleiten. Mein Hinweis war, dass die FX 5200 gar nicht als Spieler-Karte gedacht ist, deshalb finde ich das Argument, außer Spielchen kennen die meisten nix, etwas seltsam.

aths
2004-03-01, 18:29:45
Original geschrieben von Mr. Lolman
P.S.: Lassen die FX5200 gewisse PS-Funktionen nicht ohnehin von der CPU berechnen? Ich meine da mal was läuten gehört zu haben. Da wüsste ich gerne, wie das gehen soll.

Es gibt Leute, die eine 5200 zum Spielen kaufen. Ebenso, wie andere eine 9600 SE kaufen und denken, damit vernünftig spielen zu können. Sicher kann man auf beiden Karten auch einfache Spiele laufen lassen. Für einen preisgünstigen Komplett-PC ist das gut genug. Wer seine HW bewusst auswählt, und sich vorher informiert, wird sich für Spiele keine 5200 kaufen. So schlecht die DX9-Leistung der 5200 auch ist, eine 9200 hat gar keine DX9-Leistung. Eine 9200 hat in einigen DX7- und DX8-Benchmarks etwas höhere Frameraten als die 5200. Aber kaum Möglichkeiten, Leistung vernünftig in Bildqualität umzusetzen. Imo muss man sich im Gegenzug auch nicht zum verlängerten Arm von ATIs Marketing machen lassen, die vor der DX9-"Bremse" 5200 warnen. Die stänkern deshalb rum, weil sie in diesem Segment noch kein Produkt haben.

Ailuros
2004-03-01, 18:35:45
Da wüsste ich gerne, wie das gehen soll.

Mit vieeeeeeeeeeeeeeeeeeeeeeeel Geduld. Du bist ja jung genug; ein paar graue Haare koennen nicht stoeren :D

Tigerchen
2004-03-01, 18:39:13
Original geschrieben von aths
Das die meisten mit ihrem PC nur spielen, ist doch kein Grund, aus dieser mehrheitlichen Anwendung eine generelle Brauchbarkeit einer Eigenschaft abzuleiten.

Das stimmt schon. Man muß halt wissen was man will. Dann kann auch eine FX5200 eine gute Wahl sein.
Nur für DX9 Spiele ist sie eben nicht die beste Wahl. Wer auf Eye-Candy steht solle durchaus darüber informiert werden daß mit einer FX5200 mitunter weniger geboten wird als bei höherwertigen Karten. Und dies eben trotz des dicken DirectX 9 Aufdrucks auf der Packung! Da darf die Frage wem das eigentlich nützt durchaus gestellt werden.

PS:
Das ATI's LowCost Angebote da auch nicht toll sind steht für mich gar nicht zur Debatte.

deekey777
2004-03-01, 18:53:04
Ihr bekriegt euch gegenseitig und vergesst dabei, dass schon ATi die 5200 als DX9-Decelerator ( guckst du hier! (http://www.de.tomshardware.com/column/20030702/images/press_tour_presentation.zip) ) bezeichnete.

Hat sich der Threadstarter schon mal gemeldet?

LovesuckZ
2004-03-01, 18:56:21
Original geschrieben von deekey777
Ihr bekriegt euch gegenseitig und vergesst dabei, dass schon ATi die 5200 als DX9-Decelerator ( guckst du hier! (http://www.de.tomshardware.com/column/20030702/images/press_tour_presentation.zip) ) bezeichnete.


ATi bezeichnet die 9200 als bessere DX9 Karte :bonk:

deekey777
2004-03-01, 19:00:15
Original geschrieben von LovesuckZ
ATi bezeichnet die 9200 als bessere DX9 Karte :bonk:

Stimmt doch: es ist die bessere DX9 kompatible Grafikkarte. :asshole:

LovesuckZ
2004-03-01, 19:04:14
Original geschrieben von deekey777
Stimmt doch: es ist die bessere DX9 kompatible Grafikkarte. :asshole:

:???:
Das ist auch eine 5200...

Gast
2004-03-01, 19:14:12
diese threads werden doch nur noch jämmerlicher.

Wieso macht ihr so nen Scheiss nicht gleich zu?
Ist doch klar das das im Flamewar endet und am Ende nix bei rumkommt.

Eine FX5200 ist eine Low End Karte, die DX9 in Hardware beherrscht.
Da es eine Low End Karte ist, ist sie auch genau unter diesem Aspekt zu bewerten.

Und die Bewertung ist recht einfach: Sie ist die beste Low End Karte und damit ist das Thema auch erledigt und der Thread kann geschlossen werden.

ATI ist doch selber Schuld, wenn sie dort rumpennen. Das was die anbieten, ist ja noch ne ganze Ecke grauenhafter und von den anderen kleineren Spielern kommt auch nix gescheits.

StefanV
2004-03-01, 19:19:24
Original geschrieben von LovesuckZ
:???:
Das ist auch eine 5200...

...eine GF4 MX440 ebenso...

Denn DX9 kompatibel != DX9 compliant

seahawk
2004-03-01, 21:56:54
Und was soll man dann über ein 64Bit 9600Se sagen ??

Quasar
2004-03-01, 22:03:38
Original geschrieben von Gast
kurze feststellung:
wenn mann jemand eine eigenschaft bestätigt die nicht vorhanden ist spricht mann gelinde gesagt von der unwahrheit.
Ack.

Original geschrieben von Gast
1. ist die FX5200 eine DX9-Karte die "kein DX9-FEATURE" in der realität ausführen kann. sie ist vielmehr ein marketing-gag der DX9 als GOODIE auf der verpackung hat.
Kurzer Umkehrschluß deiner Feststellung:
Wenn jemand eine Eigenschaft, die vorhanden ist, in Abrede stellt, spricht mann gelinde gesagt von der Unwahrheit. =)


Original geschrieben von Gast
was meint ihr ? liege ich falsch ?
Yep, denn meine FX5200 z.B. kann wunderbar schnell und vor allem qualitativ hochwertiger bilinear Filtern, als jede bis dato erschienene Radeon.


Das, was ich eigentlich zu diesem Thread sagen wollte, klingt nach nunmehr etlichen Seiten und einem vielfachen der "etlichen" an Beiträgen hierzu, ein wenig verspätet.
Die Moderation und viele, viele User im Regpflich-Thread von vor ein paar Wochen rieten eines, um mit Gästen, wie dem TI hier umzugehen:
Don't feed the trolls

Und was passiert....? Dumm nur, daß auch Mods und "vernünftige" User hier das Wort ergreifen und eben doch wieder Mitleid haben und die Trolle nicht hungern lassen wollen.

ow
2004-03-01, 22:10:14
*Aus Mitleid mit dem Thread habe ich ihn jetzt geschlossen*

Er ruhe in Frieden.

Leonidas
2004-03-06, 01:20:44
Original geschrieben von Gast
2. ein freier redakteur hätte demnach die marktanteile von nvidia in diesem bereich als nicht verwertbar bewertet und den DAUSIE aufgeklärt.



Das war eine Marktbetrachtung und sollte keine Abrechnung mit der 5200 werden. Punkt.