PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi No. 2; Nvidia No. 3


Gast
2004-01-28, 12:55:06
http://biz.yahoo.com/rc/040127/tech_nvidia_2.html


Data released Monday night by Mercury Research showed Nvidia slipping to third in the graphics market with 24.7 percent share, just behind rival ATI Technologies Inc. (Toronto:ATY.TO - News), which rose to 24.9 percent.


Schaut so aus, als ob ATi jetzt einen geringfügig höheren Marktanteil hat als Nvidia. Sogar die No1. Intel musste Federn lassen.

Ich bin gespannt, ob es sich hierbei nur um eine Eintagsfliege handelt oder ob ATi seine Position noch ausbauen kann.

Mich wundert das Ergebnis außerdem "ein klein wenig", da Nvidia die besseren lowcost-Karten hat (FX5200/-U) im Vergleich zu ATi (R9200). Entweder hilft das Nvidia nicht so viel und die OEM's kaufen trotzdem lieber eine R9200, oder das Lowend-Segment ist wirklich nicht soo groß, wie ATi ja auch schon früher öfters gesagt hat.

LovesuckZ
2004-01-28, 12:56:56
Von Intel schonmal eine Standalone Grafikkarte gekauft?
Mich würden die genaueren zahlen der einzelnen Gebiete interessieren.

Endorphine
2004-01-28, 13:09:13
Original geschrieben von LovesuckZ
Von Intel schonmal eine Standalone Grafikkarte gekauft?
Mich würden die genaueren zahlen der einzelnen Gebiete interessieren. Joa, den i740 "Starfighter" schon vergessen? =)

http://www.intel.com/support/graphics/
Intel740™ graphics accelerator
Intel® Express 3D graphics card
StarFighter™ graphics card
CHIPS Graphics Controllers

Gast
2004-01-28, 13:55:53
... mal abgesehen davon steht's schon im ATi News Thread, so plz close.

Gast
2004-01-28, 14:12:56
Original geschrieben von Gast
http://biz.yahoo.com/rc/040127/tech_nvidia_2.html



Schaut so aus, als ob ATi jetzt einen geringfügig höheren Marktanteil hat als Nvidia. Sogar die No1. Intel musste Federn lassen.

Ich bin gespannt, ob es sich hierbei nur um eine Eintagsfliege handelt oder ob ATi seine Position noch ausbauen kann.

Mich wundert das Ergebnis außerdem "ein klein wenig", da Nvidia die besseren lowcost-Karten hat (FX5200/-U) im Vergleich zu ATi (R9200). Entweder hilft das Nvidia nicht so viel und die OEM's kaufen trotzdem lieber eine R9200, oder das Lowend-Segment ist wirklich nicht soo groß, wie ATi ja auch schon früher öfters gesagt hat.


Hallo Gast,

du liegts völlig falsch.

1. Die FX5200 ist im Vergleich zur Radeon 9200 in DX8.1 -Anwendungen NACHWEISLICH langsamer.

2. Ist sie eine DX9-Mogelpackung und das haben die OEM's ziemlich schnell begriffen. Checka mal die Hotline-Anrufe bei den OEM's bezüglich FX5200 und DX9!

Inquisitor
2004-01-28, 14:14:11
Original geschrieben von Gast
Mich wundert das Ergebnis außerdem "ein klein wenig", da Nvidia die besseren lowcost-Karten hat (FX5200/-U) im Vergleich zu ATi (R9200). Entweder hilft das Nvidia nicht so viel und die OEM's kaufen trotzdem lieber eine R9200, oder das Lowend-Segment ist wirklich nicht soo groß, wie ATi ja auch schon früher öfters gesagt hat.

Der Sieger im Highend verkäuft auch meist mehr im Lowcostbereich! Ist doch klar... Ottonormaluser hört irgendwo, daß ATI momentan die schnellste Karte baut und schon ist für ihn jede Radeon schneller als jede beliebige GeForce...
Deshalb ist es für die Hersteller ja so wichtig, die schnellere Highendkarte zu bauen. Nicht damit diese dann mehr verkauft wird, sondern weil dann im umsatzträchtigen Lowendmarkt besser verkauft wird.

nagus
2004-01-28, 14:22:38
bin gespannt wie sich das heute auf die aktien auswirkt. nvidia hat ja gestern schon arg federn lassen müssen.

aths
2004-01-28, 14:32:46
Original geschrieben von Gast
Hallo Gast,

du liegts völlig falsch.

1. Die FX5200 ist im Vergleich zur Radeon 9200 in DX8.1 -Anwendungen NACHWEISLICH langsamer.Das stimmt, ein wenig langsamer ist sie. (Trotzdem würde ich allein der Technik wegen bei der Wahl zwischen 9200 und 5200 wohl zur 5200 greifen.)
Original geschrieben von Gast
2. Ist sie eine DX9-Mogelpackung Das stimmt nun nicht, DirectX9-Compliance ist erfüllt.

Original geschrieben von Gast
und das haben die OEM's ziemlich schnell begriffen. Checka mal die Hotline-Anrufe bei den OEM's bezüglich FX5200 und DX9!Für das kleine Geld bekommt man natürlich auch nur kleine Leistung.

Gast
2004-01-29, 08:14:55
Original geschrieben von aths
Das stimmt, ein wenig langsamer ist sie. (Trotzdem würde ich allein der Technik wegen bei der Wahl zwischen 9200 und 5200 wohl zur 5200 greifen.)
Das stimmt nun nicht, DirectX9-Compliance ist erfüllt.

Für das kleine Geld bekommt man natürlich auch nur kleine Leistung.

Hi aths,

Das stimmt nun nicht, DirectX9-Compliance ist zwar erfüllt,
aber jedes Spiel (Tomb Raider zB) schaltet alles DX9-relevanten Features ab.

Netto-Leistung bei DX9-Games: 7fps

mapel110
2004-01-29, 08:22:27
Original geschrieben von Gast
Netto-Leistung bei DX9-Games: 7fps

tja, dann musst du dich halt bei der auflösung einschränken. bei 640x480 dürfte es dann sicher einigermassen spielbar sein.
btw ich kann das nächste woche mal testen. ich hab dann meine 5200er. :)

LovesuckZ
2004-01-29, 08:47:02
Wenn wir schon dabei sind, DX9 Mogelpackungen zu enthuellen:
5600XT,5600, 5600U und 5700/U sind ebenfalls wie 9600SE, 9600, 9600pro und 9600XT Mogelpackungen, da sie für DX9 Games (heutige) viel zu langsam sind.
5800/U sind halbe Mogelpackungen, da sie für die haelfte der heutigen DX9 Games reichen.
9700 und 5900/U sind virtel Mogelpackungen, da bis auf TR:6 überall reichen...

x-dragon
2004-01-29, 09:26:51
Original geschrieben von LovesuckZ
Wenn wir schon dabei sind, DX9 Mogelpackungen zu enthuellen:
5600XT,5600 und 5600U sind ebenfalls wie 9600SE, 9600, 9600pro und 9600XT Mogelpackungen, da sie für DX9 Games (heutige) viel zu langsam sind.
5800/U sind halbe Mogelpackungen, da sie für die haelfte der heutigen DX9 Games reichen.
9700 und 5900/U sind virtel Mogelpackungen, da bis auf TR:6 überall reichen... Man kann es auch echt übertreiben. Wenn ich mit meiner 9600 Pro FarCry in 1024er-Auflösung spielen kann mit max. Details (ok bei Schatten nicht), dann ist das für mich garantiert keine Mogelpackung. Ausserdem können Grafikkarten-Hersteller auch nicht Jahre voraus planen was denn da so für Spiele mit welchen Anforderungen entwickelt werden bzw auf dem Markt kommen ...

reunion
2004-01-29, 10:34:55
Original geschrieben von LovesuckZ
Wenn wir schon dabei sind, DX9 Mogelpackungen zu enthuellen:
5600XT,5600 und 5600U sind ebenfalls wie 9600SE, 9600, 9600pro und 9600XT Mogelpackungen, da sie für DX9 Games (heutige) viel zu langsam sind.
5800/U sind halbe Mogelpackungen, da sie für die haelfte der heutigen DX9 Games reichen.
9700 und 5900/U sind virtel Mogelpackungen, da bis auf TR:6 überall reichen...

1.)Mit einer 9700pro kann ich TR:AOD mit 4xAA und 8xAF bei einer Auflösung von 1024x768 mit allen Details absolut flüssig spielen, was daran eine Mogelpackung sein soll vertseh ich nicht?!

2.)Mit einer 9600pro/XT kann man alle zurzeit verfügbaren DX9-Games mit akzeptablen fps und vollen Details spieln(selbst ausprobiert)!

3.)5600/5800/5900 kann ich nicht beurteilen.

4.)Wenn ich vielleicht nur in 800x600 spielen kann oder wenn ich das ein oder andere Detail abschaluten muss, wie z.b. Bei einer 9600SE oder 9600 dann würde ich dass nicht als Mogelpackung bezeichenen, wenn man hingegen nichtmal die möglichkeit hat diese effekte einzuschalten weil es das Spiel garnicht ermöglicht(da die fps sonst hoffnungslos in den Keller gehen würden) dann ist es sehrwohl eine Mogelpackung!

5.)Somit bleibt als einzige Mogelpackung die FX5200 (und 5600?) über!

eXistence
2004-01-29, 11:07:37
die 5200 ist keine Mogelpackung, alle Voraussetzungen für DX9 werden erfüllt, nur ihre Leistung ist letztendlich recht dürftig, weshalb die Karte die features bei aktuellen games nicht wirklich ausspielen kann.
Wer sich darüber aber nicht informiert ist selbst Schuld.

Eine alter Trabbi ist schließlich genauso ein Auto, wie ein Ferrari Enzo =)

aths
2004-01-29, 11:55:12
Original geschrieben von Gast
Hi aths,

Das stimmt nun nicht, DirectX9-Compliance ist zwar erfüllt,
aber jedes Spiel (Tomb Raider zB) schaltet alles DX9-relevanten Features ab.Das liegt an TR.
Original geschrieben von Gast
Netto-Leistung bei DX9-Games: 7fps Microsoft definiert "realtime" als 10 fps in 640x480.

aths
2004-01-29, 11:57:14
Original geschrieben von reunion
5.)Somit bleibt als einzige Mogelpackung die FX5200 (und 5600?) über! Wer mogelt und wo wird gemogelt? Nvidia preist die 5200 nicht als Gamer-HW. Die 5200 wird aufgeführt unter "For the Mainstream/Value User:" Der Mainstream ist sicher nicht der, der DX9-Spiele spielt.

reunion
2004-01-29, 12:03:18
Original geschrieben von aths
Wer mogelt und wo wird gemogelt? Nvidia preist die 5200 nicht als Gamer-HW. Die 5200 wird aufgeführt unter "For the Mainstream/Value User:" Der Mainstream ist sicher nicht der, der DX9-Spiele spielt.

Frage:
Was hab ich davon wenn eine Karte theoretisch DX9 Effekte darstellen könnte, diese aber vom Spiel deaktiviert werden(bzw. das ganze dann unspielbar wird)?

NV bewirbt die FX5200 als DX9 Karte, natürlich kann die Karte DX9, nur hat man davon nichts, wodurch das ganze zu einer Verarschung wird

Exxtreme
2004-01-29, 12:14:14
Original geschrieben von reunion
NV bewirbt die FX5200 als DX9 Karte, natürlich kann die Karte DX9, nur hat man davon nichts, wodurch das ganze zu einer Verarschung wird
Nein es ist keine Verarschung. Und "zu langsam" liegt immer noch im Auge des Betrachters. Vor Gericht könntest du nie durchsetzen, daß NV dich mit der Angabe "DX9" betrügt.

deekey777
2004-01-29, 12:22:12
Zu der Leistung der 5200 habe ich mal in einem anderen Thread folgendes gepostet:"Ich kann es wirklich an die Spitze treiben und zwar mit diesem Satz aus einer ATi-Präsentation:"Beware DX9 Graphics Decelerator!" Oder "FX 5200 users will experience cinematic deceleration trying to execute DX8 and DX9 effects." (Guckst du hier: http://www.tomshardware.de/column/2...resentation.zip ) Die FX5200 ist ein Papiertiger."

Klar, die 5200 ist alles andere als ein schneller DX9-Beschleuniger, aber es ist eine echte DX9-Grafikkarte und dazu noch die meistverkaufte.

ow
2004-01-29, 12:31:11
.

Raff
2004-01-29, 12:34:21
Heißt das nun, dass wir einen neuen Marktführer bei Desktopkarten haben?

MfG,
Raff

AlfredENeumann
2004-01-29, 12:44:31
Original geschrieben von ow
Ist eine 5200 nicht sogar noch schneller als eine Duo Volari V8 Ultra?? :D

*SCNR*

:lol: :lol: :lol:

Quasar
2004-01-29, 12:49:10
Original geschrieben von Raff
Heißt das nun, dass wir einen neuen Marktführer bei Desktopkarten haben?

MfG,
Raff

Lt. der zitierten Studie: Ja. =)

Aber nicht, daß mir jetzt jemand auf die Idee kommt, den _neuen_ Marktführer zu bashen, wie man's mit Marktführern gerne tut.

Gast
2004-01-29, 13:43:05
Original geschrieben von Quasar
Lt. der zitierten Studie: Ja. =)
Aber nicht, daß mir jetzt jemand auf die Idee kommt, den _neuen_ Marktführer zu bashen, wie man's mit Marktführern gerne tut.

Wer hat eigentlich je Intel gebasht?

mapel110
2004-01-29, 14:05:24
Original geschrieben von Gast
Wer hat eigentlich je Intel gebasht?

ehm, die sind mittlerweile alle gebannt worden X-D

ich glaube, quasar meinte eher ATI. ;)

Ailuros
2004-01-29, 14:21:46
Original geschrieben von Gast
Wer hat eigentlich je Intel gebasht?

Ich und schon zwar des oefteren. Wenn Du wie ich verdammt waerst auf dieser bodenlosen Frechheit von integriertem Graphik-chip von Intel bei der Arbeit zu benutzen, dann wuesstest Du auch warum ich mich beschwere.

Das bloede Ding erschien in 2001 und ist auf 24bit begrenzt und noch schlimmer der Desktop wird so langsam mit 24bit dass man es kaum gebrauchen kann. Von hohen Aufloesungen oder 3D kann schon gar nicht die Rede sein.

Dazu hat INTEL die Nerven diesen Mist Extreme Graphiks zu betiteln; INTEL soll gefaellig von jetzt an graphik cores lizenzieren und endlich aufhoeren ihren eigenen Dreck zu entwickeln (was wohl aber leider nicht passieren wird).

Leider ist das dann wieder ein Anzeichen was die Kraft von Marketing anstellen kann.

reunion
2004-01-29, 15:08:05
Original geschrieben von Ailuros
Ich und schon zwar des oefteren. Wenn Du wie ich verdammt waerst auf dieser bodenlosen Frechheit von integriertem Graphik-chip von Intel bei der Arbeit zu benutzen, dann wuesstest Du auch warum ich mich beschwere.

Das bloede Ding erschien in 2001 und ist auf 24bit begrenzt und noch schlimmer der Desktop wird so langsam mit 24bit dass man es kaum gebrauchen kann. Von hohen Aufloesungen oder 3D kann schon gar nicht die Rede sein.

Dazu hat INTEL die Nerven diesen Mist Extreme Graphiks zu betiteln; INTEL soll gefaellig von jetzt an graphik cores lizenzieren und endlich aufhoeren ihren eigenen Dreck zu entwickeln (was wohl aber leider nicht passieren wird).

Leider ist das dann wieder ein Anzeichen was die Kraft von Marketing anstellen kann.

Ich verstehe trozdem nicht wie man mit so einem sh1ce-Chip Marktführer sein kann.

StefanV
2004-01-29, 15:27:49
Original geschrieben von Ailuros
Ich und schon zwar des oefteren. Wenn Du wie ich verdammt waerst auf dieser bodenlosen Frechheit von integriertem Graphik-chip von Intel bei der Arbeit zu benutzen, dann wuesstest Du auch warum ich mich beschwere.

Das bloede Ding erschien in 2001 und ist auf 24bit begrenzt und noch schlimmer der Desktop wird so langsam mit 24bit dass man es kaum gebrauchen kann. Von hohen Aufloesungen oder 3D kann schon gar nicht die Rede sein.

Dazu hat INTEL die Nerven diesen Mist Extreme Graphiks zu betiteln; INTEL soll gefaellig von jetzt an graphik cores lizenzieren und endlich aufhoeren ihren eigenen Dreck zu entwickeln (was wohl aber leider nicht passieren wird).

Leider ist das dann wieder ein Anzeichen was die Kraft von Marketing anstellen kann.

Hm, dann hatte ich wohl mit dem Unichrome des KM400 Glück, denn der ist für meinen Geschmack garnichtmal soo übel...

Aber sind die aktuellen (i865G) Chips von Intel immer noch so übel?!

StefanV
2004-01-29, 15:31:10
Original geschrieben von reunion
Ich verstehe trozdem nicht wie man mit so einem sh1ce-Chip Marktführer sein kann.

Naja, hauptsächlich kommt das vom 'Glauben' der 'ausgezeichneten' Intel Chipsets und der 'sehr guten' Intel Prozessoren...

Ich hoffe mal, daß AMD Rechner sich mehr verbreiten werden als Intel/Intel Rechner, allerdings ist integrierte Grafik auf dem Hammer nicht so einfach, aber das ist Thema eines anderen Fadens ;)

PS: aber eigentlich liegt das meist an den 'Admins', welche für die Einkäufe in den Firmen verantwortlich sind...

Quasar
2004-01-29, 15:42:44
Die Bandbreite von SDR-SDRAM mit 100MHz und DDR-SDRAM mit 200MHz und Dual-Channel ist schon ein ziemlicher Unterschied.

Außerdem sollte man nicht vergessen, für welchen Markt diese "Krücken" entwickelt wurden: Für einen, bei dem Grafik sich auf Word, Excel, Access und ein wenig Internet beschränkt.

Dazu die Kosten, die durch das Weglassen einer Add-on-Karte verringert werden und die Mainboards, bei denen man durch AGP (bzw. den Verzicht darauf) schonmal eine Kosten- und Fehlerquelle einspart.

DrumDub
2004-01-29, 15:54:37
Original geschrieben von Quasar
Außerdem sollte man nicht vergessen, für welchen Markt diese "Krücken" entwickelt wurden: Für einen, bei dem Grafik sich auf Word, Excel, Access und ein wenig Internet beschränkt.

Dazu die Kosten, die durch das Weglassen einer Add-on-Karte verringert werden und die Mainboards, bei denen man durch AGP (bzw. den Verzicht darauf) schonmal eine Kosten- und Fehlerquelle einspart.

schon richtig, aber warum haben die intel-dinger (nicht das der km400 besser wäre) sooo eine schlechte signalqualität, wenn man mit den dingern arbeiten soll? über 1024x768 (kriegt man da ja augenschmerzen...

HajottV
2004-01-29, 16:07:04
Original geschrieben von DrumDub
schon richtig, aber warum haben die intel-dinger (nicht das der km400 besser wäre) sooo eine schlechte signalqualität, wenn man mit den dingern arbeiten soll? über 1024x768 (kriegt man da ja augenschmerzen...

Kann ich nicht bestätigen... die MX 440, die ich in meinem neuen Rechner (auf der Arbeit) habe, hat mit dem gleichen Monitor ein schlechteres Bild als die Intel-onboard-Lösung des alten Rechners. Der Unterschied ist leider deutlich - allerdings ist der Monitor eh schon geburtenregulierend.

Gruß

Jörg

Tigerchen
2004-01-29, 16:07:28
Original geschrieben von Exxtreme
Nein es ist keine Verarschung. Und "zu langsam" liegt immer noch im Auge des Betrachters. Vor Gericht könntest du nie durchsetzen, daß NV dich mit der Angabe "DX9" betrügt.

Vor Gericht wird kein Recht gesprochen sondern nur Urteile gefällt. Mein Urteil in Sachen FX5200 kennt ihr ja schon.;)

aths
2004-01-29, 16:28:39
Original geschrieben von reunion
Frage:
Was hab ich davon wenn eine Karte theoretisch DX9 Effekte darstellen könnte, diese aber vom Spiel deaktiviert werden(bzw. das ganze dann unspielbar wird)?Das liegt am Spiel, nicht wahr? Deaktiviert _jedes_ Spiel DX9-Effekte für die 5200?
Original geschrieben von reunion
NV bewirbt die FX5200 als DX9 Karte, natürlich kann die Karte DX9, nur hat man davon nichts, wodurch das ganze zu einer Verarschung wird "Man" hat davon nichts? Wer entscheidet das? Es gibt z. B. Anwendungen, die nicht auf Echtzeit-Rendering angewiesen sind, wo bereits die FX 5200 Hardware-Beschleunigung um Größenordnungen bietet, verglichen mit SW-Rendering. Wenn ich mich recht entsinne, hat Demirug mal gemessen, dass die 5200 etwa 100x schneller ist als der Refrast.

Ich finde es ein wenig hoch trabend von dir, zu meinen "man hat davon nichts". ATI hat in diesem Segment nichts anzubieten, und man sieht ja, wie die 5200-er weggehen.

Gast
2004-01-29, 16:37:39
Original geschrieben von aths
Das liegt am Spiel, nicht wahr? Deaktiviert _jedes_ Spiel DX9-Effekte für die 5200?
"Man" hat davon nichts? Wer entscheidet das? Es gibt z. B. Anwendungen, die nicht auf Echtzeit-Rendering angewiesen sind, wo bereits die FX 5200 Hardware-Beschleunigung um Größenordnungen bietet, verglichen mit SW-Rendering. Wenn ich mich recht entsinne, hat Demirug mal gemessen, dass die 5200 etwa 100x schneller ist als der Refrast.

Ich finde es ein wenig hoch trabend von dir, zu meinen "man hat davon nichts". ATI hat in diesem Segment nichts anzubieten, und man sieht ja, wie die 5200-er weggehen.

verstehe ich auch nicht so ganz was er da will.
Man kann die FX5200 nicht mit NV36,37, oder RV350,360 vergleichen sondern man muss sie mit dem vergleichen was andere in dem Segment anbieten.
Und ATI bietet dort nur schlechtere Ware an.
Die FX5200 ist der 9200 in jedem Fall vorzuziehen natürlich immer im Vergleich gleicher Modelle also 128 bit vs 128 bit und 64bit vs 64 bit.
Die FX5200 kannst du nur daran messen, was die Konkurenz anbietet und da ist sie locker auf Platz 1.
Mann kann die FX5200 von mir aus niedermachen, wenn andere was deutlich besseres bieten.
Bis heute (bald fast 1 Jahr) ist das nach wie vor nicht der Fall.

Coda
2004-01-29, 16:44:32
Wenn ich mich recht entsinne, hat Demirug mal gemessen, dass die 5200 etwa 100x schneller ist als der Refrast.
Der Refrast ist auch völlig unoptimiert, das Ding ist allein dazu da zu überprüfen ob der Fehler jetzt am Treiber, an der Karte oder an einem selber liegt

Das bloede Ding erschien in 2001 und ist auf 24bit begrenzt
24 bit ist auf dem Desktop kein Nachteil

aths
2004-01-29, 17:31:43
Original geschrieben von Coda
Der Refrast ist auch völlig unoptimiert, das Ding ist allein dazu da zu überprüfen ob der Fehler jetzt am Treiber, an der Karte oder an einem selber liegtJo. SW_2_0 oder SW_2_X wird allerdings die 5200-Performance auch nicht erreichen.

Original geschrieben von Coda
24 bit ist auf dem Desktop kein Nachteil Vom Leistungsaspekt her afaik schon.

DrumDub
2004-01-29, 17:57:02
Original geschrieben von HajottV
Kann ich nicht bestätigen... die MX 440, die ich in meinem neuen Rechner (auf der Arbeit) habe, hat mit dem gleichen Monitor ein schlechteres Bild als die Intel-onboard-Lösung des alten Rechners. Der Unterschied ist leider deutlich - allerdings ist der Monitor eh schon geburtenregulierend.

Gruß

Jörg

na ja, wer die mx 440 als maßstab nimmt. (wobei es da auch gute gab, was aber stark vom hersteller abhing). wenn ich ne intel-onboard mit ner voodoo3 vergleiche, dann sind die dinger müll... natürlich hängt auch teilweise mit dem mainboardherstellern zusammen. dennoch gibts fast kein board mit intel-onboard, das bei 1280x1024 ne gutes bild liefert, von 1600x1200 ganz zu schweigen... lediglich ein board von den 15 boards mit intel-onboard-grafik hat in der aktuellen ct bei 1280x1024 noch die note gut bekommen und fünf haben selbige note immerhin noch bei 1024x768 bekommen... nur der ati 9100igp hat schlechter abgeschinitten (um nicht zu sagen grottenschlecht).

reunion
2004-01-29, 18:12:25
Original geschrieben von aths
Das liegt am Spiel, nicht wahr? Deaktiviert _jedes_ Spiel DX9-Effekte für die 5200?

Hab ich nicht behauptet..
Versteh mich nicht falsch, aber wenn ich eine DX9 Karte besitze und dann nichtmal die möglichkeit habe DX9Effekte zu aktivieren(egal wer jetzt daran schuld ist), dann finde ich dass eine Verarschung.

"Man" hat davon nichts? Wer entscheidet das? Es gibt z. B. Anwendungen, die nicht auf Echtzeit-Rendering angewiesen sind, wo bereits die FX 5200 Hardware-Beschleunigung um Größenordnungen bietet, verglichen mit SW-Rendering. Wenn ich mich recht entsinne, hat Demirug mal gemessen, dass die 5200 etwa 100x schneller ist als der Refrast.

Ich finde es ein wenig hoch trabend von dir, zu meinen "man hat davon nichts". ATI hat in diesem Segment nichts anzubieten, und man sieht ja, wie die 5200-er weggehen.

Warum geht die FX5200 sogut weg?
Weil es die billigste verfügbare DX9-Karte ist.
Nur, wie schon gesagt nützt das meistens nichts...

aths
2004-01-29, 18:25:18
Original geschrieben von reunion
Hab ich nicht behauptet..
Versteh mich nicht falsch, aber wenn ich eine DX9 Karte besitze und dann nichtmal die möglichkeit habe DX9Effekte zu aktivieren(egal wer jetzt daran schuld ist), dann finde ich dass eine Verarschung.Wieso ist es egal, wer daran schuld ist?? Was kann NV dafür, wenn Eidos die 2.0-Shader abschaltet? Vielleicht, weil ihr Produkt für dieses spezielle Spiel zu schwach auf der Brust ist? Behauptet NV denn, dass die FX 5200 eine für TR geeignete Karte ist?

Weil es ein oder zwei Spiele gibt, die die FX 5200 in den DX8-Modus zwingen, verarscht Nvidia die Kunden?? Dieser Logik kann ich ehrlich gesagt nicht ganz folgen.

Die FX 5200 ist keine geeignete Karte für DX9-Spiele, da stimmen wir überein. Aber ich habe noch nichts gesehen, wo NV das behauptet hätte.

Original geschrieben von reunion
Warum geht die FX5200 sogut weg?
Weil es die billigste verfügbare DX9-Karte ist.
Nur, wie schon gesagt nützt das meistens nichts... Warum kaufen sie sie dann, wenn ihnen das nichts nützt? "Verarschung", weil sie DX9-Features nur selten brauchen? Bewirbt ATI die Radeon 9600 nicht auch mit 6x MSAA und 16x (hust) AF? Kann man damit TR mit 6x/16x AA/AF spielen?

Tigerchen
2004-01-29, 18:39:59
Original geschrieben von reunion
Hab ich nicht behauptet..
Versteh mich nicht falsch, aber wenn ich eine DX9 Karte besitze und dann nichtmal die möglichkeit habe DX9Effekte zu aktivieren(egal wer jetzt daran schuld ist), dann finde ich dass eine Verarschung.


Warum geht die FX5200 sogut weg?
Weil es die billigste verfügbare DX9-Karte ist.
Nur, wie schon gesagt nützt das meistens nichts...

Gibs auf. aths will dich nicht verstehen.

Gast
2004-01-29, 19:31:23
Original geschrieben von aths
Wieso ist es egal, wer daran schuld ist?? Was kann NV dafür, wenn Eidos die 2.0-Shader abschaltet? Vielleicht, weil ihr Produkt für dieses spezielle Spiel zu schwach auf der Brust ist? Behauptet NV denn, dass die FX 5200 eine für TR geeignete Karte ist?

Weil es ein oder zwei Spiele gibt, die die FX 5200 in den DX8-Modus zwingen, verarscht Nvidia die Kunden?? Dieser Logik kann ich ehrlich gesagt nicht ganz folgen.

Die FX 5200 ist keine geeignete Karte für DX9-Spiele, da stimmen wir überein. Aber ich habe noch nichts gesehen, wo NV das behauptet hätte.




wenn sich die kunden bei den pc-verkäufern masssivst beschweren warum ihre dx9 spiele unspielbar sind und sich beschweren (mir fällt spontan die aldi notebook werbung mit dem fx5200go für flüssiges zocken mit kantenglättung ;D )....dann wird das zuerst ein nerviges problem für die komplett pc anbieter (kunden verärgern -> kunden wandern ab) und dadruch für nvidia ein problem durch verärgerte komplett pc anbieter...

reunion
2004-01-29, 19:34:28
Original geschrieben von aths
Warum kaufen sie sie dann, wenn ihnen das nichts nützt?

Weil viele nichtmal wissen dass die FX5200 z.b.: viel langsamer ist als eine G4 Ti 4200-4600.
Und weil z.B.: Medion dann auf den auch so tollen High-End PC ein DX9 Logo kleben kann ;)

"Verarschung", weil sie DX9-Features nur selten brauchen?

Nein, sondern weil man sie (teilweise) nichtmal aktivieren kann!

Bewirbt ATI die Radeon 9600 nicht auch mit 6x MSAA und 16x (hust) AF? Kann man damit TR mit 6x/16x AA/AF spielen?

Genau das ist der Punkt!
Ja, man kann TR mit 6xAA/16xAF spielen, zwar nicht flüssig, aber man kann!

/Edit: Ich glaube ich beende mit dem post diese Diskussion, da es wohl zu nichts anderen führet als :dpuke:
Also, nichts für ungut. =)

Um wieder zum Thema zurückzukommen:


Grafikmarkt 2003 Q1 Q2 Q3 Q4
Intel 27% 32% 35% 31,7%
ATI 20% 21% 22% 24,9%
nVidia 31% 27% 25% 24,7%


Intel und ATI konnten also über das ganze Jahr gesehen jeweils um fast 5% zulegen, während nVidia mehr als 6% eingebüßt hat.

zeckensack
2004-01-29, 19:45:34
http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/011421.html

Originally posted by Corrail:
I had a similar situation:

Coded a ~10 pass bump mapping demo using Texture Environments

Coded the same bump mapping demo with only one pass using ARB_fp

The first version was about two times faster on a FX5200.

Aquaschaf
2004-01-29, 19:52:37
Original geschrieben von reunion
Genau das ist der Punkt!
Ja, man kann TR mit 6xAA/16xAF spielen, zwar nicht flüssig, aber man kann!


Dann mecker gefälligst mit den Spieleherstellern ;)

Gast
2004-01-29, 19:58:46
Original geschrieben von Gast
wenn sich die kunden bei den pc-verkäufern masssivst beschweren warum ihre dx9 spiele unspielbar sind und sich beschweren (mir fällt spontan die aldi notebook werbung mit dem fx5200go für flüssiges zocken mit kantenglättung ;D )....dann wird das zuerst ein nerviges problem für die komplett pc anbieter (kunden verärgern -> kunden wandern ab) und dadruch für nvidia ein problem durch verärgerte komplett pc anbieter...

Gut gebrüllt, Löwe, aber bist du sicher, daß das nicht dieses Notebook (http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/43785&words=Aldi%20Notebook) war?

Ich war noch so erstaunt, daß da bei einem Notebook zum erstenmal mit Kantenglättung geworben wurde (zumindest soweit ich das sah) und dann der integrierte Chipsatz von ATI.

;Q

aths
2004-01-29, 21:01:18
Original geschrieben von Gast
wenn sich die kunden bei den pc-verkäufern masssivst beschweren warum ihre dx9 spiele unspielbar sind und sich beschweren... haben sie sich die falsche Karte zum Zocken gekauft. Wer auf Sprüche à la "Herausragende Spiele-Performance" hereinfällt, die allerdings nicht von NV stammen, hat Pech. In der Werbung wird selbst eine TNT2 M64 noch zur High-End-3D-Karte, bzw. bei einer GF2 MX-200 die "Hochleistung Anti-Aliasing"-Engine beworben.

Original geschrieben von Gast
(mir fällt spontan die aldi notebook werbung mit dem fx5200go für flüssiges zocken mit kantenglättung ;D )Wurde auch versprochen, dass die modernsten Spiele mit Kantenglättung noch flüssig sind? Hat Aldi oder NV diese Notebook-Werbung getextet? Ich würde mich freuen, wenn die "wahren Schuldigen" benannt würden, anstatt pauschal auf NV rumgehackt wird. So wie die OEMs denen den NV34 aus den Händen reißen, kann NV mit dem Chip nicht allzu viel falsch gemacht haben.

Hätte ATI in diesem Segment was anzubieten, wäre NV gezwungen, nachzulegen.

Original geschrieben von Gast
....dann wird das zuerst ein nerviges problem für die komplett pc anbieter (kunden verärgern -> kunden wandern ab) und dadruch für nvidia ein problem durch verärgerte komplett pc anbieter... NV baut, was der OEM-Markt verlangt. Siehe FX 5200 mit 64 Bit. Da wird noch der letzte Cent gespart. Die Komplett-Anbieter bzw. viele Graka-Hersteller wollen es so.

aths
2004-01-29, 21:08:28
Original geschrieben von reunion
Weil viele nichtmal wissen dass die FX5200 z.b.: viel langsamer ist als eine G4 Ti 4200-4600. Erinnert mich an ATIs Radeon 9000 bzw. 9200 ... oder auch 9800 SE.

Wer seine Graka bewusst wählt, sollte schnell in Erfahrung bringen, was zu was gut ist. Beispielsweise empfiehlt NV zum Spielen noch GF4 Ti (an letzter Stelle.) Jedoch keine FX 5200.

Original geschrieben von reunion
Und weil z.B.: Medion dann auf den auch so tollen High-End PC ein DX9 Logo kleben kann ;)Deshalb ordert Medion (von MSI oder wem auch immer) 5200-er, und der Graka-Hersteller ordert von NV den NV34. Wenn ein High-End-PC mit 'ner 5200 bestückt wird, wer verarscht da wen? Medion den Kunden.

Original geschrieben von reunion
Nein, sondern weil man sie (teilweise) nichtmal aktivieren kann!An wem liegt das?

In welchem Kontext bewirbt NV die FX 5200? "The GeForce FX 5200 GPUs deliver best-in class performance and features at a great price. [...] The only DirectX 9 compatible GPUs in their class, the 5200 models are engineered for compatibility with the latest gaming and multimedia software."

Das ist das Problem: Die 5200 ist die einzige in ihrer Klasse. ATI bietet da gar nix an. Da kann NV leicht zurecht behaupten, es würde die beste "in class performance" geboten. Und kompatibel mit "the latest gaming software" ist die 5200 auch. Ob die Software das nutzt oder nicht, ist eine andere Frage.

Original geschrieben von reunion
Genau das ist der Punkt!
Ja, man kann TR mit 6xAA/16xAF spielen, zwar nicht flüssig, aber man kann! Toll. Man kann mit einer FX 5200 Dusk in 1600x1200 mit FSAA und AA rendern. Nicht flüssig, aber es geht ... biegt man den PCI-Identifier um, kann man die FX 5200 auch als FX 5800 "erkennen lassen". Vielleicht ließe sich TR dann täuschen. Wäre mit PS_2_0 nicht flüssig, aber es ginge... toll! Hätte ATI ein DX9-Value-Produkt, gäbe es in diesem Bereich vielleicht Konkurrenz, und die IHVs würden sich anstrengen, dem Anwender etwas mehr Performance zu gönnen. So lange das nicht der Fall ist, kann NV diesen extrem kastrierten Chip in rauen Mengen verkaufen. So lange NV den NV34 nicht als Spieler-Chip vermarktet, kann man denen schwerlich einen Vorwurf machen, sie würden den Kunden verarschen. Nirgendwo steht geschrieben, dass das Vorhandensein von DX9-Shadern auf Grafik-Power schließen lässt. Darauf mögen wohl einige Board-Hersteller spekulieren, welche die 5200 mit bis zu 256 MB ausstatten. Solche Tricks beschränken sich allerdings nicht auf NV-Chips.

Der GF4 MX wurde vorgeworfen (auch von mir) nur DX7-Technik zu bieten. Die 5200 bietet vergleichbare Leistung, und DX9-Technik. Einige haben natürlich noch immer was zu meckern.

Für dich ist die 5200 keine Karte, die in Frage kommt. Für mich auch nicht. Der "normale" Kunde verlangt von einer Grafikkarte viel onboard-RAM und ein hohes Tech-Level. Viel kosten darf das Ding aber nicht. NV hat genau den Chip gebaut, der diese Bedingungen erfüllt. Das erkennt sogar ATI an, die ja nicht umsonst so vor der 5200-er warnen. (Sicher nicht, um aufzuklären, sondern um die Kunden-Aufmerksamkeit auf die eigenen Produkte zu lenken.)

Piffan
2004-01-29, 21:57:06
Nun hört mal auf, auf Medion rumzuhacken. Wenn ich erinnern darf: Im letzten Medion war ne 9800 XT, läuft mit 350 Mhz. Im vorletzten Medion war ne Gf4 Ti 4200 ( oder war es ne verkappte 9500 pro?) Jedenfalls waren in den letzten drei Auflagen gute Gamerkarten und nicht son Schund wie in den Vobis- oder Media- Mark- Krücken...

Der Zynismus von aths erinnert mich fatal an Richthofen: Weil es sich gut verkauft, ist es ok. Der dumme Endkunde ist doch selber schuld.
Mal Klartext: NV baut die DX9- Funktionen nur ein, damit die Komplett- Pc- Hersteller die Kunden hinters Licht führen können.

edit: Ich beziehe mich auf die 5200. Ist sicher ne überdurchschnittliche Office- Karte mit der Möglichkeit, in geringen Auflösungen auch mal ein Spielchen zu wagen, aber für dx9- Games ist sie definitiv zu schwach..

Wolfram
2004-01-29, 21:58:13
Original geschrieben von aths
Der "normale" Kunde verlangt von einer Grafikkarte viel onboard-RAM und ein hohes Tech-Level. Viel kosten darf das Ding aber nicht.
Das verlangt der Kunde aber nur, weil ihm das Marketing das suggeriert hat. Der normale Kunde interessiert sich nicht für Technik. Er weiß aber, daß 256 größer als 64 ist. Und wenn ihm jemand erzählt, daß die Speichergröße wichtig ist (und nicht, sagen wir, die Interfacebreite), dann wird er auf diese Zahl gucken. Die in der Werbung auch genannt wird. Dem Kunden kann man da keinen Vorwurf machen. Daß er lieber billig als teuer kauft, ist normal. Verarschung ist, wenn ihm jemand erzählt, daß nicht alles seinen Preis hat.

Wolfram
2004-01-29, 22:02:30
Original geschrieben von Piffan
Mal Klartext: NV baut die DX9- Funktionen nur ein, damit die Komplett- Pc- Hersteller die Kunden hinters Licht führen können.
Das sieht nur so aus wie die Frage nach der Henne und dem Ei. Tatsächlich wird´s doch eher so sein, daß die Handelskette das ordert, was am Markt da ist und paßt. Und nicht so, daß ein Grafikkartenhersteller das baut, was der Handel gut verkaufen kann. Denn gut verkaufen kann Aldi- seien wir ehrlich- doch eh alles :D

LovesuckZ
2004-01-29, 22:03:38
Original geschrieben von Piffan
edit: Ich beziehe mich auf die 5200. Ist sicher ne überdurchschnittliche Office- Karte mit der Möglichkeit, in geringen Auflösungen auch mal ein Spielchen zu wagen, aber für dx9- Games ist sie definitiv zu schwach..

Für DX9 Games ist auch eine 5600/5700/9600 etc. zu schwach. Warum wird dann dort nicht drauf rumgehackt (siehe Halo, TR:6, FarCry im inneren)?

/Sarkasmus
Manchmal denke ich, schalten einige ihr denkendes etwa aus nur um einen Grund zu haben auf die Karten von nvidia rumzubashen...

aths
2004-01-29, 22:11:30
Original geschrieben von Piffan
Nun hört mal auf, auf Medion rumzuhacken. Wenn ich erinnern darf: Im letzten Medion war ne 9800 XT, läuft mit 350 Mhz. Im vorletzten Medion war ne Gf4 Ti 4200 ( oder war es ne verkappte 9500 pro?) Jedenfalls waren in den letzten drei Auflagen gute Gamerkarten und nicht son Schund wie in den Vobis- oder Media- Mark- Krücken...

Der Zynismus von aths erinnert mich fatal an Richthofen: Weil es sich gut verkauft, ist es ok. Der dumme Endkunde ist doch selber schuld.Schuld woran? "Der Kunde" scheint im Großen und Ganzen zufrieden. Ansonsten hätte sich wahrscheinlich schon rumgesprochen, dass die 5200 nix taugt, und würde sich nicht mehr so verkaufen.
Original geschrieben von Piffan
Mal Klartext: NV baut die DX9- Funktionen nur ein, damit die Komplett- Pc- Hersteller die Kunden hinters Licht führen können.Genau. NVs Kunden sind die Grafikboard-Hersteller. Was die wollen, versucht NV zu liefern. Wie auch ATI.
Original geschrieben von Piffan
edit: Ich beziehe mich auf die 5200. Ist sicher ne überdurchschnittliche Office- Karte mit der Möglichkeit, in geringen Auflösungen auch mal ein Spielchen zu wagen, aber für dx9- Games ist sie definitiv zu schwach.. Richtig. NV selbst vermarktet NV34 aber auch nicht als Chip für DX9-Spiele, sondern ab NV36, NV35 und 38.

Vermutlich hat NV darauf spekuliert, dass es den Boardherstellern gelingt, NV34 auch an Spieler zu verkaufen. So bundelte ja Elsa z. B. eine GF2 MX 200 (also die mit 64 Bit Interface) mit einem Joystick. So, als ob die MX 200 jetzt ein tolles Upgrade für Spieler wäre. Solche Strategien sind im Kapitalismus aber normal, und auch ATI anzulasten. Verwerflich finde ich Treiber-Cheating und bestimmte Marketing-Formulierungen. Den NV34 finde ich zwar für mich nicht gut, aber letztlich hilft er von allen DX9-Chips am stärksten, die DX9-Basis zu verbreitern.

aths
2004-01-29, 22:18:00
Original geschrieben von Wolfram
Das verlangt der Kunde aber nur, weil ihm das Marketing das suggeriert hat. Das sehe ich auch so.
Original geschrieben von Wolfram
Der normale Kunde interessiert sich nicht für Technik. Japp. Also lässt er die Marketing-Spezialisten für sich denken. Das ist aber ein generelles Problem.

Beispiel: Bestimmte Einsteiger-Teleskope von "Meade". Schwache Leistung, mäßige Optik — aber mit Computer-Steuerung, um automatisch alle möglichen Himmelsobjekte anzufahren (von denen viele gar nicht, die meisten nur sehr schlech gesehen werden können.)

Was meinst du, an wie viele Astronomie-Einsteiger Meade etwas verkauft ... in fast allen Branchen lassen sich vergleichbare Beispiele finden. Ich finde NVs Marketing im Vergleich mit anderen GPU-IHVs gar nicht mal sonderlich dreist.
Original geschrieben von Wolfram
Er weiß aber, daß 256 größer als 64 ist. Und wenn ihm jemand erzählt, daß die Speichergröße wichtig ist (und nicht, sagen wir, die Interfacebreite), dann wird er auf diese Zahl gucken. Die in der Werbung auch genannt wird. Dass die RAM-Größe "das" Maß für Grafik-Leistung sei, wird seit Jahren geglaubt. Von ATI gab es z. B. Rage-Versionen mit 16 MB RAM. 16 MB klang damals nach megageiler Spiele-Hardware. Wie man weiß, ist Rage 3D-mäßig ziemlich unbrauchbarer Schrott. Auch von halbwegs gebildeten Technikern (die nun nicht gerade Graka-"Spezialisten" sind) hört man immer wieder, dass sie ihre Graka aufgrund der Speichergröße gewählt haben.

Original geschrieben von Wolfram
Dem Kunden kann man da keinen Vorwurf machen. Imo teilweise schon. Wer vernünftige HW will, sollte sich vernünftig informieren. Und nicht später die Hotline belästigen :)

Original geschrieben von Wolfram
Verarschung ist, wenn ihm jemand erzählt, daß nicht alles seinen Preis hat. Wenn der Trick klappt, leistungsmäßig sehr schwache DX9-HW als endgeiles Produkt zu verkaufen, und der Kunde angesichts des Preises nicht nachdenklich wird, hat er imo selbst schuld. Wenn er einfach nur 'ne Graka mit den oben genannten Punkten will, müsste er mit einer 5200 hingegen glücklich werden.

StefanV
2004-01-29, 22:20:16
Original geschrieben von Piffan
Nun hört mal auf, auf Medion rumzuhacken. Wenn ich erinnern darf: Im letzten Medion war ne 9800 XT, läuft mit 350 Mhz. Im vorletzten Medion war ne Gf4 Ti 4200 ( oder war es ne verkappte 9500 pro?) Jedenfalls waren in den letzten drei Auflagen gute Gamerkarten und nicht son Schund wie in den Vobis- oder Media- Mark- Krücken...


letzter: 9800 PRO
vorletzter: umgelabelte 9500 PRO mit TSOP RAM
davor: GF4 TI4200 mit ~225/225MHz ;)

PS: soo übel sind die ALDI Rechner auch nicht, nur eigentlich wird da mit der Keule eingedroschen so a la: och haun wir mal alles rein, irgendwer wirds schon brauchen.

Gast
2004-01-29, 22:29:32
Liebe Leute,

hört auf euch zu streiten!

NV hat einfach mehr Geld auf den Tisch gelegt um den Deal zu bekommen.

Glaubt Ihr irgendeinen einen PC-Hersteller ist es wichtig welche GRAKA drin ist. Wichtig ist wieviel Geld dazu auf den Tisch gelegt wird.

Das die FX5200 die reinste DX9-Verarschung ist wohl jedem klar. Dem Hersteller ist es völlig EGAL solange GEFORCE drauf steht ist doch alles in Butter...........

Wolfram
2004-01-29, 22:31:13
aths, mit dem sich-kundig-machen ist das so eine Sache. Astronomie ist ja schon ein recht spezielles Hobby. Einen Spiele-Computer oder eine Stereoanlage kauft aber "jeder".

Und die meisten Leute haben eben keine Lust und Zeit, so viel Zeit wie wir am Computer zu verbringen und sich mit Speicher-Interface-Breiten und ähnlichem zu befassen. Oder mit Lautsprecherverkabelung oder Vierventiltechnik oder Videorecorderprogrammierung. Kann ich verstehen.

Piffan
2004-01-29, 22:38:00
Original geschrieben von Stefan Payne
letzter: 9800 PRO
vorletzter: umgelabelte 9500 PRO mit TSOP RAM
davor: GF4 TI4200 mit ~225/225MHz ;)

PS: soo übel sind die ALDI Rechner auch nicht, nur eigentlich wird da mit der Keule eingedroschen so a la: och haun wir mal alles rein, irgendwer wirds schon brauchen.

Auch wenn leicht OT ist: Aber gerade das zeichnet doch den PC aus: Die Universal- Maschine schlechthin. Mit dem letzten Modell kann man wirklich alles machen, was Heute möglich ist. Die c't hat in der letzten Ausgabe mal PCs getestet, die man als Multimedia- Center anbietet. Der Medion überragte die Mitbewerber extrem...Die Spiele- Peformance ist super, Videoaufnahmen, Schnitt und Rendern kein Problem....Was ist falsch, mal ein echtes Komplett- System mit der neuesten Prozessor- Technologie und allem Schisslaweng anzubieten? Solange die großen PC- Anbieter die Leute veräppeln, indem sie stärkste Prozis mit lahmen Grafikkarten kombinieren, werden die Aldis weggehen wie warme Semmeln....

edit: die vorletzte c't war es...

aths
2004-01-29, 22:39:45
Hi Wolfram, ich antworte mal "von hinten" :D

Original geschrieben von Wolfram
Und die meisten Leute haben eben keine Lust und Zeit, so viel Zeit wie wir am Computer zu verbringen und sich mit Speicher-Interface-Breiten und ähnlichem zu befassen. Oder mit Lautsprecherverkabelung oder Vierventiltechnik oder Videorecorderprogrammierung. Kann ich verstehen. Ich auch :) Aber was nun? Sollen ATI und NV ihre Produkte so benennen, dass der Käufer sofort sieht, was besser ist als was? Das wäre wünschenswert. Das bringt bei mir auch Punkte. ATIs Radeon 9000-9200, Nvidias GF4 MX etc. sind so Schoten, wo sie bei mir viel Kredit verspielt haben; ganz unabhängig ob die anderen Produkte gut sind oder nicht. Sollten die VGA-Boardhersteller eine Kampagne starten, um den Kunden aufzuklären, dass Speicher-Bandbreite in der Regel viel wichtiger ist, als die RAM-Menge? Was würdest du tun? Ich würde versuchen, das zu bauen, was der Normalkunde will.

Original geschrieben von Wolfram
aths, mit dem sich-kundig-machen ist das so eine Sache. Astronomie ist ja schon ein recht spezielles Hobby. Einen Spiele-Computer oder eine Stereoanlage kauft aber "jeder". Wer 1000 € oder mehr für einen Computer ausgibt, der kann auch 5 € für ein vernünftiges PC-Magazin ausgeben, wo er erfährt, ob die Komponenten was taugen. Wer eine teure Stereo-Anlage kauft, kann vielleicht probehören. Wer einen vorgefertigten Computer als Katze im Sack kauft, ohne die Konfiguration probezuspielen, tut das auf seine Verantwortung.

Gast
2004-01-29, 22:40:03
Original geschrieben von Gast
Gut gebrüllt, Löwe, aber bist du sicher, daß das nicht dieses Notebook (http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/43785&words=Aldi%20Notebook) war?

Ich war noch so erstaunt, daß da bei einem Notebook zum erstenmal mit Kantenglättung geworben wurde (zumindest soweit ich das sah) und dann der integrierte Chipsatz von ATI.

;Q

da liegst du falsch...mit super geschwindigkeit mit kantenglättung warb letztes jahr schon ein aldi notebook mit 5200go chip ;D

Wolfram
2004-01-29, 22:46:15
Original geschrieben von aths
Wer 1000 € oder mehr für einen Computer ausgibt, der kann auch 5 € für ein vernünftiges PC-Magazin ausgeben, wo er erfährt, ob die Komponenten was taugen. Wer eine teure Stereo-Anlage kauft, kann vielleicht probehören. Wer einen vorgefertigten Computer als Katze im Sack kauft, ohne die Konfiguration probezuspielen, tut das auf seine Verantwortung.
Das stimmt. Muß zugeben, daß mich das Beispiel mit der Stereoanlage trifft... weil ich den Leuten sonst immer vorwerfe, daß sie nicht (ausreichend) probehören! :D

Probespielen wär also gut. Kann man nur bei Aldi nicht, oder?

Was die "Marketinglügen" angeht: Klar kann man keinem vorwerfen, daß er verkauft, was der Kunde will. Hier sieht man aber IMO auch, daß das Thema für irgendwelche Fanboy-Kriege nichts hergibt... weil sich die entscheidenden Sachen zwischen Händler und Endkunde abspielen.

Piffan
2004-01-29, 22:52:42
Original geschrieben von Wolfram
Das stimmt. Muß zugeben, daß mich das Beispiel mit der Stereoanlage trifft... weil ich den Leuten sonst immer vorwerfe, daß sie nicht (ausreichend) probehören! :D

Probespielen wär also gut. Kann man nur bei Aldi nicht, oder?

Was die "Marketinglügen" angeht: Klar kann man keinem vorwerfen, daß er verkauft, was der Kunde will. Hier sieht man aber IMO auch, daß das Thema für irgendwelche Fanboy-Kriege nichts hergibt... weil sich die entscheidenden Sachen zwischen Händler und Endkunde abspielen.

Doch, man kann bei Aldi probespielen! Aldi nimmt alles zurück, was nicht gefällt! Und das ist absolut ernst gemeint. Habs schon mehrfach getestet...

1. Monitor. Absolut unscharf, ne schlimme Gurke. Am nächsten Tag hatte ich die Wahl, ob Geld oder anderer Monitor. Habe mich für den Monitor entschieden und es nicht bereut.

2. Letze Digital- Camera: Gekauft, einen Tag getestet und dann weggebracht, weil a) die nominelle Auflösug nix mit der "gefühlten" zu tun hatte und dann kein Weißabgleich...

3. Wireless- Lan für USB gekauft. Hatte gedacht, dass das System von Fujitsu- Siemens ist (absolut gleiches Gehäuse), hatte dann aber keinen Druckerport. Und wech damit.. :D

zeckensack
2004-01-29, 23:58:10
Original geschrieben von aths
Dass die RAM-Größe "das" Maß für Grafik-Leistung sei, wird seit Jahren geglaubt. Von ATI gab es z. B. Rage-Versionen mit 16 MB RAM. 16 MB klang damals nach megageiler Spiele-Hardware. Wie man weiß, ist Rage 3D-mäßig ziemlich unbrauchbarer Schrott. Auch von halbwegs gebildeten Technikern (die nun nicht gerade Graka-"Spezialisten" sind) hört man immer wieder, dass sie ihre Graka aufgrund der Speichergröße gewählt haben.Ich glaube zu wissen, woran das liegt: Spielekartons :)

*wahllosinsregalgreif*

Warcraft 3:
"Required: <...> 8 MB 3D video card <...>"
"Recommended: <...> 32 MB 3D video card <...>"

Wizardry 8:
"Minimum Spec: <...> 3D accelerator card with minimum 8 MB texture memory <...>"

Etherlords:
"Minimal: <...> DirectX 7.0 kompatible Sound- und Grafikkarte (AGP, Direct3D kompatibel, 8 MB RAM) <...>"
"Empfohlen: <...> DirectX 8.0 kompatible Sound- und Grafikkarte (4xAGP, Direct3D kompatibel, 32 MB RAM) <...>"

NOLF2:
"Minimum: <...> Video: 32 MB Direct3D compatible Hardware T&L video card with 32-bit color support <...>"
"Recommended: <...> Video: 64 MB Direct3D compatible Hardware T&L video card with 32-bit color support <...>"


Irgendwann hatte das auch mal einen Sinn, denn die Speichermenge hat irgendwann, ganz früher, zumindest Rückschlüsse auf die Generation zugelassen. Es gab keine Riva 128 mit 16MB! "16MB 3D-Beschleuniger" war für die Publisher schlicht die kürzeste, unverbindlichste Art, der werten Kundschaft klarzumachen, dass sie mindestens eine RivaTNT, oder Voodoo 3, oder Savage 4 brauchen.

Heutzutage, wo die IHVs jeweils mehrere Segmente bedienen, und die AIBs zusätzlich noch die Kunden mit exorbitanten Kombinationen verarschen (9600SE 256MB ahoi!), ist das natürlich komplett sinnentleert und doof. Darüberhinaus ist das aktuelle Oligopol viel überschaubarer als 'damals', als zeitweise acht Hersteller gleichzeitig 3D-Chips anboten (dh nicht nur ankündigen, sondern die gab's tatsächlich zu kaufen). Das ist ein Grund für diese Angabe, der momentan einfach nicht mehr gegeben ist.

Positiv-Beispiele will ich auch noch bringen.
Serios Sam:
"Minimale Systemanforderungen: <...> OPENGL-kompatible Grafikkarte <...>"
"Empfohlene Systemanforderungen: <...> NVidia GeForce Grafikkarte oder TNT 2, Power VR Kyro, S3 Savage 2000, 3DFX Voodoo 3, ATI Rage Pro <...>"

Morrowind:
zwar "Minimum system requirements: <...> 32MB Direct3D Compatible video card and DirectX8.1 compatible driver <...>"
aber
"Recommended: <...> NVIDIA Geforce2 GTS, or ATI Radeon 7500 or faster video card <...>"

Btw, die Karton-Beschriftung wird anscheinend bei den meisten Publishern in Kinderarbeit erstellt. Haarsträubend ...

][immy
2004-01-30, 01:24:25
Original geschrieben von zeckensack
Ich glaube zu wissen, woran das liegt: Spielekartons :)

*wahllosinsregalgreif*

Warcraft 3:
"Required: <...> 8 MB 3D video card <...>"
"Recommended: <...> 32 MB 3D video card <...>"


da erhebe ich einspruch
bei mir steht druf (DVD hülle UK-Version):
unter minimum:
8 MB 3D video card (TNT, i810, Voodoo 3, Rage 128, equivalent or better) with DirectX 8.1 support

unter recommended:
nunja.. da hatteste recht gehabt. aber hier sollte wohl jeder schon sehen, das es trotzdem minimal eine der oben genannten bzw (da eh nicht mit 32 mb verfügbar) eine bessere sein sollte.

nunja.. wollte des nur korrigieren :P ;)


zum eigendlichen thema
ich find es recht gut das ATi jetzt mehr marktanteile hat. wird zwar wahrscheinlich nicht so bleiben, aber das ist auch gut so. konkurenz belebt das geschäft, und solang sich nvidia und ati gegenseitig hochpuschen (und nvidia wird höchstwahrscheinlich bei so einer "abwertung" einen "gegenangriff" starten, was auch ATi wiederum dazu bringt zu handeln) soll es mir recht sein bzw auch dem otto-normalverbraucher

und um auf den streit 5200er-streit zu kommen
es ist seit eh und je normal das der kunde vom hersteller der chips, als auch vom publisher (media markt, medion usw) "betrogen" wird. wobei er noch nicht mals wirklich betrogen wird. in der heutigen zeit hat jeder die möglichkeit sich besser zu informieren. sei es das internet oder zeitschriften oder ähnliches

da könnte man jetzt aber genausogut noch auf intel herumreiten da sie dem kunden verkaufen wollen, das MHz = geschwindigkeit ist und dies auch viele hersteller ausnutzen. aber langsam spricht sich ja rum (was wohl auch AMDs PR zu verdanken ist) das die konkurenzchips von AMD doch sogar schneller oder zumindest in etwa gleichwertig sind. Wobei sich das 64 hinter dem Athlon auch wieder gut verkauft (obwohl der prozessor derzeit ansich ausschließlich in 32 bit genutzt wird, aber trotzdem isser da schon verdammt schnell). aber desto schneller sich eine solche technologie verbreitet, desto eher kann sie genutzt werden, also kann man es der marketing-industrie noch nichtmals wirklich übel nehmen.

die 5200er ist im grunde fähig DirectX 9 effekte zu berechnen (das ist fakt). bei welcher geschwindigkeit spielt dabei erstmal keine rolle.
das gute an der karte ist, das sie dabei hilft Dirctx 9 durchzusetzen, wobei auch immer das hintertürchen zu directx 8 offengehalten wird, da sie für 9 eindeutig zu langsam ist.


noch ne kleine anmerkung zu medion:
gerade medion hat sich in der hinsicht doch ziemlich gebessert (es gab schließlich mal so nen aldi-pc mit Riva ZX karte und sobald man nen ramchip auf board zusätzlich pflanzte ging gar nix mehr, das das netzteil dann überlastet war, aber von sowas ist heute eigendlich nichts mehr zu sehen)



das unfaire an der statistik ist ansich, es wird nicht gezeigt, welche grafikkarten auch wirklich genutzt werden, denn da wäre intel sicherlich etwas weiter hinten, da nicht jeder die onboard-grafik nutzt, sie aber trotzdem in die statistik mit einfliest

aths
2004-01-30, 03:12:55
Original geschrieben von zeckensack
Ich glaube zu wissen, woran das liegt: Spielekartons :)Das interpretiere ich etwas anders. Eigentlich gibt es doch keine Grafikkarte auf DX7-Level, die nicht mindestens 32 MB hat, oder? Schreiben die "32 MB 3D-Grafikkarte" meinen sie damit DirectX7.

9600 SE oder FX 5200 / 5600 mit 256 MB RAM sind natürlich Humbug. Andererseits las ich irgendwann mal in diesem Forum (in Bezug auf die 5600) dass eine 256-MB-Karte ein Traum wäre. Imo sitzt diese Geilheit nach viel RAM tiefer.

Kyro-1 wurde zuletzt auch mit 64 MB vertrieben, wenn mich nicht alles täuscht.

GeForce3 Ti 200 und Ti 500 starteten mit 64 MB, die Ti 200 wurde dann mit 128 MB in Massen abgesetzt. Wohl nicht zuletzt, weil 128 MB damals noch nicht jeder hatte.

BUG
2004-01-30, 03:32:45
..ich hatte ne Hercules/Guillemot Geforce 256 SE 16MB SD-RAM. ;)

cu
BUG

MadManniMan
2004-01-30, 04:01:38
Original geschrieben von ow
Ist eine 5200 nicht sogar noch schneller als eine Duo Volari V8 Ultra?? :D

*SCNR*

Der droben verlinkte i740 ist wohl mit der 400Oy Lösung von XGI zu vergleichen. Der 5200 ist bekanntermaßen schneller, als ein i740. Also ist deine Aussage korrekt.


*eg*


Zum Thema 5200:
Na und? Und wenn DX9 draufsteht: es sollte auffallen, daß es von "nVidia" auch andere, teurere(!) Karten mit höheren(!) Zahlen gibt. Also ein Mindestmaß an Hirn sollte man schon bei Leuten vorraussetzen, die fähig sind, ein Telefontastenfeld zu bedienen.

Ailuros
2004-01-30, 04:27:03
24 bit ist auf dem Desktop kein Nachteil.

Komischerweise sehe ich selbst da viel zu viel banding. Der Qualitaetsunterschied zwischen 16 und 24bpp auf dem Desktop ist eher klein und der groesste Nachteil ist die Leistung mit 24bpp. Das ist fuer mich Nachteil genug; ich hab Kopfschmerzen nach ein paar Minuten webpage scrolling nicht unbedingt gerne.

Eine alte Voodoo3 ist nicht nur schneller in 2D als der chip in Frage, man kann die Qualitaet auch schlecht vergleichen (und ja es gab Zeiten wo der V3 Treiber 16,24 und 32bit fuer 2D unterstuetze).

Ich mach es noch genauer: nein 24bit fuer 2D ist kein Nachteil; Nachteil ist mit einem INTEL chip arbeiten zu muessen. :D

Ailuros
2004-01-30, 05:06:18
Zum Thema 5200 oder ganz genauer die gesamte NV3x Linie; es wird wohl nicht sehr lange dauern bis die gesamte Produkt-Linie von NVIDIA selber "verdammt" wird.

Sooo sinnvoll sind jegliche Meinungsverschiedenheiten darueber; ueberhaupt wenn man sich weigert Marketing-Geblubber von jeglicher Realitaet zu unterscheiden.

Zum Thema dx9.0 generell: interessant fuer Entwickler und fuer Futuremark-Bench-Freaks; wieso ich jetzt ploetzlich aus meinen Socken fliegen sollte ueber ein paar bekloppte dx9.0 Effekte in einer handvoll von Spielen die sowieso nichts wert sind IMO, ist mir fremd.

Aber ich gehoere sowieso wohl zu den paar Verrueckten die Sachen anders sehen; es gibt wohl keine wirkliche Erklaerung warum ich sonst genauso viel Spass heute habe ein paar Runden Underground oder sogar Dethkarz zu spielen. Teufel ich brauch gutes gameplay in Spielen und nicht bekloppte dx9.0 Spiegelungen an irgendeinem Rohr oder in ner Pfuetze.

Von Seiten NVIDIA war es zweifelslos ein kluger Schachzug mit dx9.0 in den Value Markt einzusteigen (noch mehr wenn man an die vorigen dx7.0/GF4 MX Modelle denkt), aber es ist und verbleibt fuer mich nichts anderes als eine Marketing-Wendung um den R300-Schaden in 2003 zu kompensieren. Und nochmal dieser Schachzug war und ist sehr erfolgreich und ich kann ihn nur applaudieren von der Marketing-Perspektive her.

Sonst wenn es unbedingt Value sein muesste, dann wuerde ich natuerlich eine 5200/128bit von einer 9200/128bit bevorzugen.

Ailuros
2004-01-30, 05:57:02
Nachtrag fuer INTEL:

http://www.extremetech.com/article2/0,3973,1133106,00.asp

Und mal hier halt machen:

http://www.extremetech.com/article2/0,3973,1153842,00.asp

Intel 865G:

http://common.ziffdavisinternet.com/util_get_image/2/0,3363,sz=1&i=25454,00.jpg

ATI R9100 IGP:

http://common.ziffdavisinternet.com/util_get_image/2/0,3363,sz=1&i=25455,00.jpg

Extreme Graphics Sollutions/Xtreme Graphics Innovations? :D

SKYNET
2004-01-30, 09:48:42
Original geschrieben von Ailuros
Nachtrag fuer INTEL:

http://www.extremetech.com/article2/0,3973,1133106,00.asp

Und mal hier halt machen:

http://www.extremetech.com/article2/0,3973,1153842,00.asp

Intel 865G:

http://common.ziffdavisinternet.com/util_get_image/2/0,3363,sz=1&i=25454,00.jpg

ATI R9100 IGP:

http://common.ziffdavisinternet.com/util_get_image/2/0,3363,sz=1&i=25455,00.jpg

Extreme Graphics Sollutions/Xtreme Graphics Innovations? :D


mhh, schön, mip-map wohl auf 5+ ;D

wie wir es halt von intel gewohnt sind... viel hui hui aber qualität = nada

eXistence
2004-01-30, 10:24:26
Original geschrieben von Ailuros
Zum Thema dx9.0 generell: interessant fuer Entwickler und fuer Futuremark-Bench-Freaks; wieso ich jetzt ploetzlich aus meinen Socken fliegen sollte ueber ein paar bekloppte dx9.0 Effekte in einer handvoll von Spielen die sowieso nichts wert sind IMO, ist mir fremd.

Aber ich gehoere sowieso wohl zu den paar Verrueckten die Sachen anders sehen; es gibt wohl keine wirkliche Erklaerung warum ich sonst genauso viel Spass heute habe ein paar Runden Underground oder sogar Dethkarz zu spielen. Teufel ich brauch gutes gameplay in Spielen und nicht bekloppte dx9.0 Spiegelungen an irgendeinem Rohr oder in ner Pfuetze.


:up:
Seh ich ganz genauso :)

eXistence

btw:
aus heutiger Sicht können die ersten DX7-Karten (Geforce1+2) die echten DX7-Games auch nicht flüssig darstellen. Die Games, die DX7 wirklich ausnutzen (und nicht nur ein paar gammelige Effekte drin haben), sind erst in den letzten 12 Monaten erschienen.

Gast
2004-01-30, 10:48:18
Original geschrieben von Ailuros

Von Seiten NVIDIA war es zweifelslos ein kluger Schachzug mit dx9.0 in den Value Markt einzusteigen (noch mehr wenn man an die vorigen dx7.0/GF4 MX Modelle denkt), aber es ist und verbleibt fuer mich nichts anderes als eine Marketing-Wendung um den R300-Schaden in 2003 zu kompensieren. Und nochmal dieser Schachzug war und ist sehr erfolgreich und ich kann ihn nur applaudieren von der Marketing-Perspektive her.

Sonst wenn es unbedingt Value sein muesste, dann wuerde ich natuerlich eine 5200/128bit von einer 9200/128bit bevorzugen.

Dieser Schachzug hat nv doch an den Abgrund gebracht an dem sie heute stehen. DX9 als Marketing-Waffe zu verwenden ist genau in's Gegenteil gegangen.

Wo glaubt Ihr denn INFORMIEREN sich die Hardware-Einkäufer!!!

NA HIER ! und bei TOMSHARDWARE !

eXistence
2004-01-30, 11:03:46
Original geschrieben von Gast
Wo glaubt Ihr denn INFORMIEREN sich die Hardware-Einkäufer!!!

NA HIER ! und bei TOMSHARDWARE !

Nein, eben nicht.
Klar, Leute wie du und ich, die sich für Computer wirklich interessieren, die erkundigen sich vorher auf einschlägigen Sites, aber wir sind auch nicht die Zielgruppe für die 5200.
Die große Menge der PC-Käufer will "einfach nen PC kaufen", die interessieren sich nicht so für die technische Details und Unterschiede.
Wenn dann draufsteht "neueste DirectX 9 - Technologie", dann tut das schon seine Wirkung. Wie schon gesagt wurde, marketing-technisch war die 5200 ein kluger Schachzug.

Riptor
2004-01-30, 11:08:30
Original geschrieben von Gast
Dieser Schachzug hat nv doch an den Abgrund gebracht an dem sie heute stehen. DX9 als Marketing-Waffe zu verwenden ist genau in's Gegenteil gegangen.

1. sprechen da alle Fakten dagegen und 2., wenn du meinst, nVidia stehe am "Abgrund", dann weißt du nicht wirklich, wie es tatsächlich ausschaut... :naughty:

Wo glaubt Ihr denn INFORMIEREN sich die Hardware-Einkäufer!!! NA HIER ! und bei TOMSHARDWARE !

Die meisten Hardware-Käufer lassen sich immer noch im Laden informieren und beraten, das sollte bekannt sein. Desweiteren: Wer sich mit PCs nicht auskennt, der greift auch zu einer, warum sollte er auch nicht?

Gast
2004-01-30, 11:28:21
Original geschrieben von Gast
verstehe ich auch nicht so ganz was er da will.
Man kann die FX5200 nicht mit NV36,37, oder RV350,360 vergleichen sondern man muss sie mit dem vergleichen was andere in dem Segment anbieten.
Und ATI bietet dort nur schlechtere Ware an.
Die FX5200 ist der 9200 in jedem Fall vorzuziehen natürlich immer im Vergleich gleicher Modelle also 128 bit vs 128 bit und 64bit vs 64 bit.
Die FX5200 kannst du nur daran messen, was die Konkurenz anbietet und da ist sie locker auf Platz 1.
Mann kann die FX5200 von mir aus niedermachen, wenn andere was deutlich besseres bieten.
Bis heute (bald fast 1 Jahr) ist das nach wie vor nicht der Fall.

Hi

Also als schlechter Ware würde ich die ATi 9200 nicht gerade nennen.
Den mit PS1.4 wie es auch bei TR der Fall ist, fährt die Karte der 5200er um die Ohren.
Die Shaderleistung der 9200er ist im Vergleich "besser".

In meine Augen sind beide Karten auf den gleichen Level.
Bei der 5200er bringt DX9 nichts weil die Performance zu schwach ist.
Die 9200er hat kein DX9 dafür aber "besseren" Dx8.1 support. Betreff Ps 1.4

Im Grunde genommen sind beide "Bürokarten" mit dennen man sehr wohl auch mit moderaten Auflösungen zocken kann.

Mit ein bischen ocen ist auch mehr drin.

Gruss Labberlippe

Gast
2004-01-30, 11:32:53
Original geschrieben von Gast
wenn sich die kunden bei den pc-verkäufern masssivst beschweren warum ihre dx9 spiele unspielbar sind und sich beschweren (mir fällt spontan die aldi notebook werbung mit dem fx5200go für flüssiges zocken mit kantenglättung ;D )....dann wird das zuerst ein nerviges problem für die komplett pc anbieter (kunden verärgern -> kunden wandern ab) und dadruch für nvidia ein problem durch verärgerte komplett pc anbieter...

Hi

Der Verkäufer hat seinen Job zum machen und den Kunden darauf hinzuweisen das diese Karte zum Zocken "ungeeignet" ist.

Wenn der Verkäufer schlau ist bietet er eine andere Graka an und kann nebenbei noch mehr Umsatz machen.

Einige Kunden sind durchaus bereit auch beim PC von der Stange gleich eine andere komponente mitzukaufen.

Geht nicht, gibts nicht.

Gruss Labberlippe

Gast
2004-01-30, 11:33:22
Original geschrieben von Riptor
1. sprechen da alle Fakten dagegen und 2., wenn du meinst, nVidia stehe am "Abgrund", dann weißt du nicht wirklich, wie es tatsächlich ausschaut... :naughty:



Die meisten Hardware-Käufer lassen sich immer noch im Laden informieren und beraten, das sollte bekannt sein. Desweiteren: Wer sich mit PCs nicht auskennt, der greift auch zu einer, warum sollte er auch nicht?

Hallooooooooooooooo!!!

ich spreche von Einkäufern !!!! die Mengen für Ihre PC-Produktion einkaufen !!! Wer lesen kann ist immer im Vorteil.

Ailuros
2004-01-30, 11:35:35
Original geschrieben von Gast
Dieser Schachzug hat nv doch an den Abgrund gebracht an dem sie heute stehen. DX9 als Marketing-Waffe zu verwenden ist genau in's Gegenteil gegangen.

Wo glaubt Ihr denn INFORMIEREN sich die Hardware-Einkäufer!!!

NA HIER ! und bei TOMSHARDWARE !

a) Jeder andere IHV die einen equivalenten NV30-flop erlebt haetten (siehe 9 Monate ohne high end Loesung gegen R300), wuerde wohl eher am Abgrund stehen, was aber bei NVIDIA nicht mal annaehernd der Fall ist. Ueberhaupt wenn sie immer noch Gewinn vorzeigen koennen.

b) Welches Gegenteil genau? Marketing-technisch und rein statistisch hat NVIDIA die meisten dx9.0 komplianten Karten verkauft. Ob diese nun einzaehlige Frameraten bei sogenannten dx9.0 Spielen liefern oder nicht ist beim Zaehlen des Umsatzes wohl egal. Falls Du das Gegenteil dokumentieren kannst, will ich es gerne sehen.

c) Wenn Du eine so "hohe" Meinung ueber 3DCenter generell hast, warum bist Du dann ueberhaupt hier?

Ailuros
2004-01-30, 11:36:55
Original geschrieben von Gast
Hallooooooooooooooo!!!

ich spreche von Einkäufern !!!! die Mengen für Ihre PC-Produktion einkaufen !!! Wer lesen kann ist immer im Vorteil.

Er hat Dich sehr gut verstanden und seine Antwort war auch mehr als nur logisch.

Gast
2004-01-30, 11:37:47
Original geschrieben von Gast
Hallooooooooooooooo!!!

ich spreche von Einkäufern !!!! die Mengen für Ihre PC-Produktion einkaufen !!! Wer lesen kann ist immer im Vorteil.


Hi

Gerade in diesen Bereich wird in letzter Zeit vermehrt zur ATi gegriffen.

Wenn ich durch die div. Grosshänderler gehe und die Lage mal abchecke dann steht es in meine Augen 50:50

Gruss Labberlippe

Gast
2004-01-30, 11:40:46
Original geschrieben von Gast
Dieser Schachzug hat nv doch an den Abgrund gebracht an dem sie heute stehen. DX9 als Marketing-Waffe zu verwenden ist genau in's Gegenteil gegangen.

Wo glaubt Ihr denn INFORMIEREN sich die Hardware-Einkäufer!!!

NA HIER ! und bei TOMSHARDWARE !

Hi

Was für ein Abgrund ???

Ich kann bei nVIDIA keinen sehen.
Nur weil eine Studie behauptet nVIDIA ist an Platz3 muss das noch lange nichts heissen.

Sorry aber es liegt eher daran das der Markt gesättigt ist und somit werden immer die Laufkunden hin und her "geschlichtet".

Morgen kann um eine Handvoll Kunden wieder nVIDIA in Führung liegen.

Auch die Grosshändler sehen den Trend und werden sich immer danach richten.

Gruss Labberlippe

Riptor
2004-01-30, 11:51:34
Original geschrieben von Gast
Hallooooooooooooooo!!!

ich spreche von Einkäufern !!!! die Mengen für Ihre PC-Produktion einkaufen !!! Wer lesen kann ist immer im Vorteil.

Hallooooooooooooooo!!! Kannst du mal Zahlen bringen !!!! Hast du fundierte Quellen !!!! Wer lesen kann ist immer im Vorteil !!!!

Sorry, aber was soll das jetzt? Wie Ailuros schon sagt: Was spricht dagegen, wenn nVidia im Low-Cost Bereich DX9-fähige Grafikkarten anbietet? Hast DU irgendwelche Fakten und Quellen, die mich eines besseren belehren sollen, dass nVidia "am Abgrund" steht oder dass "X9 als Marketing-Waffe zu verwenden genau in's Gegenteil gegangen ist"? :)

ow
2004-01-30, 11:59:30
.

eXistence
2004-01-30, 12:40:06
Original geschrieben von ow
Was verstehst du denn unter DX7 Effekten und Ausnutzung von DX7? Oder was sollen den echte DX7 Games sein??

btw. jede GF ist in der Lage alle DX7 Games fluessig darzustellen, das ist sicher.

naja, UT2003 wird mit vollen Details doch recht hakelig auf meiner Geforce2ti und dabei ist UT2003 noch recht bescheiden, was Leistung angeht, man denke nur an Unreal2...
Aber feature-mäßig dachte ich auch an Doom3: ja, es nutzt natürlich die neuen shader, was aber nichts daran ändert, dass die dargestellten Effekte im Grunde bereits mit DX7 möglich sind. Ein game, das komplett auf features wie bumpmapping aufbaut, gabs zu DX7-Zeiten schlicht und ergreifend nicht. Selbst jetzt nutzen das ja nur vereinzelte Spiele wirklich sinnvoll...

Wobei ich zugeben muss, meine Aussage zwecks Provokation etwas übertrieben zu haben, ganz so schlimm, wie es vielleicht klang is es ja nun auch nicht... =)

Riptor
2004-01-30, 13:02:32
Original geschrieben von eXistence
Aber feature-mäßig dachte ich auch an Doom3: ja, es nutzt natürlich die neuen shader, was aber nichts daran ändert, dass die dargestellten Effekte im Grunde bereits mit DX7 möglich sind.

D³ nutzt DirectX(7/8/9)-Shader? :o

Ailuros
2004-01-30, 13:04:15
Original geschrieben von ow
Was verstehst du denn unter DX7 Effekten und Ausnutzung von DX7? Oder was sollen den echte DX7 Games sein??

btw. jede GF ist in der Lage alle DX7 Games fluessig darzustellen, das ist sicher.

Falls er voll T&L optimierten code meinen sollte hat er eigentlich recht. Er hat ja auch UT2k3 erwaehnt was auch eins der ersten voll T&L optimierten Spiele ist.

Natuerlich ist im gegebenen Fall relativ was man unter "fluessig" versteht wenn man an eine GF256 und UT2k3 denkt, und unter welchen Bedingungen. Aber selbst wenn ich das zur Seite lege, sind wir immer noch gerade in der dx7 Aera mit ein paar dx8/9 Effekten hier und da.

Du koenntest jetzt leicht nach Definierungen von dx7,8 oder 9.0 Spielen fragen, aber wenn Du z.B. glaubst dass MDK2 z.B. ein voll T&L optimiertes Spiel war, dann ist heute natuerlich mit der gleichen Analogie TR:AoD auch ein dx9.0 Spiel.

Wieviele game engines genau benutzen voll T&L optimierten code heute? Auf jeden Fall NICHT die Mehrzahl, sondern das Gegenteil.

eXistence,

Nein meiner Meinung nach war Deine vorige Aussage ueberhaupt nicht uebertrieben. Eher eine Realitaet die schon seit Weihnachten 1999 nicht getroffen wurde. Dazu sollte man sagen dass ATI auch irgendwo (war es die R200 Werbe-Kampagne) mit X Anzahl von PS1.4 Spielen fuer dieses Jahr trommelte.

SnakePlisken
2004-01-30, 13:06:02
Immer nur Nvidia,wann kommt bloß mal was anderes?
Was aber noch schlimmer ist,immer nur DIRECTX,
ständig Microsoft.
Und diese Marktanalyse ist auch nichts anderes als
Intel Werbung für Otto Normal nicht GFXs-Kenner!

Ailuros
2004-01-30, 13:10:11
Original geschrieben von Riptor
D³ nutzt DirectX(7/8/9)-Shader? :o

Ich hoffe dass er weiss dass D3 ein OGL Spiel ist. ;)

Quasar
2004-01-30, 13:20:13
Original geschrieben von Ailuros
Dazu sollte man sagen dass ATI auch irgendwo (war es die R200 Werbe-Kampagne) mit X Anzahl von PS1.4 Spielen fuer dieses Jahr trommelte.
Und damit haben sie ja sogar recht. Solange ein einziger Shader (auch 1.1 oder 1.3) in einem Game benutzt wird, ist es beim R200 automatisch ein PS1.4, da er die älteren ja darüber abbildet.

Radeonator
2004-01-30, 13:47:37
Traurig aber war...: Fanboy gebashe vom feinsten!!!
Der ganze Thread ist voll damit

Die GeForce FX5200 ist
KEINE GAMER KARTE

Will das in eure Köpfli net rein ? Die FX5200er ist eher eine 2d Karte mit der Option DX9 Effekte in 3D nutzen zu können. Ihr schreibt hier einen mist zusammen, als wenn nV mit der FX5200er als neue HighEnd Karte werben würde...warum zur Hölle regt ihr euch überhaupt auf ? Habt ihr die "Böse,Böse" Karte gekauft und dachtet es wäre HighEnd ? Wenn ja, SELBST SCHULD! Da hättet ihr euch vielleicht mal informieren sollen...

Was Herr Otto Normal will :
Zuerstmal muss es "BRANDNEU" sein.Dann muss es "MEHR" sein und zu guter letzt darf es nichts kosten...

Brandneu = Neuste Technologie muss unterstützt werden. Wenn nun noch mit dem Trick "nicht wie bei den anderen kompatibel, sondern bei uns IN HARDWARE unterstützt"

Mehr = Speicher 128-256 MB, Effekte, Möglichkeiten...ach sucht euch was aus ;)

Billig = Es soll alles "können" und muss n Ei&Appel kosten

Otto normal ist es hingegen SCHEISS EGAL ob da bi/tri/hopsassa tralla , AF,FSAA in Winkel in Gammakorrekt in Arsch ist. Sondern ES MUSS EINFACH NUR MÖGLICH SEIN, da Otto Normal eh nicht wirklich weiss worum es geht.

Wenn ihr also schon auf einer richtigen Ebene Disskutieren wollt, denkt mal über das Clientel nach, welches so eine Karte haben möchte.
Auf der anderen Seite stehen Arbeitsrechner, welche Office+Internet und Co darstellen können sollen und wenn dann alles noch toll neu verpackt ist... :wayne:

Intels Onboard sh1c3 ist echt Kübel übel, aber für Office reicht auch dieser Kram. Der Rest ist lediglich BEIWERK. Wer sich davon blenden lässt oder meint es müsse eine 3d Karte mit guter Leistung sein, der lebt, mit verlaub, in der Steinzeit.

p.s.: Intel Prozzi gebashe bitte in ein anderes Forum, da könnt ihr euren Neid richtig ausleben ;)

ow
2004-01-30, 13:48:56
.

StefanV
2004-01-30, 14:03:35
Original geschrieben von ow
??? wie meinst du das? imo erfolgt keine konversion zu einem PS1.4.

AFAIK kann der R200 und Abkömlinge nicht wirklich PS<1.4, alle PS1.1/1.3 Programme werden auf PS1.4 umgesetzt...

Gast
2004-01-30, 14:04:34
Original geschrieben von Gast
Hi

Also als schlechter Ware würde ich die ATi 9200 nicht gerade nennen.
Den mit PS1.4 wie es auch bei TR der Fall ist, fährt die Karte der 5200er um die Ohren.
Die Shaderleistung der 9200er ist im Vergleich "besser".

In meine Augen sind beide Karten auf den gleichen Level.
Bei der 5200er bringt DX9 nichts weil die Performance zu schwach ist.
Die 9200er hat kein DX9 dafür aber "besseren" Dx8.1 support. Betreff Ps 1.4

Im Grunde genommen sind beide "Bürokarten" mit dennen man sehr wohl auch mit moderaten Auflösungen zocken kann.

Mit ein bischen ocen ist auch mehr drin.

Gruss Labberlippe

die 9200 bietet nur supersampling AA und dieses ist dort nicht sinnvoll einsetzbar. Bei der FX5200 ist 2xAA nach wie vor gut nutzbar. Natürlich abhängig von Auflösung und Game. Aber ich sags nochmal. 99,9% der am Markt verfügbaren Games sind nunmal nicht die neuesten hardwarefressenden Kracher. Insofern steht die 5200 in jedem Fall besser da.
Hinzu kommt das bessere AF, welches bei den R200 Produkten ja nun wirklich unter aller Sau war. 16fach steht drauf aber geboten wird nur billinear mit schönstem Mipmap Banding.

Die 9200 ist in jedem Fall unterhalb der 5200 anzusiedeln.
Deshalb gibts auch keinen Grund die 5200 schlecht zu machen. Das ist erst möglich wenn die Konkurenz bessere Produkte bietet, was sie aber seit über einem Jahr nicht tut.

Quasar
2004-01-30, 14:05:21
Ich meine das so, daß die R200 nativ gar nicht in der Lage ist, etwas anderes als PS1.4 zu verarbeiten. Ergo muss der Treiber die PS1.1-1.3 ins PS1.4-Format umwandeln.

][immy
2004-01-30, 14:09:44
Original geschrieben von Gast
die 9200 bietet nur supersampling AA und dieses ist dort nicht sinnvoll einsetzbar. Bei der FX5200 ist 2xAA nach wie vor gut nutzbar. Natürlich abhängig von Auflösung und Game. Aber ich sags nochmal. 99,9% der am Markt verfügbaren Games sind nunmal nicht die neuesten hardwarefressenden Kracher. Insofern steht die 5200 in jedem Fall besser da.
Hinzu kommt das bessere AF, welches bei den R200 Produkten ja nun wirklich unter aller Sau war. 16fach steht drauf aber geboten wird nur billinear mit schönstem Mipmap Banding.

Die 9200 ist in jedem Fall unterhalb der 5200 anzusiedeln.
Deshalb gibts auch keinen Grund die 5200 schlecht zu machen. Das ist erst möglich wenn die Konkurenz bessere Produkte bietet, was sie aber seit über einem Jahr nicht tut.

kleiner hinweis:
Es gibt keine wirkliche Definition für AF. bzw keinen standart, also kannst du nicht sagen das sie kein 16-fach AF könnte. kann sie undzwar so wie es ATi definiert. übrigends sieht des besser aus als ohne und bringt zudem sogar (wegen des bilinearen filters) mehr geschwindigkeit als ohne. aber dafür kann man die qualität wieder nicht mit der vergleichen die die R3x0 karten bieten

@Quasar
???
das wäre mir irgendwie neu und ich glaube auch nicht das der treiber das was umrechnen müsste (diese aufgabe würde dann ja die cpu übernehmen müssen)

Radeonator
2004-01-30, 14:13:53
Original geschrieben von Quasar
Ich meine das so, daß die R200 nativ gar nicht in der Lage ist, etwas anderes als PS1.4 zu verarbeiten. Ergo muss der Treiber die PS1.1-1.3 ins PS1.4-Format umwandeln.

Stimmt AFAIK. Obwohl die konvertierung excellent gelungen zu sein scheint, wenns denn eine ist. Sehen kann man das auch in der Treasures Demo, wo die PS0-1.4 demonstriert werden

Quasar
2004-01-30, 14:19:43
Original geschrieben von ][immy
@Quasar
???
das wäre mir irgendwie neu und ich glaube auch nicht das der treiber das was umrechnen müsste (diese aufgabe würde dann ja die cpu übernehmen müssen)

Ja, aber Shaderprogramme sind ja nicht dynamisch, da langt es, wenn diese wenige Zeilen langen Dinger (bei PS<2.0) einmal beim Laden durchgejagt werden. Das belastet die CPU nur minimal.

Riptor
2004-01-30, 14:22:42
Original geschrieben von Ailuros
Ich hoffe dass er weiss dass D3 ein OGL Spiel ist. ;)

Eben... *MesserWiederEinpack* :naughty:

Original geschrieben von Quasar
Und damit haben sie ja sogar recht. Solange ein einziger Shader (auch 1.1 oder 1.3) in einem Game benutzt wird, ist es beim R200 automatisch ein PS1.4, da er die älteren ja darüber abbildet.

Dann war PS1.4 also doch nicht so sinnlos, wie viele zu GF3-Zeiten gemeint haben? Sichwort: Nur der kleinste gemeinsame Nenner werde forciert... Welche Spiele machen denn explizit vom PS1.4 Gebrauch (Max Payne 2 weiß ich, Halo und Aquanox 2 bin ich mir nicht sicher). Mach da grad eine Liste, deshalb so viele Fragen. ;)

Original geschrieben von Quasar
Ich meine das so, daß die R200 nativ gar nicht in der Lage ist, etwas anderes als PS1.4 zu verarbeiten. Ergo muss der Treiber die PS1.1-1.3 ins PS1.4-Format umwandeln.

Festllbarer Nachteil? Hört sich nämlich so an, als seien dadurch PS1.1/1.3 Anwendungen für PS1.4 fähige Karten deutlich performanceraubender...

Quasar
2004-01-30, 14:28:47
Original geschrieben von Riptor
Dann war PS1.4 also doch nicht so sinnlos, wie viele zu GF3-Zeiten gemeint haben? Sichwort: Nur der kleinste gemeinsame Nenner werde forciert... Welche Spiele machen denn vom PS1.4 Gebrauch (Max Payne 2 weiß ich, Halo und Aquanox 2 bin ich mir nicht sicher). Mach da grad eine Liste, deshalb so viele Fragen. ;)

Für die Radeon war er sicherlich nicht sinnlos, da sie ja nix anderes kann. Aber ob man nun extra einen kompletten DX8.735-Codepfad schreibt, der alle Shader in 1.4-Geschmacksrichtung enthält, wage ich trotzdem zu bezweifeln.
Einige Effekte, die für die DX9-Zielgruppe (die ja komplett über PS1.4 verfügt) sind sicherlich so auch für die R200-Besitzer verfügbar, wenn der Entwickler mitgedacht hat, und nicht stur alles durch den 2.0-Compiler gejagt hat.

Pikantes Detail: Genau das hat aber ATi sich gewünscht, während nV verständlicherweise lieber 1.4 gesehen hat, wo es denn möglich war. Ein bißchen verkehrte Welt, sozusagen.


Original geschrieben von Riptor
Festllbarer Nachteil? Hört sich nämlich so an, als seien dadurch PS1.1/1.3 Anwendungen für PS1.4 fähige Karten deutlich performanceraubender...
Nachteil? Jein. Manche Shader können dadurch pass-reduziert werden, einige müssen auseinandergefaltet werden (da war irgendwas mit komplizierten Texturops, die in PS<1.4 noch erlaubt waren, aber in PS1.4 aufgeteilt werden mussten.

Die CPU hat, wie gesagt (geschätzt ;) ) minimal mehr zu tun, aber einen signifikanten Nachteil sehe ich eigentlich nicht. Aber das kann dir ein Programmierer sicherlich besser beantworten.

eXistence
2004-01-30, 14:32:51
Original geschrieben von Ailuros
Ich hoffe dass er weiss dass D3 ein OGL Spiel ist. ;)

Ja, weiß ich =)
Aber die Vertex- und Pixelshader sind auch unter OpenGl nutzbar, in Doom3 werden sie aber lediglich dazu verwendet gewisse Berechnungen zu beschleunigen, richtige PS-Effekte (wie man sie in den Techdemos gesehen hat) wird man aber nicht sehen.
Aber das ist hier ein bissel OT und tauchte oft genug in den entsprechenden D3-Threads auf :)

Demirug
2004-01-30, 14:57:58
Shader (egal welche Version) müssen vom Treiber sowieso immer auf die interne Struktur des Chips übersetzt werden. Bei den Radeons kommt dabei 1.4 dem internen Aufbau am nächsten.

Was das expandieren der Texturops bei 1.1-1.3 angeht so muss das die nVidia auch tun. Die können auch nicht alle Texturops in einem Takt.

ow
2004-01-30, 15:06:31
.

ow
2004-01-30, 15:08:34
.

reunion
2004-01-30, 15:44:37
Original geschrieben von ow
Aber sicher gibt es klare Definitionen fuer AF, sonst wuerde es wohl kein AF geben.
Und ATi kann kein korrektes 16xAF, das kann man so sagen.

Was verstehst du unter "korrektem" 16xAF??
AFAIK ist NVs AF genauso Winkelabhängig(nur nicht so stark). Bietet jetzt NV auch kein "korrektes" 8xAF??

][immy
2004-01-30, 15:52:49
Original geschrieben von ow
Aber sicher gibt es klare Definitionen fuer AF, sonst wuerde es wohl kein AF geben.
Und ATi kann kein korrektes 16xAF, das kann man so sagen.
gibt es nicht
Anisotropische Filterung, heißt lediglich das es nicht isotropisch gefiltert wird (stand auch in einem der 3d-center artikel) und daher gibt es da keine wirklich korrekte definition für

es ist nicht festgelegt das trilinear gefiltert werden muss bzw wie viel. das sagt höchstens der volksmund

für den Trilinearen filter gibt es eine definition
für die Bilinearen ebenfalls, aber nicht wirklich für den Anisotropischen Filter

Quasar
2004-01-30, 16:01:15
Nach dieser deiner Aussage kann nV ihre reduziert-trilineare Filterung ja glatt als anisotrop verkaufen, schließlich wird ja nicht überall isotrop gefiltert. :lol:

Arbeitest du zufällig bei denen im Marketing? ;D

][immy
2004-01-30, 16:05:41
Ja, das kann man. An-isotrop heißt zunächst nur, nicht isotrop. ATIs R300-AF filtert in der Tat (jeden Winkel) nicht isotrop. Gibt es eine genauere Definition? Wir konnten keine "gültige", also verbindliche Definition für AF finden, aber: Es ist kein Geheimnis, welche Qualität "Lehrbuch-AF" haben muss. Mit den Interna von anisotroper Filterung beschäftigen wir uns in einem zukünftigen Artikel noch ausführlich, an dieser Stelle wollen wir nur darauf zu sprechen kommen, wie ein "perfektes" AF auszusehen hat. Nämlich genau wie trilineare Filterung (TF), jedoch pro Verdoppelung des AF-Grades müssen die MIP-Level um eine Stufe "nach hinten" geschoben sein. Reden wir nicht lange um den heißen Brei, "perfektes AF" wird praktisch auf keiner derzeitigen Hardware geboten.


aus dem 3D-Center Artikel ATi-Filtertricks

und wie ich geschrieben hab, es gibt keine wirkliche Definition für AF ;)

aths
2004-01-30, 16:42:02
Original geschrieben von Gast
Dieser Schachzug hat nv doch an den Abgrund gebracht an dem sie heute stehen. DX9 als Marketing-Waffe zu verwenden ist genau in's Gegenteil gegangen.Hm? Soweit ich das sehe, ist NVs HW gegenüber der Konkurrenz ziemlich schlecht ... aber das Marketing (gewohnt) gut.
Original geschrieben von Gast
Wo glaubt Ihr denn INFORMIEREN sich die Hardware-Einkäufer!!!Gar nicht.



Original geschrieben von Labberlippe
Gerade in diesen Bereich wird in letzter Zeit vermehrt zur ATi gegriffen.Japp. Das finde ich auch gut so. Die Dominanz von NV-Produkten zu GF2- und GF3-Zeiten fand ich irgendwie bedrückend.

aths
2004-01-30, 16:46:07
Original geschrieben von ow
btw. jede GF ist in der Lage alle DX7 Games fluessig darzustellen, das ist sicher. Eine GF2 MX 200 kann UT2003 flüssig darstellen? Bei welcher Auflösung?


Original geschrieben von Radeonator
Traurig aber war...: Fanboy gebashe vom feinsten!!!
Der ganze Thread ist voll damit

Die GeForce FX5200 ist
KEINE GAMER KARTE

Will das in eure Köpfli net rein ? Hm, wer behauptet das denn? Einige behaupten implizit, NV würde das behaupten, allerdings kann ich das nicht sehen. Dann werden Dinge widerlegt, die keiner behauptet hat.

Und _bitte bitte_ nicht plenken!!

aths
2004-01-30, 16:55:46
Original geschrieben von reunion
Was verstehst du unter "korrektem" 16xAF??
AFAIK ist NVs AF genauso Winkelabhängig(nur nicht so stark). Bietet jetzt NV auch kein "korrektes" 8xAF?? Das kann man so sehen, oder anders.

Eigentlich wird auch auf keiner Karte korrektes BF gemacht. Schon für die einfachsten Filter wird (z. B. bei der LOD-Bestimmung) die Transformation des Pixels in den Texture-Space erheblich vereinfacht. Das Ergebnis ist allerdings hinreichend gut.

Voll perfektes AF kann es schon deshalb nicht geben, weil BF/TF von der Perfektion entfernt sind. Darüber hinaus kommen jetzt gewisse Winkelabhängigkeiten ins Spiel. Die Art der "Optimierung" bei NV (und bei S3 im DC) ist eben "hinreichend gut". Im Gegensatz zum R360-AF, was nach wie vor "zu sehr" vereinfacht ist.

Wie ich zu dieser Behauptung komme? Reines Theorie-Gefasel? Im Forum war mal ein URL verlinkt, welche alle möglichen Screenshots bot. Da war zu sehen, dass NVs AF die deutlich überlegene Texturqualität bietet. Ich kann selbst als Pixel-Fetischist auf den ersten Blick keine Schwäche ausmachen. Im Gegensatz zur ATIs AF. Glaubst du nicht? Guck dir bei 8x AF einen Tunnel an, der sich um die Z-Achse dreht...

reunion
2004-01-30, 17:19:07
Original geschrieben von aths
Wie ich zu dieser Behauptung komme? Reines Theorie-Gefasel? Im Forum war mal ein URL verlinkt, welche alle möglichen Screenshots bot. Da war zu sehen, dass NVs AF die deutlich überlegene Texturqualität bietet. Ich kann selbst als Pixel-Fetischist auf den ersten Blick keine Schwäche ausmachen. Im Gegensatz zur ATIs AF. Glaubst du nicht? Guck dir bei 8x AF einen Tunnel an, der sich um die Z-Achse dreht...

Dass kommt immer auf die Betrachtungsweise an ;)
Wenn ich natürlich in einen Tunnel bin(was eigendlich sogut wie nie vorkommt, mir fällt eigendlich nur SS2 ein ein wo das manchmal so ist) dann ist NV´s AF besser, wenn ich allerdings (was wesentlich häfiger vorkommt) in einer Stadt, auf einer Insel usw. herumlaufe(wo hauptsächlich 0 und 90° Winkel vorkommen), dann erreiche ich mit ATI´s 16xAF eine bessere Qualität.

Quasar
2004-01-30, 17:24:31
Null-und-Neunzig-Grad-Winkel wirst du außer im Villagemark kaum finden. Klar, der Boden ist oft einigermaßen eben, hat aber Senken und Hügel, insbesondere bei neueren Games.

Und da stößt dann gern mal eine 16xA-gefiltertere Fläche an eine 2xA-gefilterte. Das sieht dann ganz schön unschön aus.

So ähnlich wie Matrox' FAA: Die Kanten, die es glättet, werden gut geglättet, aber wenn dann mal eine ausgelassen wird, fällt es umso mehr auf.

aths
2004-01-30, 17:27:38
Original geschrieben von reunion
Dass kommt immer auf die Betrachtungsweise an ;)
Wenn ich natürlich in einen Tunnel bin(was eigendlich sogut wie nie vorkommt, mir fällt eigendlich nur SS2 ein ein wo das manchmal so ist) dann ist NV´s AF besser, wenn ich allerdings (was wesentlich häfiger vorkommt) in einer Stadt, auf einer Insel usw. herumlaufe(wo hauptsächlich 0 und 90° Winkel vorkommen), dann erreiche ich mit ATI´s 16xAF eine bessere Qualität. <Oberlehrer>

Mit ATIs, nicht mit ATI´s (auch nicht mit ATI's)

</Oberlehrer>

Mit 16x AF vs. 8x hast du natürlich Recht. Bliebe die Frage, "wie viel besser" ist 16x vs. 8x? Wiegt das die Nachteile auf, gelegentlich nur 2x zu bekommen? Ich mag eher eine "gleichmäßige" Bildqualität. Siehe z. B. 4x OG vs 4x RG AA. 4x OG ist bei ca. 45°-Winkeln sehr gut. Bei 90° nicht so gut. 4x RG liefert insgesamt die bessere Qualität (und "nebenbei" auch die bessere bei den wichtigen ~90°-Winkeln.)

Irgendwo im Forum schwirrt ein Screenshot rum, der eine Szene aus einem Autorennen zeigt. Die Straße ist dank 16x AA gestochen scharf. Die Böschung links und rechts trifft den unglücklichen 22,5°-Winkel ziemlich gut, und sieht grauenhaft aus.

Gast
2004-01-30, 17:46:20
Original geschrieben von Gast
die 9200 bietet nur supersampling AA und dieses ist dort nicht sinnvoll einsetzbar. Bei der FX5200 ist 2xAA nach wie vor gut nutzbar. Natürlich abhängig von Auflösung und Game. Aber ich sags nochmal. 99,9% der am Markt verfügbaren Games sind nunmal nicht die neuesten hardwarefressenden Kracher. Insofern steht die 5200 in jedem Fall besser da.
Hinzu kommt das bessere AF, welches bei den R200 Produkten ja nun wirklich unter aller Sau war. 16fach steht drauf aber geboten wird nur billinear mit schönstem Mipmap Banding.

Die 9200 ist in jedem Fall unterhalb der 5200 anzusiedeln.
Deshalb gibts auch keinen Grund die 5200 schlecht zu machen. Das ist erst möglich wenn die Konkurenz bessere Produkte bietet, was sie aber seit über einem Jahr nicht tut.


Hi

Blödsinn.

Ich habe beide Karten schon getestet und da war bei beiden 2xFSAA noch möglich.
Für mehr gingen beide Karten die Puste aus.
Bei den 64 Bit Versionen war es noch ärger.

Beim AF ist es ebenso egal.
Die volle AF Qualität ist bei neuen Games mit der 5200er auch nicht möglich da das "Lehrbuch" AF zuviel frisst.
Kurz auch bei der 5200er musst Du auf das optimierte AF wechseln.
Wobei bei alten Games natürlich das AF schon noch geht.

Im Gegenzug kann ich aber dafür bei der 9200er bei den alten Games FSAA nutzen, welches schön glättet.

Ich zocke zum Beispiel zwischendurch noch gerne Turok.
Da wirkt das FSAA der Radeon schon.

Was das MipMap Banding betrifft muss ich sagen, das ich damit leben kann.
Denn mit meiner ATi 9000er kann ich momentan noch bei jeden Game AF nutzen.

Wie gesagt ist Geschmacksache aber als überlegen würde ich die 5200er nicht sehen.

Gruss Labberlippe

reunion
2004-01-30, 17:47:49
Original geschrieben von aths
<Oberlehrer>

Mit ATIs, nicht mit ATI´s (auch nicht mit ATI's)

</Oberlehrer>


:...( :banghead:

Mit 16x AF vs. 8x hast du natürlich Recht. Bliebe die Frage, "wie viel besser" ist 16x vs. 8x? Wiegt das die Nachteile auf, gelegentlich nur 2x zu bekommen? Ich mag eher eine "gleichmäßige" Bildqualität. Siehe z. B. 4x OG vs 4x RG AA. 4x OG ist bei ca. 45°-Winkeln sehr gut. Bei 90° nicht so gut. 4x RG liefert insgesamt die bessere Qualität (und "nebenbei" auch die bessere bei den wichtigen ~90°-Winkeln.)

Irgendwo im Forum schwirrt ein Screenshot rum, der eine Szene aus einem Autorennen zeigt. Die Straße ist dank 16x AA gestochen scharf. Die Böschung links und rechts trifft den unglücklichen 22,5°-Winkel ziemlich gut, und sieht grauenhaft aus.

Natürlich bin ich genau wie du der meinung dass NVs AF insgesamt besser ist, nur ist der Unterschied beiweiten nicht so groß wie man oft auf speziell angefertigten Screenshot sieht. Mir ist die extreme Winkelabhängigkeit eigendlich nut bei Gothic II bei der Pyramide aufgefallen wo die Texturen doch ziemlich häßlich aussehn. Aber naja, jedem das seine =)

Gast
2004-01-30, 17:57:28
Original geschrieben von ow
Aber sicher gibt es klare Definitionen fuer AF, sonst wuerde es wohl kein AF geben.
Und ATi kann kein korrektes 16xAF, das kann man so sagen.

Hi

Was nützt ein "korrektes" AF wenn die Leistung in den Keller geht.
Ok Das Mipmap Banding war teilweise heavy bei der R200 aber dieses war auch nur bei einer handvoll Games zu merken.

Ich verwende noch immer meine ATi und da muss ich schon sagen
das manche Spielehersteller die Settings übertreiben.

Bei Halo war es komplett krass.
Da schien mir aber das Game ein bischen zu heavig eingestellt zu sein.


Bei Serious Sam war es auch arg.
Da war es aber mein Fehler.
Die ganzen Settings auf scharf gestellt dann noch volles AF dazu und hurra MipMaps und flimmern bis zum abwinken.
Klar das man unter solche umständen das MipMap Banding extrem wahrnimmt.
Mit moderaten Einstellungen sieht das Bild gut aus und man nimmt fast kein Banding war trotzdem ist das Bild schön scharf.

Manchmal sollte man halt versuchen die Einstellungen im CP vernünftig zu nutzen und nicht immer gleich über miese Qualität schreien.

Freilich möchte ich das Bi AF jetzt nicht schön reden, nur ganz sinnslos ist die implementation anscheinend nicht.
Denn ich kann AF noch immer mit meiner ATi 9000 nutzen.
Probiere AF z.B bei einer MX440 nutzen.
(Extra MX440 ausgewählt da damals beide Karten die aktuellen waren.)

Bei der 5200er und 9200er ist es jetzt nicht viel anderes.
OK die Karte kann zwar DX9 nur ernsthafte Games Settings sind mit beiden nicht zu gebrauchen, da muss man Abstriche machen.

In meine Augen ist es Geschmacksache welche Karte man wählt.

Gruss Labberlippe

Gast
2004-01-30, 18:02:29
Original geschrieben von Quasar
Null-und-Neunzig-Grad-Winkel wirst du außer im Villagemark kaum finden. Klar, der Boden ist oft einigermaßen eben, hat aber Senken und Hügel, insbesondere bei neueren Games.

Und da stößt dann gern mal eine 16xA-gefiltertere Fläche an eine 2xA-gefilterte. Das sieht dann ganz schön unschön aus.

So ähnlich wie Matrox' FAA: Die Kanten, die es glättet, werden gut geglättet, aber wenn dann mal eine ausgelassen wird, fällt es umso mehr auf.

Hi

Deswegen nehme ich meistens immer 4x AF und nehme die hohe Qualitätseinsellungen beim CP.

Sieht gut aus und reicht bei meiner 9000.
Speed passt und Qualität auch.
Für mehr müsste ich so oder so eine Karte ab 9700er/5900 Klasse nehmen.


Immer Geschmacksache.

Demirug
2004-01-30, 18:11:23
Original geschrieben von ow
Jetzt rede doch mal klartext;)

Tut der ATi Treiber aus jedem Shader <1.4 einen PS1.4 basteln und den dann ausfuehren (liegt der Shader also als PS1.4 im Grakaram) oder wie muss man sich das vorstellen?

Nein, er baut aus einem 1.1 Shader keinen 1.4 Shader. Aber auch ein 1.4 Shader wird nicht als 1.4 Shader im entsprechenden Speicherbereich des Chips hinterlegt.

Damit dies möglich wäre müssten die Chip ja direkt das Binärformat in dem DX-Shader übertragen (Spiel->Runtime->Treiber) werden verstehen. Das dürfte allerdings etwas kompliziert werden da zum Zeitpunkt des Chipdesigns das genaue Format ja noch gar nicht bekannt sein muss.

Jeder Chip nutzt ein eigenes internes Format (bestehend aus Steuerwörter für den Pixelprozessor) um die Arbeitsfolge zu beschreiben. Der Treiber muss nun das DX-Shaderformat in das interne Format übersetzten. Bei ATI ist es nun so das wenn man einen 1.1 Shader übersetzt das Ergebniss von der Struktur eher wie ein 1.4 Shader aussieht weil die interne Arbeitsweise des Chip eben eher 1.4 als 1.1 entspricht.

Xmas
2004-01-30, 18:17:14
Original geschrieben von ow
Jetzt rede doch mal klartext;)

Tut der ATi Treiber aus jedem Shader <1.4 einen PS1.4 basteln und den dann ausfuehren (liegt der Shader also als PS1.4 im Grakaram) oder wie muss man sich das vorstellen?
Nein, der ATI-Treiber bastelt aus jedem Shader (egal welche Version) eine interne Repräsentation, die der Chip verarbeiten kann. Der Chip verarbeitet nicht "PS1.4", sondern binär codierte Instruktionen, die sich grob, aber nicht vollständig auf die Instruktionen von PS1.4 abbilden lassen. Genauso entspricht der interne Aufbau des NV20 nicht PS1.1, es gibt kein vollständiges Mapping "eine PS-Instruktion = eine Maschinencode-Instruktion".

mapel110
2004-01-30, 18:29:24
Original geschrieben von reunion
Natürlich bin ich genau wie du der meinung dass NVs AF insgesamt besser ist, nur ist der Unterschied beiweiten nicht so groß wie man oft auf speziell angefertigten Screenshot sieht. Mir ist die extreme Winkelabhängigkeit eigendlich nut bei Gothic II bei der Pyramide aufgefallen wo die Texturen doch ziemlich häßlich aussehn. Aber naja, jedem das seine =)

Ich habe heute zum ersten mal das 8xAF von Nvidia gesehen und auch in mehreren Spielen erlebt. Und ich muss sagen, der Unterschied ist gross. Ich war jedenfalls bei den Games Farcry, Mohaa und Mafia recht stark beeindruckt von der Qualität.
Näheres hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1530408#post1530408
:)

LovesuckZ
2004-01-30, 18:31:13
trotz der zurueck gestuften trilinearen Filterung?

mapel110
2004-01-30, 18:34:16
Original geschrieben von LovesuckZ
trotz der zurueck gestuften trilinearen Filterung?

Jup, das teilweise fehlende trilineare Filtering unter D3D ist mir nicht negativ aufgefallen. Für Opengl hatte ich ja atuner(tm) :kicher:
p.s. "aths' recommendations" waren aktiv unter Opengl.

ow
2004-01-30, 19:05:26
.

VoodooJack
2004-01-30, 19:06:13
Original geschrieben von aths

Die Böschung links und rechts trifft den unglücklichen 22,5°-Winkel ziemlich gut, und sieht grauenhaft aus.

Den "unglücklichen 22,5°-Winkel" hab ich in der Far Cry Demo kennen- und hassengelernt.

Wenn man sich in der Bucht, wo der Buggy steht, so hinstellt, dass man landeinwärts schaut, und dann nach links Richtung aufsteigende Felswände schaut, wird man mehrere Abschnitte entdecken, die im unglücklichen 22,5°-Winkel liegen. Garstig verschwommen! Wenn man näher herangeht, dann erkennt man, dass es Moosflächen sind. Oder man verändert den Blickwinkel, indem man gen Himmel schaut, dann wird's auch aus der Entfernung deutlich besser.

Hassengelernt hab ich deshalb gesagt, weil ich praktisch alle Register gezogen hab, um diese verschwommenen Stellen wegzubringen. Leider vergeblich. Nicht dass jetzt einige denken, ich hätte vielleicht Aniso nicht enabled gehabt. Ist nämlich in der Demo gar nicht so einfach. Bei mir war sehr wohl Aniso enabled, sogar 16x. Das kann man durch Editieren der systemcfg.lua Datei erzwingen, indem man die Zeile d3d9_TextureFilter = "TRILINEAR" auf "ANISOTROPIC" setzt und des weiteren die Zeile r_Texture_Anisotropic_Level ="x" auf "16" setzt. Außerdem gehen die Frames bei aktiviertem 16xAF noch tiefer in den Keller. Auch durch Änderungen von e_lod_ratio, e_terrain_lod_ratio, etc. war nichts zu machen.

Piffan
2004-01-30, 19:26:04
Original geschrieben von VoodooJack
Den "unglücklichen 22,5°-Winkel" hab ich in der Far Cry Demo kennen- und hassengelernt.

Wenn man sich in der Bucht, wo der Buggy steht, so hinstellt, dass man landeinwärts schaut, und dann nach links Richtung aufsteigende Felswände schaut, wird man mehrere Abschnitte entdecken, die im unglücklichen 22,5°-Winkel liegen. Garstig verschwommen! Wenn man näher herangeht, dann erkennt man, dass es Moosflächen sind. Oder man verändert den Blickwinkel, indem man gen Himmel schaut, dann wird's auch aus der Entfernung deutlich besser.

Hassengelernt hab ich deshalb gesagt, weil ich praktisch alle Register gezogen hab, um diese verschwommenen Stellen wegzubringen. Leider vergeblich. Nicht dass jetzt einige denken, ich hätte vielleicht Aniso nicht enabled gehabt. Ist nämlich in der Demo gar nicht so einfach. Bei mir war sehr wohl Aniso enabled, sogar 16x. Das kann man durch Editieren der systemcfg.lua Datei erzwingen, indem man die Zeile d3d9_TextureFilter = "TRILINEAR" auf "ANISOTROPIC" setzt und des weiteren die Zeile r_Texture_Anisotropic_Level ="x" auf "16" setzt. Außerdem gehen die Frames bei aktiviertem 16xAF noch tiefer in den Keller. Auch durch Änderungen von e_lod_ratio, e_terrain_lod_ratio, etc. war nichts zu machen.


Ich weiß, welche Stellen Du meinst. Hat aber rein gar nix mit dem Thema zu tun, weil die Flächen an sich extrem unscharf sind. Und bitte eines nicht verwechseln: Bei den kritischen Winkeln werden die Texturen ja nicht unschärfer, sondern nur mit max 2xAF gefiltert. Zum einfachen trilinearen Filtern ist immer ein großer Unterschied, auch bei den worst case Winkeln!

Bei FarCry liegt der Hund woanders begraben: Da sind einige Texturen halt unter aller Kanone, leider. Wenn die dann noch unglücklich über bestimmte Geländeformen gezerrt werden (extreme Verzerrung herrscht bei den von dir bemerkten Stellen vor), dann ist es ganz übel.

Man kann bei FC nur hoffen, dass die Entwickler manche Texturen noch austauschen. Andernfalls wäre die Grafik sehr unausgewogen: Messerscharfe Texturen, supertolle Bumps und Wassereffekte auf der einen Seite und saumäßig miese Texturen im Gelände, imho eine schlechte Mischung!

An der Ati liegts garantiert nicht! ;)

edit: So schlimm wie es behauptet wird, ist es nicht mit den unterschiedlich gefilterten Texturen! Selbst bei Gothic II mit dem unebenen Boden stört es nicht die Bohne!

Die Texturen werden ja nicht häßlich von Artefakten verhunzt, sondern sind lediglich etwas weicher gespült als andere. Für den "Wohlfühl- Effekt" reicht Atis AF, wer sehr genau hinschaut, sieht natürlich Differnzen nach dem Filtern. Aber es stört mich persönlich zu wenig, als dass ich die derben Performance- Verluste für das andere AF in Kauf nehmen würde...Störend ist für mich, wenn die MIP- Map- Übergänge vor mir herwandern.

Xmas
2004-01-30, 19:32:48
Original geschrieben von Piffan
edit: So schlimm wie es behauptet wird, ist es nicht mit den unterschiedlich gefilterten Texturen! Selbst bei Gothic II mit dem unebenen Boden stört es nicht die Bohne!

Mich schon ;) Allerdings fand ich das Dach des Klosters schlimmer.

Demirug
2004-01-30, 20:02:22
Original geschrieben von ow
Inwiefern lässt sich denn dann behaupten, dass die ATi Chips keine PS<1.4 nativ in HW unterstützen und emulieren müssen? Wenn doch sowieso immer ein Umwandlung aller Shader ins chipinterne Format erfolgt.

PS 1.1 ist primär von der Struktur her für eine Hardware die einen getrennten Textureshader und Farbshaderteil hat. Entspricht also sehr gut NV2X. Bei ATI gibt es diese Trennung nicht. Deswegen muss die Struktur gewnadelt werden.

aths
2004-01-30, 21:21:47
Original geschrieben von Gast
Hi

Was nützt ein "korrektes" AF wenn die Leistung in den Keller geht.Dann nimmt man 4x oder 2x AF. Der Tradeoff "Leistung für Qualität" ist bei bestmöglichem AF am besten.

aths
2004-01-30, 21:24:43
Original geschrieben von Piffan
Ich weiß, welche Stellen Du meinst. Hat aber rein gar nix mit dem Thema zu tun, weil die Flächen an sich extrem unscharf sind. Und bitte eines nicht verwechseln: Bei den kritischen Winkeln werden die Texturen ja nicht unschärfer, sondern nur mit max 2xAF gefiltert.Also deutlich unschärfer als mit 16x AF. Im Kontrast dazu sieht das wohl schon unscharf aus.
Original geschrieben von Piffan
Störend ist für mich, wenn die MIP- Map- Übergänge vor mir herwandern. Japp, trilineares AF halte ich auch für sinnvoll.

Mr. Lolman
2004-01-30, 21:27:44
Original geschrieben von aths
Dann nimmt man 4x oder 2x AF. Der Tradeoff "Leistung für Qualität" ist bei bestmöglichem AF am besten.

Würd ich nicht sagen. Denn dem von dir so verpönte und an der untersten Stufe einzuordnende ATi bi-AF geb ich ruhig schon mal den Vorzug wenn ich 16x statt 4xAF wählen kann (und das bei höheren fps), und kein störendes Mipmapbanding auftritt


In Spielen wo AF ernom Leistung frisst nehm ich lieber 4xbi AF als überhaupt keins...

2xbi ist nur bei einigen Spielen (z.B. Lockon) tragbar




edit: Bin auch gespannt wer von den FX Besitzern z.B: POPTSOT mit 4xAA und AF >2x spielt. Da ist mir Atis 8xbiAF deutlich lieber, zudem wo POPTSOT ein Spiel wo Mipmapübergänge überhaupt nicht auffallen, undscharfe Texturen hingegen tw. recht deutlich...

Piffan
2004-01-30, 21:38:51
Original geschrieben von Mr. Lolman
Würd ich nicht sagen. Denn dam von dir so verpönte und an der untersten Stufe einzuordnende ATi bi-AF geb ich ruhig schon mal den Vorzug wenn ich 16x statt 4xAF wählen kann (und das bei höheren fps), und kein störendes Mipmapbanding auftritt


In Spielen wo AF ernom Leistung frisst nehm ich lieber 4xbi AF als überhaupt keins...

2xbi ist nur bei einigen Spielen (z.B. Lockon) tragbar




edit: Bin auch gespannt wer von den FX Besitzern z.B: POPTSOT mit 4xAA und AF >2x spielt. Da ist mir Atis 8xbiAF deutlich lieber, zudem wo POPTSOT ein Spiel wo Mipmapübergänge überhaupt nicht auffallen, undscharfe Texturen hingegen tw. recht deutlich...

Ich kann da auch zustimmen: Lieber ein hohes BiAF, welches die Mipmaps weit wegschiebt, als ein schwaches Tri- AF, welches enorm an der Performance zieht. Es hängt vom Spiel selbst ab, was richtig ist. Generelle oder dogmatische Einstellungen helfen bei bestimmten Spielen nicht weiter....
Oft sind auch die reinen FPS- Zahlen noch recht hoch, ohne dass es wirklich gut spielbar ist. Bei Chrome ist es dramatisch: Bei zu hoher Grakalast wird der Mauslag krass, obwohl die FPS weit höher liegen als z.B. bei FarCry, welches nur geringen Mauslag zeigt.....

Das von Dir erwähnte Prince of Persia ist auch ein Fall, wo bereits in der Grundeinstellung die Graka schwer schuftet, da bleibt nicht mehr viel über für AF oder FSAA- Schnickschnack......

edit: öh, wie lautet doch gleich der Titel des Threads? Irgendwie landen alle Thread hier früher oder später beim gleichen Thema....

reunion
2004-01-30, 21:55:52
Kann mich ebenfalls den Vorrednern anschließen, wenn tri-AF ruckelt benutze ich grundsätzlich zuerst bi-AF bevor ich irgendetwas anderes zurückstellen...

Mr. Lolman
2004-01-30, 21:58:23
Original geschrieben von Piffan
Ich kann da auch zustimmen: Lieber ein hohes BiAF, welches die Mipmaps weit wegschiebt, als ein schwaches Tri- AF, welches enorm an der Performance zieht. Es hängt vom Spiel selbst ab, was richtig ist. Generelle oder dogmatische Einstellungen helfen bei bestimmten Spielen nicht weiter....
Oft sind auch die reinen FPS- Zahlen noch recht hoch, ohne dass es wirklich gut spielbar ist. Bei Chrome ist es dramatisch: Bei zu hoher Grakalast wird der Mauslag krass, obwohl die FPS weit höher liegen als z.B. bei FarCry, welches nur geringen Mauslag zeigt.....

Stimmt bei Chorme ists mir ebenso aufgefallen. Ich hab mich mit mir dann auf 2xAA/4xbiAF geeinigt, aber nur die Demo gezoggt und merkte schon fieses Lag im Wald. LockOn zieht auch ganz böse Performance, aber 2xbiAF bringt ja selbst im schlimmsten Fall ~0.0% Performanceverlust.


Das von Dir erwähnte Prince of Persia ist auch ein Fall, wo bereits in der Grundeinstellung die Graka schwer schuftet, da bleibt nicht mehr viel über für AF oder FSAA- Schnickschnack......

Ich spiel Prince of Persia in 1024x768 4xAA/8xbiAF, V-Sync ist zwar nicht mehr drinnen, aber darauf kann ich verzichten... :D

Für Farcry hab ich jetzt auch meine best-settings gefunden:

Mehr DetailsVolle Spiegelungen aktivieren,
im Menü alles auf max,
e_lod_ratio 2 (statt 1; 100=Weitsichttweak),
e_obj_lod_ratio 100 (statt 10)
e_obj_view_dist_ratio 100 (statt 55)
e_terrain_lod_ratio 1 (statt 2)
Mehr Performancee_shadowmaps 0 (Kein Waffenschatten, alle anderen bleiben, bringt im Dschungel tw. ~100% Performance :))

zusätzlich noch 2xAA/4xAppAF (@1024) - und so (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1530470#post1530470) schauts dann aus :D


edit: öh, wie lautet doch gleich der Titel des Threads? Irgendwie landen alle Thread hier früher oder später beim gleichen Thema....

OT ist irgendwie interessanter :weg:

LovesuckZ
2004-01-30, 22:29:08
Original geschrieben von Mr. Lolman
Würd ich nicht sagen. Denn dem von dir so verpönte und an der untersten Stufe einzuordnende ATi bi-AF geb ich ruhig schon mal den Vorzug wenn ich 16x statt 4xAF wählen kann (und das bei höheren fps), und kein störendes Mipmapbanding auftritt

Dann erbitte mir die Anmerkung: Kritik deinerseits gegen brilineare Filterung solltest du am besten dann für die Zukunft lassen.

[i]
edit: Bin auch gespannt wer von den FX Besitzern z.B: POPTSOT mit 4xAA und AF >2x spielt.

Ich habe zwar nur die Demo gespielt, aber diese in 1280*1024 mi 2AA/8QAF.

Quasar
2004-01-30, 22:32:37
Original geschrieben von ow
Inwiefern lässt sich denn dann behaupten, dass die ATi Chips keine PS<1.4 nativ in HW unterstützen und emulieren müssen? Wenn doch sowieso immer ein Umwandlung aller Shader ins chipinterne Format erfolgt.

Darf ich das nach dieser Erklärung jetzt weiterbehaupten? ;)
Original geschrieben von Demirug
PS 1.1 ist primär von der Struktur her für eine Hardware die einen getrennten Textureshader und Farbshaderteil hat. Entspricht also sehr gut NV2X. Bei ATI gibt es diese Trennung nicht. Deswegen muss die Struktur gewnadelt werden.

Original geschrieben von Gast
Hi
Hi auch!
Original geschrieben von Gast
Ich habe beide Karten schon getestet und da war bei beiden 2xFSAA noch möglich.
Fiel dir dabei was auf?

Original geschrieben von Gast
Beim AF ist es ebenso egal.
Die volle AF Qualität ist bei neuen Games mit der 5200er auch nicht möglich da das "Lehrbuch" AF zuviel frisst.
Kurz auch bei der 5200er musst Du auf das optimierte AF wechseln.
Wobei bei alten Games natürlich das AF schon noch geht.

Eben, du hast größere Optionsvielfalt, sowohl bei AF, als auch beim FSAA.

Original geschrieben von Gast
Im Gegenzug kann ich aber dafür bei der 9200er bei den alten Games FSAA nutzen, welches schön glättet.
Ich zocke zum Beispiel zwischendurch noch gerne Turok.
Da wirkt das FSAA der Radeon schon.

Auch hier wieder: Fällt dir was auf?

Original geschrieben von Gast
Was das MipMap Banding betrifft muss ich sagen, das ich damit leben kann.
Das ist schön, aber für mich wäre das nix....

Original geschrieben von Gast
Denn mit meiner ATi 9000er kann ich momentan noch bei jeden Game AF nutzen.
Wie gesagt ist Geschmacksache aber als überlegen würde ich die 5200er nicht sehen.
Mit einer FX5200 kann ich auch bei jedem Game AF nutzen. Sogar FSAA. Und ich habe zusätzlich die Wahl, ob ich bei einem anspruchslosen Game nicht vielleicht doch auf Mip-Banding verzichte oder gar 4xS-AA reinhaue.
Wenn die Games dann anspruchsvoller werden, kann ich sehr feinkörnig die Bildqualität für brauchbare Leistung nachregeln - und du?

In jedem anderen Bereich: Sicher, Geschmacksfrage. Aber im Low-Cost Sektor wäre das einzige pro-9200-Argument für mich ein niedrigerer Preis, sorry, aber hier ist alles andere an den Haaren herbeigezogen.

Original geschrieben von Gast
Gruss Labberlippe
Ich grüße dich auch!

Piffan
2004-01-30, 22:43:48
Ich muss auch zugeben, dass ich eher die 5200 mehmen würde als einen R200....
Wenn die Leistung in etwa so ist wie bei der GF3, die im Rechner der Kinder mit nem P3 800 Mhz verkoppelt ist, dann kann man eingentlich nicht meckern......Kommt halt auf das System an und was man der Karte zumuten möchte...

VoodooJack
2004-01-30, 22:56:34
Original geschrieben von Piffan
Und bitte eines nicht verwechseln: Bei den kritischen Winkeln werden die Texturen ja nicht unschärfer, sondern nur mit max 2xAF gefiltert.

Ist das nicht ein Widerspruch in sich? Für mich hat sich Anisotropische Filterung immer so dargestellt: je höher der Filterungsgrad, desto schärfer das Bild bzw. die Textur. Wenn also bei kritischen Winkeln nur mit max. 2xAF gefiltert wird, dann ist damit automatisch die Textur unschärfer als bei 4x/8x/16xAF.

Für mich bleibt weiterhin nur folgende Schlussfolgerung logisch und ohne jeden inneren Widerspruch: kritischer Winkel -> ATIs 2xAF -> unscharfe Textur. Mit anderen Worten, ich glaub nicht, dass hier der Hund bei Crytek begraben liegt.

Piffan
2004-01-30, 23:09:44
Original geschrieben von VoodooJack
Ist das nicht ein Widerspruch in sich? Für mich hat sich Anisotropische Filterung immer so dargestellt: je höher der Filterungsgrad, desto schärfer das Bild bzw. die Textur. Wenn also bei kritischen Winkeln nur mit max. 2xAF gefiltert wird, dann ist damit automatisch die Textur unschärfer als bei 4x/8x/16xAF.

Für mich bleibt weiterhin nur folgende Schlussfolgerung logisch und ohne jeden inneren Widerspruch: kritischer Winkel -> ATIs 2xAF -> unscharfe Textur. Mit anderen Worten, ich glaub nicht, dass hier der Hund bei Crytek begraben liegt.

Wenn Du es nicht glaubst, dann gucke dich bei FC unter reinem Tri- Filter (ohne Aniso) mal um. Da springen dir bestimmte Texturen als total verschwommen ins Auge.....Wo kein AF an ist, kann auch Atis AF nicht schuld sein. ;)

Glauben heißt nicht wissen :D

Mr. Lolman
2004-01-30, 23:12:39
Original geschrieben von LovesuckZ
Dann erbitte mir die Anmerkung: Kritik deinerseits gegen brilineare Filterung solltest du am besten dann für die Zukunft lassen.

Der unterschied ist, dass man bei NV mit den neuesten Treiber in d3d immer mit einem brilinearem Filter gestraft ist, egal wie flott das Spiel läuft...

Ich habe zwar nur die Demo gespielt, aber diese in 1280*1024 mi 2AA/8QAF.

Ich kenn die Demo nicht, aber die fps bei Schwertkämpfen (in 1280 2xAA/8xQAF) hätt ich schon gern gesehen ;)

Original geschrieben von VoodooJack
Für mich bleibt weiterhin nur folgende Schlussfolgerung logisch und ohne jeden inneren Widerspruch: kritischer Winkel -> ATIs 2xAF -> unscharfe Textur. Mit anderen Worten, ich glaub nicht, dass hier der Hund bei Crytek begraben liegt.

Mach doch mal einen Screenshot von der Stelle.

aths
2004-01-30, 23:16:42
Original geschrieben von Piffan
Ich muss auch zugeben, dass ich eher die 5200 mehmen würde als einen R200....
Wenn die Leistung in etwa so ist wie bei der GF3,Knapp unterhalb GF4 MX 440. Also doch ein Stück unterhalb GF3.

Mr. Lolman
2004-01-30, 23:22:15
Original geschrieben von Quasar
Und ich habe zusätzlich die Wahl, ob ich bei einem anspruchslosen Game nicht vielleicht doch auf Mip-Banding verzichte oder gar 4xS-AA reinhaue.


Welches Spiel ist so anspruchslos :???:


In jedem anderen Bereich: Sicher, Geschmacksfrage. Aber im Low-Cost Sektor wäre das einzige pro-9200-Argument für mich ein niedrigerer Preis, sorry, aber hier ist alles andere an den Haaren herbeigezogen.

Hm, die FX hat zwar mehr Features, aber die Rohleistung einer 9200 ist in der Tat fast durchgängig etwas höher, AA ist zum Grossteil verzichtbar (d.h. unnutzbar ;)), und AF kann man imo problemlos (fast) immer bis 4x einstellen.

Demirug
2004-01-30, 23:31:09
Original geschrieben von Piffan
Wenn Du es nicht glaubst, dann gucke dich bei FC unter reinem Tri- Filter (ohne Aniso) mal um. Da springen dir bestimmte Texturen als total verschwommen ins Auge.....Wo kein AF an ist, kann auch Atis AF nicht schuld sein. ;)

Ich weiss ja nicht wie ich den Simile hier nun deuten soll.

Umkehrschluss: Wenn es mit AF nicht besser wird dann ist ATIs AF dort nutzloss weil es eben keine Verbesserung an dieser Stelle bringt. Könnte natürlich auch an der Textur liegen die nicht mehr Details hergibt.

Du hast aber schon recht. Das AF macht das Bild nicht verschwommen. Daran ist das Mipmapping schuld. Nur AF sollte eben den Informationsgehalt für diese Pixel wieder erhöhen und die negativen Auswirkungen des Mipmappings reduzieren.

LovesuckZ
2004-01-30, 23:34:50
Original geschrieben von Mr. Lolman

Der unterschied ist, dass man bei NV mit den neuesten Treiber in d3d immer mit einem brilinearem Filter gestraft ist, egal wie flott das Spiel läuft...[/Size]

Und?
Jemand der Bilinear vorzieht, brauch sich darueba ja nicht zu beschweren.

Ich kenn die Demo nicht, aber die fps bei Schwertkämpfen (in 1280 2xAA/8xQAF) hätt ich schon gern gesehen ;)


Zwischen 25 - 35fps (hab die Demo vor kurzen geloescht...)

Piffan
2004-01-30, 23:35:46
Original geschrieben von Demirug
Ich weiss ja nicht wie ich den Simile hier nun deuten soll.

Umkehrschluss: Wenn es mit AF nicht besser wird dann ist ATIs AF dort nutzloss weil es eben keine Verbesserung an dieser Stelle bringt. Könnte natürlich auch an der Textur liegen die nicht mehr Details hergibt.

Du hast aber schon recht. Das AF macht das Bild nicht verschwommen. Daran ist das Mipmapping schuld. Nur AF sollte eben den Informationsgehalt für diese Pixel wieder erhöhen und die negativen Auswirkungen des Mipmappings reduzieren.

Wenn ich aber direkt vor der Textur stehe, mit der Nase gegenstoße, dann stelle ich die absolute Unschärfe fest und kann auch die Verzerrung sehen. Wenn ich diese "Flecken" aus der Entfernung betrachte, dann sind sie durch das Mipmapping extremst unscharf im Vergleich zu benachbarten Texturen; man ist versucht, sich die Augen zu reiben. Am besten zeige ich mal so eine Stelle...

Demirug
2004-01-30, 23:40:26
Original geschrieben von Piffan
Wenn ich aber direkt vor der Textur stehe, mit der Nase gegenstoße, dann stelle ich die absolute Unschärfe fest und kann auch die Verzerrung sehen. Wenn ich diese "Flecken" aus der Entfernung betrachte, dann sind sie durch das Mipmapping extremst unscharf im Vergleich zu benachbarten Texturen; man ist versucht, sich die Augen zu reiben. Am besten zeige ich mal so eine Stelle...

Ja, genau solche Fälle meinte ich ja mit "Könnte natürlich auch an der Textur liegen die nicht mehr Details hergibt"

Wo nichts ist kann man eben nichts rausholen.

Piffan
2004-01-30, 23:44:44
Also hier mal aus der Übersicht, da könnte man ja noch auf die Idee mit der Winkelabhängigkeit kommen. Allerdings ist nur Trifilter an.

http://www.ystart.net/upload/20040130/1075502521.jpg



Hier jetzt mal von frontal: Wie man sieht, sind die Texturen ein Witz für eine Grafik dieses Kalibers. Ich hoffe, dass das noch nicht das letzte Wort ist und noch manche Verbesserung kommt.

http://www.ystart.net/upload/20040130/1075502644.jpg

Demirug
2004-01-30, 23:57:08
Original geschrieben von Piffan
Also hier mal aus der Übersicht, da könnte man ja noch auf die Idee mit der Winkelabhängigkeit kommen. Allerdings ist nur Trifilter an.

<snip>

Hier jetzt mal von frontal: Wie man sieht, sind die Texturen ein Witz für eine Grafik dieses Kalibers. Ich hoffe, dass das noch nicht das letzte Wort ist und noch manche Verbesserung kommt.

<snip>

Das Problem kenne ich zu gut. :D

Läuft bei mir unter dem Titel: "Terrain Engine Steilwand Bug"

Mr. Lolman
2004-01-30, 23:59:31
Original geschrieben von LovesuckZ
Und?
Jemand der Bilinear vorzieht, brauch sich darueba ja nicht zu beschweren.


:grübel:

Wenn die Performance reicht (@max. Details) und das Spiel absolut flüssig ist, schalt ich Fulltri AF an. Normalerweise teste ich die spiele mit bi-AF an, wenns nicht reicht, dann halt TS0 oder Quality AF. Wenn bei der FX bri nicht reicht, dann gibts nix (ausser einen älteren Treiber oder vielleicht OpenGL als Option).

Piffan
2004-01-31, 00:01:28
Liegt es daran, dass das "Polygon- Lodding" die Texturen so in die Länge zieht bzw. die Breite staucht? Denn es scheint irgendwie verzerrt zu sein, und dass nur an bestimmten Stellen.... Heißt also, dass man da nur von Hand nachbessern könnte; ein einfacher Texturentausch funzt nicht :(

edit: Von Hand scheidet wohl auch aus, da das Terrain dynamisch ist....

Ich sage ja schon lange: Die Gothic- Mannen sollen lieber ihre eigene Engine ausbauen, die ist verdammt gut!

Demirug
2004-01-31, 00:11:15
Original geschrieben von Piffan
Liegt es daran, dass das "Polygon- Lodding" die Texturen so in die Länge zieht bzw. die Breite staucht? Denn es schein ja irgendwie verzerrt zu sein, und dass nur an bestimmten Stellen.... Heißt also, dass man da nur von Hand nachbessern könnte; ein einfacher Texturentausch funzt nicht :(

Ich weiss jetzt natürlich nicht genau wie die Engine dort arbeitet. Das ganze sieht aber nach einem typischen Terrain Engine Problem aus. Dabei gibt es zwei "Texturen". In einer sind die Höhenwerte des Geländes und in der zweiten die Farbwerte für die Geländefläche. Zwischen zwei Geländepunkte stehen immer die gleiche Anzahl von texel zur Verfügung. Überbrückt man nun schnell (von einem Punkt zum nächten) eine grosse Höhe (Steilwand) wird auch das Polygon für diese Fläche sehr hoch. Da man aber nur wenige Texel dafür hat ziehen sich diese in die Höhe.

Der einfachste Weg sowas zu vermeiden ist der Verzicht auf Steilwände. Alternativ gibt es wohl auch ein paar mathematische Lösungen. Da bin ich allerdings selber noch am experimentieren.

VoodooJack
2004-01-31, 00:16:31
Original geschrieben von Piffan
Glauben heißt nicht wissen :D

Da bin ich wieder absolut einer Meinung mit dir.

Um es kurz zu machen mit diesen verschwommenen Flecken in der Buggy-Bucht (wie treffend). Ich wär echt froh, wenn Nvidia User das bestätigen würden, was wir mit unseren Radeons hier sehen. Dann könnten wir mit vereinten Kräften den Schwarzen Peter Crytek zuschieben.

@Lolman
Mit r_Glare 0 kann man die Performance um satte 20% erhöhen. Schon ausprobiert?

Piffan
2004-01-31, 00:21:44
Original geschrieben von Demirug
Ich weiss jetzt natürlich nicht genau wie die Engine dort arbeitet. Das ganze sieht aber nach einem typischen Terrain Engine Problem aus. Dabei gibt es zwei "Texturen". In einer sind die Höhenwerte des Geländes und in der zweiten die Farbwerte für die Geländefläche. Zwischen zwei Geländepunkte stehen immer die gleiche Anzahl von texel zur Verfügung. Überbrückt man nun schnell (von einem Punkt zum nächten) eine grosse Höhe (Steilwand) wird auch das Polygon für diese Fläche sehr hoch. Da man aber nur wenige Texel dafür hat ziehen sich diese in die Höhe.

Der einfachste Weg sowas zu vermeiden ist der Verzicht auf Steilwände. Alternativ gibt es wohl auch ein paar mathematische Lösungen. Da bin ich allerdings selber noch am experimentieren.

Wenn das Gelände statisch ohne LOD wäre, dann könnte man ja bei den Texturen Vorkehrungen treffen; wo starke Höhendiffernzen sind, müsste man dann die Auflösung der Textur in der einen Richtung stark Erhöhen. Beim LOD, wenn in der Ferne die Wände abflachen, würde allerdings leicht Texturenflimmern auftreten. Eigentlich bräuchte "nur" das Terrain- LOD korrekt an das Texturen- LOD angepasst zu sein, am besten würden die Texturen mit dem LOD in der Gegenrichtung "vor- gereckt"....:freak:

Klar, wenn es so einfach ginge, dann würden es die Crytech- Leute auch machen.

zeckensack
2004-01-31, 00:46:52
Original geschrieben von Piffan
Wenn das Gelände statisch ohne LOD wäre, dann könnte man ja bei den Texturen Vorkehrungen treffen; wo starke Höhendiffernzen sind, müsste man dann die Auflösung der Textur in der einen Richtung stark Erhöhen.Damit riskierst du, dass die Textur nicht mehr 'passt', also die einzelnen Polygone sichtbare Säume haben, was noch hässlicher wäre.

Versuch mal ein grosses Bettlaken um ein Sofa zu legen, so dass an allen Seiten der Boden berührt wird und nirgendwo eine Falte im Laken ist. Es geht einfach nicht.

Die Lösung, die letztlich zu dem Unscharfe-Steilwand-Problem führt, ist ein unendlich elastisches "Gummi-Laken", das sich immer von selbst glattzieht. Dabei liegen dann aber je nach Dehnung des Materials mal mehr und mal weniger Maschen (=>Texel) pro Fläche auf dem umspannten Objekt.

Quasar
2004-01-31, 09:08:42
Original geschrieben von Mr. Lolman
Welches Spiel ist so anspruchslos :???:
Vorwiegend ältere. :) Labberlippe nannte z.B. so eines.


Original geschrieben von Mr. Lolman
Hm, die FX hat zwar mehr Features, aber die Rohleistung einer 9200 ist in der Tat fast durchgängig etwas höher, AA ist zum Grossteil verzichtbar (d.h. unnutzbar ;)), und AF kann man imo problemlos (fast) immer bis 4x einstellen.
Nur zum besseren Verständnis meinerseits: Wir reden hier von der normalen R9200 (250/200) und der normalen FX5200 (250/200), nicht von irgendwelchen Ultra/Pro-Versionen ggü. abgespeckten 64Bittern, gell?

Ailuros
2004-01-31, 10:33:57
...abgespeckten 64Bittern, gell?

Ramazotti oder Fernet Branca? ;D

:weg:

Gast
2004-01-31, 13:04:58
Original geschrieben von Quasar
Nur zum besseren Verständnis meinerseits: Wir reden hier von der normalen R9200 (250/200) und der normalen FX5200 (250/200), nicht von irgendwelchen Ultra/Pro-Versionen ggü. abgespeckten 64Bittern, gell?

Ja natürlich. Und selbst bei NVs ehemaligen Vorzeigebenchmark Codecreatures (warum wird das Teil immernoch gebencht ??) ist die 9200 vor der Fx5200. Ansonsten sieht man sie sogar tw. vor der FX5200 Ultra

http://www.digit-life.com/articles2/over2003/index.html

Mr. Lolman
2004-01-31, 13:14:26
der Gast war ich :)

Original geschrieben von Piffan
Wenn das Gelände statisch ohne LOD wäre, dann könnte man ja bei den Texturen Vorkehrungen treffen; wo starke Höhendiffernzen sind, müsste man dann die Auflösung der Textur in der einen Richtung stark Erhöhen. Beim LOD, wenn in der Ferne die Wände abflachen, würde allerdings leicht Texturenflimmern auftreten. Eigentlich bräuchte "nur" das Terrain- LOD korrekt an das Texturen- LOD angepasst zu sein, am besten würden die Texturen mit dem LOD in der Gegenrichtung "vor- gereckt"....:freak:

Klar, wenn es so einfach ginge, dann würden es die Crytech- Leute auch machen.


Bei der UT Eninge gibts genau das selbe Problem. Z.B. bei DM-Antalus hat man viele Static Meshes als Felswände verwendet, um das Problem zu überdecken.

Eine Möglichkeit wäre noch, wie du schon sagtest, eine zusätzliche, höher aufgelöste (oder einfacher => die gleiche, nicht so stark vergrösserte) Textur auf einen neuen Layer zu spannen, und solche Stellen mit eben diesem neuen Terrainlayer zuspachteln. Das geht am Besten mit 2 Layern, wo die Texturen einmal xz und einmal yz ausgerichtet sind.

(Die Grastextur auf deinem Screenshot besitzt eine xy Ausrichtung)

Quasar
2004-01-31, 13:17:37
Original geschrieben von Gast
Ja natürlich. Und selbst bei NVs ehemaligen Vorzeigebenchmark Codecreatures (warum wird das Teil immernoch gebencht ??) ist die 9200 vor der Fx5200.
http://www.digit-life.com/articles2/over2003/index.html
Komisch, ich sehe da 14,7 für die "Radeon9200 128MB 250/400" gegenüber 16,1 für die "FX5200 128MB 250/400".

Original geschrieben von Gast
Ansonsten sieht man sie sogar tw. vor der FX5200 Ultra

Ausnahmen gibt es immer. "Teilweise" sieht man auch eine GF2U vor einer R9800p. Und?

LovesuckZ
2004-01-31, 13:18:32
Original geschrieben von Gast
Ja natürlich. Und selbst bei NVs ehemaligen Vorzeigebenchmark Codecreatures (warum wird das Teil immernoch gebencht ??) ist die 9200 vor der Fx5200. Ansonsten sieht man sie sogar tw. vor der FX5200 Ultra


Ich weiß ja nicht, welche Zahl du gesehen haben willst, aber die 5200 liegt nur 3% hinter der 9000pro und 10% vor der 9200...

StefanV
2004-01-31, 13:29:09
Original geschrieben von LovesuckZ
Ich weiß ja nicht, welche Zahl du gesehen haben willst, aber die 5200 liegt nur 3% hinter der 9000pro und 10% vor der 9200...

Wo?
Unter welchen Umständen??

PS: die 9000 liegt entweder dicht bei der FX5200 oder teilweise etwas deutlicher dadrüber.

Mr. Lolman
2004-01-31, 14:37:00
Original geschrieben von LovesuckZ
Ich weiß ja nicht, welche Zahl du gesehen haben willst, aber die 5200 liegt nur 3% hinter der 9000pro und 10% vor der 9200...

Wasn das für ein Kauderwelsch? Ich seh grad, die haben da mehrere 128bit FX5200.

x) 275/500
x) 250/400
x) 250/300


Wie auch immer. Bei 64bit ist ATi schneller, und bei 128bit ist die langsamste FX sogar in Codecreatures langsamer... (so hatte ichs zuerst gesehen, wo mir noch nicht auffiel, dass da drei 128bit FX5200 in der Liste stehen.)

Quasar
2004-01-31, 14:56:56
Original geschrieben von Mr. Lolman
Wasn das für ein Kauderwelsch? Ich seh grad, die haben da mehrere 128bit FX5200.

x) 275/500
x) 250/400
x) 250/300


Wie auch immer. Bei 64bit ist ATi schneller, und bei 128bit ist die langsamste FX sogar in Codecreatures langsamer... (so hatte ichs zuerst gesehen, wo mir noch nicht auffiel, dass da drei 128bit FX5200 in der Liste stehen.)

Kauderwelsch? Zahlen sind doch eindeutig (zumindest in diesem Falle).

Das K-Wort könnte man evtl. auf deinen letzten Satz anwenden: Was willst du sagen? Welche 64Bit-ATi ist schneller? Schneller als was? Schneller wobei? Und welche 128Bit-FX ist langsamer, worin und gegenüber wem?

Quasar
2004-01-31, 15:00:31
Original geschrieben von Stefan Payne
PS: die 9000 liegt entweder dicht bei der FX5200 oder
teilweise etwas deutlicher dadrüber.

Wie ich sagte: Man kann sich beides rauspicken, aber die Optionsvielfalt bei der FX5200 ist gegenüber der R9200 (und um die ging es) eindeutig größer.

Mr. Lolman
2004-01-31, 15:05:01
Kauderwelsch in dem sinne, dass (wahrscheinlich nicht nur) ich nicht wusste, dass es 3 unterschiedliche Versionen einer 128bit FX5200 (nonUltra) gibt.


Zu meinem letzten Satz:
x) 64bit 9200 ist meist schneller als 64bit 5200.
x) 250/300 128bit FX5200 ist sogar bei Codecreatures langsamer als die 128bit 9200...

Riptor
2004-01-31, 15:11:40
Also: Ob nun FX5200 oder R9000 ist im prinzip ja wurscht. Hier (http://www.digit-life.com/articles2/value-2003/index.html) mal ne nette Übersicht (alles in 800*600, Werte in FPS):

Quake 3:
R9200 128-Bit: 143
FX5200 128-Bit: 173

SS2:
R9200 128-Bit: 147
FX5200 128-Bit: 126

RtCW:
R9200 128-Bit: 145
FX5200 128-Bit: 143

UT2K3:
R9200 128-Bit: 62
FX5200 128-Bit: 60

Unreal 2:
R9200 128-Bit: 53
FX5200 128-Bit: 43

Halo:
R9200 128-Bit: 23
FX5200 128-Bit: 25

Splinter Cell:
R9200 128-Bit: 16
FX5200 128-Bit: 19

Im Grunde genommen also egal, für welche man sich entscheidet, die FX5200 hat den "DX9-Bonus" und das wars dann. Allerdings sind beide Karten kaum erhältlich, bei den Radeons findet fast immer die R9200SE, bei der FX5200 fast immer nur die 64-Bit Version. Im Prinzip kann sich dann jeder selbst entscheiden, welche Karte er nimmt, ausschlaggebend ist dann im Endeffekt nur noch, ob man überhaupt eine 128-Bit Karte bekommt oder nicht. ;)

Riptor
2004-01-31, 15:18:34
Original geschrieben von Mr. Lolman
Kauderwelsch in dem sinne, dass (wahrscheinlich nicht nur) ich nicht wusste dass es 3 unterschiedliche Versionen einer 128bit FX5200 (nonUltra) gibt.

Gibt es "offiziell" auch nicht:

Das eine (http://www.digit-life.com/articles2/digest3d/1203/itogi-video-gffx5200-275-500.html) ist eine höher getaktete Pixelview (sozusagen ne "bessere" FX5200), die andere (http://www.digit-life.com/articles2/digest3d/1203/itogi-video-gffx5200.html) ist die Standard-FX5200, wie sie üblich verkauft wird/wurde und die letzte (http://www.digit-life.com/articles2/digest3d/1203/itogi-video-gffx5200-250-300.html) IMO eine OEM-NoName-Karte, die auch nicht offiziell vertrieben wurde, aber die es anscheinend auch gbt, bei Speicher machen ja die Hersteller teilweise was sie wollen. Und als letztes eben die 64-Bit (http://www.digit-life.com/articles2/digest3d/1203/itogi-video-gffx5200-64bit.html) Version, die ich selbst hatte und die für kleine Spielchen zwischendurch fast schon zu wenig Luft hat.

x) 64bit 9200 ist meist schneller als 64bit 5200.

Eher anders herum... klick (http://www.digit-life.com/articles2/value-2003/index.html)

x) 250/300 128bit FX5200 ist sogar bei Codecreatures langsamer als die 128bit 9200...

Wen interessiert der CCB? Insgesamt schenken sich beide kaum was... Mal die eine schneller, mal die andere.

Quasar
2004-01-31, 15:21:25
Original geschrieben von Mr. Lolman
Kauderwelsch in dem sinne, dass (wahrscheinlich nicht nur) ich nicht wusste, dass es 3 unterschiedliche Versionen einer 128bit FX5200 (nonUltra) gibt.


Zu meinem letzten Satz:
x) 64bit 9200 ist meist schneller als 64bit 5200.
x) 250/300 128bit FX5200 ist sogar bei Codecreatures langsamer als die 128bit 9200...

Tjo, oben waren wir uns noch einig, daß wir hier die regulären Versionen (und nicht eigenmächtiges Herumtakten einiger Hersteller) vergleichen.

Und die reguläre Taktung einer FX5200 non-ultra beläuft sich auf 250/200MHz bei 128Bit Anbindung.
Die Reguläre Taktung der R9200 ist 250/200 bei ebenfalls 128Bit-Anbindung.

Oben, als du noch das xBit-Labs Review falsch gelesen hattest, warst du damit ja auch noch recht zufrieden, oder?

Quasar
2004-01-31, 15:27:49
Original geschrieben von Riptor
Im Grunde genommen also egal, für welche man sich entscheidet, die FX5200 hat den "DX9-Bonus" und das wars dann.

Eben nicht. =)
In diesem Falle ist der Vorteil, daß die Leistung quasi stufenlos variieren kann.
Ich kann aus einer Vielzahl von AA-Modi auswählen, von denen die meisten denen der R9200 sowohl in Geschwindigkeit als auch in Qualität überlegen ist.
Ich kann höherwertiges AF benutzen, aber, wenn die Leistung knapp wird, eben auch auf das Level der R9200 heruntergehen.
Ich kann mir alle Codepfade bis einschließlich PS2.0 durchprobieren und dann den geeignetsten Kompromiß aus Bildqualität und Framerate auswählen.

DAS ist eben meiner Ansicht nach der Vorteil, daß, wenn die Leistung ausreicht, man ein besseres Bild bekommt.

Endorphine
2004-01-31, 15:41:12
;D Ein Gast lässt den Spruch "FX5200 = Mogelpackung = kein DX9" raus und schon wird ein 9 Seiten langer Thread daraus. :D

Riptor
2004-01-31, 15:52:46
Original geschrieben von Quasar
In diesem Falle ist der Vorteil, daß die Leistung quasi stufenlos variieren kann. Ich kann aus einer Vielzahl von AA-Modi auswählen, von denen die meisten denen der R9200 sowohl in Geschwindigkeit als auch in Qualität überlegen ist.

:up: Nur --> klock (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=114858) --> Bevor ich mir DARÜBER Gedanken mache, muss ich erst mal eine finden, wobei sich das in meinem Fall schon wieder erledigt hat... *evilgrin* Ich denke halt pragmatisch.

DAS ist eben meiner Ansicht nach der Vorteil, daß, wenn die Leistung ausreicht, man ein besseres Bild bekommt.

Das stimmt, gebe ich dir voll recht, ist auch meine Sicht, aber im Prinzip machts im Endeffekt wieder kaum was aus und ist IMO <-- IMO Erbsenzählerei. *g* Ich mein: Die FX5200, kein Thema, ist "besser" als eine R9200... Aber als Pragmatiker merk ich davon dann im Endeffekt zu wenig, als dass ich mir den Arsch aufreiß, an das Teil zu kommen. Wenn mir dann glücklicherweise eine R9000 für die Hälfte des Preises (FX5200 128-Bit Karten ab 70 Euro!), dann erübrigt sich für mich das Thema. Wobei du ganz klar die Argumente auf deiner Seite hast. ;)

@ Endorphine: Aber immer doch! Sowas nennt man "Diskussiongrundlage", ohne die FX5200 wär es etwas langweilig... btw: Meine 64-Bit FX5200 bin ich seit gestern endlich los. Wird mich jetzt jedenfalls nicht mehr mit ihrer unterirdischen Performance auslachen können. :naughty:

aths
2004-01-31, 15:56:52
Original geschrieben von Quasar
Eben nicht. =)
In diesem Falle ist der Vorteil, daß die Leistung quasi stufenlos variieren kann.

[...]

DAS ist eben meiner Ansicht nach der Vorteil, daß, wenn die Leistung ausreicht, man ein besseres Bild bekommt. Erinnert mich an eine 9600. Herrliche Features, aber recht begrenzte Leistung.

Riptor
2004-01-31, 16:01:13
Original geschrieben von aths
Erinnert mich an eine 9600. Herrliche Features, aber recht begrenzte Leistung.

Noch übeler ist dann die R9600SE oder die FX5600XT... :naughty:

Mr. Lolman
2004-01-31, 16:16:49
Original geschrieben von Quasar
Eben nicht. =)
In diesem Falle ist der Vorteil, daß die Leistung quasi stufenlos variieren kann.
Ich kann aus einer Vielzahl von AA-Modi auswählen, von denen die meisten denen der R9200 sowohl in Geschwindigkeit als auch in Qualität überlegen ist.
Ich kann höherwertiges AF benutzen, aber, wenn die Leistung knapp wird, eben auch auf das Level der R9200 heruntergehen.
Ich kann mir alle Codepfade bis einschließlich PS2.0 durchprobieren und dann den geeignetsten Kompromiß aus Bildqualität und Framerate auswählen.

DAS ist eben meiner Ansicht nach der Vorteil, daß, wenn die Leistung ausreicht, man ein besseres Bild bekommt.

AA/AF :grübel:. Das sind Uraltspiele vom Schlage QII, die mit AA/AF in 1024 brauchbar funktonieren..

Dass eine 128bit Radeon 9200 etwas günstiger ist als eine 128bit Fx5200 wissen wir auch. Dass nicht alle Fx5200 passiv gekühlt sind, im GGs zu den Radeon 9200 wissen wir auch, genauso wie, dass passiv gekühlte 5200 mitunder ziemlich heiss werden.

Dafür bekommt man DX9 Leistung, die gerademal ermöglicht Dawn low quality halbwegs flüssig darzustellen und AA/AF was zwar bei Carmageddon 2 vielleicht ganz toll sein mag (da wär aber SSAA ohnehin praktischer), aber bei neueren Spielen, in denen ohnehin nur mehr 800x600 drinnen ist, komplett irrelevant wird.

Warum empfielst du eigentlich nie so energisch eine Radeon 9700pro. Gerade hinsichtlich AA/AF steht sie eindeutig besser da als eine FX5900XT* und kostet gerademal ~30€ mehr und im GGs. zur FX5200 ist AA/AF da wirklich nutzbar)

*in 1024x768 4xAA 8xAF ist eine Radeon 9600XT oft schon so schnell wie eine FX5900XT

AF dürfte auf einer 9200 sehrwohl nutzbar sen, da technik bedingt der AF Algorithmus der Radeon 9200 flotter ist als der der FX5200. (Das deR Qualitätspreis an NV geht ist ebenso klar, wie die Tatsache, dass es sehr wohl schon einige Spiele gibt, bei denen die Mipmapbänder des bi-AF der ATi unangenehm auffallen könnten.

Trotzdem sollte meiner Meinung nach AA/AF, bei der Kaufentscheindung von Low Karten nicht allzusehr ausschlaggebend sein, da erst einmal die Grundperformance passen sollte (die ja bei beiden Kandidaten nicht sonderlich hoch ist;)

Riptor
2004-01-31, 16:22:18
Original geschrieben von Mr. Lolman
Trotzdem sollte meiner Meinung nach AA/AF, bei der Kaufentscheindung von Low Karten nicht allzusehr ausschlaggebend sein, da erst einmal die Grundperformance passen sollte (die ja bei beiden Kandidaten nicht sonderlich hoch ist)

So in etwa seh ich das auch... Wobei Quasars Argumente auch wieder nett sind... Hmmm... Ich kann micht nicht entscheiden... http://forum.counter-strike.de/bb/img/smilies/icon16.gif Aber im Notfall immer für das Produkt mit den mehr i-Pünktchen:

nVidia eFiX 5200: 3 * "i"
ATi Radeon 9200: 1 * "i"

Also lieber die FX5200 nehmen... *eg*

Mr. Lolman
2004-01-31, 16:31:33
Original geschrieben von Riptor
So in etwa seh ich das auch... Wobei Quasars Argumente auch wieder nett sind... Hmmm... Ich kann micht nicht entscheiden... http://forum.counter-strike.de/bb/img/smilies/icon16.gif Aber im Notfall immer für das Produkt mit den mehr i-Pünktchen:

nVidia eFiX 5200: 3 * "i"
ATi Radeon 9200: 1 * "i"

Also lieber die FX5200 nehmen... *eg*


Stimmt von den möglichen Spielereien ist ja eine FX5200 wirklich ganz nett. Aber für den extrem preisbewussten Gamer ist m.E. die 9200 die bessere Wahl weil

x) immer passiv
x) kühler als passiv FX5200
x) günstiger
x) AF fast immer möglich


Für den Computerfreak der sich ein günstiges Teil zum herumspielen sucht, und seine Karte auch ein bisschen abseits vom 08/15 Spieleparcour einsetzt (Szenedemos usw.) ist die Fx5200 eine ganz gute Wahl. Wobei vernünftige Fx5200 auch ~70€ kosten und um <20€ mehr, schon wieder eine allemal empfehlenswertere Radeon 9500 wartet. (Wo sich dabei dann wieder die Frage stellt, ob man da nicht doch eine Ti4200 nehmen sollte, dafür mit 128MB RAM, und so drehen wir uns um Kreis :jump1:

Riptor
2004-01-31, 16:40:10
Original geschrieben von Mr. Lolman
Wobei vernünftige Fx5200 auch ~70€ kosten und um <20€ mehr, schon wieder eine allemal empfehlenswertere Radeon 9500 wartet. (Wo sich dabei dann wieder die Frage stellt, ob man da nicht doch eine Ti4200 nehmen sollte, dafür mit 128MB RAM, und so drehen wir uns um Kreis :jump1:

Linux-Use greifen aber blind und zu recht zur FX5200 und nicht zur R9200... *eg*

Aber du sagst es: "Wir drehen uns im Kreis." Und kommen kein Stück weiter... :D

Quasar
2004-01-31, 17:14:30
Original geschrieben von Mr. Lolman
AA/AF :grübel:. Das sind Uraltspiele vom Schlage QII, die mit AA/AF in 1024 brauchbar funktonieren..

Dass eine 128bit Radeon 9200 etwas günstiger ist als eine 128bit Fx5200 wissen wir auch. Dass nicht alle Fx5200 passiv gekühlt sind, im GGs zu den Radeon 9200 wissen wir auch, genauso wie, dass passiv gekühlte 5200 mitunder ziemlich heiss werden.

Dafür bekommt man DX9 Leistung, die gerademal ermöglicht Dawn low quality halbwegs flüssig darzustellen und AA/AF was zwar bei Carmageddon 2 vielleicht ganz toll sein mag (da wär aber SSAA ohnehin praktischer), aber bei neueren Spielen, in denen ohnehin nur mehr 800x600 drinnen ist, komplett irrelevant wird.

Warum empfielst du eigentlich nie so energisch eine Radeon 9700pro. Gerade hinsichtlich AA/AF steht sie eindeutig besser da als eine FX5900XT* und kostet gerademal ~30€ mehr und im GGs. zur FX5200 ist AA/AF da wirklich nutzbar)

*in 1024x768 4xAA 8xAF ist eine Radeon 9600XT oft schon so schnell wie eine FX5900XT

AF dürfte auf einer 9200 sehrwohl nutzbar sen, da technik bedingt der AF Algorithmus der Radeon 9200 flotter ist als der der FX5200. (Das deR Qualitätspreis an NV geht ist ebenso klar, wie die Tatsache, dass es sehr wohl schon einige Spiele gibt, bei denen die Mipmapbänder des bi-AF der ATi unangenehm auffallen könnten.

Trotzdem sollte meiner Meinung nach AA/AF, bei der Kaufentscheindung von Low Karten nicht allzusehr ausschlaggebend sein, da erst einmal die Grundperformance passen sollte (die ja bei beiden Kandidaten nicht sonderlich hoch ist;)

1. Ja, ältere Games. Jemand, der sich Low-Budget Karten kauft, wird kaum sofort in den Laden rennen und jedes neuerschienene, hardwarefressende Game vorbestellen, oder?
Ausserdem war bisher nie die Rede von Auflösungen. Gerade ältere Games bieten oft nicht einmal 1024 an...

2. Wir,wir,wir,wir.... Ich klammere mich hiermit mal ausdrücklich aus aus dieser Unterstellung, es würde sich um allgemeinen Konsens handeln.
"Wir" wissen jedoch auch, daß es genauso aktiv gekühlte R9200er gibt, wie FX5200. "Wir" wissen auch, daß das passive Heatsink einer R9000 (habe grade keine 9200er zur Hand) locker über 60°C warm wird - so what? "Wir" wissen natürlich, daß die FX5200 ggü. der R9200 einen Mehrwert bietet, so daß ein Aufpreis durchaus gerechtfertigt ist. Wissen "wir" denn auch, ob die Preise für die 128Bit-9200er sich auf 64 oder 128MB-Versionen beziehen?

3. Richtig, man bekommt DX9-Leistung. Was bekommt man bei der Radeon9200 und DX9? Richtig, den RefRast, mit Glück. Bezgl. des Supersampling: Wenn SSAA besser ist, dann nutzt man halt SSAA auf der FX, wo liegt das Problem?
BTW, es gibt auch "neuere" Spiele, bei denen man höher als 800x600 gehen kann, wenn es der Bildschirm zuläßt.

4. Vielleicht, weil es da genügend "Ruuuuuuuuuulz"-Schreier gibt? Ausserdem habe ich keinerlei Probleme, mich über die Radeons sehr positiv zu äußern, wo sie es verdienen. Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1532221#post1532221) ist z.B. ein aktuelles Gegenbeispiel. Wenn du jetzt allerdings von mir erwartest, daß blindlings "Radeon" schreiend durch die Gegend renne, ohne auf den realen Nutzen, den ein potentieller Käufer davon hat, einzugehen, dann muss ich dich enttäuschen. Ich erlaube mir auch weiterhin, vorher nach den Bedürfnissen zu fragen.
30€? Wo gibt es denn R9700p für 200€? Und daß du jetzt wieder mit der 9600XT hier ankommst, zeigt mir nur, daß dir hinsichtlich unseres eigentlichen Themas keine Argumente mehr einfallen - Stichwort: GF2u ist auch mehr als einmal schneller als eine R9800p.

5. AF, ja. Gut, daß wir da mal drüber sprechen. Das, was ich oben geschrieben habe, scheinst du ja nicht gelesen zu haben. Man kann auch bei der FX5200 "Performance"-AF hinzuschalten - Bumm, bilinear. Und "dank" der Xx1-Architektur bringt es einen deutlichen Leistungsschub. Deine Mär von der AF-Schwäche gehört in die Zeit von 2002, aber nicht nach heute. Und wen Winkelabhängigkeit und schlechte Texturfilterung nicht stören, der kann auch bei der FX "High Performance" einschalten.
Aber wie gesagt, oben habe ich das schon geschrieben, warum solltest du es hier auf einmal zur Kenntnis nehmen.

6. Ja, natürlich sollte sowas wie AA und AF nicht Kaufentscheidend sein - man könnte es ja als Grund nehmen, eben NICHT zur ATi zu greifen. :gruebel: Ebenso sollte man DX9 ausschließen - schließlich bietet es ATi nicht.
Was wollen wir noch ausschließen? Vielleicht Hersteller aus den USA? Grüne Firmenlogos? Sorry, aber deine Ausflüchte werden immer unglaubhafter.
Wenn ich bei ähnlicher Performance (merke: ich sage NICHT, daß die FX notwendig immer überlegen ist!!) noch den Bonus etliche technologischer Goodies bekomme - wieso sollte ich darauf verzichten, wenn ich kein Fanboy bin?

aths
2004-01-31, 17:15:03
Original geschrieben von Mr. Lolman
Stimmt von den möglichen Spielereien ist ja eine FX5200 wirklich ganz nett. Aber für den extrem preisbewussten Gamer ist m.E. die 9200 die bessere Wahl weil

x) immer passivNa dann soll er sich eine passiv gekühlte FX 5200 suchen.
Original geschrieben von Mr. Lolman
x) kühler als passiv FX5200Ich gehöre zu denen, die mit ihrem PC winters heizen :naughty:
Original geschrieben von Mr. Lolman
x) günstigerDas ist ein Argument.
Original geschrieben von Mr. Lolman
x) AF fast immer möglich zs hat mit seiner 8500 ohne AF gespielt, damit trilinear möglich ist. Kann ich angesichts des R200-AFs nachvollziehen.

Original geschrieben von Mr. Lolman
Für den Computerfreak der sich ein günstiges Teil zum herumspielen sucht, und seine Karte auch ein bisschen abseits vom 08/15 Spieleparcour einsetzt (Szenedemos usw.) ist die Fx5200 eine ganz gute Wahl. Wobei vernünftige Fx5200 auch ~70€ kosten und um <20€ mehr, schon wieder eine allemal empfehlenswertere Radeon 9500 wartet. (Wo sich dabei dann wieder die Frage stellt, ob man da nicht doch eine Ti4200 nehmen sollte, dafür mit 128MB RAM, und so drehen wir uns um Kreis :jump1: Ja, so ab ca. 100 € kommt man in den Bereich, wo es mehrere brauchbare Produkte gibt.

Gast
2004-01-31, 17:16:13
Original geschrieben von Mr. Lolman
Stimmt von den möglichen Spielereien ist ja eine FX5200 wirklich ganz nett. Aber für den extrem preisbewussten Gamer ist m.E. die 9200 die bessere Wahl weil

x) immer passiv
x) kühler als passiv FX5200
x) günstiger
x) AF fast immer möglich


weil der preisbewusste Gamer auch so sehr darauf fixiert ist, ob die Karte passiv ist oder nicht und wie kühl sie nun ist.
Solange es passive FX5200 gibt, ist und bleibt sie passiv, denn so war Nvidias Vorgabe. Wenn ein Hersteller eine aktiv gekühlte anbietet, dann nehm ich eben einen anderen Hersteller.

Zum AF. Das ist auch auf der FX5200 immer möglich. Dort kann ich ja eben genauso auf die minderwertigste Qualität stellen, denn was anderes ist das AF des R200 und seiner Abkömmlinge nicht. Das steht in der Qualitätsskala ganz unten.
Das AA auf der FX ist ebenso flexibler. Insofern trifft Quasars Argumentation voll und ganz zu. Das DX9 ist ein Bonus. Beim Rest ist die FX5200 flexibler, bietet mehr Möglichkeiten und damit einfach besser.
Bei 143fps in Q3 kann man sehr schön AA und AF nutzen. Bei jedem CPU limitierten Game ebenso.
Der 9200 geht da dank Supersampling schnell die Luft aus und beim AF bietet sie eben nur aller minderwertigste Ware, auf die ich bei der FX 5200 auch zurückgreifen kann, zusätzlich aber die Möglichkeit habe auch besseres zu nutzen.
Im Low end gibts zur FX5200 einfach keine Alternative.
Wie ich bereits vor einigen Seiten schrieb. Wenn die Konkurenz - in diesem Fall also ATI - mal etwas besseres bietet, kann man auf der FX5200 von mir aus herumhacken. Bis dahin ist und bleibt sie das derzeit beste Low End Produkt und damit auch erste Wahl für Leute, die eben auch nur Geld in diesem Bereich ausgeben und nicht eine Klasse höher einsteigen wollen.

Quasar
2004-01-31, 17:17:03
Original geschrieben von Mr. Lolman
Stimmt von den möglichen Spielereien ist ja eine FX5200 wirklich ganz nett.

Schön, daß du dich doch noch dazu durchringen konntest. :up:

Original geschrieben von Mr. Lolman
Aber für den extrem preisbewussten Gamer ist m.E. die 9200 die bessere Wahl weil

x) immer passiv
x) kühler als passiv FX5200
x) günstiger
x) AF fast immer möglich


a) Wenn ich dir jetzt eine einzige nicht-passive R9200 zeige, ist dein Argument hinfällig. edit: Grad' bei Alternate gesehen: Gagabreit R9200 (http://www2.alternate.de/html/nodes_info/j9gy15.html)

b) q.e.d.

c) granted! (aber auch mit 128Bit und 128MB?)

d) entfällt, weil bei der FX ebenfalls. Bedenke, es ist keine GF3/4!

Riptor
2004-01-31, 17:25:45
Original geschrieben von Gast
Im Low end gibts zur FX5200 einfach keine Alternative.
Wie ich bereits vor einigen Seiten schrieb. Wenn die Konkurenz - in diesem Fall also ATI - mal etwas besseres bietet, kann man auf der FX5200 von mir aus herumhacken. Bis dahin ist und bleibt sie das derzeit beste Low End Produkt und damit auch erste Wahl für Leute, die eben auch nur Geld in diesem Bereich ausgeben und nicht eine Klasse höher einsteigen wollen.

Jepp, wenns neu sein muss --> FX5200 128-Bit... Falls es dir noch irgendwo neu und zu annehmbaren Preisen gibt. *eg*

aths
2004-01-31, 18:33:54
Original geschrieben von Quasar
d) entfällt, weil bei der FX ebenfalls. Bedenke, es ist keine GF3/4! Den "AF-Bug" hat nur GF4. GF3 macht AF mit genau der Effizienz, die man angesichts der Qualität erwartet. Bi-AF bringt damit einen Leistungsschub von bis zu Faktor 2. 2x AF halte ich für sinnvoller, als z. B. 4x winkeloptimiertes AF. Wenn die Power für eine gegebene AF-Stufe nicht reicht, kann man es mit bi statt tri versuchen. Was man nicht tun sollte ist, mit zusätzlicher Winkelabhängigkeit die Leistung zu steigern — man büßt dabei überproportional Qualität ein.

Quasar
2004-01-31, 18:40:09
Original geschrieben von aths
Den "AF-Bug" hat nur GF4. GF3 macht AF mit genau der Effizienz, die man angesichts der Qualität erwartet.
Ack. Aber auch unabhängig von dem Bug werden die nV2x durch AF IMO stärker gebremst, als die nV3x.

Mr. Lolman
2004-01-31, 19:07:31
Original geschrieben von Quasar
Schön, daß du dich doch noch dazu durchringen konntest. :up:

a) Wenn ich dir jetzt eine einzige nicht-passive R9200 zeige, ist dein Argument hinfällig. edit: Grad' bei Alternate gesehen: Gagabreit R9200 (http://www2.alternate.de/html/nodes_info/j9gy15.html)

b) q.e.d.

c) granted! (aber auch mit 128Bit und 128MB?)

d) entfällt, weil bei der FX ebenfalls. Bedenke, es ist keine GF3/4!


a) Die Gigabyte Radeon9200s die ich kenne sind alle passiv gekühlt:

Klick (http://www.ixbt.com/video2/images/giga-r9200/giga-9200-scan-front-with-cooler.jpg)
Klick (http://www.cooltechzone.com/images/reviews/video_cards/r9200_14.jpg)

b) lt. Razors Userreview wird die FX5200 ohne aktive Kühlung doch recht heiss (74°C nach Vollasttests) und lt. div. anderen Berichten (z.B Stefan Payne :naughty: ) sind R9000/9200 relativ kühl, im Betrieb, was eigentlich nicht verwunderlich ist, da selbst die komplexere, höher getaktete Rdeon 8500 mit einem Voodoo3 Passivkühler problemlos zu kühlen war.

c) AFAIK schon: FX5200 , IIRC ~70€ (oder gar mehr?), Radeon 9200: 50€ (http://www.geizhals.at/deutschland/a56488.html)

d) Ja das AF der FX5200 ist (wie das der 9200) ebenfalls deutlich flotter als das der GF4s, aber hohe AF Modi (bei denen auch die Mipmaps schön weit nach hinten geschoben sind = hohe Schärfe) kosten auf einer Fx5200 nunmal halt mehr Leistung*. Dafür ist das FX AF nicht so anfällig für Mipmapbandings wie ATi 'bi-' oder tw. sogar 'TS0-tri AF'.

Letztendlich ist es halt Geschmackssache. ZBag mochte das bi-AF, wegen dem tw. auftretenden Banding (bei Q3a und SS(:SE) wars ja wirklich schlimm) nicht, ich freute mich, dass z.B. Mafia auf meiner 8500 bei höheren fps auch besser aussah als euf der Ti4400 eines Freundes.**

4) Wo gibt es den FXen um 170€? Die Günstigste, die ich kenne, kostet (mal sehen...) ~177€, ok, dann sinds halt 40€ mehr, also nicht mehr ganz in der gleichen Preisklasse, dafür ist eine 9700pro auch fast schon wieder eine halbe Klasse höher anzusiedeln...





*Was nützt mir flottes 8xAF wenns dann unscharf ist wie Sau (und jetzt bitte nicht mit Bildchen von fiesen ATi Winkeln kommen) ich denke du weisst wie's gemeint ist.


** Jaja eine Ti440 ist keine FX52000 und eine 8500 keine 9200, aber den Sinn der 'flotten AF Modi' der FX hab ich noch nicht ganz erkannt, da die doch alle das Problem der Unschärfe in der Entfernung haben, was man doch mit einem niedrigeren HQ modus genauso bewerkstelluigen kann.

Das merkt man auch schön bei den FX Usern:

Während es unter den ATi User sehr wohl genügend Vertreter gibt, die schon mal auf die Performance Modi schalten, haben die FX User AF meist auf Quality und schalten bei mangelnder Leistung einfach eine Stufe runter. Bedenkt jetzt man noch, dass das ATi AF ja prinzipiell schneller ist, sodass FX User eigentlich eher einen Grund hätten, Performance Modi zu verwenden, und dies aber trotzdem nicht mache, kann man zu dem Schluss kommen, dass es um die Performancemodi des GFFX AF nicht weit bestellt ist.

Ich könnte jetzt auch noch mit der brilinear Keule kommen, den ehrbaren FX User unter D3d selbst bei ausgeschaltetem AF noch verfolgt, aber mein Post ist ohnehin schon viel zu lang :weg:



Damit man sich auch eine Grundaussage aus dem ganze Geschreibsel zusammenreimen kann:

Mir geht es beim Ati AF einfach darum, dass so gut wie immer, 8xAF auf der 9200 schöner² und/oder flotter sein müsste, als auf der FX.


²aths wirds zwar wiedermal die Haare aufstellen, aber ja, ich behaupte hier in der tat, das ATi schnödes bi-AF tatsächlich schöner sein kann, als NV tri-AF...

...sofern man Performance Modi verwendet :naughty:

aths
2004-01-31, 19:11:34
Original geschrieben von Quasar
Ack. Aber auch unabhängig von dem Bug werden die nV2x durch AF IMO stärker gebremst, als die nV3x. Afaik schlägt das AF erst später an, während NV2x praktisch "sofort" mindestens 2x anisotrop filtern. Ansonsten sehe ich kein Spar-Potenzial. Füllraten-Tests zeigen, dass GF3 (bzw. unter Berücksichtung der AF-Einsparungen auch GF4) füllratenmäßig so skalieren, wie man es erwartet.

aths
2004-01-31, 19:19:50
Mr. Lolman,

mit folgender Behauptung lehne ich mich ziemlich weit aus dem Fenster, und mache mich auch angreifbar, aber ich werde das Gefühl nicht los, dass du dir beim AF die Dinge so zurecht legst, bis das gewünschte Resultat erreicht ist.

Soweit ich informiert bin, haben Füllraten-Tests belegt, dass ATIs tri-AF genau so ineffizient arbeitet, wie das von NV. Man könnte ohne Qualität einzubüßen nämlich mal eben 25% der Texel und damit von der Füllrate sparen. Eine x1-Architektur à la R3xx wäre dafür bestens geeignet.

Bei bi-AF ist die Sache klar. Wann welche Stufe zum Einsatz kommt, hängt vom du/dv-Verhältnis im Quad ab. Alles, was man winkelabhängig an Füllrate spart, geht direkt zulasten der Qualität.

Eine AF-Logik à la R200, welche offenbar nicht mal mit FP-Zahlen rechnet, führt schon mal zu Texture-Shimmering. Jedenfalls kann das AF nicht sehr genau sein. Hinzu kommt die extreme Schwäche bei 45°. Ich sehe R100-AF und das (afaik leicht verbesserte) R200-AF eher als Marketing-Gag.

Wenn eine Ti 4400 mit AF langsamer ist als die Radeon 8500, dann nur, weil letztere ohnehin nur bi-AF kann, während die Ti bi-AF nur mit tri-Performance (also halber effektiver Füllrate!) bringen kann. (Deshalb nutzen GF4-User sobald es geht gleich tri-AF.)

Ich bezweifle ehrlich, dass Radeon 8500 hier sowohl schneller als auch schöner rendert. Mit der Ti ist vermutlich mindestens 2x-AA drin. Wie sieht 2x-AA auf Radeon 8500 aus? Wie viel Leistung opfert man da? Sofern das Spiel nur bilinear filtert (z. B. Morrowind) hat man mit GF4 vulgär gesagt die Arschkarte. Mit 2x AF verballert man da bis zu 75% der Füllrate. Ansonsten braucht man gar nicht mal unbedingt 8x AF, da der trilineare Filter jegliches MIP-Banding eliminiert, die Bänder müssen da auch nicht mehr "nach hinten geschoben" werden.

Mir scheint, dass sich eigentlich alle einig sind, dass eine Ti 4400 zum Zocken einer Radeon 8500 deutlich vorzuziehen wäre. Letztere bietet Pixelshader 1.4. Die GF dafür MSAA, tolle AF-Qualität (die Leistung skaliert man dann über den maximalen AF-Grad), und eine gute Ecke mehr Rohleistung.

Ab R300 sehe ich das AF von ATI "für Spiele gut brauchbar". Da hat man die Wahl zwischen bi und tri, und die Winkelabhängigkeit ist reduziert.

Riptor
2004-01-31, 19:27:38
Original geschrieben von Mr. Lolman
a) Die Gigabyte Radeon9200s die ich kenne sind alle passiv gekühlt

Kann gut sein, aber ändert nix an der Tatsache, dass es FX5200-Karten gibt, die ebenfalls passiv kühlbar sind und nach denen man schauen kann... Desweiteren sind die FX5200-aktiv Lüfter überhaupt nicht laut.

b) lt. Razors Userreview wird die FX5200 ohne aktive Kühlung doch recht heiss (74°C nach Vollasttests) und lt. div. anderen Berichten (z.B Stefan Payne :naughty: ) sind R9000/9200 relativ kühl, im Betrieb, was eigentlich nicht verwunderlich ist, da selbst die komplexere, höher getaktete Rdeon 8500 mit einem Voodoo3 Passivkühler problemlos zu kühlen war.

Interessant auf alle Fälle... Wäre mir im Prinzip wichtig. Allerdings ist mir nicht aufgefallen, dass ne FX5200 zu heiß wird. Eventuell wärmer als ne R9000/9200, aber trotzdem ok.

c) AFAIK schon: FX5200 , IIRC ~70€ (oder gar mehr?), Radeon 9200: 50€ (http://www.geizhals.at/deutschland/a56488.html)

Schön wärs: :naughty: --> Erster Eintrag: "64-Bit Speicherinterface"

FX5200 mit 128-Bit SI und R9200 mit 128-Bit SI (auf RAM habe ich weniger geachtet) sind FAST gleich teuer/billig. Immer so um die 67-75 Euro. War ja selbst auf der Suche.

Zum Rest sage ich mal nichts, das kann man immer irgendwie wenden, wie man es gerne hätte... ;)

Mr. Lolman
2004-01-31, 19:39:20
aths:

In der Theorie sind meine Ansichten teilweise vemutlich genausowenig einleuchtend, wie die Tatsache, dass eine Voodoo5 trotz viel niedriger Füllrate mit der GF2 GTS konkurrieren kann ;).

Wenn du die Tests von Quasar meinst, muss ich einfügen, dass hier kaum ATis WA zu tragen kam. Die Winkelabhängigkeit kann im Zusammenspiel mit bi-AF in der Tat sehr hässliche Ergebnisse erzeugen, aber das dies wiederum sher stark von den verwendeten Texutern abhängig ist, kann man diese Aussage nicht pauschalisieren.

Mit der Nutzbarkeit von AA hast du in der Tat recht, auch wenn ich bezweifle, dass bei Mafia in 1280x960 AA/AF bei einer GF4 noch ordentliche fps zustande kommen (sofern man das AF nicht tweakt). Die FX5200 würd ich uneingeschränkt empfehlen, wenn die Performance Modi einen höheren Nutzwert hätten, wie wirklich flottes/scharfes bi-AF, und wenn die Karte max. 10€ teurer wär als eine 9200. So liegt sie halt ziemlich in der Mitte zw. 9200 und 9500. (9600 findet man AFAIK keine 128bit unter 100€), und da m.E. im Low-Cost Segment eher die Performance/€ zählt (sofern man die Karte nicht als Officekarte verwenden will) ist die Entscheidung nicht ganz so einfach...


@Riptor: Hoppla, Die (http://www.geizhals.at/deutschland/a55371.html) auch?

Quasar
2004-01-31, 19:42:31
Original geschrieben von Mr. Lolman
a) Die Gigabyte Radeon9200s die ich kenne sind alle passiv gekühlt:

Klick (http://www.ixbt.com/video2/images/giga-r9200/giga-9200-scan-front-with-cooler.jpg)
Klick (http://www.cooltechzone.com/images/reviews/video_cards/r9200_14.jpg)

Dann kennst du offensichtlich nur einen Teil der Realität. Hast du den Link angeklickt, den du von mir gequotet hast?
Zur Erinnerung: Deine Behauptung war: R9200 sind alle passiv
BTW, dein iXBT-Link geht nicht, kommt bei dir wohl ausm Cache.

Original geschrieben von Mr. Lolman
b) lt. Razors Userreview wird die FX5200 ohne aktive Kühlung doch recht heiss (74°C nach Vollasttests) und lt. div. anderen Berichten (z.B Stefan Payne :naughty: ) sind R9000/9200 relativ kühl, im Betrieb, was eigentlich nicht verwunderlich ist, da selbst die komplexere, höher getaktete Rdeon 8500 mit einem Voodoo3 Passivkühler problemlos zu kühlen war.
Selbst eine Rage128 Pro wurde bei mir im offenen Schreibtischbetrieb 50°C warm. Meine Sapphire Atlantis non-Pro, die ich mal kurze Zeit hatte, in der Hoffnung, doch noch eine Shader-Karte auf meinem Tyan S1836 DLUAN zum Laufen zu kriegen, was aber scheiterte, wurde im Ebenfalls offenen Betrieb schon 64°C warm.... was da wohl ein geschlossenes Gehäuse noch ausgemacht hätte, wo die Wärme nicht so einfach durch Konvektion nach oben wegziehen kann?

Merkst' was ich sagen will?

Original geschrieben von Mr. Lolman
c) AFAIK schon: FX5200 , IIRC ~70€ (oder gar mehr?), Radeon 9200: 50€ (http://www.geizhals.at/deutschland/a56488.html)
Die ersten beiden sind "lite" bzw. SE, ich dachte, wir hatten uns auf 128Bit, 250MHz GPU, 200MHz RAM und passiv geeinigt?
Die nächste liegt bei ~63EUR ohne Garantie, daß es wirklich 128Bit sind.


Original geschrieben von Mr. Lolman
d) Ja das AF der FX5200 ist (wie das der 9200) ebenfalls deutlich flotter als das der GF4s, aber hohe AF Modi (bei denen auch die Mipmaps schön weit nach hinten geschoben sind = hohe Schärfe) kosten auf einer Fx5200 nunmal halt mehr Leistung*. Dafür ist das FX AF nicht so anfällig für Mipmapbandings wie ATi 'bi-' oder tw. sogar 'TS0-tri AF'.
*Was nützt mir flottes 8xAF wenns dann unscharf ist wie Sau (und jetzt bitte nicht mit Bildchen von fiesen ATi Winkeln kommen) ich denke du weisst wie's gemeint ist.

Das wird dich jetzt sicher nicht freuen, aber wenn man mit dem 53.03 von Qualität auf Performance schaltet, ändert sich gar nichts, ausser, daß das TriBand extrem schmal wird. Sieht fast ähnlich aus, wie die LOD-Raterei bei den Radeons, die du neulich noch als "geeignet, um Mip-Banding ein wenig zu mildern" gelobt hast.

Original geschrieben von Mr. Lolman
Letztendlich ist es halt Geschmackssache. ZBag mochte das bi-AF, wegen dem tw. auftretenden Banding (bei Q3a und SS(:SE) wars ja wirklich schlimm) nicht, ich freute mich, dass z.B. Mafia auf meiner 8500 bei höheren fps auch besser aussah als euf der Ti4400 eines Freundes.**
** Jaja eine Ti440 ist keine FX52000 und eine 8500 keine 9200, aber den Sinn der 'flotten AF Modi' der FX hab ich noch nicht ganz erkannt, da die doch alle das Problem der Unschärfe in der Entfernung haben, was man doch mit einem niedrigeren HQ modus genauso bewerkstelluigen kann.

Ich bin mir nicht sicher, ob ich dich richtig verstehe... :gruebel:
Die Ti hatte das Problem, daß sie von BiAF NICHT profitierte, sich quasi wie eine 4x1-Karte verhielt, während die R8500 durch BiAF vollen Nutzen aus ihrer (jeweils) zweiten TMU ziehen konnte.
Was für ein Problem mit Unschärfe in der Entfernung meinst du?

Original geschrieben von Mr. Lolman
4) Wo gibt es den FXen um 170€? Die Günstigste, die ich kenne, kostet (mal sehen...) ~177€, ok, dann sinds halt 40€ mehr, also nicht mehr ganz in der gleichen Preisklasse, dafür ist eine 9700pro auch fast schon wieder eine halbe Klasse höher anzusiedeln...
Wenn du 40EUR auf "deine" evtl. 128bittige, 128MB, 250/200-R9200 drauflegst.... was kriegste dann? R9600, Ti4200, FX5600. Alles mindestens eine GANZE Klasse über der R9200.
Aber beenden wir bitte dieses OT-Geseiere...

Original geschrieben von Mr. Lolman
Das merkt man auch schön bei den FX Usern:

Während es unter den ATi User sehr wohl genügend Vertreter gibt, die schon mal auf die Performance Modi schalten, haben die FX User AF meist auf Quality und schalten bei mangelnder Leistung einfach eine Stufe runter. Bedenkt jetzt man noch, dass das ATi AF ja prinzipiell schneller ist, sodass FX User eigentlich eher einen Grund hätten, Performance Modi zu verwenden, und dies aber trotzdem nicht mache, kann man zu dem Schluss kommen, dass es um die Performancemodi des GFFX AF nicht weit bestellt ist.

OT, das diskutiere ich gerne mit dir in einem separaten Thread weiter. Für den Moment nur soviel: FX-User könnte man auch als Qualitätsbewußter bezeichnen.


Original geschrieben von Mr. Lolman
Ich könnte jetzt auch noch mit der brilinear Keule kommen, den ehrbaren FX User unter D3d selbst bei ausgeschaltetem AF noch verfolgt, aber mein Post ist ohnehin schon viel zu lang :weg:
Mich verfolgt er nicht. Und oben reitest du die ganze Zeit auf Performance Modi rum, bei denen du genau die Unfähigkeit der ATis (bedenke, wir reden von FX5200 und R9200!), sowohl bestimmte Winkel anisotrop zu filtern, als auch, dabei überhaupt ein kleines bißchen Trilinearität zu applizieren.
Schlagen, ach, zwei Herzen auch in deiner Brust??

Original geschrieben von Mr. Lolman
Damit man sich auch eine Grundaussage aus dem ganze Geschreibsel zusammenreimen kann:

Mir geht es beim Ati AF einfach darum, dass so gut wie immer, 8xAF auf der 9200 schöner² und/oder flotter sein müsste, als auf der FX.


²aths wirds zwar wiedermal die Haare aufstellen, aber ja, ich behaupte hier in der tat, das ATi schnödes bi-AF tatsächlich schöner sein kann, als NV tri-AF...

...sofern man Performance Modi verwendet :naughty:
Zu den Performance-Modi habe ich dir oben schon was geschrieben. Leider ist das Gegentum der Fall.

Der einzige Vorteil, den ich der R9200 beim besten Willen uneingeschränkt zugestehen kann, ist, daß bestimmte, eng begrenzte Winkel bei ihr in den Genuß halbwegs bilinearer, 16fach anisotroper Filterung kommen können.

Demgegenüber stehen bei der FX: DX9, MSAA/SSAA und Mix-Modi, TriAF, deutlich höhere Granularität bei der Leistungseinstellung, besserer TV-out (lt. c't).

Für mich liegt die Wahl da sehr nahe, aber wer einen Strohhalm sucht, der wird ihn immer finden.

edit:
*HRMPF* Das hat man davon, wenn man lange Posts schreibt - das halbe Forum war schon vor einem da!

Mr. Lolman
2004-01-31, 19:44:30
Ok, wenn wirklich keinen Preisunterschied gibt, geb ich mich geschlagen :)

BTW: Hast du schon mal auf das von dir verlinkte Bild draufgeklickt :naughty:

aths
2004-01-31, 19:50:40
Original geschrieben von Mr. Lolman
aths:

In der Theorie sind meine Ansichten teilweise vemutlich genausowenig einleuchtend, wie die Tatsache, dass eine Voodoo5 trotz viel niedriger Füllrate mit der GF2 GTS konkurrieren kann ;).Voodoo5 hat mehr effektive Speicherbandbreite.

Original geschrieben von Mr. Lolman
Wenn du die Tests von Quasar meinst, muss ich einfügen, dass hier kaum ATis WA zu tragen kam. Die Winkelabhängigkeit kann im Zusammenspiel mit bi-AF in der Tat sehr hässliche Ergebnisse erzeugen, aber das dies wiederum sher stark von den verwendeten Texutern abhängig ist, kann man diese Aussage nicht pauschalisieren. Richtig. MIP-Banding wird (abgesehen von gewissen Gamma-Problemen beim Filtering) vor allem bei stark strukturierten / kontrastreichen Texturen sichtbar. Diese brauchen per se ein hohes AF-Level. Texturen, die wenig MIP-Banding zeigen, würden subjektiv einen geringeren Effekt von 2x AF zu 8x AF zeigen, als die Banding-anfälligen. Lange Rede, kurzer Sinn: Bei solchen Texturen könnte man auch eine generelle Senkung des AF-Grades empfehlen.
Original geschrieben von Mr. Lolman
Mit der Nutzbarkeit von AA hast du in der Tat recht, auch wenn ich bezweifle, dass bei Mafia in 1280x960 AA/AF bei einer GF4 noch ordentliche fps zustande kommen (sofern man das AF nicht tweakt).AF tweake ich immer, nicht umsonst ist der Deto 44.xx drauf :) Mafia habe ich nicht, kann also zur Performance nichts sagen.

Original geschrieben von Mr. Lolman
Die FX5200 würd ich uneingeschränkt empfehlen, wenn die Performance Modi einen höheren Nutzwert hätten, wie wirklich flottes/scharfes bi-AF,Bi-AF bringt afaik ein Performance-Plus. Ansonsten ist es, da wiederhole ich mich gerne, Unsinn, AF zulasten der Qualität weiter auf Leistung zu trimmen. Reicht die Leistung nicht, muss man das AF-Level senken.

Original geschrieben von Mr. Lolman (9600 findet man AFAIK keine 128bit unter 100€)Stimmt.
Original geschrieben von Mr. Lolman
und da m.E. im Low-Cost Segment eher die Performance/€ zählt (sofern man die Karte nicht als Officekarte verwenden will) ist die Entscheidung nicht ganz so einfach... Zum Spielen würde ich eine 5200 grundsätzlich nicht empfehlen, selbst wenn die Karte mit 128-Bit-Interface für ein kleines Spielchen zwischendurch reicht. Aus der FX-Linie sollte man imo zumindest eine 5600-er nehmen. Aus der Radeon-Serie würde ich den Einstiegspunkt auf 9600 mit 128-Bit-Inferface setzten — imo hat ATI nix kleineres, was halbwegs taugt.

Quasar
2004-01-31, 19:54:46
Original geschrieben von Mr. Lolman
@Riptor: Hoppla, Die (http://www.geizhals.at/deutschland/a55371.html) auch?

Bin zwar nicht Riptor, aber es ist anzunehmen, da der zweite Link eindeutig SE sagt und die dritte Karte gleich deutlich teurer ist.

Quasar
2004-01-31, 19:56:24
Original geschrieben von Mr. Lolman
BTW: Hast du schon mal auf das von dir verlinkte Bild draufgeklickt :naughty:

Ja, da kam das hier:
http://www2.alternate.de/prodpic/200x200/j/j9gy15.jpg

Edit:
Wenn das Bild bei dir auch aus irgendeinem Grunde nicht gehen sollte (bei mir hats auch im anderen Brauser funktioniert, liegt also nicht im Cache), dann guck mal bei Alternate nach "GigaByte GV-R92128D (Retail)", das ist das gute Stück.

Quasar
2004-01-31, 20:00:25
Original geschrieben von aths
Zum Spielen würde ich eine 5200 grundsätzlich nicht empfehlen, selbst wenn die Karte mit 128-Bit-Interface für ein kleines Spielchen zwischendurch reicht. Aus der FX-Linie sollte man imo zumindest eine 5600-er nehmen. Aus der Radeon-Serie würde ich den Einstiegspunkt auf 9600 mit 128-Bit-Inferface setzten — imo hat ATI nix kleineres, was halbwegs taugt.

Da möchte ich mal widersprechen. Alles was FX heißt, CineFX I hat und nicht als nV30 deklariert ist, taugt zum richtigen Spielen weniger, als die direkten Vorgänger.

Sprich FX5800 mindestens.

Bei ATi hingegen denke ich, kann man in vielen Fällen schon mit der R9600 leben, aber eigentlich würde ich als Gamerkarte auch lieber die R9500p sehen.

aths
2004-01-31, 20:07:08
Original geschrieben von Quasar
Da möchte ich mal widersprechen. Alles was FX heißt, CineFX I hat und nicht als nV30 deklariert ist, taugt zum richtigen Spielen weniger, als die direkten Vorgänger.Ansatz: Der Gelegenheits-Spieler braucht kein DX9. Die 5600 würde (höchstens) als DX8-Karte betrieben. Halt noch mit Z/Color-Compression ggü. der FX 5200. DX9 ist nur drin, damit der Besitzer glücklich ist.

Quasar
2004-01-31, 20:10:48
Original geschrieben von aths
Ansatz: Der Gelegenheits-Spieler braucht kein DX9. Die 5600 würde (höchstens) als DX8-Karte betrieben. Halt noch mit Z/Color-Compression ggü. der FX 5200. DX9 ist nur drin, damit der Besitzer glücklich ist.

Same here. Der Gelegenheitsspieler ist mit einer Ti4200, möglichst mit 128MB, je nachdem, was er gelegentlich spielt, besser bedient.

Die FX5600, inkl. der ultra rev1 (also der 350/350-Version) brechen einfach in zu vielen Games weg. UT2003 ist da eine löbliche (?) Ausnahme, aber "normale" Spiele liegen der GF4Ti mehr.

edit:
Ich kaufe ein "e"

Gast
2004-01-31, 20:24:27
Original geschrieben von aths
Aus der Radeon-Serie würde ich den Einstiegspunkt auf 9600 mit 128-Bit-Inferface setzten — imo hat ATI nix kleineres, was halbwegs taugt.

Eine 64MB Radoen 9500 um ~95€ taugt m.E. schon halbwegs was. (hab selbst so ein Teil)

BTW: Fx5600 nonXT kosten ca. so viel wie Radeon 9600pros...

Original geschrieben von Quasar
Ja, da kam das hier:

http://www2.alternate.de/prodpic/200x200/j/j9gy15.jpg

Genau, und wenn man auf das Bild klickt, dann kommt das hier:
http://www2.alternate.de/prodpic/200x200/j/j9gy15.jpg :)

Mr. Lolman
2004-01-31, 20:29:21
Arghhh. irgendwie merkt sich Opera jedes 2. Mal mein Pw nicht...


Ich seh jedenfalls das Bild, wernn ich auf das Thumbnail klicke:

Riptor
2004-01-31, 20:30:57
Original geschrieben von Mr. Lolman
@Riptor: Hoppla, Die (http://www.geizhals.at/deutschland/a55371.html) auch?

Jepp, die zu 99% auch...

So, die billigsten "echten" Radeon 9200/FX5200 Karten MIT 128-Bit:

- R9200 64MB für 62 Euro (http://www.preistrend.de/go.php3?url=http%3A%2F%2Fwww.mix-computer.de%2Fcgi-bin%2Fgo.pl%3Fmain%3Dshow_info.pl%26artnr%3DJ8GS19%26partner%3Dmixpreistrend&inr=275) und 67 Euro (http://www.preistrend.de/go.php3?url=http%3A%2F%2Fwww.mix-computer.de%2Fcgi-bin%2Fgo.pl%3Fmain%3Dshow_info.pl%26artnr%3DJ9GS20%26partner%3Dmixpreistrend&inr=275) für die 128 MB Version
- FX5200 128MB für 65 Euro (http://www.preistrend.de/go.php3?url=http%3A%2F%2Fwww.mix-computer.de%2Fcgi-bin%2Fgo.pl%3Fmain%3Dshow_info.pl%26artnr%3DJ9GL12%26partner%3Dmixpreistrend&inr=275)

Ergo: Gleich "teuer". *eg*

Quasar
2004-01-31, 21:42:27
Bei mir kam und kommt das Bild, welches sich für die "DH" auch bei GBT findet. Ob in Opera oder im IE6.

Und sag' nicht, daß du schon wieder eine passiv gekühlte zu sehen glaubst!! ;)

http://tw.giga-byte.com/VGA/FileList/ProductImage/photo_r92128dh_big.jpg

Gast
2004-02-01, 02:33:44
Original geschrieben von reunion
Frage:
Was hab ich davon wenn eine Karte theoretisch DX9 Effekte darstellen könnte, diese aber vom Spiel deaktiviert werden(bzw. das ganze dann unspielbar wird)?

NV bewirbt die FX5200 als DX9 Karte, natürlich kann die Karte DX9, nur hat man davon nichts, wodurch das ganze zu einer Verarschung wird

Spielen ist nicht die einzige Anwendung einer 3D-Grafikkarte!

Für 3D Studio MAX (wo ja fps weniger zählen als eventuelle Features (etwa mit DX9 Shadern), reicht sie sicher.

Mr. Lolman
2004-02-01, 03:50:13
Original geschrieben von Quasar
Bei mir kam und kommt das Bild, welches sich für die "DH" auch bei GBT findet. Ob in Opera oder im IE6.

Und sag' nicht, daß du schon wieder eine passiv gekühlte zu sehen glaubst!! ;)




Seltsam. Dann liegt vielleicht bei mir im Cache. Aber findest du nicht irgendwie, dass der Lüfter auf deinem Bild reingeschnitten aussieht? Die Karte ist in Wahrheit mit Sicherheit passiv gekühlt...

r@e
2004-02-01, 07:46:14
Original geschrieben von Mr. Lolman
Seltsam. Dann liegt vielleicht bei mir im Cache. Aber findest du nicht irgendwie, dass der Lüfter auf deinem Bild reingeschnitten aussieht? Die Karte ist in Wahrheit mit Sicherheit passiv gekühlt... "reingeschnitten" ?
:schlag:

Eine einfache Vergrößerung zeigt, dass dem nicht so ist.
Haluzi ?
:D

Ist aber schon interessant, wie sich das Thema hier entwickelt hat, ist der eigentliche Anlaß dieses Threads ja wohl kaum von Interesse...

Razor

Dunkeltier
2004-02-01, 07:51:51
Original geschrieben von Mr. Lolman
Seltsam. Dann liegt vielleicht bei mir im Cache. Aber findest du nicht irgendwie, dass der Lüfter auf deinem Bild reingeschnitten aussieht? Die Karte ist in Wahrheit mit Sicherheit passiv gekühlt...

Der Lüfter reingeschnitten? Da sagt die Spiegelung am Elko was anderes. Obwohl, es kann auch hineineditiert worden sein. Aber mal ehrlich, müssen wir die ganzen Verschwörungstheorien wirklich glauben? Sind wir schon so paranoid?

Quasar
2004-02-01, 09:47:12
Original geschrieben von Mr. Lolman
Seltsam. Dann liegt vielleicht bei mir im Cache. Aber findest du nicht irgendwie, dass der Lüfter auf deinem Bild reingeschnitten aussieht? Die Karte ist in Wahrheit mit Sicherheit passiv gekühlt...

Guck mal bei Alternate nach "Gigabyte GV-R92128VH", bei unter folgendem Link ( http://www2.alternate.de/html/nodes_info/j9gy17.html ). Auch in der Beschreibung steht "Mit Kühler und Lüfter". Das ist bei beiden vollwertigen R9200 so, nur die "SE" läuft auch bei GBT ohne Lüfter, lt. Alternate.

Riptor
2004-02-01, 12:04:10
Original geschrieben von Mr. Lolman
Seltsam. Dann liegt vielleicht bei mir im Cache. Aber findest du nicht irgendwie, dass der Lüfter auf deinem Bild reingeschnitten aussieht? Die Karte ist in Wahrheit mit Sicherheit passiv gekühlt...

Nene, die Karte HAT einen Lüfter, das macht(e) Gigabyte immer so, war auch bei Hercules nicht anders, die haben auf ihrer R9000 auch nen Aktiv-Lüfter draufgebügelt.

Lolman... Deine Felle schwimmen weg. Gleich preiswert, alle R9200 doch nicht passiv, Argumente hat IMO Quasar... *eg* --> Original geschrieben von Mr. Lolman Ok, wenn wirklich keinen Preisunterschied gibt, geb ich mich geschlagen

Lassen wir es doch dabei! :D ;)

Mr. Lolman
2004-02-01, 13:50:13
;);););) <= Hier die vergessenenen Ironietags von meinem vorigen Post. :weg:

Riptor
2004-02-01, 15:05:30
:D

Endorphine
2004-02-03, 19:18:29
Eigentlich müssten ja jetzt NV-Fanboys wie Pilze aus dem Boden schiessen, da ATI jetzt der grosse böse alles unterdrückende Marktführer ist.

Wo bleiben denn all' die Underdogheulsusen? :???:

Dunkeltier
2004-02-03, 20:21:57
Original geschrieben von Endorphine
Eigentlich müssten ja jetzt NV-Fanboys wie Pilze aus dem Boden schiessen, da ATI jetzt der grosse böse alles unterdrückende Marktführer ist.

Wo bleiben denn all' die Underdogheulsusen? :???:


Kommt noch, Endorphine. ;) Sobald die neuen High-End GPU's von beiden Herstellern auf den Markt kommen und nVidia leistungsmäßig die Nase vorne hat, gehts los.

r@e
2004-02-03, 20:35:44
Original geschrieben von Endorphine
Eigentlich müssten ja jetzt NV-Fanboys wie Pilze aus dem Boden schiessen, da ATI jetzt der grosse böse alles unterdrückende Marktführer ist.Na, da brauchts dann aber schon etwas mehr, als 0,2% 'Führung' im nebulösen Gesamt-Grafik-Markt, oder ?
:D

Razor

Quasar
2004-02-03, 20:57:24
Ich fühle mich gleich viel wohler, jetzt, da ich nicht mehr den großen bösen Wo...err Markführer bevorzuge, sondern zu der unterdrückten Anhängerschaft eines kleinen Mitbewerbers, für den a priori erst einmal die Unschuldsvermutung gelten muss, bin.

/ironie.

Pirx
2004-02-03, 22:04:49
Ich fühle mich jetzt gleich viel wohler, da der Mythos des unbesiegbaren Marktführers nVidia, für den a priori erst einmal die Unschuldsvermutung gelten muss, nun nach 11/2 Jahren der neuen Zeitrechnung doch langsam ein klein wenig bröckelt;)


Im Ernst: Kann nur gut sein für den Markt (Preise und Weiterentwicklung der Produkte), wobei zwei ernstzunehmende Konkurrenten noch zu wenig sind - Intel mal außen vor gelassen.

Aquaschaf
2004-02-03, 22:55:29
Solange kein Hersteller eine Monopolstellung besitzt ist mir die Sache relativ egal.

r@e
2004-02-04, 06:28:58
Original geschrieben von Pirx
Im Ernst: Kann nur gut sein für den Markt (Preise und Weiterentwicklung der Produkte), wobei zwei ernstzunehmende Konkurrenten noch zu wenig sind - Intel mal außen vor gelassen. Tja, das kommt leider darauf an...

Da die beiden 'Großen' (und Intel unterschlage ich hier jetzt einfach mal ;-) sich jetzt ein Kopf an Kopf Rennen liefern, die Preise purzeln und der Kanpf damit 'hart' wird... kann man es sich nicht mehr leisten Produkte an den Markt zu bringen, die um einiges teurer, dafür aber vielleicht auch leistungsfähiger (zumindest aber Feature-reicher) sind. Und das gilt nicht nur für das High-End-Segent, sondern für ALLE Bereiche. So muss man schon bei der Produktion massiv die Kosten drücken... und das geschieht ja meist durch...

..da kann man jetzt einsetzen, was immer man will.

Es wird primär um reine (Benchmark-) Geschwindigkeit gehen, weil das das einzige ist, was der DAU 'greifen' kann. Ob das für den (anspruchsvollen) User 'gut' ist, darf ich an dieser Stelle doch zumindest in Frage stellen...

Razor

Böser Flamer-Gast
2004-02-04, 09:55:21
...und führt zu vermehrten Versuchen der Gewinnabschöpfung.

Jeder noch so kleine Zwischenschritt wird ausgeschlachtet, um den Kunden, zumindest den Early-Adopters, das Geld aus der Tasche zu ziehen.
Siehe hierzu nV38 und RV280 RV360, die im Gegensatz zu R360 und nV37 einen rein nominellen Marketing-Mehrwert bringen.


;Q

Exxtreme
2004-02-04, 11:13:29
Original geschrieben von Aquaschaf
Solange kein Hersteller eine Monopolstellung besitzt ist mir die Sache relativ egal.
Naja, eine Quasi-Monopolstellung wäre mir eigentlich egal. Was aber richtig shice an einer Quasi-Monopolstellung ist, daß die Entwickler anfangen ausschliesslich für den Monopolisten zu optimieren und alle anderen aussen vor zu lassen. Hat man sich dann doch für den Nicht-Monopolisten entschieden, hat man trotzdem Nachteile da die Spiele trotz DirectX schlechter laufen ... wenn sie überhaupt laufen.

Von daher gefällt mir eine Übermacht eines einzigen IHVs im Endeffekt auch nicht.

Riptor
2004-02-04, 15:40:52
Ich hoffe jedenfalls nicht, dass Schumpeters Theorie der "schöpferischen Zerstörung" erfolgen wird: Ein temporärer Monopolist entsteht (Vorsprung durch Zeit) --> Konkurrenz zieht nach --> zerstörerischer Wettbewerb beginntt (da sind wir wohl grad) --> dadurch Antrieb für neue Innovationen --> wieder ein temporäres Monopol (somit soll ein dynamischer Wirtschaftsprozess entstehen)

Wobei er nicht ausschließt, dass Monopole auch Duopole sein können und es gibt auch kaum anhanltspunkte, wie lange ein Monopol bleiben kann bzw. wie lang die einzelnen Phasen sind... Naja, einfach mal abwarten, aber so nen Jahr 2001 brauch ich nicht mehr, vor allem sind da die Fanboys wie wild gewordene Tiere auf die KYRO-Karten los gegangen, anstatt sich über Konkurrenz zu freuen.

ice cool69
2004-02-04, 19:41:01
LOL ati führt zum ersten mal um 0,2% und jetzt soll man sie als underdog bezeichnen?

pffff finds absolut lächerlich wie ihr euch so sehr zu nvidia bekennt, besonders weil die ati-karten im gamersegment nunmal besser sind und warum zur hölle postet man hier wenn man die grafikkarte eh nicht zum zocken braucht?

achja stimmt, professionell. die ganzen 3D-studio-anwender arbeiten mit fx-5200ern.

dass diese karte in diesem forum überhaupt ein thema ist is sowieso schon ein witz.

nich nvidia is schlimm sondern deren anhänger.

es is zur hölle egal wer die geilere karte hat solange die firmen halbwegs gleichstark sind. für mich is der underdog bei ati nicht mehr vorhanden, bei nv war er vorhanden als die voodoos vorgeherrscht haben.

achja falls der powerVR S5 rauskommt und geil is zieh ich ihn sowohl ATI als auch nvidia vor, wegen des underdog-arguments :P

Gast
2004-02-07, 16:32:44
Original geschrieben von Quasar
Darf ich das nach dieser Erklärung jetzt weiterbehaupten? ;)



Hi auch!

Fiel dir dabei was auf?


Eben, du hast größere Optionsvielfalt, sowohl bei AF, als auch beim FSAA.


Auch hier wieder: Fällt dir was auf?


Das ist schön, aber für mich wäre das nix....


Mit einer FX5200 kann ich auch bei jedem Game AF nutzen. Sogar FSAA. Und ich habe zusätzlich die Wahl, ob ich bei einem anspruchslosen Game nicht vielleicht doch auf Mip-Banding verzichte oder gar 4xS-AA reinhaue.
Wenn die Games dann anspruchsvoller werden, kann ich sehr feinkörnig die Bildqualität für brauchbare Leistung nachregeln - und du?

In jedem anderen Bereich: Sicher, Geschmacksfrage. Aber im Low-Cost Sektor wäre das einzige pro-9200-Argument für mich ein niedrigerer Preis, sorry, aber hier ist alles andere an den Haaren herbeigezogen.


Ich grüße dich auch!

Hi auch Dir. :-)

Dir ist schon klar Quasar das ich die beiden 0815 Kärtchen meine....

Gruss Labberlippe

Gast
2004-02-07, 16:36:10
Original geschrieben von Quasar
Vorwiegend ältere. :) Labberlippe nannte z.B. so eines.



Nur zum besseren Verständnis meinerseits: Wir reden hier von der normalen R9200 (250/200) und der normalen FX5200 (250/200), nicht von irgendwelchen Ultra/Pro-Versionen ggü. abgespeckten 64Bittern, gell?

Hi

Habe ich gerade erst gelesen.
Eine vernünftige 5200er mit guten Taktenraten ist imho eine 9200er vorzuziehen.

Keine Frage.

Mein Statement beruhte auf die 0815 Kärtchen.

Gruss Labberlippe

ice cool69
2004-02-08, 21:54:43
die aussage hört sich für mich an wie "ein smart ist einem 08/15-mini vorzuziehen".
ma ehrlich wen juckt das? solche halben sachen kauft sich doch nun wirklich niemand hier ernsthaft oder???

Xmas
2004-02-08, 23:34:41
Original geschrieben von ice cool69
die aussage hört sich für mich an wie "ein smart ist einem 08/15-mini vorzuziehen".
ma ehrlich wen juckt das? solche halben sachen kauft sich doch nun wirklich niemand hier ernsthaft oder???
Doch, durchaus. Denn halbe Sachen sind ganz praktisch, wenn man nur halbe Anforderungen hat.

So habe ich vorhin eine Radeon 7000 in einen Rechner eingebaut. Tolles Teil, kann Bilder darstellen und hat DVI.

Gast
2004-02-10, 08:00:54
Original geschrieben von Gast
Hi

Habe ich gerade erst gelesen.
Eine vernünftige 5200er mit guten Taktenraten ist imho eine 9200er vorzuziehen.

Keine Frage.

Mein Statement beruhte auf die 0815 Kärtchen.

Gruss Labberlippe


Labberlippe,

1. Ist die 5200'er eine DX9-Marketingkarte
2. Ist die 9200'er in DX8.1-Anwendungen schneller
3. Ist die 5200'er demnach 100% eine 0815-Karte

Gruss

Odal
2004-02-11, 03:15:43
@gast meld dich erstmal an und logg dich ein bevor du unqualifizierte statements abgibst...

1. ist sie keine marketingkarte sondern die lowcostkarte einer technologiegeneration

2. bist du dir da sicher? koennte andere benches posten, aber das lass ich mal lieber....zum einen ist fx5200 ein weitdehnbarer begriff bei der variantenvielfalt

3. ???

Ailuros
2004-02-11, 08:34:22
Zum zweiten Punkt oben moechte ich hinzufuegen dass es auch 9200SE Modelle gibt. Wenn es zu Vergleichen kommen wuerde, dann muesste man das schon auf sehr spezifische 5200/9200 Modelle begrenzen.

Ich weiss gar nicht mehr ganz um was genau es hier in diesem Thread ging; ich kann mich nur daran erinnern dass der eigentliche "Marktfuehrer" (in Verkaufszahlen bzw. Marktanteil) absoluten Mist verkauft. In dem Fall sind mir selbst 64bit 9200/5200 Varianten um einige Male lieber :D

Odal
2004-02-11, 08:45:11
naja ich meine beim vergleich schon 5200 64Bit gegen 9200 64 Bit und dasselbe mit 128 Bit ... das die 5200ultra nicht zu schlagen ist ist sowieso klar....

aber stimmt hehe intels Grafikloesungen sind eher bescheiden..ausser man braucht nur 2D ;)

Ailuros
2004-02-11, 08:53:25
Glaub mir Du bist selbst mit nur 2D besser bei 64bit 5200/9200 oder sogar aelteren standalone Produkten von ATI/NV um einiges besser aufgehoben.

Gast
2004-02-11, 10:28:42
Original geschrieben von Gast
Labberlippe,

1. Ist die 5200'er eine DX9-Marketingkarte
2. Ist die 9200'er in DX8.1-Anwendungen schneller
3. Ist die 5200'er demnach 100% eine 0815-Karte

Gruss

Hi

1. Ist die 5200 eine DX9 Karte.

Freilich ist die 64 Bit Version lahm aber wie X-Mas schon ober mir schrieb ist auch diese Karte für einfache Zwecke zu nutzen.
Die Karte kann DX 9 Features und somit ist Sie eine DX9 Karta.

Razor hat eine normale 5200er mit 128Bit getestestet und da hat sich die Karte mit Ocen nicht als schlecht herauskristallisiert.
Für eine Low Cost gar nicht mal so schlimm wie es einige hier meinen.

Für Einsteiger ist die Karte optimal.

2. Klar ist teilweise die 9200er schneller, meistens aber auch gleichauf.
Im grossen und ganzen bleibt es dennoch geschmackssache was man für ein Kärtchen nimmt.
Schencken tun sich beide nichts.

3. Die 5200er 64 Bit ist eine 0815 Karte.
Auch die 9200er 64 Bit ist eine 0815 Karte.

Die 128Bit Karten sind Einsteiger und somit schon um einiges besser.

Gruss Labberlippe

Crushinator
2004-02-11, 11:11:53
Original geschrieben von Ailuros
Glaub mir Du bist selbst mit nur 2D besser bei 64bit 5200/9200 oder sogar aelteren standalone Produkten von ATI/NV um einiges besser aufgehoben. Agree, ich bevorzuge für solche Zwecke inzwischen Karten, die erstens passiv gekühlt werden und zweitens - um der Billigmentalität der AIBs entgegen zu wirken - mindestens einen integrierten RAMDAC haben. Dabei hat sich die inzwischen uralte Radeon VE (7000) als nahezu hervorragend erwiesen.

Godmode
2004-02-11, 22:38:12
Original geschrieben von Gast
Hi

1. Ist die 5200 eine DX9 Karte.

Freilich ist die 64 Bit Version lahm aber wie X-Mas schon ober mir schrieb ist auch diese Karte für einfache Zwecke zu nutzen.
Die Karte kann DX 9 Features und somit ist Sie eine DX9 Karta.

Razor hat eine normale 5200er mit 128Bit getestestet und da hat sich die Karte mit Ocen nicht als schlecht herauskristallisiert.
Für eine Low Cost gar nicht mal so schlimm wie es einige hier meinen.

Für Einsteiger ist die Karte optimal.

2. Klar ist teilweise die 9200er schneller, meistens aber auch gleichauf.
Im grossen und ganzen bleibt es dennoch geschmackssache was man für ein Kärtchen nimmt.
Schencken tun sich beide nichts.

3. Die 5200er 64 Bit ist eine 0815 Karte.
Auch die 9200er 64 Bit ist eine 0815 Karte.

Die 128Bit Karten sind Einsteiger und somit schon um einiges besser.

Gruss Labberlippe

wie schaut das dann mit den go varianten aus?? sind die dann nochmal beschnitten oder sind das dann schon die selben wie die desktopkarten? ich hab ne gffx5200go in meinem laptop und die ist saumäßig :)

DrumDub
2004-02-11, 23:22:15
Original geschrieben von bans3i
wie schaut das dann mit den go varianten aus?? sind die dann nochmal beschnitten oder sind das dann schon die selben wie die desktopkarten? ich hab ne gffx5200go in meinem laptop und die ist saumäßig :)

hat die 5200go nicht nen 64bit speicherinterface?

Gast
2004-02-12, 00:13:59
Original geschrieben von Ailuros
Glaub mir Du bist selbst mit nur 2D besser bei 64bit 5200/9200 oder sogar aelteren standalone Produkten von ATI/NV um einiges besser aufgehoben.

hehe du wirst lachen ich muss hier mit nem rechner der nen 82865G also integrierte intelgrafik hat OpenGL programmieren :)

@DrumDub & bans3i

also die FX5600go hat 128Bit interface bei der FX5200go weiss ichs nicht so genau (glaube aber auch gelesen zu haben 128Bit)
und beschnitten eventuell in den Taktraten..(variert aber von NB hersteller zu NB hersteller) meine FX5600go laeuft original mit 250/500DDR ne normale FX5600 normalerweise mit 325/600DDR...
allerdings is meine FX5600Go etwas OCed auf 325/625DDR

Odal
2004-02-12, 00:23:53
Original geschrieben von Gast
hehe du wirst lachen ich muss hier mit nem rechner der nen 82865G also integrierte intelgrafik hat OpenGL programmieren :)

@DrumDub & bans3i

also die FX5600go hat 128Bit interface bei der FX5200go weiss ichs nicht so genau (glaube aber auch gelesen zu haben 128Bit)
und beschnitten eventuell in den Taktraten..(variert aber von NB hersteller zu NB hersteller) meine FX5600go laeuft original mit 250/500DDR ne normale FX5600 normalerweise mit 325/600DDR...
allerdings is meine FX5600Go etwas OCed auf 325/625DDR

meiner..war net eingeloggt

DrumDub
2004-02-12, 11:34:05
odal

hast recht. der 5200go hat auch nen 128bit speicherinterface: http://www.nvidia.de/page/fx_mobile.html

betasilie
2004-10-31, 03:21:45
*ups*

mapel110
2004-10-31, 03:28:08
*ups*

macht nix, wollte sowieso gerade Fragen, ob noch jemand diese Presentation hat oder eine Quelle nennen kann. :)

Labberlippe
2004-10-31, 11:45:38
Wenn wir schon dabei sind, DX9 Mogelpackungen zu enthuellen:
5600XT,5600, 5600U und 5700/U sind ebenfalls wie 9600SE, 9600, 9600pro und 9600XT Mogelpackungen, da sie für DX9 Games (heutige) viel zu langsam sind.
5800/U sind halbe Mogelpackungen, da sie für die haelfte der heutigen DX9 Games reichen.
9700 und 5900/U sind virtel Mogelpackungen, da bis auf TR:6 überall reichen...


Hi

Das ist aber sehr allgemein formuliert.
Eine 9600XT ist für die heutigen Games nicht zu langsam.
4XAF und 2x FSAA funktioniert mit der 9600XT
Auch eine 5700er schlägt sich ganz passable auch diese Karte reicht.

Allerdings sollte man die Auflösung auf max. 1024x768 beschränken, ansonsten krepieren die Karten.

Ups ich sehe gerade der Thread ist ja schon saualt.
:D
Gruss Labberlippe

Gast
2004-10-31, 16:19:58
LOL ati führt zum ersten mal um 0,2% und jetzt soll man sie als underdog bezeichnen?

pffff finds absolut lächerlich wie ihr euch so sehr zu nvidia bekennt, besonders weil die ati-karten im gamersegment nunmal besser sind und warum zur hölle postet man hier wenn man die grafikkarte eh nicht zum zocken braucht?


Schnall ich nicht so ganz.
6800GT > X800pro
6800nonU > 9800pro
auch die 6800LE würde ich noch besser einstufen.
6600GT > X700XT und 9800pro
FX5200 > 9200

Sehe nicht so ganz wo ATIs Karten im Gamersegment besser sind.
Die 6200 habe ich mal rausgelassen, da diese noch nicht wirklich ihren Weg ausreichend in die Läden gefunden hat und sich hier auch noch einiges tut.

Momentan könnte man ATI allenfalls die X800XT PE ( kaum erhältlich )
eventuell die X700pro ( nicht erhältlich ) und wenn man billig an so eine herankommt die 9600XT zu Gute halten.
Ansonsten ist Nvidia derzeit fürs aufzubringende Geld überall klar vorn.

Die wichtigsten Preispunkte im Gamersegment haben sie mit verdammt starker Hardware besetzt wohingegen ATI sich doch sehr verkalkuliert hat und nun in der Nachkorrektur ist. Die X800pro zum Beispiel ist doch ein Witz für den Preis.

Xmas
2004-10-31, 17:38:24
Bitte auch mal aufs Datum schauen.