PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DX9 - Wo macht es Sinn?


Seiten : [1] 2

Demirug
2003-05-04, 18:36:04
Da sich hier in letzter Zeit immer mehr Threads in diese Richtung bewegen machen wir doch mal einen zentralen Thread mit Poll.

Ich möchte darum bitten beim Abstimmen nicht zu berücksichtigen was eine eventuel favorisierte Firma für einen Weg eingeschlagen hat sondern was man selbst für das beste hält.

StefanV
2003-05-04, 19:06:53
1. Reihe :)
1b. Wie meinst du das mit 'Auch in der 2. Reihe braucht man DX9' ??
Sind damit die High End und Mid Range Modelle gemeint ??

2. ich hab noch nicht gevotet, bin aber der Meinung, daß DX9 nur bei den High End Modellen und eventuell im Mid Range Segment ab 200€ Sinn macht, im Low Cost Segment halte ich DX9 zum jetzigen Zeitpunt für nicht sehr sinnvoll, da man in diesem Bereich die Transistoren, die DX9 verschlingt lieber für andere Dinge, z.B. mehr Pipelines einsetzen sollte, anstatt die Transistoren mit DX9 Features zu verschwenden.
Allerdings sollte man schon PS1.4 supporten, da es besser als PS1.1/3 ist...

LovesuckZ
2003-05-04, 19:12:46
"DX9 für alle"

Jeder sollte die Moeglichkeit haben technologisch auf der Hoehe der Zeit zu sein.
Wer mehr Leistung will, muss dann auch mehr Geld bezahlen.

Piffan
2003-05-04, 19:15:57
Dx9 macht derzeit wohl gar keinen Sinn für den Konsumenten! Mein Verdacht ist, dass man es gar nicht im großen Stil einsetzen kann, einfach weil die Hardware zu schwach ist....der 3dMurx03 nährt diesen schröcklichen Verdacht!

Diese Frage ist vielleicht auch als Intelligenztest zu sehen: Wer ist so blöd und maßt sich ein Urteil an? :D

Seien wir mal ehrlich: Hier im Forum gibts vielleicht ein Handvoll Experten, die blickts was Sache ist....

Wenn man allerding die Frage ummünzt und nach der Graka- Generation fragt, welche DX9 unterstützt, so sage ich: DX 9 nur im gehobenen Leistungssegment sinnvoll, weil die Billigheimer so stark kastriert sind, dass sie leistungmäßig glatte zwei Generationen zurückfallen....

Exxtreme
2003-05-04, 19:19:10
DX9 für alle... auch wenn's keinen Sinn macht.

Demirug
2003-05-04, 19:21:49
@Stefan Payne:

1. habe den Fehler beseitigt und es aussagekräftiger gemacht.
1b. ja genau so

@Piffan:

Nein das ist kein Intelligenztest. Es geht darum was der einzelne denkt. nicht mehr aber auch nicht weniger.

Den Murks würde ich aber nicht unbedingt als Massstab nehmen.

StefanV
2003-05-04, 19:25:04
Originally posted by Demirug
@Stefan Payne:

1. habe den Fehler beseitigt und es aussagekräftiger gemacht.
1b. ja genau so


Ah, Danke!!

Hab auch gleich mal gevotet :)

Gohan
2003-05-04, 19:26:02
Mid Range, ist meine Meinung. Die FX5200 hat DX9 nur noch zum Marketing, echte DX9 Titel werden darauf wohl nicht mehr Spielbar sein.

Piffan
2003-05-04, 19:28:56
Originally posted by Gohan
Mid Range, ist meine Meinung. Die FX5200 hat DX9 nur noch zum Marketing, echte DX9 Titel werden darauf wohl nicht mehr Spielbar sein.

Gaynau so habe ich es auch gemeint und entsprechend gevoted...

LovesuckZ
2003-05-04, 19:36:46
Originally posted by Gohan
Mid Range, ist meine Meinung. Die FX5200 hat DX9 nur noch zum Marketing, echte DX9 Titel werden darauf wohl nicht mehr Spielbar sein.

Hm, eine 9700pro ist heutzutage noch High-End, doch DX9 Titel werden nur schwer spielbar sein.
Daher finde ich vote oben ein bissl "falsch", da selbst High-End Karten mit der neusten Technologie zu langsam fuer diese sein werden.

Razor
2003-05-04, 19:38:52
"DX9 für alle"

Je schneller sich eine Technologie verbreitet, desto schneller gibt's davon auch was zu sehen.

Mehr gibt's dazu (erst einmal ;-) eigentlich nicht zu sagen...

Razor

Razor
2003-05-04, 19:40:15
Originally posted by Gohan
Mid Range, ist meine Meinung. Die FX5200 hat DX9 nur noch zum Marketing, echte DX9 Titel werden darauf wohl nicht mehr Spielbar sein.
Interessant... zum Beispiel ?
:D

Razor

Piffan
2003-05-04, 19:41:02
Originally posted by Razor
"DX9 für alle"

Je schneller sich eine Technologie verbreitet, desto schneller gibt's davon auch was zu sehen.

Mehr gibt's dazu (erst einmal ;-) eigentlich nicht zu sagen...

Razor

Dx9 für alle zum Aufgeilen....:D

Wer weiß, vielleicht kauft ja der eine oder andere dann noch ne Spielemaschine, wenn er erst Stielaugen bekommen hat...

Razor
2003-05-04, 19:45:30
Originally posted by Piffan

Dx9 für alle zum Aufgeilen....:D

Wer weiß, vielleicht kauft ja der eine oder andere dann noch ne Spielemaschine, wenn er erst Stielaugen bekommen hat...
Na ja...
Ich z.Bsp. habe Lust auf mehr bekommen !
:D

NV35 mit bester Performance, Multimonitor und dem genialen TV-Out ?
Dazu noch vernünftig gekühlt ?
500€ oder gar mehr ?

Her damit, aber schnell ! *eg*

Bis denne

Razor

P.S.: Die ATI-Demos sind auch ganz 'nett'... ;-)

Flolle
2003-05-04, 19:51:59
[X] DX9 für alle

Je eher viele Leute DX9-Karten haben, um so eher werden auch Spiele erscheinen, die DX9 benutzen. Und da nun mal Lowend-Graka den größten Anteil an verkauften Graka haben, sollten diese wegen dem gerade genannten Grund auch DX9-fähig sein.
Meine Meinung.

Gohan
2003-05-04, 19:56:25
Originally posted by Razor
Interessant... zum Beispiel ?
:D
Razor

Wenn das erste richtige DX8 Spiel kommt, falls den eins kommt, will ich mal sehen wie es auf der Ti200 läuft :)

Razor
2003-05-04, 19:57:52
Originally posted by Gohan

Wenn das erste richtige DX8 Spiel kommt, falls den eins kommt, will ich mal sehen wie es auf der Ti200 läuft :)
Auf jeden Fall wird es laufen...
Und ich vermute mal auch besser, als "Dawn" mit NV30Emu auf einer nicht NV3x-Karte, oder ?
:D

Bis denne

Razor

P.S.: Oder eben NV20-Demos auf 'ner nicht NV2x Karte mit NV20Emu...
Soll ich weiter machen ?
;D

th3_h3r0
2003-05-04, 19:58:34
Hm,

sehe es ähnlich wie LovesuckZ. Da DX ja mittlerweile ein(der?)
Standard ist sollte auch ab einem gewissen Zeitpunkt in allen
Marktsegmenten dieser "verfügbar" sein. Spätestens mit Longhorn
gibts ja wohl "Screensaver" für DX9...;D

Also generell: Ja

Aber...

Derzeit bedarf wohl nur die Highend-Range wirklich DX9 in Hard-
ware. Wer ausser Leuten die Demos/Benchmarks laufen lassen nutzt
es denn derzeit. Richtig: Imo nur "Entwickler"!

*SPEKULATION*
M$ hätte DX9 auch erst kurz bevor die ersten Gamez erscheinen
für den Download freigeben können. Nur da der 3D-Murks03 nunmal
"fertig" war und dieser auch eine so enorme Beachtung findet
(Rückschluss auf Grund der vorherigen 3DM-Versionen) hat man sich
IMO fürn Release zum jetztigen Zeitpunkt entschlossen. Die Zeit
bis zu den ersten Gamez vertreiben sich dabei dann einige wie
wir ja sehen mit dem benchen und spekulieren...;D

Wie war das noch: Hardware sells Software and Software sells Hardware?! :bäh:

Tjo und M$ kriegt auch was es möchte - OGL langsam aber schleichend
aus dem PC-Games-Bereich zu verdrängen...
*/SPEKULATION*


Sry wegen dem rumspekulieren - Mag hier nicht hingehören aber ich
konnte meine Finger einfach zu nichts anderem bewegen...;D


EDIT: Tippfehler fixed - Soweit erkannt...;)

LovesuckZ
2003-05-04, 20:10:17
Nachtrag:
Eine einhaltliche Technologie in jedem Preissegment ist auch fuer den Kunden deutlich besser: Denn er kann dann ganz nach Leistung seine Karte aussuchen und muss nicht auf Feature verzichten. Somit faellt ihn die Entscheidung einfacher als wenn er Vorteile und Nachteile zweier Karten abwaegen muss, weil die eine schneller, die andere dafuer fortschrittlicher ist.

/edit: Auf den Quotebuttom gekommen...

mapel110
2003-05-04, 20:17:59
dx8 features plus speed. mehr braucht der endkonsument derzeit nicht und das in jedem marktsegment.

bei entwicklern mag das ja anders aussehen.
und meinetwegen auch bei oems, die dx9 als marketingtechnisches zugpferd brauchen.

wenn jedenfalls der endkunde bescheid weiss, über das, was er kauft, dann wird er auch wissen, dass dx9 hw-support für ihn derzeit nicht nötig ist und wird das produkt kaufen, dass derzeit das beste verhältnis aus speed, featues und preis bietet bei derzeitigen anwendungen, die ja von eigenen bedürfnissen abhängen.

mapel110
2003-05-04, 20:20:17
Originally posted by LovesuckZ
Nachtrag:
Eine einhaltliche Technologie in jedem Preissegment ist auch fuer den Kunden deutlich besser: Denn er kann dann ganz nach Leistung seine Karte aussuchen und muss nicht auf Feature verzichten. Somit faellt ihn die Entscheidung einfacher als wenn er Vorteile und Nachteile zweier Karten abwaegen muss, weil die eine schneller, die andere dafuer fortschrittlicher ist.

/edit: Auf den Quotebuttom gekommen...

es wird nicht reichen, die auflösung und AA/AF wegzudrücken. man wird auf jedenfall bei solch einer katastrophalen rohperformance wie der 5200er auch features abstellen müssen.

/edit
ich behaupte, die 4200er wird in jedem dx8 game und in jedem dx8/dx9 hybriden schneller sein als die 5200er und dabei auch das game schöner aussehen lassen, sprich mehr effekte gleichzeitig darstellen können.

LovesuckZ
2003-05-04, 20:26:32
Originally posted by mapel110
/edit
ich behaupte, die 4200er wird in jedem dx8 game und in jedem dx8/dx9 hybriden schneller sein als die 5200er und dabei auch das game schöner aussehen lassen, sprich mehr effekte gleichzeitig darstellen können.



Sie wird auch schneller sein als ne 9600/5600. Sind diese Karten nun ueberfleussig, weil sie speedmaeßig nicht mehr draufhaben?

/edit: eine GF4MXSE ist schneller als ATI's 9000 Karte in DX7 Spielen. Ist diese Karte nun überfluessig?

/edit2: Deswegen auch die einheitliche Unterstuetzung der Technologie: somit eruebrigen sich diese Diskussion, da man gezielt nach Leistung kaufen kann und gleichzeitig das selbe Featureset (vorallen bei 9100 <>9500/9600) bekommt.

mapel110
2003-05-04, 20:41:05
Originally posted by LovesuckZ


Sie wird auch schneller sein als ne 9600/5600. Sind diese Karten nun ueberfleussig, weil sie speedmaeßig nicht mehr draufhaben?

/edit: eine GF4MXSE ist schneller als ATI's 9000 Karte in DX7 Spielen. Ist diese Karte nun überfluessig?

/edit2: Deswegen auch die einheitliche Unterstuetzung der Technologie: somit eruebrigen sich diese Diskussion, da man gezielt nach Leistung kaufen kann und gleichzeitig das selbe Featureset (vorallen bei 9100 <>9500/9600) bekommt.

??? die gf4mx ist speedmässig mal schneller mal langsamer als die 9000. von der speicherbandbreite und damit auch der grundperformance auf recht gleichem niveau.
daher ist das beispiel für die tonne.

ausserdem, du redest von der brauchbarkeit der karten in ca >12 monaten. ich rede von hier und jetzt.
dx8 hat jetzt nutzen. dx9 bis auf 3dmark03 derzeit überhaupt nicht.
die user, die sich techdemos angucken, kannst du an einer hand abzählen. ergo auch die user, die 5200er kaufen *eg*

ich kann und werde diese karte "derzeit" niemandem empfehlen !

Endorphine
2003-05-04, 20:50:03
[X] DX9 für alle

Bin eindeutig für DX9-Spielebeschleuniger von top to bottom durch die gesamte Produktlinie. Sonst brauchen wir ja noch Jahrzehnte, bis die Spieleprogrammierer die Hardwarefähigkeiten endlich mal ausnutzen können.

Und es ist doch zumindest schön, wenn auf einer kleinen Karte wie der FX 5200 erstmal alles läuft. Dann kann man es sich anschauen und dann entscheiden, ob es Sinn macht aufzurüsten. Und historisch gesehen ist es auch imo vernünftig, dass nVidia keine NV2x MX rausbrachte. DX8 ist nur ein kleiner Zwischenschritt zu DX9.

Es würde mich freuen, wenn ATI auch ganz auf den DX9-Zug aufspringen würde. Die derzeitigen Mainstream und low-cost DX8-Karten sind doch nichts weiter als Technologiebremsen und Fortschrittsverhinderer bei den Spieleprogrammierern. Je mehr davon verkauft werden desto mehr verzögert sich der Start von DX9-Games.

Noch etwas positives: selbst wer DX9 nichts abgewinnen kann, wenn durch die FX 5200 weniger NV17 Karten verkauft werden haben wir mittelfristig immerhin eine grössere Basis für DX8.

mapel110
2003-05-04, 20:52:40
oh man,

man kann so erstmal gucken obs läuft und dann entscheiden ob man aufrüstet OMG.
soclhe leute warten also auf dx9 games, die sie mit der 5200er antesten können.
in der zwischenzeit leben sie mit der erbärmlichen dx7 und 8 performance. na prost malzeit.

/edit
man soll sich so einen schund in den rechner bauen, damit die umfragestatistiken der spielehersteller positiv ausfallen, damit wir früher dx9 effekte sehen.
alles klar.

soll man sowas ruhig in OEM rechner stecken, aber damit wird man sicher keine zufriedenen kunden gewinnen. in letzter zeit haben gerade oems die schwachstelle grafikkarte in komplettsystemen einigermassen beseitigt und darauf geachtet, dass das system ausgewogen ist. jetzt sollen sie wieder zurück zu onbaordgrafikspeed und den kunden verarschen.
na toll.

Endorphine
2003-05-04, 20:55:49
Originally posted by mapel110
oh man,

man kann so erstmal gucken obs läuft und dann entscheiden ob man aufrüstet OMG.
soclhe leute warten also auf dx9 games, die sie mit der 5200er antesten können.
in der zwischenzeit leben sie mit der erbärmlichen dx7 und 8 performance. na prost malzeit. Richtig. Besser, als wenn sie sich eine DX7- oder DX8-Technologiebremse kaufen, auf der DX9-Games dann gar nicht laufen und die die Lebensdauer von DX7/8-Spielen künstlich verlängern. Und das zum gleichen Preis. Schön dumm für alle. Aber bitte - wer gern DX7/8-Karten zum gleichen Preis wie DX9-Beschleuniger kauft, der kauft auch als Privatmann deutsche Autos zum vollen Neupreis ohne Finanzierung/Leasing. Schön dumm sag ich nur.

LovesuckZ
2003-05-04, 21:04:59
Originally posted by mapel110
??? die gf4mx ist speedmässig mal schneller mal langsamer als die 9000. von der speicherbandbreite und damit auch der grundperformance auf recht gleichem niveau.
daher ist das beispiel für die tonne.

Viele GF4MX440SE sind hoeher getaktet als die Vorgaengermodelle.
Und zur der Performance:

http://www.xbitlabs.com/articles/video/display/radeon-9100_3.html
http://www.digit-life.com/articles2/gf4/gf4mx-7.html


ausserdem, du redest von der brauchbarkeit der karten in ca >12 monaten. ich rede von hier und jetzt.
dx8 hat jetzt nutzen. dx9 bis auf 3dmark03 derzeit überhaupt nicht.
die user, die sich techdemos angucken, kannst du an einer hand abzählen. ergo auch die user, die 5200er kaufen *eg*

Eine 9000 ist noch weniger brauchbarer als eine GF4MXSE. Bis auf den schnelleren AF hat sie keine Vorteile. bei der FX5200 kann man wenigsten noch AA/AF dazuschalten und bleibt in spielbaren Framesbereich bei aelteren Games, bei der 9000 nur AF und dann haengt es immer noch vom Geschmack ab, ob man das AF dazuschaltet.
Wenn ich mir alles genau betrachte, sehe ich keinen Vorteil einer 9000/5200 gegenueber diese technologisch veraeltete Karte in Bezug auf den reinen Speed. Die 9000 ist zu langsam fuer DX8 und die 5200 fuer DX8 und 9. Beide Karten sind nur fuer DX7 Spiele zu gebrauchen und da gibt eine guenstigere Alternative.

Razor
2003-05-04, 21:12:11
Originally posted by mapel110
dx8 features plus speed. mehr braucht der endkonsument derzeit nicht und das in jedem marktsegment.

bei entwicklern mag das ja anders aussehen.
und meinetwegen auch bei oems, die dx9 als marketingtechnisches zugpferd brauchen.
Du wiedersprichst Dir hier selbst...
Endkunden nein, aber OEM's ja ?
Wo ist da der Sinn ?
???
Originally posted by mapel110
wenn jedenfalls der endkunde bescheid weiss, über das, was er kauft, dann wird er auch wissen, dass dx9 hw-support für ihn derzeit nicht nötig ist und wird das produkt kaufen, dass derzeit das beste verhältnis aus speed, featues und preis bietet bei derzeitigen anwendungen, die ja von eigenen bedürfnissen abhängen.
Der Endkunde weiss generell nicht 'Bescheid'.
Es mag lobenswerte Ausnahmen geben, aber der Rest hat schlicht keine Ahnung...

Und weil er keine Ahnung hat, liest er das, was auf der Verpackung steht und versucht Worte zu identifizieren, die er irgendwo schon mal gehört oder gelesen hat.

'nVidia' ... 'GeForce' ... 'DX9' ... 'nie dagewesene Qualität' ...
KAUFEN !

So sieht's leider aus, insofern ist Dein Anspruch zwar sehr wünschenswert, aber fern jeder Realität !

Razor

mapel110
2003-05-04, 21:12:59
technologiebremse ?!

ihr tut so, als haben sich dx8-karten mies verkauft
und man könne nun also dx8 fast komplett auslassen bei der gameentwicklung. das ist einfach nicht der fall. und da das nicht der fall ist, kann man locker mit ner dx8 karte leben.

meinetwegen auch nur noch 6-12 monate. dann gibts was besseres als 4200/9100/5200 für 100 € und man verliert nicht so viel grundspeed.

/edit
@lovesux
die 9000er schafft immerhin im 3dmark gametest 4 dx8 31 fps
wieviel wird wohl die 5200er bei dx9tests im 3dmark03 schaffen ?!

@razor
wo widerspreche ich mir selbst ?!
die oems dürfen kunden verarschen. das ist "ihr gutes recht". da spreche ich den "nutzen" nicht ab.

LovesuckZ
2003-05-04, 21:14:58
Originally posted by mapel110
technologiebremse ?!
ihr tut so, als haben sich dx8-karten mies verkauft
und man könne nun also dx8 fast komplett auslassen bei der gameentwicklung. das ist einfach nicht der fall. und da das nicht der fall ist, kann man locker mit ner dx8 karte leben.

Wir reden doch hier immer noch von Low-End? DX8 Karten wie 9000 machen keinen Sinn, da zu langsam.

meinetwegen auch nur noch 6-12 monate. dann gibts was besseres als 4200/9100/5200 für 100 € und man verliert nicht so viel grundspeed.

Was denn? Eine 5600/9600, die in DX8 langsamer als ne Ti4200 sein koennten?

Razor
2003-05-04, 21:15:30
Originally posted by mapel110

es wird nicht reichen, die auflösung und AA/AF wegzudrücken. man wird auf jedenfall bei solch einer katastrophalen rohperformance wie der 5200er auch features abstellen müssen.
Woher willst Du das eigentlich wissen ?

Und ist die Leistung ALLER Karten vor gf4ti gleich 'katastrophal' ?
Gilt im übrigen auch für alles von ATI vor R9500pro !
Originally posted by mapel110

/edit
ich behaupte, die 4200er wird in jedem dx8 game und in jedem dx8/dx9 hybriden schneller sein als die 5200er und dabei auch das game schöner aussehen lassen, sprich mehr effekte gleichzeitig darstellen können.
Schneller ja (zumindest bei DX8 ;-), schöner definitiv nicht.
Ganz im Gegenteil kann die 5200 sehr viel mehr als die 4200 und natürlich alles, was alle Karten vor ihr konnten.

Wie soll Deine Behauptung also im die Tat umgesetzt werden ?
???

Razor

MadManniMan
2003-05-04, 21:15:55
hm... wäre ja sicherlich schön, überall dx9 zu haben, ABER...

- dx9 frißt zu viele transis -> lowendprodukte mit dx9 werden kaum raum für speed haben

- eine dx8-einstiegs-karte wie ne gf3 ist auch jetzt noch brauchbar. sie war aber nicht nur die/mit eine der langsamte(n) dx8-karten, sondern dabei auch noch zumeist schneller als die schnellste für dx7. diese entwicklung heiße ich gut, daher finde ich dx9 auf NV > 5200 und ATi ab 9500 vernünftig. die fx 5200 aber ist zu sehr lahmer als die letzte dx8-brigade und ein beispiel für meinen ersten anstrich

-> [x] ab midrange

Razor
2003-05-04, 21:18:03
Originally posted by Endorphine
[X] DX9 für alle

Noch etwas positives: selbst wer DX9 nichts abgewinnen kann, wenn durch die FX 5200 weniger NV17 Karten verkauft werden haben wir mittelfristig immerhin eine grössere Basis für DX8.
Endlich mal jemand, der die Zeichen der Zeit erkannt hat !
Danke.

Razor

MadManniMan
2003-05-04, 21:21:01
Originally posted by Razor
Schneller ja (zumindest bei DX8 ;-), schöner definitiv nicht.
Ganz im Gegenteil kann die 5200 sehr viel mehr als die 4200 und natürlich alles, was alle Karten vor ihr konnten.


huppala, da hat aber einer den kontext nicht erfaßt! daß die technischen möglichkeiten der fx größer sind weiß mapel ganz genau, nur meint er eben, daß die karte dafür nicht mehr die nötigen reserven hat, die auch in ausreichender menge in nünftiger geschwindigkeit zu malen und von daher ne ti4200 mit dx8-reportoire im endeffekt den besseren augenschmauß bieten kann

und dabei auch das game schöner aussehen lassen, sprich mehr effekte gleichzeitig darstellen können.

mapel110
2003-05-04, 21:22:51
Originally posted by Razor

Endlich mal jemand, der die Zeichen der Zeit erkannt hat !
Danke.

Razor

schön, empfehlt ihr allen in eurem bekanntenkreis, die eine karte suchen für 100 €, die 5200er. bitte, tut das !

@lovesux
in 6-12 monaten tut sich ne menge auf dem grakamarkt. es kommen karten von sis,s3/via/powervr/trident. da wird mit sicherheit was für 100 € dabei sein, dass dx9 unterstützt und schneller als 5200 ist.

Demirug
2003-05-04, 21:24:53
Originally posted by mapel110
technologiebremse ?!

ihr tut so, als haben sich dx8-karten mies verkauft

< 5% der für Spieleentwickler relevaten PCs haben eine DX8 Karten. (Wert ist von Januar)

EDIT: in den 5% sind natürlich auch DX9 Karten enthalten

LovesuckZ
2003-05-04, 21:25:11
Originally posted by mapel110
/edit
@lovesux
die 9000er schafft immerhin im 3dmark gametest 4 dx8 31 fps
wieviel wird wohl die 5200er bei dx9tests im 3dmark03 schaffen ?!


Wieviel schafft die 9000 wohl in einen DX9 Bench *eg*
Wieviel, ka.
Wahrscheinlich 5-6FPS.

http://www.digit-life.com/articles2/gffx/nv31-nv34.html#p34

Und damit schon deutlich schneller wie eine 9000.

Razor
2003-05-04, 21:25:12
Originally posted by mapel110
@lovesux
die 9000er schafft immerhin im 3dmark gametest 4 dx8 31 fps
wieviel wird wohl die 5200er bei dx9tests im 3dmark03 schaffen ?!
Tja, die FX5200 schafft bei mir 35,6fps und unter 2xAA/4xAF dann noch 19,6...
Schafft das die 9000 auch ?
Wo ist Dein Problem ?
???
Originally posted by mapel110
@razor
wo widerspreche ich mir selbst ?!
die oems dürfen kunden verarschen. das ist "ihr gutes recht". da spreche ich den "nutzen" nicht ab.
Und Endkunden kaufen in Läden, die die Kunden nicht 'verarschen' ?
Sag mal, in welcher Welt lebst Du eigentlich ?

Razor

mapel110
2003-05-04, 21:27:15
Originally posted by Demirug


< 5% der für Spieleentwickler relevaten PCs haben eine DX8 Karten. (Wert ist von Januar)

quelle ?

spieleentwickler relevant ? jetzt wirds interessant. wer sind die "relevanten" ?

Razor
2003-05-04, 21:28:08
Originally posted by MadManniMan
hm... wäre ja sicherlich schön, überall dx9 zu haben, ABER...

- dx9 frißt zu viele transis -> lowendprodukte mit dx9 werden kaum raum für speed haben

- eine dx8-einstiegs-karte wie ne gf3 ist auch jetzt noch brauchbar. sie war aber nicht nur die/mit eine der langsamte(n) dx8-karten, sondern dabei auch noch zumeist schneller als die schnellste für dx7. diese entwicklung heiße ich gut, daher finde ich dx9 auf NV > 5200 und ATi ab 9500 vernünftig. die fx 5200 aber ist zu sehr lahmer als die letzte dx8-brigade und ein beispiel für meinen ersten anstrich

-> [x] ab midrange
Tja, ManniMan...

Dann sag mir doch mal, wieviel 'Transis' eine gf3 hat... und das setze mal in Verhältnis zu einer FX5200. Nun noch einmal mit der Tatsache verquicken, dass die FX5200 bei aktivierten Quali-Features schneller, als 'ne gf3ti500 ist und das ganze dann noch mal wiederholen...

Interessant, was dabei heraus kommt, oder ?
(wenn man sich nicht zu blöde anstellt)
:D

Bis denne

Razor

Razor
2003-05-04, 21:29:36
Originally posted by MadManniMan

huppala, da hat aber einer den kontext nicht erfaßt! daß die technischen möglichkeiten der fx größer sind weiß mapel ganz genau, nur meint er eben, daß die karte dafür nicht mehr die nötigen reserven hat, die auch in ausreichender menge in nünftiger geschwindigkeit zu malen und von daher ne ti4200 mit dx8-reportoire im endeffekt den besseren augenschmauß bieten kann
Habe ich verstanden, nur teile ich seine, bzw. Deine Meinung nicht...
Vermute mal, dass Ihr da irgendetwas nicht erfasst habt, oder ?
;-)

Razor

LovesuckZ
2003-05-04, 21:30:03
Originally posted by mapel110
@lovesux
in 6-12 monaten tut sich ne menge auf dem grakamarkt. es kommen karten von sis,s3/via/powervr/trident. da wird mit sicherheit was für 100 € dabei sein, dass dx9 unterstützt und schneller als 5200 ist.


Hm, Xabre war wohl alles, bloß nicht berauchsend.
GF4MX wurde als "Technologiebremse" bezeichnet.
9000 boten zwar DX8, dafuer grad mal die Leistung einer DX7 Karte (MX440 - GF4MX460)
ATI probierte die Brechstangentaktik und machte aus ihrem ehemaligen High-End Modell ein Low-End Modell (war mir auch neu, dass man so vorgeht, wen man keinen richtigen Fuß im Low-End Segment fasst)
Zur Zeit gibt es vereinzelnte GF3 restbestaende noch zu kaufen.

Zusammenfassend: richtige Low-End Modelle haben beim Speed seit einem jahr nicht mehr zu gelegt. ATI hat zwar das Niveau angehoben, dies jedoch nur durch eine eigne "in eigene Fleisch schneiden" Taktik geschafft...

StefanV
2003-05-04, 21:31:13
Originally posted by Razor

Tja, ManniMan...

Dann sag mir doch mal, wieviel 'Transis' eine gf3 hat... und das setze mal in Verhältnis zu einer FX5200. Nun noch einmal mit der Tatsache verquicken, dass die FX5200 bei aktivierten Quali-Features schneller, als 'ne gf3ti500 ist und das ganze dann noch mal wiederholen...

Interessant, was dabei heraus kommt, oder ?
(wenn man sich nicht zu blöde anstellt)
:D

Bis denne

Razor

Toll, die 8 MIO Transis, die die FX5200 weniger hat...
Dafür hat die GF3 aber auch 4 richtige Pipelines mit je 2 TMUs, das darfst du auch nicht vergessen, Razor...

Und verglichen mit den 35MIO Transistoren einer RV250...

StefanV
2003-05-04, 21:32:47
Originally posted by Razor

Habe ich verstanden, nur teile ich seine, bzw. Deine Meinung nicht...
Vermute mal, dass Ihr da irgendetwas nicht erfasst habt, oder ?
;-)

Razor


Razor, das glaube ich kaum!!

Manni, Mapel und ich haben einfach andere Ansichten als du und Lovie, ihr beide braucht jetzt nicht mit allen Mittel versuchen uns umzustimmen, denn bringen wird das eh nix!!

Es wäre schön, wenn du auch andere Meinungen akzeptieren könntest...

Demirug
2003-05-04, 21:33:23
Originally posted by mapel110


quelle ?

spieleentwickler relevant ? jetzt wirds interessant. wer sind die "relevanten" ?

Die Zahl habe ich von Teut Weidemann. Seines Zeichens Geschäftsführer von Wings Simulations und ein ganz alter Hase was Spieleentwicklung in Deutschland angeht.

Relevant ist jeder PC der sich in den Händen eines möglichen Kundes befindet also im Prinzip jeder PC in einem Privathaushalt welcher nicht zu 100% als Arbeitsgerät von der Steuer abgesetzt wird.

MadManniMan
2003-05-04, 21:34:45
Originally posted by Razor
Nun noch einmal mit der Tatsache verquicken, dass die FX5200 bei aktivierten Quali-Features schneller, als 'ne gf3ti500 ist und das ganze dann noch mal wiederholen...


a) schneller als ne ti200 gewiß, aber letzteres... :|

b) wenn dann schneller, dann in keinen größenordnungen. und da ich selber notgedrungen auf meiner "fast ti500" (ti200 @230/230) in neuen spielen auf quali-schalter nur noch sehnsüchtig blicken, aber bitte nicht klicken kann, zweifle ich mal spontan den nutzwert dieser "errungenschaft" an (ok, ich geb zu: mafia hab ich in 800*600 mit 2aa/4af gezockt. da laß ich mich mal nicht von dem gezuckel stören - die sehnsucht nach hq++ ist zu groß!)

c) rawperformance fx5200

Razor
2003-05-04, 21:35:13
Originally posted by mapel110

schön, empfehlt ihr allen in eurem bekanntenkreis, die eine karte suchen für 100 €, die 5200er. bitte, tut das !
Das werde ich auf jeden Fall tun.
Da sind viele, die endlich Ihre gf2mx aus dem Rechner werfen wollen, aber irgendwie bisher von keinem Produkt so richtig überzeugt wurden. Die FX5200 das allerdings ändern.

Und bedenke, für jede FX, die gekauft wird, fliegt eine ältere Karte aus dem Rechner.
Wenn das nicht schon Grund genug ist.

Aber nein, die Leutz bekommen mehr Speed und die neueste Technologie.
Keine wirklich schlechte Empfehlung für unter 100€, oder ?
Originally posted by mapel110

@lovesux
in 6-12 monaten tut sich ne menge auf dem grakamarkt. es kommen karten von sis,s3/via/powervr/trident. da wird mit sicherheit was für 100 € dabei sein, dass dx9 unterstützt und schneller als 5200 ist.
Na dann mal her mit den Info's !

Bis jetzt ist dort aus der Rcihtung gar nix gekommen, was auch nur annähernd ernst gemnommen werden konnte (PowerVR gringt IMHO überhaupt keine GraKa's mehr heraus... so wie damals sind sie nur kurz aufgetaucht und dann für ein paar Jahre verschwunden).

Und wenn Du keine Belege für diesen Unsinn hast, würde ich mich an Deiner Stelle hier auch nicht so weit aus dem Fenster lehnen. Ich weiß wenigstens wovon ich hier rede...

Bis denne

Razor

mapel110
2003-05-04, 21:35:43
Tja, die FX5200 schafft bei mir 35,6fps und unter 2xAA/4xAF dann noch 19,6...
Schafft das die 9000 auch ?
Wo ist Dein Problem ?
???
-----------------------------------
bei dem restlichen speed, den die 5200er bietet.




Und Endkunden kaufen in Läden, die die Kunden nicht 'verarschen' ?
Sag mal, in welcher Welt lebst Du eigentlich ?

Razor

---------------------
es gibt kunden, die kaufen komplettrechner und es gibt kunden die stellen sich ihren pc selber zusammen und/oder haben ahnung.
wenn die 5200er in einem komplettrechner drinsteckt, wird der kunde mehr "verarscht", als wenn eine 4200er drinsteckt.

hast du eine 5200er non pro ?
von der rede ich hier die ganze zeit. die 5200 pro kostet 150 €. dafür bietet ati mittlerweile die 9500 non-pro an, die die weitaus ausgewogenere leistung bietet.

MadManniMan
2003-05-04, 21:36:17
Originally posted by Stefan Payne

Dafür hat die GF3 aber auch 4 richtige Pipelines mit je 2 TMUs, das darfst du auch nicht vergessen, Razor...



genau das meinte ich! ersetze die dx9-transis durch pipeline-welche und die fx5200 geht ab wie schmitts katze!

/edit: naja, machen wir die ultra draus...

StefanV
2003-05-04, 21:36:34
Originally posted by Demirug
< 5% der für Spieleentwickler relevaten PCs haben eine DX8 Karten. (Wert ist von Januar)

EDIT: in den 5% sind natürlich auch DX9 Karten enthalten

...womit du mal dargelegt hast, das die meisten noch mit einer Geforce 2 und darunter 'rumkriechen', vermutlich Geforce 2...

Damit hast du indirekt dargelegt, daß die Diskussion für/gegen DX9 im Low End auch müßig ist, da der Großteil (laut deiner Quelle 95%) der User noch mit einer Karte der Geforce2/Radeon 7x00 Klasse am spielen sind...

MadManniMan
2003-05-04, 21:38:31
Originally posted by Stefan Payne
Es wäre schön, wenn du auch andere Meinungen akzeptieren könntest...


solange man noch erörtern kann geht razors kritik ok... da er allerdings schon recht provokant geworden ist (ich nenns mal nicht beleidigend), kann man kaum noch von dieser situation ausgehen -> überzeug uns von deiner einsicht und vernunft, razorle!

LovesuckZ
2003-05-04, 21:38:48
Originally posted by mapel110
hast du eine 5200er non pro ?
von der rede ich hier die ganze zeit. die 5200 pro kostet 150 €. dafür bietet ati mittlerweile die 9500 non-pro an, die die weitaus ausgewogenere leistung bietet.

Da man DX9 nicht braucht, nehmt man doch hier die GF4TI4200/TI4800SE mit dem besseren Speed (soviel zur DX9 = Midrange Meinung).

Razor
2003-05-04, 21:39:38
Originally posted by Stefan Payne

Toll, die 8 MIO Transis, die die FX5200 weniger hat...
Dafür hat die GF3 aber auch 4 richtige Pipelines mit je 2 TMUs, das darfst du auch nicht vergessen, Razor...

Und verglichen mit den 35MIO Transistoren einer RV250...
So, dann erzähl mir doch mal, wie es sein kann, dass die FX5200 mit aktivierten Quali-Features trotzdem schneller, als 'ne gf3(ti500) sein kann... in der Rohperformance ist sie eindeutig (von ein paar wenigen Ausnahmen abgesehen) geringer einzustufen, gleicht dies aber offensichtlich durch moderne Technologien wieder aus. Auf jeden Fall kann ich jetzt Dinge, wie z.Bsp. UT2003 mit AA/AF speilen, was vorher mit der gf3 nicht mehr möglich war.

So bin ich denn mal gespannt, was Dir dazu einfällt.
(oder wieder ein Schweigen im Walde von Dir zu 'hören' ist ;-)

Bis denne

Razor

StefanV
2003-05-04, 21:40:44
Originally posted by MadManniMan
genau das meinte ich! ersetze die dx9-transis durch pipeline-welche und die fx5200 geht ab wie schmitts katze!

/edit: naja, machen wir die ultra draus...

Genau das ist auch meine Meinung...

Mit dem gleichen Aufwand an Transistoren hätte NV locker eine DX8 Karte mit 4 Pipelines und 1 TMU hinbekommen, eventuell sogar noch eine mit 2 TMUs, dazu noch die ganzen Bandbreiten sparenden Maßnahmen der NV30 und schon sähe ATI in diesem Segment ziemlich alt aus...

Naja, und die eine DX9 Pipeline der FX5200 ist auch nicht wirklich der Rede wert...

Razor
2003-05-04, 21:41:35
Originally posted by Stefan Payne

Razor, das glaube ich kaum!!

Manni, Mapel und ich haben einfach andere Ansichten als du und Lovie, ihr beide braucht jetzt nicht mit allen Mittel versuchen uns umzustimmen, denn bringen wird das eh nix!!

Es wäre schön, wenn du auch andere Meinungen akzeptieren könntest...
Keine angst, Euch umzustimmen ist mit Sicherheit nicht mein Ziel. Aber der eine oder andere Leser hier im Forum wird sich schon die passenden Gedanken machen können, auch wenn Ihr es nicht rafft.

Bis denne

Razor

mapel110
2003-05-04, 21:42:19
Originally posted by LovesuckZ


Da man DX9 nicht braucht, nehmt man doch hier die GF4TI4200/TI4800SE mit dem besseren Speed (soviel zur DX9 = Midrange Meinung).


jetzt fehlt nurnoch diese einsicht bei low end :D

Demirug
2003-05-04, 21:43:22
Originally posted by Stefan Payne


...womit du mal dargelegt hast, das die meisten noch mit einer Geforce 2 und darunter 'rumkriechen', vermutlich Geforce 2...

Damit hast du indirekt dargelegt, daß die Diskussion für/gegen DX9 im Low End auch müßig ist, da der Großteil (laut deiner Quelle 95%) der User noch mit einer Karte der Geforce2/Radeon 7x00 Klasse am spielen sind...

Vergiess die GF4MXen nicht ;)

und die leute mit den Karten Baujahr <= 2000 werden sich ja irgendwann auch mal was neues kaufen.

LovesuckZ
2003-05-04, 21:43:24
Originally posted by Stefan Payne
Damit hast du indirekt dargelegt, daß die Diskussion für/gegen DX9 im Low End auch müßig ist, da der Großteil (laut deiner Quelle 95%) der User noch mit einer Karte der Geforce2/Radeon 7x00 Klasse am spielen sind...

Umso notwendiger waere eine breite Faecherung des DX9 Angeotes. Mit jeder gekauften DX9 Karte steigt auch das Vorhandensein von DX8 an und somit auch DX8.1 (und deine geliebten PS1.4). Ausserdem kann man so vermeiden, dass der Kunde seine alte TNT/GF1/GF2MX gegen eine GF4MX auswechselt...

StefanV
2003-05-04, 21:43:39
Originally posted by Razor

So, dann erzähl mir doch mal, wie es sein kann, dass die FX5200 mit aktivierten Quali-Features trotzdem schneller, als 'ne gf3(ti500) sein kann... in

Razor, hast du schonmal was von Color Compression gehört und weißt du, wozu man das benutzt??

DAS wird vermutlich der Grund sein, warum die FX5200 mit FSAA schneller sein könnte...

Ich hätte mich im Low Cost Segment eher über eine NV25 mit einer TMU, Color Compression, 6 Texturlagen und PS1.4 Fähigkeit gefreut als über eine Karte der GF2/GF4 MX Klasse...

LovesuckZ
2003-05-04, 21:45:15
Originally posted by mapel110
jetzt fehlt nurnoch diese einsicht bei low end :D

Noe, warum. Ob ich mir ne GF4MX kaufe oder eine 5200, macht im Bezug auf den Speed keinen Unterschied. Ich kann DX7 Spiele im gleichenmaße zoggen, dazu AA/AF einschalten und habe die neuste Technik. Man kann auch anderums sehen: Warum sollte man jemanden eine 9000 empfehlen, wenn diese nur auf dem Niveau der GF4MX liegt?

StefanV
2003-05-04, 21:48:29
Originally posted by Demirug
Vergiess die GF4MXen nicht ;)

und die leute mit den Karten Baujahr <= 2000 werden sich ja irgendwann auch mal was neues kaufen.

1. ok, die Teile hab ich nicht beachtet, obwohl die auch in diese Kategorie gehören, nimms mir bitte nicht allzu übel :)

2. Das Problem ist doch, daß diese Leute, die von einer GF2 (Womöglich sogar eine GF2 ULTRA) oder Geforce4 MX auf eine FX5200 'aufrüsten', dann werden sie kaum an Performance gewinnen, was ich persönlich ebenfalls als Problem ansehe, da auch eine zu langsame Karte eine Technologie Bremse sein kann...

Razor
2003-05-04, 21:49:04
Originally posted by MadManniMan

a) schneller als ne ti200 gewiß, aber letzteres... :|
Jup, bis zu 50% schneller (bei nicht nur einer Engine !)m als meine übertaktete gf3 (@235/530) !
Originally posted by MadManniMan

b) wenn dann schneller, dann in keinen größenordnungen. und da ich selber notgedrungen auf meiner "fast ti500" (ti200 @230/230) in neuen spielen auf quali-schalter nur noch sehnsüchtig blicken, aber bitte nicht klicken kann, zweifle ich mal spontan den nutzwert dieser "errungenschaft" an (ok, ich geb zu: mafia hab ich in 800*600 mit 2aa/4af gezockt. da laß ich mich mal nicht von dem gezuckel stören - die sehnsucht nach hq++ ist zu groß!)
Siehe weiter oben...
UT2003 war mit der oc'ten gf3 vorher mit 2xAA/4xAF keum spielbar, jetzt ist es das.
Originally posted by MadManniMan

c) rawperformance fx5200
Who cares ?
Wenn ich Dinge trotzdem schneller mit den von mir favorisierten Qauli-Einstellungen spielen kann ?

Mir hat die FX5200 sogar ein Mehr an Performance gebracht, obwohl das eigentlich gar nicht von mir beabsichtigt war. Ich wollte endlich mal die Technologie von nVidia beschnuppern (die von ATI hatte ich ja sehr schnell durch) und auch mal Dinge langfristig antesten, die mir seit gf3 verwehrt bleiben. Zudem war das Kärtchen noch passiv gekühlt, also noch ein Grund mehr, die paar Euro's zu meinem Händler zu tragen.

Als ich dann aber festgestellt habe, dass die Rohperformance auf dem erwarteten Level lag, aber die Quali-Performance [b]im Vergleich zur gf3[/i] aber doch um ganze Klassen höher lag, war ich nun doch erstaunt.

Und ja, ich spreche hier nicht von der gf4ti, sondern tatsächlich von der gf3...
(es wird noch laaaaaange dauern, bis ein Großteil der GraKa-User gf4ti-Klasse GraKa's im Rechner haben !)

Bis denne

Razor

StefanV
2003-05-04, 21:49:46
Originally posted by LovesuckZ

Noe, warum. Ob ich mir ne GF4MX kaufe oder eine 5200, macht im Bezug auf den Speed keinen Unterschied. Ich kann DX7 Spiele im gleichenmaße zoggen, dazu AA/AF einschalten und habe die neuste Technik. Man kann auch anderums sehen: Warum sollte man jemanden eine 9000 empfehlen, wenn diese nur auf dem Niveau der GF4MX liegt?

Aha, nur warum sollte ich mir 'ne FX5200 kaufen, wenn ich schon eine gleichschnelle Karte drin hab ??

Welchen Sinn hätte diese Aufrüstung dann ??
Würdest du dich als Kunde nicht veräppelt vorkommen, wenn du eine neue Karte kaufst und NICHTS läuft schneller ??

Lightning
2003-05-04, 21:49:59
[x] Auch die Karten aus der zweiten Reihe (Mid-Range) brauchen DX9

Bei der 2. Reihe geh ich jetzt einfach mal von Karten wie der Radeon 9500/Pro aus. Diese Karten werden noch schnell genug sein, um kleine DX9 Effekte anzuzeigen, so wie eine GeForce3 z.B. noch schnell genug ist um das PixelShader-Wasser bei Morrowind darzustellen.
Bei allen Karten die langsamer sind, halte ich es allerdings nicht für notwendig, DX9 Features zu implementieren. Schaden kann es aber auch nicht.

Demirug
2003-05-04, 21:50:16
Originally posted by Stefan Payne


Razor, hast du schonmal was von Color Compression gehört und weißt du, wozu man das benutzt??

DAS wird vermutlich der Grund sein, warum die FX5200 mit FSAA schneller sein könnte...

Nein das kann nicht der grund sein. Der NV34 hat keine Color Compression.

Ich hätte mich im Low Cost Segment eher über eine NV25 mit einer TMU, Color Compression, 6 Texturlagen und PS1.4 Fähigkeit gefreut als über eine Karte der GF2/GF4 MX Klasse...

Warum die mühe machen eine PS 1.4 tauglische Pipeline zu entwerfen die man dann nur in einem Produkt verbaut?

Eine DX8 Lowcost Lösung von NVIDIA hätte definitive nur PS 1.3 beherscht.

mapel110
2003-05-04, 21:51:24
hm, sehe gerade die g2mx440 gibts schon für 40 €. die 5200er erst ab 85 €. =)
da würde ich doch glatt die 4mx vorziehen für meinen zweitrechner :D

Razor
2003-05-04, 21:52:31
Originally posted by mapel110
Tja, die FX5200 schafft bei mir 35,6fps und unter 2xAA/4xAF dann noch 19,6...
Schafft das die 9000 auch ?
Wo ist Dein Problem ?
???
-----------------------------------
bei dem restlichen speed, den die 5200er bietet.
Bei dem Rest sieht es ähnlich aus...
Mit aktivierten Quali-Features ist sie meist schneller, als eine gf3 (und damit auch schneller, als eine R9000 ;-).
Und das bis zu 50%...
Originally posted by mapel110
Und Endkunden kaufen in Läden, die die Kunden nicht 'verarschen' ?
Sag mal, in welcher Welt lebst Du eigentlich ?

Razor

---------------------
es gibt kunden, die kaufen komplettrechner und es gibt kunden die stellen sich ihren pc selber zusammen und/oder haben ahnung.
wenn die 5200er in einem komplettrechner drinsteckt, wird der kunde mehr "verarscht", als wenn eine 4200er drinsteckt.

hast du eine 5200er non pro ?
Jep.
Originally posted by mapel110
von der rede ich hier die ganze zeit. die 5200 pro kostet 150 €. dafür bietet ati mittlerweile die 9500 non-pro an, die die weitaus ausgewogenere leistung bietet.
Ich hoffe Du verstehst langsam...

Razor

StefanV
2003-05-04, 21:53:10
Originally posted by mapel110
hm, sehe gerade die g2mx440 gibts schon für 40 €. die 5200er erst ab 85 €. =)
da würde ich doch glatt die 4mx vorziehen für meinen zweitrechner :D
Ich nicht, dafür hab ich die TI200 von Leadtek, die auch auf 250/275MHz läuft :)

Für reine Surf und Office Rechner ist diese Karte noch zu gebrauchen, auch wenn die Verlustleistung dafür schon fast zu hoch ist, verglichen mit meiner Rage 128 ULTRA, ohne Kühler versteht sich :)

LovesuckZ
2003-05-04, 21:53:46
Originally posted by Stefan Payne
Aha, nur warum sollte ich mir 'ne FX5200 kaufen, wenn ich schon eine gleichschnelle Karte drin hab ??
Welchen Sinn hätte diese Aufrüstung dann ??
Würdest du dich als Kunde nicht veräppelt vorkommen, wenn du eine neue Karte kaufst und NICHTS läuft schneller ??

Ohman...
Das ist genauso sinnig, wie von der 9700pro auf die 9800 umzusteigen. Daher ist dein Beispiel da oben auch ziemlich weit daneben.
Es gibt immer noch Leute die haben langsamere Karten wie TNT oder ne GF2MX oder Kyro2 im Rechner. Warum sollten diese Leute nicht auf eine 5200 umsteigen? Oder doch wieder eine DX7 als 4MX in den rechner steigen.

StefanV
2003-05-04, 21:54:12
Originally posted by Razor
Ich hoffe Du verstehst langsam...

Razor, Mapel, Manni und andere haben schon längst verstanden, sie sind nur zu einem anderen Schluss gekommen als du!!!

LovesuckZ
2003-05-04, 21:54:53
Originally posted by Stefan Payne
Für reine Surf und Office Rechner ist diese Karte noch zu gebrauchen, auch wenn die Verlustleistung dafür schon fast zu hoch ist, verglichen mit meiner Rage 128 ULTRA, ohne Kühler versteht sich :)

meine Office Gf2MX laeuft auch ohne Kuehler...

Razor
2003-05-04, 21:55:50
Originally posted by MadManniMan

genau das meinte ich! ersetze die dx9-transis durch pipeline-welche und die fx5200 geht ab wie schmitts katze!

/edit: naja, machen wir die ultra draus...
Die 'ultra' ist nur höher getaktet...
Mach lieber eine 5600 draus.
Aber natürlich bei dem gleichen Preis vom 100€, oder ?
Sag mal, geht's noch ?

Und jetzt erzähl mir mal, warum nVidia so etwas tun sollte ?
Die 5200 verkauft sich schon jetzt wie warme Semmeln...
Warum sollten sie auf die Marge der teureren Modelle verzichten ?
(das kennen wir nur von einem anderen Chip-hersteller ;-)

Bis denne

Razor

StefanV
2003-05-04, 21:55:51
Originally posted by LovesuckZ
meine Office Gf2MX laeuft auch ohne Kuehler...

Und was wird wärmer??
Deine Hand oder die GF2 MX ?? :naughty:

Bei meiner Rage 128 ULTRA bin ich mir nicht sicher, meistens ists aber meine Hand...

MadManniMan
2003-05-04, 21:56:21
Originally posted by Razor
auch wenn Ihr es nicht rafft.

Bis denne

Razor


muß grad sachen machen, daher keine antwort auf topic, sondern nur auf diesen kommentar...

-> laß deine sprüche stecken! wer nicht deiner meinung ist, ist nicht gleich bescheuert

Razor
2003-05-04, 21:57:48
Originally posted by Stefan Payne

Genau das ist auch meine Meinung...

Mit dem gleichen Aufwand an Transistoren hätte NV locker eine DX8 Karte mit 4 Pipelines und 1 TMU hinbekommen, eventuell sogar noch eine mit 2 TMUs, dazu noch die ganzen Bandbreiten sparenden Maßnahmen der NV30 und schon sähe ATI in diesem Segment ziemlich alt aus...

Naja, und die eine DX9 Pipeline der FX5200 ist auch nicht wirklich der Rede wert...
Du schaffst es echt nicht, hier mehr von Dir zu geben, als diesen Dünnsinn, den Du hier verzapst, oder ?
Hast Du auch nur einen Beleg (außer dem Murks, der keiner ist), der Deine Aussage stützt ?
Oder flamest Du hier (schon wieder !) nur rum ?

Razor

Demirug
2003-05-04, 21:58:17
Originally posted by Stefan Payne


1. ok, die Teile hab ich nicht beachtet, obwohl die auch in diese Kategorie gehören, nimms mir bitte nicht allzu übel :)

2. Das Problem ist doch, daß diese Leute, die von einer GF2 (Womöglich sogar eine GF2 ULTRA) oder Geforce4 MX auf eine FX5200 'aufrüsten', dann werden sie kaum an Performance gewinnen, was ich persönlich ebenfalls als Problem ansehe, da auch eine zu langsame Karte eine Technologie Bremse sein kann...

1. nein ich nehme dir das nicht übel. Das nehme ich eher NVIDIA übel.

2. Das "zu langsam" macht nicht wirklich was aus. Es geht letzten Endes nur darum das die Technologie verfügbar ist. Das hat aber vorallem etwas mit dem Kaufverhalten in Übersee zu tun. Spontankäufe im laden von leuten die von Technik keine Ahnung haben und sowas.

Demirug
2003-05-04, 22:00:19
Stefan für Temperaturen von Passiv gekühlten Karten habe ich euch schon einen anderen Thread gesplitet.

LovesuckZ
2003-05-04, 22:00:32
Originally posted by Stefan Payne
Und was wird wärmer??
Deine Hand oder die GF2 MX ?? :naughty:

Bei meiner Rage 128 ULTRA bin ich mir nicht sicher, meistens ists aber meine Hand...

Warum sollte ich meine GF2MX anfassen?
Wir koennen ja auch mal die Spieleleistung vergleichen...

MadManniMan
2003-05-04, 22:01:43
Originally posted by Razor

Sag mal, geht's noch ?



*mal wieder über den thread fall*

kriegst keine antwort von mir, wenn du mich weiter so anbaffst

Razor
2003-05-04, 22:01:57
Originally posted by Stefan Payne

Razor, hast du schonmal was von Color Compression gehört und weißt du, wozu man das benutzt??
Natürlich... und tu jetzt bloß nicht so, als on Du die Weißheit mit Löffeln...
:D
Originally posted by Stefan Payne

DAS wird vermutlich der Grund sein, warum die FX5200 mit FSAA schneller sein könnte...
Du raffst es echt nicht...
Sie IST bereits schneller, als 'ne gf3ti500 (im Zusammenhang mit AF, auf das ich sicher nicht so schnell verzichte, wie auf AA ;-), begreifst Du das jetzt endlich ?
Originally posted by Stefan Payne

Ich hätte mich im Low Cost Segment eher über eine NV25 mit einer TMU, Color Compression, 6 Texturlagen und PS1.4 Fähigkeit gefreut als über eine Karte der GF2/GF4 MX Klasse...
Du hättest Dich über KEINE nVidia-Karte 'gefreut'...
Hast Du nie und wirst Du nie...
DAS hast Du hier mehr als nur einmal ( <- 'eichte' Untertreibung ) unter Beweis gestellt.

Also rede hier nicht so einen Unsinn...

Razor

Demirug
2003-05-04, 22:02:31
Razor, nicht aufregen. Bleib bitte sachlich auch wenn es dir schwer fällt. ;)

LovesuckZ
2003-05-04, 22:03:23
Originally posted by Stefan Payne
Mit dem gleichen Aufwand an Transistoren hätte NV locker eine DX8 Karte mit 4 Pipelines und 1 TMU hinbekommen, [...] dazu noch die ganzen Bandbreiten sparenden Maßnahmen der NV30 und schon sähe ATI in diesem Segment ziemlich alt aus...


Rausgekommen ist die 5600. Hat Color Compression, PS1.4 und "4 Pipelines und 1 TMU".

MadManniMan
2003-05-04, 22:03:26
Originally posted by Razor
Dünnsinn, den Du hier verzapst

(...)

Oder flamest Du hier (schon wieder !) nur rum ?


stefan, antworte nicht mehr auf ihn. er will nicht mehr diskutieren.

hätte ich eigentlich nicht erwartet

StefanV
2003-05-04, 22:03:45
Originally posted by Demirug
1. nein ich nehme dir das nicht übel. Das nehme ich eher NVIDIA übel.

2. Das "zu langsam" macht nicht wirklich was aus. Es geht letzten Endes nur darum das die Technologie verfügbar ist. Das hat aber vorallem etwas mit dem Kaufverhalten in Übersee zu tun. Spontankäufe im laden von leuten die von Technik keine Ahnung haben und sowas.

1. gut, dann bin ich ja beruhigt :)

2. Aus Entwicklersicht -> ja
Aus Usersicht -> nein

Ein Feature ist für mich als User nur dann nutzbar, wenn die Performance ausreicht um das Feature darzustellen (oder dieses Feature sogar Performance bringt).

PS: ich weigere mich die Dinge aus sicht eines Entwicklers zu sehen, da ich momentan definitiv keiner bin, wenn ich einer wäre, dann wäre das anders, da ich aber keiner bin versuche ich bei meiner Sicht aus der Sichtweise eines PC-Endanwenders zu bleiben, solange bis sich meine Position ändert (z.B. ich zu einem Entwickler oder Händler werde)...

€dit:

Originally posted by Demirug
Stefan für Temperaturen von Passiv gekühlten Karten habe ich euch schon einen anderen Thread gesplitet.

Kein Problem, war hier eh so on Topic wie ein Kühlschrank am Nordpol :)

Razor
2003-05-04, 22:04:11
Originally posted by Stefan Payne

2. Das Problem ist doch, daß diese Leute, die von einer GF2 (Womöglich sogar eine GF2 ULTRA) oder Geforce4 MX auf eine FX5200 'aufrüsten', dann werden sie kaum an Performance gewinnen, was ich persönlich ebenfalls als Problem ansehe, da auch eine zu langsame Karte eine Technologie Bremse sein kann...
Und schon wieder so ein <...rip...>.
Hast Du dafür auch nur annähernd was zu bieten, was das mit Hintergrund füllen könnte ?
Versuch doch bitte mal, nachvollziehbare Argumente zu liefern, als hier immer nur so ein <...rip...> Zeug abzulassen.

Razor

... gekürzt ;-) ...

Razor
2003-05-04, 22:04:57
Originally posted by Stefan Payne

Aha, nur warum sollte ich mir 'ne FX5200 kaufen, wenn ich schon eine gleichschnelle Karte drin hab ??

Welchen Sinn hätte diese Aufrüstung dann ??
Würdest du dich als Kunde nicht veräppelt vorkommen, wenn du eine neue Karte kaufst und NICHTS läuft schneller ??
Jetzt weiß ich's !
Du kannst gar nicht lesen !!!
:lol:

Razor

LovesuckZ
2003-05-04, 22:06:04
Originally posted by Stefan Payne
Ein Feature ist für mich als User nur dann nutzbar, wenn die Performance ausreicht um das Feature darzustellen (oder dieses Feature sogar Performance bringt).


AA/AF sind dann wohl die Feature, die jede Karte besitzen und auch in ausreichender Qualitaet und ausreichem Speed darstellen sollte. Somit erledigen sich schonmal alle Karten wie 9000/9100/GF4MX...

MadManniMan
2003-05-04, 22:06:41
Originally posted by Razor
wieder so ein Schachfung.

Du kannst gar nicht lesen !!!
:lol:




ich befürchte, daß weitere tolle diskussionskulturhäppchen bald kommen

Razor
2003-05-04, 22:07:17
Originally posted by Stefan Payne

Razor, Mapel, Manni und andere haben schon längst verstanden, sie sind nur zu einem anderen Schluss gekommen als du!!!
Also bei Razor kann ich Dir nun wirklich nich zustimmen...
MEGA-:lol:

Razor

MadManniMan
2003-05-04, 22:09:11
Originally posted by LovesuckZ


AA/AF sind dann wohl die Feature, die jede Karte besitzen und auch in ausreichender Qualitaet und ausreichem Speed darstellen sollte. Somit erledigen sich schonmal alle Karten wie 9000/9100/GF4MX...


:naughty:

die wenigsten wissen von der existenz von af/aa...

vernünftige rawperformance bei einer gewissen feature-generation ist imho für die masse nünftiger

StefanV
2003-05-04, 22:09:27
Originally posted by Razor
Du hättest Dich über KEINE nVidia-Karte 'gefreut'...
Hast Du nie und wirst Du nie...
DAS hast Du hier mehr als nur einmal ( <- 'eichte' Untertreibung ) unter Beweis gestellt.


Razor, das ist eine Unterstellung deinerseits, die du nicht begründen kannst.

Ich sage, daß ich mich drüber gefreut hätte, wenn NV so eine Karte gebracht hätte, ich sage auch, daß ich mir eine FX5800 und keine 9700 gekauft hätte, wenn letztere 80€ günstiger gewesen wäre, ich sage auch, daß ich mir irgendwann wieder eine NV Karte kaufen werde.

-> das ist Meine Meinung, so werde ich es machen.
Was ist daran so schlimm, wenn ich mir Freiwillig eine NV Karte kaufe ??

Das hab ich schon ~15 mal getan!!!!

Exxtreme
2003-05-04, 22:09:46
Mädelz,

beruhigt euch bitte.

Razor
2003-05-04, 22:09:53
Originally posted by MadManniMan

*mal wieder über den thread fall*

kriegst keine antwort von mir, wenn du mich weiter so anbaffst
Ich werde damit aufhören, wenn ich hier endlich mal was vernünftiges höre...
(sorry, wenn Du Dich 'angebafft' fühlst, habe mich schon wieder abgeregt ;-)

Bis denne

Razor

MadManniMan
2003-05-04, 22:10:50
Originally posted by Razor

Also bei Razor kann ich Dir nun wirklich nich zustimmen...
MEGA-:lol:

Razor


erst darüber beschweren, daß andere "nicht lesen" können. und dann beweisen, daß das verlangen fehlt, grammatik richtig zu deuten.

du hast dir noch nie freunde gemacht mit deiner diskussionsweise

Razor
2003-05-04, 22:10:57
Originally posted by Demirug
Razor, nicht aufregen. Bleib bitte sachlich auch wenn es dir schwer fällt. ;)
Jup... ich kann auch anders...
Rege mich grad bei einem kühlen Bierchen ab.
;-)

Razor

StefanV
2003-05-04, 22:11:11
Originally posted by LovesuckZ
AA/AF sind dann wohl die Feature, die jede Karte besitzen und auch in ausreichender Qualitaet und ausreichem Speed darstellen sollte. Somit erledigen sich schonmal alle Karten wie 9000/9100/GF4MX...

1. weiß die vermeintliche Käuferschicht der FX5200 von der Existens von FSAA/AF ??

2. was wirst du als erstes abschalten, wenns bei einem Spiel anfängt zu ruckeln ??

Auflösung, FSAA, AF oder Details ??

LovesuckZ
2003-05-04, 22:11:50
Originally posted by MadManniMan
:naughty:
die wenigsten wissen von der existenz von af/aa...
vernünftige rawperformance bei einer gewissen feature-generation ist imho für die masse nünftiger

Frage zur "Feature-Generation": Liegt hier nicht die FX5200 deutlich vor der G4MX und 9000? Einzig allein die 9100 kann sich durch die bessere Performance in Szene setzen.
Da heißt, dass die 5200 den 2. Platz einnehmen wuerde. Daher verstehe ich nicht die Aufregung. Wir bekommen eine DX9 Low-End karte, die nur durch ein ehemaliges High-End Modell geschlagen wird, welches nicht mal einen 2. Ramdac besitzt.

MadManniMan
2003-05-04, 22:12:02
Originally posted by Razor

Ich werde damit aufhören, wenn blabla

bitte macht den thread erstmal dicht, einen abend oder so. ist ja nicht mehr auszuhalten

StefanV
2003-05-04, 22:12:18
Originally posted by Exxtreme
Mädelz,

beruhigt euch bitte.

Ich bin ruhig, hab nicht die geringste Erregung in diesem Thread, nur viel spaß beim Postingssammeln und an der Diskussion mit Demirug :naughty:

MadManniMan
2003-05-04, 22:13:47
Originally posted by LovesuckZ


Frage zur "Feature-Generation": Liegt hier nicht die FX5200 deutlich vor der G4MX und 9000? Einzig allein die 9100 kann sich durch die bessere Performance in Szene setzen.
Da heißt, dass die 5200 den 2. Platz einnehmen wuerde. Daher verstehe ich nicht die Aufregung. Wir bekommen eine DX9 Low-End karte, die nur durch ein ehemaliges High-End Modell geschlagen wird, welches nicht mal einen 2. Ramdac besitzt.

featureseitig ist der vorsprung klar, aber speedmäßig... ich erinnere mich an ein review bei digit-life :|

LovesuckZ
2003-05-04, 22:14:23
Originally posted by Stefan Payne
1. weiß die vermeintliche Käuferschicht der FX5200 von der Existens von FSAA/AF ??
2. was wirst du als erstes abschalten, wenns bei einem Spiel anfängt zu ruckeln ??
Auflösung, FSAA, AF oder Details ??

Dann verstehe ich den Sinn deiner Aussage nicht. DX8 ist heutzutage genauso sinnlos wie DX9. Die Spiele, denen man wirklich eine Qualitaetssteigerung durch die erweiterten Funktionen ansieht, sind sowas von rar, dass eher schon AA/AF ein Kaufargument darstellen und die technologische Sicht sehr weit in den Hintergrund rueckt.

Razor
2003-05-04, 22:14:44
Originally posted by MadManniMan

ich befürchte, daß weitere tolle diskussionskulturhäppchen bald kommen
Nein, das war die Spitze des Eisberges und jetzt bin ich wieder auf normalem Level...
;-)

Ich habe ihm vorher haarklein ausandergelegt, wie es um die Performance einer 5200 bestellt ist. Und dann kommt ein Kommentar von ihm, der eigentlich nur einen Rückschluss zuläßt.

Da habe ich wohl leicht überreagiert...
Aber wie soll man sonst auf so etwas antworten ?

Bis denne

Razor

StefanV
2003-05-04, 22:16:10
Originally posted by Razor

Also bei Razor kann ich Dir nun wirklich nich zustimmen...
MEGA-:lol:

Razor

:|

Also in der Schule, als Grammatik dran war, hab ich gelernt, daß man es so schreibt...

Begründung:

Anrede, Aufzählung.

LovesuckZ
2003-05-04, 22:16:35
Originally posted by MadManniMan
featureseitig ist der vorsprung klar, aber speedmäßig... ich erinnere mich an ein review bei digit-life :|

Das Problem liegt zur Zeit noch am Treiber. Unter App. laeuft nicht alles so rund, wie es sollte. Anscheinend laeuft die karte nur im "Save - Modus".
Unter Balanced rueckt sie dann auf und laut Leo ist der Unterschied ohne AF nur sehr schwer zu sehen.
Mit verbesserten Treibern wird es noch eine Leistungssteigerung geben.

StefanV
2003-05-04, 22:19:21
Originally posted by LovesuckZ
Das Problem liegt zur Zeit noch am Treiber. Unter App. laeuft nicht alles so rund, wie es sollte. Anscheinend laeuft die karte nur im "Save - Modus".
Unter Balanced rueckt sie dann auf und laut Leo ist der Unterschied ohne AF nur sehr schwer zu sehen.
Mit verbesserten Treibern wird es noch eine Leistungssteigerung geben.

1. hast du einen *wirklichen* Beleg dafür oder nur Vermutungen deinerseits/anderer ??

2. wer weiß, was NV da fabriziert hat, ehrlich gesagt, will ich das auch garnicht wirklich wissen...

Razor
2003-05-04, 22:19:34
Originally posted by Stefan Payne

:|

Also in der Schule, als Grammatik dran war, hab ich gelernt, daß man es so schreibt...

Begründung:

Anrede, Aufzählung.
Und Du meinst nicht, dass man das auch anders verstehen kann ?
;-)
Originally posted by Stefan Payne

Razor, Mapel, Manni und andere haben schon längst verstanden, sie sind nur zu einem anderen Schluss gekommen als du!!!
Offensichtlich bist Du doch etwas erregt, sonst hättest Du diesen kleinen Spaß verstanden...
;-)

Bis denne

Razor

Razor
2003-05-04, 22:21:22
Originally posted by MadManniMan

erst darüber beschweren, daß andere "nicht lesen" können. und dann beweisen, daß das verlangen fehlt, grammatik richtig zu deuten.

du hast dir noch nie freunde gemacht mit deiner diskussionsweise
Warum solle ich mir mit "meiner Diskussionsweise" Freunde machen wollen ?
Hier geht's ums Thema und nicht ums knuddeln...

Razor

Demirug
2003-05-04, 22:22:13
Originally posted by Stefan Payne
2. Aus Entwicklersicht -> ja
Aus Usersicht -> nein

Ein Feature ist für mich als User nur dann nutzbar, wenn die Performance ausreicht um das Feature darzustellen (oder dieses Feature sogar Performance bringt).

PS: ich weigere mich die Dinge aus sicht eines Entwicklers zu sehen, da ich momentan definitiv keiner bin, wenn ich einer wäre, dann wäre das anders, da ich aber keiner bin versuche ich bei meiner Sicht aus der Sichtweise eines PC-Endanwenders zu bleiben, solange bis sich meine Position ändert (z.B. ich zu einem Entwickler oder Händler werde)...

Du sollst die Sache ja auch gar nicht aus der Entwicklersicht sehen da du ja keiner bist. Wenn ich meine Sicht der Dinge darstelle dann zum Teil auch deswegen um dem nicht Insieder verständlich zu machen warum mache Dinge so sind wie sie sind.

Ich finde es zudem auch gut das du scheinbar nicht sehr egoistisch bist und an die ganzen Leute denkst die sich nur eine Grafikkarte im Lowcost Segment kaufen können wo ein regelmäsiger Spieler kaum einkaufen würde.

Ich bin da zugegenermassen nicht ganz so selbstloss. Die Leute sollen DX9 Karten kaufen damit ich mir dann bald keine Gedanken mehr über DX7 und DX8 machen muss.

Razor
2003-05-04, 22:22:34
Originally posted by Stefan Payne

2. wer weiß, was NV da fabriziert hat, ehrlich gesagt, will ich das auch garnicht wirklich wissen...
Wer hätte das gedacht...

Razor

StefanV
2003-05-04, 22:22:47
Originally posted by Razor

Und Du meinst nicht, dass man das auch anders verstehen kann ?
;-)

Offensichtlich bist Du doch etwas erregt, sonst hättest Du diesen kleinen Spaß verstanden...
;-)

Bis denne

Razor

Sorry, Razor, aber ein Spaß ist für mich was anderes, ich kann über diesen 'Spaß' nicht wirklich lachen...

MadManniMan
2003-05-04, 22:24:03
Originally posted by Stefan Payne


Sorry, Razor, aber ein Spaß ist für mich was anderes, ich kann über diesen 'Spaß' nicht wirklich lachen...


;-)





























:nighty:

Razor
2003-05-04, 22:24:14
Originally posted by Stefan Payne

Sorry, Razor, aber ein Spaß ist für mich was anderes, ich kann über diesen 'Spaß' nicht wirklich lachen...
Wie ich sagte... Du scheinst nicht wirklich entspannt zu sein...
Ich fühle mich jetzt wieder richtig wohl.
;-)

Und nix für ungut...

Razor

LovesuckZ
2003-05-04, 22:24:57
Originally posted by Stefan Payne
1. hast du einen *wirklichen* Beleg dafür oder nur Vermutungen deinerseits/anderer ??


Es ist eine Vermutung, die ich fuer mich aufstellt habe. Anders kann ich mir den Einbruch nicht erklaeren. Das komische ist ja, dass die F5800Ultra unter D3D Spielen und mit App. AF "nur" auf TI4600 und macnhmal leicht dadrueber liegt und dies bei einem 60% hoeheren Coretakt.

/edit: Payne, dir steht es frei, meine Vermutungen als absurd, grotesk oder gotteslaesterei abzutun.

Exxtreme
2003-05-04, 22:25:45
Ähhhhm... bitte beim Thema bleiben. Wenn einer über Entspannungsübungen reden will, dann soll er einen Thread im Offtopic aufmachen.



;)

Quasar
2003-05-04, 22:31:16
Originally posted by mapel110
hm, sehe gerade die g2mx440 gibts schon für 40 €. die 5200er erst ab 85 €. =)
da würde ich doch glatt die 4mx vorziehen für meinen zweitrechner :D

Die MX440SE kann's auch mal mit nur 64Bit DDR-RAM sein. Mal sehen, ob die dann leistungsmässig immer noch konkurrenzfähig ist.

StefanV
2003-05-04, 22:32:00
Originally posted by Demirug


Du sollst die Sache ja auch gar nicht aus der Entwicklersicht sehen da du ja keiner bist. Wenn ich meine Sicht der Dinge darstelle dann zum Teil auch deswegen um dem nicht Insieder verständlich zu machen warum mache Dinge so sind wie sie sind.

Ich finde es zudem auch gut das du scheinbar nicht sehr egoistisch bist und an die ganzen Leute denkst die sich nur eine Grafikkarte im Lowcost Segment kaufen können wo ein regelmäsiger Spieler kaum einkaufen würde.

Ich bin da zugegenermassen nicht ganz so selbstloss. Die Leute sollen DX9 Karten kaufen damit ich mir dann bald keine Gedanken mehr über DX7 und DX8 machen muss.

1. gut, dann einigen wir uns darauf, daß du bei deinem Standpunkt (Entwickler) bleibst und ich bei meinem (Enduser), ok ?? ;)

2. naja, das liegt zum Teil daran, daß ich mir auch nicht immer das leisten kann, was ich gerne hätte und wenn, daß ich dafür dann arbeiten und sparen darf sowie bestehende Hardware verkaufen...
Zum anderen hätte ich mir die Radeon 9700 nicht gekauft, wenn es schon die 9600 (PRO) für einen ansprechenden Preis gegeben hätte...

Ich vergesse auch nicht, daß ich mich sehr lange gegen die 3D Beschleuniger gewert hab, zum größten Teil aus dem Grunde, weil ich es mir nicht leisten konnte einen 3D Beschleuniger für ~380Deutsche Mark zu kaufen...
Mein erster 3D Beschleuniger war auch eine COlormax Voodoomania für 99 Deutsche Mark, zu einer Zeit, als die TNT2 'in Mode' war...

3. das ist auch dein gutes Recht als Entwickler, siehe 1.
Du willst die neuen Features in dein Baby einbauen, darfst/kannst es aber leider nicht, weil es dafür keine Hardware Basis gibt, aus Entwicklersicht ist dein Standpunkt äußerst verständlich.

StefanV
2003-05-04, 22:33:33
Originally posted by Quasar
Die MX440SE kann's auch mal mit nur 64Bit DDR-RAM sein. Mal sehen, ob die dann leistungsmässig immer noch konkurrenzfähig ist.

Dummerweise die FX5200 auch, und da sollen es angeblich einige 64MB Modelle sein...

aths
2003-05-04, 22:41:38
Originally posted by mapel110
es wird nicht reichen, die auflösung und AA/AF wegzudrücken. man wird auf jedenfall bei solch einer katastrophalen rohperformance wie der 5200er auch features abstellen müssen.Allerdings. Wir wollen schließlich keine einzelnen Eye-Candy-Effekte, sondern wenn schon, dann durchgehend DX9-Shader.

aths
2003-05-04, 22:43:16
Originally posted by Demirug
Ich bin da zugegenermassen nicht ganz so selbstloss. Die Leute sollen DX9 Karten kaufen damit ich mir dann bald keine Gedanken mehr über DX7 und DX8 machen muss. Vermutlich ist es schlimmer, sich noch über DX7 Gedanken machen zu müssen, als einen DX8-Fallback zu berücksichtigen?

mapel110
2003-05-04, 22:43:44
Originally posted by Razor
Na dann mal her mit den Info's !

Bis jetzt ist dort aus der Rcihtung gar nix gekommen, was auch nur annähernd ernst gemnommen werden konnte (PowerVR gringt IMHO überhaupt keine GraKa's mehr heraus... so wie damals sind sie nur kurz aufgetaucht und dann für ein paar Jahre verschwunden).

Und wenn Du keine Belege für diesen Unsinn hast, würde ich mich an Deiner Stelle hier auch nicht so weit aus dem Fenster lehnen. Ich weiß wenigstens wovon ich hier rede...

Bis denne

Razor

sis glidert graka bereich aus in eingene firma. powervr designed jedenfalls einen dx9 chip. von wem und ob der gefertigt wird, weiss man noch nicht. fest steht, powervr ist eine neue partnerschaft mit einem noch unbekannten.
s3/via haben ja ihren deltachrom mittlerweile schon zweimal angekündigt.
trident, hm, da gibts keine infos, aber da war auch was in richtung dx9 geplant.

achja, das ist kein unsinn. das sind spekulationen.
und ich weiss auch, wovon ich rede ;)

Quasar
2003-05-04, 22:48:57
Originally posted by Stefan Payne


Dummerweise die FX5200 auch, und da sollen es angeblich einige 64MB Modelle sein...

Die sind dann aber auch noch 'n bissel billiger. Also bitte nicht immer Äppel un' Beern vergleichen.

Razor
2003-05-04, 22:49:50
Originally posted by mapel110

sis glidert graka bereich aus in eingene firma. powervr designed jedenfalls einen dx9 chip. von wem und ob der gefertigt wird, weiss man noch nicht. fest steht, powervr ist eine neue partnerschaft mit einem noch unbekannten.
s3/via haben ja ihren deltachrom mittlerweile schon zweimal angekündigt.
trident, hm, da gibts keine infos, aber da war auch was in richtung dx9 geplant.

achja, das ist kein unsinn. das sind spekulationen.
und ich weiss auch, wovon ich rede ;)
Eben, Spekulation...
Nur haben wir hier das GraKa-Forum zu fassen.

- SiS gleidert aus, weil es ja offenbar nich so recht klappte
- alles um ImgTech und zukünftige Kyros gehört ins Reich der Spekulation (analogie zu den Bitboys ;-)
- Der Deltachrome muss seine Leistungsfähigkeit erst noch unter Beweis stellen, somit ist auch hier kein Vergleich möglich
- Trident hat noch nie interessiert

Wie war das noch ?
"Lieber einen Spatz in der Hand, als eine Taube auf dem Dach !"
Oder:
"Warten kann man immer !"
:D

Razor

Quasar
2003-05-04, 22:50:03
Originally posted by aths
Allerdings. Wir wollen schließlich keine einzelnen Eye-Candy-Effekte, sondern wenn schon, dann durchgehend DX9-Shader.

Verdammt, dann muss ich mit einer Radeon9700pro wohl auch noch so einiges abstellen, wenn durchgehend Shader genutzt werden, oder?

Razor
2003-05-04, 22:51:21
Originally posted by aths
Allerdings. Wir wollen schließlich keine einzelnen Eye-Candy-Effekte, sondern wenn schon, dann durchgehend DX9-Shader.
Es gibt ja noch nicht einmal durchgehende DX8-Effekte...
Und wann es die geben wird, steht auch noch in den Sternen.

Razor

Demirug
2003-05-04, 22:52:29
Originally posted by aths
Vermutlich ist es schlimmer, sich noch über DX7 Gedanken machen zu müssen, als einen DX8-Fallback zu berücksichtigen?

Relative. Aber dafür müsste ich jetzt zu sehr ins Detail gehen. Aber wir können das gernen dort http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=67925 tun.

Razor
2003-05-04, 22:53:07
Originally posted by aths
Vermutlich ist es schlimmer, sich noch über DX7 Gedanken machen zu müssen, als einen DX8-Fallback zu berücksichtigen?
Warum das ?
Klar, 'Fallback' von DX9 zu DX7 ist 'heftiger', als einer von DX9 zu DX8...
Allerdings hat Demirug schon gesagt, dass es sich bei der letzteren Konstruktion dann eher um ein DX8-Game handelt, denn um ein DX9-Game.

Razor

mapel110
2003-05-04, 22:56:57
@quasar
die 9700 pro hat ihre daseinsberechtigung durch ihre superbe performance in dx7 und dx7 mit ein paar dx8 effekten. eben derzeit !

@razor
dann braucht man ja keine dx9fähige karte ;)

/edit
bezog sich auf deinen vorletzen post, razor.

Quasar
2003-05-04, 23:11:45
Originally posted by mapel110
@quasar
die 9700 pro hat ihre daseinsberechtigung durch ihre superbe performance in dx7 und dx7 mit ein paar dx8 effekten. eben derzeit !

Es ging beim Bezug meines Quotes aber um DX9 und dessen vermeintlich unzureichend schnelle Umsetung auf der FX5200.

UT2003 kann ich mit der FX5200 auch spielen, ein paar Details muss ich eben abschalten, aber dafür kostet die Karte ja auch nur ein drittel einer R9700p, bringt aber auch in UT2003 55% der Performance (standard, 1024).

P.S.:
Wenn "ihr" was gegen die FX5200 sagen wollt, dann doch bitte etwas realistischeres, als das durchgehende DX9-Shader wohl zu langsam zum Spielen sind.
Wie wär's mit schwacher 4xAA-Leistung, schlechter IQ in OpenGL im Aggressive-Setting, AA-Qualität oberhalb von 2xAA.
DAS wären Kritikpunkte, die sie sich in meinen Augen teilweise gefallen lassen müsste.

Seraf
2003-05-04, 23:15:35
Naja naja

Ne große Dx9 Basis wäre doch schonmal gut auch wenn die Performance noch nicht da ist um z.B. damit

-Devs Erfahrungen mit Dx8/9 zu sammeln (um es auszureizen) bis dx9 schnell genug auf den Karten läuft.
-Devs mehr Möglichkeiten/Aussichten haben um neue Technologien anzuwenden .
-mehr Spiele mit mehr netten Effekten/Gimmicks kommen.
-mehr Screensaver und Winamp Plug-ins mit Dx8/9 *g*

-schnellere (ab)Lösung von Dx7Karten
-gleicher Technlogiestandard für alle

nagus
2003-05-04, 23:17:04
Originally posted by Quasar

Es ging beim Bezug meines Quotes aber um DX9 und dessen vermeintlich unzureichend schnelle Umsetung auf der FX5200.

UT2003 kann ich mit der FX5200 auch spielen, ein paar Details muss ich eben abschalten, aber dafür kostet die Karte ja auch nur ein drittel einer R9700p, bringt aber auch in UT2003 55% der Performance (standard, 1024).

... ähhmmm und wieso soll ich mir eine FX 5200 kaufen, wenns ums gleiche geld andere karten gibt (egal welcher hersteller, ATI oder nvidia.. ) die mehr als deutlich schneller sind, aber keine, auf diesem leistungsniveau sowieso unnütze weil viel zu langsame DX9 effekte unterstützt?

Seraf
2003-05-04, 23:21:22
Originally posted by nagus


... ähhmmm und wieso soll ich mir eine FX 5200 kaufen, wenns ums gleiche geld andere karten gibt (egal welcher hersteller, ATI oder nvidia.. ) die mehr als deutlich schneller sind, aber keine, auf diesem leistungsniveau sowieso unnütze weil viel zu langsame DX9 effekte unterstützt?


Ist doch wurst warum...

Razor hat auch eine. Aber nur zum "herumspielen"/testen oder weils ihm Spaß macht Hardware auszuprobieren. ;D

Andere haben wahrscheinlich eine weil sie im komplett PC ist. Bei vielen wirds auch egal sein welche Karte trinn ist weil man für Word eigentlich nicht mehr (ehr weniger) braucht.

Aber ist natürlich Kacke wenn sie als superschnell beworben wird ;)

http://www.chip.de/news/c_news_10452923.html
"Highlight des "Multimedia Entertainment Notebook MD 6200" ist der eingebaute GeForce-FX-Go-5200-Grafikchip mit 64 MByte DDR-RAM. Dank AGP-8x- und DirectX-9.0-Support soll die 3D-Einheit eine "überragende" Grafikleistung bieten"

nagus
2003-05-04, 23:38:34
Originally posted by Seraf



Ist doch wurst warum...

Razor hat auch eine. Aber nur zum "herumspielen"/testen oder weils ihm Spaß macht Hardware auszuprobieren. ;D

Andere haben wahrscheinlich eine weil sie im komplett PC ist. Bei vielen wirds auch egal sein welche Karte trinn ist weil man für Word eigentlich nicht mehr (ehr weniger) braucht.

Aber ist natürlich Kacke wenn sie als superschnell beworben wird ;)

http://www.chip.de/news/c_news_10452923.html
"Highlight des "Multimedia Entertainment Notebook MD 6200" ist der eingebaute GeForce-FX-Go-5200-Grafikchip mit 64 MByte DDR-RAM. Dank AGP-8x- und DirectX-9.0-Support soll die 3D-Einheit eine "überragende" Grafikleistung bieten"

was mich an der sache so ankotzt ist, dass nvidia die billig fx darstellt, als wärs der heilige gral der mainstream-grafikkarten. is es aber nicht. die super-dollen DX9 features auf der FX5200 sind nämlich fürn hugo. echte DX9 titel kommen sowieso erst in einem jahr raus und bis Longhorn erscheint gibts längst bessere und schnellere mainstream-grakas mit DX9 features.

"DX9 für alle" ist nichts weiters als ein dämlicher marketingspruch von den Nvidia frizzen um investoren zu beruhigen und vom 5800FX-fiasko abzuleken.

... btw, "DX9 für alle" ... und was machet nvidia dann mit der Geforce4 linie? NVidiots ;)

th3_h3r0
2003-05-04, 23:57:44
Originally posted by Seraf
Andere haben wahrscheinlich eine weil sie im komplett PC ist. Bei vielen wirds auch egal sein welche Karte trinn ist weil man für Word eigentlich nicht mehr (ehr weniger) braucht.


Das ist genau der Punkt! Der Grossteil aller PC´s steht wo? In
den Büros. Und kein Chef sieht es gern wenn seine Produktivität
durch eine spieletaugliche GraKa gefärdet wäre. Hinzu kommt, das
die Rechner auch leise sein müssen! Da gibt es stringend einzu-
haltende Vorschriften in good old germany...Schonmal was von Ergo-
nomie am Arbeitsplatz gehört? Ergo werden Karten bevorzugt die
eben genau diesen Zweck erfüllen. In 2D eine akzeptable BQ und
ansonsten möglichst onboard...Was glaubt ihr wofür Intel seine
Chipsätze mit integrieter Grafik baut? ;D

Ich habs hier irgendwann irgendwo schonmal geschrieben - Finde den
Thread ned auf die Schnelle...;)

Die FX5200 wird der Dukatenscheisser von nVidia wenn Sie es schaffen
ihn bei den OEM´s statt dem TNT2-M64 zu etablieren! IMO sind noch
2/3 aller verkauften nVidia GPU´s eben TNT2-M64...


Was die Durchdringung von "DX9 Supported by Hardware" angeht gebe
ich Demirug vollkommen recht! Innerhalb von max. 9-12 Monaten wird
ein grossteil der User über eben solche Hardware verfügen. Ob sie
in Games dann nutzbringend ist - Anderes Thema... :| Die nächsten
"Volks-PC´s" und "Aldi-Mega-Seller" kommen so sicher wie sonst
weniges in der Hardwarebranche...:bäh: Und viele werden ihren
alten "Aldi-Rechner" vom Format eines P2/P3/AMD-XP und DX7/8
gegen einen neuen austauschen - Erst Recht wenn ein neues Windoof
winkt...;D

Quasar
2003-05-04, 23:59:04
Originally posted by nagus


was mich an der sache so ankotzt ist, dass nvidia die billig fx darstellt, als wärs der heilige gral der mainstream-grafikkarten. is es aber nicht. die super-dollen DX9 features auf der FX5200 sind nämlich fürn hugo. echte DX9 titel kommen sowieso erst in einem jahr raus und bis Longhorn erscheint gibts längst bessere und schnellere mainstream-grakas mit DX9 features.

"DX9 für alle" ist nichts weiters als ein dämlicher marketingspruch von den Nvidia frizzen um investoren zu beruhigen und vom 5800FX-fiasko abzuleken.

Ich dachte, die DX9-Geschichte hätten wir hinter uns gelassen? DX9 ist momentan der heilige Gral der Grafikindustrie, solange, bis DX10 kommt.

Anwendbar ist es auf keiner heute käuflichen Karte in vernünftiger Geschwindigkeit, wenn wir mal von DX7 extrapolieren.

AlfredENeumann
2003-05-05, 00:27:42
Originally posted by Endorphine
Richtig. Besser, als wenn sie sich eine DX7- oder DX8-Technologiebremse kaufen, auf der DX9-Games dann gar nicht laufen und die die Lebensdauer von DX7/8-Spielen künstlich verlängern. Und das zum gleichen Preis. Schön dumm für alle. Aber bitte - wer gern DX7/8-Karten zum gleichen Preis wie DX9-Beschleuniger kauft, der kauft auch als Privatmann deutsche Autos zum vollen Neupreis ohne Finanzierung/Leasing. Schön dumm sag ich nur.

Also soll ich, wenn ich schnelle Autos Liebe, lieber meine kohle in alle Extras investieren als in eine schnellere Maschine ?

AlfredENeumann
2003-05-05, 00:40:03
Originally posted by LovesuckZ


Wir reden doch hier immer noch von Low-End? DX8 Karten wie 9000 machen keinen Sinn, da zu langsam.



Wieso sprichst du einer 9000er Ihre Berechtigung ab weil sie zu langsam ist, und einer 5200er, die noch langsamer ist nicht ?

Quasar
2003-05-05, 00:40:25
Originally posted by AlfredENeumann


Also soll ich, wenn ich schnelle Autos Liebe, lieber meine kohle in alle Extras investieren als in eine schnellere Maschine ?
...
weil es sein kann, um im Analogon zu bleiben, dass die Bundesregierung beschließt, dass nur Autos mit bestimmten Extras (z.B. ABS und Airbag) noch auf Autobahnen fahren dürfen, weil sonst das Unfallrisiko zu hoch wird.

Natürlich werden diese Autos nicht gezwungen sein, 150 und schneller zu heizen.

Du mit deinem schnellen Auto dagegen könntest auf den Stadtverkehr und auf Landstrassen beschränkt werden, macht dir da das Fahren noch Spaß?

Quasar
2003-05-05, 00:42:17
Originally posted by AlfredENeumann
Wieso sprichst du einer 9000er Ihre Berechtigung ab weil sie zu langsam ist, und einer 5200er, die noch langsamer ist nicht ?

Ups, verkehren wir da nicht die Beweislast ein wenig? Wer hat denn angefangen, Karten aufgrund ihrer Feature/Geschwindigkeit-Kombination als untauglich und/oder überflüssig zu bezeichnen?

Die R9000 war auch in einigen Fällen langsamer als ihre direkte Vorgängerin (R7500).

AlfredENeumann
2003-05-05, 00:42:45
Originally posted by Demirug


< 5% der für Spieleentwickler relevaten PCs haben eine DX8 Karten. (Wert ist von Januar)

EDIT: in den 5% sind natürlich auch DX9 Karten enthalten

OK. Wer hat dann alle GF4TIs, GF3s, Radeon 8500 und 9X00 gekauft ?

Quasar
2003-05-05, 00:44:32
Originally posted by AlfredENeumann


OK. Wer hat dann alle GF4TIs, GF3s, Radeon 8500 und 9X00 gekauft ?
Die 5% der weltweit 1Mrd. Computernutzer, wer sonst?

Du scheinst vom 3DCF auf den Rest der Welt zu schliessen, aber ich denke, wir hier repräsentieren den Durchschnitt an Grafikpower, wie er in 18-24 Monaten in D herrschen wird.

AlfredENeumann
2003-05-05, 00:45:42
Originally posted by LovesuckZ


Wieviel schafft die 9000 wohl in einen DX9 Bench *eg*
Wieviel, ka.
Wahrscheinlich 5-6FPS.

http://www.digit-life.com/articles2/gffx/nv31-nv34.html#p34

Und damit schon deutlich schneller wie eine 9000.
in deinem link war nur ne 5200Ultra und keine kleine 5200er, und außerdem kann eine 9000er keinen Dx9 Bench absolvieren da DX8.1

Quasar
2003-05-05, 00:51:38
Originally posted by AlfredENeumann

in deinem link war nur ne 5200Ultra und keine kleine 5200er, und außerdem kann eine 9000er keinen Dx9 Bench absolvieren da DX8.1

Damit wäre die FX5200 in diesem Falle über alle Maßen schneller, selbst wenn sie nur 0,1fps schaffte. :|

Aber ehrlich gesagt, möchte ich kein DX9-Game mit irgendeinem Teilnehmer diese Vergleiches zocken müssen: 22,4fps des Siegers bei 1024 und ohne FSAA und AF (und das wahrscheinlich bei "optimaler" Texturfilterung, die den 3DMark entscheiden läßt, wo tri- und wo bilinearer Filter zum Einsatz kommt).

Demirug
2003-05-05, 00:53:09
Originally posted by Quasar

Die 5% der weltweit 1Mrd. Computernutzer, wer sonst?

Du scheinst vom 3DCF auf den Rest der Welt zu schliessen, aber ich denke, wir hier repräsentieren den Durchschnitt an Grafikpower, wie er in 18-24 Monaten in D herrschen wird.

Ja und dann muss man noch dazu sagen das die durchschnittliche Grafikpower in DE im vergleich zu den USA viel höher ist.

AlfredENeumann
2003-05-05, 00:56:50
Originally posted by LovesuckZ


AA/AF sind dann wohl die Feature, die jede Karte besitzen und auch in ausreichender Qualitaet und ausreichem Speed darstellen sollte. Somit erledigen sich schonmal alle Karten wie 9000/9100/GF4MX...

Du hast du 5200 vergessen

AlfredENeumann
2003-05-05, 00:57:51
Originally posted by Exxtreme
Mädelz,

beruhigt euch bitte.


Besorg dir einen anderen Avatar. So übersieht man dich absolut

Quasar
2003-05-05, 00:58:48
Originally posted by AlfredENeumann


Du hast du 5200 vergessen

Ja? Ich kann selbst auf einer nicht-overclockedten FX5200 noch Quake3 in 1024 mit 4xAA spielen. Mit 2xAA und 4xAF macht's sogar richtig Laune...

StefanV
2003-05-05, 01:05:00
Originally posted by Quasar


Ja? Ich kann selbst auf einer nicht-overclockedten FX5200 noch Quake3 in 1024 mit 4xAA spielen. Mit 2xAA und 4xAF macht's sogar richtig Laune...

Quake3 ?? :|

Das sollte eigentlich nicht wirklich schwer sein...

PS: mit meiner GF2 PRO konnte ich UT sogar mit 4x FSAA in 1024x768x16 spielen...

AlfredENeumann
2003-05-05, 01:06:17
Originally posted by Quasar

Die 5% der weltweit 1Mrd. Computernutzer, wer sonst?

Du scheinst vom 3DCF auf den Rest der Welt zu schliessen, aber ich denke, wir hier repräsentieren den Durchschnitt an Grafikpower, wie er in 18-24 Monaten in D herrschen wird.

Ich schaue schon über den Tellerand und in andere Foren um zu sehen was dort sache ist.

Quasar
2003-05-05, 01:08:16
Originally posted by Stefan Payne


Quake3 ?? :|

Das sollte eigentlich nicht wirklich schwer sein...

PS: mit meiner GF2 PRO konnte ich UT sogar mit 4x FSAA in 1024x768x16 spielen...

Wie du weißt, ist UT ein eher CPU-limitiertes Spiel, das span-Buffering zur Eliminierung von Overdraw nutzt. Außerdem sprach ich nicht von 16Bit Farbtiefe, sondern 32Bit mit maximalen Details.

@AEN:
Gut so. =)

AlfredENeumann
2003-05-05, 01:09:04
Originally posted by Quasar


Ja? Ich kann selbst auf einer nicht-overclockedten FX5200 noch Quake3 in 1024 mit 4xAA spielen. Mit 2xAA und 4xAF macht's sogar richtig Laune...

Wer kann das nicht ?
Quake3 ist so ungefähr das schlimmste Beispiel meiner meinung nach. So ein neuerer Spieletitel wäre da doch ein wenig aussagekräftiger meiner meinung nach.

StefanV
2003-05-05, 01:11:08
Originally posted by Quasar


Wie du weißt, ist UT ein eher CPU-limitiertes Spiel, das span-Buffering zur Eliminierung von Overdraw nutzt. Außerdem sprach ich nicht von 16Bit Farbtiefe, sondern 32Bit mit maximalen Details.

@AEN:
Gut so. =)

Hm, leider hast du nicht so recht verstanden, was ich mit dem GF2 PRO Beispiel sagen wollte :|

Damit wollte ich sagen, daß das bei Q3 eigentlich nicht wirklich schwer ist, interessanter wären da Mech Warrior 4 oder Freelancer (obwohl letzteres auch zu Anfang gut mit 4xS läuft)...

Quasar
2003-05-05, 01:11:46
Originally posted by AlfredENeumann


Wer kann das nicht ?
Quake3 ist so ungefähr das schlimmste Beispiel meiner meinung nach. So ein neuerer Spieletitel wäre da doch ein wenig aussagekräftiger meiner meinung nach.

Auf Supersampling Angewiesene?

Ein neuerer Spieltitel? Hm... was hab ich denn noch gezockt. NFS6 z.B.? Neu genug?

Und bevor du fragst: Nein, UT2003 geht nicht gut mit FSAA.

Quasar
2003-05-05, 01:13:16
Originally posted by Stefan Payne


Hm, leider hast du nicht so recht verstanden, was ich mit dem GF2 PRO Beispiel sagen wollte :|

Damit wollte ich sagen, daß das bei Q3 eigentlich nicht wirklich schwer ist, interessanter wären da Mech Warrior 4 oder Freelancer (obwohl letzteres auch zu Anfang gut mit 4xS läuft)...

Doch hab' ich schon, aber du hast's ziemlich unglücklich rübergebracht, indem du ein CPU-limitiertes Games und das auch noch in 16Bit (wo die GF2 sehr gut performt) als Beispiel genommen hast.

MW4 und Freelancer befinden sich leider nicht in meinem Besitz.

StefanV
2003-05-05, 01:19:28
Originally posted by Quasar
Doch hab' ich schon, aber du hast's ziemlich unglücklich rübergebracht, indem du ein CPU-limitiertes Games und das auch noch in 16Bit (wo die GF2 sehr gut performt) als Beispiel genommen hast.

MW4 und Freelancer befinden sich leider nicht in meinem Besitz.
1. nagut, hast auch nicht soo ganz unrecht...

2. beide Spiele werden leider auch erst gegen Ende zur Ruckelorgie, die ersten ~10 Missionen laufen auf der Geforce 3/4 noch mit recht hohen FSAA/AF Einstellungen...

Leider fallen mir momentan nicht wirklich Beispiele an, die ich momentan gerne spiele (naja, nix, was es auf dem PC gibt...)

Razor
2003-05-05, 02:19:44
Originally posted by Seraf

Aber ist natürlich Kacke wenn sie als superschnell beworben wird ;)

http://www.chip.de/news/c_news_10452923.html
"Highlight des "Multimedia Entertainment Notebook MD 6200" ist der eingebaute GeForce-FX-Go-5200-Grafikchip mit 64 MByte DDR-RAM. Dank AGP-8x- und DirectX-9.0-Support soll die 3D-Einheit eine "überragende" Grafikleistung bieten"
Leistung ist nicht unbedingt Geschwindigkeit, oder ?
Leistung kann auch Feature-Vielfalt bedeuten...
(und davon bietet sie sogar mehr als alle erhältlichen ATI's inkl. R9800pro !)
:D

Razor

Razor
2003-05-05, 02:21:46
Originally posted by AlfredENeumann

Also soll ich, wenn ich schnelle Autos Liebe, lieber meine kohle in alle Extras investieren als in eine schnellere Maschine ?
Je nach Fasson...
Mir ist eine gute bis sehr gute Ausstattung um einiges lieber, als ein schneller Motor und sonst nix.
(passt nicht ganz, aber Ihr wißt, wie ich das meine ;-)

Razor

Razor
2003-05-05, 02:22:47
Originally posted by AlfredENeumann

Wieso sprichst du einer 9000er Ihre Berechtigung ab weil sie zu langsam ist, und einer 5200er, die noch langsamer ist nicht ?
Zeig mir, wo sie langsamer, als 'ne 9000 ist !
Und zeig mir vor allem jemanden, den es interessiert...
;-)

Razor

Razor
2003-05-05, 02:27:37
Originally posted by AlfredENeumann

Ich schaue schon über den Tellerand und in andere Foren um zu sehen was dort sache ist.
Du schließt also ernsthaft von den paar Teilnehmern (aller bekannter Foren !) auf den Rest der Welt ?
Würd' ich an Deiner Stelle nicht tun...
(entfremdet der Realität doch ganz gewaltig ;-)

Razor

Razor
2003-05-05, 02:31:56
Originally posted by Quasar

Wie du weißt, ist UT ein eher CPU-limitiertes Spiel, das span-Buffering zur Eliminierung von Overdraw nutzt. Außerdem sprach ich nicht von 16Bit Farbtiefe, sondern 32Bit mit maximalen Details.
Apropos CPU-Limitiert...

Ich kann JK2 in 1024x768x32 maxDetails mit 2xAA/4xAF und lockeren 138fps zocken...
(im Vergleich zu meiner gf3, die dabei nur 118fps schafft ;-)

Und ja, dabei verliert sie nur 6,4% an Leistung mit aktivierten Quali-Features !
:D

Hat doch was, gelle ?

Razor

Razor
2003-05-05, 02:35:15
Originally posted by Quasar

Und bevor du fragst: Nein, UT2003 geht nicht gut mit FSAA.
Hey, im Botmatch hab' ich immerhin noch 37fps bekommen (2xAA/4xAF, bei der gf3 warens nur noch 20fps ;-) !
Aber klar, bei UT2k3 deaktiviere auch ich AA...
(schon aus Gewohnheit)

Allerdings brauch ich AF nicht mehr zu deaktivieren.

Bis denne

Razor

Razor
2003-05-05, 02:38:51
Originally posted by Quasar

MW4 und Freelancer befinden sich leider nicht in meinem Besitz.
Zumindest zu Freelancer kann ich was sagen: Funzt gut mit aktivierten Quali-Features (2xAA/4xAF) !
(ich wiederhole das mit der Quali leiber immer wieder, da sonst einige meinen, dass ich behaupte auch 4xAA sei schnell ;-)

Razor

Endorphine
2003-05-05, 09:25:08
Originally posted by Demirug
Ja und dann muss man noch dazu sagen das die durchschnittliche Grafikpower in DE im vergleich zu den USA viel höher ist.Kannst du das belegen? Warum sollte das so sein? Die einzige Logik, die sich mir dazu erschliessen würde ist, dass es hier einfach generell im Verhältnisvergleich weniger Rechner gibt und der Run auf die PCs später begann.

Demirug
2003-05-05, 10:06:49
Originally posted by Endorphine
Kannst du das belegen? Warum sollte das so sein? Die einzige Logik, die sich mir dazu erschliessen würde ist, dass es hier einfach generell im Verhältnisvergleich weniger Rechner gibt und der Run auf die PCs später begann.

Die Marktstudien sind nicht öffentlicht deswegen kann ich hier keine Links posten.

Der Grund dafür liegt aber daran das der durchschnitts Amerikaner ein technik DAU ist

Zum Beispiel lassen 80% eine Speichererweiterung durch einen Computerservice einbauen. Am sonstigen System wird in der Regel nichts geändert (oft werden nicht mal neue Treiber installiert) und man rennt dort auch nicht jedes jahr zum ALDI um sich einen neuen Rechner zu holen.

Kurz: Die Lebensdauer der Karten ist einfach länger was dazu führt das eine neue Technologie länger braucht bis sie sich breit im Markt durchsetzt.

Je weiter sich aber auch in Deutschland PCs verbreiten werden diese Effekte auch in Deutschland auftreten wenn wohl auch nicht so stark.

wrdaniel
2003-05-05, 10:56:37
midrange und bei den lowends bessere dx8 performance.

LovesuckZ
2003-05-05, 10:59:34
Originally posted by nagus
... btw, "DX9 für alle" ... und was machet nvidia dann mit der Geforce4 linie? NVidiots ;)

Ich hab gehoert, dass sie die TI4600 als GF FX 5300 neulabeln wollen und ins Low-End Segment abschieben...

LovesuckZ
2003-05-05, 11:05:32
Originally posted by AlfredENeumann
Wieso sprichst du einer 9000er Ihre Berechtigung ab weil sie zu langsam ist, und einer 5200er, die noch langsamer ist nicht ?

Quasar hat es eigentlich schon genannt: Hier wird mit 2 Gesichtern argumentiert: Einerseits spricht man der 9000 ihre Daseinberechtigung nicht ab, da sie "nur" über DX8 Feature verfuege, im gegen satz wird aber auf die DX9 Feature der 5200 eingedroschen, weil man der Meinung sei, dass sie fuer die Spiele nicht genung Leistung besitze. Alles trifft auch auf die 9000 zu.

zeckensack
2003-05-05, 11:41:55
Originally posted by LovesuckZ


Quasar hat es eigentlich schon genannt: Hier wird mit 2 Gesichtern argumentiert: Einerseits spricht man der 9000 ihre Daseinberechtigung nicht ab, da sie "nur" über DX8 Feature verfuege, im gegen satz wird aber auf die DX9 Feature der 5200 eingedroschen, weil man der Meinung sei, dass sie fuer die Spiele nicht genung Leistung besitze. Alles trifft auch auf die 9000 zu. Jein ;)

Ich habe das Gefühl mich zu wiederholen (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=835475#post835475)

Originally posted by zeckensack
Noch ein paar ergänzende Worte dazu, jedoch ausdrücklich unter der Prämisse "NV34 finde ich trotzdem brauchbar":
PS1.3 auf NV-Karten senkt die Performance schlimmstenfalls auf 25%, das ist recht gut kalkulierbar. DX9-Shader sind ein Faß ohne Boden, bis hin zu einem theoretischen Einbruch auf 1% (PS2.0) bzw gar 0,1% ("PS2.0+") der Rohperformance.

Und wer der Meinung ist, eine 5200er wäre auf keinen Fall in der Lage, "DX9-Spiele" flüssig darzustellen, der möge sich an die Existenz der Auflösungsauswahl erinnern.
Solange eine FX5800Ultra in 1024x768 'angenehm' ist, dann gilt gleiches für eine 5200 non-Ultra, dann eben in 640x480, aber was soll's. PS1.4 drückt die Rohperformance bei maximaler Shaderlänge auf ~10%.

Für "DX8-Spiele" (was auch immer das sein soll*) reicht das IMO noch so gerade eben. DX9 ist da einfach nicht kalkulierbar genug (ganz schlecht für allgemeingültige theoretische Aussagen :D). Im Zweifelsfall wird's aber wohl auch Software passend zur Hardware geben. Man sollte für diesen Punkt wirklich nicht so viel Energie aufwenden.

*auch wenn sich einige gegen den Gedanken sträuben, weil sie es nicht direkt 'sehen' können: so gut wie jedes halbwegs aktuelle Spiel profitiert erheblich von DX8-Vertex Shadern.

aths
2003-05-05, 11:56:35
Ich habe mal gestimmt für "DX9 für alle".

Damit meine ich aber nicht das reine Vorhandensein der Features.

Beispiel auf DX8-Basis: GF3 und 4 Ti können pro Takt bis zu 8 PS-Ops ausführen. Ein PS.1.1 - 1.3-Programm kann maximal 8 Ops umfassen. Bessere Effekte kommen damit nicht aus, 2 Passes sind erforderlich. Man sieht schon, dass die Füllrate bei richtigem PixelShader-Einsatz erheblich sinkt.

Ich weiß nicht genau, ob die FX 5200 pro Takt nun 1 oder 2 Ops eines PS.2.0 ausführen kann. Warum nimmt man den überhaupt? Nicht nur wegen der Präzision, sondern vor allem wegen der größeren Programmlänge. Die FX 5200 hat nicht die Leistung, die erforderlich ist, um richtige DX9-Engines laufen zu lassen.

Das Argument mit "Hauptsache, das Programm startet" zieht imo nicht.

Erstens: Runterschalten in 800x600, FSAA deaktivieren: Wer will mit solchen Einstellungen noch spielen, wenn DX9 für Spiele tatsächlich erforderlich ist? Das ist lächerlich. Zudem müsste man auf 5200-er Karten praktisch alle Shader abschalten, mehr als normales Texturing und vielleicht einige wenige geshaderte Eye-Candy-Effekte sind da nicht drin.

Zweitens: Warum überhaupt DX9? Wenn der Übergang von der Multitexturing-Engine zur Shader-Engine geschafft ist, kann diese sowohl DX8 als auch DX9 supporten. Dank der Möglichkeit, in DX9 viele Effekte Single Pass rendern zu können, wo man bei DX8 mindestens 2 Passes braucht, wäre die DX9-Lösung performanter. Das wäre so, wenn die FX 5200 in der Lage wäre, DX9-Shader mit gleicher Geschwindigkeit wie DX8-Shader laufen zu lassen. Leider ist das aber genau anders herum.

Wenn von neuer Grafikqualität mit DX9 gesprochen wird, sollte auch berücksichtigt werden, dass man (etwas verallgemeinert gesagt) auch Leistung in Qualität tauschen kann. Anders herum, ohne Leistung keine Qualität, DX9 hin oder her.

Demirug
2003-05-05, 12:01:51
Originally posted by zeckensack
PS1.4 drückt die Rohperformance bei maximaler Shaderlänge auf ~10%.

Für "DX8-Spiele" (was auch immer das sein soll*) reicht das IMO noch so gerade eben. DX9 ist da einfach nicht kalkulierbar genug (ganz schlecht für allgemeingültige theoretische Aussagen :D). Im Zweifelsfall wird's aber wohl auch Software passend zur Hardware geben. Man sollte für diesen Punkt wirklich nicht so viel Energie aufwenden.

*auch wenn sich einige gegen den Gedanken sträuben, weil sie es nicht direkt 'sehen' können: so gut wie jedes halbwegs aktuelle Spiel profitiert erheblich von DX8-Vertex Shadern.

Wie kommst du auf 10%? oder anders gefragt welcher Chip?

Für 2.0 Shader kann man es zumindestens theoretisch Berechnen.

Bei den DX8-Vertexshader bin ich mir nicht so sicher die meisten spiele nutzen doch nur HT&L Funktionen. Ich sehe den Performancegewinn eher durch eine Passreduktion welches sich mit den PS gegenüber einer 2 Texture/Pass DX7 Karte erreichen läst.

Exxtreme
2003-05-05, 12:08:35
Originally posted by zeckensack
Im Zweifelsfall wird's aber wohl auch Software passend zur Hardware geben. Man sollte für diesen Punkt wirklich nicht so viel Energie aufwenden.

Also das befürchte ich auch. :(

Da wird dann wohl an Polygonen und/oder hochauflösenden Texturen gespart damit auch schwächere DX9-Karten überhaupt die Einheit "fps" schaffen.

Mr. Lolman
2003-05-05, 12:13:03
Neulich fragte ein Freund mich, was er für eine GraKa kaufen sollte, da Splinter Cell bei ihm mit der Ti4400 schon ein bisschen ruckelig wirkt.(Der Mensch gehört zu der Sorte, die AA/AF für Schwachsinn abtun)

Also wollte er wissen ob jetzt eine FX5200(Ultra) oder doch gar schon eine FX5600(Ultra) notwendig sind.... :stareup:



Zu dieser unnötigen Qualitätsdiskussion:
Niemand kann doch ernsthaft behaupten, dass ein wirklicher Gamer der eine GF2MX in seinem Rechner hat, von der er auf die FX5200 aufrüsten sollte. Gamer haben keine GF2MX, da diese Karte nie wirklich gut war, nie HighEnd, und wenn man sich eine neue Karte kauft, dann will man doch zumindest die Spiele mit vollen Details )(in min. 1024x768) flüssig spielen können. Das konnte eine GF2MX nie, und eine FX5200 tut sich da auch schon schwer.

Keiner der nur bereit ist nur 100Euro für seine Karte auszugeben, und von irgendjemandem eine FX5200 empfohlen bekommt wird wirklich wissen was es mit AA/AF aufsich hat.

Schön langsam denke ich, dass alle FX5200 Verfechter entweder Entwickler oder PC Händler sind. Den Rest müsste man als Egoschweine abtun, da die Idee eine breite Basis für DX9 (mittels der FX5200) zu schaffen mit hirnrissigen Aufrüstempfehlungen einhergeht.

Nochmal: Fast jeder potentielle FX5200 Aufrüster hat keine Ahnung von AA/AF. Er bekommt von seinen Freunden zu hören, dass dies eine tolle, günstige DX9 Karte sei. Nur mit welchem Nutzen? Braucht der Aufrüster (der ja bekanntlich von einer GF2MX aufrüstet) DX8? Spielt der Mensch überhaupt Spiele (wenn er noch eine GF2MX hat?)

Wenn ja warum nicht eine ATi Karte empfehlen? Die wär doch schneller/günstiger. Achja man will ja möglichst schnell eine breite Basis für DX9 schaffen, dass das was NV verbockt hat, (DX7 mit GF4MX - von welcher weg das Aufrüsten (geschwindigkeitsmässig) sinnlos ist) wieder wett gemacht wird, damit man mit seiner DX9 Karte (natürlich keine FX5200) möglichst noch zu Lebzeiten der Karte ein DX9 Spiel spielen kann -> Egoschwein.

Wie kommt man schnell zu einer breiten DX9 Basis? Man müsste erst einmal eine DX8 Basis haben ! -> Deswegen sollte sich NV endlich dazu durchringen den ganzen alten TNT/GF4MX Schrott einzustampfen.


Also wenn man ein guter Freund ist, empfiehlt man seinen Mitmenschen für 70-80 Euro klarerweise eine Radeon 9100 welche in dem Segment der Preis/Leistungssieger ist. Falls der Mensch meint, ATi sei shice, dann kommt für ihn halt eine 50 Euro GF4MX440 oder eine 130 Euro GF4 Ti4200 in Frage (falls der Aufrüstkandidat eine GF2MX ähnliche Karte besitzt) -> KEINESFALLS eine FX5200 !!!!!

Diese Karte ist selbst dem 80Euro DAU Kunden nicht empfehlenswert.



Zeitweise kommts mir so vor als würden nur Leute mit NV Aktien , oder NV Marketingfuzzis hier rumprollen. Da ists plötzlich auch ganz toll, wenn dass schlechtere AF 'Qualität' heisst, und dass bessere mit dem (qualimässig) nichtssagenden Titel 'Application' bezeichnet wird. Da ist der 3dmark solange scheisse, bis NV einen eigenen Treiber dafür bereitstellt. Da schimpft man auf ATi wegen Namensverwirrung, dabei ist die gesamte NV Produktlinie ab Ti4800SE bis inklusive 5600Ultra eine einzige Namensverwirrung und nicht zuletzt wird immerwieder dem Endkunden dass für gleichen Preis schlechtere Produkt eompfohlen. (Was nützen einem diese ganzen Demos, wenn die Spiele dann ruckeln)

(/me hat kein Problem jemanden eine Ti4200 zu empfehlen wenn die erwünschte Karte in der Preisklasse v. 120-140 Euro liegen soll.)

zeckensack
2003-05-05, 12:22:21
Originally posted by Demirug
Wie kommst du auf 10%? oder anders gefragt welcher Chip?Das ist ein mehr oder weniger empirisch ermittelter Wert ... den ich dummerweise auf einer 8500LE ausgemessen habe :bonk:
Naja, wenigstens habe ich das "~" gesetzt, damit kann ich mich fein rausreden :D
Für 2.0 Shader kann man es zumindestens theoretisch Berechnen.Das kann man immer, nur aufgrund der erlaubten Programmlängen ist die Performance-Spanne zwischen "kurzer Shader" und "richtig langer Shader" halt größer als bei PS1.x. Dadurch verliert die Vorhersage an Wert.
Bei den DX8-Vertexshader bin ich mir nicht so sicher die meisten spiele nutzen doch nur HT&L Funktionen. Ich sehe den Performancegewinn eher durch eine Passreduktion welches sich mit den PS gegenüber einer 2 Texture/Pass DX7 Karte erreichen läst.Alle wichtigen Lizenzengines benutzen mittlerweile VS, zumindest für Charakteranimationen, jedenfalls hatte ich das so mitbekommen. Elite Force II (und damit die altehrwürdige Q3A-Engine) scheint auch dabei zu sein. Das ist doch schon ein greifbarer Mehrwert :)

(das war aber nur eine Seitenbetrachtung, schließlich soll es hier doch um DX9 gehen)

x-dragon
2003-05-05, 12:34:55
Originally posted by Mr. Lolman
Gamer haben keine GF2MX,.... Spielt der Mensch überhaupt Spiele (wenn er noch eine GF2MX hat?) ... Mal abgesehen das ich mich damit etwas diskriminiert fühle :) (Geforce2MX => Gothic2, Morrowind, UT2003Demo, Warcraft3, Diablo2, Battlefield, ...), hört sich dein Artikel recht überzeugend an. Wobei ich glaube das die meisten Diskussionen bez. FX 5200, sich eher um den Sinn der Karte im Grafikkartenmarkt drehten. Jemand einzelnem würde ich diese Karte auch nicht empfehlen, aber insgesamt gesehen finde ich es eine gute Entwicklung wenn sich DirectX9-Hardware möglichst schnell auch im Lowcost-Bereich durchsetzt. Also DirectX9 für alle!

Mr. Lolman
2003-05-05, 12:51:25
Originally posted by X-Dragon
Mal abgesehen das ich mich damit etwas diskriminiert fühle :) (Geforce2MX => Gothic2, Morrowind, UT2003Demo, Warcraft3, Diablo2, Battlefield, ...), hört sich dein Artikel recht überzeugend an. Wobei ich glaube das die meisten Diskussionen bez. FX 5200, sich eher um den Sinn der Karte im Grafikkartenmarkt drehten. Jemand einzelnem würde ich diese Karte auch nicht empfehlen, aber insgesamt gesehen finde ich es eine gute Entwicklung wenn sich DirectX9-Hardware möglichst schnell auch im Lowcost-Bereich durchsetzt. Also DirectX9 für alle!


Sorry, wollte niemandem diskriminieren, aber in 1024x768 kannst du auch mit runtergeschalteten Details nicht mehr vernünftig spielen, oder? :)

Ich bin auch der Meinung, dass viel mehr Leute DX9 HW in ihren Rechnern haben sollten, wäre die Karte ~20 Euro billiger, würde ich sie auch uneingeschränkt empfehlen. Wenigsten leistet NV jetzt wieder Pionierarbeit und schaut, dass sich die DX8/9 Basis vergrössert. Früher hatten sie ja Vorbildwirkung (bis GF3)...

StefanV
2003-05-05, 12:54:34
Originally posted by aths
Ich weiß nicht genau, ob die FX 5200 pro Takt nun 1 oder 2 Ops eines PS.2.0 ausführen kann. Warum nimmt man den überhaupt? Nicht nur wegen der Präzision, sondern vor allem wegen der größeren Programmlänge. Die FX 5200 hat nicht die Leistung, die erforderlich ist, um richtige DX9-Engines laufen zu lassen.


1 Rechen Op ODER 4 Textur Ops.
(FX5600 -> 2 Rechen Ops´oder 4 Textur Ops)

zum Vergleich die RV350:

4 Rechen Ops, in besonderen Fällen sogar 8 UND 4 Textur Ops...

Demirug
2003-05-05, 13:01:19
Originally posted by aths
Ich habe mal gestimmt für "DX9 für alle".

Damit meine ich aber nicht das reine Vorhandensein der Features.

Beispiel auf DX8-Basis: GF3 und 4 Ti können pro Takt bis zu 8 PS-Ops ausführen. Ein PS.1.1 - 1.3-Programm kann maximal 8 Ops umfassen. Bessere Effekte kommen damit nicht aus, 2 Passes sind erforderlich. Man sieht schon, dass die Füllrate bei richtigem PixelShader-Einsatz erheblich sinkt.

Es sind weniger die 8 Operationen die hierbei zum Problem werden sondern das man nur 4 Texturen zur Verfügung hat. Die meisten Effekte kommen leicht mit einem 1:1 (Texturen : Operationen) verhältniss aus.

Ich weiß nicht genau, ob die FX 5200 pro Takt nun 1 oder 2 Ops eines PS.2.0 ausführen kann. Warum nimmt man den überhaupt? Nicht nur wegen der Präzision, sondern vor allem wegen der größeren Programmlänge. Die FX 5200 hat nicht die Leistung, die erforderlich ist, um richtige DX9-Engines laufen zu lassen. Das weis derzeit noch niemand so richtig weil der Chip da ein teilweise merkwürdiges Verhalten an den Tag legt. Es gibt sogar einen Test bei dem mindestens 3 Ops eventuel 4 Ops pro Takt ausgeführt werden.

Das Argument mit "Hauptsache, das Programm startet" zieht imo nicht.

Erstens: Runterschalten in 800x600, FSAA deaktivieren: Wer will mit solchen Einstellungen noch spielen, wenn DX9 für Spiele tatsächlich erforderlich ist? Das ist lächerlich. Zudem müsste man auf 5200-er Karten praktisch alle Shader abschalten, mehr als normales Texturing und vielleicht einige wenige geshaderte Eye-Candy-Effekte sind da nicht drin.

Es gibt auch noch 640*480 und noch kleiner.;) Klar würde hier keiner mit so einer Auflösung spielen es soll aber durchaus leute geben die auch damit zufrieden sind und so schlimm sind die Shader der 5200 nun auch nicht. Ich werde das aber dennächts mal genauer analysieren.

Zweitens: Warum überhaupt DX9? Wenn der Übergang von der Multitexturing-Engine zur Shader-Engine geschafft ist, kann diese sowohl DX8 als auch DX9 supporten. Dank der Möglichkeit, in DX9 viele Effekte Single Pass rendern zu können, wo man bei DX8 mindestens 2 Passes braucht, wäre die DX9-Lösung performanter. Das wäre so, wenn die FX 5200 in der Lage wäre, DX9-Shader mit gleicher Geschwindigkeit wie DX8-Shader laufen zu lassen. Leider ist das aber genau anders herum.

Der Engine ist es egal ob sie nun mit 1.1, 1.4, 2.0 oder sonst einer Shaderversion arbeiten soll aber jemand muss die Shader ja immer noch programmieren und 2.0 Shader nur als Mittel zur Passreduktion zu sehen ist IMHO zu kurz gegriffen. Das wird zwar der erste Anwendungszweg werden aber nicht bleiben.

Wenn von neuer Grafikqualität mit DX9 gesprochen wird, sollte auch berücksichtigt werden, dass man (etwas verallgemeinert gesagt) auch Leistung in Qualität tauschen kann. Anders herum, ohne Leistung keine Qualität, DX9 hin oder her.

Qualität bleibt erst mal Qualität auch wenn dann nur noch ein paar FPS übrig bleiben.

Der Punkt ist aber IMHO das niemand der wirklich ernsthaft spielt sich eine Karte in dem Preissegment der Lowcostkarten kaufen sollte egal welches Featureset sie nun hat da die Leistung so oder so nicht wirklich befriedigen wird.

x-dragon
2003-05-05, 13:17:23
Originally posted by Mr. Lolman
Sorry, wollte niemandem diskriminieren, aber in 1024x768 kannst du auch mit runtergeschalteten Details nicht mehr vernünftig spielen, oder? :) ... Ok das natürlich nur noch sehr selten, aber zumindest noch einige mit max Details unter 800 :). Hab die Radeon 9500 Pro schon seit längerem im Auge, aber ich warte nur noch das Preis endlich fällt (erst seit Dezember, *malnocheinwenigweiterwarte*).

Demirug
2003-05-05, 13:20:34
Originally posted by Mr. Lolman
Schön langsam denke ich, dass alle FX5200 Verfechter entweder Entwickler oder PC Händler sind. Den Rest müsste man als Egoschweine abtun, da die Idee eine breite Basis für DX9 (mittels der FX5200) zu schaffen mit hirnrissigen Aufrüstempfehlungen einhergeht.

In diesem Sinne bin ich schuldig und da ich weiss das ich da nicht ganz objektiv bin gebe ich auch normalerweise keine Kaufempfehlungen.

Nochmal: Fast jeder potentielle FX5200 Aufrüster hat keine Ahnung von AA/AF. Er bekommt von seinen Freunden zu hören, dass dies eine tolle, günstige DX9 Karte sei. Nur mit welchem Nutzen? Braucht der Aufrüster (der ja bekanntlich von einer GF2MX aufrüstet) DX8? Spielt der Mensch überhaupt Spiele (wenn er noch eine GF2MX hat?)

Ja leider :( und mit diesen "Spielern" macht man nicht mal wenig Umsatz.

Wenn ja warum nicht eine ATi Karte empfehlen? Die wär doch schneller/günstiger. Achja man will ja möglichst schnell eine breite Basis für DX9 schaffen, dass das was NV verbockt hat, (DX7 mit GF4MX - von welcher weg das Aufrüsten (geschwindigkeitsmässig) sinnlos ist) wieder wett gemacht wird, damit man mit seiner DX9 Karte (natürlich keine FX5200) möglichst noch zu Lebzeiten der Karte ein DX9 Spiel spielen kann -> Egoschwein.

Spielbarkeit ist sehr subjektiv.

Wie kommt man schnell zu einer breiten DX9 Basis? Man müsste erst einmal eine DX8 Basis haben ! -> Deswegen sollte sich NV endlich dazu durchringen den ganzen alten TNT/GF4MX Schrott einzustampfen.

Ja die GF4MX müssen endlich weg. Die TNTs werden aber sowieso nicht mehr ernstgenommen und sind deshalb ziemlich egal. ATI verkauft ja auch noch Rage Chips die hier keine Rolle spielen. Eine DX9 Basis ist ja auch gleichzeitig eine DX8 Basis und je früher eine DX9 Basis entsteht desto schneller kann DX8 von DX9 abgelöst werden. Wenn man bedenkt das wir erst jetzt den richtigen Sprung zu DX7 geschaft haben.

Demirug
2003-05-05, 13:25:37
@X-Dragon, meine Sprüche bezüglich Benutzer "alter" Hardware sind nicht persönlich gemeint. Es nervt mich halt nur manchmal das ich da immer Rücksicht nehmen muss.

Unregistered
2003-05-05, 13:28:57
Originally posted by Demirug

Das weis derzeit noch niemand so richtig weil der Chip da ein teilweise merkwürdiges Verhalten an den Tag legt. Es gibt sogar einen Test bei dem mindestens 3 Ops eventuel 4 Ops pro Takt ausgeführt werden.




Doch, frag mal Stefan Payne (und auch gleich nach seiner Quelle).

Der kaut den Mist jetzt bestimmt schon zum dutzendsten Mal hier durch:

"1 Rechen Op ODER 4 Textur Ops.
(FX5600 -> 2 Rechen Ops´oder 4 Textur Ops)"

Quasar@Work
2003-05-05, 13:33:54
Originally posted by Demirug
Der Punkt ist aber IMHO das niemand der wirklich ernsthaft spielt sich eine Karte in dem Preissegment der Lowcostkarten kaufen sollte egal welches Featureset sie nun hat da die Leistung so oder so nicht wirklich befriedigen wird.

Sehr gut formuliert. IMO beachten das die meisten hier im Forum nicht. In dieser Preisklasse, die vielleicht sogar einen großen Anteil abdeckt, ist eben keine der Mid-Range vergleichbare 3D-Leistung zu erwarten.

Das war nie so und wird IMO auch nie so sein.

Unregistered
2003-05-05, 13:36:45
Originally posted by Quasar@Work


Sehr gut formuliert. IMO beachten das die meisten hier im Forum nicht. In dieser Preisklasse, die vielleicht sogar einen großen Anteil abdeckt, ist eben keine der Mid-Range vergleichbare 3D-Leistung zu erwarten.

Das war nie so und wird IMO auch nie so sein.

full ack.:)

x-dragon
2003-05-05, 14:09:34
Originally posted by Demirug
@X-Dragon, meine Sprüche bezüglich Benutzer "alter" Hardware sind nicht persönlich gemeint. Es nervt mich halt nur manchmal das ich da immer Rücksicht nehmen muss. Kein Problem, ich kann das ja auch gut nachvollziehen, besonders wenn ich z.B. auf Lanpartys sehe wie manche Spiele, selbst mit einer 2 Jahren alten Grafikkarte, im Vergleich zu meiner aussehen können ... :). Aber das ändert sich jetzt ja hoffentlich bald ...

mapel110
2003-05-05, 14:21:50
Originally posted by Quasar@Work


Sehr gut formuliert. IMO beachten das die meisten hier im Forum nicht. In dieser Preisklasse, die vielleicht sogar einen großen Anteil abdeckt, ist eben keine der Mid-Range vergleichbare 3D-Leistung zu erwarten.

Das war nie so und wird IMO auch nie so sein.

die 5200er gibts für 85 €, die 4200er für 110 €. willst du da jetzt unterschiedliche preisklassen draus machen ?

Demirug
2003-05-05, 14:34:21
Originally posted by mapel110


die 5200er gibts für 85 €, die 4200er für 110 €. willst du da jetzt unterschiedliche preisklassen draus machen ?

Wenn man die aktuellen Preise vergleicht ist das natürlich schwer möglich. Wenn man die Einführungspreise als bezugspunkt nimmt geht das aber schon. Die 4200 ist eben aufgrund des Drucks der neuern Modele im Preis gesunken und das wird auch irgendwann mit der 5200 passieren.

Die GF4MX haben am Anfang ja auch wesentlich mehr gekostet als man heute noch dafür hinlegen.

Quasar@Work
2003-05-05, 14:41:21
Originally posted by Demirug


Wenn man die aktuellen Preise vergleicht ist das natürlich schwer möglich. Wenn man die Einführungspreise als bezugspunkt nimmt geht das aber schon. Die 4200 ist eben aufgrund des Drucks der neuern Modele im Preis gesunken und das wird auch irgendwann mit der 5200 passieren.

Die GF4MX haben am Anfang ja auch wesentlich mehr gekostet als man heute noch dafür hinlegen.

Ack.
Das ist eben das Schicksal auslaufender Produkte im Abverkauf.
Es gab eine Zeitlang auch Radeon8500-Karten für höchsten gleichviel Geld, wie die leistungsschwächeren Radeon9000. So what?

mapel110
2003-05-05, 15:38:58
Originally posted by Quasar@Work


Ack.
Das ist eben das Schicksal auslaufender Produkte im Abverkauf.
Es gab eine Zeitlang auch Radeon8500-Karten für höchsten gleichviel Geld, wie die leistungsschwächeren Radeon9000. So what?

aber es gibt sie nunmal zu kaufen :)
auch wenn es eine besondere situation ist.

Razor
2003-05-05, 15:59:56
Originally posted by aths
Ich habe mal gestimmt für "DX9 für alle".

<...snip...>

Wenn von neuer Grafikqualität mit DX9 gesprochen wird, sollte auch berücksichtigt werden, dass man (etwas verallgemeinert gesagt) auch Leistung in Qualität tauschen kann. Anders herum, ohne Leistung keine Qualität, DX9 hin oder her.
Du sagst also, dass eine R9800pro oder eine FX5800ultra genug Leistung bringen wird, um 100%-DX9-Apps vernünftig ablaufen zu lassen ?
Wenn ja, woher nimmst Du diese Gewißheit ?
???

Razor

Razor
2003-05-05, 16:09:01
Originally posted by Mr. Lolman

Schön langsam denke ich, dass alle FX5200 Verfechter entweder Entwickler oder PC Händler sind. Den Rest müsste man als Egoschweine abtun, da die Idee eine breite Basis für DX9 (mittels der FX5200) zu schaffen mit hirnrissigen Aufrüstempfehlungen einhergeht.
JEDEM mit 'ner gf2mx oder Leuten, die AA/AF kennen und eine... sagen wir mal... bis zu gf3 im Rechner haben und neue Multimedia-Funktionalitäten nutzen, aber nur max 90€ dafür ausgeben möchten, werde ich uneingeschränkt eine FX5200 (mit 128MB) empfehlen !

Also bin ich wohl ein "Egoschwein", oder ?
:D

Razor

Quasar@Work
2003-05-05, 16:27:54
Originally posted by mapel110
aber es gibt sie nunmal zu kaufen :)
auch wenn es eine besondere situation ist.

Klar, es gibt sie trotz der "besonderen Situation" zu kaufen. Jeder, der es möchte, soll die knapp 50% mehr ausgeben.

Wir lassen uns von unserer gewohnten Assoziation der niedrigen Zahlen leicht blenden. Eine Differenz von 25€ sind immerhin 50DM, für manche, denen ihr Computer nicht soo wichtig ist, wie dir und mir, macht das vielleicht einen entscheidenden Unterschied. (manche, vielleicht!)

Jeder der eine Ti4200, oder R9000pro oder R9500 oder sonstwas kaufen will, soll das tun, aber nur um des Vorhandenseins eines Features willen, eine Karte, die nicht die nötige Speed haben mag, deswegen zu verteufeln, halte ich für ...merkwürdig.

wrdaniel
2003-05-05, 17:03:36
wenn dann alle rechner mit dx9 hardware ausgestattet sind und die programierer keine ruecksicht mehr nehmen muessen, koennen sie sich ja endlich aufs gameplay konzentrieren. leider sind wohl die meisten spielehersteller nicht mehr mit einem sinn fuer gutes gameplay ausgestattet, muessen wir wohl ruecksicht darauf nehmen.

aths
2003-05-05, 17:52:50
Originally posted by Demirug
Der Punkt ist aber IMHO das niemand der wirklich ernsthaft spielt sich eine Karte in dem Preissegment der Lowcostkarten kaufen sollte egal welches Featureset sie nun hat da die Leistung so oder so nicht wirklich befriedigen wird. Leider ist es ja so, dass Spiele nicht nur für die gemacht werden, die ernsthaft spielen. Ernsthafte Spieler haben in der Masse mindestens DX8, und das bei halbwegs brauchbarer Leistung. Ginge es nach den ernsthaften Spielern, bräuchte es längst keine DX7-Kompatibilität mehr geben. Ein ernsthafter Spieler würde aufrüsten, wenn seine DX7-Karte nicht mehr reicht.

Bei einer DX9-Engine erwarte ich einen Z-Pass, sowie einen Farb-Pass, der praktisch alle Flächen shadert (also weitgehend auf einfaches Multitexturing verzichtet.) Shader nutzt man dann für die Lichtquellen und das Bumpmapping... schafft es eine FX 5200, bei nur 800x600, dann noch 25 fps zu bringen? (640x480 ist in Zeiten von 19"-Monitoren imo nicht mehr zuzumuten.)

ow
2003-05-05, 18:11:19
Ich denke, die ganze Diskussion um lowcast-Karten im Zusammenhang mit ernsthaften Gamern macht keinen Sinn, egal, welche DX-Version.
Zumindest, wenn es nicht um den für Gamer durchaus vorhandene Nutzen der Marktdurchdringung geht.
Keinem ernsthaften Gamer ist je zu einer lowcost-Karte zu raten und das war auch noch nie anders.

Dazu etwas aus meinen persönlichen Erfahrungen:

Ich habe im Frühjahr 2001 für 2 Bekannte PCs zusammengebaut. Bei im Duron 800 und Ati Rage128Pro Karten. Und genauso stehen sie auch heute noch da.
Der eine PC bei einem Freund von mir, der (wenn er denn schon spielt) so Sachen wie Siedler1-3,..u. ähnlich geartete Spiele spielt. Mit FPS hat der darnix am Hut. Jedenfalls ist die Rage128Pro immer noch absolut ausreichend.

Der 2.PC ist dem Vater meiner Freundin.
Das einzige was da je an 3D-Games drauf lief/läuft sind die Harry Potter Spiele 1/2 (Unreal Engine), die seine jüngste Tochter (11 Jahre) spielt. Die kennt weder AA noch AF noch hohe Auflösungen (ausser vom Desktop), sondern ist einfach nur begeistert vom Spiel (hab´s auf 640x480x32Bit, Details auf max. konfiguriert).
Kurzum: auch hier in allen Lagen absolut ausreichende Leistung.


Keine der beiden og. Parteien würde es jucken, ob ich ne FX5200, Radeon7000/9000 oder was auch immer (Kyro/Xabre) einbauen würde, müsste ich jetzt diese PCs aufbauen.

Man denke mal darüber nach.:)

Demirug
2003-05-05, 18:11:27
Originally posted by aths
Leider ist es ja so, dass Spiele nicht nur für die gemacht werden, die ernsthaft spielen. Ernsthafte Spieler haben in der Masse mindestens DX8, und das bei halbwegs brauchbarer Leistung. Ginge es nach den ernsthaften Spielern, bräuchte es längst keine DX7-Kompatibilität mehr geben. Ein ernsthafter Spieler würde aufrüsten, wenn seine DX7-Karte nicht mehr reicht.

Das spiele auch für die nicht "ernsthaften" Spieler gemacht werden weiss ich ja selbst. (ich nehme hier mal bezug auf unsere Unterhaltung bezüglich des DX7 supports in unsere Engine denn ich immer noch nicht vollständig gedropt habe). Was man dabei aber auch bedenken muss ist das diese Personen in der Regel auch nicht die Ansprüche (an Auflösung und FPS) haben wie die "ernsthaften" Spieler.

Bei einer DX9-Engine erwarte ich einen Z-Pass, sowie einen Farb-Pass, der praktisch alle Flächen shadert (also weitgehend auf einfaches Multitexturing verzichtet.) Shader nutzt man dann für die Lichtquellen und das Bumpmapping... schafft es eine FX 5200, bei nur 800x600, dann noch 25 fps zu bringen? (640x480 ist in Zeiten von 19"-Monitoren imo nicht mehr zuzumuten.)

Z-Pass ist gut da freut sich eine 5200 mehr als eine 4200.

Also benutzt man für alles Shader da alles ja zumindestens vom diffusen umgebungslicht beleuchtet wird. Bumpmapping ist eigentlich auch nur bessere Multitexturing (deswegen geht es ja auch schon mit DX7 Karten). Das mit deinen 25fps probiere ich bei gelegenheit aus.

PS: wer kein Geld für eine ordentliche Grafikkarte hat, hat auch kein Geld für einen 19" Monitor.

ow
2003-05-05, 18:13:25
Originally posted by Demirug


Was man dabei aber auch bedenken muss ist das diese Personen in der Regel auch nicht die Ansprüche (an Auflösung und FPS) haben wie die "ernsthaften" Spieler.




Da sind wir ja einer Meinung (s.o.).:)
Und ich denke, dass über 80% der PC-User wirklich anspruchslos sind.

Crushinator
2003-05-05, 18:20:47
Ich habe "DX9 für Alle" gevotet, wobei ich mir gewünscht hätte, daß die Einstiegsvariante(n) einiges schneller wären.

Ich "will" nämlich endlich DX9-Spiele spielen. =)

aths
2003-05-05, 18:24:15
Originally posted by Demirug
Was man dabei aber auch bedenken muss ist das diese Personen in der Regel auch nicht die Ansprüche (an Auflösung und FPS) haben wie die "ernsthaften" Spieler.Das sagst du so einfach :) Ich kenne Leute, mit GF2 MX, aber eben schneller CPU, die denken, dass sie selbstverständlich alle Details hochdrehen können, und 1024x768 ist bei denen auch Standard. Sie senken dann einige Details, rücken aber nicht von 1024x768 ab.

Andere die ich kenne, ebenfalls mit GF2 MX, spielen in 800x600, aber probieren immer wieder, wieviele Details sie noch einstellen können.

Ansprüche sind imo schon da, auf jeden Fall. Engines mit Auto-Konfiguration und etwas verstecktem Options-Menü kaschieren das vielleicht etwas.
Originally posted by Demirug
Z-Pass ist gut da freut sich eine 5200 mehr als eine 4200. Hm? Die 5200 macht 4 Werte pro Takt, die 4200 doch auch...
Originally posted by Demirug
Das mit deinen 25fps probiere ich bei gelegenheit aus.Wäre nett :)
Originally posted by Demirug
PS: wer kein Geld für eine ordentliche Grafikkarte hat, hat auch kein Geld für einen 19" Monitor. Die Komplett-PCs, mit '128 MB DX9-HighEnd-Grafik von NVIDIA' (also FX 5200) kommen doch inzwischen auch schon mit 19" Moni?

Demirug
2003-05-05, 18:43:03
Originally posted by aths
Hm? Die 5200 macht 4 Werte pro Takt, die 4200 doch auch...

das wird jetzt aber OT. also nur kurz:

Eine 5200 Ultra schaft bei meinem Owerdrawtest 2 texture (noAA) F2B 3052 MPixel/s. Bei einem Takt von 325 MHz ergibt das mindestens 9.4 Pixel/t. Edit (pro Takt natürlich nicht pro sekunden :bonk: )

Hinzu kommt noch das Effekten für welche einen 4200 2 Passes braucht die verdeckten Pixel auch zweimal verworfen werden müssen. Wenn die 5200 das in einem Pass macht fällt das verwerfen nur einmal an.

aths
2003-05-05, 18:56:19
Originally posted by Demirug
Eine 5200 Ultra schaft bei meinem Owerdrawtest 2 texture (noAA) F2B 3052 MPixel/s.Die Ultra wird kaum in den erwähnten Komplettrechnern verbaut :)

Demirug
2003-05-05, 18:59:21
Originally posted by aths
Die Komplett-PCs, mit '128 MB DX9-HighEnd-Grafik von NVIDIA' (also FX 5200) kommen doch inzwischen auch schon mit 19" Moni?

Komplett-PCs kommen in letzter Zeit kaum noch mit Monitor. In der 1000€ Preisklasse wird aber im Moment gerne ein 15" TFT als Option angeboten.

Demirug
2003-05-05, 19:02:21
Originally posted by aths
Die Ultra wird kaum in den erwähnten Komplettrechnern verbaut :)

und was hat das mit der HSR-Leistung des NV34 zu tun? Der Chip ist bei der Ultra und non Ulttra ja der gleiche.

aths
2003-05-05, 19:32:43
Originally posted by Demirug
und was hat das mit der HSR-Leistung des NV34 zu tun? Der Chip ist bei der Ultra und non Ulttra ja der gleiche. Es gibt keine 64-Bit-Ultra :)

Demirug
2003-05-05, 20:05:14
Originally posted by aths
Es gibt keine 64-Bit-Ultra :)

Das musste ja jetzt kommen. Warten wir mal ab wer wirklich 64-Bit Karten baut.

Thomas Gräf
2003-05-05, 20:49:14
...ich hatte mal ein C64...da kam
Formula 1 Grand Prix für den PC .
Wenig später qualmte meine Rübe
vor einem 386'er.
Dann kam der Comanche mit den
Voxel-Pixel..;)...und dann mein 486'er

Irgendwie spielte die Software immer
den Vorreiter..."software sells hardware"
Aber die Pionierzeiten sind seit der 3dfx
Pleite wohl vorbei.
Die Zeit der breiten Softeis-Kaugummimasse
ist angebrochen...Innovationen sinnloser
Restmüll des vergangenden Frühkapitalismus.

naja,schuld is sowieso TSMC ;)

grs.
Th.

StefanV
2003-05-05, 20:57:27
Originally posted by Thomas Gräf
...ich hatte mal ein C64...da kam
Formula 1 Grand Prix für den PC .
Wenig später qualmte meine Rübe
vor einem 386'er.
Dann kam der Comanche mit den
Voxel-Pixel..;)...und dann mein 486'er

Irgendwie spielte die Software immer
den Vorreiter..."software sells hardware"
Aber die Pionierzeiten sind seit der 3dfx
Pleite wohl vorbei.
Die Zeit der breiten Softeis-Kaugummimasse
ist angebrochen...Innovationen sinnloser
Restmüll des vergangenden Frühkapitalismus.

naja,schuld is sowieso TSMC ;)

grs.
Th.

Stimmt, an die Zeit erinner ich mich auch...

Damals gabs solche HW Killer wie z.B. Strike Commander, Wing Commander, die damals auf keinem aktuellen Rechner vernünftig liefen, sondern erst eine bis 2 Generationen später erst wirklich gut liefen...

z.B. Wing Commander 3, bei dem man schonmal dazu gezwungen wurde seine alte ISA GraKa gegen eine VLB Karte auszutauschen (meinereiner hatte glücklicherweise 'ne VLB Karte, wenns auch so ein Schrott wie die GD5426 war)...

Mr. Lolman
2003-05-06, 21:16:12
Sorry, aber wieso steht rechts - last post by blabla 6.Mai 20:37, und der letzte zu sehende Eintrag ist aber vom 5.Mai...


edit: :bonk: wird natürlich wegen dem Poll sein :sulkoff: - Ich sollte mir das Affektposten abgewöhnen ;)

StefanV
2003-05-06, 22:22:30
lool

Schuldig:

Posting im Affegt :lol:

mapel110
2003-05-06, 22:47:50
Originally posted by Stefan Payne
lool

Schuldig:

Posting im Affegt :lol:

affekt :bad1:

Razor
2003-05-06, 23:47:20
Originally posted by aths
Die Ultra wird kaum in den erwähnten Komplettrechnern verbaut :)
Offenbar fällt Dir dazu nicht viel ein, oder ?
Was soll an einer 'ultra' anders sein, als der höhere Takt (der übrigens auch mit 'ner nonUltra zu erreichen ist ;-) ?
???

Razor

Razor
2003-05-06, 23:48:10
Originally posted by aths
Es gibt keine 64-Bit-Ultra :)
JETZT haben wir's... Dir fällt tatsächlich nichts mehr ein !
:D

Razor

Seraf
2003-05-07, 00:44:47
/me mal haarspalter spielt


Mir ist gerade aufgefallen das der Threadtitel nicht
-DX9 - Wann macht es Sinn (in naher Zukunft)
-DX9 - bei welchen Grafikarten macht es Sinn (bei neuen schnelleren Grafikkarten)
-DX9 - Warum macht es Sinn (alle Jahre Technologiesprünge.. blabla)

Sondern "wo macht es Sinn" heißt....

Naja ... in Spielen und Bildschirmschonern und in anderen Programmen halt... ;)

/edit
Für den Poll müßte es "für wen macht dx9 sinn" heißen...

*duck* :D

aths
2003-05-07, 09:33:28
Originally posted by Razor
JETZT haben wir's... Dir fällt tatsächlich nichts mehr ein !
:D

Razor Nee, aber mir fällt was auf. An alle hier die Bitte, nicht rumzuspammen sondern ontopic zu bleiben.

LovesuckZ
2003-05-09, 19:37:38
Wie kann man eigentlich oefters voten?

StefanV
2003-05-09, 19:40:24
Originally posted by LovesuckZ
Wie kann man eigentlich oefters voten?

Gar nicht!!

[€dit]

Ich hoffe, daß es so richtig geschrieben ist, da vertraue ich mal ganz auf aths *eg*

LovesuckZ
2003-05-09, 19:41:19
Originally posted by Stefan Payne
Garnicht!!

Und wie holen mod's den Thread wieder hoch?

StefanV
2003-05-09, 20:12:42
Originally posted by LovesuckZ
Und wie holen mod's den Thread wieder hoch?

???

BTW: du meintest wohl, wie die Mods den Thread wieder hoch holen, oder ??

smasher
2003-05-10, 07:03:34
ob DX9 sinnvoll ist oder nicht mag ja jeder für sich selbst entscheiden. das ist auch nicht der punkt.
wichtig wäre doch wenn sich der developer auf ein DX beschränken könnte. da alle DX versionen abwärtskompatibel sind und msft kein neues dx in absehbarer zeit mehr rausbringen möchte und es dx9 fähige grafikkarten (ob spielbar oder nicht steht hier nicht zur debatte) ab 90 euro zu haben sind spricht doch im moment viel für "dx9 für alle" . oder sehe ich da irgend etwas falsch ?
Gruß & morgen
smasher

Razor
2003-05-10, 08:56:33
Du hast es erfasst, smasher !
;-)

Razor

Razor
2003-05-10, 08:57:18
Originally posted by LovesuckZ

Und wie holen mod's den Thread wieder hoch?
Also jeder Vote holt den Thread wieder hoch... wie ein Post in diesem Thread auch...
Und wieso "mod" ?
???

Razor

Riptor
2003-05-11, 22:48:21
Originally posted by Stefan Payne
z.B. Wing Commander 3, bei dem man schonmal dazu gezwungen wurde seine alte ISA GraKa gegen eine VLB Karte auszutauschen (meinereiner hatte glücklicherweise 'ne VLB Karte, wenns auch so ein Schrott wie die GD5426 war)...

Oder auch der Nachfolger, Wing Commander 4: Brauchte eigentlich einen Pentium und mindestens 16MB RAM... Dazu die 6 CDs (Wahnsinn!)... Und die meisten gurkten mit 486SX-Modellen rum. ;)

Riptor
2003-05-11, 22:52:33
Originally posted by Razor
Du hast es erfasst, smasher !

Naja, mir das 3DLabs mit ihrem P10 besser gefallen: Immer wieder DX-updaten... per Hardware. :)

Razor
2003-05-11, 22:54:16
Originally posted by Riptor

Oder auch der Nachfolger, Wing Commander 4: Brauchte eigentlich einen Pentium und mindestens 16MB RAM... Dazu die 6 CDs (Wahnsinn!)... Und die meisten gurkten mit 486SX-Modellen rum. ;)
Mehr Prozessor-Power voraus zu setzen, ist aber noch was anderes, als Features zu fordern, die noch nicht existieren, oder ?
;-)

Razor

Razor
2003-05-11, 22:54:44
Originally posted by Riptor

Naja, mir das 3DLabs mit ihrem P10 besser gefallen: Immer wieder DX-updaten... per Hardware. :)
Na ja, wenn dann noch die Leistung stimmen würde...
:D

Razor

Riptor
2003-05-11, 23:00:33
Originally posted by Razor
Mehr Prozessor-Power voraus zu setzen, ist aber noch was anderes, als Features zu fordern, die noch nicht existieren, oder ?

Da stimme ich dir natürlich zu, nur in einer Zeit, wo keine 3D-Karten existiert haben (oder: so gut wie keine ;) ), war eben der Prozessor das Entscheidende Kriterium. Und WC4 lief eben nur auf einem Pentium akzeptabel. Aber vllt ist das wieder am Thema vorbei, wollte allerdings nur auf den Toiletten Commander eingehen.

Originally posted by Razor
Na ja, wenn dann noch die Leistung stimmen würde... :D

Ja, leider. ;) Wobei mir vom Prinzip her das Teil gefallen hat...

ow
2003-05-12, 08:07:51
Originally posted by Riptor


Naja, mir das 3DLabs mit ihrem P10 besser gefallen: Immer wieder DX-updaten... per Hardware. :)

inwiefern?
mehr als DX8(.1) ist mit dem P10 nicht drin.

DrumDub
2003-05-12, 11:49:07
ow

nein. das stimmt nicht:

"Die Ausstattung umfasst OpenGL-1.2- und DirectX-8.1-Treiber (Vertex Shader 1.1 und Pixel Shader 1.2) für Windows XP/2000; Windows-98-Treiber sollen folgen. Auf Anfrage sind auch Prototypen-Treiber für OpenGL 2.0 und DirectX 9 erhältlich. "

http://www.heise.de/newsticker/data/jk-24.06.02-002/

"3Dlabs´ P10-Chip kann wohl erst einmal alles darstellen können, was sich die Spieleprogrammier so in den nächsten Jahren ausdenken - auch Sachen, die heute noch nicht einmal angedacht werden. Laut 3Dlabs wird DirectX 8.1 vom P10-Chip vollständig unterstützt, eine weitestgehende Unterstützung für die mit DirectX9 kommenden Vertex und Pixel Shader 2.0 wird es genauso wie die Unterstützung von OpenGL 2.0 (3Dlabs ist maßgeblicher Entwickler, der P10-Chip ist eine Entwicklungsplattform für OpenGL 2.0) definitiv geben.

Daß 3Dlabs nicht direkt "DirectX9-kompatibel" an seine Chip schreibt, hängt wohl auch damit zusammen, daß DirectX9 wie auch OpenGL 2.0 noch nicht veröffentlich sind. Theoretisch gesehen stellt dies aber kein Hindernis für den P10 dar: Im Prinzip lassen sich auch DirectX 10, 11, ... vom P10 unterstützen, sofern es nicht um Features bezüglich der technischen Architektur, sondern um darstellbare Grafikeffekte geht. Denn mit seiner vollen Programmierbarkeit wird der P10 jeden nur denkbaren Grafikeffekt darstellen können, sofern 3Dlabs dafür einen Treiber bereitstellt.

Der Zukunftsfähigkeit des P10-Chips sind damit eigentlich keine Grenzen gesetzt - naja, fast zumindestens. Erstens hängt es an den Treibern, welche immer wieder auf den neuesten Stand von DirectX und OpenGL gebracht werden müssen. Dies wird natürlich für 3Dlabs irgendwann, wenn der P10 schon lange von Nachfolge-Produkten abgelöst wurde, unlukrativ werden. Zweitens wird diese Zukunftsfähigkeit automatisch nur so lange funktionieren, bis die nächste ähnlich bahnbrechende Revolution im Grafikchip-Business kommt - mehr als 10 Jahre werden es also kaum sein. Und der dritte Punkt ist die reine Leistungsfähigkeit des Grafikchips, welche sich natürlich wie bei jeder Hardware über kurz oder lang erschöpfen wird."

http://www.3dcenter.de/artikel/2002/05-05_b.php

Demirug
2003-05-12, 12:01:34
DrumDub, das dumme ist nur das der P10 keine Fliesspunkt fähigen PS-ALUs hat. Damit ist alles über PS 1.4 schon mal gar nicht mehr technisch möglich.

Und was den Artikel angeht. Da hat sich Leo einfach ein bischen weit aus dem Fenster gelehnt indem er den Marketing von 3dlabs zu sehr verdraut hat.

DrumDub
2003-05-12, 12:08:31
demirug

also opengl 2.0, aber kein (vollständiges?) directx 9? zumindest hab ich das so noch mal auf der 3dlabs seite in den specs identifizieren können.

war da wohl etwas voreilig, da ich die sache mit dx 9 noch im kopf hatte aus dem preview von leo...

Demirug
2003-05-12, 12:13:16
Originally posted by DrumDub
demirug

also opengl 2.0, aber kein (vollständiges?) directx 9? zumindest hab ich das so noch mal auf der 3dlabs seite in den specs identifizieren können.

war da wohl etwas voreilig, da ich die sache mit dx 9 noch im kopf hatte aus dem preview von leo...

Ich habe am Anfang bezüglich des P10 auch an einen Wunderchip geglaubt aber das Wunder ist nicht passiert.

Was OpenGL 2.0 angeht so ist dort AFAIK Fliesspunkt genauigkeit für die Pixelberechnung nicht unbedingt erforderlich und wie bei OpenGL üblich darf ein Treiber ja jederzeit auch auf Softwarerendering ausweichen.

Riptor
2003-05-12, 12:30:53
Trotzdem ist das Teil von der IDEE nicht schlecht... Vllt wird ja mal Creative groß mit 3DLabs einsteigen und einen Markttauglichen Chip herausbringen. Kann jedenfalls UNS nicht schaden.

DrumDub
2003-05-12, 12:58:38
jepp. da wäre schön. die grundidee des chips ist schon genial... ähnlich wie bei der kyro bezogen auf das tile based rendering...

Razor
2003-05-13, 20:27:46
Originally posted by DrumDub
jepp. da wäre schön. die grundidee des chips ist schon genial... ähnlich wie bei der kyro bezogen auf das tile based rendering...
Das eine hat mit dem anderen ja nun wirklich nichts zu tun.

Razor

MadManniMan
2003-05-13, 23:40:12
Originally posted by Razor

Das eine hat mit dem anderen ja nun wirklich nichts zu tun.

Razor


erreicht aber einen ähnlichen grad der genialität

aths
2003-05-14, 01:17:48
Originally posted by MadManniMan
erreicht aber einen ähnlichen grad der genialität Ich dachte, genial kann nur das sein, was von NV kommt?

(Ok, das war jetzt OT.)

((Jaja, ich höre ja schon auf.))

MadManniMan
2003-05-14, 01:24:12
Originally posted by aths
Ich dachte, genial kann nur das sein, was von NV kommt?

(Ok, das war jetzt OT.)

((Jaja, ich höre ja schon auf.))

haste jetz aber rasiermesserscharf erkannt! :naughty:

Quasar
2003-05-14, 01:28:24
Wird hier nur noch gespammt?

aths
2003-05-14, 01:47:13
Originally posted by Quasar
Wird hier nur noch gespammt? Wieso spammst du mit? :nono:

Aber zum Topic: Wenn Nvidia nicht wieder so bescheuert an die Sache heran geht, könnten sie einen NV35-Spin-Off als Low-Cost-Lösung bringen. Die NV35-Pipes sind den NV30 (bzw. NV34-) Pipes nunmal deutlich überlegen, was den Speed angeht.

Was könnte weg? Man könnte 2 Pipes einsparen, das VS-Array kürzen, das Speicherinterface stutzen. Was hätte man? Eine Karte, die eben wirklich mehr bringt als GF3 Ti 200, aber nicht _sehr_ viel teurer als eine FX 5200 wäre. (Warum nicht so viel teurer? Nun, der Chip wäre natürlich etwas größer und teurer. Eine Karte besteht aber nicht nur aus dem Chip.) Wenn man sie passiv gekühlt braucht, geht man einfach etwas mit dem Takt runter.


Mir dünkt allerdings, dass Nv eine so taugliche Karte gar nicht bringen will. Es gibt das Einstiegs-Segment, das mit Absicht für Spieler untauglich ist*. Dann gibt es das Segment für Spieler mit nicht ganz so viel Geld, wo man schon etwas Leistung bekommt, und natürlich das HighEnd-Segment. Eine taugliche Karte für alles ist nicht drin. Siehe GF4 MX. Die Karte kam "zu spät", als dass sie eine perfekte preisgünstige Spieler-Karte sein könnte. Und die Ti hatte keine VPU. Entweder das eine oder das andere, bloß kein "Rundum-Produkt", diesen Eindruck gewinne ich langsam.

* GeForce2 MX 200. Ich könnte mich _heute noch_ schieflachen. Bürokarte mit T&L :bonk:

Razor
2003-05-14, 06:22:02
Originally posted by MadManniMan

erreicht aber einen ähnlichen grad der genialität
Das Prinzip ist schon uralt...

Und wer mal in seinen Rechner geschaut hat, sollte mitbekommen haben, dass da 'ne CPU drin steckt. Auch die kann man programmieren... schon mal den Ref-Rasterizer probiert (brauch ich derzeit nicht ;-) ?

Und wer sich schon mal in der Rechnenzentren der Chip-Entwickler umgeschaut hat, der wird da ganze Cluster-Farmen gesehen haben, die sich 'programmieren' lassen.

Das ganze wäre wirklich 'genial' gewesen, wenn es nutzbar gewesen wär.
Gleiche gilt im übrigen für den TBR von ImgTech...

Wo bleibt denn das neue Produkt ?
Glauben die Leute hier ernsthaft daran, dass da noch was kommt ?
Und wenn ja, warum ?

War 'ne Eintagsfliege, wie auch der P10 von 3DLabs.
Das Ding von 3DLabs ist was nettes für Entwickler (da ist die Geschwindigkeit wurscht), für den Consumer-Markt aber eher ungeeignet.

Bis denne

Razor

MadManniMan
2003-05-14, 11:56:12
Originally posted by Razor
Und wer mal in seinen Rechner geschaut hat, sollte mitbekommen haben, dass da 'ne CPU drin steckt. Auch die kann man programmieren... schon mal den Ref-Rasterizer probiert (brauch ich derzeit nicht ;-) ?

schade nur, daß das ding um größenordnungen besser ist, als der ref-rast :D warum immer allles schlechtreden?

Originally posted by Razor
Und wer sich schon mal in der Rechnenzentren der Chip-Entwickler umgeschaut hat, der wird da ganze Cluster-Farmen gesehen haben, die sich 'programmieren' lassen.

schön, dann kauf dir doch ne cluster farm :nighty:

Originally posted by Razor
Das ganze wäre wirklich 'genial' gewesen, wenn es nutzbar gewesen wär.
Gleiche gilt im übrigen für den TBR von ImgTech...


zu 3dlabs: die evolution steht noch am anfang - da kommt noch was!
und du bist wirklich der meinung, daß die leute keinen spaß mit dem TBR von Prower VR hatten? ich jedenfalls schon. hattest du je eine?

Originally posted by Razor
Wo bleibt denn das neue Produkt ?
Glauben die Leute hier ernsthaft daran, dass da noch was kommt ?
Und wenn ja, warum ?

versuch doch erstmal selber, diese fragen zu beantworten, bevor du die arbeit von den jungens verschreist!

Originally posted by Razor
War 'ne Eintagsfliege, wie auch der P10 von 3DLabs.
Das Ding von 3DLabs ist was nettes für Entwickler (da ist die Geschwindigkeit wurscht), für den Consumer-Markt aber eher ungeeignet.

das pvr-ding war ne eintagsfliege? :| was läßt dich zu diesem schluß kommen?
zu 3dlabs: aber auch nur, weil nie wirklich ne gamer-karte rausgekommen ist. die haben eingesehen, daß sie nicht im high-end segment mitspielen können und habens gar nicht erst versucht - konkurrenzfähig wär das ding auf jeden fall gewesen

Originally posted by Razor
Razor

na dann erzähl mal *zigarette anzünd*

manni

StefanV
2003-05-14, 12:04:14
Originally posted by Razor

Das Prinzip ist schon uralt...

Und wer mal in seinen Rechner geschaut hat, sollte mitbekommen haben, dass da 'ne CPU drin steckt. Auch die kann man programmieren... schon mal den Ref-Rasterizer probiert (brauch ich derzeit nicht ;-) ?

Und wer sich schon mal in der Rechnenzentren der Chip-Entwickler umgeschaut hat, der wird da ganze Cluster-Farmen gesehen haben, die sich 'programmieren' lassen.

Das ganze wäre wirklich 'genial' gewesen, wenn es nutzbar gewesen wär.
Gleiche gilt im übrigen für den TBR von ImgTech...

Wo bleibt denn das neue Produkt ?
Glauben die Leute hier ernsthaft daran, dass da noch was kommt ?
Und wenn ja, warum ?

War 'ne Eintagsfliege, wie auch der P10 von 3DLabs.
Das Ding von 3DLabs ist was nettes für Entwickler (da ist die Geschwindigkeit wurscht), für den Consumer-Markt aber eher ungeeignet.

Bis denne

Razor

PowerVR 'ne Eintagsfliege?? :rofl:

Da fallen mir aus dem Stehgreif 3 Serien ein:

PowerVR Serie 1, aka PowerVR (PCX1).
PowerVR Serie 2, z.B. auf der Neon250 zu finden, oder in der Dreamcast...
Und die Serie 3, aka Kyro.

Also für mich schaut PowerVR nicht nach 'ner Eintagsfliege aus, ganz im Gegenteil, PowerVR schaut für mich wie ein alter Hase im 3D HW Business aus...

Razor
2003-05-14, 14:46:26
Originally posted by MadManniMan

schade nur, daß das ding um größenordnungen besser ist, als der ref-rast <> warum immer allles schlechtreden?
Und kann nicht einmal Fließkommaberechnungen...
Will sagen: trotz hoher Programmierbarkeit Hardwarebeschränkungen.
Originally posted by MadManniMan

schön, dann kauf dir doch ne cluster farm <>

Die dann tatsächlich universal einsetzbar ist.
Der P10 ist nichts Halbes und auch nichts Ganzes...
Originally posted by MadManniMan

zu 3dlabs: die evolution steht noch am anfang - da kommt noch was!
und du bist wirklich der meinung, daß die leute keinen spaß mit dem TBR von Prower VR hatten? ich jedenfalls schon. hattest du je eine?
Du bist sicher, dass von 3dlabs noch was für den consumer-markt kommt ?
???

Und ja, hatte 'ne Kyro mal für 'ne Woche... guter Ansatz (Performance), aber...
(hat auch völlig gereicht ;-)
Originally posted by MadManniMan

versuch doch erstmal selber, diese fragen zu beantworten, bevor du die arbeit von den jungens verschreist!
Letztes mal habe sie ein Produkt gebracht und sind ein paar Jahre von der Bildfläche verschwunden...
So schaut's derzeit auch aus.
Originally posted by MadManniMan

das pvr-ding war ne eintagsfliege? :| was läßt dich zu diesem schluß kommen?
siehe oben...
(und bezogen auf Ihre Produkte ;-)
Originally posted by MadManniMan
zu 3dlabs: aber auch nur, weil nie wirklich ne gamer-karte rausgekommen ist. die haben eingesehen, daß sie nicht im high-end segment mitspielen können und habens gar nicht erst versucht - konkurrenzfähig wär das ding auf jeden fall gewesen
Konkurrenzfähig ?
Zu was ?
???
Originally posted by MadManniMan

na dann erzähl mal *zigarette anzünd*
Und ? Wie war sie ?
:D

Bis denne

Razor

P.S.: Smileis von Manni gekillt... *eg*

Razor
2003-05-14, 14:52:02
Originally posted by Stefan Payne

PowerVR 'ne Eintagsfliege?? :rofl:

Da fallen mir aus dem Stehgreif 3 Serien ein:

PowerVR Serie 1, aka PowerVR (PCX1).
PowerVR Serie 2, z.B. auf der Neon250 zu finden, oder in der Dreamcast...
Und die Serie 3, aka Kyro.

Also für mich schaut PowerVR nicht nach 'ner Eintagsfliege aus, ganz im Gegenteil, PowerVR schaut für mich wie ein alter Hase im 3D HW Business aus...
Das Thema hatten wir schon sooooooo oft...
Im PC-Bereich ist PowerVR 'ne Eintagsfliege, die alle paar Jahre zum Leben erwacht und dann wieder 'stirbt'.

Razor

Seraf
2003-05-14, 15:07:37
Originally posted by Stefan Payne


PowerVR 'ne Eintagsfliege?? :rofl:

Da fallen mir aus dem Stehgreif 3 Serien ein:

PowerVR Serie 1, aka PowerVR (PCX1).
PowerVR Serie 2, z.B. auf der Neon250 zu finden, oder in der Dreamcast...
Und die Serie 3, aka Kyro.

Also für mich schaut PowerVR nicht nach 'ner Eintagsfliege aus, ganz im Gegenteil, PowerVR schaut für mich wie ein alter Hase im 3D HW Business aus...

Der PowerVR hat ja nur Fragmente produziert.
Kann natürlich sein das dir das nichts ausmacht.
(Als ATI Fan haben dir Spiele wie NfS6 mit ältern Treibern bestimmt nichts ausgemacht)

Naja auf jeden Fall war der für die Tonne gegen eine Monster3D.

Und Power VR auf der Dreamcast?
Haben die überhaupt die Entwicklungskosten noch reinbekommen?

Und danach Kyro1 und 2 und danach nichtsmehr.

Normal könnte man sich auch Fragen obs PowerVR ausser auf dem Papier noch wirklich gibt.

Andre
2003-05-14, 15:08:59
Originally posted by Stefan Payne

Also für mich schaut PowerVR nicht nach 'ner Eintagsfliege aus, ganz im Gegenteil, PowerVR schaut für mich wie ein alter Hase im 3D HW Business aus...

Die Erfahrung, und die damit verdiente Kohle, muss ja so überwältigend sein, dass es seit Monaten nichts oder nur gerüchtemäßig was gibt. So handeln nur Profis und alte Hasen im Geschäft, da haste mal Recht.

StefanV
2003-05-14, 15:13:36
Originally posted by Seraf
Der PowerVR hat ja nur Fragmente produziert.
Kann natürlich sein das dir das nichts ausmacht.
(Als ATI Fan haben dir Spiele wie NfS6 mit ältern Treibern bestimmt nichts ausgemacht)

Naja auf jeden Fall war der für die Tonne gegen eine Monster3D.

Und Power VR auf der Dreamcast?
Haben die überhaupt die Entwicklungskosten noch reinbekommen?

Und danach Kyro1 und 2 und danach nichtsmehr.

Normal könnte man sich auch Fragen obs PowerVR ausser auf dem Papier noch wirklich gibt.

1. den Core, den Rest muß ein Partner fertig bekommen...

2. ersteinmal bin ich kein ATI Fan, zweitens würd ich mir NFS6 eher auf der PS2 kaufen, wenn ich es kaufen würde (wozu steht die PS2 hier??)
Und drittens ist das nicht mein Genere...

3. hab ich nicht bestritten ;)
Der Ansatz war interessant, in der Praxis schaute es leider anders aus...

4. naja, ImgTec ist eigentlich nicht gerade klein, vom MBX wird man wohl auch noch etwas Profit abschlagen können...

ow
2003-05-14, 17:26:48
Originally posted by MadManniMan

zu 3dlabs: die evolution steht noch am anfang - da kommt noch was!


??
wo nimmst du denn die Erkenntnis her?
Vielleicht erinnerst du dich mal ein paar Jahre zurück, als die Kartenhersteller noch Chip von allen Firmen verbaut haben, die hatten ALLE den Permedia2 als Gamerkarte im Programm. Ob Diamond, Hercules (von denen ist mein Permedia2), Elsa, etc...

Der Zug für 3DLabs ist damals abgefahren, als der Permedia3 mit fast einjähriger Verspätung erst erschien (angekündigt Frühjahr 98, verfügbar ´99 IIRC).

Der P3 wurde nämlich von KEINEM Kartenhersteller mehr verbaut, die hatten alle schon TNT/TNT2 und Voodoo Banshee, etc....im Programm.
Kein Bedarf mehr am P3.

Seither ist 3dlabs nur noch auf dem Profi-OGL-Markt vertreten.
Und ich befürchte, dass sich dies auf absehbare Zeit nicht ändern wird. Die sind einfach zu klein und haben nicht die Manpower wie ATi/NV. Für Matrox gilt letzter Satz auch.

ow
2003-05-14, 17:32:10
Originally posted by Razor

Das Thema hatten wir schon sooooooo oft...
Im PC-Bereich ist PowerVR 'ne Eintagsfliege, die alle paar Jahre zum Leben erwacht und dann wieder 'stirbt'.

Razor


So schaut´s leider aus.
Und ich finde es sehr schade, dass sie durch Managemant-Schlamperei die Chance, mit dem Kyro3 im PC-Markt dauerhaft Fuss zu fassen, vertan haben.

Kyro rulez:)

ow
2003-05-14, 17:36:17
Originally posted by Seraf


Normal könnte man sich auch Fragen obs PowerVR ausser auf dem Papier noch wirklich gibt.

Nö.
Um die mache ich mir keine Sorgen. Die sind in anderen Bereichen (zB. MBX-Lizenz) recht gut aufgestellt.

Seraf
2003-05-14, 21:01:43
Originally posted by ow


Nö.
Um die mache ich mir keine Sorgen. Die sind in anderen Bereichen (zB. MBX-Lizenz) recht gut aufgestellt.

Hast schon Recht ow :)

Aber z.B. gibts S3 auch noch.
Nur wo bleibt der neue Chip?
Und und und...

Grafikchips die angekündigt waren scheinen nur Papiertiger (wie der Kyro3) zu werden.


Gibts die Bitboys eigentlich auch noch?

StefanV
2003-05-14, 21:03:54
Originally posted by Seraf
Aber z.B. gibts S3 auch noch.
Nur wo bleibt der neue Chip?


Im KM400A...

Originally posted by Seraf
Gibts die Bitboys eigentlich auch noch?

Ja, die gibts auch noch...