PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bildqualität: FX 5800 vs. FX 5200


DrumDub
2003-04-30, 10:57:21
hab heute den folgenden testbericht zur gf fx 5200 auf tech-report gelesen. interessanterweise schient es selbst bei den nvidia-eigenen-demos (dawn) unterschide in der bildqualität zwischen den beiden karten zu geben. die details fehlen einfach bei einer fx 5200:

http://www.tech-report.com/reviews/2003q2/geforcefx-5200/dawn.jpg

dawn auf gf fx 5200

http://www.tech-report.com/reviews/2003q2/geforcefx-5200/dawnu.jpg

dawn auf gf fx 5600 u

selbiges "problem" wurde ja bereits bei dem mother nature demo des 3d-mark 03 bezüglich des himmels festgestellt. gibt es da einen zusammenhang?

hier ist der gesamte test zu finden: http://www.tech-report.com/reviews/2003q2/geforcefx-5200/

Mr. Lolman
2003-04-30, 11:04:30
Da standen wohl die Entwickler vo der Frage:

'Sollen die 5200er user eine ruckelige fulldetail Dawn, oder eine detailärmere, aber dafür (halbwegs?) flüssige Dawn sehen'


*dasQuasargarnichtsdazugesagthat?* :stareup:

StefanV
2003-04-30, 11:25:00
für mich schauts fast so aus als ob da eine (/mehrere??) Textur(en ??) fehlt (/fehlen?)...

ow
2003-04-30, 11:27:58
Originally posted by DrumDub


selbiges "problem" wurde ja bereits bei dem mother nature demo des 3d-mark 03 bezüglich des himmels festgestellt. gibt es da einen zusammenhang?




???

Welches Problem?
Dass Futuremark komplett auf ATi optimiert hat und einen fuer D3D optionale Funktion nutzt, die NUR ATi bereitstellt?

Obligaron
2003-04-30, 11:29:32
Originally posted by ow


???

Welches Problem?
Dass Futuremark komplett auf ATi optimiert hat und einen fuer D3D optionale Funktion nutzt, die NUR ATi bereitstellt?

don't let the flame war start!

Darüber wurde schon mehrmals woanders gesprochen, bitte nicht hier. Es geht jetzt auch um die NV-Dawn-Demo und nicht um den 3dMark.

MfG,
Obligaron

ow
2003-04-30, 11:33:10
Originally posted by Obligaron


don't let the flame war start!

Darüber wurde schon mehrmals woanders gesprochen, bitte nicht hier. Es geht jetzt auch um die NV-Dawn-Demo und nicht um den 3dMark.

MfG,
Obligaron

?????????

wo ist denn hier geflame?

Das ist eine laengst bewiesene Tatsache!!!
3DM03 nutzt optionale Features die NUR auf ATi verfuegbar sind.

ow
2003-04-30, 11:40:00
Originally posted by Mr. Lolman


ow, ja der Himmel, wir habens kapiert, aber es geht jetzt um Dawn.


Ausserdem könnte es ja einen Speedvorteil für NV geben, wenn deren Karten aus einer geringen Farbgenauigkeit heraus ihre Bilder erzeugen müssen.

???

darf man jetzt nicht mal den threadstarter zitieren und auf seinen Fehler hinweisen?

so langsam hoert's jetzt hier aber auf!

Mr. Lolman
2003-04-30, 11:41:16
Gut hast recht, bist ja Mod :)

*ernstgemeint*

Obligaron
2003-04-30, 11:42:42
Originally posted by ow


?????????

wo ist denn hier geflame?

Das ist eine laengst bewiesene Tatsache!!!
3DM03 nutzt optionale Features die NUR auf ATi verfuegbar sind.

dann nenn es halt OFF-TOPIC!!
es geht hier nur um DAWN, auch wenn der Thread startet kurz spekuliert hat ob das mit dem 3dmurks zu tun hat.
es geht hier nicht/weniger um ATi.
Und das du jetzt wieder auf den 3dmark pochst obwohl es um DAWN und die unterschiedliche Bildqualität bei unterschiedlichen FX-Karten geht, verstehe ich einfach nicht. Also bleib plz ontopic.

MfG,
Obligaron

ow
2003-04-30, 11:44:40
Originally posted by Obligaron


dann nenn es halt OFF-TOPIC!!
es geht hier nur um DAWN, auch wenn der Thread startet kurz spekuliert hat ob das mit dem 3dmurks zu tun hat.

MfG,
Obligaron


Der TI hat eine ganz klare Frage gestellt ("gibt es da einen Zusammenhang?") und diese Frage habe ich beantwortet (indirekt).
NEIN es gibt da keine Zusammenhang.

Mr. Lolman
2003-04-30, 11:45:41
Man sollte alle bis auf die ersten 3 Postings trashen, und IMHO sollte ow seine 3dmark-antwort ein bisschen anders formulieren, damit dieses Thema wirklich abgehakt bleibt.

seahawk
2003-04-30, 11:46:12
Fehlen da Texturen ??

Aber immerhin kann die FX das Demo darstellen. Ob das Dawn-Demo wohl unterschiedliche FX-Kartne erkennt ??

StefanV
2003-04-30, 11:48:58
Originally posted by seahawk
Fehlen da Texturen ??

Aber immerhin kann die FX das Demo darstellen. Ob das Dawn-Demo wohl unterschiedliche FX-Kartne erkennt ??

1. so schauts fast aus, siehe z.B. die leicht durchsichtigen Flügel von Dawn.

2. naja, wie es auch immer sein mag, angeschissen hat NV sich in beiden Fällen (Problem mit DX9 und der FX5200 oder Dawn reduziert die Details)...

Hm, hat schon wer bei NV nachgefragt ??

ow
2003-04-30, 11:49:22
Originally posted by seahawk
Fehlen da Texturen ??

Aber immerhin kann die FX das Demo darstellen. Ob das Dawn-Demo wohl unterschiedliche FX-Kartne erkennt ??


SIeht imo nach fehlerhaften PS-Operationen aus. Dawns Fluegel sind afaik gepixelshaded;).

Mr. Lolman
2003-04-30, 11:50:09
QUOTE]Originally posted by seahawk
...
Ob das Dawn-Demo wohl unterschiedliche FX-Kartne erkennt ?? [/QUOTE]


Ich denke, dass das über den Treiber erledigt wird. IMHO gibts sowohl bei ATi als auch bei NV für diverse Programme als auch Spiele eigene Erkennungsroutinen in den Treibern (wurde ja beim Q3a Cheat erstmals wirklich deutlich)

Iceman346
2003-04-30, 11:50:55
Ausserdem scheint auf dem 5200er Bild das Licht zu fehlen was auf dem anderen Bild vorhanden ist. ka ob das auch eine "Optimierung" ist.

[dzp]Viper
2003-04-30, 11:53:45
aber auch die lichtverhältnisse auf der dawn (gesichts und halsbereich) sehen anders aus ....

bei der gefx5200 sieht das so .. monoton aus - ohne schatten
bei dem anderen bild, gibt es verdunkelungen und schattierungen ...

woran wohl das liegt ?

edit: da war iceman wohl 2 min schneller *gg*

seahawk
2003-04-30, 11:54:55
Originally posted by ow



Sieht imo nach fehlerhaften PS-Operationen aus. Dawns Fluegel sind afaik gepixelshaded;).

Ich hatte auch an die Shader gedacht. Werden vielleicht Teile der Vertex/Pixelshader 2.0+ (erweiterter Bereich) Fähigkeiten genutzt, diese sind auf der FX5200 aber nicht vorhanden ??

Obligaron
2003-04-30, 11:56:31
Originally posted by seahawk


Ich hatte auch an die Shader gedacht. Werden vielleicht Teile der Vertex/Pixelshader 2.0+ (erweiterter Bereich) Fähigkeiten genutzt, diese sind auf der FX5200 aber nicht vorhanden ??

Nicht vergessen, vielleicht lässt NV einfach nur die Demo mit weniger Details laufen damit es immernoch flüssig ist. Währe auch denkbar.

MfG,
Obligaron

DrumDub
2003-04-30, 11:57:40
@ow
nicht umsonst hab ich in dem zusammenhang problem in anführungsstrichen gesetzt. mir ging es ja auch nur um die tatsache, dass hier eine ähnliche reduktion der bildqualität auftritt, wie im mother nature demo... anscheinend sind bei dem dawn demo die ps/vs 2.0 funktionen bei der fx 5200 nicht (voll) aktiviert...

edit: da waren wieder alle anderen schneller... *g*

seahawk
2003-04-30, 11:58:18
Absolut möglich und wahrscheinlich. Dawn fordert ja ne 5600 + 5800 schon ziemlich ...

Mr. Lolman
2003-04-30, 11:58:56
Originally posted by DrumDub
...ähnliche reduktion der bildqualität auftritt, wie im mother nature demo...

...aber aus einer anderen Ursache heraus.

seahawk
2003-04-30, 11:59:37
Originally posted by DrumDub
@ow
nicht umsonst hab ich in dem zusammenhang problem in anführungsstrichen gesetzt. mir ging es ja auch nur um die tatsache, dass hier eine ähnliche reduktion der bildqualität auftritt, wie im mother nature demo... anscheinend sind bei dem dawn demo die ps/vs 2.0 funktionen bei der fx 5200 nicht voll aktiviert...

Das ist nicht so einfach zu folgern. Oder weißt Du welche Funktionen für die Flügel genutzt werden ??

zeckensack
2003-04-30, 12:01:24
Leider hat TR nicht geschrieben, wie dieses Bildchen entstanden ist.

Es könnte genausogut sein, daß die Jungens einfach an den Einstellungen gedreht haben (die Dawn-Demo hat AFAIK jede Menge Regler für die verschiedenen Effekte), um einfach demonstrativ einen 'Low-Endigeren' Eindruck zu produzieren - wobei ich keine böse Absicht unterstelle, sondern einfach nur die fehlenden Angaben dazu blöd finde.

IMO ein Mißverständnis.

Und ad 3DMark,
das hatten wir echt schon. Pixel Shader 1.4 sind auf FX-Karten nicht Overbright-tauglich. Die DX-Spec schreibt dies auch nicht vor, stattdessen gibt es eine Abfragemöglichkeit für Programme, mit der sich das zur Laufzeit herausfinden lässt. 3DMark03 geht einfach ohne Checks davon aus, daß Overbrights auf allen Karten mit PS1.4 funzen.

Können wir das 3DM-Thema damit bitte beenden?

Update: jetzt mit noch besserer Rechtschreibung!

AlfredENeumann
2003-04-30, 13:01:26
ACK Zecki,

vielleicht könnte Quasar es mal testen und ein paar bilder posten.

Demirug
2003-04-30, 13:25:20
Also Dawn gibt es in 2 Varianten (die normale und die "ultra") wann allerdings welche benutzt wird kann ich nicht sagen und ich habe auch keine Lust mich durch 11000 Zeilen Assemblercode zu wühlen um das herauszufinden.

und ja zwischen der normalen und der Ultra gibt es unterschiede bei den Flügeln. Die Ultra benutzt dort einen 2 Pass Shader und die normale arbeitet nur mit einem Pass.

Razor
2003-04-30, 13:44:23
Originally posted by Demirug
Also Dawn gibt es in 2 Varianten (die normale und die "ultra") wann allerdings welche benutzt wird kann ich nicht sagen und ich habe auch keine Lust mich durch 11000 Zeilen Assemblercode zu wühlen um das herauszufinden.

und ja zwischen der normalen und der Ultra gibt es unterschiede bei den Flügeln. Die Ultra benutzt dort einen 2 Pass Shader und die normale arbeitet nur mit einem Pass.
Nun ja, die 'ultra'-Variante wird mit dem Paramter 'args_ultra.txt' aufgerufen...
../models/fairy_ultra.nmb // fairy model and flirt anim
../models/branch.nmb // the branch
../models/sunning.nmb // sunning animation
1024 768 // Window width/height
32 24 0 // color / z / stencil depth
0 // number of samples per pixel (0 == 1)
true // are we fullscreen?
true // are we the 'ultra' dataset?
Und der einzige Unterschied zu der default-seitig angezogenen "args.txt" ist das unterstrichene 'true' in den Parametern.

Also für mich sieht das so aus, als ob die Pixel-Shader nicht korrekt arbeiten würden. Und da Dawn kein Benchmark und die Optik zu unterschiedlich ist, schließe ich einfach mal eine 'Optimierung' kategorisch aus.

Mich würde ein Test von einem FX5200-Besitzer auch mal interessieren, ob sich dieses Problem reproduzieren läßt, denn schließlich geht TR ja nicht einmal in einer einzigen Silbe darauf ein, sondern stellt diese Bilder einfach wortlos gegenöber (wenn ich den nur quer gelesenen Text richtig verstanden habe ;-).

Interessant wäre hier auch die Quali-Einstellung in den Treibern gewesen, etc...
Aber so, ganz ohne Informationen, würde ich erst einmal einen Bug vermuten.

Bis denne

Razor

Demirug
2003-04-30, 13:47:40
Es gibt noch einen Unterschied. Die Ultraversion benutzt ein Model von Dawn mit etwa doppelet so vielen Verticens.

Razor
2003-04-30, 13:53:29
Originally posted by Demirug
Es gibt noch einen Unterschied. Die Ultraversion benutzt ein Model von Dawn mit etwa doppelet so vielen Verticens.
Ich bezog mich lediglich auf die Startparameter. So muss man also schon absichtlich den Ultra-Modus wählen, um diesen zu erhalten. Weder der Treiber, noch die Engine werden daran was ändern können...
;-)

Aber klar und zusätzlich sind's dann 4 oder 5 Dawns, statt nur einer in der 'Standard'-Variante...

Razor

Demirug
2003-04-30, 14:14:09
So ich habe mich jetzt mal ein bischen durch die Shader und Texture gewühlt.

Das die Flügel unterschiedlich aussehen liegt vermutlich daran das unterschiedliche Texturen benutzt wurde. Merkwürdigerweise gibt es für die Flügel zwei Texturesätze. Einen mit relative harten konturen und kräftigen Farben und einen zweitem den man scheinbar duch den Weichezeichner gejagt hat.

Razor
2003-04-30, 14:31:39
Originally posted by Demirug
So ich habe mich jetzt mal ein bischen durch die Shader und Texture gewühlt.

Das die Flügel unterschiedlich aussehen liegt vermutlich daran das unterschiedliche Texturen benutzt wurde. Merkwürdigerweise gibt es für die Flügel zwei Texturesätze. Einen mit relative harten konturen und kräftigen Farben und einen zweitem den man scheinbar duch den Weichezeichner gejagt hat.
Und es ist nicht ersichtlich, welcher Satz wann benutzt wird ?
???

Razor

Demirug
2003-04-30, 14:33:53
Originally posted by Razor

Und es ist nicht ersichtlich, welcher Satz wann benutzt wird ?
???

Razor

Bei denen mit dem weichzeichner steht ultra dabei. Mehr kann ich dazu auch nicht sagen.

Razor
2003-04-30, 14:35:42
Originally posted by Demirug

Bei denen mit dem weichzeichner steht ultra dabei. Mehr kann ich dazu auch nicht sagen.
Nanü...
Etwa einen kleinen Schummler bei nVidia gefunden ?
:D

Bis denne

Razor

seahawk
2003-04-30, 15:34:54
Also ist zu vermuten, dass die Struktur der Ultraflügel durch die Shader gemacht wird. Daher die "unscharfe" Textur.

Die andere verwendet wahrscheinlich keine Shader und nur die einfache Textur.

Was das mit schummel zu tun hat weiß ich nicht. So sieht man wenigstens einen Unterschied zwischen Dawn FX5800 und Dawn FX5200. Ist besser las wenn Dawn gleich wäre und auf der FX5200 mit 0,5 fps liefe.

DrumDub
2003-04-30, 16:11:30
also die argumentation raff ich nicht, seahawk. bei dem dawn-demo handelt es sich um ein tech-demo, dass die features einer karte(ngeneration) zeigen soll und nicht die speed. wenn das demo auf ner 5200 zu langsam ist, dann isses halt zu langsam. aber dann einfach die effekte rausuzuschmeissen ist für mich schon ziemlich daneben...

Demirug
2003-04-30, 16:16:46
Originally posted by seahawk
Also ist zu vermuten, dass die Struktur der Ultraflügel durch die Shader gemacht wird. Daher die "unscharfe" Textur.

Die andere verwendet wahrscheinlich keine Shader und nur die einfache Textur.

Was das mit schummel zu tun hat weiß ich nicht. So sieht man wenigstens einen Unterschied zwischen Dawn FX5800 und Dawn FX5200. Ist besser las wenn Dawn gleich wäre und auf der FX5200 mit 0,5 fps liefe.

Ein Pixelshader wird defintive immer benutzt. Aufgrund des PerPixel Light geht das ja auch nicht anders.

Riptor
2003-04-30, 16:29:10
Originally posted by Demirug
Bei denen mit dem weichzeichner steht ultra dabei. Mehr kann ich dazu auch nicht sagen.

Ultra? Wofür steht das "Ultra"? Bzw.: Was für Auswirkungen hat das auf die Hardware? Nur FX 5800? AUCH 5600? Nur die "Ultra-Versionen"?

Tiamat
2003-04-30, 16:34:03
Ich denke mal eher Dawn Ultra ..
Solange da nicht eine Zeile im Tech-report drüber steht und es noch nicht ein Fx5200 User nachvollzogen hat ,halte ich davon nicht mehr als "THG ,wenn der Kühler abfällt ;D "

Quasar
2003-04-30, 16:40:41
:lol:

Nein, testen kann ich erst Freitag wieder.... Heute komm' ich nicht mehr nach Hause und morgen ist der Tag der Arbeit, da muss ich gegen Schröders Sozialabbau demonstrieren. ;)

Und ja, es gibt zwei Dawn-Varianten, wie Demi schon sagt und auch Razorle.
Bis auf den Wireframe-Modus hab ich die aber noch nicht genauer angeschaut, werd's aber definitiv nachholen.


Und zu Dawn "ultra":

Vielleicht eine kleine Reminiszenz an ein gewisses Geschirrspümittel? Dawn ist ihres Zeichens ja immerhin eine gut bestückte Waldfee, in Fachkreisen auch "Fairy" genannt. ;)

Riptor
2003-04-30, 16:47:59
Originally posted by Quasar
Und zu Dawn "ultra":

Vielleicht eine kleine Reminiszenz an ein gewisses Geschirrspümittel? Dawn ist ihres Zeichens ja immerhin eine gut bestückte Waldfee, in Fachkreisen auch "Fairy" genannt. ;)

:D *muhahahahaha* :D

Der war GUT! Würde einiges erklären! :D ;)

Razor
2003-04-30, 19:14:09
Bevor ich jetzt die eingegangenen Posts zu diesem Thema sichte...
;-)

Demirug hat vollkommen recht gehabt.
TR hat offensichtlich "Dawn" und "Dawn ultra" miteinander verwechselt.

"Dawn" ist die Standard-Variante, die nicht ganz so viel her macht:

Razor
2003-04-30, 19:14:22
"Dawn ultra" hingegen die FullFeatured-Variante, die richtig was her macht:

Razor
2003-04-30, 19:18:13
Und bevor hier irgendwelche dummen Fragen kommen...
Ja, ich hab' mir jetzt eine Club3D FX5200 alias Albatron FX5200P gezogen.

Musste mir mal wieder ein kleines Spielzeug gönnen, auch, um die Wartezeit auf eine 'richtige' Karte zu überbrücken. Schun' wir mal, bin schon sehr gespannt, was sich bei der Sichtung der 'Kleinen' (nicht Dawn ;-) so alles heraus stellen wird...

Bis denne

Razor

P.S.: Eines schon vorweg... sie ist passiv gekühlt und hat 3,6ns Hynix Speicher druf'...
:D

Razor
2003-04-30, 19:22:16
Originally posted by seahawk
Also ist zu vermuten, dass die Struktur der Ultraflügel durch die Shader gemacht wird. Daher die "unscharfe" Textur.

Die andere verwendet wahrscheinlich keine Shader und nur die einfache Textur.

Was das mit schummel zu tun hat weiß ich nicht. So sieht man wenigstens einen Unterschied zwischen Dawn FX5800 und Dawn FX5200. Ist besser las wenn Dawn gleich wäre und auf der FX5200 mit 0,5 fps liefe.
Tja, leider daneben geraten...

Wie schon oben geschrieben ist "Dawn ultra" das, was allgemeinhin unter "Dawn" verstanden wird und "Dawn" halt etwas, was das Netz bisher (AFAIK) noch nicht zu sehen bekommen hat. Das hätte TR aber auch selber heraus finden können, schließlich hätten sie dazu nur den anderen Link aufrufen müssen...

Bis denne

Razor

P.S.: Auf der FX5200 würde ich es zwar nicht gerade als 'flüssig' bezeichnen, aber so 10-15fps sind's schon (bei "Dawn ultra", im Vergleich zu den 15fpm meiner gf3 bei "Dawn")...
:D

Razor
2003-04-30, 19:25:38
Originally posted by Demirug

Ein Pixelshader wird defintive immer benutzt. Aufgrund des PerPixel Light geht das ja auch nicht anders.
Jop, ist auch so...

Aufgrund der 'einfacheren' Textur sieht's bei "Dawn" aber nicht ganz so genial aus.
Könnte mir auch vorstellen, dass "Dawn ultra" bei den Flügeln eine art BumpMapping-Struktur benutzt, da "Dawn" im Gegensatz dazu absolut glatt zu sein scheint.

Bis denne

Razor

LovesuckZ
2003-04-30, 19:25:42
@ Razor: Welche Version von Dawn wird aufgerufen beider 5200?

Demirug
2003-04-30, 19:29:04
Originally posted by Razor

Jop, ist auch so...

Aufgrund der 'einfacheren' Textur sieht's bei "Dawn" aber nicht ganz so genial aus.
Könnte mir auch vorstellen, dass "Dawn ultra" bei den Flügeln eine art BumpMapping-Struktur benutzt, da "Dawn" im Gegensatz dazu absolut glatt zu sein scheint.

Bis denne

Razor

Also laut dem Shadercode haben die Flügel auch bei "Dawn" eine Bumpmap.

seahawk
2003-04-30, 19:30:12
Originally posted by Razor

Tja, leider daneben geraten...

Wie schon oben geschrieben ist "Dawn ultra" das, was allgemeinhin unter "Dawn" verstanden wird und "Dawn" halt etwas, was das Netz bisher (AFAIK) noch nicht zu sehen bekommen hat. Das hätte TR aber auch selber heraus finden können, schließlich hätten sie dazu nur den anderen Link aufrufen müssen...



Wieso daneben ?? Ich wollte nur sagen, dass es wohl Unterschiede in der Art der Darstellung der Flügel gibt.

Ich denke ja mal, dass die Ultra Variante (die hat nämlich die "unscharfe Orginaltextur" die Struktur über die Shader erzeugt.

Razor
2003-04-30, 19:36:04
Originally posted by LovesuckZ
@ Razor: Welche Version von Dawn wird aufgerufen beider 5200?
Gibt da 2 Links...

Einer, wo die "fairy.exe" ohne Parameter aufgerufen wird, i.e. "Dawn".
Der andere, bei dem o.g. Datei als Parameter mitgegeben wird und als "Dawn ultra" tituliert ist.

Razor

Razor
2003-04-30, 19:42:35
Originally posted by Demirug

Also laut dem Shadercode haben die Flügel auch bei "Dawn" eine Bumpmap.
Dann sind sie aber kaum zu sehen !

Moment... jetzt... (siehe Anhang)
(habe leider keinen Shot aus der gleichen Entfernung in der Kürze machen können)
:D

Razor

Hier mal ein 'ultra' Ausschnitt:

Razor
2003-04-30, 19:42:59
Ung gleich hinterher den 'standard':

Razor
2003-04-30, 19:45:24
Originally posted by seahawk

Wieso daneben ?? Ich wollte nur sagen, dass es wohl Unterschiede in der Art der Darstellung der Flügel gibt.

Ich denke ja mal, dass die Ultra Variante (die hat nämlich die "unscharfe Orginaltextur" die Struktur über die Shader erzeugt.
Sorry, dann hatte ich Dich falsch verstanden...

Diese Bezeichnungen "Dawn FX5200" und "Dawn FX5800" ist schlicht falsch und demnach auch irreführend. Korrekt heißt dies "Dawn" und "Dawn ultra" und sieht auf beiden Karten gleich aus.

Bis denne

Razor

Unregistered
2003-05-02, 09:49:15
Aber eben doch zwei Versionen. Eine "Dawn" ist keine "Dawn Ultra" und eine 5200 keine 5800 in Bezug auf DX9. Dass die Rohleistung einer Karte bei der Beurteilung ihrer DX9-Fähigkeiten nicht ganz unwesentlich ist, unterstreicht NVidia damit freundlicherweise selbst. Was lernen wir daraus?
In dieser Leistungsklasse spielt CineFX praktisch! keine Rolle. Die abgespeckte Dawn läßt sich bestimmt optisch gleichwertig mit DX8-Shadern auf einer 4200 realisieren.

Crushinator
2003-05-02, 10:36:43
Originally posted by Unregistered
...In dieser Leistungsklasse spielt CineFX praktisch! keine Rolle. Die abgespeckte Dawn läßt sich bestimmt optisch gleichwertig mit DX8-Shadern auf einer 4200 realisieren. Sehe ich genau so. Mich würde es aber trotzdem nicht wundern, wenn diese wirklich sinnlose Karte (5200) trotzdem eine "Beliebtheit" a la GF4MX erreichen wird. "Dummheit des Verbrauchers" ist nämlich nicht strafbar. :D

ow
2003-05-02, 10:40:22
Es ist mir unverständlich, dass einige immer noch nicht begriffen zu haben scheinen, für welche Zielgruppe die FX5200 gedacht ist.

Exxtreme
2003-05-02, 10:41:57
Originally posted by ow
Es ist mir unverständlich, dass einige immer noch nicht begriffen zu haben scheinen, für welche Zielgruppe die FX5200 gedacht ist.
Naja, aber diese zielgruppe braucht aber eigentlich gar keine DX9-Funktionalität. Da langt auch eine GF2.

ow
2003-05-02, 10:46:06
Originally posted by Exxtreme

Naja, aber diese zielgruppe braucht aber eigentlich gar keine DX9-Funktionalität. Da langt auch eine GF2.


Doch, aus Marketinggründen braucht eben gerade diese Zielgruppe DX9.

Obligaron
2003-05-02, 10:55:18
Originally posted by ow Doch, aus Marketinggründen braucht eben gerade diese Zielgruppe DX9. Jetzt nur mal weil, ich das gerade wieder hier sehe:
Es wird sehr häufig umgeschwänkt bei der Begründung, die einen Begründen etwas mit Argumenten, was der User eigentlich braucht, und die anderen mit Argumenten, weso sich die Karte gut verkaufen lassen kann.
Wir wir wissen ist das nicht das selbe. Denn ob jetzt ein erfahrener User eine Karte kauft, weil er weiss das sie ein gutes P/L-Verhältnis hat oder ob ein unerfahrener User die Karte kauft, weil da DX9 draufsteht, ist doch wohl ein Riesenunterschied. Und gerade das bringt Diskussionen imho etwas in die Länge und die Leute labern (teilweise) aneinander vorbei.

Um jetzt nochmal zum Thema zurückzukommen:
Ihr habt beide recht.
ow von der "DX9 ist cool man"-Seite und Exxtreme von der "Ich weiss was das beste P/L-Verhältnis ist und das meine GraKa für DX9 zu lahm ist."

MfG,
Obligaron

Unregistered
2003-05-02, 10:55:37
Originally posted by ow



Doch, aus Marketinggründen braucht eben gerade diese Zielgruppe DX9.

*keine Beleidigungen hier* *ow*

Demirug
2003-05-02, 11:08:01
Seid ihr schon wieder bei euerem neuen Lieblingsthema!?

Ich verstehe die Aufregung ehrlich gesagt nicht. Es wird doch niemand gezwungen sich eine 5200 zu kaufen. Ich habe ja schonmal die Fragen gestellt auf die niemand antworten wollten.

"Welcher persönlich Nachteil ergibt sich für den einzelnen durch die Exsitens der 5200?"

"Welche Auswirkungen hat die 5200 auf den Gesamtmarkt und das was von diesem Markt abhängt?"

Obligaron
2003-05-02, 11:12:24
Demirug, ich glaub die wollen einfach, das der jeweilige Hersteller den 'Kampf' in dieser Preisregion gewinnt, damit die eine Gruppen sich über die andere Gruppe belustigen kann :D.
Oder vll wollen sie darauf eingehen, wer so 'blöd' ist, sich solch eine Karte zu kaufen?

Naja, ich weiss es nicht.

MfG,
Obligaron

Unregistered
2003-05-02, 11:12:49
Originally posted by ow



Doch, aus Marketinggründen braucht eben gerade diese Zielgruppe DX9.

Aber du merkst schon, daß du manchmal etwas 'wirr' argumentierst.

(Wenn ich untertänigster Weise meine Kritik so äußern dürfte, Ihre Modschaft.)

ow
2003-05-02, 11:14:54
Originally posted by Unregistered


Aber du merkst schon, daß du manchmal etwas 'wirr' argumentierst.


???
inwieferen?

Labberlippe
2003-05-02, 11:17:20
Originally posted by Demirug
Seid ihr schon wieder bei euerem neuen Lieblingsthema!?

Ich verstehe die Aufregung ehrlich gesagt nicht. Es wird doch niemand gezwungen sich eine 5200 zu kaufen. Ich habe ja schonmal die Fragen gestellt auf die niemand antworten wollten.

"Welcher persönlich Nachteil ergibt sich für den einzelnen durch die Exsitens der 5200?"

"Welche Auswirkungen hat die 5200 auf den Gesamtmarkt und das was von diesem Markt abhängt?"

Keine.

Punkt 1. was juckt es mich wenn jemand eine FX 5200 hat.
Punkt2. Je grösser die HW Verbreitung, desto eher sehen wir mal vernünftige Effekte auf DX9 Basis.

Gruss Labberlippe

Unregistered
2003-05-02, 11:20:56
Originally posted by Unregistered


*keine Beleidigungen hier* *ow*

Sind wir heute wieder besonders zartfühlend uns selber gegenüber?! Wüsste nicht, was an 'Schnulli' so zensur-würdig ist... . Such doch mal ein paar Antworten von dir, da findest du mit Sicherheit härteren Tobak als obiges.

LovesuckZ
2003-05-02, 11:21:55
Originally posted by Obligaron
Demirug, ich glaub die wollen einfach, das der jeweilige Hersteller den 'Kampf' in dieser Preisregion gewinnt, damit die eine Gruppen sich über die andere Gruppe belustigen kann :D.


Naja, viele Argumente sind einfach "falsch" und zeigen die 2 Geschichter der ATI Juenger :D

ow
2003-05-02, 11:28:43
Originally posted by Unregistered


Sind wir heute wieder besonders zartfühlend uns selber gegenüber?! Wüsste nicht, was an 'Schnulli' so zensur-würdig ist... . Such doch mal ein paar Antworten von dir, da findest du mit Sicherheit härteren Tobak als obiges.

jetzt pass mal auf:

entweder du schreibst hier was zum thema oder du lässt es sein, dumm anflamen lass ich mich hier nicht.

Obligaron
2003-05-02, 11:32:40
Originally posted by LovesuckZ
Naja, viele Argumente sind einfach "falsch" und zeigen die 2 Geschichter der ATI Juenger :D Naja, ich sag mal nix zu, ich habe absichtlich keine Firmen/Gruppen-Namen eingesetzt ;).

Eazy
2003-05-02, 11:32:55
Originally posted by ow



Doch, aus Marketinggründen braucht eben gerade diese Zielgruppe DX9.

Das Marketing ist wohl der einzigste Grund, eine FX 5200 rauszubringen! Das FX im Namen wird vielleicht ein paar dumme Käufer bringen. Für DirectX 9 Spiele wird die FX5200 eh zu lahm sein!
Alle anderen kaufen in dieser Klasse entweder eine Ti4200 (etwas teurer) oder sonst eine Radeon 9000 Pro!

Für die GeForce FX Serie spricht zur Zeit absolut gar nichts!
ATIs Radeons (ab 9500 Pro) sind zur Zeit in jeder Kategorie überlegen.
Sobald nVidia aber die neuen GeForce Karten mit 256 Bit Speicherinterface rausbringt, werden sie die Wachablösung ziemlich sicher schaffen!
Mal schauen ob ATI dann was nachlegen kann?

Die Konkurrenz ist für den Kunden aber das Beste was passieren kann! (Viel Wettbewerb = günstige Preise)

Gruß
Eazy

Labberlippe
2003-05-02, 11:38:35
Originally posted by LovesuckZ


Naja, viele Argumente sind einfach "falsch" und zeigen die 2 Geschichter der ATI Juenger :D

Das sagt genau der richtige... :D

Gruss Labberlippe

Crushinator
2003-05-02, 11:39:02
Originally posted by ow ...
Es ist mir unverständlich, dass einige immer noch nicht begriffen zu haben scheinen, für welche Zielgruppe die FX5200 gedacht ist. Hmmm...irgendwie verstehe ich nicht, warum hier "Einigen" unterstellt wird, daß sie nicht "begriffen" hätten, für wen die Karte gedacht sei. Ich bin schon der Minung, daß es alle hier anwesenden begriffen haben. Nur sind sich die meisten (egal aus welchem Lager) nicht besonders einig darüber, ob diese Karte einen anderen Sinn hat als den Leuten etwas zu verkaufen, was sie erstens nicht "brauchen" und zweitens mangels Performance sinnvoll nutzen könnten. Vom Preis her ganz zu schweigen.

...und daraus wieder einen Flamewar zu starten, ist ja mal wieder typisch. :(

ow
2003-05-02, 11:41:13
Originally posted by crushinator
Hmmm...irgendwie verstehe ich nicht, warum hier "Einigen" unterstellt wird, daß sie nicht "begriffen" hätten, für wen die Karte gedacht sei. Ich bin schon der Minung, daß es alle hier anwesenden begriffen haben. Nur sind sich die meisten (egal aus welchem Lager) nicht besonders einig darüber, ob diese Karte einen anderen Sinn hat als den Leuten etwas zu verkaufen, was sie erstens nicht "brauchen" und zweitens mangels Performance sinnvoll nutzen könnten. Vom Preis her ganz zu schweigen.

...und daraus wieder einen Flamewar zu starten, ist ja mal wieder typisch. :(


Was braucht denn eine OEM PC deiner Meinung nach? Keine Grafikkarte?

Obligaron
2003-05-02, 12:39:03
Originally posted by ow
Was braucht denn eine OEM PC deiner Meinung nach? Keine Grafikkarte?
...
ow, ich denke du weisst auf was er rauswill.
Um nur ein ordnungsgemässes Bild abzuliefern braucht man halt keine 100€-Karte. Is nunmal so.

MfG,
Obligaron

P.S: Jetzt mal Longhorn mit DX9 Beschleunigung nicht erwähnt

Richthofen
2003-05-02, 12:51:34
eine normale Karte verkauft sich aber nicht.

Der Kunde möchte Features, sowohl DX9 als auch Anschlüsse und ähnliches und er möchte dafür nicht viel zahlen.
Da ist doch die FX5200 genau das richtige.
Neuester Stand der Technik und nicht sonderlich teuer. Die OEM Karten kosten den OEM deutlich weniger als dass, was man momentan in Deutschland für die Retailkarten bezahlt. Es sind ja auch noch nicht alle im Markt drinn und Retail ist einfach mal immer teurer als OEM, weil Zwischenhändler drinn sind Verpackung, Spiele usw...

"
Für die GeForce FX Serie spricht zur Zeit absolut gar nichts!
ATIs Radeons (ab 9500 Pro) sind zur Zeit in jeder Kategorie überlegen.
Sobald nVidia aber die neuen GeForce Karten mit 256 Bit Speicherinterface rausbringt, werden sie die Wachablösung ziemlich sicher schaffen!
Mal schauen ob ATI dann was nachlegen kann?
"
Die von dir genannte Kategorie hat mit dem Thread hier nichts zu tun.
Alles ab 9500pro ist in Preisregionen die nur für 10% der käuferschicht interessant sind.

Ich weiss überhaupt nicht was sich die Leute hier so aufregen. Seid doch froh das Nvidia eine DX9 Karte im sub 100 Dollar Bereich bringt. Desto eher wird sich auf der Spieleseite bei den Entwicklern mal was bewegen. ATI bietet diese Runde eben leider nur DX8 und kann hier ergo nicht mitreden so leids mir tut.

Eazy
2003-05-02, 12:52:22
Originally posted by ow



Was braucht denn eine OEM PC deiner Meinung nach? Keine Grafikkarte?

Originally posted by ow



Was braucht denn eine OEM PC deiner Meinung nach? Keine Grafikkarte?

Wenns billig sein soll, eine onboard Graka. (Haben fast alle neuen Standard Rechner von HP/Compaq, Fujitsu Siemens...)
Oder vielleicht eine passiv gekühlte Graka fürs Büro???
Oder ne GeForce 4 MX (ca. 40 Euro) bzw. eine Radeon 7000 (unter 40 Euro) ??

Auf jeden Fall keine FX5200!!!

Gruß
Eazy

AlfredENeumann
2003-05-02, 12:56:36
Originally posted by Richthofen
Ich weiss überhaupt nicht was sich die Leute hier so aufregen. Seid doch froh das Nvidia eine DX9 Karte im sub 100 Dollar Bereich bringt. Desto eher wird sich auf der Spieleseite bei den Entwicklern mal was bewegen. ATI bietet diese Runde eben leider nur DX8 und kann hier ergo nicht mitreden so leids mir tut.

Und das beispiel mit "Dawn" und "Dawn ultra" ist doch der beweis das DX9 im LowEnd nur soviel optische Leistung bringt wie ne DX8-Karte. Was habe ich dann von "möchtegern DX9"TM ?

ow
2003-05-02, 13:05:36
Originally posted by Obligaron

...
ow, ich denke du weisst auf was er rauswill.
Um nur ein ordnungsgemässes Bild abzuliefern braucht man halt keine 100€-Karte. Is nunmal so.

MfG,
Obligaron

P.S: Jetzt mal Longhorn mit DX9 Beschleunigung nicht erwähnt


Billigeres wird aber auch in OEM PCs nicht verbaut. Wo ist da das Problem? Die OEM 5200er werden imo auch nicht mehr als 70-80€ kosten, keine 100.

ow
2003-05-02, 13:09:12
Originally posted by Eazy




Wenns billig sein soll, eine onboard Graka. (Haben fast alle neuen Standard Rechner von HP/Compaq, Fujitsu Siemens...)
Oder vielleicht eine passiv gekühlte Graka fürs Büro???
Oder ne GeForce 4 MX (ca. 40 Euro) bzw. eine Radeon 7000 (unter 40 Euro) ??

Auf jeden Fall keine FX5200!!!

Gruß
Eazy


Auch OEM PCS gehen mit der Zeit und werden nicht ewig mit TNT2M64 oder GF2/4MX ausgestattet, auch wenn diese Karten wohl ausreichten.
Vermutlich wird auf 90% der OEM PCs niemals irgendeine 3D Anwendung zu laufen kommen aber sollen deshalb wieder reine 2D Karten/Chips produziert werden?

ow
2003-05-02, 13:10:18
Originally posted by AlfredENeumann


Und das beispiel mit "Dawn" und "Dawn ultra" ist doch der beweis das DX9 im LowEnd nur soviel optische Leistung bringt wie ne DX8-Karte. Was habe ich dann von "möchtegern DX9"TM ?

Ja und?
Um die Leistung geht´s doch im low-cost Segment gar nicht.

Obligaron
2003-05-02, 13:14:36
Richthofen, mal wieder komplett die Marketingsicht im Auge, also:
1, Du hast Recht die FX 5200 erhöht den Anteil von DX9 Karten im Gesamtmarkt und dies ist ganz klar ein positiver Effekt(weil, auch laut Demirugs Aussage, Entwickler nicht so sehr auf die Performance eines Effekts, sondern eher auf deren Verbreitung schaut)
2, Also von den Mitgelieferten "Anschlüssen und ähnliches" hat die FX ja nicht unbedingt mehr als die Karten von anderen Herstellern oder? ;)
3, Und wegen DX9 Sales bei OEMs, naja... also in normalen Bürorechner... vll wenn die versuchen mit Longhorn zu argumentieren ;). Ich denke eher das Zielgebiet sind einfach Mediamarkt und co. Da lockt das DX9 Zeichen auf der Verpackung mit Sicherheit ein paar 'unerfahrene' User an.

So mal jetzt als Retail User:
1, Wenn die GraKa DX9 nicht schnellgenug darstellen kann und DX9 sowieso ewig spät rauskommt, ist mir das doch wurscht!
2, Siehe Marketingsicht
3, Interessiert mich auch nicht, ich weiss ja was ich kaufe ;).

Aber ich denke bei der FX 5200 haben wir es eher mit einer OEM-Karte zu tun, also würde ich diese Sicht der Dinge mehr in die Wagschalfe werfen, wenn es um den Erfolg der Karte geht.

MfG,
Obligaron

Obligaron
2003-05-02, 13:16:50
Originally posted by ow
Billigeres wird aber auch in OEM PCs nicht verbaut. Wo ist da das Problem? Die OEM 5200er werden imo auch nicht mehr als 70-80€ kosten, keine 100.
Ich denke das es GraKa's gibt die für unter 70-80€ zu haben sind und die auch die Bedürfnise der Bürorechner decken (z.B. Onboard).

MfG,
Obligaron

P.S: Longhorn mal wieder rausgenommen.

Endorphine
2003-05-02, 13:16:51
Mal ehrlich Leute - 80 Postings, nur weil eine nVidia-Techdemo auf der kleinsten Karte der neuesten Generation ein paar Details weglässt? Ich will ja niemanden angreifen, aber das ist doch an Uwichtigkeit gar nicht mehr zu überbieten. Können wir nicht lieber über relevante Dinge diskutieren als über solchen Schwachsinn?

ow
2003-05-02, 13:28:38
Originally posted by Obligaron

Ich denke das es GraKa's gibt die für unter 70-80€ zu haben sind und die auch die Bedürfnise der Bürorechner decken (z.B. Onboard).

MfG,
Obligaron

P.S: Longhorn mal wieder rausgenommen.


Sicher gibt´s solche Karten, die sind aber schon 2-3 Generationen alt und in OEM PCS werden zumeist doch die aktuellen low-cost Karten verbaut. Allein schon des Marketings wegen.

Obligaron
2003-05-02, 13:30:36
Originally posted by ow
Sicher gibt´s solche Karten, die sind aber schon 2-3 Generationen alt und in OEM PCS werden zumeist doch die aktuellen low-cost Karten verbaut. Allein schon des Marketings wegen.

Nene, in Mediamarkt PC's vielleicht, aber nicht in Bürorechner, da werden immernoch Intel Onboard Zeugs verbaut.

MfG,
Obligaron

Richthofen
2003-05-02, 13:43:21
Auch das ist nur teilweise richtig.
Die Anzahl der Büro PCs die trotz integrierter Grafik noch mit einer Graka ausgestattet werden steigt wieder, da Intels integrierte Grafik ihren Zenit überschritten hat.
Sie kostet nicht extra deswegen wird sie gekauft aber nicht unbedingt weil man keine Graka will.
Das sieht du leider erheblich falsch. Nvidia hat auch Zahlen die sie von OEMs bekommen haben angegeben im letzteren Conference Call dass sie mehr Grakas bei OEMs verkauft haben als eigentlich durch die normalen Lineups mit Grakas zu erwarten wäre. Die OEMs hätten rückgemeldet, dass teilweise trotz Intel Grafik zusätzliche Grakas bestellt wurden.

Obligaron
2003-05-02, 13:47:00
Naja, ich denke du hast da die besseren Infos (weil ich habe sie nicht). Ich weiss nur wie es bei uns aussieht und da ist nunmal nix los mit Geforce oder sonstwas.
Aber könntest du mir mal genau sagen welchen Vorteile ein Bürorechner mit einer Geforce FX oder anderen neuartigeren GraKa hat im Vergleich zu einer Intel Onboard LÖsung.
Danke.

MfG,
Obligaron

Labberlippe
2003-05-02, 13:50:14
Originally posted by ow



Was braucht denn eine OEM PC deiner Meinung nach? Keine Grafikkarte?

Momentan werden fest Radeon 9000LE verbaut.
Wir haben im Geschäft gerade einen HP Rechner mit dieser Karte.
Wobei die Karte im 3DMark2001 eine überraschend gute Leistung mit 7089 Marks gebracht hat.

Gruss Labberlippe

Eazy
2003-05-02, 14:01:02
Hi,

bei uns (einer der 3 größten Konzerne Deutschlands) werden oft zusätzlich zur Onboard Graka passiv gekühlte GeForce 2 MX 200 verbaut.
Vielleicht deswegen, weil die Standardmäßig einen DVI Ausgang haben (Analog geht nur mit Adapter)

Zur Zeit ist bei uns der Compaq Evo D510 der neue Standardrencher.
(P4 1,8 GHz, 512MB/1GB RAM, 40GB HD, Onboard Grafik ist glaub von irgendeinem Intel Chipsatz)
Mit HP/Compaq sind wir aber unzufrieden, deswegen könnte bald wieder mehr Fujitsu Siemens zum Einsatz kommen!

Gruß
Eazy

LovesuckZ
2003-05-02, 14:11:16
Originally posted by Obligaron
So mal jetzt als Retail User:
1, Wenn die GraKa DX9 nicht schnellgenug darstellen kann und DX9 sowieso ewig spät rauskommt, ist mir das doch wurscht!


Jede Low-End Karte der letzten Jahre reicht nicht, um Spiele ihres technologie Standes in vernuenftigen Optik und FPS darzustellen. Soll man nun diese Karte von vorne rein nicht produzieren und eher auf 2DKarten setzen? Wie schnell wuerde sich dann die Grafik in Games weiter entwickeln, wenn immer nur die Karten >200€ neuste Technik besitzen und alles dadrunter nur für das Schreiben reiche.

Obligaron
2003-05-02, 14:15:18
Originally posted by LovesuckZ
Jede Low-End Karte der letzten Jahre reicht nicht, um Spiele ihres technologie Standes in vernuenftigen Optik und FPS darzustellen. Soll man nun diese Karte von vorne rein nicht produzieren und eher auf 2DKarten setzen? Wie schnell wuerde sich dann die Grafik in Games weiter entwickeln, wenn immer nur die Karten >200€ neuste Technik besitzen und alles dadrunter nur für das Schreiben reiche.
...
ich quote mich mal selbst (aus dem selben post wo du mich gequotet hast!):

Originally posted by Obligaron
Richthofen, mal wieder komplett die Marketingsicht im Auge, also:
1, Du hast Recht die FX 5200 erhöht den Anteil von DX9 Karten im Gesamtmarkt und dies ist ganz klar ein positiver Effekt(weil, auch laut Demirugs Aussage, Entwickler nicht so sehr auf die Performance eines Effekts, sondern eher auf deren Verbreitung schaut)


Also habe ich das schon berücksichtigt, aber den normalen User (sollte) einen das weniger intressieren, deswegen steht das eine bei mir auch unter 'Marketingsicht' und das andere unter 'Usersicht'.

MfG,
Obligaron

Unregistered
2003-05-02, 14:16:19
Was heisst eigentlich "zukunftsicher"? Ist eine Karte genau dann "zukunftsicher", wenn auf ihr für DX9-Hardware geschriebene Spiele (vielleicht Doom4 für DX9 :) ) in 1024x768 laufen? Betrachtet man die DX9-Karten relativ zueinander, so ist die FX5200 die die am wengisten "zukunftsicherer" DX9-Karte. Andererseits ist auch fragwürdig, ob eine 9800Pro/5800Ultra "Doom4-zukunftsicher" wäre. Die Vergangenheit sagt eigentlich eher das Gegenteil aus. Bei welcher Leistung DX9-Karten als "zukunftsicher" gelten können, ist eigentlich höchst subjektiv und gegenwärtig bestimmt nicht abzuschätzen. So gesehen kann man NVidia nicht nachsagen, sie würden absichtlich die Käufer täuschen!

Auf der anderen Seite tun nur die Käufer Leid, die nach einer günstigen DX9-Lösung greifen, aber bestenfalls DX8-Mittelmass vorfinden werden. Die FX5200 wird wahrscheinlich schon an "echten" DX8-Spielen scheitern und die Entäuschung der Käufer wird groß sein.

Ich glaube, die 5200 wird wegen ihrer Rohleistung gar nichts zu DX9-Entwicklung beitragen können. Spiele für DX9-Hardware werden die Karte erkennen und ihr bestenfalls DX8 abverlangen. Die FX5200 wird von den Entwicklern bezüglich DX9 ignoriert werden.

LovesuckZ
2003-05-02, 14:20:50
@ Obligaron

Ich beziehe mich genau auf den Punkt:Retailuser sind meistens die Spielefanatiker, die wünderschoene Grafik haben wollen, natuerlich die Story nicht außen vorgelassen. Wenn nun diese leute sagen, dass keine Low-End 3D Karten notwendig seien, stechen sie sich doch in das eigene Fleisch. Ausserdem sollte es doch dieser Gruppe egal sein, wie gut die "Pixelshader-Leistung" der unteren Karten sei, wenigsten sie stellen eine vernuenftige Basis, dass "wir" schoenere Spiele bekommen.

Obligaron
2003-05-02, 14:26:12
LovesuckZ, schon klar. Ich stimm dir auch zu. Aber als User musst dich halt entscheiden: Jetzt vernünftige(bzw. bessere Leistung) oder allen Leuten eine bessere Grafikprach, irgendwann, bringen. Weil mit den jetztigen Low-Cost-DX9-Karten (sprich FX 5200), wirst du diese Spiele wohl sehr wahrscheinlich nicht 'schön' geniessen können.

Crushinator
2003-05-02, 14:28:39
Originally posted by Unregistered ...
Ich glaube, die 5200 wird wegen ihrer Rohleistung gar nichts zu DX9-Entwicklung beitragen können. Spiele für DX9-Hardware werden die Karte erkennen und ihr bestenfalls DX8 abverlangen. Die FX5200 wird von den Entwicklern bezüglich DX9 ignoriert werden. Sehr schön. Du hast es auf den Punkt gebracht. Ich hätte es z.B. auch wesentlich besser gefunden, wenn es nur noch Karten der Leistungsklasse 5600/9600 bzw. aufwärts geben würde. Das würde in meinen Augen mehr zur Verbreitung von echten DX9-Speilen beitragen als diese "taugenix" Karten, die sich zwangsläufig maßenweise verbreiten würden.

LovesuckZ
2003-05-02, 14:33:38
Originally posted by Obligaron
Weil mit den jetztigen Low-Cost-DX9-Karten (sprich FX 5200), wirst du diese Spiele wohl sehr wahrscheinlich nicht 'schön' geniessen können.

Das ist bei allen Low-End Karten (außer der GF4MX) so. Eine GF2MX reicht nicht fuer richtige DX7 Spiele wie UT2003 oder Morrowind ohne Pixelshader.
Eine 9000 kann grad mal den Naturetest des 3DMark2001 in ausreichender Geschwindigkeit darstellen usw.
Das wird auch bestimmt so weiter gehen, wenn nicht mal kleinere Firmen etwas unternehmen und somit die groeßeren zwingen ihre Strategie um zudenken.

Crushinator
2003-05-02, 14:35:56
Originally posted by ow
Obligaron: "Ich denke das es GraKa's gibt die für unter 70-80€ zu haben sind und die auch die Bedürfnise der Bürorechner decken"

Sicher gibt´s solche Karten, die sind aber schon 2-3 Generationen alt und in OEM PCS werden zumeist doch die aktuellen low-cost Karten verbaut. Allein schon des Marketings wegen. Ja, schon klar. Nur argumentieren "wir" aus der Sicht des Verbrauchers und "uns" ist es sowas von Bratkartoffel, was das Marketing dazu sagt. Wir sind ja schließlich nicht bei nVidia und/oder bei ATI angestellt. ;)

Demirug
2003-05-02, 14:36:07
Mit welcher DX7 Karten der ersten Generation kann man die jetzt erscheinenden ersten echten DX7 Spiele den noch "schön" geniessen?

Das ist doch alles eine Frage des Masstabs. Hier im Forum wird darüber disskutiert ob den eine 9700 Pro schnell genug für DOOM III ist wobei id doch schon gesagt hat das eine GF1 ausreicht. Was natürlich in den augen der meisten hier absolute Lächerlich sein dürfte und doch wird es Leute geben die auf einer GF1 DOOM III spielen werden.

Obligaron
2003-05-02, 14:37:44
LovesuckZ, wegen deinem Satz "Das ist bei allen Low-End-Karten so", ich würds mal so sagen: Dann würde ich halt die Karte kaufen die atm die beste Leistung bietet, damit ich möglichst lange mit ihr zocken kann.

und wegen dem zwingen...
ka wie man das hinkriegen soll, das alle jetzt nurnoch DX9 und vll noch 'schnelle' 3d Beschleuniger rausbringen. Kann ich mir aber kaum vorstellen.

MfG,
Obligaron

LovesuckZ
2003-05-02, 14:40:09
Originally posted by Obligaron
LovesuckZ, wegen deinem Satz "Das ist bei allen Low-End-Karten so", ich würds mal so sagen: Dann würde ich halt die Karte kaufen die atm die beste Leistung bietet, damit ich möglichst lange mit ihr zocken kann.


Ergo, keinen technologischen Fortschritt im Low-End? So interpretiere ist das. Da aber nur die wenigsten Leute mehr als 150€ fuer Hardware ausgeben, werden wir wohl nie weiter kommen.

Crushinator
2003-05-02, 14:40:21
Originally posted by Demirug
Mit welcher DX7 Karten der ersten Generation kann man die jetzt erscheinenden ersten echten DX7 Spiele den noch "schön" geniessen?
... Mit Keinen. Deshalb stellt man den Sinn einer FX5200 ja auch in Frage. Denn die ersten DX7-Karten haben gehörig dazu beigetragen, daß die dazugehörigen Spiele erst so spät auf den Markt kamen, oder nicht? :|

Demirug
2003-05-02, 14:41:51
Originally posted by crushinator
Sehr schön. Du hast es auf den Punkt gebracht. Ich hätte es z.B. auch wesentlich besser gefunden, wenn es nur noch Karten der Leistungsklasse 5600/9600 bzw. aufwärts geben würde. Das würde in meinen Augen mehr zur Verbreitung von echten DX9-Speilen beitragen als diese "taugenix" Karten, die sich zwangsläufig maßenweise verbreiten würden.

Und was würde man dann im 100€ Bereich verkaufen? Die meisten Leute haben nun mal nicht das Geld unsummen in den heimischen PC zu pumpen und 100€ sind auch nicht unbedingt wenig Geld.

Ich sage es immer wieder.

Leistung ist für die Verbreitung einer Technologie völlig egal es geht nur um die Anteile der Technologie am Gesamtmarkt.

Obligaron
2003-05-02, 14:43:28
LovesuckZ, habs doch schonmal erwähnt:

Originally posted by Obligaron
Ich stimm dir auch zu. Aber als User musst dich halt entscheiden: Jetzt vernünftige(bzw. bessere Leistung) oder allen Leuten eine bessere Grafikprach, irgendwann, bringen.

Und das muss jeder imho für sich entscheiden.

MfG,
Obligaron

Exxtreme
2003-05-02, 14:43:51
Originally posted by Demirug

Leistung ist für die Verbreitung einer Technologie völlig egal es geht nur um die Anteile der Technologie am Gesamtmarkt.
Also wenn die Firmen den Markt so einschätzen, dann wundert es es mich nicht, daß eine nach der anderen dicht macht.

Crushinator
2003-05-02, 14:47:40
Originally posted by Demirug
...
Und was würde man dann im 100€ Bereich verkaufen? Die meisten Leute haben nun mal nicht das Geld unsummen in den heimischen PC zu pumpen und 100€ sind auch nicht unbedingt wenig Geld. Richtig, ich könnte aber genau so gut behaupten, daß die 5200 heute maximal 60,- EUR kosten müßte. Andersrum könnte ich genau so gut behaupten, daß man sie genau so gut weglassen und ab 120,- EUR (Retail) "vernünftigere" Karten anbieten könnte.

Demirug
2003-05-02, 14:48:57
Originally posted by crushinator
Mit Keinen. Deshalb stellt man den Sinn einer FX5200 ja auch in Frage. Denn die ersten DX7-Karten haben gehörig dazu beigetragen, daß die dazugehörigen Spiele erst so spät auf den Markt kamen, oder nicht? :|

Nein haben sie nicht. Der Grund warum es so lange gedauert hat bis die ersten richtigen DX7 Spiele erschienen sind ist primär bei den TNT2 und den Rage 128 Pro Karten zu suchen.

Frei zitiert:

NVIDIA: Hey benutzt endlich die tollen DX7 Features unserer Karten
Entwickler: Hey hört endlich auf DX6 Karten zu verkaufen.

Demirug
2003-05-02, 14:53:23
Originally posted by Exxtreme

Also wenn die Firmen den Markt so einschätzen, dann wundert es es mich nicht, daß eine nach der anderen dicht macht.

Und nach welchem Kriterium soll man den sonst entscheiden ob man eine Technologie benutzt oder nicht? Vorallem wenn es um die Basis Technologie geht.

Das gerade so viele dicht machen hat andere gründe. Wir sind mal wieder an der entsprechenden Stelle im 5 Jahreszyklus angekommen.

Crushinator
2003-05-02, 14:55:25
Originally posted by Demirug
Frei zitiert:

NVIDIA: Hey benutzt endlich die tollen DX7 Features unserer Karten
Entwickler: Hey hört endlich auf DX6 Karten zu verkaufen. Klasse, Du hast es ja noch besser dargestellt. Nur bin ich der Meinung, daß der "Entwickler" jetzt noch eins drauf legt: "Nehmt endlich die 5200 vom Markt" Oder?

Wie dem auch sei. Wir werden wohl erst in einem Jahr erfahren, ob dann endlich echte DX8-Spiele Normalität sind -> Same procedure as every DX Year" :D

Demirug
2003-05-02, 14:57:04
Originally posted by crushinator
Richtig, ich könnte aber genau so gut behaupten, daß die 5200 heute maximal 60,- EUR kosten müßte. Andersrum könnte ich genau so gut behaupten, daß man sie genau so gut weglassen und ab 120,- EUR (Retail) "vernünftigere" Karten anbieten könnte.

Du kannst natürlich eine behauptung dieser Art aufstellen. Aber den Beweis das man eine Karte wie die 5200 für 60€ kostendeckend (und ein bischen Gewinn will ja auch noch jeder machen) herstellen und verkaufen kann wirst du woll leider schuldig bleiben müssen.

Exxtreme
2003-05-02, 15:02:04
Originally posted by Demirug


Und nach welchem Kriterium soll man den sonst entscheiden ob man eine Technologie benutzt oder nicht? Vorallem wenn es um die Basis Technologie geht.

Tschuldigung, aber wenn man nach den reinen Verkaufszahlen geht und nicht berücksichtigt, für welchen Einsatzzweck eine HW angeschafft wurde, dann bekommt man dann doch ein sehr verzehrtes Bild der Wirklichkeit. Also wenn die Firmen auch Office-PCs berücksichtigen, dann kann es kaum was werden.

Demirug
2003-05-02, 15:03:44
Originally posted by crushinator
Klasse, Du hast es ja noch besser dargestellt. Nur bin ich der Meinung, daß der "Entwickler" jetzt noch eins drauf legt: "Nehmt endlich die 5200 vom Markt" Oder?

Nein, warum denn? Das ganze ist ein kompliziertes Geflecht zwischen Entwickler, Publischer, möglichen und tatsächlichen Kunden usw.

Wie dem auch sei. Wir werden wohl erst in einem Jahr erfahren, ob dann endlich echte DX8-Spiele Normalität sind -> Same procedure as every DX Year" :D

Ein Jahr wird für echte DX8 Spiele nicht reichen. Gehe besser von 2 Jahren aus (GF4MX sei dank).

Quasar
2003-05-02, 15:06:00
Originally posted by crushinator
Klasse, Du hast es ja noch besser dargestellt. Nur bin ich der Meinung, daß der "Entwickler" jetzt noch eins drauf legt: "Nehmt endlich die 5200 vom Markt" Oder?

Wie dem auch sei. Wir werden wohl erst in einem Jahr erfahren, ob dann endlich echte DX8-Spiele Normalität sind -> Same procedure as every DX Year" :D

???
Das macht in Bezug auf
NVIDIA: Hey benutzt endlich die tollen DX7 Features unserer Karten
Entwickler: Hey hört endlich auf DX6 Karten zu verkaufen.
nicht wirklich Sinn, oder?

Welche DX10-Karten werden denn schon verkauft, dass sich Entwickler beschweren könnten, eine veraltete Technologie-Generation würde die Integration aktueller Techniken verhindern?

Demirug
2003-05-02, 15:06:32
Originally posted by Exxtreme

Tschuldigung, aber wenn man nach den reinen Verkaufszahlen geht und nicht berücksichtigt, für welchen Einsatzzweck eine HW angeschafft wurde, dann bekommt man dann doch ein sehr verzehrtes Bild der Wirklichkeit. Also wenn die Firmen auch Office-PCs berücksichtigen, dann kann es kaum was werden.

OK missverständniss.

Gesamtmarkt != Summe aller im Einsatz befindlichen Grafiklösungen

Gesamtmarkt = Summe aller im Einsatz befindlichen Grafiklösungen in PCs die möglicherweise zum Spielen benutzt werden. Also mehr oder minder alle PCs in privater Hand.

Demirug
2003-05-02, 15:12:56
Quasar, ich denke mal das crushinator davon ausgeht das den Entwicklern die 5200 zu langsam ist als das sie auf dieser DX9 Technologien einsetzen würden. Das würde sie ja damit als ernsthafte DX9 Karte unbrauchbar machen womit sie nicht besser als eine DX8 wäre.

Der Punkt dabei ist nur das man fehlende Leistung relative leicht kompensieren kann. Auflösung (Screen und Texturen), Verticens pro Polygon, Sichtweite (bei outdoor), ...

Das kompensieren von fehlender Technologie ist aber viel aufwendiger weil man in die Fallbacks wirklich arbeit investieren muss.

Crushinator
2003-05-02, 15:19:50
Originally posted by Demirug Du kannst natürlich eine behauptung dieser Art aufstellen. Aber den Beweis das man eine Karte wie die 5200 für 60€ kostendeckend (und ein bischen Gewinn will ja auch noch jeder machen) herstellen und verkaufen kann wirst du woll leider schuldig bleiben müssen. Hmmm...warum sollten MX-Karten für 40,- bis 60,- EUR "gewinnbringend" verkauft werden und gleichzeitig ein 45 Mio. Transistor "Spielzeug" wesentlich mehr in der Herstellung kosten? ???

Ich glaube eher, daß das Problem die fehlende Konkurrenz in dieser "Klasse" (DX9-tauglich) ist. Ich möchte ehrlich gesagt auch gar keine Konkurrenz dort sehen. Ich möchte am liebsten, daß diese Karten einfach nur verschwinden. Ich befürchte aber leider, daß Keiner mir DEN Gefallen tun würde. :D

Unregistered
2003-05-02, 15:21:33
Originally posted by Demirug
Mit welcher DX7 Karten der ersten Generation kann man die jetzt erscheinenden ersten echten DX7 Spiele den noch "schön" geniessen?

Das ist doch alles eine Frage des Masstabs. Hier im Forum wird darüber disskutiert ob den eine 9700 Pro schnell genug für DOOM III ist wobei id doch schon gesagt hat das eine GF1 ausreicht. Was natürlich in den augen der meisten hier absolute Lächerlich sein dürfte und doch wird es Leute geben die auf einer GF1 DOOM III spielen werden.

Danke! Ich freue mich immer ungenannt bestätigt zu werden. :)

Allerdings solltest du eine Aussnahme nicht zur Regel machen, sondern vielmehr zur Bestätigung der Regel anführen. Will heissen, die FX5200 ist aller Erkenntnis nach für DX9-Spiele unbrauchbar. Da könnte allerdings auch noch für andere DX9-Karten des Jahres 2003 gelten. Auch wenn es ein paar GF1-Besitzer geben mag, die sich an der Kombination Doom3+GF1 erfreuen können, so nehme ich an, die überwiegende Mehrheit wird mit der Kombination nicht wirklich glücklich werden.

An alle,
Was ist falsch daran, der FX5200 unter allen verfügbaren DX9-Karten die geringste DX9-Praxistauglichkeit nachzusagen? Wir schliessen einfach aus den bisherigen Erkenntnissen um DX7/8, dass dem so ist. Dieser Schluss ist korrekt und leicht nachvollziehbar. Um Verkaufszahlen geht es hier nicht und die können ist-mir-völlig-egal sein.

Unregistered
2003-05-02, 15:25:27
Originally posted by Demirug
Quasar, ich denke mal das crushinator davon ausgeht das den Entwicklern die 5200 zu langsam ist als das sie auf dieser DX9 Technologien einsetzen würden. Das würde sie ja damit als ernsthafte DX9 Karte unbrauchbar machen womit sie nicht besser als eine DX8 wäre.

Der Punkt dabei ist nur das man fehlende Leistung relative leicht kompensieren kann. Auflösung (Screen und Texturen), Verticens pro Polygon, Sichtweite (bei outdoor), ...

Das kompensieren von fehlender Technologie ist aber viel aufwendiger weil man in die Fallbacks wirklich arbeit investieren muss.

DX8-Fallback wird es bei DX9-Spielen ohnehin geben, denn DX8-Technologie wird vor DX9-Technologie genutzt werden und als "Abfall" zur Verfügung stehen. Dein Argument ist mehr als dürftig.

Crushinator
2003-05-02, 15:27:18
Originally posted by Demirug
...
Das kompensieren von fehlender Technologie ist aber viel aufwendiger weil man in die Fallbacks wirklich arbeit investieren muss. OK, das ist - so traurig es auch klingt - das einzige Argument, wogegen kein gesunder Menschenverstand (ich zähle mich mal dazu ;)) was entgegen setzen kann, außer den Wunsch zu äußern, es gäbe die 5600/9600 zu günstigeren Preisen.

LovesuckZ
2003-05-02, 15:28:43
Originally posted by crushinator
Ich glaube eher, daß das Problem die fehlende Konkurrenz in dieser "Klasse" (DX9-tauglich) ist. Ich möchte ehrlich gesagt auch gar keine Konkurrenz dort sehen. Ich möchte am liebsten, daß diese Karten einfach nur verschwinden. Ich befürchte aber leider, daß Keiner mir DEN Gefallen tun würde. :D

Wer benoetigt dann DX8 als Low-End? Niemand, richtig. Also weg damit...
Schicke Logik die einige haben. Passt mir net, weg damit.

/edit: Warum meckert eigentlich niemand über ATI's 9200? Die hat nur DX8 und ist kaum schneller als ne GF4MX...

Demirug
2003-05-02, 15:45:45
Originally posted by crushinator
Hmmm...warum sollten MX-Karten für 40,- bis 60,- EUR "gewinnbringend" verkauft werden und gleichzeitig ein 45 Mio. Transistor "Spielzeug" wesentlich mehr in der Herstellung kosten? ???

Ich glaube eher, daß das Problem die fehlende Konkurrenz in dieser "Klasse" (DX9-tauglich) ist. Ich möchte ehrlich gesagt auch gar keine Konkurrenz dort sehen. Ich möchte am liebsten, daß diese Karten einfach nur verschwinden. Ich befürchte aber leider, daß Keiner mir DEN Gefallen tun würde. :D

Der Markt bestimmt den Preis und die 5200 wird sich im laufe der Zeit auch nach unten bewegen. Bei neue Sachen zahlt man ja immer den "Neu-Aufschlag" bis man dann am ende des Produktlebens die Sachen relative günstig bekommt nur das sie endlich aus dem Lager sind. Die MX haben nun inzwischen diesen Auslaufstatus am Anfang haben die Teile auch um die 100€ gekostet.

Tiamat
2003-05-02, 15:49:35
Mein Gott !
Stand das Thema Zukunftssicherheit bei Lowcost Karten jemals zur Diskussion ?
Wenn Nvidia mit ihrer gesamten Dx9 Linie nicht die Entwicklung von Dx8/9 Games vorrantreiben kann ,wer kann es dann?
Wer gerne ein paar Frames mehr mit seiner Fx5200 hätte...kann sich ja z.b von PNY ne Fx5200 mit 300/250er Taktung zulegen ,die obendrein noch Morrorwind beeinhaltet,Das ganze für 120€.
Wem die Fx5200 net passt ,der kann sich ja gerne ne Radeon 9000Pro bulk kaufen.Die is ja so viel günstiger und besser als Fx5200 ;D
So langsam kommen mir Ati User oder sollte ich Jünger sagen vor wie die einst durchgeknallten Apple Fanatiker *kopfschüttel*

Demirug
2003-05-02, 15:51:52
Originally posted by Unregistered


DX8-Fallback wird es bei DX9-Spielen ohnehin geben, denn DX8-Technologie wird vor DX9-Technologie genutzt werden und als "Abfall" zur Verfügung stehen. Dein Argument ist mehr als dürftig.

Ein Spiel das eine DX8 Fallback hat ist nach meiner Definition kein DX9 Spiel sondern ein DX8 Spiel. Ich ordne Spiele nach der Technologischen Minimalanforderung ein nicht nach der maximalen. Denn viel mehr als ein bischen Eyecandy bekommen die Leute mit den besseren Karten in der Regel auch nicht. Es gibt natürlich Ausnahmen. Als wichtigste dürften hier Spiele zu nennen sein die ursprünglich für die XBox entwickelt und dann für den PC modifiziert wurde.

ow
2003-05-02, 15:54:58
Originally posted by Labberlippe


Momentan werden fest Radeon 9000LE verbaut.
Wir haben im Geschäft gerade einen HP Rechner mit dieser Karte.
Wobei die Karte im 3DMark2001 eine überraschend gute Leistung mit 7089 Marks gebracht hat.

Gruss Labberlippe

Ob nun Radeon9000 oder FX5200 ist doch wohl ziemlich egal. Die Spieleleistung ist im avisierten Segment doch nur von untergeordneter Bedeutung.

ow
2003-05-02, 16:01:10
Originally posted by Exxtreme

Also wenn die Firmen den Markt so einschätzen, dann wundert es es mich nicht, daß eine nach der anderen dicht macht.

???

Wie denn sonst sollten sie den Markt einschätzen?
Mehr als 3/4 des Gesamtmarktes besteht doch aus lowcost-Karten.
Nämlich sogut wie alle Komplettrechner.

Demi hat da schon recht: Nur die Verbreitung der Technologie zählt, nicht die Leistung.

Crushinator
2003-05-02, 16:02:21
Originally posted by Tiamat
...
So langsam kommen mir Ati User oder sollte ich Jünger sagen vor wie die einst durchgeknallten Apple Fanatiker *kopfschüttel* Ich nehme an, Du bist kein ATI-Jünger und Dir freiwillig eine 5200 von PNY für 120,- EUR kaufst um eine DX9-Karte zu haben? :naughty:

LovesuckZ
2003-05-02, 16:04:38
Originally posted by crushinator
Ich nehme an, Du bist kein ATI-Jünger und Dir freiwillig eine 5200 von PNY für 120,- EUR kaufst um eine DX9-Karte zu haben? :naughty:

er koennt sich auch ne überlegende 9200 kaufen, die der 5200 in allen Bereichen ueberlegen ist...

LovesuckZ
2003-05-02, 16:12:12
Wenn wir dabei sind über preise zu meckern:
http://www.preistrend.de/suchen.php3?keyword=radeon+9200&type=euro&counter=0&q=0

100€ fuerne 9000 mit AGP8 und 128MB. 75€ fuer die 64MB Version und damit 30€ teurer als ne MX440SE.
Schicke Preise die ATI da hat...

/edit: Und dabei hat ne 9000 keine Vorteile gegenueber ne MX440SE.

Crushinator
2003-05-02, 16:22:49
Originally posted by LovesuckZ
...
100€ fuerne 9000 mit AGP8 und 128MB. 75€ fuer die 64MB Version und damit 30€ teurer als ne MX440SE. Schicke Preise die ATI da hat... Klar, überteuert. Wobei ich die 9000/64 von unserem Großhändler für etwa 53,- EUR netto beziehe.
Und dabei hat ne 9000 keine Vorteile gegenueber ne MX440SE. Das wiederum möchte ich stark in Frage stellen. ;)

Richthofen
2003-05-02, 16:24:20
"
Aber könntest du mir mal genau sagen welchen Vorteile ein Bürorechner mit einer Geforce FX oder anderen neuartigeren GraKa hat im Vergleich zu einer Intel Onboard LÖsung.
Danke.
"

Mehr Leistung, Mehr Features vor allem im Bereich der Anschlüsse (VGA, DVI, TV-Out usw...). Besserer 2D Ausgang, besseres Handling über die Treiberpanel.
In der Regel der bessere Treibersupport und nicht zu letzt die größere Zukunftssicherheit.
Wenn sich Firma X in 2 Monaten eine ganze Palette Rechner bestellt, dann bhält Firma X diese im Schnitt international gesehen 5 Jahre.
In dieser Zeit hat sich auf der OS und Software Seite eventuell schon wieder einiges geändert.
Die Leute kaufen in aller Regel keine Intel Grafik der Grafik wegen sondern weil der Chipsatz von den OEMs einfach verbaut wird und den OEM genausoviel kostet wie der Chipsatz von Intel ohne Grafik.
In weiten Teilen ist das ein künstlich erzeugter Markt.

Wir haben bei uns auf Arbeit zb.: im Konzern bei den neuen Rechnern integrierte Intel Grafik. Dazu stecken noch Matrox und GF2MX Karten drinn und ein DVD Laufwerk ist auch im Rechner enthalten.
Brauchen die BEschäftigten ein DVD Laufwerk? Nein brauchen sie nicht. 50% der Leute haben wegen bestimmter SIcherheitsvorkehrungen noch nichtmal Zugriff auf Disketten und DVD bzw. CD ROM Laufwerke.
Aber das ist doch dem Konzern egal.

Das DVD hat ihn ja nicht mehr gekostet. Die Dinger sind halt einfach drin im Rechner. Ohne DVD käme es ihn auch nicht billiger.
Die großen OEMs leben davon, dass die PC Linien absolut einheitlich sind. Wer dort extra Konfigurationswünsche hat greift in aller Regel mächtig tief in die Taschen. Warum? Weil die OEMs ihren harten Preiskampf nur finanzieren können indem sie möglichst viele Synergien schaffen bei der Fließbandfertigung, den Support und der Bestellung. Ergo möglichst einheitlich gestalten.
So kommt es den OEM billiger wenn er von Low Cost Firma XY 100.000 DVD Laufwerke bestellt und verbaut als wenn er DVD, CDROM in verschiedenen Speed Stufen etc.. bestellt und verbaut.

Ansonsten kann ich nur sagen, ist die FX5200 genau die Karte die wir hier brauchen damit Bewegung reinkommt. Einfach ein prima Kärtchen für den Zielmarkt und hoffentlich mit möglichst großer Verbreitung.
Wer kritisiert, dass DX9 keiner braucht, der soll dann bitte schön ne MX420 nehmen. Der braucht dann eine Radeon9000 garantiert auch nicht.

Ich kanns nur wiederholen. ATI hat diesmal in diesem Bereich gepennt. Das ist und bleibt die Realität ob es einigen hier gefällt oder nicht.
Diskussion überflüssig.

LovesuckZ
2003-05-02, 16:24:30
Originally posted by crushinator
Das wiederum möchte ich stark in Frage stellen. ;)

welche denn.

AlfredENeumann
2003-05-02, 16:33:57
Originally posted by LovesuckZ


Wer benoetigt dann DX8 als Low-End? Niemand, richtig. Also weg damit...
Schicke Logik die einige haben. Passt mir net, weg damit.

/edit: Warum meckert eigentlich niemand über ATI's 9200? Die hat nur DX8 und ist kaum schneller als ne GF4MX...
Weiö dieKarte inihrer Preisklasse ausreichend Rohleistung bietet. Teilweise mehr als ne 5200er.

Quasar
2003-05-02, 16:38:09
Originally posted by LovesuckZ


welche denn.

Na, ganz klar: Neben Directx8 (welches natürlich ein entscheidender Faktor ist!) hat der Chip noch adaptives De-Interlacing... Nein, mist, das hat die GF4MX ja auch.

Aber er hat einen guten TV-out, während allgemein bekannt ist (seit SP es jedem erzählt, der es hören will und jedem, der es nicht hören will), dass jeder TV-out auf generell allen nVidia-Karten (Bis auf die Referenzsamples hab' ich noch keine einzige nVidia-Karte irgendwo zu kaufen gesehen...) Müll ist.

Quasar
2003-05-02, 16:39:18
Originally posted by AlfredENeumann

Weiö dieKarte inihrer Preisklasse ausreichend Rohleistung bietet. Teilweise mehr als ne 5200er.

Hm, was kostet denn eine R9200 so?

LovesuckZ
2003-05-02, 16:40:09
Originally posted by AlfredENeumann
Weiö dieKarte inihrer Preisklasse ausreichend Rohleistung bietet. Teilweise mehr als ne 5200er.

Oehm, das bezweifel ich stark.

ow
2003-05-02, 16:40:15
Originally posted by AlfredENeumann

Weiö dieKarte inihrer Preisklasse ausreichend Rohleistung bietet. Teilweise mehr als ne 5200er.

Im 2D-Betrieb? :D

Unregistered
2003-05-02, 16:42:32
*bitte beim topic bleiben* *ow*

Quasar
2003-05-02, 16:44:40
@unreg:

Bist du noch eine Stimme aus dem "Off" oder hast du nur 'vergessen', dich einzuloggen?

Unregistered
2003-05-02, 16:47:51
Originally posted by Demirug


Ein Spiel das eine DX8 Fallback hat ist nach meiner Definition kein DX9 Spiel sondern ein DX8 Spiel. Ich ordne Spiele nach der Technologischen Minimalanforderung ein nicht nach der maximalen. Denn viel mehr als ein bischen Eyecandy bekommen die Leute mit den besseren Karten in der Regel auch nicht. Es gibt natürlich Ausnahmen. Als wichtigste dürften hier Spiele zu nennen sein die ursprünglich für die XBox entwickelt und dann für den PC modifiziert wurde.

Die nächsten zwei Jahre werden DX8 gehören. Anschliessend gibt's "nur für DX9" und ab dann ist dein "Sonderweg"-Satz gültig. Ab in zwei Jahren sind DX9-Karten aus 2003 und ganz besonders die FX5200 als tiefstmöglichster DX9-Einstiegspunkt altes Eisen. Wo ist nun der DX8-Sonderweg für alle DX8-Karten auf dem Niveau der FX5200. Deine vereinfachte Geometrie usw. für nur-DX9-Spiele wird dann allenfalls für FX5800Ultra/R9800Pro genutzt werden.

Unregistered
2003-05-02, 16:52:28
Originally posted by Quasar
@unreg:

Bist du noch eine Stimme aus dem "Off" oder hast du nur 'vergessen', dich einzuloggen?

Weil ich so fleissig mitbiete? ;)
Oder weil logische Zusammenhänge bei Kenntnis des Ursprungs ihre Gültigkeit verlieren? :)

Unregistered
2003-05-02, 16:55:55
Originally posted by Unregistered


Weil ich so fleissig mitbiete? ;)
Oder weil logische Zusammenhänge bei Kenntnis des Ursprungs ihre Gültigkeit verlieren? :)

@Quasar
Und ich bin nicht für alle Unreg-Kommentare verantwortlich!

Quasar
2003-05-02, 16:56:27
@unreg:
Weil du Argumentation anhand von Personen zu diskreditieren versuchst, was auf einen gravierenden Mangel sowohl an Diskussionskultur als auch an Argumenten deinerseits schliessen läßt.

(Unter der Voraussetzung, dass du _der_ unregistrierte Gast bist, den ich meine. Wie sagte schon Morpheus in "The Matrix" zu Agent Smith: "You all look the same to me...")

Demirug
2003-05-02, 17:09:55
Originally posted by Unregistered


Die nächsten zwei Jahre werden DX8 gehören. Anschliessend gibt's "nur für DX9" und ab dann ist dein "Sonderweg"-Satz gültig. Ab in zwei Jahren sind DX9-Karten aus 2003 und ganz besonders die FX5200 als tiefstmöglichster DX9-Einstiegspunkt altes Eisen. Wo ist nun der DX8-Sonderweg für alle DX8-Karten auf dem Niveau der FX5200. Deine vereinfachte Geometrie usw. für nur-DX9-Spiele wird dann allenfalls für FX5800Ultra/R9800Pro genutzt werden.

Low-Cost Hardware ist wie Kaugummi. Die klebt im Rechner.

Die nächsten 18 - 24 Monaten gehören DX7. DX8/9 wird zur Passreduktion benutzt und im Verlauf der Zeit für immer mehr Eyecandy. Blame NVIDIA.

Danach kommt eine DX8.1 Phase deren länge von ATI bestimmt wird und dann reden wir über eine DX9 1.Phase und dann die DX9 2.Phase.

Welcher DX8 Sonderweg für 5200?

Das mit der FX5800Ultra/R9800Pro als lowest Level bei DX9 only wird nicht passieren wegen dem Kaugummi effekt.

Unregistered
2003-05-02, 17:15:54
Originally posted by Quasar
@unreg:
Weil du Argumentation anhand von Personen zu diskreditieren versuchst, was auf einen gravierenden Mangel sowohl an Diskussionskultur als auch an Argumenten deinerseits schliessen läßt.

(Unter der Voraussetzung, dass du _der_ unregistrierte Gast bist, den ich meine. Wie sagte schon Morpheus in "The Matrix" zu Agent Smith: "You all look the same to me...")

Daneben liegst du damit :(
Mit einzelnen Forumsteilnehmern habe ich nichts am Hut.

Quasar
2003-05-02, 17:24:59
Und was genau meintest du dann mit "trio infernale"? Für mich klingt das nach dem Versuch einzelne Forumsteilnehmer abzuwerten und auf diese Weise sowohl Aussagekraft als auch Objektivität ihrer Postings in Frage zu stellen.

Unregistered
2003-05-02, 17:30:24
Originally posted by Demirug


Low-Cost Hardware ist wie Kaugummi. Die klebt im Rechner.

Die nächsten 18 - 24 Monaten gehören DX7. DX8/9 wird zur Passreduktion benutzt und im Verlauf der Zeit für immer mehr Eyecandy. Blame NVIDIA.

Danach kommt eine DX8.1 Phase deren länge von ATI bestimmt wird und dann reden wir über eine DX9 1.Phase und dann die DX9 2.Phase.

Welcher DX8 Sonderweg für 5200?

Das mit der FX5800Ultra/R9800Pro als lowest Level bei DX9 only wird nicht passieren wegen dem Kaugummi effekt.

OK, Korrektur, DX7/DX8 Sonderweg nach dir. Die Antwort auf deine Frage ist dir bekannt, wenn du meine Argumentationskette aufmerksam gelesen hast. Ich jedenfalls möchte mich nicht im Argumentationskreis drehen und von vorne anfangen.

Unreg: Ein wenig schrierig ist das, das eine Sprachrohr mit vielen Stimmen. ;)

Unregistered
2003-05-02, 17:33:47
Originally posted by Quasar
Und was genau meintest du dann mit "trio infernale"? Für mich klingt das nach dem Versuch einzelne Forumsteilnehmer abzuwerten und auf diese Weise sowohl Aussagekraft als auch Objektivität ihrer Postings in Frage zu stellen.

"trio infernale"? - Offen und ehrlich, bin ich nicht! Als Unreg verbieten sich Beleidigungen. Sowas wäre nicht nur unfair sondern auch dumm.

Quasar
2003-05-02, 17:37:31
Originally posted by Quasar
Wie sagte schon Morpheus in "The Matrix" zu Agent Smith: "You all look the same to me..."

Dann trifft wohl obiges einmal mehr zu. Man kann einen Unreg leider nicht von einem anderen Unreg auseinanderhalten.

Ich will ja niemanden überreden, sich zu registrieren, aber einfach einen beliebigen, aber konstanten Nick beim Posten anzugeben, ist doch nicht so schlimm...

ow
2003-05-02, 17:37:48
Originally posted by Unregistered


"trio infernale"? - Offen und ehrlich, bin ich nicht! Als Unreg verbieten sich Beleidigungen. Sowas wäre nicht nur unfair sondern auch dumm.

ich glaube dir:)

aber da oben hat jemand (unreg) versucht zu stänkern und sowas gehört eben nicht hier her.

am besten tippst du zu deinen postings einen Nick ein, dann kann man die unregs besser auseinander halten.

Unregistered
2003-05-02, 17:49:28
Originally posted by Quasar


Dann trifft wohl obiges einmal mehr zu. Man kann einen Unreg leider nicht von einem anderen Unreg auseinanderhalten.

Ich will ja niemanden überreden, sich zu registrieren, aber einfach einen beliebigen, aber konstanten Nick beim Posten anzugeben, ist doch nicht so schlimm...

Eigentlich nicht schlimm. Hat man aber ein "Gesicht", dann steckt man schnell in einer Schublade, in die man einfach nicht immer hinein gehört und kaum mehr verlassen kann. Postings werden schneller nach Nase bewertet. Ein Unreg verlangt mehr Aufmerksamkeit. Leider nutzen Unregs die Anonymität als Tarnung für unnütze Postings, die dazu führen, dass alle Unregs dann früher oder später dann doch in einer "Schrott"-Schublade landen. :(

Unregistered
2003-05-02, 17:50:54
Originally posted by ow


ich glaube dir:)

aber da oben hat jemand (unreg) versucht zu stänkern und sowas gehört eben nicht hier her.

am besten tippst du zu deinen postings einen Nick ein, dann kann man die unregs besser auseinander halten.

Thx! :)
Denke drüber nach...

Quasar
2003-05-02, 17:51:16
Ja, leider.

Und das, was du bezgl. der Schubladen sagtest, kann man als registrierter User natürlich sehr gut nachvollziehen, siehe das Posting des anderen Unregs...

Xmas
2003-05-02, 17:56:39
Originally posted by Unregistered
Eigentlich nicht schlimm. Hat man aber ein "Gesicht", dann steckt man schnell in einer Schublade, in die man einfach nicht immer hinein gehört und kaum mehr verlassen kann. Postings werden schneller nach Nase bewertet. Ein Unreg verlangt mehr Aufmerksamkeit. Leider nutzen Unregs die Anonymität als Tarnung für unnütze Postings, die dazu führen, dass alle Unregs dann früher oder später dann doch in einer "Schrott"-Schublade landen. :(
Du kannst ja den Nick von Zeit zu Zeit ändern, um nicht in einer Schublade zu landen, aber innerhalb eines Threads ist es schon ganz praktisch zwischen verschiedenen Unregs unterscheiden zu können. Die Bitte geht natürlich an alle Unregs.

mh01
2003-05-02, 18:04:59
Originally posted by Xmas

Du kannst ja den Nick von Zeit zu Zeit ändern, um nicht in einer Schublade zu landen, aber innerhalb eines Threads ist es schon ganz praktisch zwischen verschiedenen Unregs unterscheiden zu können. Die Bitte geht natürlich an alle Unregs.

Wie wäre es, wenn ein entsprechender Hinweis auf der Forumshauptseite untergebracht würde.

Ich gehe mal davon aus, dass viele, die nur hin und wieder mal reinschauen, gar nicht wissen, dass man auch unregistriert einen Nick haben kann.

Ein solcher Hinweis könnte eventuell hilfreich sein, die "Unreg-Problematik" in den Griff zu kriegen.

Unregistered
2003-05-02, 18:15:56
Originally posted by mh01


Wie wäre es, wenn ein entsprechender Hinweis auf der Forumshauptseite untergebracht würde.

Ich gehe mal davon aus, dass viele, die nur hin und wieder mal reinschauen, gar nicht wissen, dass man auch unregistriert einen Nick haben kann.

Ein solcher Hinweis könnte eventuell hilfreich sein, die "Unreg-Problematik" in den Griff zu kriegen.

OT ;)

Wie wäre es, das man wenigstens einen Namen eingeben muss, wenn man etwas Posten will, weil "unregistered" werden dann wohl die wenigsten eintragen und für mehr Transparenz wäre gesorgt.

mh01
2003-05-02, 18:18:53
Originally posted by Unregistered


OT ;)

Wie wäre es, das man wenigstens einen Namen eingeben muss, wenn man etwas Posten will, weil "unregistered" werden dann wohl die wenigsten eintragen und für mehr Transparenz wäre gesorgt.

Ein solcher Zwang ist lt. Leonidas technisch nicht möglich, daher auch mein Vorschlag mit dem Hinweis, um Unregs zu "animieren", einen Nick anzugeben.

Unregistered
2003-05-02, 18:20:26
Originally posted by ow


ich glaube dir:)

aber da oben hat jemand (unreg) versucht zu stänkern und sowas gehört eben nicht hier her.

am besten tippst du zu deinen postings einen Nick ein, dann kann man die unregs besser auseinander halten.

PS: Dieser böse unreg wurde ja nun glücklicherweise von dir aus dem Thread verbannt.

Einige sind immer gross im Austeilen aber ganz schön empfindlich.

Demirug
2003-05-02, 18:23:45
Originally posted by Unregistered


OK, Korrektur, DX7/DX8 Sonderweg nach dir. Die Antwort auf deine Frage ist dir bekannt, wenn du meine Argumentationskette aufmerksam gelesen hast. Ich jedenfalls möchte mich nicht im Argumentationskreis drehen und von vorne anfangen.

Unreg: Ein wenig schrierig ist das, das eine Sprachrohr mit vielen Stimmen. ;)

Deine Ausgangsfrage war ja:

"Wo ist nun der DX8-Sonderweg für alle DX8-Karten auf dem Niveau der FX5200"

Auch wenn ich nun DX8 durch DX7/DX8 ersetze bleibt die Frage für mich immer noch unverständlich. Warum sollte man für diese Karten einen Sonderweg benutzten. Technologisch können sie den Weg benutzten der für Karten dieses Technologelevels vorgesehen ist. Skaliert wird wie bisher auch über die Details und an und abschaltbare Effekten. Für die Lowendkarten heist das dann eben im Zweifel alles auf Minimal.

Ich habe in einem anderen Thread ja schonmal gesagt das es erst mal darum geht das ein Spiel überhaupt läuft den wenn ein Kunde mit seiner Neuerwerbung nach hause kommt und sein Rechner meint "Nein dieses Spiel läuft auf deinem Rechner nicht" ärgert sich der Kunde und trägt das Teil zurück in den Laden und will sein Geld wieder. Läuft es dagegen nur sehr träge besteht immer noch die möglichkeit das es dem Kunden im Prinzip doch gefällt und er ein einsehen hat und sich bessere Hardware zulegt. Die Wahrscheinlichkeit dazu steigt wenn ihm auffällt das alles was er sich neu gekauft hat sehr träge ist.

Unregistered
2003-05-02, 18:25:57
Originally posted by mh01


Ein solcher Zwang ist lt. Leonidas technisch nicht möglich, daher auch mein Vorschlag mit dem Hinweis, um Unregs zu "animieren", einen Nick anzugeben.

Schade, aber bei anderen Foren geht das doch auch. Ist das eine Beschränkung vom vbulletin ohne Lösungsmöglichkeit?

mh01
2003-05-02, 18:30:11
Originally posted by Unregistered


Schade, aber bei anderen Foren geht das doch auch. Ist das eine Beschränkung vom vbulletin ohne Lösungsmöglichkeit?

Das musst Du Leonidas fragen, da habe ich keine Ahnung. Allerdings sollte diese Diskussion an geigneterer Stelle (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=876425&highlight=unregistered#post876425) fortgesetzt werden, in diesem Thread hat sie wirklich nichts verloren.

Es sei denn, mann könnte nachweisen, dass diese Diskussion in irgend einer Weise die BQ von Grafikkarten beeinflusst.;)

ow
2003-05-02, 18:37:53
Originally posted by Unregistered


Schade, aber bei anderen Foren geht das doch auch. Ist das eine Beschränkung vom vbulletin ohne Lösungsmöglichkeit?

das ist afaik eine beschränkung der derzeitigen vbulletin software (version).
und darüberhinaus hat sie ja auch noch den bug, dass einloggen nur von der startseite aus funzt (falls du dich mal reggen willst und feststellst, dass einloggen beim posten nicht geht;)).

AlfredENeumann
2003-05-02, 19:32:27
Originally posted by Quasar


Hm, was kostet denn eine R9200 so?

100$ UVP. Lass die mal ein paar Tage in Germany sein, so wie 5200er dann pendelt sich ein realistischer rpeis schon ein.

AlfredENeumann
2003-05-02, 19:33:07
Originally posted by ow


Im 2D-Betrieb? :D

Nö. 3D. Die ist teilweise sogar schneller als die 5200 Ultra.

http://www.ixbt.com/video2/giga-r9200.shtml

Quasar
2003-05-02, 19:49:25
100€ also, ok. (mit 128MB und mit welcher Taktung?)

Damit liegt sie ca. 100% über manchen GF4MX440SE, ca. 60% über vielen Radeon9000 und SiS Xabre400 und auf einem Level mit der GF FX5200.

Wenn nur die Rohleistung interessiert, da sind GF4MX und R9000 und teils sogar der Xabre auch flott genug.

Um Ehrlich zu sein, sehe ich in dieser Konstellation absolut kein Argument, welches für eine R9200 spricht, da gibt es von allen Seiten deutlich attraktivere Angebote.

Quasar
2003-05-02, 19:51:15
Originally posted by AlfredENeumann


Nö. 3D. Die ist teilweise sogar schneller als die 5200 Ultra.

http://www.ixbt.com/video2/giga-r9200.shtml

Teilweise ist auch eine FX5200 schneller als eine R9800Pro, auch wenn man's kaum glauben mag.

Man sollte immer vom Mittel der meisten Tests auf die Gesamtheit schliessen, anstatt von wenigen Spezialfällen ausgehend ein nicht generell zutreffendes Bild zu zeichnen.

StefanV
2003-05-02, 20:17:00
Originally posted by Quasar
100€ also, ok. (mit 128MB und mit welcher Taktung?)

250MHz Sync, wenn mein russisch nicht völlig daneben lag ;)

Quasar
2003-05-02, 20:18:22
Ja, die Zahlen waren ja nicht auf kyrillisch... ;)

Ich meinte allerdings die Karte, von der AEN den UV-Preis nannte. :)

AlfredENeumann
2003-05-02, 22:47:03
Originally posted by Quasar
Ja, die Zahlen waren ja nicht auf kyrillisch... ;)

Ich meinte allerdings die Karte, von der AEN den UV-Preis nannte. :)

Das war der Preis für die 9200. Geizhalt spuckt aus als günstigeste 128MB karte mit TV-Out und DVI 106.90€. Mit VIVO 134€. Die günbstigeste 64MB karte lag glaub ich bei knapp 82€. Also eigentlich OK, oder ?

ow
2003-05-03, 00:01:13
Originally posted by AlfredENeumann


Nö. 3D. Die ist teilweise sogar schneller als die 5200 Ultra.

http://www.ixbt.com/video2/giga-r9200.shtml


;)
Das war doch ironisch gemeint, denn wie ich oben shcon sagte spielt die 3D-Leistung wirklich keine Rolle in diesem Marktsegment.

aths
2003-05-03, 04:19:40
Originally posted by ow
;)
Das war doch ironisch gemeint, denn wie ich oben shcon sagte spielt die 3D-Leistung wirklich keine Rolle in diesem Marktsegment. Wenn die 3D-Leistung keine Rolle spielt, dürften auch 3D-Features keine Rolle spielen. Genau diese verbraten jedoch einen nicht unwesentlichen Teil der Transistoren. Imo sollte man eher sagen, dass 3D-Leistung in diesem Segment nur eine untergeordnete Rolle spielt. Da wir hier bei 3DCenter sind, meine ich, dass für die meisten von uns sowohl 3D-Leistung als auch Features eine Rolle spielen, und wir Karten dementsprechend bewerten.

Gohan
2003-05-03, 09:37:17
Um mal kurz vom Thema abzuweichen... auf diesem Bild hier:
http://www.ixbt.com/video2/images/ref/r9000-scan-front.jpg

Seh ich da wirklich links oben an der Karte die Lötstellen für nen externen Stromanschluss?

Quasar
2003-05-03, 09:44:03
Sieht fast so aus, ist aber IMO etwas zu klein. Der Anschluss würde übers PCB hinausgucken.
Und was sollte eine R9000 mit einem externen Anschluss?

Gohan
2003-05-03, 09:50:34
K.A. deshalb hab ich ja gefragt.

ow
2003-05-03, 11:02:25
Originally posted by aths
Wenn die 3D-Leistung keine Rolle spielt, dürften auch 3D-Features keine Rolle spielen. Genau diese verbraten jedoch einen nicht unwesentlichen Teil der Transistoren. Imo sollte man eher sagen, dass 3D-Leistung in diesem Segment nur eine untergeordnete Rolle spielt. Da wir hier bei 3DCenter sind, meine ich, dass für die meisten von uns sowohl 3D-Leistung als auch Features eine Rolle spielen, und wir Karten dementsprechend bewerten.


Die Features spielen des Marketings wegen eine Rolle.

Ausserdem zitiere ich hier mal demirug:
"Leistung ist für die Verbreitung einer Technologie völlig egal es geht nur um die Anteile der Technologie am Gesamtmarkt."

Also, wer möglichst früh DX9-only Spiele sehen will, der sollte sich über die Existenz solcher Produkte wie der FX5200 freuen.

StefanV
2003-05-03, 14:11:56
Originally posted by Gohan
Um mal kurz vom Thema abzuweichen... auf diesem Bild hier:
http://www.ixbt.com/video2/images/ref/r9000-scan-front.jpg

Seh ich da wirklich links oben an der Karte die Lötstellen für nen externen Stromanschluss?

Kann das Bild leider nicht laden...

Ich sag mal:

NEIN!!

Die Karte ist vermutlich ein Design mit Vorbereitung für den Rate Theatre Chip, dieser Anschluss dient NICHT als zusätzliche Stromquelle, wie auch, wenn man diesen Anschluss auf heutigen Karten mehrmals vorfindet (richtig, ist ein Audio Ein(?)gang...

Razor
2003-05-04, 01:16:15
Originally posted by Unregistered

Eigentlich nicht schlimm. Hat man aber ein "Gesicht", dann steckt man schnell in einer Schublade, in die man einfach nicht immer hinein gehört und kaum mehr verlassen kann. Postings werden schneller nach Nase bewertet. Ein Unreg verlangt mehr Aufmerksamkeit. Leider nutzen Unregs die Anonymität als Tarnung für unnütze Postings, die dazu führen, dass alle Unregs dann früher oder später dann doch in einer "Schrott"-Schublade landen. :(
Meinst Du, dass es Dir schadet, einfach mit 'ner Nummer zu unterschreiben ?

Geht ja nur darum, Dich von anderen Unreg's zu unterscheiden. Und nein, ein Unreg bekommt nicht mehr Aufmerksamkeit (auch wenn er das verlangt). Vor allen Dingen nicht, wenn man nicht sicher sein kann, wer was in welchem Zusammenhang gesagt hat (bezogen auf eine kontinuierliche Diskussion). So werden Unregs meist einfach ignoriert, oder aber es wird reagiert und das u.U. falsch oder in einem falschen Zusammenhang..

Wie dem auch sei, um einen Faden in einer Diskussion zu erkennen, wäre es sinnvoll, wenn Du zumindest eine Nummer angibst. Meinetwegen für jeden Thread eine andere, dann kommst Du schon nicht in eine 'Schublade'.

Allerdings sind es meist solche Leute wie Du, die in diesen 'Schubladen'-Kategorien denken und auch so agieren. Insofern fürchten sich solche Leute meist zurecht von anderen so behandelt zu werden, wie sie selbst andere behandeln.

Nur mal so eine Denkanregung...

Razor

Razor
2003-05-04, 01:24:37
Originally posted by Unregistered

Ich glaube, die 5200 wird wegen ihrer Rohleistung gar nichts zu DX9-Entwicklung beitragen können. Spiele für DX9-Hardware werden die Karte erkennen und ihr bestenfalls DX8 abverlangen. Die FX5200 wird von den Entwicklern bezüglich DX9 ignoriert werden.
Sehr schön... und woher willst Du das wissen ?
Und warum sollten Spiele-Engines GraKa's "erkennen" und deren Möglichekiten ignorieren ?
Sorry, aber wer auch immer Du bis, Du redest hier Unsinn !

Razor

Razor
2003-05-04, 01:27:20
Originally posted by crushinator
Richtig, ich könnte aber genau so gut behaupten, daß die 5200 heute maximal 60,- EUR kosten müßte. Andersrum könnte ich genau so gut behaupten, daß man sie genau so gut weglassen und ab 120,- EUR (Retail) "vernünftigere" Karten anbieten könnte.
Ich vermute mal, dass sie in 3-9 Monaten auch durchaus auf 60€ und darunter sinken werden...
Allerdings dürfen sie den gf4mx'ern (deren Martsegment si ja angehen) nicht zu sehr in die Quere kommen. Würde mich auch nicht wundern, wenn sie aus diesem Grund noch Leitung zurück halte... was aber nichts zur Sache tut.

"Vernünftige" Karten bietet auch ATI nicht zu dem Preis...
Nur zur Erinnerung, die 'kleinste' DX9-GraKa von ATI gibt's für ca. 160€.

Bis denne

Razor

Razor
2003-05-04, 01:31:42
Originally posted by Unregistered

An alle,
Was ist falsch daran, der FX5200 unter allen verfügbaren DX9-Karten die geringste DX9-Praxistauglichkeit nachzusagen? Wir schliessen einfach aus den bisherigen Erkenntnissen um DX7/8, dass dem so ist. Dieser Schluss ist korrekt und leicht nachvollziehbar. Um Verkaufszahlen geht es hier nicht und die können ist-mir-völlig-egal sein.
Wie kann man bei Nicht-Verfügbarkeit von DX9-Titel von 'Praxistauglichekit' sprechen ?
Das würde mich jetzt mal wirklich interessieren...

Oder meinst Du, weil es da einen Murks gibt, der es aber leider nicht fertig bringt, DX8- und DX9-Leistung auseinander zu halten und für solche Betrachtungen eher völlig ungeeignet ist.

Wie Demirug schon sagte, JEDE verkaufte DX9-Karte wird zur Verbreitung dieser Technologie beitragen und jetzt rate mal, von welchen Karten mehr verkauft wird ?

Teuer aber gute (DX8-)Performance, oder günstig und eher mäßige (gf3 !) Performance ?
???

Die Antwort dürfte jedem klar sein...

Bis denne

Razor

Mr. Lolman
2003-05-04, 01:33:40
Originally posted by Quasar


Teilweise ist auch eine FX5200 schneller als eine R9800Pro, auch wenn man's kaum glauben mag.


Könntest du mir bitte das ein oder andere Beispiel zeigen? CPU Limitationen hin und her, aber DAS kann ich nun wirklich nicht glauben.

Razor
2003-05-04, 01:38:30
Originally posted by Mr. Lolman

Könntest du mir bitte das ein oder andere Beispiel zeigen? CPU Limitationen hin und her, aber DAS kann ich nun wirklich nicht glauben.
Er wollte damit sagen, dass für jedes Wunschergebnis auch ein entsprechender 'Beleg' erbracht werden kann. Erst die Mischung und der daraus resultierende Durchschnitt ergibt ein (wenn im Detail auch unzureichendes) Bild.

Sich einfach nur ein Ergebnis heruas zu picken und damit zu argumentieren, reicht einfach nicht.

Razor

Mr. Lolman
2003-05-04, 01:41:09
Oki, danke aber ich hatts auch so geschnallt. Ich wollte ja nur zeigen dass, das nicht unbedingt ein gutes Beispiel war. ;)

Razor
2003-05-04, 01:55:00
Originally posted by Mr. Lolman
Oki, danke aber ich hatts auch so geschnallt. Ich wollte ja nur zeigen dass, das nicht unbedingt ein gutes Beispiel war. ;)
Das sind Beispiele meistens nicht...
Hat aber IMHO sehr deutlich sein Anliegen gezeigt.

-

Und was die Performance der 5200 angeht:
(eigentlich ging es in dem Thread doch um die Bildqualität ;-)

Sie ist in etwa auf dem Nivau einer gf4mx460, wenn man nur die Rohperformance betrachtet. Nimmt man allerdings Quali-Features dazu, wie ich sie derzeit bei meiner gf3 nutze, dann ist so sogar schneller als diese !

So ist die leicht OC'te FX5200 (@300/460) mit 2xAA und 4xAF meistens und im Extremfall bis zu 50% (!) schneller, als die OC'te GF3 (@235/530).

So muss man also sagen, dass die FX5200 mit aktivierten Quali-Features irgendwo zwischen gf3ti500 und gf4ti4200 liegt. Und dazu bekommt man Multimonitoring bei superber Signalqualität und einen ebenfalls sehr guten TV-Out... ach ja, DX9 habe ich noch vergessen... und das für nur 90€... (und wohl bald auch weniger)

Und um auf das eigentliche Thema zurück zu kommen:

Die Darstellungsmöglichkeiten der FX5200 steht den großen Brüdern in NICHTS nach, sie ist halt langsamer.
Und ob sie für tatsächliche DX9-Anwendungen zu langsam ist, vermag heute wohl noch niemand zu sagen. Vermutlich ja, aber das sind FX5800u oder R9800p wohl auch. Oder zumindest da, wo heute die gf1 bei Doom3 sein dürfte... und keiner kann mir erzählen, dass er heute 400-500€ für 'ne GraKa ausgibt, um dann auf diesem Nivau in 4 Jahren spielen zu können.

Ergo: DX9 ist heute nur ein Feature, oder auch ein Tech-Preview, wie Demirug schon sagte. Noch ist DX7 entscheidend, DX8 wird erst noch kommen (dafür ist die FX5200 im lower-midrange oder low-end Performance-Bereich völlig ausreichend). Von DX9-tauglichkeit zu reden ist auf jeden Fall völlig verfrüht !

Keine angst, Herr Lolman, das war jetzt nicht nur eine Antwort auf Deinen Post, sondern vielmehr das, was mir 'eh schon auf der Zunge lag und mehr an die Allgemeinheit gerichtet ist...
:D

Bis denne

Razor

wrdaniel
2003-05-04, 02:04:09
Und dazu bekommt man Multimonitoring bei superber Signalqualität

hat man den 5200'ern nen besseren 2. ausgang spendiert als den 5800'ern? laut c't sollen die ja nicht so berauschend sein. ich frage nur weil ich es seltsam finden wuerde wenn man bei den high end karten spart und die lowends den besseren ausgang haetten. vielleicht ja weil sie mit als office karten gedacht sind.

Frank
2003-05-04, 02:09:40
Originally posted by wrdaniel
hat man den 5200'ern nen besseren 2. ausgang spendiert als den 5800'ern? laut c't sollen die ja nicht so berauschend sein. ich frage nur weil ich es seltsam finden wuerde wenn man bei den high end karten spart und die lowends den besseren ausgang haetten. vielleicht ja weil sie mit als office karten gedacht sind. Wohl eher eine Frage des Kartenherstellers.

Razor
2003-05-04, 02:11:29
Originally posted by wrdaniel

hat man den 5200'ern nen besseren 2. ausgang spendiert als den 5800'ern? laut c't sollen die ja nicht so berauschend sein. ich frage nur weil ich es seltsam finden wuerde wenn man bei den high end karten spart und die lowends den besseren ausgang haetten. vielleicht ja weil sie mit als office karten gedacht sind.
Vielleicht habe ich auch einfach nur Glück gehabt ?
;-)

Ich kann nur sagen, was ich bei meiner ehemals passiv gekühlten FX5200 (Club3D, alias Albatron) feststellen durfte... Für die Bauteile auf der Platine ist auf jeden Fall der Board-Hersteller verantwotlich.

Bis denne

Razor

Quasar
2003-05-04, 02:13:09
Originally posted by Mr. Lolman


Könntest du mir bitte das ein oder andere Beispiel zeigen? CPU Limitationen hin und her, aber DAS kann ich nun wirklich nicht glauben.
Wie gesagt, es ist ein Extrembeispiel und mit Sicherheit nicht repräsentativ, aber bitte sehr:

GFFX5200, Det43.45:
---------- SUM_RESULTS\LIGHT\SUMMARY.TXT
Light-04 Weighted Geometric Mean = 9.822


R9800p, Cat3.2:
---------- SUM_RESULTS\LIGHT\SUMMARY.TXT
Light-04 Weighted Geometric Mean = 9.792

Resultate aus dem Spec ViewPerf 6.12 auf einem P4-2,53GHz mit DDR RAM.

Und nur, um das wieder geradezurücken:

GFFX5200, Det43.45:
---------- SUM_RESULTS\PROCDRS\SUMMARY.TXT
ProCDRS-03 Weighted Geometric Mean = 22.25


R9800p, Cat3.2:
---------- SUM_RESULTS\PROCDRS\SUMMARY.TXT
ProCDRS-03 Weighted Geometric Mean = 109.7


Du siehst, man kann zeigen, was man zeigen will, wenn man nur die Benches "richtig" auswählt.