PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce FX 5200 mit 64MB of DDR und ... ==> 64-bit Memory Bus


up
2003-04-14, 01:24:51
Tja, was nun?
http://www.xbitlabs.com/news/video/display/20030412194528.html

Mußte der arme 52er so kastriert werden um ihn klein zu kriegen?

Endorphine
2003-04-14, 01:28:35
Solange es die Preise drückt ist aus meiner Sicht nichts gegen einzuwenden. Die Features der GPU bleiben ja trotzdem erhalten =)

Ein Ersatz für GF4 MX-SDR muss ja auch irgendwie geschaffen werden.

aths
2003-04-14, 01:40:18
Das ist so ziemlich die unsinnigste Karte, von der ich je gehört habe. DX9-kompatibel, aber dermaßen kastriertes Speicher-Interface... die 5200 mit 128 MB hat nicht die Power, 128 MB tatsächlich sinnvoll ausnutzen zu können, und die 64 MB-Karte ist "dank" halbem Speicher-Bus offensichtlich vollkommen "Crippleware".

Endorphine
2003-04-14, 02:06:12
Originally posted by aths
Das ist so ziemlich die unsinnigste Karte, von der ich je gehört habe. DX9-kompatibel, aber dermaßen kastriertes Speicher-Interface... die 5200 mit 128 MB hat nicht die Power, 128 MB tatsächlich sinnvoll ausnutzen zu können, und die 64 MB-Karte ist "dank" halbem Speicher-Bus offensichtlich vollkommen "Crippleware". Was sagst du dann zum TNT2/M64?

Würdest du da auch sagen:
Das ist so ziemlich die unsinnigste Karte, von der ich je gehört habe. DX6-kompatibel, aber dermaßen kastriertes Speicher-Interface... die TNT2 non-ultra mit 32 MB hat nicht die Power, 32 MB tatsächlich sinnvoll ausnutzen zu können, und die 16 MB-Karte ist "dank" halbem Speicher-Bus offensichtlich vollkommen "Crippleware".
???

Der Preis muss auf jeden Fall noch niedriger werden. Dass dann irgendwann manche 3D-Features kaum noch Sinn machen steht doch ausser Frage. Aber warum sollte man moderne Funktionalität nicht auch in preiswerte low-end Karten rüberretten, die nur ein absolutes Grundmass an Geschwindigkeit im Vergleich zur Mittelklasse bieten? Sonst wäre man heute bei einem Grossteil der PCs immer noch bei VESA 2.0 Grafik, ohne 2D-, Video- und 3D-Beschleunigung. Zwei RAMDACs, TV-out und ähnliches wären ebenfalls nicht denkbar, auch hätte sich der AGP wohl nicht durchgesetzt wenn man deinen Gedanken zu Ende spinnt.

Aus meiner Sicht macht das sehr wohl Sinn, vollständig ausgestattete Grafikchips in der Speichergrösse und -Bandbreite zu beschneiden und auf low-cost Grafikkarten zu verbauen. Warum soll man zum gleichen Preis auf aktuelle Features verzichten, die nun endlich aus der Mittel- und Oberklasse die Billigklasse erreichen? Es ist doch aus meiner Sicht deutlich sinnvoller, zum gleichen Preis und bei nur minimal grösserer Geschwindigkeit mehr Features zu haben als umgekehrt.

ow
2003-04-14, 07:18:08
Originally posted by Endorphine
Solange es die Preise drückt ist aus meiner Sicht nichts gegen einzuwenden. Die Features der GPU bleiben ja trotzdem erhalten =)

Ein Ersatz für GF4 MX-SDR muss ja auch irgendwie geschaffen werden.


Full ack.

Demirug
2003-04-14, 07:38:42
Ich sage nur ein Wort: Longhorn

aths
2003-04-14, 07:58:29
Originally posted by Endorphine
Was sagst du dann zum TNT2/M64?

Würdest du da auch sagen:
Das ist so ziemlich die unsinnigste Karte, von der ich je gehört habe DX6-kompatibel, aber dermaßen kastriertes Speicher-Interface... die TNT2 non-ultra mit 32 MB hat nicht die Power, 32 MB tatsächlich sinnvoll ausnutzen zu können, und die 16 MB-Karte ist "dank" halbem Speicher-Bus offensichtlich vollkommen "Crippleware".
???

Der Preis muss auf jeden Fall noch niedriger werden. Wieviel teuerer wäre es gewesen, die 5200 mit brauchbarem Speicher-Interface anzubieten? Lohnt es wirklich, dafür die Leistung zu halbieren? Würde Grund-DX9 nicht ausreichen, jedenfalls wäre Grund-DX9 mit 128 Bit nicht irgendwie sinniger als "Cine FX" Shader 2.0+, aber dermaßen wenig Speicherbandbreite? Sorry, ich finde eine DX9-Karte, deren Leistung von den DX7-MXen teilweise übertroffen wird, einfach nur lächerlich.

Quasar@Work
2003-04-14, 08:04:07
So, wie ich die Jungs von XBit-Labs verstanden habe, sind das alles reine Vermutungen. Sie haben laut eigenen Angaben ja noch keine FX5200 zum Testen gehabt.


We all were amazed when NVIDIA launched its GeForce FX 5200, the first DirectX 9.0-supporting graphics card for $79, but we were quite surprised when such graphics cards appeared for sale in Japan for considerably higher price (see this news-story). Although we have not had an opportunity to test the GeForce FX 5200, based on reports from Asian and some other web-sites we know that such graphics cards are not really fast. However, at this point it is not the case. After carefully looking through the lists of specifications of the GeForce FX 5200-based graphics solutions we noticed that all products that have 128MB of DDR SDRAM memory onboard also utilise 128-bit memory bus, while quite a lot of graphics cards (I mean all that we have checked so far, but we cannot guarantee that all the GeForce FX 5200 cards are the same as observed by us) with 64MB used only 64-bit memory access (so far we checked AOpen and eVGA boards, but we believe that there may be other products with the same bus on the market)!
Wie "checken" die das? Einfach mal draufgucken und gut is?
Irgendwie klingt mir das zu einfach.

Quasar@Work
2003-04-14, 08:05:31
Originally posted by aths
Sorry, ich finde eine DX9-Karte, deren Leistung von den DX7-MXen teilweise übertroffen wird, einfach nur lächerlich.
Findest du auch DX8-Karten, deren Leistung teilweise von DX7-Karten übertroffen wird, "nur noch lächerlich"?

Radeonator
2003-04-14, 09:42:58
Originally posted by Endorphine
Solange es die Preise drückt ist aus meiner Sicht nichts gegen einzuwenden. Die Features der GPU bleiben ja trotzdem erhalten =)

Ein Ersatz für GF4 MX-SDR muss ja auch irgendwie geschaffen werden.

Ein Ersatz ist ja schön und gut, allerdings verstehe ich nicht warum dieser langsamer als der Vorgänger sein muss ??? Über diverse langsamere ATi Karten wird sich doch auch ständig aufgeregt...

Jasch
2003-04-14, 09:46:57
@ aths ich habe verstanden was du meinst wird halt ne schöne dau karte billig DX9 und FX aber spielen kannste damit halt nix außer Commander Keen :D

Börk
2003-04-14, 10:11:30
Originally posted by Demirug
Ich sage nur ein Wort: Longhorn
Da haste recht ;)
Longhorn wird mit der Karte natürlich optimal laufen, dank DX9 und GFFX :o:o:o

Endorphine
2003-04-14, 10:53:57
Originally posted by Quasar@Work
So, wie ich die Jungs von XBit-Labs verstanden habe, sind das alles reine Vermutungen. Sie haben laut eigenen Angaben ja noch keine FX5200 zum Testen gehabt.


Wie "checken" die das? Einfach mal draufgucken und gut is?
Irgendwie klingt mir das zu einfach.
Stimmt...
[X] /vote 4 move to Spekuforum =)

Endorphine
2003-04-14, 10:59:36
Originally posted by Radeonator
Ein Ersatz ist ja schön und gut, allerdings verstehe ich nicht warum dieser langsamer als der Vorgänger sein muss ??? Über diverse langsamere ATi Karten wird sich doch auch ständig aufgeregt...Für so kleine Karten sind wohl eher die netten 2D- und Videofeatures der grossen Brüder interessant, weniger die 3D-Power. So wie ich es sehe wäre die 5200 non-ultra "M64" dann ja auch die erste low-cost Grafikkarte mit zwei integrierten RAMDACs für Multimonitorsupport. Und für kleinere 3D-Applikationen sollte die Leistung auch dicke ausreichen. Selbst wenn sich die Leistung auf GF4MX-Niveau bewegt, für Longhorn-Beschleunigung und ne Runde Half-Life o.ä. reicht es sicher aus.

Unregistered
2003-04-14, 11:03:48
Originally posted by aths
Wieviel teuerer wäre es gewesen, die 5200 mit brauchbarem Speicher-Interface anzubieten? Lohnt es wirklich, dafür die Leistung zu halbieren? Würde Grund-DX9 nicht ausreichen, jedenfalls wäre Grund-DX9 mit 128 Bit nicht irgendwie sinniger als "Cine FX" Shader 2.0+, aber dermaßen wenig Speicherbandbreite? Sorry, ich finde eine DX9-Karte, deren Leistung von den DX7-MXen teilweise übertroffen wird, einfach nur lächerlich.
es gibt Ne neue Produkt reihe was glaubst du denn highend und Mid Range Ne Alter die kohle wird im low Budget oder OEM Geschäft gemacht somit ist das was du als UNNSIN bezeichnest sehr clever DX9 und cinefx das reist mehr als DX7 egal wie groß das Speicher Interface ist die karten sind für PCs gedacht die laufen sollen und da ist die grakart eh egal und ja normalerweise gehört da matrox rein aber die sind zu Blö... um ihre Produkte gut in den Markt zu drücken

Radeonator
2003-04-14, 11:08:38
Der Preis ist heiss und das wird letztendlich über den Erfolg der mini FX entscheidend sein. Da aber schon relativ Leistungsstarke Vertreter in diesem unteren Segment zu finden sein werden, ein harter Kampf...

Endorphine
2003-04-14, 11:09:42
Originally posted by aths
Wieviel teuerer wäre es gewesen, die 5200 mit brauchbarem Speicher-Interface anzubieten?Sicher nur ein paar USD, die Ersparnis bewegt sich vielleicht sogar nur im einstelligen Bereich. Dennoch: wenn man dann als Systembauer statt einer SiS315 Grafikkarte oder aufgebohrter i740 onboard-Grafik (i8x5G) eine voll ausgestattete 5200 non-ultra "M64" verwenden kann finde ich das doch eine interessante Alternative. Man kann es aus der Sicht eines GF4 Ti4600 Besitzers sehen, man kann aber auch von unten an die Sache rangehen und die 5200 "M64" als einen feinen Ersatz zu Grausamkeiten wie SiS315, nForce2-IGP, NV17-SDR u.ä sehen :) Was hättest du lieber, einen Rechner mit nForce2-Grafik oder ne 5200 non-ultra "M64", wenn's das gleiche kostet?Originally posted by aths
Wieviel teuerer wäre es gewesen, die 5200 mit brauchbarem Speicher-Interface anzubieten? Lohnt es wirklich, dafür die Leistung zu halbieren?Aus meiner Sicht: ja. Je mehr alte (NV17-SDR) oder Billigstlösungen (SiS315, Trident, S3 o.ä) oder integrierte Grafikbausteine durch eine solche Karte bei annähernd gleichem Preis ersetzt werden können, desto besser.Originally posted by aths
Sorry, ich finde eine DX9-Karte, deren Leistung von den DX7-MXen teilweise übertroffen wird, einfach nur lächerlich. Die GF4-MX SDR wird eine 5200 non-ultra M64 mit sehr hoher Wahrscheinlichkeit übertreffen. Mit etwas Glück bald zum gleichen Preis. Und dann nicht die ganzen aktuellen Features einfach mitnehmen und sich freuen? Es muss nicht immer eine maximale Lösung sein, man kann doch auch einfach ein Produkt anbieten, was ausreichende Leistung und alle aktuellen Funktionen zu einem sehr niedrigen Preis bietet, oder siehst du das anders? Mit gegebenem Aufwand ein maximales Ergebnis erzielen, da ist eine 5200 M64 IMHO keine schlechte Wahl. Würde die ner GF4-MX SDR immer vorziehen.

Iceman346
2003-04-14, 11:40:15
Originally posted by Endorphine
Sicher nur ein paar USD, die Ersparnis bewegt sich vielleicht sogar nur im einstelligen Bereich. Dennoch: wenn man dann als Systembauer statt einer SiS315 Grafikkarte oder aufgebohrter i740 onboard-Grafik (i8x5G) eine voll ausgestattete 5200 non-ultra "M64" verwenden kann finde ich das doch eine interessante Alternative.

Ist die Frage ob da wirklich ein Geschwindigkeitsunterschied besteht, bzw. wie gross dieser ist. Entspricht der NForce 2 IGP nicht einer GF3 MX 440 von der Geschwindigkeit her (kann mich auch irren) dann sollte die billig 5200 langsamer sein.

StefanV
2003-04-14, 11:40:47
Originally posted by Quasar@Work
Findest du auch DX8-Karten, deren Leistung teilweise von DX7-Karten übertroffen wird, "nur noch lächerlich"?

Die GF3 ??

StefanV
2003-04-14, 11:44:02
Originally posted by Unregistered

es gibt Ne neue Produkt reihe was glaubst du denn highend und Mid Range Ne Alter die kohle wird im low Budget oder OEM Geschäft gemacht somit ist das was du als UNNSIN bezeichnest sehr clever DX9 und cinefx das reist mehr als DX7 egal wie groß das Speicher Interface ist die karten sind für PCs gedacht die laufen sollen und da ist die grakart eh egal und ja normalerweise gehört da matrox rein aber die sind zu Blö... um ihre Produkte gut in den Markt zu drücken

...du scheinst aber zu vergessen, daß wir Leistungsmäßig auf der Stelle treten!!!

Gut, die High End Modelle sind schneller als die Vorgänger, das Problem sind die Mainstream Karten, die auf der Stelle treten und sogar (teilweise) noch deutlich HINTER dem Vorgänger liegt (GF FX5600 vs. TI4200).

StefanV
2003-04-14, 11:45:25
Originally posted by Iceman346


Ist die Frage ob da wirklich ein Geschwindigkeitsunterschied besteht, bzw. wie gross dieser ist. Entspricht der NForce 2 IGP nicht einer GF3 MX 440 von der Geschwindigkeit her (kann mich auch irren) dann sollte die billig 5200 langsamer sein.

Ja, entspricht in etwa einer MX440, mit Dual Chan DDR-SDRAM mehr als mit Single Chan...

Unregistered
2003-04-14, 12:21:48
Originally posted by Stefan Payne


...du scheinst aber zu vergessen, daß wir Leistungsmäßig auf der Stelle treten!!!

Gut, die High End Modelle sind schneller als die Vorgänger, das Problem sind die Mainstream Karten, die auf der Stelle treten und sogar (teilweise) noch deutlich HINTER dem Vorgänger liegt (GF FX5600 vs. TI4200).
Und du vergißt das es um den Sinn und die Markt Berechtigung der Karte hier geht! :)

Wie richthoffen schon sagt man sollte es nicht aus der hardcoregamer Sicht sehen dafür ist die karte auch das absolut falsche Preissegment!

die Leistung ist sagen wir +-0, aber dafür wie ich schon sagte, enthält die karte cinefx, DX9 usw.
So etwas kaufen die Leute ehr, bzw. die oems so oder so.
Da mehr zu bewerben sicher besser ist(für den Verkauf)!

Börk
2003-04-14, 12:38:20
Originally posted by Stefan Payne


...du scheinst aber zu vergessen, daß wir Leistungsmäßig auf der Stelle treten!!!

Gut, die High End Modelle sind schneller als die Vorgänger, das Problem sind die Mainstream Karten, die auf der Stelle treten und sogar (teilweise) noch deutlich HINTER dem Vorgänger liegt (GF FX5600 vs. TI4200).
Also ich finde es wesentlich wichtiger für uns gamer, dass DX9 gepusht wird. Dadurch werden DX9 Spiele nicht lange auf sich warten lassen.
Es ist klar, dass durch den Verbau von transistoren-raubender DX9 technik weniger in Roh-Leistung gesteckt werden kann, aber es dürfte sowieso nur die wenigsten DAUs interessieren, ob sie nun mit AA/AF spielen oder nicht. Alle die AA bzw. AF wollen müssen halt etwas tiefer in die Tasche greifen.
Ausserdem denke ich, dass über lange sicht die Preise von den 5200/5600er Karten deutlich sinken werden, da im unteren Preissegment enormer Preiskampf herrscht.
Dann werden die niederen High-End Karten auch unter die 250€ Marke sinken und somit gut bezahlbar sein.

ow
2003-04-14, 13:04:19
Originally posted by Stefan Payne


...du scheinst aber zu vergessen, daß wir Leistungsmäßig auf der Stelle treten!!!

Gut, die High End Modelle sind schneller als die Vorgänger, das Problem sind die Mainstream Karten, die auf der Stelle treten und sogar (teilweise) noch deutlich HINTER dem Vorgänger liegt (GF FX5600 vs. TI4200).

S.a. Radeon 9600 vs. 9500Pro.:D

Börk
2003-04-14, 13:08:56
Originally posted by ow


S.a. Radeon 9600 vs. 9500Pro.:D
Wenn dann musst du 9600Pro gegen 9500Pro sagen.
Ausserdem wird der Preis der 9600Pro Langfristig wesentlich niedriger als der der 9500Pro sein, da die Produktionskosten wesentlich geringer sind...

StefanV
2003-04-14, 13:43:04
Originally posted by ow
S.a. Radeon 9600 vs. 9500Pro.:D

Also ich sehe nix.
Liegt vermutlich daran, daß es noch nicht wirklich RV350 Benches gibt.
Geschweige denn zu kaufen...

Wie die RV280 PRO ausschaut, das kann man sich anschauen, wenn man eine RV250 PRO auf 300MHz zieht.

Quasar@Work
2003-04-14, 13:49:11
Originally posted by Stefan Payne
Ja, entspricht in etwa einer MX440, mit Dual Chan DDR-SDRAM mehr als mit Single Chan...
...nur, daß sich eine Grafikkarte nicht die RAM-Bandbreite mit den nervigen Hauptspeicherzugriffen anderer Geräte teilen muss, gelle?

ow
2003-04-14, 15:45:21
Originally posted by burk23

Wenn dann musst du 9600Pro gegen 9500Pro sagen.


Wieso?
Hat SP etwa was von der 5600Ultra gesagt?

ow
2003-04-14, 15:46:12
Originally posted by Stefan Payne


Also ich sehe nix.
Liegt vermutlich daran, daß es noch nicht wirklich RV350 Benches gibt.
Geschweige denn zu kaufen...

Wie die RV280 PRO ausschaut, das kann man sich anschauen, wenn man eine RV250 PRO auf 300MHz zieht.


Dann traeum mal schoen weiter bis es die ersten 9600er Benches gibt.

Xmas
2003-04-14, 16:23:29
Originally posted by Stefan Payne
Die GF3 ??
Die R9000 ??

Radeonator
2003-04-14, 16:25:26
Nix gegen die gute alte TnT2 M64, war damals meine Not Graka (sehr günstig mit 32MB) und hat mir gute Dienste geleistet. Die Leistung war gar nicht so übel...

Also über Leistung im absoluten LowCost Segment zu "streiten" halte ich für absolut unangebracht, da diese Karten für Office Rechner oder schlimmeres gedacht sind, ist die Leistung 2t rangig bis Sh1c3 Egal. Wie gesagt : Es zählt nur der Preis!!! und eine gute 2D Leistung und Punkt. Ich z.B. muss mich hier mit einer fiesen 4MB Oboard Sh1c3 von Inhell auf der Arbeit begnügen, aber es reicht, ma eben so jedenfalls...

LovesuckZ
2003-04-14, 16:38:58
Originally posted by Stefan Payne
Gut, die High End Modelle sind schneller als die Vorgänger, das Problem sind die Mainstream Karten, die auf der Stelle treten und sogar (teilweise) noch deutlich HINTER dem Vorgänger liegt (GF FX5600 vs. TI4200).

Naja, auch ATI's neue Mainstreamkarte 9600 wird deutlich von der alten 8500 geschlagen werden. Nvidia und ATI nehmen sich, zum aergernis der Spieler, beide nix.

dslfreak
2003-04-14, 17:49:43
Ist imho, wie schon weiter oben gesagt, der selbe Scheiß wie mit der G4MX SDR, so ein Mist. Da finde ich ja die PCI Karten noch besser. Ich meine wenn dann richtig und nicht so was!

dslfreak
2003-04-14, 17:51:27
Originally posted by LovesuckZ


Naja, auch ATI's neue Mainstreamkarte 9600 wird deutlich von der alten 8500 geschlagen werden. Nvidia und ATI nehmen sich, zum aergernis der Spieler, beide nix.

Wie meinste das jetzt? Die 8500 wird die 9600 schlagen? Wuz soll das. Oder hab ich was verpennt?

aths
2003-04-14, 18:47:42
Originally posted by Endorphine
Die GF4-MX SDR wird eine 5200 non-ultra M64 mit sehr hoher Wahrscheinlichkeit übertreffen. Mit etwas Glück bald zum gleichen Preis. Und dann nicht die ganzen aktuellen Features einfach mitnehmen und sich freuen? Es muss nicht immer eine maximale Lösung sein, man kann doch auch einfach ein Produkt anbieten, was ausreichende Leistung und alle aktuellen Funktionen zu einem sehr niedrigen Preis bietet, oder siehst du das anders? Mit gegebenem Aufwand ein maximales Ergebnis erzielen, da ist eine 5200 M64 IMHO keine schlechte Wahl. Würde die ner GF4-MX SDR immer vorziehen. Mein Ansatz: Ein gutes, "sinnvolles" Produkt sollte ausgewogen sein. Wozu also z.B. eine GF2 MX200 im Büro-Rechner? Was braucht man da 4 TMUs, Register Combiner, und T&L? Und dann noch 64 MB RAM, wie auf einigen MX200 gesehen?

Man spart an der einen Stelle ein paar $, an anderer Stelle wird das durch ein Mehr an RAM "ausgeglichen". Der Kunde bekommt ein groß aussehendes, aber schwachbrüstiges Produkt. Sowas halte ich für nicht wünschenswert.

Iceman346
2003-04-14, 19:06:43
Originally posted by dslfreak


Wie meinste das jetzt? Die 8500 wird die 9600 schlagen? Wuz soll das. Oder hab ich was verpennt?

Wenn sie wie von einigen Seiten angegeben mit 325/200er Taktraten kommt dann wird die 8500 wohl flotter sein (ausgenommen AA und AF)

dslfreak
2003-04-14, 19:12:17
Originally posted by Iceman346


Wenn sie wie von einigen Seiten angegeben mit 325/200er Taktraten kommt dann wird die 8500 wohl flotter sein (ausgenommen AA und AF)

Und wenn ich mit AA /AF spiel, dann ist sie aber schneller? Wobei ich habs mir eh anders Überlegt und tendiere zu 9500Pro nicht nur wegen den 8 rendering Pipelines!

Börk
2003-04-14, 19:16:21
Originally posted by Iceman346


Wenn sie wie von einigen Seiten angegeben mit 325/200er Taktraten kommt dann wird die 8500 wohl flotter sein (ausgenommen AA und AF)
Wobei die Rohleistung für AF/AA sowieso zu gering sein dürfte, ausser man spielt 2 Jahre alte games...

Tiamat
2003-04-14, 19:33:47
Ich find die neuen Karten ehrlich gesagt total komisch ,aber beidseitig ..

Radeon 9600 :325Mhz/200Mhz ?? Was gehtn da ab
Das letzte mal als von Ati ne Radeon mit 200mhz Ramtakt rauskam ,war glaub ich zu Radeon 1 Zeiten ..
Würd mich ehrlich gesagt nicht wundern wenn die selbst von ner Radeon7500 kräftig abgehängt wird ?-)
Das ganze wird eigentlich nur durch die Fx5200 M64 getoppt ;D
Oder die FX Mainstreamreihe : 2*2 Design ,unausgewogene Performance ,wird vom Vorgänger abgehängt ,guter Blendereffekt (hochgetakteter Ram) u.s.w
Irgendwie total irre findet ihr nicht ???

Riptor
2003-04-14, 19:56:46
Originally posted by LovesuckZ
Naja, auch ATI's neue Mainstreamkarte 9600 wird deutlich von der alten 8500 geschlagen werden. Nvidia und ATI nehmen sich, zum aergernis der Spieler, beide nix.

Wie soll das bitte gehen? Haste etwa schon eine R9600 zu Hause, oder was?

PCGH_Thilo
2003-04-14, 20:03:15
Originally posted by up
Tja, was nun?
http://www.xbitlabs.com/news/video/display/20030412194528.html

Mußte der arme 52er so kastriert werden um ihn klein zu kriegen?

wenn das noch jemanden interessiert: nvidia hat mir gegenüber gesagt, dass die aussage falsch sei. es gebe sowohl 64 mb mit 128 bit als auch 64 mb mit 64 bit.

Unregistered
2003-04-14, 20:14:08
Nicht wirklich, es besteht bei uns wenig Bedarf nach der 5200

LovesuckZ
2003-04-14, 20:23:36
Originally posted by Riptor
Wie soll das bitte gehen? Haste etwa schon eine R9600 zu Hause, oder was?

Sollte ATI kein Wundermittel finden, wird sogar eine technologisch veralterte Low-Cost Karte schneller wie ihre Mainstreamkarte sein. Und dafuer brauch man nicht mal ne 9600, um auf diese Überlegung zu kommen.

StefanV
2003-04-14, 21:05:48
Originally posted by Riptor
Wie soll das bitte gehen? Haste etwa schon eine R9600 zu Hause, oder was?

Eben das frage ich mich auch, zumal die Karten ja noch nicht wirklich angekündigt sind...

z.B. die Taktung ist noch (mehr oder minder) offen...
ATI könnte den RAM Takt ja noch 'etwas' nach oben korrigieren...

StefanV
2003-04-14, 21:07:38
Originally posted by LovesuckZ

Sollte ATI kein Wundermittel finden, wird sogar eine technologisch veralterte Low-Cost Karte schneller wie ihre Mainstreamkarte sein. Und dafuer brauch man nicht mal ne 9600, um auf diese Überlegung zu kommen.

Hast du schon 'ne 9600, die für den Handel bestimmt ist ??
Das, was ich gesehen hab, sind nur benches von 'irgendwelchen' Presamples...

Oder gibts gar schon 'ne Ankündigung seitens ATI ??

LovesuckZ
2003-04-14, 21:10:29
Originally posted by Stefan Payne
Hast du schon 'ne 9600, die für den Handel bestimmt ist ??
Das, was ich gesehen hab, sind nur benches von 'irgendwelchen' Presamples...


Hast recht. Wie konnt ich nur die so weitreichenden Veraenderungen des r350 Cores übersehen... :|

Demirug
2003-04-14, 21:20:38
Komm schon Stefan auch ATI kann nicht gegen bestimmte regeln verstossen. ;)

Und eine Regel die noch wie vor bei Grafikchips gilt ist 1 Sample pro Takt und TMU. Du kannst dir ja sicherlich ausrechnen auf welche Taktrate ein RV350 gebracht werden müsste um die Texturefillrate eines R200 zu erreichen.

In der Gesamtbetrachtung gewinnt der RV350 natürlich schon aufgrund des MSAA aber wenn es zu Fillratekritischen Situationen kommt kann man aus dem R200 eine höhre Rohleistung herrausholen.

StefanV
2003-04-14, 21:49:14
Originally posted by Demirug
Komm schon Stefan auch ATI kann nicht gegen bestimmte regeln verstossen. ;)

Und eine Regel die noch wie vor bei Grafikchips gilt ist 1 Sample pro Takt und TMU. Du kannst dir ja sicherlich ausrechnen auf welche Taktrate ein RV350 gebracht werden müsste um die Texturefillrate eines R200 zu erreichen.

Naja, ATI kann aber die Effizienz steigern und da die 9500 auch in Regionen der TI4200 fischt...

Ganz ab davon (worauf ich eigentlich hinaus will):

Abwarten bis die 9600 im Handel ist und Final Bretter getestet werden und keine Presamples!!

AlfredENeumann
2003-04-14, 21:50:54
Originally posted by LovesuckZ


Naja, auch ATI's neue Mainstreamkarte 9600 wird deutlich von der alten 8500 geschlagen werden. Nvidia und ATI nehmen sich, zum aergernis der Spieler, beide nix.


Hellseher ?

Labberlippe
2003-04-14, 22:39:18
Originally posted by LovesuckZ


Sollte ATI kein Wundermittel finden, wird sogar eine technologisch veralterte Low-Cost Karte schneller wie ihre Mainstreamkarte sein. Und dafuer brauch man nicht mal ne 9600, um auf diese Überlegung zu kommen.

Was willst Du dann über die LowCost Serie von nVIDIA sagen. ???

Gruss Labberlippe

Richthofen
2003-04-14, 23:01:57
will er ja gar nicht.
Er stellt nur klar, dass ATI auch nix anderes macht :)

Ich find die 5200 geil. DX9 für die Massen. Die Performance ist doch wurscht. Hauptsache Featureset verbreiten und die Entwickler bissl zu CG überreden damits auch genutzt wird.

nagus
2003-04-14, 23:09:42
Originally posted by Richthofen
will er ja gar nicht.
Er stellt nur klar, dass ATI auch nix anderes macht :)

Ich find die 5200 geil. DX9 für die Massen. Die Performance ist doch wurscht. Hauptsache Featureset verbreiten und die Entwickler bissl zu CG überreden damits auch genutzt wird.


öhhmm ... features sind ja schön und gut, aber auf dieser karte unbenutzbar langsam. ich weis nicht was sich nvidia dabei gedacht hat. eine karte die bestenfalls mit einer GF4MX konkurrieren kann... also wirklich. und dann noch soo ein riesen trumm von karte. auch für OEMs wohl kaum die erste wahl

Aquaschaf
2003-04-14, 23:33:41
Wenn durch solche absoluten LowCost-Karten DX9 Unterstützung wirklich verbreitet wird , dann werden Leute die aufgrund von Marktstudien entscheiden für welche Hardware ihre Entwickler eine Spieleengine entwickeln sollen wohl eher davon überzeugt werden können DX9 Features nutzen zu lassen .
Auch wenn die DX9 Features der 5200 garantiert aufgrund ihrer Langsamkeit in der Praxis für den Kartenbesitzer keine Rolle spielen , indirekt führt sie dazu das mehr DX9 Spiele auf den Markt kommen die wir dann auf unseren potenteren Karten bestaunen können .

Und soll Longhorn nicht irgendwie von DX9 fähiger Hardware profitieren ?

Piffan
2003-04-15, 00:00:34
Originally posted by Aquaschaf
Wenn durch solche absoluten LowCost-Karten DX9 Unterstützung wirklich verbreitet wird , dann werden Leute die aufgrund von Marktstudien entscheiden für welche Hardware ihre Entwickler eine Spieleengine entwickeln sollen wohl eher davon überzeugt werden können DX9 Features nutzen zu lassen .
Auch wenn die DX9 Features der 5200 garantiert aufgrund ihrer Langsamkeit in der Praxis für den Kartenbesitzer keine Rolle spielen , indirekt führt sie dazu das mehr DX9 Spiele auf den Markt kommen die wir dann auf unseren potenteren Karten bestaunen können .

Und soll Longhorn nicht irgendwie von DX9 fähiger Hardware profitieren ?

Was für Marktstudien sollen das denn sein?

Nochmal: Die Verbreitung von schmalbrüstiger Hardware wird wohl kaum die Entwickler dazu anspornen, gerade diese zu untersützen!

Die Entwickler sehen es sicher lieber, wenn relativ viele GF4, GF3 und Radeons verbreitet sind: Dann laufen die Spiele tatsächlich auf den REchnern! Die Schaumschlägerkarten taugen nur für die Prospekte, für DAU- Fang! Aber wer nur halbwegs Ahnung hat oder sich von Bekannten beraten läßt, der wird keinen Komplettrechner kaufen, wo dieser Schwachsinn verbaut wurde....

Richthofen
2003-04-15, 01:19:20
ich denke Spielentwickler sind realistisch genug zu erkennen, dass die Ware von der du redest nicht rentabel im absoluten Massenmarkt also deutlich sub 100$ verkauft werden kann.

Und auch wenn diese Karten lahm sind, so werden sie sehr wohl maßgeblich dazu beitragen das entsprechende Features viel eher genutzt werden von Entwicklern. Denn der Effekt als solcher ist mit diesen Karten wunderbar machbar. Sicher wird man nicht mit AA und AF spielen können und man wird sicher auch in der Auflösung runtergehen müssen und wahrscheinlich werden diese Karten denoch zu langsam sein aber das ist ja erstmal kein Problem. Die tolle Grafik bewundern kann der Käufer trozdem und die technischen Möglichkeiten bei Shadern und ähnlich gelagerten Dingen.
Oft werden aber wenn diese Spiele erscheinen diese Karten schon keine Rolle mehr spielen aber das macht auch nix. Es ist ja schlichtweg die Signalwirkung die hier ausgeht.
Wenn Nvidia jetzt DX9 von unten bis oben anbietet, dann kann der Entwickler davon ausgehen, dass dies auch zum Releasetermin des Spiels noch so ein wird nur eben dann mit bissl mehr Performance.

Ich verstehe die Leute hier wirklich überhaupt nicht. Bei der GF4MX hat sich jeder darüber aufgeregt, dass diese DX7 war. Auf der anderen Seite waren bis auf die MX420 diese Karten herrvorragend zum Spielen geeignet. Für den normalen Gamer haben die vollends ausgereicht. Nur weil die Leute hier in den Foren AA und AF so toll finden muss man das nicht auf alle projizieren. Fakt ist und bleibt, dass der Anteil derrer die diese Features wirklich konsequent nutzen nichtmal die 50% erreicht.
Also um nochmal auf die MX zurückzukommen. Nur DX7 dafür ansprechende Performance. Und alle haben gemault hier, weil damit DX8 spiele auf sich warten lassen. Ich kann die Threads hier gern hochholen in denen das stand. Das findet man tonnenweise.
Die 5200 bietet aktuellste DX9 Technik - in Teilen mit Abstrichen - ist dafür in der Performance etwas langsamer. Und jetzt ist es auch keinem Recht.
Löst euch mal von dem Gedanken, dass ihr aktuelle Karten mit aktuellen DX Features und guter Performance im Sub 100$ Segment bekommt. Das ist und bleibt ein Wuschtraum. Die Realität heisst am Ende muss ein Gewinn rauskommen und das passiert sicher nicht, wenn man 80 bis 90 Mio Transistoren verbaut und dazu fette Taktraten und neueste Speichertechnik.

Für mich persönlich ist die 5200 super. Ich konnte aber auch mit der GF4MX leben. Es sind 2 verschiedene Ansätze. Der eine war eben mehr Performance und der andere ist eben mehr Features. Dadurch dass Nvidia aber seine Effekten Engine auch weiter ausbauen und anbieten wird und durch das CG Tool das Ganze noch unterstützt ist mit der 5200 die Entwicklung hier eindeutig zum positiven hin voll zogen.
Das die Performance dabei bissl auf der Strecke bleibt stört mich wenig. Die Karten sollen DX9 unter die Massen bringen und für die langt die Karte. Der ambitionierte Gamer wird eben etwas mehr wollen und muss dafür dann eben auch etwas mehr zahlen. Umsonst gibts sicher nix.

gRoUnD
2003-04-15, 01:34:02
Richthofen hängst du beruflich mit nVidia zusammen ? Soll kein Flame sein ist nur eine Frage.

Birdman
2003-04-15, 01:48:15
Der Punkt ist: Mit dieser Karte läuft jedes Game!
Egal wie hoch die Anforderungen sind, die Karte supportet DX9+ und jedes Game mit noch so advanced Features lässt sich spielen...bzw. starten - und genau dies ist der entscheidende Punkt.

Wenn ein Game wegen mangelnden Features der Graka nicht startet, dann ist der Kunde verdammt angepisst --> weil gerade 50€ vor die Hunde geworfen.

Läuft das Game langsam, mit 10-15fps dann ist der Kunde zufrieden und kauft evtl. später mal ne schnellere Grafikkarte...wohl aber eher nicht, denn diese Sorte game kommt i.d.R. klar mit dieser Performance, bzw. empfindet das als spielbar flüssig.
Und FSAA/AF ist eh ein fremdwort, selbst wenn sie wüssten was es ist, sofern es nicht per default eingeschaltet ist, wird es dieser Kunde nue benutzen.

Richthofen
2003-04-15, 04:02:30
@ground

Nein hänge ich nicht. Ich hab mal vor einiger Zeit mit Nvidia nett Geld verdient an den Kapitalmärkten aber das wars dann auch schon.

Mich kotzt nur diese jämmerliche Denkweise an die ich hier mal kurz und knapp darlege.

GF4Ti kommt egal welche Version spielt ja keine Rolle von mir aus die T4200 und kostet 250 Euro in der 128 MB Ausführung.
2 Monate später kosten diese Versionen unter 200 Euro.
Die Zeit vergeht und wie sollte es auch anders sein fällt der Preis. Die Karten pendelten sich so zwischen 135 und 160 Euro ein.
Nun kommt die neue Generation DX9 Karten und die 5200 wird wenn sie überall breit verfügbar ist unter 100 Euro liegen.

Und nun denkt jeder gleich in diesen Foren - was für ein Betrug.
Die Karte ist viel lahmer als ne Ti4200. Nvidia solle doch so eine wie die Ti4200 mit DX9 am besten für 100 Euro verkaufen.

So und genau sowas ist einfach nur noch lachhaft. Wenn neue Grakas erscheinen sind die Preise zu Anfang immer recht hoch aus dem einfachen Grund, dass die Unternehmen wissen, dass sie nach und nach die Preise senken müssen. Ergo gehen die Margen mit steigender Lebenszeit zurück. Irgendwann ist aber der Punkt erreicht wo so eine Karte keine Marge mehr abwirft sprich unrentabel wird. Die logische Konsequenz kann nur sein entweder Preis nicht weiter senken oder Produkt einstellen.
Vom ursprünglichen Preis hat sich der aktuelle Preis halbiert. Es kann doch niemand hier ernsthaft erwarten, dass der Preis pro NV25 Chip bei TSMC sich seitdem halbiert hat. Das ist schlichtweg unmöglich. Nach wie vor werden diese Chips in 0.15 gefertigt. Der Preis wird sicher etwas niedriger sein als zu Produktionsstart aber sicher nicht so viel, dass diese Produkte nun übermäßig rentabel im sub 100 Euro Bereich verkauft werden können.

Was einige sich da zusammendenken ist gelinde gesagt größter wirtschaftlicher Unfug und würde einen ganzen Markt kaputt machen. Das ATI und vor allem AMD sowas in der Vergangenheit gern gemacht haben ist ja schön und gut aber die Resultate auf dem Balance Sheet hat man ja dann auch gesehen. Die Konsumenten gerade im Halbleiter und auch Unterhaltungselektronikmarkt sind mittlerweile total versaut durch die Dumperrei der letzten Jahre. Das betrifft zwar den Graikkartenmarkt nicht so sehr aber den DRAM und CPU Markt betrifft das ausserordentlich. Jeder denkt - och so ein bissl Sillizium kostet ja nix.
Aber wenn dann einige wie Infineon harte Einschnitte ankündigen ist das Geschrei wieder gross.

Eine Karte mit der Performance einer Ti4200 und DX9 zum jetzigen Zeitpunkt im 100 Dollar Bereich könnt ihr euch abschminken. Das wirds weder von Nvidia noch von ATI geben und wenn es das von einem der beiden gibt, dann werde ich das ganz sicher nicht gut heissen. Dumpen ist einfach Müll.


@Birdman
Du hast etwas genannt, was ich eigentlich in meinem Post auch sagen wollte nur vergessen hatte.
Die 3D Effekte laufen auf einer GF FX 5200 schonmal. Grund genug für den Entwickler sowas einzusetzen. Es läuft sicher nicht fix aber es läuft. Das es nicht mega flüssig ist, dahinter wird der Käufer dann schon kommen, dass ein OEM PC nicht das Optimum ist. Aber dafür hat er ja auch nur wenig ausgegeben. Es erwartet ja auch keiner, dass sein VW das Tempo und die Beschleunigung eines Porsches bringt.
Dafür hat er schlichtweg nicht genug bezahlt.

mapel110
2003-04-15, 04:16:32
hm, ich seh weniger sinn in einer 5200er als in einer geforce4 mx440.

hast zwar elektrische fensterheber, aber die bereifung ist scheisse.

Demirug
2003-04-15, 07:40:37
kommt mal wieder ein bischen runter.

Es gibt diese Marktstudien und die kosten auch eine Unmenge von Geld. So das sich die meistens nur die Publischer (oder grossen Studios)kaufen.

Ich habe es ja schon mal gesagt die Entscheidung ein Featureset zu unterstützen oder nicht ist eine reine Kosten/Nutzen Rechnung.

Aus Entwicklersicht macht NVIDIA das absolute Richtige. Ein Featureset und es wird nur noch über die Leistung skaliert. Dummerweise ist der Markt im Moment noch bis runter zu DX6 Level karten durchsetzt so das man die früchte dieser Entscheidung jetzt noch nicht voll auskosten kann. Das zweite Problem ist das ATI nicht wirklich mitmacht. Dort sind die Lowend Karten ja DX8 also einen Generation hinterher.

Der Punkt ist einfach das es ein immer Buget X für die Effekte gibt. Dieses muss auf die unterschiedlichen Technologien aufgeteilt werden. Je weniger Technologien man dabei berücksichtigen muss desto mehr Zeit (=Geld) kann man sich für eine davon nehmen um die Sache schneller oder schöner zu machen.

Manche machen immer wieder den Fehler ihrer persönliche Situation mit der eines Gelegenheitsspielers (die Leute die solche Lowendkarten im Rechner haben) gleich zu setzen. Die wissen das sie keine Wundermaschinen haben und erwarten auch gar keine Topleistungen.

Unregistered
2003-04-15, 08:49:37
Originally posted by Demirug
Komm schon Stefan auch ATI kann nicht gegen bestimmte regeln verstossen. ;)

Und eine Regel die noch wie vor bei Grafikchips gilt ist 1 Sample pro Takt und TMU. Du kannst dir ja sicherlich ausrechnen auf welche Taktrate ein RV350 gebracht werden müsste um die Texturefillrate eines R200 zu erreichen.

In der Gesamtbetrachtung gewinnt der RV350 natürlich schon aufgrund des MSAA aber wenn es zu Fillratekritischen Situationen kommt kann man aus dem R200 eine höhre Rohleistung herrausholen.


Die zweite TMU-Einheit der R200 wirkt sich aber überraschend wenig aus. Ich habe einmal die theoretischen Fillrate-Benches von einer R9000Pro und einer R8500-Retail miteinander verglichen. Da war die R200 auch beim Multitexturing nur um 20-25% schneller als die RV250.

Das hat mich dann doch sehr überrascht. Die R9600-Karten könnten also fast gleich schnell / gleich schnell sein wie eine R200-Karte. Warum das so ist, keine Ahnung aber anscheinend bringt eine optimierte Cache-Architektur doch einiges.

aths
2003-04-15, 10:10:06
Originally posted by Birdman
Der Punkt ist: Mit dieser Karte läuft jedes Game!
Egal wie hoch die Anforderungen sind, die Karte supportet DX9+ und jedes Game mit noch so advanced Features lässt sich spielen...bzw. starten - und genau dies ist der entscheidende Punkt.Und wenn es dann mit 5 fps läuft, merkt aber auch der Aldi-PC-Käufer, dass da was nicht stimmt. Zumal CBS ja auch auf Geschwindigkeit in Spielen testet.

Radeonator
2003-04-15, 10:19:08
Überlegt doch mal bitte logisch : Die Neuen Produktzyklen werden von 18 auf 24 aufgestockt, ergo werden viele dieser "wischi/Waschi" Karten auf den Markt kommen. Egal von wem, also ATi und NV werden es noch stärker als zuvor auf refreshes auslegen. Wenn Richti plötzlich DX9 für LowCost so geil findet, müsste er nun ja Bald ein echter XabreII Fan werden...;)

Quasar
2003-04-15, 10:24:47
Originally posted by Labberlippe


Was willst Du dann über die LowCost Serie von nVIDIA sagen. ???

Gruss Labberlippe
@Labberlippe
???
Ging es nicht darum, daß eine technologisch veraltete Low-Cost Karte schneller als die aktuelle Mainstreamkarte sein sollte?

Die technologisch veraltete Low-Cost Serie von nVidia ist die GF4MX, die ja zeitlebens schon für ihre technologische Rückständigkeit verdammt worden ist, un die ist sicher nicht schneller als eine GFFX5600.

@all:
Damals kam komischerweise niemand auf die Idee, zu sagen, DX8 wäre auf Karten dieses Kalibers (Preisklasse) eh nicht schnell genug, um nutzbar zu sein.
Wieso werden von denselben Leuten wie damals, nun ihre eigenen Argumente umgekehrt heruntergebetet und die sog. "Fortschrittsbremse" interessiert auf einmal auch niemanden mehr.
Schon seltsam, wie viele hier sich ihre Argumente zurechtbiegen.

nVidia hat DX9 bis zum Low-Cost Segment, ATi nicht. Nutzbar ist auf beiden Karten eh kaum DX7 bis zur letzen Konsequenz (s. UT2003, das schon stark abschächelt), so what??

ow
2003-04-15, 10:59:57
Originally posted by Unregistered


Ich habe einmal die theoretischen Fillrate-Benches von einer R9000Pro und einer R8500-Retail miteinander verglichen. Da war die R200 auch beim Multitexturing nur um 20-25% schneller als die RV250.



Das kann gar nicht sein.
Ueber das theoret. Maxiumum kommt keine Karte und meine 8500 kommt auf reale 1,8GTex bei 250MHz im Multitexturing. Mehr als 1,1Gtex kann eine R9000 @275MHz gar nicht bringen.

Frank
2003-04-15, 13:33:36
Originally posted by Quasar
nVidia hat DX9 bis zum Low-Cost Segment, ATi nicht.Genau hier ist anscheinend der Hund begraben, warum manche nicht sehen wollen, dass die Karte nicht gerade die Schlechteste ist.

Letztendlich reicht die Grundleistung auch dieser Karte vollkommen aus, wenn man nicht allzu hohe Ansprüche stellt und zu Hause eh nur 15"TFT oder Co dastehen hat. Und man hat halt DX9 - im Gegensatz zu damaligen Gf4MX der eindeutig bessere Schritt.

Richthofen
2003-04-15, 13:39:43
in der Tat :)

@Radeonator
Ich habe doch bereits erwähnt in diversen anderen Threads, dass die Idee von SIS der Aufgänger für Nvidia war. Die haben da wirklich ein gutes Beispiel abgegeben wie man aktuelles Featureset günstig an den Mann bringen kann und Nvidia hats aufgegriffen und wird sich somit in recht wenigen Monaten zum absoluten DX9 Marktführer katapultieren.

Das ändert aber nix an der Tatsache, dass ich nicht möchte das eine so ne kleine Bude wie SIS hier dicken Einfluss bekommt. Die sollen mal ruhig die kleine Randerscheinung bleiben dann passts.
Mir ist es lieber die 5200 verbreitet sich schön, die Entwickler setzen CG ein und ich bekomm aus meinen zukünftigen Nvidia Produkten recht viel rausgekitzelt und hoffentlich auch mal 3D Effekte zu sehen.
AA und AF hängt mir mittlerweile zum Halse raus gelinde gesagt.
Es wird bereits angeboten und für mich zufriedenstellend. Das 8x AF Application ist einfach göttlich und das 2x AA ausreichend. 4x RG wäre schöner aber hier kann ich in gewissem Umfang über die Auflösung gegensteuern.
Wird Zeit das mal was Neues kommt.
AA und AF ist bei mir in weiten Teilen abgehakt.

Radeonator
2003-04-15, 13:43:06
So ein schmarrn. DX9 wird seine Anwendung erst nächstes Jahr finden, plötzlich ist es aber ein Ultra wichtiges Feature ???

Als die ATi Karten mit DX9 kamen haben genau die selben Leute, die es jetzt als DAS Kauf Argument ansehen, genau mit diesem Argument gegen den Sinn von DX9 Karten zum jetzigen Zeitpunkt gewettert...

Naja, immer schön so hinpacken wie es passt ;)

Wenn jetzt wieder CineFX kommt...die ATi9100er hat doch AFAIK FUllstream und ist auch eine LowCost Karte, zudem eine gute 2D Quality und für ein Game zwischendurch reichts auch.

LovesuckZ
2003-04-15, 13:49:13
Originally posted by Stefan Payne
Naja, ATI kann aber die Effizienz steigern und da die 9500 auch in Regionen der TI4200 fischt...


Huch? Wieso habe ich dies mit meiner 9500 verpasst...

LovesuckZ
2003-04-15, 13:51:21
Originally posted by Radeonator
Als die ATi Karten mit DX9 kamen haben genau die selben Leute, die es jetzt als DAS Kauf Argument ansehen, genau mit diesem Argument gegen den Sinn von DX9 Karten zum jetzigen Zeitpunkt gewettert...


Und genau diese ATi Leuten haben Nvidia als "Technologiebremse" hingestellt. Na was denn nun...

Wenn jetzt wieder CineFX kommt...die ATi9100er hat doch AFAIK FUllstream und ist auch eine LowCost Karte, zudem eine gute 2D Quality und für ein Game zwischendurch reichts auch.

Wozu dann ne 9600?

Unregistered
2003-04-15, 13:53:21
Originally posted by Quasar

@Labberlippe
???
Ging es nicht darum, daß eine technologisch veraltete Low-Cost Karte schneller als die aktuelle Mainstreamkarte sein sollte?

Die technologisch veraltete Low-Cost Serie von nVidia ist die GF4MX, die ja zeitlebens schon für ihre technologische Rückständigkeit verdammt worden ist, un die ist sicher nicht schneller als eine GFFX5600.

@all:
Damals kam komischerweise niemand auf die Idee, zu sagen, DX8 wäre auf Karten dieses Kalibers (Preisklasse) eh nicht schnell genug, um nutzbar zu sein.
Wieso werden von denselben Leuten wie damals, nun ihre eigenen Argumente umgekehrt heruntergebetet und die sog. "Fortschrittsbremse" interessiert auf einmal auch niemanden mehr.
Schon seltsam, wie viele hier sich ihre Argumente zurechtbiegen.

nVidia hat DX9 bis zum Low-Cost Segment, ATi nicht. Nutzbar ist auf beiden Karten eh kaum DX7 bis zur letzen Konsequenz (s. UT2003, das schon stark abschächelt), so what??

Wieso ???
Das war bis jetzt bei nVIDIA Gang und gebe.
Als Argument kam das man genauso Kohle macht.
Auch wurde betont das ja die neuen Feautures sich durchsetzten.
Ich erinnere nur mal an die MX und M64 Kärtchen wo einige geprotzt haben.

Jetzt wo ATi dieses macht, ist es plötzlich eine sauerrei.
Die Leistung der R9600 ist sicher nicht unbrauchbar in gegensatz zur normalen 5200er von nVIDIA.
Da gibt es aber dafür eine leistungsfähiger R200. Also sehe ich bei ATi kein Problem.

Wenn ich mir die Preise der aktuellen Mainstream Karten ansehen, dann muss uns doch schon einleuchten das einfach nicht mehr geht.

Nichteinmal 200€ und dennoch eine vernünftige Leistung der ATi Karten.
Ich habe mir bewust eine 9000er gekauft, bin mit der Leistung durchaus zufrieden und alle aktuellen Games laufen.

Gruss Labberlippe

LovesuckZ
2003-04-15, 13:53:41
Originally posted by Labberlippe
Was willst Du dann über die LowCost Serie von nVIDIA sagen. ???
Gruss Labberlippe

Die 5200/Ultra loesen die alten Low Cost Modelle ab und kommen zum selben Preis in den Handel. Was gibt es dadran auszusetzen?
Als die MX440/460 kamen, waren sie teurer wie ne TI/TI200 und langsamer bzw. gleichschnell wie ne TI200/TI und trotzdem konnten sie sich durchsetzen. Das selbe Schema laeuft doch nun auch wieder ab.

Unregistered
2003-04-15, 13:54:58
Originally posted by Richthofen
in der Tat :)

@Radeonator
Ich habe doch bereits erwähnt in diversen anderen Threads, dass die Idee von SIS der Aufgänger für Nvidia war. Die haben da wirklich ein gutes Beispiel abgegeben wie man aktuelles Featureset günstig an den Mann bringen kann und Nvidia hats aufgegriffen und wird sich somit in recht wenigen Monaten zum absoluten DX9 Marktführer katapultieren.

Das ändert aber nix an der Tatsache, dass ich nicht möchte das eine so ne kleine Bude wie SIS hier dicken Einfluss bekommt. Die sollen mal ruhig die kleine Randerscheinung bleiben dann passts.
Mir ist es lieber die 5200 verbreitet sich schön, die Entwickler setzen CG ein und ich bekomm aus meinen zukünftigen Nvidia Produkten recht viel rausgekitzelt und hoffentlich auch mal 3D Effekte zu sehen.
AA und AF hängt mir mittlerweile zum Halse raus gelinde gesagt.
Es wird bereits angeboten und für mich zufriedenstellend. Das 8x AF Application ist einfach göttlich und das 2x AA ausreichend. 4x RG wäre schöner aber hier kann ich in gewissem Umfang über die Auflösung gegensteuern.
Wird Zeit das mal was Neues kommt.
AA und AF ist bei mir in weiten Teilen abgehakt.

Wo ist bitte nVIDIA DX9 Marktführer. ???

Gruss Labberlippe

LovesuckZ
2003-04-15, 13:55:16
Originally posted by Unregistered
Jetzt wo ATi dieses macht, ist es plötzlich eine sauerrei.
Die Leistung der R9600 ist sicher nicht unbrauchbar in gegensatz zur normalen 5200er von nVIDIA.
Da gibt es aber dafür eine leistungsfähiger R200. Also sehe ich bei ATi kein Problem.


Vergleich zwischen 9600 und 5200 sind unangebracht, da hier eine Mainstreamkarte gegen eine Low-Cost Karte verglichen wird.
Und nun die entscheidenen frage: Warum eine 9600 kaufen, wenn ich fuer weniger Geld gleichschnelle und wahrscheinlich auch bessere Leistung erhalte -Bezug auf 9200- ?

Unregistered
2003-04-15, 13:56:05
Originally posted by LovesuckZ


Die 5200/Ultra loesen die alten Low Cost Modelle ab und kommen zum selben Preis in den Handel. Was gibt es dadran auszusetzen?
Als die MX440/460 kamen, waren sie teurer wie ne TI/TI200 und langsamer bzw. gleichschnell wie ne TI200/TI und trotzdem konnten sie sich durchsetzen. Das selbe Schema laeuft doch nun auch wieder ab.

Eben und warum jammerst Du jetzt über ATi ???
Mehr Leistung heist nunmal mehr Kohle hinlegen.
P/L ist eh noch ok bei den 9600er Karten.

Gruss Labberlippe

Quasar
2003-04-15, 13:56:34
Originally posted by Radeonator
So ein schmarrn. DX9 wird seine Anwendung erst nächstes Jahr finden, plötzlich ist es aber ein Ultra wichtiges Feature ???

Nein, keineswegs. Es ist mit keinem der Low-Cost Produkte wirklich nutzbar. Bei ATi nicht wegen nicht vorhandener 2.0-Shader und bei nV eben nicht wegen der nicht vorhandenen Leistung (auf DX>7 bezogen).

Originally posted by Radeonator
Als die ATi Karten mit DX9 kamen haben genau die selben Leute, die es jetzt als DAS Kauf Argument ansehen, genau mit diesem Argument gegen den Sinn von DX9 Karten zum jetzigen Zeitpunkt gewettert...
Das war vor einem dreiviertel Jahr. Aber trotzdem, ein echtes Argument ist es nicht, ausser für DAUs und die machen nunmal die Mehrzahl der Käufer aus.

Originally posted by Radeonator
Naja, immer schön so hinpacken wie es passt ;)
Nein. Aber du solltest auch nicht immer Dinge anders darstellen, als sie gesagt wurden.

Originally posted by Radeonator
Wenn jetzt wieder CineFX kommt...die ATi9100er hat doch AFAIK FUllstream und ist auch eine LowCost Karte, zudem eine gute 2D Quality und für ein Game zwischendurch reichts auch.
Fullstream?
Oh ja, DivX erst ab R300-Chips, Real-Streams nur mit der Bezahlversion und dort auch mit fraglichem Nutzen.
Die 2D-Qualität von sämtlichen nVidia-Chips (sowie aller anderer Hersteller ist mindestens genausogut. (Kleiner Tip: Nicht immer die Gesamtheit aller Produkte über einen Kamm scheren, ATi-Karten kriegt man hierzulande nicht.)

Unregistered
2003-04-15, 13:57:26
Originally posted by LovesuckZ


Vergleich zwischen 9600 und 5200 sind unangebracht, da hier eine Mainstreamkarte gegen eine Low-Cost Karte verglichen wird.
Und nun die entscheidenen frage: Warum eine 9600 kaufen, wenn ich fuer weniger Geld gleichschnelle und wahrscheinlich auch bessere Leistung erhalte?

Wieso haben dann massenhaft die Leute MX Karten gekauft obwohl die GeForce3 TI 200 besser war. ???

Gruss Labberlippe

Quasar
2003-04-15, 14:03:13
Originally posted by Unregistered


Wieso ???
Das war bis jetzt bei nVIDIA Gang und gebe.
Als Argument kam das man genauso Kohle macht.

Was genau??? Aus deinen Postings wird man immer weniger schlau....

Originally posted by Unregistered
Auch wurde betont das ja die neuen Feautures sich durchsetzten.
Ich erinnere nur mal an die MX und M64 Kärtchen wo einige geprotzt haben.
Jetzt wo ATi dieses macht, ist es plötzlich eine sauerrei.
Die Leistung der R9600 ist sicher nicht unbrauchbar in gegensatz zur normalen 5200er von nVIDIA.

Was tut ATi? Und wieso vergleichst du Mid-Range mit Low-Cost???


Originally posted by Unregistered
Da gibt es aber dafür eine leistungsfähiger R200. Also sehe ich bei ATi kein Problem.

Versteh' ich nicht. Wo gibt es "eine leistungsfähiger R200"? Und für was? Welches Problem bei ATi?

Originally posted by Unregistered
Wenn ich mir die Preise der aktuellen Mainstream Karten ansehen, dann muss uns doch schon einleuchten das einfach nicht mehr geht.
Nichteinmal 200€ und dennoch eine vernünftige Leistung der ATi Karten.
Ich habe mir bewust eine 9000er gekauft, bin mit der Leistung durchaus zufrieden und alle aktuellen Games laufen.
Gruss Labberlippe
Was geht nicht mehr? Bessere Leistung zu gleichbleibenden Preisen? Natürlich, das war schon immer so, und solange man nicht an irgendwelche Grenzen der physikalischen Fertigung stößt, wird das auch so bleiben müssen.

LovesuckZ
2003-04-15, 14:04:30
Originally posted by Unregistered
Eben und warum jammerst Du jetzt über ATi ???
Mehr Leistung heist nunmal mehr Kohle hinlegen.
P/L ist eh noch ok bei den 9600er Karten.


9600 kommt am Anfang mit 145$ in den Läden. 9200 wird bzw. muss wohl deutlich weniger kosten. 5200 kommt mit 99$ in die Läden.
Wo ich über ATI meckere, entgeht mir grad. Ich beziehe mich nur dadrauf, dass du ne 9600 mitner 5200 vergleichst, was angesichts der Marktposition der beiden karten überhaupt nicht geht...

Quasar
2003-04-15, 14:05:02
Originally posted by Unregistered


Wieso haben dann massenhaft die Leute MX Karten gekauft obwohl die GeForce3 TI 200 besser war. ???

Gruss Labberlippe

Weil die ti200 teurer war vielleicht? Es gibt nicht jeder ohne nachzudenken 150€ und mehr für eine Grafikkarte aus. Viele erwarten dafür schon einen halben PC.

Radeonator
2003-04-15, 14:06:11
*schnipp* bis hier ACK!!!

Originally posted by Quasar
Nein. Aber du solltest auch nicht immer Dinge anders darstellen, als sie gesagt wurden.


Habe ich nicht, anders herum wwird ein Schuh draus. Es wurde genau so geschrieben : DX9 Als kaufargument bei NV hui, bei ATi pfui (*Anmerkung der Red. Sinngemäß nicht direkt auf diesen Thread, sondern auf vorherige bezogen)

Originally posted by Quasar
Fullstream?
Oh ja, DivX erst ab R300-Chips, Real-Streams nur mit der Bezahlversion und dort auch mit fraglichem Nutzen.


Fullstream hat genauso viel Sinn wie DX9 Fähigkeiten, bei einer 64Bittigen beschnittenen, Office Karte...

Originally posted by Quasar
Die 2D-Qualität von sämtlichen nVidia-Chips (sowie aller anderer Hersteller ist mindestens genausogut. (Kleiner Tip: Nicht immer die Gesamtheit aller Produkte über einen Kamm scheren, ATi-Karten kriegt man hierzulande nicht.)

Weder die GF 3/4 haben die 2D Quali einer ATi/Sapphire Graka ab der 8500er. Selbst Piffan hat diesen Quali unterschied in einem Thread erwähnt. Erst mit der FX reihe, bietet NV eine sehr gute 2D Quali (wurde auch mal Zeit ;) ) . Sprich für Office Karten und OEM ist die 5200er einfach eine gute Karte, wenn der Preis stimmt (auch wenn ich mich da wiederhole...)

mapel110
2003-04-15, 14:07:52
hm, derzeit ist ja wohl dx8 ausreichend für budget. wir warten schliesslich erstmal auf diese effekte.

oder werden dx8 effekte jetzt übersprungen und gleich für dx9 entwickelt bzw angepasst ?

wie siehts in der hinsicht eigentlich bei entwicklern aus, demirug ?

ich mein, bislang sieht man ja nur hier und da ne wasserpfütze von dx8.
bietet das nicht mehr ?

Demirug
2003-04-15, 14:10:23
Och man wie oft den noch.

Die Lowcost Karten bestimmen den Technologielevel der bei Spielen primär unterstützt wird. Denn in die Unterstüzung dieses Levels wird das meiste Geld investiert.

Diese von euch gerne verächtlich als "unspielbar" bezeichneten Karten verrichten ihrer Arbeit in Unmengen von Computer die nur selten zum spielen benutzt werden. Aber gerade in diesem Bereich macht man nicht unerheblich Umsätze. Dieses Spieler haben aber auch nicht die gleichen Ansprüche wie ein Besitzer einer Highend Karte.

LovesuckZ
2003-04-15, 14:11:49
Originally posted by Demirug
Och man wie oft den noch.


zeit fuer Urlaub:)

Unregistered
2003-04-15, 14:15:23
Originally posted by mapel110
hm, derzeit ist ja wohl dx8 ausreichend für budget. wir warten schliesslich erstmal auf diese effekte.

oder werden dx8 effekte jetzt übersprungen und gleich für dx9 entwickelt bzw angepasst ?

wie siehts in der hinsicht eigentlich bei entwicklern aus, demirug ?

ich mein, bislang sieht man ja nur hier und da ne wasserpfütze von dx8.
bietet das nicht mehr ? maul maul maul :)
mit der Einstellung bestimmt nicht
rein aus dem Grund hat die karte ja Ne marktberechtigung nv dx8/9 lowbudget ati hat ein prob da nur dx8 low budget somit ist auf breiter front dx9 am Start und wenn es prozentual genug dx9 Hardware gibt wird auch drauf geprogt!

Ich verstehe nicht warum hier Ne Diskussion läuft da die karte perfekt ist für das was ihr Ziel ist und wir sollten uns alle freuen das nv versucht die Effekte in den Massen Markt zu bringen der Speed ist uninteressant oder will einer von euch behaupten das er nicht weis das diese karte nicht zum gamen gedacht ist!

Quasar
2003-04-15, 14:15:33
Originally posted by Radeonator
Habe ich nicht, anders herum wwird ein Schuh draus. Es wurde genau so geschrieben : DX9 Als kaufargument bei NV hui, bei ATi pfui (*Anmerkung der Red. Sinngemäß nicht direkt auf diesen Thread, sondern auf vorherige bezogen)

Nein, ATi bietet bisher DX9 nur ab Mid-Range an. Von der tatsächlichen Nutzbarkeit, der Performance also, ist das schon etwas verwegen, denn die R9500 non-Pro kommt schon mit DX8 ein bißchen ins Straucheln.

Von daher macht DX9, wenn überhaupt, höchstens als Zugpferd im High-End Bereich Sinn.

Andererseits schadet es nicht, DX9 an Board zu haben, wenn es die Karten nicht verteuert. Und da DX8 damals bei ATi die R9000 nicht verteuert hat, war es i.O. Und genauso i.O. ist es heuer mit DX9 in den kleinen GeForce FX. Es macht sie nicht teuerer und nutzbar ist es zum Spielen wohl genausowenig.
Nur der Karte daraus einen Strick drehen zu wollen, daß sie nicht alle Features nutzbar und in voller Pracht flüssig darstellen kann, ist falsch!
Da gibt es noch weitaus mehr Beispiele, wo Karten mit voll ausgereizten Features (sogar der Vorgänger-DX-Version) aus der Puste kommen.

Originally posted by Radeonator
Fullstream hat genauso viel Sinn wie DX9 Fähigkeiten, bei einer 64Bittigen beschnittenen, Office Karte...
DX9 wird, so wie es aussieht, aber wohl zur GUI-Darstellung in Longhorn genutzt, Fullstream nicht.
Ansonsten Ack, beide Features sind (bei den entsprechenden Karten) nicht viel mehr als Marketing.

Originally posted by Radeonator
Weder die GF 3/4 haben die 2D Quali einer ATi/Sapphire Graka ab der 8500er. Selbst Piffan hat diesen Quali unterschied in einem Thread erwähnt. Erst mit der FX reihe, bietet NV eine sehr gute 2D Quali (wurde auch mal Zeit ;) ) . Sprich für Office Karten und OEM ist die 5200er einfach eine gute Karte, wenn der Preis stimmt (auch wenn ich mich da wiederhole...)
Du verallgemeinerst schon wieder. Es gibt nicht "GF3/4", es sei denn, du redest von den Chips, nicht den Karten. Und das Ausgangssignal ist bei den Chips AFAIK gleich.
Das individuelle Karten sich hinsichtlich der SQ unterscheiden, ist unbestritten, aber da gibt es hüben wie drüben schwarze Schafe.

Exxtreme
2003-04-15, 14:21:23
Originally posted by mapel110
ich mein, bislang sieht man ja nur hier und da ne wasserpfütze von dx8.
bietet das nicht mehr ?
Wundert mich ehrlich gesagt auch. Ausser bei Wassereffekten in einigen Spielen und diversen Grafikdemos habe ich noch nichts gesehen von DX8. Vielleicht ist DX8 doch nicht so gut?

mapel110
2003-04-15, 14:24:23
Originally posted by Quasar

Du verallgemeinerst schon wieder. Es gibt nicht "GF3/4", es sei denn, du redest von den Chips, nicht den Karten. Und das Ausgangssignal ist bei den Chips AFAIK gleich.
Das individuelle Karten sich hinsichtlich der SQ unterscheiden, ist unbestritten, aber da gibt es hüben wie drüben schwarze Schafe.

eben. und ich glaube kaum, dass viele zocker da draussen nen guten 19" zöller haben, um 1600er bei 85-100 hz zu fahren, wo einem die unterschiede überhaupt erst auffallen würden.

mapel110
2003-04-15, 14:26:14
Originally posted by Unregistered
maul maul maul :)
mit der Einstellung bestimmt nicht
rein aus dem Grund hat die karte ja Ne marktberechtigung nv dx8/9 lowbudget ati hat ein prob da nur dx8 low budget somit ist auf breiter front dx9 am Start und wenn es prozentual genug dx9 Hardware gibt wird auch drauf geprogt!

Ich verstehe nicht warum hier Ne Diskussion läuft da die karte perfekt ist für das was ihr Ziel ist und wir sollten uns alle freuen das nv versucht die Effekte in den Massen Markt zu bringen der Speed ist uninteressant oder will einer von euch behaupten das er nicht weis das diese karte nicht zum gamen gedacht ist!

schon mal was von punkt und komma gehört. naja, immerhin machst du gross und kleinschreibung. wir haben wohl grundsätzlich andere prioritäten ;D

Unregistered
2003-04-15, 14:37:49
Originally posted by mapel110


schon mal was von punkt und komma gehört. naja, immerhin machst du gross und kleinschreibung. wir haben wohl grundsätzlich andere prioritäten ;D Ne vergessen :)
Ich habe ich nicht mehr dran gedacht, in zu vielen threads zugleich sei!

PS zu not halt F7

Unregistered
2003-04-15, 14:39:09
Originally posted by LovesuckZ


Vergleich zwischen 9600 und 5200 sind unangebracht, da hier eine Mainstreamkarte gegen eine Low-Cost Karte verglichen wird.
Und nun die entscheidenen frage: Warum eine 9600 kaufen, wenn ich fuer weniger Geld gleichschnelle und wahrscheinlich auch bessere Leistung erhalte?

Du spinnst! Die FX5200 ist nie im Leben gleich schnell wie eine R9600 :

http://www.tt-hardware.com/img/divers01/geffx_5200.gif

http://www.tt-hardware.com/img/divers01/geffx_9600.gif

die seltsame Architektur des FX5200 wurde dem Redakteur der Webseite von verschiedenen Seiten bestätigt.

Hier die FX5600 im Vergleich dazu :

http://www.tt-hardware.com/img/divers01/geffx_5600.gif

zeckensack
2003-04-15, 14:43:03
Originally posted by Quasar
@all:
Damals kam komischerweise niemand auf die Idee, zu sagen, DX8 wäre auf Karten dieses Kalibers (Preisklasse) eh nicht schnell genug, um nutzbar zu sein.
Wieso werden von denselben Leuten wie damals, nun ihre eigenen Argumente umgekehrt heruntergebetet und die sog. "Fortschrittsbremse" interessiert auf einmal auch niemanden mehr.
Schon seltsam, wie viele hier sich ihre Argumente zurechtbiegen.Ack.

Noch ein paar ergänzende Worte dazu, jedoch ausdrücklich unter der Prämisse "NV34 finde ich trotzdem brauchbar":
PS1.3 auf NV-Karten senkt die Performance schlimmstenfalls auf 25%, das ist recht gut kalkulierbar. DX9-Shader sind ein Faß ohne Boden, bis hin zu einem theoretischen Einbruch auf 1% (PS2.0) bzw gar 0,1% ("PS2.0+") der Rohperformance.

Und wer der Meinung ist, eine 5200er wäre auf keinen Fall in der Lage, "DX9-Spiele" flüssig darzustellen, der möge sich an die Existenz der Auflösungsauswahl erinnern.
Solange eine FX5800Ultra in 1024x768 'angenehm' ist, dann gilt gleiches für eine 5200 non-Ultra, dann eben in 640x480, aber was soll's.

zeckensack
2003-04-15, 14:46:03
Originally posted by Unregistered
maul maul maul :)
mit der Einstellung bestimmt nicht
rein aus dem Grund hat die karte ja Ne marktberechtigung nv dx8/9 lowbudget ati hat ein prob da nur dx8 low budget somit ist auf breiter front dx9 am Start und wenn es prozentual genug dx9 Hardware gibt wird auch drauf geprogt!

Ich verstehe nicht warum hier Ne Diskussion läuft da die karte perfekt ist für das was ihr Ziel ist und wir sollten uns alle freuen das nv versucht die Effekte in den Massen Markt zu bringen der Speed ist uninteressant oder will einer von euch behaupten das er nicht weis das diese karte nicht zum gamen gedacht ist! Irgendwie widersprichst du dir selbst :|

Erst findest du DX9 wichtig - was dein gutes Recht ist. Und im Abschluß sagst du "das diese karte nicht zum gamen gedacht ist!", wodurch DX9 ja irgendwie an Bedeutung verliert, meinst nicht?
;)

Quasar
2003-04-15, 14:47:29
Originally posted by Unregistered


Du spinnst! Die FX5200 ist nie im Leben gleich schnell wie eine R9600 :

http://www.tt-hardware.com/img/divers01/geffx_5200.gif

http://www.tt-hardware.com/img/divers01/geffx_9600.gif

die seltsame Architektur des FX5200 wurde dem Redakteur der Webseite von verschiedenen Seiten bestätigt.

Hier die FX5600 im Vergleich dazu :

http://www.tt-hardware.com/img/divers01/geffx_5600.gif

Sieht lustig aus. Woher hast du das und wie läßt sich das mit 4 Pipelines der FX5200 vereinbaren?

Demirug
2003-04-15, 14:50:15
Wenn ihr jetzt schon wieder mit der Diskussion wegen der Sinnhaftigkeit von Features in Grafikkarten anfangt. Die Grundregel ist ganz einfach wenn auch zugegebenermassen schon etwas merkwürdig.

Je teurer eine Grafikkarte ist desto weniger wird der Erstkäufer von den neuen Features haben.

Das kommt daher weil:

Je teurer eine Grafikkarte war desto schneller wird sie von einer neuen ersetzt.

Die verweildauer einer Grafikkarte im Hauptrechner eines Erstkäufers verhält sich also umgekehrt zum Preis.

Aus diesem Grund ziehen wir doch im Moment so einen technologischen Ratenschwanz hinter uns her. Jede Aktion die diesen Schwanz kürzer macht wird von mir daher voll begrüsst. (und ja die GF4MX Geschichte war aus meiner Sicht schei....., genau wie die umbennung von DX8 Karten bei ATI in 9xxx Karten)

Und um auch nochmal auf das Thema wir sehen keine DX8 Effekte zu kommen.

Was würdet ihr machen wenn euch euer Geldgeber (Publischer) eine Statistik auf den Tisch legt in der steht.

Grafikkarten bei potenzielen Kunden:

20% < DX7
80% DX7
10% DX8

Und dann sagt: "Du bekommtst 1000 Zeiteinheiten für die spezifischen technologische Anpassungen". Wie verteilt man nun diese Einheiten?

Unregistered
2003-04-15, 14:54:48
Originally posted by zeckensack
Irgendwie widersprichst du dir selbst :|

Erst findest du DX9 wichtig - was dein gutes Recht ist. Und im Abschluß sagst du "das diese karte nicht zum gamen gedacht ist!", wodurch DX9 ja irgendwie an Bedeutung verliert, meinst nicht?
;)

Richtig die karte ist zum zocken Ehr nicht geeignet!
Dafür ist sie ja auch nicht gedacht.
Aber gerade du mußt doch wissen das die breite DX9 Unterstützung nur funzt wenn selbst jeder Office Rechner dx9 hat ob schnell genug oder nicht aber für die Hardware Beschleunigung von long horn sollte es ausreichen!

Und ein Vorteil ist es auch da ATi dx9 nicht so günstig bietet!



Das steht MARKTBERECHTIGUNG und das Habe ich einige Post vorher schon erklärt!

Exxtreme
2003-04-15, 14:54:51
Originally posted by Unregistered


Du spinnst! Die FX5200 ist nie im Leben gleich schnell wie eine R9600 :

http://www.tt-hardware.com/img/divers01/geffx_5200.gif

http://www.tt-hardware.com/img/divers01/geffx_9600.gif

die seltsame Architektur des FX5200 wurde dem Redakteur der Webseite von verschiedenen Seiten bestätigt.

Hier die FX5600 im Vergleich dazu :

http://www.tt-hardware.com/img/divers01/geffx_5600.gif
Cool. :)
Also ist die GFFX5200 ein 1x1-Design, wenn man DX9 verwendet, oder?

Exxtreme
2003-04-15, 14:55:47
Originally posted by Quasar


Sieht lustig aus. Woher hast du das und wie läßt sich das mit 4 Pipelines der FX5200 vereinbaren?
Die 4 Pipelines scheinen nur dann Verwendung zu finden solange man kein DX9 nutzt.

ow
2003-04-15, 14:56:17
Originally posted by Exxtreme

Cool. :)
Also ist die GFFX5200 ein 1x1-Design, wenn man DX9 verwendet, oder?

Noe, aber die haben scheinbar die Pipes um die 2 'linken' TMUs vergessen.:D;D

Unregistered
2003-04-15, 14:56:32
Originally posted by Demirug
Wenn ihr jetzt schon wieder mit der Diskussion wegen der Sinnhaftigkeit von Features in Grafikkarten anfangt. Die Grundregel ist ganz einfach wenn auch zugegebenermassen schon etwas merkwürdig.

Je teurer eine Grafikkarte ist desto weniger wird der Erstkäufer von den neuen Features haben.

Das kommt daher weil:

Je teurer eine Grafikkarte war desto schneller wird sie von einer neuen ersetzt.

Die verweildauer einer Grafikkarte im Hauptrechner eines Erstkäufers verhält sich also umgekehrt zum Preis.

Aus diesem Grund ziehen wir doch im Moment so einen technologischen Ratenschwanz hinter uns her. Jede Aktion die diesen Schwanz kürzer macht wird von mir daher voll begrüsst. (und ja die GF4MX Geschichte war aus meiner Sicht schei....., genau wie die umbennung von DX8 Karten bei ATI in 9xxx Karten)

Und um auch nochmal auf das Thema wir sehen keine DX8 Effekte zu kommen.

Was würdet ihr machen wenn euch euer Geldgeber (Publischer) eine Statistik auf den Tisch legt in der steht.

Grafikkarten bei potenzielen Kunden:

20% < DX7
80% DX7
10% DX8

Und dann sagt: "Du bekommtst 1000 Zeiteinheiten für die spezifischen technologische Anpassungen". Wie verteilt man nun diese Einheiten? naturlich auf dx 11 :)

dat bringt nichts hier

ow
2003-04-15, 14:58:23
Originally posted by Exxtreme

Die 4 Pipelines scheinen nur dann Verwendung zu finden solange man kein DX9 nutzt.


Und auf wieviele Pipes schaetzt du das nv34 design bei verwendung von DX9??

Demirug
2003-04-15, 14:58:39
Originally posted by Quasar


Sieht lustig aus. Woher hast du das und wie läßt sich das mit 4 Pipelines der FX5200 vereinbaren?

Schau mal dort: http://www.tt-hardware.com/article.php?sid=4148

Aber irgendwie kann das so nicht ganz stimmen. Eine Pipeline nur mit TMUs kann niemals funktionieren.

Bei den Radeons sind die Loopbacks falsch und in dem Artikel wird unten noch auf dem 3dmark03 Himmel problem rumgeritten. Allerdings kommt man auch hier zu einem falschen schluss.

Exxtreme
2003-04-15, 15:04:53
Originally posted by ow
Und auf wieviele Pipes schaetzt du das nv34 design bei verwendung von DX9??
Jetzt, wo du so fragst... keine Ahnung.

Irgendwie ist da der Hund begraben im 5200-Bild. Ich wusste nicht was diese "Fixed 12 Bits" sind. Das sind doch die Pipes, oder?

zeckensack
2003-04-15, 15:09:43
Originally posted by Unregistered


Richtig die karte ist zum zocken Ehr nicht geeignet!
Dafür ist sie ja auch nicht gedacht.
Aber gerade du mußt doch wissen das die breite DX9 Unterstützung nur funzt wenn selbst jeder Office Rechner dx9 hat ob schnell genug oder nicht aber für die Hardware Beschleunigung von long horn sollte es ausreichen!

Und ein Vorteil ist es auch da ATi dx9 nicht so günstig bietet!



Das steht MARKTBERECHTIGUNG und das Habe ich einige Post vorher schon erklärt! Nicht hauen! :)

Marktberechtigung hat sie meiner Meinung nach auf jeden Fall, ich fand nur dein Posting in sich unschlüssig :)

zeckensack
2003-04-15, 15:10:56
Originally posted by Quasar


Sieht lustig aus. Woher hast du das und wie läßt sich das mit 4 Pipelines der FX5200 vereinbaren? Aus dem Diagramm kommen unten vier Pfeile raus. Es wäre trotzdem nett gewesen, wenn die Darstellung klarer wäre :|

Quasar
2003-04-15, 15:17:07
Das hiesse, daß sich bei Single-Texturing 4 Pipes nutzen lassen, bei Multitexturing aber Pipeline-Combining stattfindet.

Hm...

Demirug
2003-04-15, 15:19:53
Originally posted by Quasar
Das hiesse, daß sich bei Single-Texturing 4 Pipes nutzen lassen, bei Multitexturing aber Pipeline-Combining stattfindet.

Hm...

Nur mit TMUs (so wie es dort dargestellt wird) kann man noch nicht mal vernüpftig Singeltexturing machen und Multitexturing funktioniert schon mal gar nicht.

Ohne ALU kann man nun mal keine Pipeline bauen.

Richthofen
2003-04-15, 15:32:21
@Laberlippe
"
Wo ist bitte nVIDIA DX9 Marktführer.
"

Irgendwie hast du meinen Post an der Stelle ungenau gelesen denn da steht "sie werden in wenigen Monaten DX9 Marktführer".
Dafür muss man ehrlich geagt im Zuge des Produktlineups kein besonders grosser Hellseher und Spekulant sein.

Allein die FX5200 dürfte sich innerhalb von 3 Monaten nach voller Verfügbarkeit so oft verkauft haben wie ATI DX9 Chips in den letzten 6 Monaten verkauft hat durch sein gesamtes Lineup.

Also besonders hellseherische Fähigkeiten braucht man dafür sicher nicht.
Und wenn ich mir jetzt überlege, dass es DX9 noch ne ganze Weile gibt, dann ist das Lineup schon gewaltig und für den Entwickler das Beste was passieren konnte. Da Nvidia ja noch die Tools dazu liefert - ne feine Sache. Das gibt in wenigen Monaten ne hübsche Basis.

Ansonsten bin ich sogar der Meinung, dass DX8 wirklich in weiten Teilen übersprungen wird. Was DX9 richtig interessant macht sind zum einem die mächtigeren Shader, zum Zweiten die Verbreitung im Markt recht bald (wir erinnern uns es gibt bzw. gab bis auf die 9000 keine DX8 Low Cost Ware und Low Cost Marktführer ist mit Abstand Nvidia. Ergo massig DX7 im Markt.) und zum Dritten die Shadersprachen und Tools, die vieles für den Entwickler erheblich einfacher und bequemer machen.

Quasar
2003-04-15, 15:33:36
Ich ging davon aus, daß es bei den Diagrammen primär um die Textureinheiten und Shader ging.
Was spräche gegen ein Design mit 4 Pipes mit je einer TMU, die bei Multitexturing Pipeline-Combining betreiben und von denen nur eine einzige mit einer Shader-ALU ausgestattet ist?

Demirug
2003-04-15, 15:43:46
Originally posted by Quasar
Ich ging davon aus, daß es bei den Diagrammen primär um die Textureinheiten und Shader ging.
Was spräche gegen ein Design mit 4 Pipes mit je einer TMU, die bei Multitexturing Pipeline-Combining betreiben und von denen nur eine einzige mit einer Shader-ALU ausgestattet ist?

Man braucht zumindestens eine (Integer)ALU pro Pipeline sonst ist das ganze recht witzloss.

Pipeline Combining macht heute irgendwie auch keinen Sinn mehr. Beim NV10 war das ein gutes mittel eine hohe Singeltexturing Leistung zu bekommen und trotzdem 2 texturen pro Pass aufzutragen ohne einen Loopback einbauen zu müssen.

EDIT: was vielleicht möglich währe. Eine TMU und eine FP16 ALU pro Pipe und sobald FP32 Operationen verwendet werden gibt es Pipeline Combining.

Unregistered
2003-04-15, 15:49:34
Originally posted by Quasar


Sieht lustig aus. Woher hast du das und wie läßt sich das mit 4 Pipelines der FX5200 vereinbaren?

hier ist ein guter Thread dazu :

http://www.beyond3d.com/forum/viewtopic.php?t=5349


(wo auch sonst :D )

LovesuckZ
2003-04-15, 16:54:37
Originally posted by Unregistered
Du spinnst! Die FX5200 ist nie im Leben gleich schnell wie eine R9600 :


Bezog mich auf 9200. Werds mal editieren.

Quasar
2003-04-15, 16:56:39
Im Prinzip ähnlich dem also, was XMas schon vor Monaten vermutete.... :D

LovesuckZ
2003-04-15, 16:57:07
.sinnlos.

AlfredENeumann
2003-04-15, 17:52:03
Originally posted by Demirug
Was würdet ihr machen wenn euch euer Geldgeber (Publischer) eine Statistik auf den Tisch legt in der steht.

Grafikkarten bei potenzielen Kunden:

20% < DX7
80% DX7
10% DX8




Den Sinn von DX9-Low Cost Karten noch weiter in frage stellen.

Demirug
2003-04-15, 18:11:39
Originally posted by AlfredENeumann



Den Sinn von DX9-Low Cost Karten noch weiter in frage stellen.

Ich merke du hast nicht verstanden auf was ich hinaus wollte. ;)

LovesuckZ
2003-04-15, 19:00:35
Originally posted by AlfredENeumann
Den Sinn von DX9-Low Cost Karten noch weiter in frage stellen.

Macht dann DX8 - Low-Cost auch keinen Sinn?

StefanV
2003-04-15, 19:02:37
Originally posted by Exxtreme

Jetzt, wo du so fragst... keine Ahnung.

Irgendwie ist da der Hund begraben im 5200-Bild. Ich wusste nicht was diese "Fixed 12 Bits" sind. Das sind doch die Pipes, oder?

Fixed 12bit -> damit werden wohl die PS1.3 gemeint sein.

PS: für mich schauts so aus, als ob die FX5200 4Pipes hat, allerdings nur EINEN Pixelshader...

StefanV
2003-04-15, 19:07:33
Originally posted by Quasar
Im Prinzip ähnlich dem also, was XMas schon vor Monaten vermutete.... :D

...und das war ?? ;)
Habs wohl irgendwie 'verpasst' :|

ow
2003-04-15, 19:12:52
Originally posted by Stefan Payne


Fixed 12bit -> damit werden wohl die PS1.3 gemeint sein.

PS: für mich schauts so aus, als ob die FX5200 4Pipes hat, allerdings nur EINEN Pixelshader...

Für mich sehen obige Diagramme nach Unsinn aus. Braucht man nur den Pfeilen zu folgen. Wo fangen die an und wo hören die auf?:|

Endorphine
2003-04-15, 19:13:44
Originally posted by AlfredENeumann
Den Sinn von DX9-Low Cost Karten noch weiter in frage stellen. Genau das Gegenteil ist der Fall. Es wird erst Spiele geben, die DX9-Hardware ausnutzen, wenn die installierte DX9-Beschleunigerbasis hoch genug ist, dass es sich für den Publisher lohnt. Die Spiele wollen ja verkauft werden. Und wenn als Minimalanforderungen Grafikkarten genannt werden, die der Kunde nicht besitzt verkauft sich das Spiel schlecht.

Dann kommt noch dazu, dass viele Forenuser hier scheinbar schlecht über den eigenen Tellerrand hinausschauen können. Büro-PCs und kleine Einsteigermaschinen brauchen keine Radeon 9700. Eine GF FX 5200 "M64" ist aber eine ausgezeichnete Alternative zu AGP-Billiglösungen wie SiS315, GF4-MX (SDR) oder onboard-Grafik. Sehr viele scheinen hier die Realität nicht wahrhaben zu wollen. Die grosse Masse der Spieler nutzt zum Beispiel überhaupt kein AA oder AF, noch weiss sie mit den Features überhaupt etwas anzufangen noch ist die installierte Hardware schnell genug dafür.

Die grosse Masse der Spieler spielt auch vollkommen "veraltete" Spiele wie Half Life: Counterstrike. Und so weiter...

Ich rücke von meiner Meinung nicht ab: die GF FX 5200 "M64" macht sehr wohl Sinn und hat eine Lebensberechtigung. Nicht als high-End Spielerkarte, aber sie bringt sehr viele Features in die low-cost Klasse, die bis dato dort unbekannt waren. Und sie ist ein weiterer DX9-Wegbereiter.

Ich begebe mich mal aufs Glatteis und behaupte, dass DX8-Hardware unter anderem deshalb quasi null Softwareunterstützung erfährt weil die entsprechende Hardware nie wirklich massenhaft verbaut wurde/wird.

Richthofen
2003-04-15, 19:19:00
"
Ich begebe mich mal aufs Glatteis und behaupte, dass DX8-Hardware unter anderem deshalb quasi null Softwareunterstützung erfährt weil die entsprechende Hardware nie wirklich massenhaft verbaut wurde/wird.
"

Genau das habe ich auch bereits behauptet. Glaub sogar in dem Thread. Ich gehe davon aus das DX8 in weiten Teilen übersprungen wird. Mapel hat ja einen ähnlichen Gedanken gehabt.
Schlichtweg gab es keine DX8 Massenhardware. Daran konnte die Radeon9000 auch nix ändern.

Quasar
2003-04-15, 19:21:36
Originally posted by Stefan Payne


...und das war ?? ;)
Habs wohl irgendwie 'verpasst' :|

Daß Texturfiltern und Shaderops von denselben Einheiten gemacht werden (oder zumindest, daß sie die entsprechenden Einheiten kreuzwichtige Ressourcen teilen).

Labberlippe
2003-04-15, 19:22:09
Originally posted by Quasar


Was genau??? Aus deinen Postings wird man immer weniger schlau....



Was tut ATi? Und wieso vergleichst du Mid-Range mit Low-Cost???




Versteh' ich nicht. Wo gibt es "eine leistungsfähiger R200"? Und für was? Welches Problem bei ATi?


Was geht nicht mehr? Bessere Leistung zu gleichbleibenden Preisen? Natürlich, das war schon immer so, und solange man nicht an irgendwelche Grenzen der physikalischen Fertigung stößt, wird das auch so bleiben müssen.

Hi

Hmmm irgendwie hast Du nicht verstanden was ich sagen wollte.
Hatte Mittag nur kurz Zeit zum Posten.

Um was es mir geht ist, das dieses Thema hier sinnlos ist.
Hier schiessen sich die nV Jünger auf ATi ein, weil deren neuen 960er Karten langsamer sind als die 9500er.

Ich Frage mich wielange hier schon einige die Graka Generationen verfolgt haben.
Jeder der ein bischen Hausverstand hat muss erkennen das es mit verdoppeln der Performance und integrieren aller möglichen Features in einen solchen Zeitrahmen einfach nicht mehr möglich ist.
Gerade dann wenn man noch damit Geld verdienen will und das bei einen Strassenpreis zwischen 150&200€ anlegt.

Die Hersteller wollen ja etwas verdienen damit.

Die R9600 ist einfach billiger zu produzieren und hat noch vernünftige Margen anzubieten.
Bei der R9500 war zwar auch etwas zu verdienen aber nicht allzuviel.
(Wieviel genau weiss ATi nur selber)

Wenn einige hier erwarten das die Performance von einer R9500Pro erreicht werden soll, dann muss man tiefer in die Tasche greifen.

ATi hat hier einfach eine neue Produktreihe gebracht und fertig.
Es werden sicher noch genug Non Pro 9800er kommen mit div. Taktungen die die restlichen Lücken füllen werden.
Alleine schon die Graka Hersteller werden dieses machen.
War schon bei der R200 so, da gab es Taktungen von 200/200 bis 300/300.

Ich höre hier immer den Aufschrei von ATi die neuen Karten langsamer sind als die Vorgänger, ja was soll man dann bitte bei nVIDIA sagen.

Eine normale 5600 wird auch bei der Rohperformance langsamer sein als eine TI4400/4200 kann auch nicht anders sein, da auch hier nur 4*1 verwendet wird. (Soweit mir bekannt ist.)

Die 5200 non Pro wird sogar langsamer sein als eine MX460.
Ja und wenn juckts.
Dafür sind die Karten halt billiger und haben DX9.

Genauso sehe ich das bei der R9600 auch.
Die wird es auch in div. Taktungen geben und in komplett Sets verbaut werden, gut dann setzt sich halt DX9 schneller durch.

Ewig wird der hohe Level der bis jetzt gehalten wurde einfach nicht mehr machbar sein.
Vorallem dann wenn der Markt sich langsam sättigt und kaum mehr Erweiterungen in den Marktanteilen zu holen sind.

ATi und nVIDIA wollen beide ja mittlerweile die Zyklen verlängern, das zeigt deutlich das jetzt langsam Ende ist.



Gruss Labberlippe

Quasar
2003-04-15, 19:23:28
Originally posted by Endorphine
Eine GF FX 5200 "M64"

Meinst du damit eine 64Bit-FX5200?

Wenn ja, was denkst du denn, wie billig die noch wird, wenn schon 128Bit-128MB-FX5200 für unter 100€ real zu kaufen sind?

Labberlippe
2003-04-15, 19:29:44
Originally posted by Quasar


Meinst du damit eine 64Bit-FX5200?

Wenn ja, was denkst du denn, wie billig die noch wird, wenn schon 128Bit-128MB-FX5200 für unter 100€ real zu kaufen sind?

http://www.geizhals.at/?o=8&such=5200

Guck mal wo die Preise liegen.
Genau das ist dieses was bei nV Karten mich immer ärgert.
Die Preise gehen teilweise viel zu hoch auch weil nur mit den Namen gecasht wird.

Freilich kann man nVIDIA hier keinen Vorwurft machen, nur so einfach mit unter 100€ ist es auch nicht.

Gruss Labberlippe

LovesuckZ
2003-04-15, 19:29:52
Originally posted by Labberlippe
Die 5200 non Pro wird sogar langsamer sein als eine MX460.
Ja und wenn juckts.
Dafür sind die Karten halt billiger und haben DX9.


Der vergleich hinkt. denn die 5200 muss mit der MX440 verglciehn werden und die Ultra mit der 460. Und beide sind gleichschnell, haben aber die überlegende Technik.

Zum 5600 Vergleich. Im gegensatz zur ATI mainstreamlinie kann man die alte mit AA/AF deutlich schlagen. Was jedoch keine Ausrede fuer die sehr schlechte Rohperformance ist.

Wobei mir grad die frage kommt: Eigentlich gab es zur GF4TI keine richtige Mainstreamlinie, wenn man sich mal die Taktunterschiede zwischen TI4200 <>TI4600 anguckt :)

LovesuckZ
2003-04-15, 19:32:03
Originally posted by Labberlippe
http://www.geizhals.at/?o=8&such=5200
Guck mal wo die Preise liegen.

Lebst du in Österreich?

http://www.preistrend.de/suchen.php3?keyword=geforce+5200&type=euro&counter=0&q=0

Und wenn erstmal die Karte lieferbar sind, werden die Preise noch weiter runtergehen.

Labberlippe
2003-04-15, 19:36:16
Originally posted by LovesuckZ


Der vergleich hinkt. denn die 5200 muss mit der MX440 verglciehn werden und die Ultra mit der 460. Und beide sind gleichschnell, haben aber die überlegende Technik.

Zum 5600 Vergleich. Im gegensatz zur ATI mainstreamlinie kann man die alte mit AA/AF deutlich schlagen. Was jedoch keine Ausrede fuer die sehr schlechte Rohperformance ist.

Wobei mir grad die frage kommt: Eigentlich gab es zur GF4TI keine richtige Mainstreamlinie, wenn man sich mal die Taktunterschiede zwischen TI4200 <>TI4600 anguckt :)

Wieso muss....
Die R9600 non Pro muss die R9500 non Pro schlagen.
Die Pro kann die Pro nicht toppen da hier zwei Unterschiedliche Designs sind.
ATi hätte die Pro nicht länger um einen Dumpignpreis halten können, wobie man erwähnen muss das der Strassenpreis für die R9500 Pro im Schnitt über 230€ war, teilweise sogar 300€.
(Jajaja ich weiss einige Online Händler hatten die Karten billiger...)

Wartet mal die ersten vernünftigen Reviews ab statt hier gleich gegen ATi loszuwettern.

Gruss Labberlippe

Labberlippe
2003-04-15, 19:37:18
Originally posted by LovesuckZ


Lebst du in Österreich?

http://www.preistrend.de/suchen.php3?keyword=geforce+5200&type=euro&counter=0&q=0

Und wenn erstmal die Karte lieferbar sind, werden die Preise noch weiter runtergehen.

Ja und deshalb kann ich überwiegend nur mit unseren Preisen vergleichen.
Aber keine Angst ich gucke wohl auch wie es in Deutschland aussieht.

Ich dachte mir das wieder der Link gebracht wird.
Die Realität sieht aber beim Händler um die Ecke anders aus.
B.z.w. in allen Geschäften es ist zwar schön und gut das es ein paar Händler gibt die Dumpen aber nicht jeder ist wahnsinnig mit 7% Margen zu leben.
Man kann nicht immer vom billigsten Händler davon ausgehen das dann der Preis gang und gebe ist.

Gruss Labberlippe

LovesuckZ
2003-04-15, 19:43:25
Originally posted by Labberlippe
Wieso muss....
Die R9600 non Pro muss die R9500 non Pro schlagen.
Die Pro kann die Pro nicht toppen da hier zwei Unterschiedliche Designs sind.


Die 9600pro muss sich aber Vergleiche mit der 9500pro gefallen lassen, da diese die 9500pro als hoechste Mainstreamkarte bei ATI abloest. Umso tragischer, dass die wohl die 960pro den kuerzeren ziehen wird.

Labberlippe
2003-04-15, 19:45:18
Originally posted by LovesuckZ


Die 9600pro muss sich aber Vergleiche mit der 9500pro gefallen lassen, da diese die 9500pro als hoechste Mainstreamkarte bei ATI abloest. Umso tragischer, dass die wohl die 960pro den kuerzeren ziehen wird.

Freilich wir verfolgen hier aber die Graka generationen schon länger und nicht erst seit gestern um zu erkennen was Sache ist.

Wir sogenannten Profis wissen eh welche Karte ok ist.

Gruss Labberlippe

Labberlippe
2003-04-15, 19:46:54
Originally posted by LovesuckZ


Die 9600pro muss sich aber Vergleiche mit der 9500pro gefallen lassen, da diese die 9500pro als hoechste Mainstreamkarte bei ATI abloest. Umso tragischer, dass die wohl die 960pro den kuerzeren ziehen wird.

Freilich muss sich die R9600 Pro das gefallen lassen, kein Thema.
Nur so schlimm ist es auch wieder nicht.
Hier wird so getan als ob die R9600 Pro nichteinmal eine R8500 Pro in der Rohperformance schlagen kann.

Gruss Labberlippe

AlfredENeumann
2003-04-15, 19:52:59
Originally posted by Demirug


Ich merke du hast nicht verstanden auf was ich hinaus wollte. ;)

Nö. Was ist den mit DX8. Will das nicht mal einer ein wenig pushen. Ich denke da wird seit Jahren drauf rumgeproggt. Ich denke da sollte endlich mal was vernünftiges kommen.
Wie wäre es mal mit eine Engine mal Perfektionieren und nicht gerade fertig stellen und flüchtig Bugfixen und gleich auf DX9 werfen. Und so weiter.


Aber was soll das bringen. DX9 mit einer für DX9 zu langsammen Karte ? Damit hat man genausoviel Potentiele Kunden wie als wenn ich alle ab DX9 Mainstream Kunden zähle.

AlfredENeumann
2003-04-15, 19:53:51
Originally posted by LovesuckZ


Macht dann DX8 - Low-Cost auch keinen Sinn?

Es ist ein Unterschied wenn der DX8 LowCost schneller ist als die ULTRANEUEN DX9 Low-Cost.

LovesuckZ
2003-04-15, 20:22:10
Originally posted by AlfredENeumann
Es ist ein Unterschied wenn der DX8 LowCost schneller ist als die ULTRANEUEN DX9 Low-Cost.

Versteh ich net. wenn dies ein bezug auf die 9000 sein sollte, die wird auch in einigen Faellen von der MX440 geschlagen...

Demirug
2003-04-15, 20:30:41
Originally posted by AlfredENeumann


Nö. Was ist den mit DX8. Will das nicht mal einer ein wenig pushen. Ich denke da wird seit Jahren drauf rumgeproggt. Ich denke da sollte endlich mal was vernünftiges kommen.
Wie wäre es mal mit eine Engine mal Perfektionieren und nicht gerade fertig stellen und flüchtig Bugfixen und gleich auf DX9 werfen. Und so weiter.

Da wird schon noch ein bischen was kommen aber grosses ist da nicht zu erwarten da die Basis an DX7 Karten einfach zu gross ist um voll auf DX8 zu setzten. Also gibt es nur Effekte die schnell eingebaut sind und die man keinen zusätzlichen Arbeit für die Grafiker bedeutet. Auch bekannt als Wasser.

Der wechsel von DX8 auf DX9 ist von der Engine her unproblematisch. Das ist in einer Woche erledigt. Damit hat man aber nur eine DX9 fähige engine die Effekte muss man immer noch schreiben.

Aber was soll das bringen. DX9 mit einer für DX9 zu langsammen Karte ? Damit hat man genausoviel Potentiele Kunden wie als wenn ich alle ab DX9 Mainstream Kunden zähle.

OK Publischer sind bereit den Begriff spielbar sehr grosszügig auszulegen. 640x480 mit 24 FPS sind da mehr als genug und AA/AF braucht sowieso kein Mensch. Hauptsache das Bild auf dem Monitor sieht so aus wie hinten auf der Verpackung und es läuft auf möglichst vielen Rechnern.

Dadurch das die Lowendkarten immer einen Level hinter den Higendkarten lagen verlängerte man die lebenspanne des Levels um eine weitere Generation. Um genau zu sein erreicht ein Technologielevel dadurch seinen höhepunkt erst wenn die Highend karten schon zwei Level weiter sind. Sind nun alle Karten auf dem gleichen Techlevel verlagert man den Höhepunkt nicht unerhelblich nach vorne. Das ganze ist natürlich langfristig zu sehen. Kurzfristig betrachtet sieht das ganze wirklich schwachsinning aus.

Quasar
2003-04-15, 22:00:25
Originally posted by Labberlippe


http://www.geizhals.at/?o=8&such=5200

Guck mal wo die Preise liegen.
Genau das ist dieses was bei nV Karten mich immer ärgert.
Die Preise gehen teilweise viel zu hoch auch weil nur mit den Namen gecasht wird.

Freilich kann man nVIDIA hier keinen Vorwurft machen, nur so einfach mit unter 100€ ist es auch nicht.

Gruss Labberlippe

Dann guck mal hier: www.mb-it.de unter Grafikkarten, Innovision.

Oder www.alternate.de, ebenfalls bei Grafikkarten.

Da gibts FX5200 mit 128MB unter 100€, so einfach ist das.