PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zum Artikel "Kleine Karten - Fluch oder Segen?"


Leonidas
2003-09-23, 13:22:45
Link (http://www.3dcenter.org/artikel/2003/09-23_a.php)

x-dragon
2003-09-23, 13:55:50
Mal wieder ein interessanter Artikel :up:, ich wußte noch gar das mein 386 DX 40 ein AMD-Prozessor war :flöt:.

Ein kleiner Fehler ist mir auf Seite 1 aufgefallen:
... neben dem erwähnten 64-Bit-Schrott, der nur im 2D-Bereich seine Berechtigung ...

bodylowe
2003-09-23, 14:05:30
jepp guter artikel, leider nichts neues. wusste alles schon. bis auf die tatsache, dass es auch vom 386 ein "celeron-imitat" gab. ansonsten hat es spass gemacht zu lesen. Vielleicht noch ein wort zu der Parphelia: Sie ist ja eher für Videobearbeitung und 3d Modellediting gedacht.

ach ja ein kleiner schreibfehler:

"...Für Multitexturing u."a". gibt es allgemein standardisierte, also vom Hardwarehersteller unabhängige Extensions...

mfg Body

mapel110
2003-09-23, 14:26:06
hm, irgendwie leicht unstrukturiert geschrieben. sieht stark nach kraut und rüben aus :D
aber dennoch interessant.

die 5200er wird imo ein bisschen zu sehr gebasht. sie ist wohl doch brauchbarer als der artikel ausdrückt.

StefanV
2003-09-23, 14:45:30
Original geschrieben von mapel110
die 5200er wird imo ein bisschen zu sehr gebasht. sie ist wohl doch brauchbarer als der artikel ausdrückt.

Abwarten und Tee rauchen, denke nicht, daß die FX5200 soo doll ist...

PS: hat noch jemand eine über??
Brauch noch eine für meinen 'neuen' Office Rechner...
Eine 5600 tuts aber auch ;))

x-dragon
2003-09-23, 14:46:49
Original geschrieben von mapel110
hm, irgendwie leicht unstrukturiert geschrieben. sieht stark nach kraut und rüben aus :D
... Mir ging auch so zwischendurch durch den Kopf "da hätte man auch 2 oder 3 Artikel raus machen können" :).

Kann man das da nicht vielleicht etwas anders formulieren?
"... so dass lächerlich hohe Preise gefordert werden ..." (auf S. 2)

Schliesslich sind ja wie du selbst sagst, nicht die Gamer angesprochen sondern eher der Profi-Bereich und haben dementsprechend auch weniger Umsatz, mehr Leistung (bei der entsprechenden Software) und eben auch einiges höhere Preise.

Quasar
2003-09-23, 14:53:13
Original geschrieben von mapel110
hm, irgendwie leicht unstrukturiert geschrieben. sieht stark nach kraut und rüben aus :D
aber dennoch interessant.

die 5200er wird imo ein bisschen zu sehr gebasht. sie ist wohl doch brauchbarer als der artikel ausdrückt.

ack.
Wieso eine MX440 für mildes AA ausreichen soll, eine FX5200 aber nicht, leuchtet mir nicht ein.

GeForce4 MX ab MX440 [...] weshalb zumindest in moderaten Auflösungen Anti-Aliasing nutzbar ist.
[...]
GeForceFX 5200 mit 128-Bit-Bus:[...] Anti-Aliasing ist trotz der Multisampling-Implementierung nur bedingt empfehlenswert. Das Problem: Bei weniger anspruchsvollen Spielen (mit wenigen Textur-Schichten) geht die relative Leistung besonders stark zurück. Bei anspruchsvolleren Spielen mit mehr Texturschichten ist der relative Einbruch geringer, dafür die Grundgeschwindigkeit niedriger.

Ich hatte, im Gegentum, eher den Eindruck, daß die FX5200 etwas besser mit AA zurechtkommt.


edit:
Warum die 64Bit-Versionen immer gebashed werden, erklärt sich mir auch nicht.
Sowohl hier (http://www.nvidia.com/page/desktop.html) als auch hier (http://www.ati.com/products/gamer.html) findet sich ziemlich eindeutig eine andere Produktauswahl für Spieler, als 64Bit-Versionen von FX5200/MX440 oder R9200.

Ich beschwere mich doch auch nicht, dass mein tiefergelegter 60ps-Diesel-Golf nicht mit 2-Tonnen-Anhänger durch versumpfte Wiesen pflügen kann..

Schroeder
2003-09-23, 15:05:41
mmh da ich im mir im moment scheinbar nicht genug arbeit aufhalsen kann, biete ich einfach mal frech meine unterstützung an, so jemand diesen artikel in englische übersetzen möchte (will/ bereits tut/ oder wie auch immer), natürlich nur sofern das überhaupt gewünscht ist, bzw. ein interesse daran besteht. (der fachmann hat mit sicherheit schon bemerkt das mir die "englische-gross-und-klein-schreibung" relativ leicht fällt ;) ).

tschö

mapel110
2003-09-23, 15:26:55
Original geschrieben von Schroeder
(der fachmann hat mit sicherheit schon bemerkt das mir die "englische-gross-und-klein-schreibung" relativ leicht fällt ;) ).

tschö

:D ein leidensgenosse

huha
2003-09-23, 15:38:09
Der Artikel ist IMO doch recht gut gelungen. Wieder ein großes Lob an den/die Verfasser =)
Ich würde auch gern mithelfen, den Artikel ins Englische zu übersetzen.

-huha

Endorphine
2003-09-23, 15:42:09
Es sollte viel deutlicher herausgestellt werden, dass der Artikel eine KOLUMNE ist. Am besten im Titel vermerken (Kolumne: Kleine Karten - Fluch oder Segen?).

Bin zwar erst mittendrin beim lesen, mir fallen aber schon massenhaft Behauptungen auf, die aths' Sichtweise auf die Welt zeigen, die mir sehr zweifelhaft erscheinen. Er nimmt auch vieles als gegeben an, ohne es nur ansatzweise zu beweisen. Wenn dagegen von vorneherein klargestellt wird, dass es eine Kolumne ist wirkt der Artikel auch nicht so provozierend. Er ist eben nur Meinung, kein Tatsachenbericht. Das sollte IMHO viel deutlicher herausgestellt werden.

Sonst ganz nett :up:

Edit:
und das um einige wenige Euros zu sparen.
Bitte dringend eine andere Formulierung wählen. "Euros" klingt in meinen Ohren grauenhaft. Ich denke, dass die deutsche Sprache schon genug durch Mehrzahl-s verunstaltet wird, gerade bei Artikeln von aths hätte ich das nicht erwartet.

Edit #2: Eine Zeile weiter wird dann im Plural von "Euro" die richtige Form verwendet - was denn nun? Ich hab mal die "Spezifikation" rausgesucht: http://europa.eu.int/comm/economy_finance/euro/essentials/spelling_sign_informatics/00723_en.pdf (PDF)
Plural von "Euro" ist ebenfalls "Euro".

Edit #3:
Windows Longhorn als Argument ins Feld zu führen, halten wir für unsinnig: Wir? Es handelt sich doch um eine Kolumne, also nur um die Meinung von aths, oder? ;)

Edit #4: welche eine 64bitige GeForceFX 5200 heute kostet. "64-bittige" sähe sicher besser aus als die an die zusammengerücken Wörter mit Tippfehler ;)

Edit #5:
ist die Bandbreite der 64bittige GeForceFX 5200 64-bittigen :)

Edit #6:
(neben dem erwähnten 64-Bit-Schrott, der nur im 2D-Bereich seine Berechtigung hat) Ich empfehle dringenst, solche Bezeichnungen zu unterlassen, wenn 3DCenter weiterhin ernst genommen werden will. Auch in einer Kolumne sind solche Ausdrücke komplett deplaziert.

Ikon
2003-09-23, 15:46:18
Endlich mal ein Kolumne für uns Low-Endler (auch als Schnorrer bekannt :D ).

Aber im Ernst: Bisher wurden die LowEnd-Produkte bei 3DC-Artikeln/-Kolumnen oft unter den Teppich gekehrt, obwohl gerade deren Werte mitunter recht interessant sein konnten (Vergleich zur vorherigen Generation).

Für Übersetzungen bin ich als Sprach-Genie *protz* auch gerne zu Diensten.

edit: "Artikel" durch "Kolumne" ersetzt - für Endorphine :)

Gast
2003-09-23, 16:00:23
Hm...
ich finde das Fazit falsch.
Wen ich sehe das die 128bit Luxus-LowCost 128bit FX
mehr kostet als eine Ti4200 verstehe ich die Welt nicht.

Fazit müsste sein:
Zur Zeit ist nur verkrüppelter Schrott auf dem Markt.
Wer in diesem Segment einkauft soll eine veraltete
Ti4200 holen, kein Schnickschnack, Leistung.

LovesuckZ
2003-09-23, 16:18:29
Hm, schoener "bashen-wir-mal-die-5200" Artikel...

aths
2003-09-23, 16:24:08
Original geschrieben von Gast
Hm...
ich finde das Fazit falsch.
Wen ich sehe das die 128bit Luxus-LowCost 128bit FX
mehr kostet als eine Ti4200 verstehe ich die Welt nicht.

Fazit müsste sein:
Zur Zeit ist nur verkrüppelter Schrott auf dem Markt.
Wer in diesem Segment einkauft soll eine veraltete
Ti4200 holen, kein Schnickschnack, Leistung. "Wer etwas mehr Geld zur Verfügung hat und Anti-Aliasing möchte, sollte den Kauf einer preiswerten GeForce4 Ti4200 erwägen." "Für Gamer, die auf Grafikqualität erhöhten Wert legen, sind die preiswerten "Großen" à la GeForce4 Ti4200 natürlich ein Segen. Mit der GeForce4 Ti4200 gewann nVidia wie mit der GeForce3 Ti200 eine Menge Freunde, weil diese Karten lange Zeit sowohl ein gutes Preis-Leistungs-Verhältnis hatten, als auch aktuelle Leistung boten."

Die Ti 4200 kam imo schon ganz gut weg.

Original geschrieben von Endorphine
Bin zwar erst mittendrin beim lesen, mir fallen aber schon massenhaft Behauptungen auf, die aths' Sichtweise auf die Welt zeigen, die mir sehr zweifelhaft erscheinen. Er nimmt auch vieles als gegeben an, ohne es nur ansatzweise zu beweisen. Wenn dagegen von vorneherein klargestellt wird, dass es eine Kolumne ist wirkt der Artikel auch nicht so provozierend. Er ist eben nur Meinung, kein Tatsachenbericht.Etwas Provokation war durchaus beabsichtigt. Kernaussage sollte allerdings sein, dass man mit kleinen Karten, sofern es keine Kastraten sind (64 Bit) auch als Gamer was sinnvolles anfangen kann.

Diese vielen Bitten, bestimmte Formulierungen zu ändern — diese Kolumne soll kein glatt geschliffener Text sein. Ich persönlich halte die Kolumne so wie sie jetzt ist (von den Schreibfehlern abgesehen) für gut. Leo veröffentlicht ja auch Artikel von Usern, insofern sage ich nur: Frisch, ans Werk http://www.aths.net/files/smilies/smile.gif.

Ikon
2003-09-23, 16:26:52
Original geschrieben von LovesuckZ
Hm, schoener "bashen-wir-mal-die-5200" Artikel...

Sie wurde nicht mehr gebasht als sie verdient hat -> im Gegenteil, aths ist hier IMHO sogar äußerst objektiv geblieben.

Alle (Ab-)Sätze bei denen die FX5200 kommentiert wird:

"Der GeForceFX 5200 fehlen z.B. Maßnahmen, welche die Speicherbandbreite schonen, hier kommt es auf physikalische Speicherbandbreite ganz besonders an."

"Trotz vergleichsweise wenigen Transistoren nicht nur mit DirectX9, sondern auch mit CineFX kompatibel, inklusive 128-Bit-Rendering. Allerdings, wer professionelles Hardware-Rendering braucht (z.B. zur Vorschau), hat auch das Geld für schnellere Karten."

"Für Spieler ist DirectX9-Kompatibilität bei der 5200er Leistung praktisch irrelevant. Sofern man auf Anti-Aliasing verzichtet, reißt der hohe Takt der Karte bei Spielen mit moderaten Ansprüchen durchaus einiges raus. Die Karte beherrscht Early Z, was Engines, welche zuerst den Z-Buffer rendern, beschleunigt. Der wichtigste Vertreter solcher Engines, Doom III, wird die Karte trotzdem hoffnungslos überfordern, weil sie zu wenig Shader-Power hat. Da hilft es auch nicht, dass die noch physikalisch vorhandenen Register Combiner bei den Berechnungen mithelfen. Abseits solcher NextGen-Engines mag die GeForceFX 5200 mit 128-Bit-Interface für ein "Spielchen zwischendurch" taugen."

"Windows Longhorn als Argument ins Feld zu führen, halten wir für unsinnig: Der XP-Nachfolger ist frühstens 2005 zu erwarten, und für die Tier2-Effekte dieses Betriebssystems (Hardware-Beschleunigung des 3D-Desktops) reicht auch eine DX7-Karte aus. Wenn 2005 dem Komplett-PC "Longhorn Home OEM" beiliegt, wird es längst viel bessere DX9-Karten für die 70 Euro geben, welche eine 64bitige GeForceFX 5200 heute kostet. Für die aufwändigen Tier1-Animationen ist die Bandbreite der 64bittige GeForceFX 5200 zudem vielleicht schon etwas knapp: Longhorn setzt einerseits auf hohe Auflösungen, andererseits haben es Animationen ansich, dass große Datenmengen hin- und hergeschoben werden."

"GeForceFX 5200 mit 128-Bit-Bus: Die gleichzeitig erforderlichen 128 MB RAM sind Verschwendung, "gebraucht" werden sie nicht. Die Rohleistung dieser Karte ist auf einem brauchbarem Niveau (etwa vergleichbar mit GeForce4 MX440, vielleicht knapp darunter), für AF (bis 8x) gibt es die FX-typischen "Optimierungen", die Qualität gegen Leistung eintauschen. Anti-Aliasing ist trotz der Multisampling-Implementierung nur bedingt empfehlenswert. Das Problem: Bei weniger anspruchsvollen Spielen (mit wenigen Textur-Schichten) geht die relative Leistung besonders stark zurück. Bei anspruchsvolleren Spielen mit mehr Texturschichten ist der relative Einbruch geringer, dafür die Grundgeschwindigkeit niedriger. DX9-Features sind allenfalls eine nette Dreingabe, Pixelshader 2.0 Berechnungen werden sehr langsam ausgeführt."

Andre
2003-09-23, 16:28:21
Original geschrieben von Quasar
ack.
Wieso eine MX440 für mildes AA ausreichen soll, eine FX5200 aber nicht, leuchtet mir nicht ein.



Ich hatte, im Gegentum, eher den Eindruck, daß die FX5200 etwas besser mit AA zurechtkommt.


edit:
Warum die 64Bit-Versionen immer gebashed werden, erklärt sich mir auch nicht.
Sowohl hier (http://www.nvidia.com/page/desktop.html) als auch hier (http://www.ati.com/products/gamer.html) findet sich ziemlich eindeutig eine andere Produktauswahl für Spieler, als 64Bit-Versionen von FX5200/MX440 oder R9200.

Ich beschwere mich doch auch nicht, dass mein tiefergelegter 60ps-Diesel-Golf nicht mit 2-Tonnen-Anhänger durch versumpfte Wiesen pflügen kann..

In allen Punkten ack.

aths
2003-09-23, 16:33:35
Original geschrieben von LovesuckZ
Hm, schoener "bashen-wir-mal-die-5200" Artikel... Für den Gamer gibt es fürs gleiche Geld nunmal bessere Hardware.
Original geschrieben von Quasar
Wieso eine MX440 für mildes AA ausreichen soll, eine FX5200 aber nicht, leuchtet mir nicht ein.

Ich hatte, im Gegentum, eher den Eindruck, daß die FX5200 etwas besser mit AA zurechtkommt. Den Eindruck hatte ich auch, allerdings verstehe ich nicht ganz, wieso das so ist. Das 2x Multisampling der MX halbiert ja die Füllrate, was eigentlich nicht sein dürfte, 4x wird mit 2x2 OGSSAA realisiert, wahrscheinlich kann die FX 5200 aufgrund dieser MX-MSAA-Beschneidungen sich etwas absetzen. Kommt allerdings DX9 ins Spiel, und für andere Dinge brauchts ja keine FX, glaube ich kaum dass die FX 5200 Reserven für FSAA hat. Wie stark die 5200 bei DX8-Effekten (z.B. in Morrowind) nachlässt, weiß ich leider nicht. Die MX 440-8x, (ich hätte sagen sollen dass ich eigentlich ausdrücklich diese Version meine) hat 8 GB/s Speicherbandbreite, und neben Early Z noch Z-Compression.
Original geschrieben von Quasar
Warum die 64Bit-Versionen immer gebashed werden, erklärt sich mir auch nicht.
Sowohl hier (http://www.nvidia.com/page/desktop.html) als auch hier (http://www.ati.com/products/gamer.html) findet sich ziemlich eindeutig eine andere Produktauswahl für Spieler, als 64Bit-Versionen von FX5200/MX440 oder R9200. Viele Händler erwecken aber mehr oder weniger den Eindruck, als seien das Top-Karten, so erinnere ich mich daran, dass z.B. ELSA die MX-200 mit einem Joystick bundelte. ATI und Nvidia tun nichts, um diesem Eindruck entgegenzutreten, sonst würden sie die Office-Karten unter einem anderen Namen vermarkten.

Ikon
2003-09-23, 16:36:37
Original geschrieben von Quasar
edit:
Warum die 64Bit-Versionen immer gebashed werden, erklärt sich mir auch nicht.
Sowohl hier (http://www.nvidia.com/page/desktop.html) als auch hier (http://www.ati.com/products/gamer.html) findet sich ziemlich eindeutig eine andere Produktauswahl für Spieler, als 64Bit-Versionen von FX5200/MX440 oder R9200.

Naja, es gibt schon einige Gründe, diese Teile zu bashen:

- halbierte Bandbreite für praktisch keine finanzielle Ersparnis

- Bezeichnungen sind oftmals unzureichend von den 128bit-Varianten abgegrenzt (warum wohl? :madman: )

Ich habe nichts gegen 64bit-Karten (z.B. für den 2D-Betrieb), aber dann doch bitte preislich wie begrifflich deutlich von den 128bit-Varianten unterschieden.

aths
2003-09-23, 16:38:11
Original geschrieben von X-Dragon
Mir ging auch so zwischendurch durch den Kopf "da hätte man auch 2 oder 3 Artikel raus machen können" :).Es gäbe viele Möglichkeiten, ausführlicher zu werden, aber ich verlegte mich hier zumeist darauf, Dinge zu behaupten anstatt sie zu begründen. Diese Kolumne soll zum Lesen sein, und nicht zum "durcharbeiten" http://www.aths.net/files/smilies/twink.gif.
Original geschrieben von X-Dragon
Kann man das da nicht vielleicht etwas anders formulieren?
"... so dass lächerlich hohe Preise gefordert werden ..." (auf S. 2)

Schliesslich sind ja wie du selbst sagst, nicht die Gamer angesprochen sondern eher der Profi-Bereich und haben dementsprechend auch weniger Umsatz, mehr Leistung (bei der entsprechenden Software) und eben auch einiges höhere Preise. Zumindest Matrox' Parhelia-Launch zielte u.a. auch bewusst auf den Gamer ab.

x-dragon
2003-09-23, 16:47:54
Original geschrieben von aths
Es gäbe viele Möglichkeiten, ausführlicher zu werden, aber ich verlegte mich hier zumeist darauf, Dinge zu behaupten anstatt sie zu begründen. Diese Kolumne soll zum Lesen sein, und nicht zum "durcharbeiten" http://www.aths.net/files/smilies/twink.gif.
Zumindest Matrox' Parhelia-Launch zielte u.a. auch bewusst auf den Gamer ab. Als Kolumne geht das so natürlich voll in Ordnung, aber zuerst hab ich das auch eher als "Artikel" gesehen.

Ok zur Parhelia hab ich selbst gerade erst in irgendeinem Thread etwas geschrieben Betreff Surround-Gaming, aber aus dem schon obengenannten Grund paßt es so jetzt eigentlich auch ganz gut :).

Endorphine
2003-09-23, 16:47:59
Die Idee, Produkte zu beschneiden, um sie zu kleineren Preisen zu verkaufen, hat in der PC-Branche der CPU-Marktführer Intel erfolgreich vorexerziert. Es begann schon zu Urzeiten: Den 8086 gabs auch als 8088, wobei der letztere in einer günstiger herzustellenden 8-Bit-Hardwareumgebung lief. Naja. Genau genommen war der i8088 ja der Ursprung der "PC-Branche", da er für den Ur-PC von IBM ausgewählt wurde. 8-Bit "Hardwareumgebung" impliziert auch etwas falsches, es handelt sich ja nur um eine schmalere I/O-Bandbreite der CPU. Der i8088 hatte lediglich einen 8-Bit Datenbus, dennoch einen 20-Bit Adressraum. Übrigens wurde auch die Prefetch Queue ggü. dem 8086 von 6 auf 4 Byte verkürzt.

AMD hatte den 386er nachgebaut Das stimmt auch nicht. AMD war damals noch offizielle second-source von Intel. Kein Nachbau, sondern Lizenzbau. "Nachbau" impliziert reverse-engineering oder zumindest Eigenentwicklung mit grösstmöglicher Kompatibilität zum Original.

AMDs Erfolg beruht nicht auf dem Athlon allein, der Intel erfolgreich herausforderte, sondern natürlich auch auf dem Duron, einer kleineren Athlon-Variante (mit weniger Cache). Ja, der Duron ist so wichtig für den Erfolg von AMD, dass das Werk in Austin, was zuletzt noch Durons produzierte nun nur noch Flashspeicher produziert. Der Duron ist auch so wichtig für AMD, dass er bei der Entwicklung des K8 scheinbar überhaupt nicht einbezogen wurde (dazu hab ich auch mal was geschrieben: http://www.hartware.net/news.html?id=26217). Ich wage stattdessen zu behaupten, dass der Duron jetzt nur deshalb wieder auflebt, weil AMD wegen der grossen L2-Cachefläche des Barton viele Kerne mit Fehlern in einer L2-Cachehälfte produziert.

Lediglich, um Enginges zu schreiben Engines ;)

LovesuckZ
2003-09-23, 16:48:31
Original geschrieben von aths
Für den Gamer gibt es fürs gleiche Geld nunmal bessere Hardware.


Du hast eine Kolumme verfasst, die sich mit Low End Karten befasst und basht (vorallen 5200) diese, weil sie für Gamer nicht die richtigen Karten seien?
Sry, aber selbst auf der Seite von Nvidia (bei ATi weiß ich es nicht) wird die 4MX und 5200 nicht in einer Kategorie mit der GF4TI und 5600 geführt.

http://www.nvidia.com/page/desktop.html

aths
2003-09-23, 16:49:07
Original geschrieben von Ikon
Sie wurde nicht mehr gebasht als sie verdient hat -> im Gegenteil, aths ist hier IMHO sogar äußerst objektiv geblieben.Ich hab's versucht. BTW, in deinem Quote ist noch die alte Version, wo Tier1 und Tier2 vertauscht waren.

x-dragon
2003-09-23, 16:52:18
Original geschrieben von Endorphine
... Das stimmt auch nicht. AMD war damals noch offizielle second-source von Intel. Kein Nachbau, sondern Lizenzbau. "Nachbau" impliziert reverse-engineering oder zumindest Eigenentwicklung mit grösstmöglicher Kompatibilität zum Original. ... Das ja blöd ... dann war mein 386 DX 40 ja AMD- und Intel-Prozessor? :stareup:

Ikon
2003-09-23, 16:52:49
Original geschrieben von LovesuckZ
Du hast eine Kolumme verfasst, die sich mit Low End Karten befasst und basht (vorallen 5200) diese, weil sie für Gamer nicht die richtigen Karten seien?
Sry, aber selbst auf der Seite von Nvidia (bei ATi weiß ich es nicht) wird die 4MX und 5200 nicht in einer Kategorie mit der GF4TI und 5600 geführt.

http://www.nvidia.com/page/desktop.html

Lies aths' Satz nocheinmal, besonders den letzten Teil: "... fürs gleiche Geld nunmal bessere Hardware.". Das ist schwer von der Hand zu weisen.

Endorphine
2003-09-23, 16:54:27
Original geschrieben von X-Dragon
Das ja blöd ... dann war mein 386 DX 40 ja AMD- und Intel-Prozessor? :stareup: Mit höherem Takt, ja =)

Ich hatte btw. auch einen, mit sagenhaften 128 kB L2-Cache auf dem Mobo gepaart. Ein Geschoß unter den 386ern. :D

x-dragon
2003-09-23, 16:56:49
Original geschrieben von LovesuckZ
Du hast eine Kolumme verfasst, die sich mit Low End Karten befasst und basht (vorallen 5200) diese, weil sie für Gamer nicht die richtigen Karten seien?
Sry, aber selbst auf der Seite von Nvidia (bei ATi weiß ich es nicht) wird die 4MX und 5200 nicht in einer Kategorie mit der GF4TI und 5600 geführt.

http://www.nvidia.com/page/desktop.html Wer kauft eine Grafikkarte auf der Herstellerseite? Bzw wer informiert sich dort wie gut eine Grafikkarte ist und wofür welche zu gebrauchen ist?

Das Problem ist da eher das "die Händler" diese als vollwertige Spielekarten anpreisen, und nicht unbedingt die Hersteller (wobei diese dann natürlich die Bezeichnungen teilweise etwas besser hätten wählen können).

aths
2003-09-23, 17:00:00
Original geschrieben von Endorphine
Naja. Genau genommen war der i8088 ja der Ursprung der "PC-Branche", da er für den Ur-PC von IBM ausgewählt wurde. 8-Bit "Hardwareumgebung" impliziert auch etwas falsches, es handelt sich ja nur um eine schmalere I/O-Bandbreite der CPU. Der i8088 hatte lediglich einen 8-Bit Datenbus, dennoch einen 20-Bit Adressraum. Übrigens wurde auch die Prefetch Queue ggü. dem 8086 von 6 auf 4 Byte verkürzt.All das hat in einem Artikel, bzw. einer Kolumne, die sich vorwiegend mit Grakas beschäftigt, nicht unbedingt was zu suchen (zumindest wenn sie von mir geschrieben wurde http://www.aths.net/files/smilies/smile.gif.) Im CPU-Bereich habe ich mir besondere Vereinfachungen genehmigt.

Sind die Durons wirklich so viel weniger erfolgreich als die Celerons? Wenn ja, liegt das imo vor allem daran, dass die Athlons auch schon recht günstig sind, und der Raum nach unten dementsprechend eng wurde. Allerdings, das stimmt schon, in der CPU-Branche werden wohl mehr Pentiums und Athlons als Celerons und Durons verkauft, während im Graka-Markt die "MX-Sparte" stückzahlenmäßig die Verkäufe der großen Brüder übertreffen dürften.

aths
2003-09-23, 17:00:56
Original geschrieben von LovesuckZ
Du hast eine Kolumme verfasst, die sich mit Low End Karten befasst und basht (vorallen 5200) diese, weil sie für Gamer nicht die richtigen Karten seien?
Sry, aber selbst auf der Seite von Nvidia (bei ATi weiß ich es nicht) wird die 4MX und 5200 nicht in einer Kategorie mit der GF4TI und 5600 geführt.Dazu äußerte ich mich in diesem Thread bereits auf eine Einlassung von Quasar. Gebasht wurde die 5200 btw. nicht, allgemein wurden die 64-Bitter gebasht.

Endorphine
2003-09-23, 17:07:57
Original geschrieben von aths
Sind die Durons wirklich so viel weniger erfolgreich als die Celerons? Ja.

Original geschrieben von aths
Wenn ja, liegt das imo vor allem daran, dass die Athlons auch schon recht günstig sind, und der Raum nach unten dementsprechend eng wurde. Allerdings, das stimmt schon, in der CPU-Branche werden wohl mehr Pentiums und Athlons als Celerons und Durons verkauft, während im Graka-Markt die "MX-Sparte" stückzahlenmäßig die Verkäufe der großen Brüder übertreffen dürften. IMHO genau richtig geschlussfolgert :) Der Athlon-XP wird von AMD für dermassen wenig Geld verkauft, dass so gut wie gar kein Raum für einen Duron vorhanden ist -> http://www.geizhals.at/deutschland/?cat=cpuk7sa&sort=p (nach Preis aufsteigend sortiert).

Das verhält sich im Grafikkartenmarkt ganz anders.

Quasar
2003-09-23, 17:20:35
Original geschrieben von aths
Viele Händler erwecken aber mehr oder weniger den Eindruck, als seien das Top-Karten, so erinnere ich mich daran, dass z.B. ELSA die MX-200 mit einem Joystick bundelte. ATI und Nvidia tun nichts, um diesem Eindruck entgegenzutreten, sonst würden sie die Office-Karten unter einem anderen Namen vermarkten.


Original geschrieben von Ikon
- halbierte Bandbreite für praktisch keine finanzielle Ersparnis


(meine Hervorhebungen)
Hier liegt IMO der Knackpunkt. In 100.000er Stückzahlen für den OEM-Markt läßt sich sowohl beim PCB als auch beim RAM, der ja meist auch noch langsamer getaktet ist, doch einiges sparen.
Und hier kommen dann die Händler ins Spiel, die per Distri große Stückzahlen von den OEM-64Bittern kaufen und sie mit erheblich höherer Marge (s. Ikons praktisch keine finanzielle Ersparnis) an den Endkunden verscherbeln, für den sie eigentlich nicht gedacht sind.

Neueste Stilblüte: Der Vobis-PC mit Athlon64 und FX5200 Personal Cinema (hoffentlich ist's wenigstens eine 128bittige).

GloomY
2003-09-23, 17:35:37
Original geschrieben von aths
All das hat in einem Artikel, bzw. einer Kolumne, die sich vorwiegend mit Grakas beschäftigt, nicht unbedingt was zu suchen (zumindest wenn sie von mir geschrieben wurde http://www.aths.net/files/smilies/smile.gif.) Im CPU-Bereich habe ich mir besondere Vereinfachungen genehmigt.Aber dann trotzdem so den PMMX hervorheben? Ich kann nicht nachvollziehen, wie du auf die Aussage kommst, dass der PMMX permanent unterschätzt wurde. Gegenüber seinem Vorgänger war er wegen seines größeren L1 schon eine Verbesserung, aber mit dem nachfolgenden PentiumII konnte er keinesfalls mithalten. Die dort eingeführte OOO-E und der schnellere L2 Cache (nicht mehr elends langsamer Bustakt sondern halber Prozessortakt) fehlten dem PMMX.
Gerade wenn man sich anschaut, wie viel ein K6-3 gegenüber einem K6-2 oder ein Covington Celeron gegenüber einem Mendocino Celeron jeweils durch schnelle on-die L2-Cache gewinnen, so wird klar, dass der PMMX hier selbst mit 300 MHz kein Wort mitzureden hat. Out-of-Order Execution in den Pipelines bringt zusätzlich dazu noch ein ganzes Stück mehr Performance.

edit: Ansonsten gefällt mir die Kolummne.

Bokill
2003-09-23, 18:05:36
So wenig ich viele Postings von aths im Forum nicht mochte, so gut ist dieser Artikel (wieder Erwarten) geworden!
Ich bitte um Entschuldigung aths, mache mit dieser Art von Artikeln weiter so!

Die Grundrichtung entspricht auch meiner Haltung zu Grakas, jedoch vermied ich in diesem Forum meine Meinung zu Grakas. Auf Planet3DNow jedoch, verschüttete ich jedoch schon einige Kübel Hohn; ...
Über diejenigen die unbedingt ihre GF3 oder besser noch ihre GF4 gegen eine GFX5200/5600 austauschen wollten, damit sie unbedingt Spiele mit DX9- Funktionalität sicher spielen können.

Gast
2003-09-23, 19:24:45
Dieser Artikel ist ein guter Ansatz mehr aber auch nicht!
Leider mußte ich feststellen das dieser Artikel auch noch sehr sehr schlechtes Marketing ist.

Ich zählte:

7x nvidia
6x ATi

geht ja noch...

aber...

41X GeForce
18X Radeon

ist eindeutig positives Marketing zu schlechten Zeiten, weiterhin wird zwischen den Zeilen ein merkwürdiger Schreibstil verwendet.

Bsp:

Beispiel GeForce2 MX: Zum Zeitpunkt des Erscheinens war sie noch recht teuer, und die schlechte 32-Bit-Performance wurde nur durch die damalige CPU-Limitierung verschleiert
.........................................
Die GeForce2 MX war alles in allem eine sowohl vergleichsweise preiswerte, als auch gute Karte.

????? War sie jetzt ein Reinfall bezüglich Abhängigkeit CPU oder alles in allem superschnitte:-) wegen preiswert & gute karte


ein Bekannter spielte Morrowind mit seiner GeForce4 MX440 in 800x600x32. Weil er Computerspieler und kein Hardwarehochleistungs-Freak ist, war er damit auch noch zufrieden



Die positive Botschaft in diesem Artikel ist ganz klar keine Botschaft zu dem derzeitigen Chip-Skandal DX9 und nv.

Da wird sich brav ausgeschwiegen!

Quasar
2003-09-23, 19:30:33
:rofl: Ja, genau. aths, der nV-Fanboy....

aths
2003-09-23, 19:36:43
Original geschrieben von Quasar
(meine Hervorhebungen)
Hier liegt IMO der Knackpunkt. In 100.000er Stückzahlen für den OEM-Markt läßt sich sowohl beim PCB als auch beim RAM, der ja meist auch noch langsamer getaktet ist, doch einiges sparen.
Und hier kommen dann die Händler ins Spiel, die per Distri große Stückzahlen von den OEM-64Bittern kaufen und sie mit erheblich höherer Marge (s. Ikons praktisch keine finanzielle Ersparnis) an den Endkunden verscherbeln, für den sie eigentlich nicht gedacht sind.Japp, natürlich spart man an den 64-Bittern einige Euro, was sich bei den großen Stückzahlen zu einem hübschen Sümmchen läppert. Schuldlos sind die IHVs imo aber nicht. Siehe ATI, die stark kastrierte Produkte nur durch ein "SE" kennzeichnen, was ich inakzeptabel finde. Siehe Nvidia, die verwirrende Zahlenspielchen treiben, und z.B. die 64-Bit-Versionen (es gibt wie gesagt auch 5600-er mit 64-Bit RAM, @133 MHz btw.) nicht weiter kennzeichnen. Auf der Website geben die nur die Frequenzen der Ultra-Versionen an, vermutlich geben sie bei den anderen Versionen den Herstellern freie Hand.
Original geschrieben von GloomY
Aber dann trotzdem so den PMMX hervorheben? Ich kann nicht nachvollziehen, wie du auf die Aussage kommst, dass der PMMX permanent unterschätzt wurde.

[...]Pentium II war afaik auch deutlich teurer. Der 486-er wurde, trotz Pentium 60, bis zu 100 MHz getaktet, bzw. 120, 133, in einigen Ausführungen gar 150 MHz.
Original geschrieben von GloomY
edit: Ansonsten gefällt mir die Kolummne. http://www.aths.net/files/smilies/smile.gif http://www.aths.net/files/smilies/smile.gif

aths
2003-09-23, 19:39:50
Original geschrieben von Bokill
So wenig ich viele Postings von aths im Forum nicht mochte, so gut ist dieser Artikel (wieder Erwarten) geworden!Du magst meine Postings nicht http://www.aths.net/files/smilies/qqq.gif http://www.aths.net/files/smilies/hm.gif http://www.aths.net/files/smilies/hm.gif.
Original geschrieben von Bokill
Ich bitte um Entschuldigung aths, mache mit dieser Art von Artikeln weiter so!Entschuldigung angenommen http://www.aths.net/files/smilies/D.gif aber mit den Artikeln möchte ich insgesamt eine gewisse Bandbreite haben. Der nächste wird z.B. nur trockene Theorie bieten.
Original geschrieben von Bokill
Über diejenigen die unbedingt ihre GF3 oder besser noch ihre GF4 gegen eine GFX5200/5600 austauschen wollten, damit sie unbedingt Spiele mit DX9- Funktionalität sicher spielen können. Für DX9-Spiele sind 5200 und 5600-er objektiv gesehen sehr schlecht, weil sie sehr wenig DX9-Leistung bieten.

aths
2003-09-23, 19:46:36
Original geschrieben von Gast
Dieser Artikel ist ein guter Ansatz mehr aber auch nicht!
Leider mußte ich feststellen das dieser Artikel auch noch sehr sehr schlechtes Marketing ist.

Ich zählte:

7x nvidia
6x ATi

geht ja noch...

aber...

41X GeForce
18X Radeon

ist eindeutig positives Marketing zu schlechten Zeiten, weiterhin wird zwischen den Zeilen ein merkwürdiger Schreibstil verwendet.Zwischen den Zeilen sollte sich gar nicht mal so viel finden, insgesamt bemühte ich mich um eine explizite Formulierung. Marketing kann ich eigentlich nicht erkennen, zumal wir davon nichts hätten.
Original geschrieben von Gast
Bsp:

Beispiel GeForce2 MX: Zum Zeitpunkt des Erscheinens war sie noch recht teuer, und die schlechte 32-Bit-Performance wurde nur durch die damalige CPU-Limitierung verschleiert
.........................................
Die GeForce2 MX war alles in allem eine sowohl vergleichsweise preiswerte, als auch gute Karte.

????? War sie jetzt ein Reinfall bezüglich Abhängigkeit CPU oder alles in allem superschnitte:-) wegen preiswert & gute karteZum Zeitpunkt des Releases war die MX recht teuer, bot aber angesichts der CPU-Limitierung ausreichend Leistung für das Geld. Später gingen die MXe preislich nach unten (kein Wunder) aber boten noch ausreichend Geschwindigkeit. Die GeForce2 MX wurde in gewaltigen Massen abgesetzt, viele ernsthafte Computerspieler hatten damals die MX. Offensichtlich war sie dafür gut genug, auch wenn die Beschneidungen (kein 128 Bit DDR) Anlass zum Spott geben.
Original geschrieben von Gast
ein Bekannter spielte Morrowind mit seiner GeForce4 MX440 in 800x600x32. Weil er Computerspieler und kein Hardwarehochleistungs-Freak ist, war er damit auch noch zufriedenIch hingegen klagte, wie Morrowind auf meiner Ti 4600 ruckelt.
Original geschrieben von Gast
Die positive Botschaft in diesem Artikel ist ganz klar keine Botschaft zu dem derzeitigen Chip-Skandal DX9 und nv.

Da wird sich brav ausgeschwiegen! Hm? Welcher Skandal?

Quasar
2003-09-23, 20:01:42
Original geschrieben von aths
Japp, natürlich spart man an den 64-Bittern einige Euro, was sich bei den großen Stückzahlen zu einem hübschen Sümmchen läppert. Schuldlos sind die IHVs imo aber nicht. Siehe ATI, die stark kastrierte Produkte nur durch ein "SE" kennzeichnen, was ich inakzeptabel finde. Siehe Nvidia, die verwirrende Zahlenspielchen treiben, und z.B. die 64-Bit-Versionen (es gibt wie gesagt auch 5600-er mit 64-Bit RAM, @133 MHz btw.) nicht weiter kennzeichnen. Auf der Website geben die nur die Frequenzen der Ultra-Versionen an, vermutlich geben sie bei den anderen Versionen den Herstellern freie Hand.
Pentium II war afaik auch deutlich teurer. Der 486-er wurde, trotz Pentium 60, bis zu 100 MHz getaktet, bzw. 120, 133, in einigen Ausführungen gar 150 MHz.

Nu ja, halbwegs freie Taktung ist nunmal auch ein Merkmal, womit sich die Hersteller der Karten unterscheiden. Ansonsten könnten wir gleich zur Built-by-ATi Ära und STB-Voodoo3 zurück, aber das tut dem Markt als Ganzes mit Sicherheit nicht gut.

Der Pentium200MMX war auch heidenteuer, als er erschien, du darfst nicht den Fehler machen und PentiumMMX-Preise zum Zeitpunkt der Markteinführung des PentiumII mit dessen Preisen zu vergleichen.

aths
2003-09-23, 20:11:33
Original geschrieben von Quasar
Der Pentium200MMX war auch heidenteuer, als er erschien, du darfst nicht den Fehler machen und PentiumMMX-Preise zum Zeitpunkt der Markteinführung des PentiumII mit dessen Preisen zu vergleichen. Wieso Fehler? Zum Zeitpunkt, als der P2 modern war, und man sich alternativ auch einen MMX kaufen konnte, zählten die Preise die damals aktuell waren, nicht die jeweiligen Einführungspreise.
Original geschrieben von Quasar
Nu ja, halbwegs freie Taktung ist nunmal auch ein Merkmal, womit sich die Hersteller der Karten unterscheiden. Ansonsten könnten wir gleich zur Built-by-ATi Ära und STB-Voodoo3 zurück, aber das tut dem Markt als Ganzes mit Sicherheit nicht gut.Ich halte es für nicht gut, wenn sich eine Karte mit 64 Bit DDR-RAM @133 MHz "GeForceFX 5600" nennen darf. NV31 hin oder her, imo sollte NV verlangen, dass die Bezeichnungen speicherseitig gewisse Standards einhalten. Für 64-Bit-Versionen könnten sie ja extra Zahlen, oder zumindest eindeutige Kürzel ("M64") festlegen. Ich finde es blöd, dass sich die 5200-er im Namen nicht von den 64-Bit-Versionen unterscheiden. Das hilft dem Gewinn von Nvidia und den Boardherstellern, ja. Aber das schadet dem Kunden. Ich bin Kunde und habe die Sicht des Kunden. Ein Informationsgebot des mündigen Kunden in Ehren, aber absichtlich Intransparenz zu schaffen finde ich dumm. Der Vollständigkeit halber noch mal die Erwähnung, dass sich auch ATI hier in großem Maße "schuldig" machte.

Quasar
2003-09-23, 20:37:56
aths,
ich glaube nicht (glauben heisst nich wissen), daß nV da Unterschiede macht. Die Boardhersteller kaufen entweder ein Kontigent FX5600-Chips oder FX5600 Ultra-Chips.

Was dann damit geschieht, liegt ausserhalb der Reichweite von nV und ATi.

Auch wenn ich diese Intransparenz ebensowenig gutheisse wie du, denke ich, du schiebst die Schuld den falschen in die Schuhe.

IMO würde es vielmehr fruchten, Druck auf die Boardhersteller auszuüben, u.a. auch mit Warnungen in den Newsmeldungen.


Bezgl. des PII nochmal:
Ein Freund von mir kaufte seinen Pentium200 kurz nach dessen Erscheinen zu einem Preis weit jenseits der 1100 DM, ebensoviel gab ein anderer Freund von mir für einen 486DX4/100 aus.
IT-Zubehör ist bei der Markteinführung nunmal teuer, das war kein alleinstellendes Verdammungsmerkmal des Pentium II.

Aqualon
2003-09-23, 20:47:28
Original geschrieben von Quasar
Neueste Stilblüte: Der Vobis-PC mit Athlon64 und FX5200 Personal Cinema (hoffentlich ist's wenigstens eine 128bittige).

Auch der neue "Volks-PC" von Plus glänzt ja neben dem Athlon XP2800+ mit ner Asus V9520 Magic/T, auf der ein FX 5200 sitzt. Der hat zwar neben den 250MHZ Standard-GPU-Takt auch ne 128Bit RAM-Anbindung, das aber nur mit 166MHz taktet. Aber dafür ist die Karte passiv und der PC somit sehr gut als Office-Kiste tauglich, die auch bei gelegentlichen (bevorzugt älteren) Spielchen nicht total abkackt.

Aqua

Schroeder
2003-09-23, 22:38:19
Also, da ich schon so vorschnell und vorlaut war, meine rudimentären Englischkenntnisse ungeniert auf die ersten Absätze von aths' Kolumne/Artikel loszulassen, frage ich denne doch nochmal lieber nach, ob daran überhaupt Interese besteht, bzw. ob des von der Seite des Verfassers (für ein direktes Ansprechen bzw. Anschreiben bin ich zu schüchtern ;) ) einwände bestehen.
Natürlich bin ich mir bewußt das ich wohl nur im Stande bin eine Art ersten Entwurf vorzulegen, der dann sicherlich an vielen Stellen verbesserungswürdig wäre, aber dass ist fürs Erste meine Absicht.

tschö

PS: Ich bitte sämtliche orthographischen & grammatikalischen Fehler zu entschuldigen, ich bin bereits meiner Kontaktlinsen "entwaffnet" und naja... (den Rest kann man sich denken, oder ;) )

StefanV
2003-09-23, 22:59:33
Original geschrieben von Aqualon
Auch der neue "Volks-PC" von Plus glänzt ja neben dem Athlon XP2800+ mit ner Asus V9520 Magic/T, auf der ein FX 5200 sitzt. Der hat zwar neben den 250MHZ Standard-GPU-Takt auch ne 128Bit RAM-Anbindung, das aber nur mit 166MHz taktet. Aber dafür ist die Karte passiv und der PC somit sehr gut als Office-Kiste tauglich, die auch bei gelegentlichen (bevorzugt älteren) Spielchen nicht total abkackt.

Aqua

Öhm, die Magic Serie von ASUS hat idR ein 64bit RAM Interface...

Quasar
2003-09-23, 23:40:11
Um nochmal auf die 'Leistungen' der FX5200 zurückzukommen, habe ich die letzte Stunde damit verbracht, mal ein paar kleinere Betrachtungen anzustellen.

Das Ergebnis könnt ihr unten sehen (die GF2MX lief dabei aber mit den 51.75er Detos): Ich finde, für ein absolutes Low-End Produkt macht sie sich gar nicht schlecht.

aths
2003-09-24, 00:01:16
Original geschrieben von Quasar
Um nochmal auf die 'Leistungen' der FX5200 zurückzukommen, habe ich die letzte Stunde damit verbracht, mal ein paar kleinere Betrachtungen anzustellen.

Das Ergebnis könnt ihr unten sehen (die GF2MX lief dabei aber mit den 51.75er Detos): Ich finde, für ein absolutes Low-End Produkt macht sie sich gar nicht schlecht. Die 5200 ist imo wirklich kein "absolutes Low-End Produkt". Das wäre eine TNT2 M64. Danach kommen noch GF2 MX-Karten, dann kommen die GF4 MX-Karten, dann erst kommt FX 5200. Etwa 70 € — das ist deutlich mehr als so mancher bereit ist, für eine Graka auszugeben.

aths
2003-09-24, 00:04:35
Original geschrieben von Quasar
aths,
ich glaube nicht (glauben heisst nich wissen), daß nV da Unterschiede macht. Die Boardhersteller kaufen entweder ein Kontigent FX5600-Chips oder FX5600 Ultra-Chips.

Was dann damit geschieht, liegt ausserhalb der Reichweite von nV und ATi.Die IHVs könnten verlangen, dass die Produktnamen, mithin geschützte Markenzeichen, nur verwendet werden dürfen, wenn Mindestspezifikationen erfüllt werden. Bei Nichteinhaltung könnten sie einfach die Lieferung einstellen. Das liegt imo durchaus in der Reichweite von Nvidia und ATI.
Original geschrieben von Quasar
Auch wenn ich diese Intransparenz ebensowenig gutheisse wie du, denke ich, du schiebst die Schuld den falschen in die Schuhe.Das denke ich eigentlich nicht. Nvidia ("GeForce2 MX 200", "GeForce4 MX") und ATI ("Radeon 9000", Radeon 9800SE") gehen ja mit schlechtem Beispiel voran.
Original geschrieben von Quasar
IT-Zubehör ist bei der Markteinführung nunmal teuer, das war kein alleinstellendes Verdammungsmerkmal des Pentium II. Den P2 habe ich doch gar nicht verdammt...

aths
2003-09-24, 00:06:39
Original geschrieben von Schroeder
Also, da ich schon so vorschnell und vorlaut war, meine rudimentären Englischkenntnisse ungeniert auf die ersten Absätze von aths' Kolumne/Artikel loszulassen, frage ich denne doch nochmal lieber nach, ob daran überhaupt Interese besteht, bzw. ob des von der Seite des Verfassers (für ein direktes Ansprechen bzw. Anschreiben bin ich zu schüchtern ;) ) einwände bestehen.
Natürlich bin ich mir bewußt das ich wohl nur im Stande bin eine Art ersten Entwurf vorzulegen, der dann sicherlich an vielen Stellen verbesserungswürdig wäre, aber dass ist fürs Erste meine Absicht.

tschöWer damit leben kann, dass ich mögliche Übersetzungsvarianten ablehne bzw. mir vorbehalte, den Text auch ohne Einverständnis des Orignalübersetzers zu ändern, kann anfangen. Natürlich würden die Übersetzer in einem möglichen Release namentlich erwähnt werden :naughty: sofern sie keine Einwände erheben. Allerdings weiß ich nicht, ob diese Kolumne eine Übersetzung wirklich wert ist.

Gast
2003-09-24, 00:08:51
Original geschrieben von aths
Die 5200 ist imo wirklich kein "absolutes Low-End Produkt". Das wäre eine TNT2 M64. Danach kommen noch GF2 MX-Karten, dann kommen die GF4 MX-Karten, dann erst kommt FX 5200.

Bis auf die FX5200 werden all diese Chips m.W. nicht mehr produziert.

Schroeder
2003-09-24, 07:40:28
Original geschrieben von aths
Wer damit leben kann, dass ich mögliche Übersetzungsvarianten ablehne bzw. mir vorbehalte, den Text auch ohne Einverständnis des Orignalübersetzers zu ändern, kann anfangen. Natürlich würden die Übersetzer in einem möglichen Release namentlich erwähnt werden :naughty: sofern sie keine Einwände erheben. Allerdings weiß ich nicht, ob diese Kolumne eine Übersetzung wirklich wert ist.

Klar könnte ich damit leben, zumal mir das insofern "gelegen kommt" da ich mit der ganzen Sache ja mein Englisch "trainieren" möchte (für meine Englisch-Prüfung) und somit ich mir hier und da was abschauen könnte. Wie gesagt, momentan würde ich wohl nur so eine Art Gerüst liefern können. Allerdings wöllte ich das nur ungern völlig umsonst machen. Und obs die Kolumne wert, das müsstest du entscheiden bzw. die anderen Herren und Damen, weil ich ja prinzipiell übersetzen möchte, und damit ja meine Entscheidung feststeht. ;)

tschö

Aqualon
2003-09-24, 14:27:15
Original geschrieben von Stefan Payne
Öhm, die Magic Serie von ASUS hat idR ein 64bit RAM Interface...

Stimmt, hab da einen Artikel von AMDZone zu schnell überflogen. In den Anmerkungen dazu schreibt der Autor auch, dass es ne 64bit Version sein muss. Hätte nach einem Blick auf die Karte auch draufkommen müssen, dass es nur 64bit sein können.

Aqua

Schroeder
2003-10-01, 10:10:07
also ich muss mich leider erst einmal von meinem vorhaben aths' artikel ins englische zu transferieren distanzieren, da mich meine vordiplom-prüfung doch zu sehr auf trab hält. wenn da jemand anders dran "arbeitet" kann er sich ja bei mir melden, so dieser jemand interesse an den ersten 3 absätzen hat, welche ich nämlich schon ;) (bin ein ganz schneller, ich weiß ?-) ) übersetzt habe.

tschö

INTRU
2003-10-03, 21:58:44
In der c't 2003, Heft 17 kommt die FX5200 (128Bit) in dem Artikel "Pixel-Schnäppchen" gut weg... deutlich besser als die 9200er Karten (ATI).

Gast
2003-10-03, 22:04:55
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=70595&perpage=20&pagenumber=6

;)

"Habe die MSIFX5200TDR. Die Karte "befeuert" bei mir 2 19" und´n 70cm TV. Die 3-D Leistung ist für alle aktuellen Spiele (z.B.Unreal2k3/Generals/Morrowind wird mitgeliefert) absolut ausreichend."

Ist doch was ;)

[P3D] Stoneweapon
2003-10-07, 02:03:33
Sorry, wenn ich den Thread nicht gelesen habe.

Mein Kommentar:

Die Artikel von euch müssten mal in der Computer Bild oder den anderen Computerzeitungen abgedruckt werden, die den wenig versierten User ansprechen.
So viel Know How gibt es in dieser allgemeinverständlichen und trotzdem technisch nicht zu oberflächklichen Form sehr selten im Internet.

Super Artikel. Weiter so!

BlackJack
2003-10-13, 21:55:37
Okay, ich möcht mal mit dem Gerücht aufräumen, dass eine GeForce FX5200 keine Leistung bringt.
Ich spiele alle Games ( GTA Vice City, C&C Generals usw. ) in 1024x768er Auflösung mit 2x AA und 2X AF. Und es gibt keinen einzigen Ruckler.
Naja aber trotzdem guter Artikel, wobei aber Vieles eben schon bekannt war.

Mein System: K7S5A, Athlon XP 1900+, FX 5200 von Gainward

Gast
2004-02-23, 23:45:50
Mein Fresse, wie hier über die Matrox-Karten hergezogen wird. Mit keiner eurer tollen nVidia oder ati Karten könnt ihr in 1024xwattweiss ich und 16xAA flüssig spielen.
Ich kann das mit meiner Parhelia auch auf nem 1200Mhz Duron. und von signalqualitäten an den ausgängen wollen wir erst garnicht reden. so nen dmämlichen artikel habe ich lang nicht mehr gelesen. vlt solltet ihr eher von renomierten fachzeitschriften (heise-verlag) abschreiben, als so nen mundpups abzulassen. so nen niveau gehört nichtmla in die Computerbild :(

Exxtreme
2004-02-23, 23:49:54
Original geschrieben von Gast
Mein Fresse, wie hier über die Matrox-Karten hergezogen wird. Mit keiner eurer tollen nVidia oder ati Karten könnt ihr in 1024xwattweiss ich und 16xAA flüssig spielen.

Das 6x AA der aktuelleren ATi-Karten ist dem 16x FAA bezüglich Glättung weit überlegen und schneller läuft's auch noch.
Original geschrieben von Gast
Ich kann das mit meiner Parhelia auch auf nem 1200Mhz Duron. und von signalqualitäten an den ausgängen wollen wir erst garnicht reden.

Der Parhelia hat, laut einigen unabhängigen Messungen, eine relativ mittelmässige Signalqualität. Der King ist immer noch die G550.
Original geschrieben von Gast
so nen dmämlichen artikel habe ich lang nicht mehr gelesen. vlt solltet ihr eher von renomierten fachzeitschriften (heise-verlag) abschreiben, als so nen mundpups abzulassen. so nen niveau gehört nichtmla in die Computerbild :(
Keine konstruktive Kritik? Schade. :(

Gast
2004-04-23, 15:49:14
Hallo zusammen.

Bin vor kurzem auf eure Seite gestoßen. Mir gefällt sie übrigens sehr gut.
Lese hier viel und lerne hier viel dazu. Auch diese Kolumne habe ich mit interesse verfolgt und, obwohl ich lange nicht dieses Hintergrundwissen besitze, habe ungefähr die gleiche Meinung.
Bei einer Sache muß ich nun aber doch nachfragen. Ich weis der Artikel ist schon älter und damals gab es diese Probleme nicht, aber mittlerweile tauchen immer mehr Spiele auf, die mit der MX-Serie von nV nichts anfangen können, aufgrund fehlender T/L Eigenschaften. Wenn ich mich nicht irre, sind es z.B. Splinter Cell 2, als auch Far Cry. Mir ist aber aufgefallen, das die MX-Serie auch damals schon für spiele mehr als ungeeignet war. Ich hatte selbst eine MX440, die ich gute zwei Monate später verschenkt habe.
Meine Frage ist nun, wie ihr die MX-Serie heute bewertet.

Gruß AvenDexx

StefanV
2004-04-23, 17:52:50
Original geschrieben von Gast
(...)

Ich weis der Artikel ist schon älter und damals gab es diese Probleme nicht, aber mittlerweile tauchen immer mehr Spiele auf, die mit der MX-Serie von nV nichts anfangen können, aufgrund fehlender T/L Eigenschaften. Wenn ich mich nicht irre, sind es z.B. Splinter Cell 2, als auch Far Cry. Mir ist aber aufgefallen, das die MX-Serie auch damals schon für spiele mehr als ungeeignet war. Ich hatte selbst eine MX440, die ich gute zwei Monate später verschenkt habe.
Meine Frage ist nun, wie ihr die MX-Serie heute bewertet.

Gruß AvenDexx

Öhm, die GF4 MX hat durchaus eine TnL Einheit, nur einen Vertex- und Pixelshader fehlt ihr (ie DX8 Konformität).

Die GF4 MX ist etwa auf dem Level einer GF2 GTS/PRO, mal schneller, mal nicht, kommt drauf an, ob das Spiel eher an der Füllrate oder Bandbreite hängt.

Wie dem auch sei, die GF4 MX ist eine sehr gute Office Karte, zum spielen ist sie leider nur wenig bis garnicht geeignet...

aths
2004-04-24, 12:29:14
Original geschrieben von Gast
Bei einer Sache muß ich nun aber doch nachfragen. Ich weis der Artikel ist schon älter und damals gab es diese Probleme nicht, aber mittlerweile tauchen immer mehr Spiele auf, die mit der MX-Serie von nV nichts anfangen können, aufgrund fehlender T/L Eigenschaften. Wenn ich mich nicht irre, sind es z.B. Splinter Cell 2, als auch Far Cry. Mir ist aber aufgefallen, das die MX-Serie auch damals schon für spiele mehr als ungeeignet war. Ich hatte selbst eine MX440, die ich gute zwei Monate später verschenkt habe.
Meine Frage ist nun, wie ihr die MX-Serie heute bewertet.DX7-T&L beherrschen die MXen auch. Nach ihrem Launch im Sommer 2002 waren das imo durchaus brauchbare Karten für Spieler. Natürlich nicht mit der GeForce4 Ti zu vergleichen, die 4 Ti bot deutlich mehr Power, DirectX8-Features und AF bis 8x (die MX bis 2x.) Dennoch, die relativ geringe Rohpower wurde von der MX (ab 440, die 420 ist vom Speicherinterface her "kastriert") sehr gut ausgenutzt.

Heute ist die MX "moralisch verschlissen", ich würde als Einstieg für Spiele aber auch nicht unbedingt eine FX 5200 empfehlen, lieber eine Radeon 9600. Klar ist die immer ein gutes Stück teurer, aber zum Spielen kommt man mit Billig-Hardware nun mal nicht aus.

Die 5200 hat die MX inzwischen abgelöst: Ähnliche Leistung (sofern es nicht eine 64-Bit-Version ist) aber volle DirectX9-Compliance. Muss es unbedingt eine GeForce sein, lieber ein paar Euro drauf legen und die Einsteiger-FX als die MX kaufen.