PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVidia LowBudget -> Wo bleibt Verbraucherschutz


Seiten : 1 [2]

Vertigo
2006-02-10, 15:10:23
edit: Wie sollen sie denn deiner Meinung nach gekennzeichnet werden? Sollen sie riesengroß draufschreiben "Achtung: Diese Karte ist verdammt lahm"? ;)
thx - man kann doch nicht ernsthaft erwarten für 40€ die Leistung einer 400€-Karte kaufen zu können. Selbst wenn man kein BWL/VWL gehört hat, sollte das der gesunde Menschenverstand gebieten !

Gast
2006-02-10, 15:55:35
edit: Wie sollen sie denn deiner Meinung nach gekennzeichnet werden? Sollen sie riesengroß draufschreiben "Achtung: Diese Karte ist verdammt lahm"? ;)

stimmt, die wahrheit kommt da nicht so gut, da schreibt man besser andere wichtige tatsachen wie in der Auflösung "320x240 mit 160hz möglich"
Auch sind die Nanosek. mit Angabe der damit möglichen Speicher-Taktung nötig, z.b. hat diese Karte die bahnbrechende Kombination 250/166.

Plissken
2006-02-10, 15:58:10
Ich möchte echt mal wissen welches Spatzenhirn auf die Idee gekommen ist, diesen Thread zu eröffnen. Was hat der Verbraucherschutz damit zu tun ? Die 5200er erfüllt ihren Zweck - sie liefert ein Bild. Die Karte ist weder gesundheitsgefährdend noch sonst irgendwie gefährlich. Ich finde die ganze Diskussion hier ziemlich daneben.

Jedenfalls nicht so eins, das statt Onboard-Karten FX52er empfielt.

tokugawa
2006-02-10, 18:37:24
Bei den Fällen wo der Verbraucherschutz wirklich gefordert wird, ist es eine absolute Lappalie sich wegen 64-bit Karten aufzuregen.

Ich find das gewissermaßen respektlos - es gibt so viele die wirklich hintergangen werden, und dann regt sich hier einer auf weil er nicht genügend Recherche gemacht hat.

Natürlich wär's besser wenn man die 64-Bit SI Karten besser kennzeichnen würde, dass sie ein 64-Bit SI haben.

Trotzdem ist diese Diskussion überzogen und ich wundere mich über die Länge dieses Threads...

Gast
2006-02-10, 19:34:28
Es ist trotz allem krass, dass es sich für Hersteller noch lohnt, solche brutal kastrierten Karten zu produzieren. Kann da überhaupt noch nennenswert Geld eingespart werden? Es wäre doch mittlerweile sicherlich billiger, langsameren Speicher zu verbauen als das Speicherinterface dermaßen zu kastrieren. Selbst die uralte Voodoo Graphics hatte ein 128-bit Interface!

nö, schneller speicher wird mit der zeit immer billiger, das PCB bleibt mit einem breiten interface aber annähernd gleich teuer.

Gast
2006-02-11, 11:39:43
Ich find das gewissermaßen respektlos - es gibt so viele die wirklich hintergangen werden, und dann regt sich hier einer auf weil er nicht genügend Recherche gemacht hat.


ja, und in afrika verhungern millionen und du ist trotzdem wiener schnitzel. was sind denn für dich 'richtige hintergehungen'? freu mich schon auf deinen fred.

P.S. Vor deutschen Behörden hab ich tatsächlich null Respekt, in Österreich ist das wohl anders

Gast
2006-02-11, 15:08:02
Sorry, aber eine FX5200 64-bit hat durchaus ihre Berechtigung. Ich sehe hier keinen Fall für den Verbraucherschutz. Wer sich die Karte kauft um damit zu spielen, ist selbst schuld. Man hätte sich informieren können. Für Office und sonstige 2D-Arbeiten ist die Karte völlig ok.

tokugawa
2006-02-11, 18:51:13
ja, und in afrika verhungern millionen und du ist trotzdem wiener schnitzel. was sind denn für dich 'richtige hintergehungen'? freu mich schon auf deinen fred.

P.S. Vor deutschen Behörden hab ich tatsächlich null Respekt, in Österreich ist das wohl anders

Dein Posting scheint mir eine Vergewaltigung der deutschen Sprache zu sein. Ich versuche ihn trotzdem zu verstehen.

- Der Vergleich mit Afrika hinkt. Es geht darum dass der Originalposter (warst das du?) sich ach-so-schröcklich aufregt über etwas, was man nur als Lappalie bezeichnen kann. Es ist ganz einfach nicht so schlimm. Künstliche Aufregung halt.

- Wer redet von irgendwelchen Behörden? Wenn jemand bei irgendeinem Händler per Vorkasse bezahlt und seine Ware nicht kriegt, ist das ein viel viel wichtigerer Fall für den Verbraucherschutz als "Oh Nein! Ich hab mich nicht richtig informiert und beschuldige jetzt jeden außer mir selbst!". Wenn man sich über solche selbstverschuldete (sorry MadManniMan, in diesem Fall mein ich's wirklich :) ) Kinkerlitzchen aufregt, hat das nichts mit dem Verbraucherschutz zu tun - der hat wichtigeres zu tun.

- Lösung: wieso verkauft man nicht einfach die Gurke die man sich gekauft hat? Grad im Low-End-Bereich kriegt man eine Karte die man um 50 Euro gekauft hat sicher auch um 30-40 Euro los an _irgendjemanden_ (der halt nicht zockt, oder nur genügsame Spiele).

- Etwas mehr Selbstverantwortung bitte! Ich bin ziemlich allergisch gegen die anscheinend (übrigens auch in Österreich) sehr verbreitete Praktik des sogenannten "Raunzens", also sich über alles und jeden aufregen, wenn man es eigentlich selbst in der Hand hätte, was zu ändern.





Immer nur alles und jeden beschimpfen und nicht selbst was tun, das ist ganz einfach nur kindisch.

S3xg0d
2006-02-11, 20:16:42
du bist doch der geheime nvidia-mitarbeiter, stimmts. Deswegen werd ichs dir wohl nie verständlich machen können, und wenn noch so simpel ist

tokugawa
2006-02-11, 20:29:09
du bist doch der geheime nvidia-mitarbeiter, stimmts. Deswegen werd ichs dir wohl nie verständlich machen können, und wenn noch so simpel ist

Wie in dem anderen Thread bereits gepostet, bin ich kein "NVIDIA-Maulwurf" und auch kein "ATI-Maulwurf". Wenn dann bin ich ein "TU Wien-Maulwurf".

Außerdem: Meine Aussagen beziehen sich auf die Low-Budget Karten beider Hersteller, ist also herstellerneutral.


Ich könnte dich jetzt als "geheimen ATI-Mitarbeiter" beschuldigen, aber auf dein Niveau lasse ich mich nicht herab.

und_nochein_Gast
2006-02-11, 21:49:36
Es wundert mich eher weniger, dass sich die "kastrierten" Versionen der Low-End-GraKas verkaufen wie warme Semmeln.

In Anbetracht der Tatsache, dass der durchnittliche momentan verkaufte PC typischerweise ein mehrfaches der benötigten (nicht-spiele)Rechenleistung aufweist, wundert mich vielmehr, dass findige Ingenieure/Marketingabteilungen nicht noch mehr Wege ersonnen haben, um für marginal geringere Produktionskosten noch an anderen Stellen "überschüssige" Leistung einzusparen.

Solange der Rechner nicht gerade abschmiert oder minutenlang die Festplatte am Rattern ist, wird die weit überwiegende Anzahl aller PC-Nutzer wohl nicht auf die Idee kommen, dass da eventuell etwas nicht stimmt.

Ein kleines Beispiel aus der freien Wildbahn:

Bei uns am Physiklehrstuhl (also durchaus technisch nicht unbeleckte Leute) liefen für mehr als ein Jahr ein ganzer Haufen AthlonXPs 2600-2800 mit FSB100 (und natürlich default-Multi) und ohne IDE-Busmaster, in diesem Zustand geliefert von mindestens 2 verschiedenen "Fach"-Händlern am Ort. Und diese Kisten wurden zum Teil auf Anschlag gefahren!

Aber wenn man es nicht besser weiss, davon ausgeht "die wissen schon was sie tun" und beim Booten nur diverse Firmenlogos bewundern kann, aber keinerlei Statusinformationen; wie soll denn ein User, für den der Rechner ein Arbeitsgerät und nicht Spielzeug und/oder Hobby ist jemals spitzkriegen, dass da etwas faul ist.

Nette Idee wäre doch z.B. das Wiederaufleben lassen des ursprünglichen Celeron-Konzeptes, ganz ohne L2-Cache kann man doch bestimmt noch einen Haufen Transistoren sparen, und mitlerweile wird es wohl nicht mehr so stark auffallen wie damals mit 300 MHz und FSB66.

Wo könnte man denn noch so unaufällig was streichen?

aths
2006-02-11, 23:42:28
Kann das mal einer schliessen !!!Aber wenn man es nicht besser weiss, davon ausgeht "die wissen schon was sie tun" und beim Booten nur diverse Firmenlogos bewundern kann, aber keinerlei Statusinformationen; wie soll denn ein User, für den der Rechner ein Arbeitsgerät und nicht Spielzeug und/oder Hobby ist jemals spitzkriegen, dass da etwas faul ist.Schließen und weiß werden noch immer mit ß geschrieben.


Threads schließen die Mods nur, wenn sie gegen die Regeln verstoßen.

Für einen normalen Office-PC reicht die 64-Bit-FX auch meistens auch.

Nette Idee wäre doch z.B. das Wiederaufleben lassen des ursprünglichen Celeron-Konzeptes, ganz ohne L2-Cache kann man doch bestimmt noch einen Haufen Transistoren sparen, und mitlerweile wird es wohl nicht mehr so stark auffallen wie damals mit 300 MHz und FSB66.

Wo könnte man denn noch so unaufällig was streichen?Fehlender Cache beim P4 dürfte nicht gerade unauffällig sein.

Mein Posting hier klingt vom Ton her unfreundlicher als es gedacht ist – vielleicht sollte ich lieber ausgeschlafen posten.

Es wundert mich eher weniger, dass sich die "kastrierten" Versionen der Low-End-GraKas verkaufen wie warme Semmeln.

In Anbetracht der Tatsache, dass der durchnittliche momentan verkaufte PC typischerweise ein mehrfaches der benötigten (nicht-spiele)Rechenleistung aufweist, wundert mich vielmehr, dass findige Ingenieure/Marketingabteilungen nicht noch mehr Wege ersonnen haben, um für marginal geringere Produktionskosten noch an anderen Stellen "überschüssige" Leistung einzusparen. Das hängt davon ab – während bei der Grafikkarte viele Leute geizen, darf's für das MB und die CPU gerne etwas mehr sein – allerdings kostet eine Spiele-Graka auch oft mehr als MB und CPU zusammen.

StefanV
2006-02-11, 23:49:47
Für einen normalen Office-PC reicht die 64-Bit-FX auch meistens auch.
Für einen normalen Office PC sollt man sich eher 'nen IGP Teil nehmen...

aths
2006-02-11, 23:59:04
Für einen normalen Office PC sollt man sich eher 'nen IGP Teil nehmen..."Office-PC" bitte mit Bindestrich, wenn ich noch eine Anmerkung zur Schreibweise machen darf. Die FX ist der üblichen integrierten Lösung mit diversen Features überlegen, darunter sind diverse 2D-Features und Nview worauf ich nur ungerne verzichten würde. Ich würde gerne eine 64-Bit-FX-5200 haben, ehe ich z. B. mit einer integrierten SiS-Grafik arbeiten sollte. Ein DVI-Ausgang ist bei einem Office-PC auch nicht unwichtig, denke ich.

StefanV
2006-02-12, 00:10:47
"Office-PC" bitte mit Bindestrich, wenn ich noch eine Anmerkung zur Schreibweise machen darf. Die FX ist der üblichen integrierten Lösung mit diversen Features überlegen, darunter sind diverse 2D-Features und Nview worauf ich nur ungerne verzichten würde. Ich würde gerne eine 64-Bit-FX-5200 haben, ehe ich z. B. mit einer integrierten SiS-Grafik arbeiten sollte. Ein DVI-Ausgang ist bei einem Office-PC auch nicht unwichtig, denke ich.
Dann wäre 'ne 7500 die richtige Wahl, zumal das eine Karte ist, die kaum bis garnicht warm wird, weit vor der 5200...

Alles in allem gibts eigentlich kaum einen Grund, sich eine verstümmelte, sau lahme, mini FX zu kaufen.

und_nochein_Gast
2006-02-12, 00:15:19
Zu meiner Schnapsidee mit dem P4 ohne Cache, ist schon klar daß das relativ gesehen massiv Leistung frisst, aber merkt das wirklich jemand der an einem 3Ghz+ System am Briefe schreiben, ein wenig in Excel hacken und surfen ist?

Insbesondere wenn man sich dann noch ne schicke Marketingbezeichnug einfallen läßt?

Wenn mein Versuch, den schon etwas ausgelutschten Thread in eine andere Richtung zu schubsen, nicht angebracht ist, sagt das ruhig, hab hier mal spontan gepostet ohne groß in den Forumsregeln zu stöbern, kann mir schon denken daß "Thread-Jacking" nicht so besonders gern gesehen ist...

StefanV
2006-02-12, 00:16:31
Zu meiner Schnapsidee mit dem P4 ohne Cache, ist schon klar daß das relativ gesehen massiv Leistung frisst, aber merkt das wirklich jemand der an einem 3Ghz+ System am Briefe schreiben, ein wenig in Excel hacken und surfen ist?
Bei einem P4 auf jeden Fall!

Xmas
2006-02-12, 01:01:35
Dann wäre 'ne 7500 die richtige Wahl, zumal das eine Karte ist, die kaum bis garnicht warm wird, weit vor der 5200...

Alles in allem gibts eigentlich kaum einen Grund, sich eine verstümmelte, sau lahme, mini FX zu kaufen.
Die 7500 gibts nirgends mehr. Oder meintest du die 7000? Die ist 10€ billiger, da kann man die Kaufentscheidung schon davon abhängig machen welchen Treiber man eher mag. Beide kommen passiv gekühlt, und wenn ich doch mal ein Spielchen wagen will oder irgendeine Anwendung habe, die beschleunigte 3D-Darstellung verwendet (was ja auch nicht so abwegig ist, siehe Acrobat 3D), bin ich mit der 5200 besser bedient.

Tom@to
2006-02-12, 12:04:37
was nutzt heute überhaupt shader2, ist da ne 8500 oder 4200 nicht viel praktischer? die läuft wenixstens, unterschiede zu shader2 sind marginal und wegen der xbox gibts eh nix anderes als shader3 oder shader1.4-xbx-kompatibel.

Coda
2006-02-12, 12:06:34
unterschiede zu shader2 sind marginal :confused: :crazy2:

aths
2006-02-12, 12:10:01
Zu meiner Schnapsidee mit dem P4 ohne Cache, ist schon klar daß das relativ gesehen massiv Leistung frisst, aber merkt das wirklich jemand der an einem 3Ghz+ System am Briefe schreiben, ein wenig in Excel hacken und surfen ist?

Insbesondere wenn man sich dann noch ne schicke Marketingbezeichnug einfallen läßt?Extra einen neuen Chip zu produzieren stelle ich mir nicht so günstig vor, man könnte aber den Cache so aufteilen dass man noch Teile nutzen kann wenn andere Teile durch Produktionsfehler kaputt sind, die verkauft man dann als Celeron. Wenn mich nicht alles täuscht, wurde das auch so gemacht.


Zur 64-Bit-FX hat Xmas ja auch noch was gesagt: Wenn auch langsam im 3D-Bereich, so doch nicht völlig unbrauchbar.

Tom@to
2006-02-12, 12:15:44
:confused: :crazy2:

bei riddick war einzig der unterschied von dx7 auf shader eine merkliche verbesserung, aber danke fürs gegenbeispiel

Neomi
2006-02-12, 15:40:01
bei riddick war einzig der unterschied von dx7 auf shader eine merkliche verbesserung, aber danke fürs gegenbeispiel

Wozu sollte da jemand noch ein Gegenbeispiel bringen? Der Unterschied zwischen ShaderModel 1 und 2 ist so gigantisch, daß deine Aussage nicht weiter diskussionswürdig ist.

up¦²
2006-02-12, 16:12:36
Die 7500 gibts nirgends mehr. Oder meintest du die 7000? Die ist 10€ billiger, da kann man die Kaufentscheidung schon davon abhängig machen welchen Treiber man eher mag. Beide kommen passiv gekühlt, und wenn ich doch mal ein Spielchen wagen will oder irgendeine Anwendung habe, die beschleunigte 3D-Darstellung verwendet (was ja auch nicht so abwegig ist, siehe Acrobat 3D), bin ich mit der 5200 besser bedient.

Für office reicht doch eine Rage 128 Pro zu € 16,-; oder?
http://www.alternate.de/html/shop/productDetails.html?artno=J7GBS1&

Gast
2006-02-12, 16:49:18
warum wünschen sich manche in diesem fred alte technologie zurück?
meiner meinung nach hat die entscheidung nvidia's, statt einer gf3 mx mit dx8 eine gf4 mx mit dx7 rauszubringen, zu einer verlangsamten spieleentwicklung geführt. spieleentwickler orientieren sich immer an der installierten basis bei der großen masse der spieler. da die gf4 mx nunmal verkauft wurde wie warme semmeln, orientierten sich die entwickler an einer breiten dx7 front. hätte nvidia damals eine gf3 mx rausgebracht dann hätten wir uns schon früher über vermehrten shadereinsatz freuen können.
insofern kann ich die entscheidung beider IHV's, die jeweils aktuelle technologie sowohl für lowest-end als auch high-end anzubieten, nur begrüßen.

über die vereinzelt gestellte forderung nach verbraucherschutz kann ich nur den kopf schütteln; als volljähriger, entscheidungsfähiger und mündiger bürger kann man wohl selbst entscheiden was man kauft.

kruemelmonster
2006-02-12, 16:57:56
der obige post stammt von mir, meinem feuerfuchs fehlte der keks

Demirug
2006-02-12, 16:58:19
warum wünschen sich manche in diesem fred alte technologie zurück?
meiner meinung nach hat die entscheidung nvidia's, statt einer gf3 mx mit dx8 eine gf4 mx mit dx7 rauszubringen, zu einer verlangsamten spieleentwicklung geführt. spieleentwickler orientieren sich immer an der installierten basis bei der großen masse der spieler. da die gf4 mx nunmal verkauft wurde wie warme semmeln, orientierten sich die entwickler an einer breiten dx7 front. hätte nvidia damals eine gf3 mx rausgebracht dann hätten wir uns schon früher über vermehrten shadereinsatz freuen können.
insofern kann ich die entscheidung beider IHV's, die jeweils aktuelle technologie sowohl für lowest-end als auch high-end anzubieten, nur begrüßen.

über die vereinzelt gestellte forderung nach verbraucherschutz kann ich nur den kopf schütteln; als volljähriger, entscheidungsfähiger und mündiger bürger kann man wohl selbst entscheiden was man kauft.

nVidia war sicherlich nicht unschuldig. Man darf dabei aber auch Intel nicht vergessen. In diesem Sinne rechne ich es Microsoft hoch an das sie für Vista SM2 gefordert haben und damit alle IHVs gezwungen haben den alten Müll über Board zu werfen.

aths
2006-02-12, 17:30:31
nVidia war sicherlich nicht unschuldig. Man darf dabei aber auch Intel nicht vergessen. In diesem Sinne rechne ich es Microsoft hoch an das sie für Vista SM2 gefordert haben und damit alle IHVs gezwungen haben den alten Müll über Board zu werfen.Leider kommt Vista deutlich später als gedacht, DX9 auf SM2-Niveau ist ja nun auch nicht mehr Stand der Technik. Da hätten sie gleich SM3 fordern können. Da gibts immerhin CPU-kompatibles FP32, und vor allem kein Dependent-Read-Limit.

kruemelmonster
2006-02-12, 17:35:08
Leider kommt Vista deutlich später als gedacht, DX9 auf SM2-Niveau ist ja nun auch nicht mehr Stand der Technik. Da hätten sie gleich SM3 fordern können. Da gibts immerhin CPU-kompatibles FP32, und vor allem kein Dependent-Read-Limit.

und dadurch alle R3x0, R4xx sowie NV3x nutzer auszusperren? :|

up¦²
2006-02-12, 17:37:32
Tja Vista, dafür war echt DX9 samt SM2.0 nötig! :rolleyes:

http://www.microsoft.com/presspass/presskits/windowsvista/images/image014.jpg

http://www.microsoft.com/presspass/presskits/windowsvista/default.mspx

Sorry, den frust über Battlefield 2 hab ich noch nicht verdaut: mit ti4200 aus und vorbei :|

Demirug
2006-02-12, 17:41:11
Leider kommt Vista deutlich später als gedacht, DX9 auf SM2-Niveau ist ja nun auch nicht mehr Stand der Technik. Da hätten sie gleich SM3 fordern können. Da gibts immerhin CPU-kompatibles FP32, und vor allem kein Dependent-Read-Limit.

SM2 ist schon eine politische und keine wirkliche technische Entscheidung.

Xmas
2006-02-12, 17:43:25
Für office reicht doch eine Rage 128 Pro zu € 16,-; oder?
http://www.alternate.de/html/shop/productDetails.html?artno=J7GBS1&
Kommt drauf an (wie das Acrobat3D-Beispiel zeigt). Ich weiß auch nicht wie sich die Rage128 Pro im Multimonitorbetrieb bei hohen Auflösungen schlägt.

Demirug
2006-02-12, 17:44:07
Tja Vista, dafür war echt DX9 samt SM2.0 nötig! :rolleyes:

Das ist WPF und dafür reicht auch eine DX7 fähige Hardware.

Sorry, den frust über Battlefield 2 hab ich noch nicht verdaut: mit ti4200 aus und vorbei :|

Das hat EA verbockt aber irgendwann ist eben immer Schluss mit der Unterstützung. Ich erwarte sowieso ein riesiges geheule wenn D3D10 kommt.

up¦²
2006-02-12, 17:44:29
Aber Vista hat DX10 und "emuliert" doch sowieso alles mit DX9 und darunter :|
Dann läuft endlich wieder alles - hoffentlich!

Demirug
2006-02-12, 17:51:14
Aber Vista hat DX10 und "emuliert" doch sowieso alles mit DX9 und darunter :|
Dann läuft endlich wieder alles - hoffentlich!

1. Es gibt kein DX10 das heißt D3D10
2. Es wird nichts emuliert. Für alles bis einschließlich D3D9EX hat der Hersteller einen entsprechenden Treiber zu liefern. Ein Treiber der nur einen D3D10 Teil enthält würde nicht mit alten Spielen funktionieren.
3. Es läuft bestenfalls genau so viel wie mit XP vorher. Ich erwarte aber ein paar kompatibilitätsprobleme mit Spielen die nicht ganz sauber programmiert sind.

up¦²
2006-02-12, 18:00:57
Kommt drauf an (wie das Acrobat3D-Beispiel zeigt). Ich weiß auch nicht wie sich die Rage128 Pro im Multimonitorbetrieb bei hohen Auflösungen schlägt.

Der Rage128 wird aber eben auch ohne kühlung nur handwarm, bei der pro bin ich mir nicht sicher,zu lange her, aber es gab sie auch gänzlich ohne kühlung: ideal! Obenfrein wurden die karten damals noch von ATI selbst gemacht und vertrieben: das war exzellente qualität!
Das problem liegt bei preiswerten karten eher in der produktion der karten.
Es gab FX5200 (low profile!) mit furchtbarer bildqualität: das lag aber nicht an der GPU, sondern an fehlern und "sparmaßnahmen" seitens der kartenhersteller.
Ganz zu schweigen über die TV-out lösungen ... :|

Gast
2006-02-12, 18:10:51
Schließen und weiß werden noch immer mit ß geschrieben.



Sorry, aber du machst dich grade lächerlich.
Nicht jeder hatt ne Tastatur mit deutschem Tastenlayout oder auch nur das [DE] als Eingabegebietsschema in Windows eingestellt.
Hauptsache andere unnötig, und unreflektiert korrigieren.

tokugawa
2006-02-12, 18:29:51
Sorry, aber du machst dich grade lächerlich.
Nicht jeder hatt ne Tastatur mit deutschem Tastenlayout oder auch nur das [DE] als Eingabegebietsschema in Windows eingestellt.
Hauptsache andere unnötig, und unreflektiert korrigieren.

Außerdem gibt's ja auch noch das Schweizer Deutsch wo es kein ß gibt. Und Schweizer Deutsch ist ja auch immer noch kein "falsches" Deutsch.

StefanV
2006-02-12, 18:38:39
Für office reicht doch eine Rage 128 Pro zu € 16,-; oder?
http://www.alternate.de/html/shop/productDetails.html?artno=J7GBS1&
Nein, kein DVI und auch nur ein Display Controller.

das hier (http://www.alternate.de/html/shop/productDetails.html?artno=J8GG02&) wäre besser, dürfte auch kaum wärmer werden.
Die 7500 wird auf jeden Fall kaum warm, da kann man den QUirl einfach abstöpseln...

aths
2006-02-12, 19:01:44
und dadurch alle R3x0, R4xx sowie NV3x nutzer auszusperren? :|"Eingesperrt" sind selbst Leute mit DX7-Karte.
Sorry, den frust über Battlefield 2 hab ich noch nicht verdaut: mit ti4200 aus und vorbei :|Es ist wirtschaftlich nicht sinnvoll, alte Technik beliebig lange zu unterstützen. Wenn ich daran denke, wie lange sich DirectX7-Niveau halten konnte, bin ich froh, dass DX8-Support schneller ausläuft. Mit SM3 und Folge-Versionen werden die Shader zum Glück so flexibel, dass die Standards länger halten sollten und es nur noch die Rohleistung ist, die zur Darstellung der Effekte fehlt.

Sorry, aber du machst dich grade lächerlich.
Nicht jeder hatt ne Tastatur mit deutschem Tastenlayout oder auch nur das [DE] als Eingabegebietsschema in Windows eingestellt.
Hauptsache andere unnötig, und unreflektiert korrigieren.Außerdem gibt's ja auch noch das Schweizer Deutsch wo es kein ß gibt. Und Schweizer Deutsch ist ja auch immer noch kein "falsches" Deutsch.In einem deutschsprachigem Forum sollte Deutsch geschrieben werden. Bei den allermeisten wird es wohl nicht daran liegen, dass sie kein deutsches Tastaturlayout hätten, die glauben vermutlich dass es kein ß mehr gebe oder kennen die ß-Regeln nicht und schreiben daher alles mit ss. In der Schweiz ist das ß nicht verboten, es wird nur nicht genutzt – aber im deutschen Nicht-Schweizer-Sprachraum ist das ß Gang und Gäbe.

Abgesehen von der Unsitte, das Apostroph zu setzen wo es nicht hingehört (und dann meistens auch noch ein Akzent-Zeichen anstelle des Apostrophs zu nehmen) ist die ß-Schreibung das am weitesten verbreitete Problem. Obwohl die ß-Schreibung mit der Reform vereinfacht wurde.

Hier im Forum erlaube ich mir hin und wieder öffentlich zu sagen, wo das ß hingehört – in der Hoffnung, dass das einige Leute lesen.

aths
2006-02-12, 19:08:17
Das hat EA verbockt aber irgendwann ist eben immer Schluss mit der Unterstützung. Ich erwarte sowieso ein riesiges geheule wenn D3D10 kommt.Erwartest du, dass plötzlich der DX9-Support gestrichen wird, oder "nur" ein großes Canceln des DX7/DX8-Supportes?

Spasstiger
2006-02-12, 19:19:59
Hier im Forum erlaube ich mir hin und wieder öffentlich zu sagen, wo das ß hingehört – in der Hoffnung, dass das einige Leute lesen.

In der Schweiß ist das ß nicht verboten, es wird nur nicht genutzt

Da gehört es sicherlich nicht hin. ;)

kruemelmonster
2006-02-12, 19:27:06
"Eingesperrt" sind selbst Leute mit DX7-Karte.
...


AFAIK gibts mit DX7 & 8 aber nur die bekannte 2000/XP Classic Oberfläche während DX9 SM2 aufwärts Aero Glass ermöglicht. Es gibt keinen technischen Grund für Aero Glass DX9 SM3 zu fordern, und politisch wäre es eine unkluge Entscheidung gewesen allen 9000er, X800er und 5000er (und das sind ne ganze Menge) Aero Glass nicht zu ermöglichen.

aths
2006-02-12, 19:33:19
Da gehört es sicherlich nicht hin. ;)Freudscher Verschreiber, danke für den Hinweis. Aber frag doch mal einen Admin, ob er dich nicht in "Spaßtiger" umbenennen könnte :)

AFAIK gibts mit DX7 & 8 aber nur die bekannte 2000/XP Classic Oberfläche während DX9 SM2 aufwärts Aero Glass ermöglicht. Es gibt keinen technischen Grund für Aero Glass DX9 SM3 zu fordern, und politisch wäre es eine unkluge Entscheidung gewesen allen 9000er, X800er und 5000er (und das sind ne ganze Menge) Aero Glass nicht zu ermöglichen.So spät, wie Vista nun kommt ... Mit SM3 wäre auch etwas mehr möglich als Tier-2-Grafik.

Spasstiger
2006-02-12, 19:34:17
Freudscher Verschreiber, danke für den Hinweis. Aber frag doch mal einen Admin, ob er dich nicht in "Spaßtiger" umbenennen könnte :)

Ne, das ist Absicht, wegen Spastiker. ;)

Demirug
2006-02-12, 19:34:25
Erwartest du, dass plötzlich der DX9-Support gestrichen wird, oder "nur" ein großes Canceln des DX7/DX8-Supportes?

Nein, der Support wird nach wie vor das sein. Auch für die noch älteren Versionen bis hin zum ersten damals mit Windows 95 eingeführten DirectX.

Das Problem ist die "harte" Kompatibilität. Also Verhaltensweißen der alten Runtimes die nicht in der Spezifikation festgelegt sind sondern durch die Implementierung entstanden sind. Dummerweiße bauen einige Spiele (wahrscheinlich unbeabsichtigt aufgrund von Fehlern) auf diese Verhaltensweiße auf und würden nicht mehr laufen wenn sie nicht vorhanden sind.

In XP sind zum Beispiel schon eine Reihen von Programspezifischen Patches einngebaut um diese Harte kompatibilität zu Windows95 oder 2000 zu erzwingen.

aths
2006-02-12, 19:36:59
Nein, der Support wird nach wie vor das sein. Auch für die noch älteren Versionen bis hin zum ersten damals mit Windows 95 eingeführten DirectX.

Das Problem ist die "harte" Kompatibilität. Also Verhaltensweißen der alten Runtimes die nicht in der Spezifikation festgelegt sind sondern durch die Implementierung entstanden sind. Dummerweiße bauen einige Spiele (wahrscheinlich unbeabsichtigt aufgrund von Fehlern) auf diese Verhaltensweiße auf und würden nicht mehr laufen wenn sie nicht vorhanden sind.

In XP sind zum Beispiel schon eine Reihen von Programspezifischen Patches einngebaut um diese Harte kompatibilität zu Windows95 oder 2000 zu erzwingen.Wäre es möglich, eine "echte" DX9EX-Runtime und eine alte mitzugeben, so dass man für Applikationen, die Probleme machen, einen Kompatibilitätsmodus einstellen kann?

kruemelmonster
2006-02-12, 19:37:01
So spät, wie Vista nun kommt ... Mit SM3 wäre auch etwas mehr möglich als Tier-2-Grafik.

Problem ist nur das die installierte SM3 Basis selbst im Herbst zu Vistas Erscheinen noch zu klein sein würde. SM2 dagegen gibts u.a. auch dank der schrottigen 64bit 5200er wie Sand am Meer wo wir wieder beim Vorteil solch einer Karte gegenüber einer 7500er oder GF MX sind.

aths
2006-02-12, 19:52:53
Problem ist nur das die installierte SM3 Basis selbst im Herbst zu Vistas Erscheinen noch zu klein sein würde. SM2 dagegen gibts u.a. auch dank der schrottigen 64bit 5200er wie Sand am Meer wo wir wieder beim Vorteil solch einer Karte gegenüber einer 7500er oder GF MX sind.Meine Antwort: "Im Prinzip ja". Andererseits überlege ich, ob es bei Sachen, die lange halten sollen, generell klug ist, auf den Stand der Technik zum Zeitpunkt des Releases zu setzen. Das betrifft auch Konsolen, die so designt sind, dass der Hersteller auch in der Startphase nicht allzu viel Verlust pro verkaufter Einheit machen. Doch etwas mehr Weitblick (insbesondere auf die Speicher-Aussattung) könnte dafür sorgen, dass die Konsole, wenn sie etwas älter ist, noch mehr taugt als die Konkurrenz-Hardware.

Soll Vista in 5 Jahren durch die nächste neue Windows-Architektur abgelöst werden, oder sollen zukünftige Windows-Versionen in absehbarer Zeit auf Vista aufbauen? DX9 ist ja schon mal deutlich flexibler als DX8. Wenn Effekte endlich innerhalb eines Technik-Level skaliert würden, wäre das schon ein Fortschritt. SM3 böte hier aber auch viel mehr Spielraum.

Demirug
2006-02-12, 20:00:56
Wäre es möglich, eine "echte" DX9EX-Runtime und eine alte mitzugeben, so dass man für Applikationen, die Probleme machen, einen Kompatibilitätsmodus einstellen kann?

Microsoft wird schon bemüht sein das die neue Runtime sich nach Möglichkeit genau so verhält wie die alte. Der Rest wird dann per "In-Process Patching" erledigt. Dafür gibt es in Windows XP ja schon einen passenden Framework.

Demirug
2006-02-12, 20:02:08
Meine Antwort: "Im Prinzip ja". Andererseits überlege ich, ob es bei Sachen, die lange halten sollen, generell klug ist, auf den Stand der Technik zum Zeitpunkt des Releases zu setzen. Das betrifft auch Konsolen, die so designt sind, dass der Hersteller auch in der Startphase nicht allzu viel Verlust pro verkaufter Einheit machen. Doch etwas mehr Weitblick (insbesondere auf die Speicher-Aussattung) könnte dafür sorgen, dass die Konsole, wenn sie etwas älter ist, noch mehr taugt als die Konkurrenz-Hardware.

Soll Vista in 5 Jahren durch die nächste neue Windows-Architektur abgelöst werden, oder sollen zukünftige Windows-Versionen in absehbarer Zeit auf Vista aufbauen? DX9 ist ja schon mal deutlich flexibler als DX8. Wenn Effekte endlich innerhalb eines Technik-Level skaliert würden, wäre das schon ein Fortschritt. SM3 böte hier aber auch viel mehr Spielraum.

Intel hat kein SM3 ...

kruemelmonster
2006-02-12, 20:23:34
Meine Antwort: "Im Prinzip ja". Andererseits überlege ich, ob es bei Sachen, die lange halten sollen, generell klug ist, auf den Stand der Technik zum Zeitpunkt des Releases zu setzen. Das betrifft auch Konsolen, die so designt sind, dass der Hersteller auch in der Startphase nicht allzu viel Verlust pro verkaufter Einheit machen. Doch etwas mehr Weitblick (insbesondere auf die Speicher-Aussattung) könnte dafür sorgen, dass die Konsole, wenn sie etwas älter ist, noch mehr taugt als die Konkurrenz-Hardware.

Soll Vista in 5 Jahren durch die nächste neue Windows-Architektur abgelöst werden, oder sollen zukünftige Windows-Versionen in absehbarer Zeit auf Vista aufbauen? DX9 ist ja schon mal deutlich flexibler als DX8. Wenn Effekte endlich innerhalb eines Technik-Level skaliert würden, wäre das schon ein Fortschritt. SM3 böte hier aber auch viel mehr Spielraum.

Eventuell spendiert MS Vista mit dem SP2 irgendwann 2008/2009 ja eine aktualisierte Renderengine falls SM3 bis dahin die gleiche Marktdurchdringung hat wie heuer SM2. (reine Spekulation)

Coda
2006-02-12, 20:26:31
Ich vermute eher dass sie mit dem nächsten Betriebssystem dann gleich auf D3D10 zurückgreifen werden.

Wobei SM2 für solche Spielereien eigentlich auch schon ganz gut ist.

kruemelmonster
2006-02-12, 20:30:48
Ich meinte aber schon Vista mit SP2 oder neuer, vom Nachfolger ist ja außer dem alten und neuen Codenamen Blackcomb und Vienna noch nix bekannt. Anyway....zurück @ topic:

Ich finds gut das die IHVs aktuelle Technik dem gesamten Markt zur Verfügung stellen und das nicht wie früher low-end autom. veraltet bedeutet sondern einfach nur langsam. Wenn manch einer vor lauter Geiz-ist-geil nun Tomaten im Grips hat, sich nicht wundert das eine 40€ Karte mit dem gleichen Werbetext angepriesen wird wie eine 400€ Karte und er somit von der 40€ Karte Leistung für 400€ erwartet...ja, der hat schon professionellere Hilfe als den Verbraucherschutz nötig ;D

Coda
2006-02-12, 20:35:03
Ich glaube halt nicht dass SM3 ein gutes Target für so etwas ist, weil es ATI eben lange versäumt hat.

Xmas
2006-02-12, 20:51:39
Nein, kein DVI und auch nur ein Display Controller.
Da ist wohl die Beschreibung fehlerhaft.

das hier (http://www.alternate.de/html/shop/productDetails.html?artno=J8GG02&) wäre besser, dürfte auch kaum wärmer werden.
Die 7500 wird auf jeden Fall kaum warm, da kann man den QUirl einfach abstöpseln...
Was hast du nur mit der 7500, die ist nirgends mehr erhältlich?

Tom@to
2006-02-12, 21:26:38
Wenn manch einer vor lauter Geiz-ist-geil nun Tomaten im Grips hat, sich nicht wundert das eine 40€ Karte mit dem gleichen Werbetext angepriesen wird wie eine 400€ Karte und er somit von der 40€ Karte Leistung für 400€ erwartet...ja, der hat schon professionellere Hilfe als den Verbraucherschutz nötig ;D

Gut gebrüllt, Hulkie! Nur da point is, daß
1. 64bit karten (die bei geizhals mittlerweile max. 3euro billiger als 128er sind) generell verkauft werden
2. dies ohne kennzeichnung bei ebay laufen wie auf verpackung wg. identischem namen
3. diese 50% langsamer sind
4. ram (ns) zusätzlich völlig frei wählbar ist und auch nirgend auf packung ersichtlich ist (250/160)
5. splinter cell 1/psychonauts oft mit 10fps@640 rumruckelt
6. die grafik bei einigen spielen auf dx7 runterregelt
7. der name etikettenschwindel ist
8. das bullshit ist, für 400Euro krieg ich ne ATIx18 SM3

kruemelmonster
2006-02-12, 21:42:40
Gut gebrüllt, Hulkie! Nur da point is, daß
...


Man kann trotzdem von keiner 40€ Karte, egal ob mit 64 oder 128bit SI, spielbare Frameraten in aktuellen Spielen erwarten, Low-End heißt nicht umsonst so.
Ich glaub es war aths ein paar Seiten weiter vorne, der die 5200 Karten nicht als GeForce sondern als Office Linie vermarkten würde wenns nach ihm ginge. Dann gäbe es dieses 'Problem' nicht da niemand bei einer Office Karte Spielefähigkeit erwartet. Nur heißen die Karten aber nunmal GeForce, da es ein bekannter und werbeträchtige Name ist und man die Werbetexte der großen Modelle verwenden kann.
Wer nun jedoch automatisch von dem Namen GeForce (und auch noch trotz des günstigen Preise) auf hohe 3D Leistung schlußfolgert, hat sich schlichtweg nicht informiert.

'Man bekommt das, wofür man zahlt' oder auch 'Wer billig kauft, kauft doppelt'

Gast
2006-02-12, 21:44:37
Gut gebrüllt, Hulkie! Nur da point is, daß
1. 64bit karten (die bei geizhals mittlerweile max. 3euro billiger als 128er sind) generell verkauft werden
2. dies ohne kennzeichnung bei ebay laufen wie auf verpackung wg. identischem namen
3. diese 50% langsamer sind
4. ram (ns) zusätzlich völlig frei wählbar ist und auch nirgend auf packung ersichtlich ist (250/160)
5. splinter cell 1/psychonauts oft mit 10fps@640 rumruckelt
6. die grafik bei einigen spielen auf dx7 runterregelt
7. der name etikettenschwindel ist
8. das bullshit ist, für 400Euro krieg ich ne ATIx18 SM3Sie werden verkauft ja. Aber sie sind nicht für Spieler gedacht. Was ist daran so schwer zu verstehen? Jemandem, der die Karte im Office-PC nutzt, ist es völlig egal wie breit das SI oder wie schnell der Speicher ist. Es interessiert einfach nicht.

Wer bei dem Preis großartige Spieletauglichkeit erwartet, ist einfach ein DAU. Wenn man sich vor dem Kauf informiert, braucht man sich hinterher nicht rumärgern.

Griffon
2006-02-12, 23:28:54
Im Bezug auf Ati sag ich da nur dass eine Radeon 9000 langsamer ist als eine 8500..von daher..diese Namensgebung der Karten ist sinnlos..man muss sich einfach vorher informieren!

StefanV
2006-02-13, 00:08:46
Im Bezug auf Ati sag ich da nur dass eine Radeon 9000 langsamer ist als eine 8500..von daher..diese Namensgebung der Karten ist sinnlos..man muss sich einfach vorher informieren!
Bei ATi passts aber einigermaßen, denn eine 9000 ist schneller als eine 7000, eine 9200 schneller als eine 7200, eine 8500 schneller als eine 7500 und eine 9500 schneller als eine 8500 ;)

Wechselbalg
2006-02-13, 00:19:41
Ja. Wobei man sagen muss, dass von den Features abgesehen eine normale 9500er sich eher auf gleichem Leistungsniveau wie eine 8500er befindet, aber dann unterm Strich natürlich schon mehr bringt. Wenn schon sollte man kritisieren, dass die 9100 mehr Bumms als die 9200 hat.

Aber ansonsten stimmt doch eigentlich bei beiden Herstellern in aller Regel der Umstand, dass innerhalb einer 'Zahlen'serie die Leistung aufsteigend ist und bei stetig fortschreitender Entwicklung ist eine komplette Durchnummerierung nach Leistungsfähigkeit auch kaum möglich.

StefanV
2006-02-13, 00:34:03
Ja. Wobei man sagen muss, dass von den Features abgesehen eine normale 9500er sich eher auf gleichem Leistungsniveau wie eine 8500er befindet, aber dann unterm Strich natürlich schon mehr bringt. Wenn schon sollte man kritisieren, dass die 9100 mehr Bumms als die 9200 hat.
Sagen wirs mal so:
Wenn die 8500 nicht so verbuggt gewesen wäre und alles so funktioniert hätte, wie ATi es sich gedacht hat, dann hättest du Recht.

Da beim R200 aber allerhand schief gegangen ist, stampft die 9500 die 8500 ungespitzt in den Boden...

Wechselbalg
2006-02-13, 00:48:22
Ich hatte beide Karten direkt hintereinander und mit den damaligen Treibern war der Unterschied wirklich nicht groß gegenüber der ganz einfachen 9500er. Gab da auch mal einen schönen Test bei Computerbase damals Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_radeon_7500_9800_pro/) und von den Erfahrungen her, würde ich damit übereinstimmen, auch wenn ich die 9500er nur ganz kurz als Übergang hatte.

Sicher klappte beim R200 einiges nicht so wie gewollt und daher war das AA was dann möglich war nur äußert selten nutzbar, aber in den Boden gerammt wird sie sicher nicht.

up¦²
2006-02-13, 01:27:47
Nein, kein DVI und auch nur ein Display Controller.

das hier (http://www.alternate.de/html/shop/productDetails.html?artno=J8GG02&) wäre besser, dürfte auch kaum wärmer werden.
Die 7500 wird auf jeden Fall kaum warm, da kann man den QUirl einfach abstöpseln...

Falsch!
Der Rage 128 pro hatte neben anderen verbesserungen als erster DVI!
Multimonitor lief damals exzellent via Hydra-Vision :wink:
Es war und ist ein genuß mit der karte zu arbeiten!

Bei win95/98/Me erste sahne sobald die treiber installiert waren: brilliantes, scharfes und ruhiges bild.

Die von dir verlinkte karte hat z.b. einen ungeschirmten VGA-ausgang: größtes risiko im preiswertem segment :wink:

tokugawa
2006-02-13, 02:11:15
Bei ATi passts aber einigermaßen, denn eine 9000 ist schneller als eine 7000, eine 9200 schneller als eine 7200, eine 8500 schneller als eine 7500 und eine 9500 schneller als eine 8500 ;)

Eine 9100 (relabelte 8500) schneller als eine 9000, eine 9200 langsamer als eine 8500/9100, eine 9600 Pro langsamer als eine 9500 Pro, eine 9550 langsamer als eine 9500...

NV hat zwar z.B. eine "6200" die langsamer ist als eine 5800, oder eine 5200 die langsamer ist als eine 4200, oder eine 7300, die langsamer ist als eine 6800... aber wenn man sich die Seriennummer wegdenkt (GeForce 2/3/4/5/6/7), dann kommt man auf x200/x300/x400/x500/x600/x800, was eigentlich ziemlich gut gereiht scheint, performance-mäßig.

Allerdings wär dann wär noch das Spiel beider Hersteller mit LE/GT/XT/was auch immer, was mich eigentlich schon gehörig nervt. Womit eine 6800LE ja z.B. nicht schneller ist als eine 6600 GT. Das bringt das ganze Nummernkonzept durcheinander.

kruemelmonster
2006-02-13, 03:57:19
Prinzipiell richtig, allerdings lässt sich sowas mit der Suchmaschine der Wahl ganz leicht in Erfahrung bringen. Bevor man sich ein Auto kauft liest und guck man ja auch Testberichte.

StefanV
2006-02-13, 13:32:27
Falsch!
Der Rage 128 pro hatte neben anderen verbesserungen als erster DVI!
Multimonitor lief damals exzellent via Hydra-Vision :wink:
Es war und ist ein genuß mit der karte zu arbeiten!

Bei win95/98/Me erste sahne sobald die treiber installiert waren: brilliantes, scharfes und ruhiges bild.

Die von dir verlinkte karte hat z.b. einen ungeschirmten VGA-ausgang: größtes risiko im preiswertem segment :wink:
Nee, du, 2 Monitore gabs erst ab Radeon VE aka 7000 und ab 7500 durchgehend.

Die Rages können nur einen Schirm ansteuern...

up¦²
2006-02-13, 13:42:54
Nee, du, 2 Monitore gabs erst ab Radeon VE aka 7000 und ab 7500 durchgehend.

Die Rages können nur einen Schirm ansteuern...

Ja, dafür wie gesagt eben Hydravision!
Hydravision™- Expand your horizons (http://www.ati.com/products/Hydravision/index.html) :wink:

war und ist mir viel lieber als 2 oder mehr monitore

Gast
2006-02-13, 15:55:07
wer sich 2 monitore leistet, braucht ja auch unbedingt ne lo-endkarte.
bevor ich 87 grakatests nach nvidia's spitzfindigkeiten absuche, kauf ich mir lieber ne sapphire ati, da ist weingstens die 2d-qualität i.O. und die 52-64 verliert nicht nur gegen die 42, sondern auch gegen die gf2, gf3, gf4mx, kyro2 und alles was ati so bieten kann. wo ist da die verbesserung, eine lowend-cpu ist heute 4xschneller und hier? die billigste nvidia ist immer noch auf gf2mx level + aktuelle shader-features

es gibt die 52 mit core-ramtakt 250/166@64 bis 275/250@128bit, hey nvidia, verarscht wen anders, ihr habt 1000 mögliche Nummern

Gast
2006-02-13, 16:12:37
ROFL. ;D
Glaubst du ernsthaft, dass ATI keine Karten mit 64bit-SI verkauft? Selbst die aktuelle x1300 ist desöfteren mit kastriertem Interface zu finden.

saddevil
2006-02-13, 17:07:53
zumal jenad der sich nicht auskennt sich lieber einen komplett PC kaufen sollte
gab ja schon DAUs die eine PCIe 7800 zurechtgebrochen hatten für AGP


außerdem ..
jemand der sich im internet rumtreibt , sollte mal 10min investieren um sich zu Informieren
dann kommt soetewas bedeutend weniger vor ...

kruemelmonster
2006-02-13, 19:59:23
...
es gibt die 52 mit core-ramtakt 250/166@64 bis 275/250@128bit, hey nvidia, verarscht wen anders, ihr habt 1000 mögliche Nummern

Und nochmal zum Mitmeißeln: der IHV baut nur die Chips, wobei die Midrange und HighEnd Chips fest definierte Taktraten/Speicherinterfaces/Pipelines etc. haben. Im LowEnd Bereich interessiert sich aber keiner für sowas, da gehts um den günstigsten Preis. Also werden in den x200/x300 Serien weniger verbindliche Vorgaben festgelegt, um dem Grafikkartenhersteller mehr Spielraum bei den verwendeten Komponenten zu lassen. Das der GK-Hersteller dann mit ner LowEnd 64bit 512MB OC Edition auf Bauernfang geht ist alleine seine Sache, da hat der IHV nix mit zu tun.

kruemelmonster
2006-02-13, 20:01:09
bitte löschen

Gast
2006-02-14, 12:32:47
Im LowEnd Bereich interessiert sich aber keiner für sowas, da gehts um den günstigsten Preis.

quatsch, es geht immer ums beste preis/leistungsverhältnis. alles andere gibts bei jupiter

aths
2006-02-14, 13:30:25
wer sich 2 monitore leistet, braucht ja auch unbedingt ne lo-endkarte.
bevor ich 87 grakatests nach nvidia's spitzfindigkeiten absuche, kauf ich mir lieber ne sapphire ati, da ist weingstens die 2d-qualität i.O. und die 52-64 verliert nicht nur gegen die 42, sondern auch gegen die gf2, gf3, gf4mx, kyro2 und alles was ati so bieten kann. wo ist da die verbesserung, eine lowend-cpu ist heute 4xschneller und hier? die billigste nvidia ist immer noch auf gf2mx level + aktuelle shader-features

es gibt die 52 mit core-ramtakt 250/166@64 bis 275/250@128bit, hey nvidia, verarscht wen anders, ihr habt 1000 mögliche NummernDie FX 5200 mit 64-Bit-Interface ist aber besser als die GF2 MX und GF4 MX 420. Jene Karten sollen mit der 64-Bit-Version auch abgelöst werden, nicht die GeForce 3 oder so.

Von Sapphire gibts auch Karten mit 64-Bit-Interface.

StefanV
2006-02-14, 14:43:00
ROFL. ;D
Glaubst du ernsthaft, dass ATI keine Karten mit 64bit-SI verkauft? Selbst die aktuelle x1300 ist desöfteren mit kastriertem Interface zu finden.
Nein, eher selten...

Nur ASUS und Powercolor bietet sowas an, wobei die ASUS Karte ziemlicher Schrott ist und so ziemlich unbrauchbar...

Vertigo
2006-02-14, 15:13:30
Nein, eher selten...

Nur ASUS und Powercolor bietet sowas an, wobei die ASUS Karte ziemlicher Schrott ist und so ziemlich unbrauchbar...
Nur zu dumm das Asus und TUL gerade die beiden weltweit größten Hersteller von ATI-Karten sind, daher sind solche Modelle wohl doch nicht so selten, gelle ?

kruemelmonster
2006-02-14, 16:14:54
quatsch, es geht immer ums beste preis/leistungsverhältnis. alles andere gibts bei jupiter

Ach ja? Das beste Preis/Leistungsverhältnis ist an sich nur im Midrange interessant (dazu zähle ich auch unteres HighEnd sowie oberes Low-End). Und während im echten HighEnd Bereich nur die Leistung zählt (10% mehr Leistung machen oft 30% Preisaufschlag aus) geht's im LowEnd Bereich nunmal nur um den Preis. Wer einfach nur ne billige Karte braucht, kauft eben meistens die billigste.

Consolero
2006-02-17, 15:21:36
Pfft! 200 Teuro nur für ne Midrange-PC-Graka, wo eh nur unoptimierter 08/15-Schrott kommt. Für das Geld krieg ich ne PS2/GC + Xbox mit Dualanalog-Controller + Ruckelfrei-Garantie.

tokugawa
2006-02-17, 15:35:57
Pfft! 200 Teuro nur für ne Midrange-PC-Graka, wo eh nur unoptimierter 08/15-Schrott kommt. Für das Geld krieg ich ne PS2/GC + Xbox mit Dualanalog-Controller + Ruckelfrei-Garantie.

Schön für dich.

Für andere zahlt sich halt eine Midrange-Karte aus. Meine 200 Euro Radeon 9500 Pro z.B. hat sich preislich voll ausgezahlt und gute Dienste geleistet.

aths
2006-02-17, 15:36:37
Pfft! 200 Teuro nur für ne Midrange-PC-Graka, wo eh nur unoptimierter 08/15-Schrott kommt. Für das Geld krieg ich ne PS2/GC + Xbox mit Dualanalog-Controller + Ruckelfrei-Garantie.Auf meinem Cube ruckelt NFSU2, auf meiner PS2 ruckelt Rainbox Six 3.

Gast
2006-02-17, 16:07:51
Pfft! 200 Teuro nur für ne Midrange-PC-Graka, wo eh nur unoptimierter 08/15-Schrott kommt. Für das Geld krieg ich ne PS2/GC + Xbox mit Dualanalog-Controller + Ruckelfrei-Garantie.Und wie sehen die Spiele auf den Konsolen dann aus? Mächtig scheiße. Und komm mir jetzt nicht mit der Xbox2, auch die kommt (grafisch) nicht an einen High-End-PC ran. Aber dafür ist sie ja auch gar nicht gedacht.

Ich für meinen Teil habe mit beiden Systemen Spaß (High-End-PC und Xbox2) und habe auch kene Lust mich jetzt rumzustreiten. Auf dem PC ist die Grafik besser, dafür haben Konsolen andere Vorteile.

aths
2006-02-17, 17:18:40
Und wie sehen die Spiele auf den Konsolen dann aus? Mächtig scheiße.Na dann guck dir Resident Evil 4 auf dem Gamecube an. Das sieht mächtig geil aus.

Ich für meinen Teil habe mit beiden Systemen Spaß (High-End-PC und Xbox2) und habe auch kene Lust mich jetzt rumzustreiten. Auf dem PC ist die Grafik besser, dafür haben Konsolen andere Vorteile.Ich finde die Resident-Evil-Grafik unübertroffen, da kommt bisher auch kein PC-Spiel mit. Hohe Auflösung, Highres-Texturen und Bumpmapping machen noch keine gute Grafik.

tokugawa
2006-02-17, 20:49:15
Genau, die beste Technik hilft nichts wenn die Artists nicht eine tolle Ästhetik zusammenbringen. Und manchmal holen die ja selbst aus relativ einfacher Technik extrem stimmige Grafik heraus.

Man kann Grafik anhand der Technik bewerten, oder anhand der Ästhetik/Stimmigkeit. Beides ist relativ voneinander unabhängig, doch nur Ästhetik ist das was bleibt wenn die Technik schon veraltet ist (insofern gefallen mir z.B. noch die 2D-gezeichneten Adventures à la Monkey Island 3 noch irrsinnig gut. Veraltete Technik, aber die Ästhetik macht's locker wett). Technik vergeht, Ästhetik bleibt.

Ocean Drive
2006-02-18, 11:27:01
Auf Konsolen verschenken sie ihre Chips und fürn PC liefern sie Edelschrott. Dann braucht man auf dem PC auch noch die doppelte Leistung und technologisch gibts Eye-Opener doch noch eher auf Konsole. Fur-Shader, Vertex Wasser, lippensynchrone Gesten, alles zuerst auf Konsole. Und für den Preis eines Gamecubes mit Mario Kart gibts nichtmal ne 3d-auch-spielbar-Karte.

Ist wie mit 'T-DSL, 12x schneller als isdn' und dann hat man 250er pings statt 60bei isdn und DLs laufen nur mit 1/3 der beworbenen Geschwindigkeit

tokugawa
2006-02-18, 13:32:41
Fur-Shader, Vertex Wasser, lippensynchrone Gesten, alles zuerst auf Konsole.

Das ist nicht richtig. Vielleicht in kommerziellen Konsolen-Spielen zuerst gesehen, aber diese Techniken sind sicher nicht erst von Konsolenprogrammierern erfunden worden.

Gast
2006-02-18, 13:51:52
Typische Akademiker-Spitzfindigkeit! Klar gabs das zuerst bei Perlin 1981 in 'Tron' oder im Techdemo 4711, es geht aber hier um die Verwendung in Spielen.

aths
2006-02-18, 14:48:46
Auf Konsolen verschenken sie ihre Chips und fürn PC liefern sie Edelschrott. Dann braucht man auf dem PC auch noch die doppelte Leistung und technologisch gibts Eye-Opener doch noch eher auf Konsole. Fur-Shader, Vertex Wasser, lippensynchrone Gesten, alles zuerst auf Konsole. Und für den Preis eines Gamecubes mit Mario Kart gibts nichtmal ne 3d-auch-spielbar-Karte.Mario Kart als Spaßbringer funktionierte bei jedem – bis auf meine Eltern :-/

Dabei ist die Grafik von der technischen Seite her eher mau. Was mir bei Mario Kart Spaß macht ist, dass das Spiel trotz extrem weniger Regeln dann doch komplexer ist, als man zunächst denkt.

Doch die FX 5200 ist per se trotzdem für viele eine gute Karte. Die 64-Bit-Version reicht für Office, wenn sie zwei Ausgänge hat, kann man damit sehr effizient arbeiten (sofern man auch zwei Monitore hat.) Die 128-Bit-Version reicht für das eine oder andere Spielchen zwischendurch. Die 6200 TC ist trotz SM3 ein eher laues Upgrade, die 7300 dürfte ein würdiger 5200-Nachfolger sein.

tokugawa
2006-02-18, 17:54:45
Typische Akademiker-Spitzfindigkeit! Klar gabs das zuerst bei Perlin 1981 in 'Tron' oder im Techdemo 4711, es geht aber hier um die Verwendung in Spielen.

Dann ist aber dein Argument wertlos. Weil das ist dann keine "Innovation".

Außerdem gibt's genug Grafikeffekte und Grafiktechniken die "zuerst" auf PC-Spielen zu sehen waren (Shadowmapping, Shadow Volumes, Perspective Shadowmapping, Parallax Mapping, Coherent Hierarchical Culling, Realtime-Optimally-Adapting Meshes (ROAM), Precomputed Radiance Transfer, Bloom/Glow, HDR Rendering, usw. usf.). Was soll das schon heißen?


Mario Kart als Spaßbringer funktionierte bei jedem – bis auf meine Eltern :-/

Dabei ist die Grafik von der technischen Seite her eher mau. Was mir bei Mario Kart Spaß macht ist, dass das Spiel trotz extrem weniger Regeln dann doch komplexer ist, als man zunächst denkt.

Doch die FX 5200 ist per se trotzdem für viele eine gute Karte. Die 64-Bit-Version reicht für Office, wenn sie zwei Ausgänge hat, kann man damit sehr effizient arbeiten (sofern man auch zwei Monitore hat.) Die 128-Bit-Version reicht für das eine oder andere Spielchen zwischendurch. Die 6200 TC ist trotz SM3 ein eher laues Upgrade, die 7300 dürfte ein würdiger 5200-Nachfolger sein.

Genau, diese Low-End-GPUs reichen für Spiele wie "ORF Skisport Challenge", ein "Casual Game", das gratis auf der ORF Seite angeboten wird, und das vor allem von nicht-typischen Spielern gespielt wird (und extrem populär ist).

Für viele Nichtspieler (die typischerweise eher schwache Grafikkarten in ihren Computern haben) die erste Erkenntnis dass Spiele auch Spaß machen können.

Und somit im Endeffekt auch gut für die Spieleindustrie, vor allem für deren Ansehen.

Gast
2006-02-18, 19:15:36
Ist wie mit 'T-DSL, 12x schneller als isdn' und dann hat man 250er pings statt 60bei isdn und DLs laufen nur mit 1/3 der beworbenen GeschwindigkeitIch weiß ja nicht was du für eine DSL-Leitung hast, aber 250er Pings sind alles andere als normal. Hast du vielleicht einen Rauchzeichen-Repeater dazwischengeschaltet?

Gast
2006-02-18, 19:18:01
und DLs laufen nur mit 1/3 der beworbenen GeschwindigkeitWenn du von einen vernünftigen Server runterlädst, ist es kein Probleme auch eine 6000er DSL-Leitung auszunutzen.

Gast
2006-02-18, 21:44:41
Genau, diese Low-End-GPUs reichen für Spiele wie "ORF Skisport Challenge", ein "Casual Game", das gratis auf der ORF Seite angeboten wird, und das vor allem von nicht-typischen Spielern gespielt wird (und extrem populär ist).


dann sollens doch gleich das ein-und-einzige aktuelle 3d-spiel, welches in 640 mit allen details flüssig (25fps) darauf läuft, damit bundlen. und orf06 ist es schonmal nicht. ankh, nfsu1, spl cell1 no chance

und vista oder demokompatibilität haben intel-onboards genauso

tokugawa
2006-02-19, 04:56:27
dann sollens doch gleich das ein-und-einzige aktuelle 3d-spiel,


Es werden viel mehr. Gerade der Casual Games Markt ist der aufstrebendste zur Zeit in der Spieleindustrie.


welches in 640 mit allen details flüssig (25fps) darauf läuft, damit bundlen. und orf06 ist es schonmal nicht. ankh, nfsu1, spl cell1 no chance


Splinter Cell 1 läuft garantiert auf einer GeForce 6200 oder 7300/7400. Das braucht nicht allzu viel. NFS:U1 kann man immerhin genügend runterskalieren. Ankh hab ich nicht gespielt.


und vista oder demokompatibilität haben intel-onboards genauso

Kommt drauf an was für "Demos" du meinst. Techdemos von brandneuen Techniken sicher nicht.

Gast
2006-02-20, 13:46:44
Es werden viel mehr. Gerade der Casual Games Markt ist der aufstrebendste zur Zeit in der Spieleindustrie.



Splinter Cell 1 läuft garantiert auf einer GeForce 6200 oder 7300/7400. Das braucht nicht allzu viel. NFS:U1 kann man immerhin genügend runterskalieren. Ankh hab ich nicht gespielt.



Kommt drauf an was für "Demos" du meinst. Techdemos von brandneuen Techniken sicher nicht.

Wer hat jetzt eigentlich die Karte eingebaut, ich oder du? Spl Cell läuft nicht.

Wird Zeit, daß mal ne Linux-fähige, leise, handliche Nex-Gen-Konsole kommt, diese PC-Abzockerei reicht langsam. Um was zu Spielen muß man erstmal ein 256MB Betriebssystem in den Speicher laden, 5GBinstallieren, Treiber wechseln, Spiel patchen und langwierig Grafikkonfiguration justieren, Joypad Knopf für Knopf vernünftig belegen sowie ein 30MB DirectX laden, wie rückständig ist das denn? Plug and Play, aha? Plug and Play wäre Start von DVD mit darauf getesteten Grafik und Soundtreibern.

Und wofür? Das NFS Most Wanted ruckelt und das eh viel bessere Burnout Revenge (flüssig auf PS2) erst gar nicht erscheint, dafür aber Nipplegate

Vertigo
2006-02-20, 13:52:25
Wer hat jetzt eigentlich die Karte eingebaut, ich oder du? Spl Cell läuft nicht.

Wird Zeit, daß mal ne Linux-fähige, leise, handliche Nex-Gen-Konsole kommt, diese PC-Abzockerei reicht langsam. Um was zu Spielen muß man erstmal ein 256MB Betriebssystem in den Speicher laden, 5GBinstallieren, Treiber wechseln, Spiel patchen und langwierig Grafikkonfiguration justieren, Joypad Knopf für Knopf vernünftig belegen sowie ein 30MB DirectX laden, wie rückständig ist das denn? Plug and Play, aha? Plug and Play wäre Start von DVD mit darauf getesteten Grafik und Soundtreibern.

Und wofür? Das NFS Most Wanted ruckelt und das eh viel bessere Burnout Revenge (flüssig auf PS2) erst gar nicht erscheint, dafür aber Nipplegate
Wenn Dich das alles zu sehr nervt und Du nur zocken willst - dann kauf Dir doch einfach 'ne Konsole und jammer hier nicht herum.

Gast
2006-02-20, 14:40:36
Eben. Wer möglichst unkompliziert und ohne großen Konfigurationsaufwand spielen möchte, soll sich doch eine Konsole kaufen. Auf dem PC muss man immer ein wenig tüfteln, dafür hat man aber auch mehr Möglichkeiten das Spiel an seine Bedürfnisse anzupassen.

Coda
2006-02-20, 15:28:59
dann sollens doch gleich das ein-und-einzige aktuelle 3d-spiel, welches in 640 mit allen details flüssig (25fps) darauf läuft, damit bundlen. und orf06 ist es schonmal nicht. ankh, nfsu1, spl cell1 no chanceWTF? Ankh dürfte ne ziemliche Lachnummer sein was Hardwareanforderungen angeht.

Gast in Spee
2006-02-20, 18:59:19
dann sollens doch gleich das ein-und-einzige aktuelle 3d-spiel, welches in 640 mit allen details flüssig (25fps) darauf läuft, damit bundlen. und orf06 ist es schonmal nicht. ankh, nfsu1, spl cell1 no chance

und vista oder demokompatibilität haben intel-onboards genauso
Hmm, seit dieser Aussage glaube ich so langsam, dass du die Karte nichtmal selbst besitzt und hier einfach nur künstlich Aufmerksamkeit erregen willst?

Wie gesagt, hab eine 64 Bit FX5200 schon selbst verbaut und selbst mit dieser lief NFSU2 in 1280x1024 und 0 Details, bzw. in 1024x768 und ein paar aktivierten Details absolut flüssig im 40 FpS Bereich. Deshalb erzähl hier mal keine Märchen, dass NFSU1 nichtmal in 640X480 laufen soll. Und du kannst ja mal gerne versuchen es auf einer Intel Onboard zu spielen ;)

Gast
2006-02-21, 11:11:26
Übrigens, Spree schreibt man mit R und lateinisch Hoffnung mit 'ohne zweitem e'. Aber du weißt ja alles besser.

PW
2006-02-21, 16:02:57
Was hat der Verbraucherschutz damit zu tun, dass du dich nicht informierst und dir eine grottige Graka auch noch mit 64bit-SI holst und dann erwartest aktuelle Spiele spielen zu können? Sorry, aber wenn bei dir Geiz und Faulheit so geil ist, hast du es auch nicht anders verdient.

Momentmal, hat nicht gerade NVIDIA diese 5200'er als ideal Spielerkarte auf Ihren Werbetexten / Verpackungen verkauft!?

Narrenkönig
2006-02-21, 16:53:57
Momentmal, hat nicht gerade NVIDIA diese 5200'er als ideal Spielerkarte auf Ihren Werbetexten / Verpackungen verkauft!?
Kommt doch darauf an welche Spiele.
Und wer Werbeslogans blind glaubt, gehört ins Heim.

aths
2006-02-21, 17:21:49
Momentmal, hat nicht gerade NVIDIA diese 5200'er als ideal Spielerkarte auf Ihren Werbetexten / Verpackungen verkauft!?Auf den Verpackungen? Die macht Nvidia ja nicht. Im Werbetext auf der NV-Hompe wird die 5200 nicht als dedizierte Spielerkarte beworben, dafür war immer die 5600, später 5700 gedacht.

NV sprach immer groß von DX9 und bester Performance in ihrer Klasse. (Klasse = Lowcost-DX9, und da gabs noch keine Konkurrenz, also reicht auch Minimalperformance um die "beste" Performance ihrer Klasse zu bieten.)

J.R. Ewing
2006-02-22, 13:16:44
Die Spieleindustrie und die Kartenentwickler stecken für mich unter einer Decke. Auf Konsolen wird 'unmögliches' möglich (D3, HL2, FC, RE4, Normal Mapping auf PS2) und am PC wird von einem Mittelklasse-Rechner als LowEnd ausgegangen ohne die einfachsten Tuning-Möglichkeiten wie Tiefen-/Detailregler anzubieten. Eine unkluge Entwicklung, da kaum Casual Gamer erreicht werden.

Und Werbeslogans interessieren mich nicht, die Kartenhersteller wissen schon, warum sie das anstelle von 'dx9fähig aber nicht tauglich, 250/166Taktung mit 6nsRam, überflüssiger 3dchip (außer sie stehen auf heftvollversionen von 2002), 64-bit kastration auf die Packung drucken.

aths
2006-02-22, 16:50:07
Die Spieleindustrie und die Kartenentwickler stecken für mich unter einer Decke. Auf Konsolen wird 'unmögliches' möglich (D3, HL2, FC, RE4, Normal Mapping auf PS2) und am PC wird von einem Mittelklasse-Rechner als LowEnd ausgegangen ohne die einfachsten Tuning-Möglichkeiten wie Tiefen-/Detailregler anzubieten. Eine unkluge Entwicklung, da kaum Casual Gamer erreicht werden.Die PS2 kann kein Normalmapping. Das kann man auch nicht nachträglich möglich machen.

Für den PC zu entwickeln ist nun mal schwieriger, da man keine fest definierte HW-Umgebung hat. Auf der Konsole kann man mit gleichem Aufwand deutlich bessere Ergebnisse erzielen. Dass Spiele-"Industrie" und Kartenentwickler unter eine Decke stecken würden, halte ich für sehr weit hergeholt.

Und Werbeslogans interessieren mich nicht, die Kartenhersteller wissen schon, warum sie das anstelle von 'dx9fähig aber nicht tauglich, 250/166Taktung mit 6nsRam, überflüssiger 3dchip (außer sie stehen auf heftvollversionen von 2002), 64-bit kastration auf die Packung drucken.Bei dem Preis kann man logischerweise keine anständige 3D-Leistung erwarten. Wir können froh sein, dass die 2D-Features stimmen.

AtiundNvidiaUser
2006-02-22, 17:33:16
Was soll der Unfug? Im Gegensatz zu den seinerzeit hier im Forum häufig als "Einstiegs - Gamerkarten" oder "Bürotauglich" empfohlenen Ati 8500/9100 beherscht der NV 34 wenigstens DX9. Die Angeschmierten sind diejenigen, die auf die Atifanboy Empfehlungen vertraut haben, und demnächst vergeblich versuchen Aero auf diesen Karten laufen zu lassen. Ähnlich wird sich das in Zukunft mit dem jetzt noch propagierten "Du brauchst keinen Shader 3.0" Märchen. Wir sprechen uns in 1-2 Jahren wieder. Katastrophal, was einige Leute hier von sich geben. Im übrigen bietet die GF5200 bei einem Preis von €30.- - €40.- ein gutes P/L Verhältnis mit Argumenten, die durchaus für diese Karte sprechen: DX9, meist passiv gekühlt, Aero tauglich, meist TV-out und oftmals Dualhead. Zudem ist die 3d Leistung bei 64bit SI je nach Ausführung über der einer ~GF3 und bei den schnelleren GF5200 128bit SI (ultra) auf ~GF 4200 niveau. Zur Einführungszeit der Serie also durchaus mit einschränkungen Spieletauglich. Wer noch mehr fürs Geld erwartet, glaubt auch an den Nikolaus.

tokugawa
2006-02-22, 18:15:38
Die Spieleindustrie und die Kartenentwickler stecken für mich unter einer Decke. Auf Konsolen wird 'unmögliches' möglich (D3, HL2, FC, RE4, Normal Mapping auf PS2) und am PC wird von einem Mittelklasse-Rechner als LowEnd ausgegangen ohne die einfachsten Tuning-Möglichkeiten wie Tiefen-/Detailregler anzubieten. Eine unkluge Entwicklung, da kaum Casual Gamer erreicht werden.


Wenn man sich etwas mit Spieleentwicklung auskennt, dann erkennt man sofort dass diese Aussage von dir nicht stimmt.

Auf Konsolen wird auch nur mit Wasser gekocht: niedrige Auflösung, automatisches "Verblurren" durch den Fernseher, und eine gute Fokusierung des Contents (Hochdetaillierte Texturen nur für die wichtigsten Dinge), sowie gute Artists wirken da Wunder.

Die "Ports" von PC-Spielen sind doch deutlich runtergerechnet (wie willst du auch die Texturen eines normalen PC-Spiels in den 4 MB VRAM der PS2 bringen -> das ist schon mathematisch unmöglich!).

Auf Konsolen hat man eine einheitliche Umgebung -> umsomehr kann man auf Konsolen tricksen und faken was geht.

Auf PCs ist dieses Software-Engineering vielschichtiger, ja vieldimensionaler.

Dass da der Aufwand (in Software-Design, Implementierung, Wartung und Test -> also in ALLEN Phasen des Software-Engineering) auch exponentiell steigt gegenüber einer einheitlichen Umgebung versteht sich da von selbst.

Deswegen verwundert es nicht dass subjektiv Konsolentitel oft "beeindruckender" aussehen oder scheinbar "unmögliches" schaffen.

Das hat aber nichts mit irgendwelchen Verschwörungstheorien zu tun. Es ist ja oftmals so dass Unwissenheit über etwas (wie hier über Spieleentwicklung) zu Verschwörungstheorien führt. Aber hier bitte nicht, das ist einfach unwahr und unsachlich (und außerdem sieht jeder der sich auskennt dass es einfach nicht stimmt).

Gast
2006-02-24, 13:50:05
Niedrige Auflösung ist kein Mangel per se, wenns läuft. Und das tuts mit der gleichen niedrigen Auflösung nicht. Wobei man beim PC auch noch alles abschalten muß. Früher wenns lahm lief, kaufte man sich einen neuen Prozessor, und Ruhe war. Für das Geld kriegt man jetzt noch nicht maln scharfes 2d-Bild nach 1024.

Gast
2006-02-24, 14:07:31
Was soll der Unfug? Im Gegensatz zu den seinerzeit hier im Forum häufig als "Einstiegs - Gamerkarten" oder "Bürotauglich" empfohlenen Ati 8500/9100 beherscht der NV 34 wenigstens DX9.

die r85 als office-karte zu schimpfen ist ungefähr so wie die (schlechtere) xbox als pong-konsole zu bezeichnen. du hast ja echt null ahnung.

wenn ich dx9 features hardwareseitig hab, wieso läuft sie dann mit dx9-effekten langsamer als ohne? was bringt mir überhaupt dx9, alles interessante hab ich auch schon mit der xbox gesehen. schaut euch mal im museum 'magic carpet' an, in software war die 3d-grafik weit flexibler und heulte nicht jedesmal, ach, den effekt kann ich erst ab WTF shader5