PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die ersten DX9-Karten werden wieder überflüssig


Seiten : [1] 2

jedi
2002-06-10, 16:07:07
Weil hier schon so viel über die nächste Grafikchipgeneration diskutiert wird, mal ein paar grundsätzliche Gedanken:

Wenn Hersteller wie ATI tatsächlich noch DX9-Chips auf 0.15µ-Basis machen wollten, würden es ziemlich stromfressende Transistormonster werden, die man (u.a. wegen der Hitzeentwicklung bei den vielen Transistoren) nicht sehr hoch takten könnte.

Insgesamt wird es mit der ersten Generation von DX9-Karten genau so gehen wie damals mit den ersten Generationen von DX7-Karten und DX8-Karten: Sie brauchen wegen ihrer alten Bauweise zu viel Strom, sind daher auch relativ langsam und werden zu ihrer Lebenszeit kaum wirklich gebraucht und ausgenutzt, weil es noch sehr lange keine entsprechenden Spiele und andere Software gibt. Und nur für 3DMark2003 kauft man sich ja keine neue Grafikkarte.

Genau wie damals beim GeForce1, der ersten DX7-Karte mit T&L. Innovativ, aber stromfressend wegen ihrer Bauweise und daher nicht sehr schnell. Damals gab es kaum Software, die davon profitiert hat. Erst ab dem GeForce2 hat es sich richtig gelohnt, eine DX7-Karte zu besitzen. Und wegen der schlankeren Bauweise brauchte der GF2 auch weniger Strom und liess sich höher takten.

Auch bei den DX8-Karten ist es nicht anders. Die GeForce3 war mit ihren DX8-Shadern ein innovativer Meilenstein, aber eigentlich lohnt sich für Spieler eine DX8-Karte erst jetzt - und inzwischen gibt es den deutlich preiswerteren und leistungsfähigeren GF4-Ti4200 - oder eine GF3-Ti200 zum absoluten Spottpreis.

Das gleiche wird auch bei der nächsten Generation von DX9-Karten der Fall sein. Und die Kluft zwischen Hardware und Software wird immer größer: vor 2004/2005 wird nicht mit echten DX9-Spielen gerechnet.

Insofern fährt man immer am besten, wenn man die erste Generation überspringt. Eine DX9-Karte, deren Chip noch in 0.15µ gefertigt wird, hole ich mir bestimmt nicht.

Jetzt gibt's für Unreal Tournament 2003 und Unreal II erst mal eine preiswerte GF4-Ti4200, und die reicht dann locker bis zur zweiten oder dritten Generation von DX9-Chips. :)

aths
2002-06-10, 16:41:41
Nette Argumente mit denen du späteren DX9-HW-Besitzern einreden kann, dass sie sich Unsinn gekauft haben. Haben sie jedoch ein 256-Bit-DDR-Interface, dreht auch alte 0.15µm-HW schön auf, so dass selbst meine Ti4600 alt aussieht. Von Ti4200 ganz zu schweigen.

"Überflüssig" sind die neuen DX9-Karten sicher nicht. Edit: Die "Argumentation" ließe sich über T&L, 32 Bit, Pixelshader, VertexShader etc. führen, ist aber sinnlos: Ohne Hardware keine Software. Der Boden für DX9 muss bereitet werden. Der Sprung von DX8 zu 9 ist übrigens, gerade was z.B. PixelShader anbelangt, beträchtlich.

HOT
2002-06-10, 16:44:08
Jep, es ist im Endeffekt die Speed die diese Karten interessant macht, weniger die DX9 Fähigkeiten. War bei der Geforce3 ja genauso.

jedi
2002-06-10, 16:49:04
aths,
bis jetzt hat sich ja noch niemand etwas gekauft. Ausserdem hält niemand die "early adopters" für Idioten; sie können mit ihrem Geld ja machen was sie wollen.

Ich vertrete hier eben eher eine pragmatischere Linie von Gamern, die sich die Hardware für die Software kaufen - und nicht umgekehrt. Und das dürfte die Mehrheit sein.

;)

AlfredENeumann
2002-06-10, 16:55:45
Phänomenal wie einige immer wieder was zum Spamen gegen ATI und Matrox finden. Da gibts nu gerüchte das NVidia mit 0.13 kommt und die anderen mit 0.15 und keiner weis wie schnell die Karten sind und was sie leisten, aber an dem Herstellungsprozess lesen sie ab das alles was nicht in 0.13 gefertigt wird der größte scheiß ist.

Ich habe noch niemanden auf meiner Ignore-Liste, aber wenn das so weitergeht kommen bald einige hinzu.

Demirug
2002-06-10, 16:56:09
Es wird natürlich nicht so sein das wenn man keine DX9 Karte hat plötzlich keine neuen Spiele mehr laufen. Bis dieser Fall eintritt vergeht noch einiges an Zeit. Und die hersteller sind sich dessen auch bewust deshalb sind die ersten Karten einer neuen Generation eigentlich nicht viel mehr als die schnellsten Karten der vorhergehenden Generation plus Zusatzfeatures.

Wenn dann allerdings die ersten Spiele kommen die voll auf die entsprechende Technik aufbauen sind diese Pionierkarten schon nicht mehr zu gebrauchen. Bei den ersten reinen HT&L Spielen wird eine GForce1 nicht zu gebrauchen sein.

Bei den ersten DX8 only Spielen kann man seine GF3/R200 sehr wahrscheinlich ebenfalls vergessen. Bei DX9 wird das auch nicht anderes sein.

jedi
2002-06-10, 16:59:31
Neumann,
Du hast mal wieder nix gerafft. Es ging mir nicht um nVidia vs. ATI, sondern um eine Generationsfrage.

Und um Matrox ging's schon gar nicht, sondern um richtige DX9-Karten. ;)

aths
2002-06-10, 17:11:18
Originally posted by jedi
Neumann,
Du hast nix gerafft.Während "Neumann" sich noch allgemein und damit unverfänglich ausdrückte, bist du auf die persönliche Ebene abgeglitten. Das muss nicht sein.

Labberlippe
2002-06-10, 17:16:31
Hi

Wie kann man vom Fertigunsprozess feststellen das ein Chip "Mist" ist. ???
Nada geht nicht.

Wer behauptet das ATi den R300 in 0,15 unbedingt den Chip fertigt?
Solange die Chips noch nicht am Markt sind kann man nichts genaueres sagen.
Also Spekultation.

Nach Deiner Aussage muss man dann jede neue Graka-Generation sofort überspringen.
Nur wer erzeugt dann die neue Karten wenn die erste Generation nicht gekauft wird?
Wenn die keiner kauft dann haben die Unternehmen kein Geld.
Kein Geld = keine neue Grakas.
B.z.w. mit was soll die Technologie dann vorangehen.?

Wie aths es schön treffend ausgedrückt hat, es kann auch reichen das man das Speicherinterface verbreitert.
Dann reichen auch 0,15mikron da die GPU nicht so hoch getaktet werden muss und man langsamere Speicher verbauen kann.
Halte ich aber eher für unwahrscheinlich.

Flame am Rande: Die einzigen Chips die immer am meisten Leistung verbraten haben waren die nVIDIA Chips.
Egal in welcher Generartion.

Komischerweise werden alle GeForce3 Besitzer Dich vom Gegenteil überzeugen, da die Leistung deren Karten noch immer reicht.
Auch bei den neuen DX8 Games.


Die restlichen Kommentare schenke ich mir da Zeckensack, aths und Demirug schon das passende gepostet haben.

Ich bin der Meinung wenn man eine Karte hat (egal welcher Generation) und die Leistung reicht dann kann sollte man ruhig ein bischen die Geduld üben.
Es muss nicht immer das neueste sein.
Du vergisst aber auch das es noch genug TNT2 oder GeForce1 Besitzer welche welche dann die neue Generation kaufen werden.
Warum sollten diejenigen dann den Vorgänger kaufen, nur weil die neue Technik von der ersten neuen Generation ist.
Wieder warten ???
Weist Du was dann passiert, man wartet und wartet und wartet......

Der Kunde kauft dann die erste DX9 Generation und ist glücklich.
In 1-2 Jahren wird derjenige dann wieder eine neue Graka kaufen.


Gruss Labberlippe

zeckensack
2002-06-10, 17:18:11
Originally posted by aths
Während "Neumann" sich noch allgemein und damit unverfänglich ausdrückte, bist du auf die persönliche Ebene abgeglitten. Das muss nicht sein. Nanü? Die Drohung mit der Ignorelist und die Unterstellung, ein Spammer zu sein, sind unverfänglich???

AEN: Sollte jetzt nix gegen dich sich, ich kann's auch bald nimmer hören ;)

aths
2002-06-10, 17:28:25
Originally posted by zeckensack
Nanü? Die Drohung mit der Ignorelist und die Unterstellung, ein Spammer zu sein, sind unverfänglich???zs -> Mod-Forum :)

LL,

ich kann jedis Argumentation insofern nachvollziehen, als dass sie anhand von zusätzlichen Beispielen ja noch deutlich ausbaubar wäre. Doch letztlich klingt da für mich raus sich selbst als Schlaufuchs hinzustellen. Und sich eine Begründung (Rechtfertigung) gegenüber jenen zurechtlegen, die bald brachial mehr Leistung und viel bessere Technik haben. Ob das wirklich jedis Beweggründe waren vermag ich nicht zu beurteilen.

Persönlich gehe ich von einer glorrenreichen DX8-Zeit aus, welche eine Ära darstellen wird. Angesicht der mit DX9 teilweise wirklichen Entwicklungs-Sprünge wäre das aber auch irgendwo schade.

(Persönlich hatte ich eigenlich nie die fortgeschrittenste Technik, mir ging es immer um bestmögliche Kompatibilität und seit 2000 um Anti-Aliasing. Habe ich beides, sind zwei wichtige 3D-Bedürfnisse befriedigt. Der HW-Stand der anderen ist mir insofern egal, Hauptsache, die von mir bevorzugten Spiele laufen anständig.)

Labberlippe
2002-06-10, 17:32:39
Originally posted by aths
zs -> Mod-Forum :)

LL,

ich kann jedis Argumentation insofern nachvollziehen, als dass sie anhand von zusätzlichen Beispielen ja noch deutlich ausbaubar wäre. Doch letztlich klingt da für mich raus sich selbst als Schlaufuchs hinzustellen. Und sich eine Begründung (Rechtfertigung) gegenüber jenen zurechtlegen, die bald brachial mehr Leistung und viel bessere Technik haben. Ob das wirklich jedis Beweggründe waren vermag ich nicht zu beurteilen.

Persönlich gehe ich von einer glorrenreichen DX8-Zeit aus, welche eine Ära darstellen wird. Angesicht der mit DX9 teilweise wirklichen Entwicklungs-Sprünge wäre das aber auch irgendwo schade.

(Persönlich hatte ich eigenlich nie die fortgeschrittenste Technik, mir ging es immer um bestmögliche Kompatibilität und seit 2000 um Anti-Aliasing. Habe ich beides, sind zwei wichtige 3D-Bedürfnisse befriedigt. Der HW-Stand der anderen ist mir insofern egal, Hauptsache, die von mir bevorzugten Spiele laufen anständig.)
Ich kann diese Argumentation auch verstehen und nachvollziehen, allerdings haben einige diese gleiche Argumentation verwendet und wurden als Technologiebremser hingestellt.
Deshalb geht AEN der Hut hoch.

Ich bin auch der Meinung das man nicht immer die neuste Generation kaufen muss.
Ich zähle mich eher zu den Preis/Leistungs bewusten und stufe meinen Kauf der Graka anhand von meinen Verwendungsbereich ab.
Als damals die GeForce3 am Markt kam, haben einige dieses Argument gebracht.
Die wurden quasi als Narren hingestellt.

Wie die Leute von GeForce2 Ultra auf GeForce3 umgestiegen sind.
Genauso wie von GeForce3 auf GeForce4.
Das halte ich allerdings für Verschwendung. :)

Gruss Labberlippe

aths
2002-06-10, 17:44:18
Originally posted by Labberlippe Ich kann diese Argumentation auch verstehen und nachvollziehen, allerdings haben einige diese gleiche Argumentation verwendet und wurden als Technologiebremser hingestellt.
Deshalb geht AEN der Hut hoch.Die Diskussion ist vorbelastet, allerdings.

Originally posted by Labberlippe Als damals die GeForce3 am Markt kam, haben einige dieses Argument gebracht.
Die wurden quasi als Narren hingestellt.Jopp, und was 3D-Technik angeht hat GeForce3 ihrem Besitzer bislang sehr wenig gebracht. Dafür allerdings sehr gute Leistung, Anti-Aliasing auch in hohen Auflösungen, anisotrope Textur-Filterung... eben dieser Leistungsaspekt wird bei DX9 HW nicht zu verleugnen sein: Noch viel schöneres Anti-Aliasing, und deutlich mehr Rohleistung lassen das Herz eines 3D-Fetischisten sicherlich höher schlagen. Über Ti4600 werden sie wahrscheinlich lachen (grrrr) und über Ti4200... nunja.

Sowohl das Preis/Leistungs-Verhältnis als auch die Leistung an sich ist bei Ti4200 bekanntlich ziemlich gut, und ich denke auch dass sie problemlos bis zur 2. oder 3. Generation von DX9-HW reicht. Doch man hat mit 256-Bit-DX8-HW natürlich nicht die Möglichkeiten wie mit 512-Bit-DX9-HW. Deshalb finde ich das Subject "Die ersten DX9-Karten werden wieder überflüssig" eindeutig falsch gewählt.

Labberlippe
2002-06-10, 17:58:19
Die Diskussion ist vorbelastet, allerdings.
Yepp sehe ich auch so.


Jopp, und was 3D-Technik angeht hat GeForce3 ihrem Besitzer bislang sehr wenig gebracht. Dafür allerdings sehr gute Leistung, Anti-Aliasing auch in hohen Auflösungen, anisotrope Textur-Filterung... eben dieser Leistungsaspekt wird bei DX9 HW nicht zu verleugnen sein: Noch viel schöneres Anti-Aliasing, und deutlich mehr Rohleistung lassen das Herz eines 3D-Fetischisten sicherlich höher schlagen. Über Ti4600 werden sie wahrscheinlich lachen (grrrr) und über Ti4200... nunja.

Wobei bei den neuen "DX8" das FSAA der GeForce3 und Aniso auch brauchbar ist.
Wenn mann jetzt bedenkt wie alt die GeForce3 ist, sieht man das die erste DX8 Generation wacker mit der neuen mithält.
Teilweise sogar ebenbürtig ist.
Bei den neuen DX9 Applikationen sieht die Sache natürlich anders aus.
Allerdings wird es hier noch einige Zeit daueren bis diese Funktionen genutzt werden.


Sowohl das Preis/Leistungs-Verhältnis als auch die Leistung an sich ist bei Ti4200 bekanntlich ziemlich gut, und ich denke auch dass sie problemlos bis zur 2. oder 3. Generation von DX9-HW reicht. Doch man hat mit 256-Bit-DX8-HW natürlich nicht die Möglichkeiten wie mit 512-Bit-DX9-HW. Deshalb finde ich das Subject "Die ersten DX9-Karten werden wieder überflüssig" eindeutig falsch gewählt.
Preis/Leistung ist gut, keine Frage, allerdings gehört die Karte dann Leistungsmässig im unteren Segement bis die ersten richtigen DX9 Games am Markt sind.
Ergo: Eine Ti 4200 Besitzer wird nicht sofort umspringen sondern auf die übernächste Generartion warten.
Denn dazwischen reicht die Leistung locker 1 - 2 Jahre aus und da kommt dann wieder ein Refresh der DX9 Karten.
Denn die jetzigen DX8 Besitzer werden kaum auf die DX9 Generation umspringen.
Die DX7 Besitzer hingegen schon, denn die werden sich keine alte DX8 Generation mehr zulegen sondern gleich die DX9 Generation.
Die DX8 Besitzer werden dann den DX9 Refresh oder gleich DX10 kaufen und somit geht das Spiel von vorne los.

Gruss Labberlippe

jedi
2002-06-10, 18:01:08
Originally posted by Labberlippe
Nach Deiner Aussage muss man dann jede neue Graka-Generation sofort überspringen.


Nicht jede. Jeder Gamer hat da eben seine eigene Aufrüst-Strategie. Es gibt sicher nur wenige Leute, die sich jedes halbe Jahr eine neue Grafikkarte kaufen.

Vielleicht sollte ich nochmal verdeutlichen, worauf ich hinaus wollte.

Angenommen, ein Gamer überspringt jede zweite Generation. Dann gibt es beispielsweise zwei Varianten:

(a) Er hat GF1 und später GF3.
(b) Er hat GF2 und später GF4.

Meine These:

Gamer (a) hat als "early adopter" immer das Gefühl, pionierhafte Hardware zu besitzen. Aber Gamer (b) hat in Spielen insgesamt einen grösseren Nutzen für sein Geld.

Ich selber würde lieber Strategie (b) fahren, plädiere also für die geraden Zahlen.

Was dafür spricht ist, dass man die ganzen aktuellen Shooter, die meist auf der Q3-Engine basieren, immer noch problemlos mit einer GF2 spielen kann, obwohl die Karte inzwischen schon relativ alt ist. Eine GF1 der ersten Generation dürfte da schon eher schwächeln.


Nur wer erzeugt dann die neue Karten wenn die erste Generation nicht gekauft wird?
Wenn die keiner kauft dann haben die Unternehmen kein Geld.


Sicher, die "early adopters" finanzieren das immer mit, aber eigentlich machen die Hersteller eher mit den preiswerteren Produkten den grossen Umsatz.

Ist ja in anderen Bereichen auch nicht anders. Die ersten Digitalkameras waren schweineteuer. Doch ohne die early adopters wären sie heute nicht so preiswert. Aber ob man selber zu den early adopters gehören will, muss eben jeder für sich selber entscheiden.

Iceman346
2002-06-10, 18:01:21
Ich kann die Argumentation verstehen (wenn sie auch im Falle der GF3 nicht ganz treffend ist ;)) und werde es wohl ähnlich halten. Meine momentane Radeon 8500 LE sollte noch mindestens bis Anfang nächsten Jahres halten, dann schaue ich mal was auf dem Markt ist und kaufenswert ist.

Wobei ich dann wahrscheinlich der Karte mit dem 0.13er Fertigungsprozess den Vorrang geben werde einfach weil sie (vorrausichtlich) mehr Leistung bieten wird.

Major
2002-06-10, 18:02:27
Kann mich Jedi absolut nicht anschliessen, ich halte jeweils die 1.Generation (ausser bei bestimmten Ausnahmen) für die sinnvollere.
Denn die bekomm ich billig, wenn die 2. Generation eines Chip, der dann nur leicht verbessert worden ist, auf den Markt kommt.
So habe ich mir als die Gf2 auf dem Markt war, eine Gf1 gekauft und als die Gf4 kam, die Gf3.
Die Karten haben jeweils für AKTUELLE Games absolut ausreichen Leistung gehabt und waren halb so teuer wie die 2.Generation, die eigentlich nur massiv höher getaktet waren.
Ausserdem stimmt es nicht, dass die jeweils 1.Generation langsam ist.
Die Gf1 DDR war mit der entsprechenden CPU doch ne ganze Ecke schneller als die TNT2, auch die Gf3Ti200 ist wesentlich schneller als eine Gf2Ti, obwohl beide in etwa gleich Takten!
Die Gf3 ist in vielen Benches (habe mal mit meinem Bruder verglichen) min. 50-70% schneller, wem das nicht reicht naja Pech.

Genauso wird es bei den ersten DX9 Karten sein, sie werden trotz nicht so hohem Takt wesentlich schneller sein, da bin ich mir ziemlich sicher.

jedi
2002-06-10, 18:05:08
Originally posted by aths
Sowohl das Preis/Leistungs-Verhältnis als auch die Leistung an sich ist bei Ti4200 bekanntlich ziemlich gut, und ich denke auch dass sie problemlos bis zur 2. oder 3. Generation von DX9-HW reicht. Doch man hat mit 256-Bit-DX8-HW natürlich nicht die Möglichkeiten wie mit 512-Bit-DX9-HW. Deshalb finde ich das Subject "Die ersten DX9-Karten werden wieder überflüssig" eindeutig falsch gewählt.

Das Subject habe ich absichtlich so provokativ gewählt, um die Diskussion anzuregen, was offensichtlich schon gelungen ist. Genau diese Strategie fährst Du ja auch dauernd, aths. Oder willst Du mal wieder andere mit anderen Maßstäben messen als Dich selber? ;)

Labberlippe
2002-06-10, 18:05:10
Originally posted by Major
Kann mich Jedi absolut nicht anschliessen, ich halte jeweils die 1.Generation (ausser bei bestimmten Ausnahmen) für die sinnvollere.
Denn die bekomm ich billig, wenn die 2. Generation eines Chip, der dann nur leicht verbessert worden ist, auf den Markt kommt.
So habe ich mir als die Gf2 auf dem Markt war, eine Gf1 gekauft und als die Gf4 kam, die Gf3.
Die Karten haben jeweils für AKTUELLE Games absolut ausreichen Leistung gehabt und waren halb so teuer wie die 2.Generation, die eigentlich nur massiv höher getaktet waren.
Ausserdem stimmt es nicht, dass die jeweils 1.Generation langsam ist.
Die Gf1 DDR war mit der entsprechenden CPU doch ne ganze Ecke schneller als die TNT2, auch die Gf3Ti200 ist wesentlich schneller als eine Gf2Ti, obwohl beide in etwa gleich Takten!
Die Gf3 ist in vielen Benches (habe mal mit meinem Bruder verglichen) min. 50-70% schneller, wem das nicht reicht naja Pech.

Genauso wird es bei den ersten DX9 Karten sein, sie werden trotz nicht so hohem Takt wesentlich schneller sein, da bin ich mir ziemlich sicher.

Somit fällst Du unter Kategorie Preis/Leistungs bewuster Käufer.

Gruss Labberlippe

Labberlippe
2002-06-10, 18:09:47
Originally posted by jedi


Nicht jede. Jeder Gamer hat da eben seine eigene Aufrüst-Strategie. Es gibt sicher nur wenige Leute, die sich jedes halbe Jahr eine neue Grafikkarte kaufen.

Vielleicht sollte ich nochmal verdeutlichen, worauf ich hinaus wollte.

Angenommen, ein Gamer überspringt jede zweite Generation. Dann gibt es beispielsweise zwei Varianten:

(a) Er hat GF1 und später GF3.
(b) Er hat GF2 und später GF4.

Meine These:

Gamer (a) hat als "early adopter" immer das Gefühl, pionierhafte Hardware zu besitzen. Aber Gamer (b) hat in Spielen insgesamt einen grösseren Nutzen für sein Geld.

Ich selber würde lieber Strategie (b) fahren, plädiere also für die geraden Zahlen.

Was dafür spricht ist, dass man die ganzen aktuellen Shooter, die meist auf der Q3-Engine basieren, immer noch problemlos mit einer GF2 spielen kann, obwohl die Karte inzwischen schon relativ alt ist. Eine GF1 der ersten Generation dürfte da schon eher schwächeln.



Sicher, die "early adopters" finanzieren das immer mit, aber eigentlich machen die Hersteller eher mit den preiswerteren Produkten den grossen Umsatz.

Ist ja in anderen Bereichen auch nicht anders. Die ersten Digitalkameras waren schweineteuer. Doch ohne die early adopters wären sie heute nicht so preiswert. Aber ob man selber zu den early adopters gehören will, muss eben jeder für sich selber entscheiden.

Yepp volle Zustimmung, das ist eine deutlich Argumentation.
Meine Meinung ist ähnlich siehe oben.

GF1: Naja wobei eine GeForce1 schon verdammt alt ist. :)
Dazwischen hat sich einiges getan, gerade im Speichermanagment Bereich der Karten. LMA, Hyper Z.

Gruss Labberlippe

jedi
2002-06-10, 18:18:04
Originally posted by Major
Kann mich Jedi absolut nicht anschliessen, ich halte jeweils die 1.Generation (ausser bei bestimmten Ausnahmen) für die sinnvollere.
Denn die bekomm ich billig, wenn die 2. Generation eines Chip, der dann nur leicht verbessert worden ist, auf den Markt kommt.
So habe ich mir als die Gf2 auf dem Markt war, eine Gf1 gekauft und als die Gf4 kam, die Gf3.

Stimmt, diese Strategie hatte ich oben explizit gar nicht berücksichtigt. Damit gehörst Du natürlich auch zu den pragmatischen Gamern, die ein gutes Preis/Leistungsverhältnis bevorzugen.

Weiter oben meinte ich eher die Strategie von Leuten, die sich eine Karte direkt beim Erscheinungstermin kaufen wollen. Da wäre ich mehr für die "geraden Zahlen".

Aber ich kann auch jeden verstehen, der sich jetzt zum Spottpreis eine GF3-Ti200 für schlappe 135,- EUR kauft.

Unregistered
2002-06-10, 18:18:15
Tja, ich denke dieses Thema wird vorallem auch Subjektiv davon beeinflusst wieviel Geld ein jeder für eine Grafikkarte übrig hat.

Wir sind uns doch wohl einig, daß wenn jeder haben könnte was er wollte, JEDER IMMER das Beste hätte.

Ich persöhnlich glaube, FAST jeder der immer rummeckert was das alles für "Idioten" wären die immer die neueste und teuerste Hardware haben müssen, einfach nur einen guten Grund dafür brauchen um davon abzulenken, daß sie sich eben diese Hardware garnicht leisten können.

Das wiederum find ich aber garnicht schlimm. Ich kann mir auch nicht immer die neueste Hardware leisten. Und auch ich Grummel dann manchmal, heimlich still und leise, in mich rein, ob das denn wirklich alles notwendig wäre *g*. Ab und an aber, kann ich mir dann doch was wirklich gutes leisten *g*.

Und trotzdem ich mir jetzt ne Ti 4600 hätte kaufen können (wollt ich eigentlich auch, das Geld wäre nicht das Problem gewesen) hat dann letztendlich doch die Gier gesiegt *g*.

Da ich mir gegen ende des Jahres eine der ersten DirectX 9.0 Grakas kaufen will, hab ich die 150 Euro gespart und mir nur eine Ti 4400 gekauft. Die verkaufe ich Ende des Jahres an einen Kumpel von mir, zum Festpreis von, zukünftiger Neuwert - 35%. In der Zwischenzeit kann ich dann locker die Restsumme ansparen. Und dann kauf ich mir mal wirklich das allerbeste vom allerbesten. Auch wenn es das nur, für ne vergleichsweise kurze Zeit sein wird.

Aber mal nur so unter uns gefragt!!! Gibt es nicht viel wichtigeres auf der Welt, als die Frage ob 1. Generation oder 2. Generation einer Grafikkarte???

Gruss
Maik

Kellwolf
2002-06-10, 18:18:24
Ihr habt Gamer Type C vergessen, jede neue Karte da er die Karten im rotationsverfahren nutz da mehrere Rechner in form von Bruder, Schwester , 2 Rechner , Freundin , Lan rechner.....

Rechner 1 Geforce2MX
Rechner 2 Geforce2Pro
Rechner 3 Geforce3
Rechner 4 Geforce4 4600


Wenn Geforce5 kommt Geforce2MX weg in Rechner 4 kommt Geforce5 oder was auch immer usw.... So kann man seine Hardware min 4 Jahre Nutzen..


heheheh
MFG
Kellwolf

Bringhimup
2002-06-10, 18:21:24
Grrrr, sch...s cookies!!!

Der Unreg bin ich natürlich!!!

Der letzte Smilie sollte auch kein Smilie sein, sondern nur nen paar fragezeichen!!

Gruss
Maik

Matrix316
2002-06-10, 18:58:40
Vielleicht wäre es auch gut, wenn nvidia/ATI nicht jedes Halbe Jahr eine neue Graka auf den Markt bringen, sondern sich mehr Zeit lassen und dann eine wirkliche Revolution bringen, wenn es "nötig" ist.

Den Spiele-Machern, können sie ja trotzdem noch andere Versionen quasi nebenbei machen, auf die sich diese dann einstellen können, so dass wenn Doom 3 rauskommt, gleichzeitig auch die GeForce 3 kommt, aber eben mit den Fähigkeiten die jetzt die GeForce 5 hat. Oder so ähnlich, falls das jemand verstanden hat.

Demirug
2002-06-10, 19:11:14
Originally posted by Matrix316
Vielleicht wäre es auch gut, wenn nvidia/ATI nicht jedes Halbe Jahr eine neue Graka auf den Markt bringen, sondern sich mehr Zeit lassen und dann eine wirkliche Revolution bringen, wenn es "nötig" ist.

Den Spiele-Machern, können sie ja trotzdem noch andere Versionen quasi nebenbei machen, auf die sich diese dann einstellen können, so dass wenn Doom 3 rauskommt, gleichzeitig auch die GeForce 3 kommt, aber eben mit den Fähigkeiten die jetzt die GeForce 5 hat. Oder so ähnlich, falls das jemand verstanden hat.

Das geht aber leider nicht. Als Spieleentwickler brauchen wir Planungssicherheit. Das heist wir müssen wiesen mit welchen Mitteln wir arbeiten können. Spätestens 12 Monate (besser 24) vor dem Release müssen die Karten verfügbar sein um die Entwicklung darauf anzupassen. Bei deinem Model müssten ATi, NVidia usw. die neuen Chips entwerfen ein paar Karten für die Entwickler bauen dann alles für ein paar Monate verschwinden lassen und beim Release der Spiele die Karten verkaufen. Ich denke du kannst die wirtschaflichen Probleme dabei erkennen.

aths
2002-06-10, 19:16:02
Originally posted by jedi Das Subject habe ich absichtlich so provokativ gewählt, um die Diskussion anzuregen, was offensichtlich schon gelungen ist. Genau diese Strategie fährst Du ja auch dauernd, aths. Oder willst Du mal wieder andere mit anderen Maßstäben messen als Dich selber? ;) Ich vermeide Subjects, die so klar falsch sind.

jedi
2002-06-10, 19:28:59
Originally posted by aths
Ich vermeide Subjects, die so klar falsch sind.
Selbstkritikmodul mal wieder ausgefallen? Das Subject ist nicht weniger falsch als z.B. Dein Subject "Morrowind = GF4-Killer". Kein Spiel "killt" eine Karte, wenn man mal das 4xFSAA etwas herunterfahren muss. Dein "Killer"-Faktor ist also übertriebener als mein "überflüssig"-Faktor. Wie gesagt: miss andere nicht immer mit anderen Maßstäben als Dich selber. :nono:

AlfredENeumann
2002-06-10, 19:55:48
Originally posted by jedi
Neumann,
Du hast mal wieder nix gerafft. Es ging mir nicht um nVidia vs. ATI, sondern um eine Generationsfrage.

Und um Matrox ging's schon gar nicht, sondern um richtige DX9-Karten. ;)


Ich bezog mein Posting auf folgendes:
"Wenn Hersteller wie ATI tatsächlich noch DX9-Chips auf 0.15µ-Basis machen wollten, würden es ziemlich stromfressende Transistormonster werden, die man (u.a. wegen der Hitzeentwicklung bei den vielen Transistoren) nicht sehr hoch takten könnte.

Insgesamt wird es mit der ersten Generation von DX9-Karten genau so gehen wie damals mit den ersten Generationen von DX7-Karten und DX8-Karten: Sie brauchen wegen ihrer alten Bauweise zu viel Strom, sind daher auch relativ langsam und werden zu ihrer Lebenszeit kaum wirklich gebraucht und ausgenutzt, weil es noch sehr lange keine entsprechenden Spiele und andere Software gibt. Und nur für 3DMark2003 kauft man sich ja keine neue Grafikkarte."

Und das hat mit dem zweiten Teil deines Threads nix zu tun.

Meta
2002-06-10, 20:27:26
hi Leute...

Also ich finde das Kriterium von Karten sollte nicht sein, ob sie DX 9 kann oder in welcher Tech sie gefertigt ist.

DX 9 ist nicht die Rede wert, weil zu weit in der Zukunft.

Für jeden zählen andere Sachen:

Bildquali
Performance
Kompatiblität
AA oder AF
Zusatzfeatures wie Triple Head, TV-Out
Preis
Preis/Leistungsverhältnis
OC-Fähigkeit
usw.

Pauschal zu sagen, ne Karte kauf ich mir nur, wenn sie in 0,13 qm gefertigt ist, der is ein bisschen mit Scheuklappen unterwegs find ich.

Ausserdem wird die Leistung nicht an der Fertigung gemessen, sondern in Bensches (von Spielen) und da zählt Speicherbandbreite, Füllrate, speicherschonende Technologien, Features usw.

Also, seht ein wenig mehr die Gesamtheit.

Euer Meta

PS.: Vom Preis her kauf ich mir meistens etwas in der Mittelklasse, nicht Top aber auch nicht zu wenig...imho

Meta
2002-06-10, 20:38:33
@jedi

deine Kritik an aths finde ich absolut unangebracht.

Ich will dich nicht damit perssönlich angreifen oder so, aber ich finde aus meiner Perspektive, die wohl eher uneingenommen ist, muss ich Aths recht geben.

Als ich dein erstes Posting durchlas, glaubte ich ein wenig du arbeitest als Sensationsjornalist. So einen Thread "anzuheizen" finde ich nicht richtig.

Zu Aths's Thread mit Morrowwind kann ich nur sagen, dass der Thread Titel eine Frage war und mit Verlaub keine unberechtigte, da Morrowwind sehr Hardwarefressend ist und die G4 nun mal die schnellste Karte zur Zeit ist....so muss sie sich stellen....also das passt schon zusammen...

So denn, nimms net bös jedi.

Dein Meta

Unregistered
2002-06-10, 20:51:08
Originally posted by Meta DX 9 ist nicht die Rede wert, weil zu weit in der Zukunft.

Für jeden zählen andere Sachen:

Bildquali
Performance
Kompatiblität
AA oder AF
Zusatzfeatures wie Triple Head, TV-Out
Preis
Preis/Leistungsverhältnis
OC-Fähigkeit
usw.

Pauschal zu sagen, ne Karte kauf ich mir nur, wenn sie in 0,13 qm gefertigt ist, der is ein bisschen mit Scheuklappen unterwegs find ich.Richtig, was zählt, ist das hier und heute. Die GF3 habe ich mir direkt nach Erscheinen gekauft, weil ich AA und AF wollte. Die nächste Karte hat die Aufgabe, höheres und besseres AA und AF als die GF3 bei höherer Geschwindigkeit zu bieten.

Vorher hatte ich eine GF1DDR, und auch da war ich ein early adopter. Mit der TNT2 war an Q3A nicht zu denken, nur im Super-Hässlich-Modus, und ich will nun einmal auch möglichst gute Grafikqualität. Wer bei Turnieren oder generell alle Details abschaltet, nur um auch noch den letzten Frame rauszuholen, soll das tun, aber ich will möglichst viele Details sehen.

Auch wenn ich bekennender early adopter bin, werde ich höchstwahrscheinlich nicht die eigentlich geplante R300 kaufen, eben weil sie in der 0.15-Technik gefertigt wird.
Das liegt daran, dass ich meinen TB-1.300 mit KT-133 (100 MHz) einfach noch nicht verschrotten will und auch keine Lust habe, mir ein neues Netzteil und neue Lüfter zu kaufen.
GF3 raus, neue Graka rein, so solls laufen, und mit 0.15-Technik wird die Hitzeentwicklung und der Stromverbrauch sicherlich zu hoch sein.
Doch da warte ich erst noch die Tests ab, die über Hitzeentwicklung und Stromverbrauch informieren.

Exxtreme
2002-06-10, 21:43:54
Originally posted by jedi
(a) Er hat GF1 und später GF3.
(b) Er hat GF2 und später GF4.

Dieses Schema funktioniert aber nur bei nVidia so richtig. Schon bei ATi bekommst du damit Schwierigkeiten weil sie a.) nicht so oft "neue" Produkte vorstellen und b.) der Leistungs-/Featureunterschied zw. den Generationen deutlich grösser ist. Beispiel: wer eine GF3 hat, für den lohnt sich ein Wechsel auf die GF4Ti nicht so richtig. Bei R100 --> R200 sieht es schon ganz anders aus.
Und von Matrox reden wir erst gar nicht. ;)
Originally posted by jedi
Sicher, die "early adopters" finanzieren das immer mit, aber eigentlich machen die Hersteller eher mit den preiswerteren Produkten den grossen Umsatz.
Also ich bin gerne ein "early adopter". :)
Ich bekomme Speed ohne Ende ohne Kompromisse eingehen zu müssen. Das lässt sich immer in sehr gute Bildqualität umwandeln. Ausserdem bekommt man aktuellste Technik wie Triple-Head, verbessertes AntiAliasing usw. Man hat meistens sofort einen Nutzen. Ich warte aber immer die erste Preissenkung ab.
Originally posted by jedi
Aber ob man selber zu den early adopters gehören will, muss eben jeder für sich selber entscheiden.
Full Ack und siehe oben.

Gruß
Alex

Priest
2002-06-10, 22:16:54
Ich gehöre zu denen, die sich nur dann eine neue Karte kaufen, wenn Spiele anfangen zu ruckeln. Momentan bin ich bei einer GF2 pro und kann mich noch immer nicht beklagen.

Ich schätze mal, dass Doom 3 erst in ca. einem Jahr oder später erscheint. Dann wird sich auch klären, was man braucht um Spiele mit dieser Engine flüssig und in guter Qualität zu spielen. Was das sein wird, und was dann am preiswertesten sein wird, steht in den Sternen.

Cu P.

Fragman
2002-06-10, 22:44:07
stimmt, ne neue graka kommt nur, wenn die alte nicht mehr reicht. ich zb, kaufe mir auch nicht mehr die neueste generation, da es meiner meinung keinen sinn macht, so viel geld nur fuerne spielekarte auszugeben. aber das muss jeder selbst entscheiden. aber zu sagen, die karte ist schlecht, weil sie warscheinlich zu heiss waere bei einem bestimmten fertigungsprozess kann ich nicht verstehen. es gibt weder die karte um das nachzupruefen, noch dx9 games, die meiner meinung sowieso nicht kommen werden. wenn die geruechte aber stimmen sollten, werden die dx9 karten wohl durch die extrem hohe bandbreite punkten, "mehr" auch nicht.

Doomtrain
2002-06-10, 23:09:19
Originally posted by Labberlippe

Komischerweise werden alle GeForce3 Besitzer Dich vom Gegenteil überzeugen, da die Leistung deren Karten noch immer reicht.
Auch bei den neuen DX8 Games.




Reichen ist immer so ein relativer Begriff. Reichen tut die Speed eigendlich nie ;)

StefanV
2002-06-10, 23:26:56
idR kauf ich mir einmal im Jahr eine neue Karte.

Meist ist das kurz vor Weihnachten, dann aber High End...

Richtig glücklich war ich bisher nur mit meiner G400 und Radeon 64DDR, die 8500 war bei FSAA irgendwie noch zu lahm (und ja, die GF3 ist es auch!!).

Deshalb freue ich mich auf die Parhelia und werd mir dann eine kaufen, vielleicht aber auch eine R300, je nach dem, wer das beste nützliche Featureset anbietet...

AlfredENeumann
2002-06-10, 23:39:40
Originally posted by Doomtrain


Reichen ist immer so ein relativer Begriff. Reichen tut die Speed eigendlich nie ;)

Dann kann eine DX9 Karte ja doch nicht so überflüssig sein. Denn diese wird mit sicherheit mehr speed (und nicht nur das) bieten als das was bis jetzt kaufbar ist. Und wenn ich auch mal den Gerüchten bediene die so im Umlauf sind, soll die R300 399$ kosten, also ungefgähr soviel wie TI4600 anfangs. Sprich für fast das gleiche Geld erheblich mehr Speed und Quali.

Salvee
2002-06-11, 03:34:18
0,13 Fertigungsprozess mag ein Garant für niedrigere Herstellungskosten pro Chip sein (wenn auch u.U. nicht in der Anfangsphase der Produktion), für die resultierenden Taktfrequenzen scheint das momentan aber zumindest im Falle des AMD Thoroughbreds (*wegendesnamensschüttel*) nicht zu gelten... (bescheidenstes OC-Potential der ersten Exemplare, nachzulesen überall im Web ;) )

Unregistered
2002-06-11, 11:43:32
Von Anandtech (http://www.anandtech.com/cpu/showdoc.html?i=1635&p=4):The main thing to take away from this chart is that the Thoroughbred puts out around 12% less heat than an equivalently clocked Palomino core.Manche Mobos / Netzteile werden die R300 vermutlich nicht verkraften können, ähnlich wie damals die Voodoo3.

skampi
2002-06-11, 12:45:47
Originally posted by Unregistered
Von Anandtech (http://www.anandtech.com/cpu/showdoc.html?i=1635&p=4):Manche Mobos / Netzteile werden die R300 vermutlich nicht verkraften können, ähnlich wie damals die Voodoo3.

In diesem Zusammenhang ist mir die GeForce1 auch ein Begriff.

edit: ist nicht so abwegig, es spielen aber sicher noch andere Faktoren eine Rolle.

nocturne
2002-06-11, 12:56:49
Die war - wegen ihrer Bauweise - auch nicht gerade sparsam. Erste Generation eben. ;) Die GF2 war viel sparsamer.

Aber die Voodoo3 war auch ein enormer Stromfresser. Nicht umsonst hieß der ominöse Jumper für stromfressende Karten auf manchen Motherboards "Voodoo-Jumper".

Wer sich (so wie ich) damals mit seiner Voodoo3 beinahe die Finger verbrannt hätte, weiß warum. :jump4:

StefanV
2002-06-11, 13:59:55
Originally posted by Unregistered
Von Anandtech (http://www.anandtech.com/cpu/showdoc.html?i=1635&p=4):Manche Mobos / Netzteile werden die R300 vermutlich nicht verkraften können, ähnlich wie damals die Voodoo3.

Du meintest wohl die TNT, oder?? *eg*

jedi
2002-06-11, 15:31:59
Die Voodoo3, die TNT1 und die GeForce1 hatten eines gemeinsam: sie waren Stromfresser und Hitzeschleudern wegen ihrer alten Bauweise. Die entsprechenden Nachfolgemodelle von nV (TNT2 und GeForce2) hatten eine kleinere, stromsparendere Bauweise und konnten daher auch schneller getaktet werden - trotz der höheren Transistorzahl.

Das alles spricht ja dafür, was ich schon im ersten Posting schrieb:

Man fährt am besten, wenn man die erste Generation überspringt. Eine DX9-Karte, deren Chip noch in 0.15µ gefertigt wird, hole ich mir bestimmt nicht.

ow
2002-06-11, 15:39:10
TNT1 Hitzeschleuder? Zeig mir mal eine, die NICHT passiv gekühlt ist.

jedi
2002-06-11, 15:44:15
OK, so ein Stromfresser wie die Voodoo3 war die TNT1 nicht. Aber die TNT2 war jedenfalls sparsamer und schlanker. ;)

aths
2002-06-11, 17:04:05
Originally posted by jedi Selbstkritikmodul mal wieder ausgefallen? Das Subject ist nicht weniger falsch als z.B. Dein Subject "Morrowind = GF4-Killer". Kein Spiel "killt" eine Karte, wenn man mal das 4xFSAA etwas herunterfahren muss. Dein "Killer"-Faktor ist also übertriebener als mein "überflüssig"-Faktor. Wie gesagt: miss andere nicht immer mit anderen Maßstäben als Dich selber. :nono: Nun verdreh mal nicht die Tatsachen. Ich nannte das Topic "Morrowind - GF4-Killer?" - mit Fragezeichen.

mapel110
2002-06-11, 17:19:52
Originally posted by aths
Nun verdreh mal nicht die Tatsachen. Ich nannte das Topic "Morrowind - GF4-Killer?" - mit Fragezeichen.

es ist immer wieder erstaunlich wie aths argumente auskontert. allein das ist es schon wert seine postings zu lesen :)

äh meine meinung hab ich doch schon hier geschrieben, oder ??? naja, egal.
dx9 hab ich jedenfalls schon auf platte. ich find neue dinge immer so anziehend ;)
sp1 für windows klatsch ich mir heute auch noch drauf.

zeckensack
2002-06-11, 17:26:26
Originally posted by mapel110


es ist immer wieder erstaunlich wie aths argumente auskontert. allein das ist es schon wert seine postings zu lesen :)
Und was bitte ist verwerflich daran, wenn aths sich ernsthaft wundert, daß ein Spiel seine neue Highend-Graka bereits jetzt in die Knie zwingen kann? Schau dir mal die Threads ala "GTA3 läuft voll Scheiße" oder "CS contra Radeon" an. Das ist auch nichts anderes.

mapel110
2002-06-11, 17:36:14
Originally posted by zeckensack
Und was bitte ist verwerflich daran, wenn aths sich ernsthaft wundert, daß ein Spiel seine neue Highend-Graka bereits jetzt in die Knie zwingen kann? Schau dir mal die Threads ala "GTA3 läuft voll Scheiße" oder "CS contra Radeon" an. Das ist auch nichts anderes.

daran ist nix verwerflich. hab ich das irgendwo behauptet. ich war nur erstaunt, dass aths sogar ein "?" ausreicht, um ein argument zu entkräften.
mehr wollte ich nicht sagen.

ist übrigens interessant zu sehen, dass einige versuchen aths aus der reserve zu locken. einige sollten sich wirklich mal auf sachliche dinge konzentrieren, als irgendwelche spitzfindigkeit auszudenken.
aber für diese thematik gibts ja schon genug threads.

Salvee
2002-06-11, 18:00:39
Der passende Name für diesen Thread sollte lauten:
Wie mache ich die langsam offensichtlich frühere Marekteinführung einer DX9 Karte madig, weil sie nicht von meinem Schatzi nV kommt :D

mapel110
2002-06-11, 18:12:27
Originally posted by Salvee
Der passende Name für diesen Thread sollte lauten:
Wie mache ich die langsam offensichtlich frühere Marekteinführung einer DX9 Karte madig, weil sie nicht von meinem Schatzi nV kommt :D

joah kommt hin ;)
allerdings muss man sagen, dass es die gleiche diskussion beim geforce3 auch gab, als der im februar letzten jahres vorgestellt wurde.
aber die speed bei bereits bestehenden games, war gross genug, um käufer zu gewinnen. bei matrox wirds hoffentlich genauso sein.

ich freue mich vor allem darauf, dass die spielehersteller sich endlich mehr einfallen lassen müssen, damit ein spiel auf allem karten läuft und sie nicht nur mit geforce und ati karten testen.
und dann mal eben in die readme-schreiben

known issues:
kyro2 some performance problems, may flicker sometimes, menu sometimes appears to be corrupt

Exxtreme
2002-06-11, 19:44:42
Originally posted by mapel110

ich freue mich vor allem darauf, dass die spielehersteller sich endlich mehr einfallen lassen müssen, damit ein spiel auf allem karten läuft und sie nicht nur mit geforce und ati karten testen.
und dann mal eben in die readme-schreiben

Ich fürchte da bist du zu optimistisch. Bei den heutigen Spielepublishern habe ich eher das Gefühl, daß ein Game um jeden Preis bis zum Erscheinungsdatum raus muss, egal ob fertig oder Beta. Und was liegt näher als erstmal für den Marktführer zu optimieren? Und Patches sind auch eine praktische Sache. Somit kann man den Beta-Test verkürzen und man hat tausende Käufer, welche Beta-Tester kostenlos spielen. Eigentlich logisch, oder?

Gruß
Alex

Demirug
2002-06-11, 19:55:03
Originally posted by Exxtreme

Ich fürchte da bist du zu optimistisch. Bei den heutigen Spielepublishern habe ich eher das Gefühl, daß ein Game um jeden Preis bis zum Erscheinungsdatum raus muss, egal ob fertig oder Beta. Und was liegt näher als erstmal für den Marktführer zu optimieren? Und Patches sind auch eine praktische Sache. Somit kann man den Beta-Test verkürzen und man hat tausende Käufer, welche Beta-Tester kostenlos spielen. Eigentlich logisch, oder?

Gruß
Alex

Ist leider wirklich meistens so da es sich die wenigstens Entwickler leisten können dem Publischer zu wiedersprechen. Auf NVidia Karten wird im Regelfall entwickelt da man dort mit den wenigsten Problemen zu kämpfen hat. Und auf den primären Entwicklungskarten läuft es dann auch am besten. Desweiteren ist der Entwicklersupport dort erstklassig.

zeckensack
2002-06-11, 19:55:04
Bessere Kompatibilität ist einer der positiven Nebeneffekte von getrennter Entwicklung Engine/Spiel. Siehe Unreal-Engine, siehe Quake-Engines. Bei Unreal hat's eine Weile gedauert, aber mittlerweile läuft alles rund :)

mapel110
2002-06-11, 19:58:33
Originally posted by Exxtreme

Ich fürchte da bist du zu optimistisch. Bei den heutigen Spielepublishern habe ich eher das Gefühl, daß ein Game um jeden Preis bis zum Erscheinungsdatum raus muss, egal ob fertig oder Beta. Und was liegt näher als erstmal für den Marktführer zu optimieren? Und Patches sind auch eine praktische Sache. Somit kann man den Beta-Test verkürzen und man hat tausende Käufer, welche Beta-Tester kostenlos spielen. Eigentlich logisch, oder?

Gruß
Alex

ja schon. aber trotzdem nicht richtig. als das i-net noch net da war. lief bei mir trotzdem jedes spiel einwandfrei. war zwar sehr oft ne riesen fummelei mit der noname-soundblaster-karte, aber sonst gings immer, notfalls ohne sound.
bugs hatte ich früher in dos-games nie, soweit ich mich erinnern kann.

gott, sind wir schon wieder offtopic. war wohl meine schuld :sulkoff:

mapel110
2002-06-11, 20:00:13
Originally posted by zeckensack
Bessere Kompatibilität ist einer der positiven Nebeneffekte von getrennter Entwicklung Engine/Spiel. Siehe Unreal-Engine, siehe Quake-Engines. Bei Unreal hat's eine Weile gedauert, aber mittlerweile läuft alles rund :)

wäre ja auch schlimm, wenn nicht :) nach zwei jahren endlich final patch.
p.s. hoffentlich kommt bei quake3 keiner mehr.

Demirug
2002-06-11, 20:00:36
Originally posted by zeckensack
Bessere Kompatibilität ist einer der positiven Nebeneffekte von getrennter Entwicklung Engine/Spiel. Siehe Unreal-Engine, siehe Quake-Engines. Bei Unreal hat's eine Weile gedauert, aber mittlerweile läuft alles rund :)

Da muss man wohl etwas vorsichtiger sein. Sowohl die Unreal wie auch die Quake Engine sind zum verkauf bestimmt. Aus diesem Grund können es sich die Entwickler leisten die Engine auf die verschiedehnen Karten zu optimieren. Am Ende ist das natürlich ein Verkaufsargument für die Engine und deshalb lohnt der Aufwand. Wird eine Engine nur für ein Spiel entwickelt bringt die getrennte Entwicklung von Engine und Spiel leider in diesem Punkt nichts da es wieder zum Druck vom Publischer kommt.

Exxtreme
2002-06-11, 20:03:46
@ Demirug
Das mag schon sein. Nur wenn ich ein Game für 40€ kaufe, dann erwarte ich, daß es funktioniert. Nur heutzutage werden die Spiele immer häufiger unfertig auf dem Markt geworfen um möglichst schnell an Kohle ranzukommen und um irgendwelche Quartalszahlen zu pushen. Und für die Bugs erscheint ein Paar Wochen später ein Patch, und der Käufer guckt während dieser Zeit in die Röhre. id-Software zeigt ganz klar, daß es anders geht. Die Games von denen funtzen auf Anhieb, egal mit welcher GraKa. Ich bin jetzt dazu übergegangen Spiele erst dann zu kaufen, wenn die Resonanz ziemlich positiv ist. Wenn ein Publisher es nicht schafft, halbwegs bugfreie Software zu veröffentlichen, dem entgeht halt Umsatz - Pech.

Gruß
Alex

Demirug
2002-06-11, 20:12:18
@Exxtreme:

Du hast vollkommen recht. Und das einzige Mittel die Publischer zu erziehen ist nichts kaufen. Die Entwickler sind zwar nicht ganz unschuldig aber was will man machen wenn der Publischer sagt: "Wir brigen das Spiel in 4 Wochen auf den Markt oder du bist den Deal los". Firmen wie ID oder Epic werden in dieser Beziehung nicht so unter Druck gesetzt.

zeckensack
2002-06-11, 20:15:24
Originally posted by Demirug


Da muss man wohl etwas vorsichtiger sein. Sowohl die Unreal wie auch die Quake Engine sind zum verkauf bestimmt. Aus diesem Grund können es sich die Entwickler leisten die Engine auf die verschiedehnen Karten zu optimieren. Am Ende ist das natürlich ein Verkaufsargument für die Engine und deshalb lohnt der Aufwand. Wird eine Engine nur für ein Spiel entwickelt bringt die getrennte Entwicklung von Engine und Spiel leider in diesem Punkt nichts da es wieder zum Druck vom Publischer kommt. Wer eine Engine nur für ein einziges Spiel entwickelt, der fällt durch meine Aussage sowieso durch, weil der Entwicklungsprozeß dann logischerweise wieder gekoppelt ist.

Ich meinte jedenfalls die Engines, die weiterlizensiert werden. Im Falle der U-Engine war das zu Beginn auch nicht der Fall, eben weil die Engine zuallererst für Unreal I entwickelt wurde. Das Lizenzgeschäft wurde AFAIK erst später 'entdeckt'.

Was mir im Moment auch immer öfter ( :D ) einfällt, ist die Netimmerse-Engine (->Morrowind). Läuft sauber auf 'ner GeforceMX und auf Radeons (sowohl R100 als auch R200). Und auch (im Vergleich mit aths' GF4Ti) mit durchaus brauchbarer Geschwindigkeit :)

Exxtreme
2002-06-11, 20:27:09
Originally posted by Demirug
@Exxtreme:
Die Entwickler sind zwar nicht ganz unschuldig aber was will man machen wenn der Publischer sagt: "Wir brigen das Spiel in 4 Wochen auf den Markt oder du bist den Deal los".
Man kann sich garantiert gegen sowas vertraglich absichern. Wenn die Entwickler es nicht tun - Pech. Ausserdem leidet der Ruf der Entwickler und des Publishers durch sowas. Bei Spielen von EA warte ich immer den dritten Patch ab bevor ich es in Erwägung ziehe ein Game zu kaufen. Diese sind meistens so verbuggt, daß man sie kaum spielen kann. Aktuellstes Beispiel ist C&CR. In der zweiten Mission im SinglePlayer-Modus gibt es einen Riesen-Bug. So bald man am Levelanfang respawnt, fällt man irgendwie runter, alles ist weiss und nach 5 sek. kommt eine Meldung, daß man tot ist - toll. Einen Patch gibt's dagegen nicht. Wenn das Game nicht so guten Multiplayermodus hätte, hätte ich es zurückgegeben.

Gruß
Alex

aths
2002-06-11, 20:33:33
Originally posted by zeckensack
Und auch (im Vergleich mit aths' GF4Ti) mit durchaus brauchbarer Geschwindigkeit :) MW ist bei mir heftig CPU-limitiert.

Demirug
2002-06-11, 20:36:46
Originally posted by zeckensack
Wer eine Engine nur für ein einziges Spiel entwickelt, der fällt durch meine Aussage sowieso durch, weil der Entwicklungsprozeß dann logischerweise wieder gekoppelt ist.

Ich meinte jedenfalls die Engines, die weiterlizensiert werden. Im Falle der U-Engine war das zu Beginn auch nicht der Fall, eben weil die Engine zuallererst für Unreal I entwickelt wurde. Das Lizenzgeschäft wurde AFAIK erst später 'entdeckt'.

Was mir im Moment auch immer öfter ( :D ) einfällt, ist die Netimmerse-Engine (->Morrowind). Läuft sauber auf 'ner GeforceMX und auf Radeons (sowohl R100 als auch R200). Und auch (im Vergleich mit aths' GF4Ti) mit durchaus brauchbarer Geschwindigkeit :)

Bei der Unreal I Engine wurde dann ja auch noch weiter gearbeitet.

Bei Lizenzengines erwarte ich auch das sie für alle Karten gute Ergebnisse bringen.

Hatte heute zu diesem Thema eine Teambesprechung.

Demirug
2002-06-11, 20:42:26
Originally posted by Exxtreme

Man kann sich garantiert gegen sowas vertraglich absichern. Wenn die Entwickler es nicht tun - Pech. Ausserdem leidet der Ruf der Entwickler und des Publishers durch sowas. Bei Spielen von EA warte ich immer den dritten Patch ab bevor ich es in Erwägung ziehe ein Game zu kaufen. Diese sind meistens so verbuggt, daß man sie kaum spielen kann. Aktuellstes Beispiel ist C&CR. In der zweiten Mission im SinglePlayer-Modus gibt es einen Riesen-Bug. So bald man am Levelanfang respawnt, fällt man irgendwie runter, alles ist weiss und nach 5 sek. kommt eine Meldung, daß man tot ist - toll. Einen Patch gibt's dagegen nicht. Wenn das Game nicht so guten Multiplayermodus hätte, hätte ich es zurückgegeben.

Gruß
Alex

In Deutschland hat man als Entwicklungsstudio ganz schlechte Karte. Man muss schon froh sein überhaupt einen Deal zu bekommen. Und wenn der dann kurz vor dem Ende platzt ist man als kleines Studio (immer nur einen Titel) in der Regel am Ende. Im Moment haben wir in Deutschland ja das große Studiosterben.

Bei den Deals die man im Moment bekommt kann es schon reichen wenn man einen Milestone nicht planmässig erreicht dehalb das Geld nicht erhält um die Finanzlage gefährlich werden zu lassen.

zeckensack
2002-06-11, 21:55:28
Originally posted by aths
MW ist bei mir heftig CPU-limitiert. Bei mir natürlich auch, noch dazu auf sehr niedrigem Niveau durch meinen läppschen 1.2er Duron. Ich meine mich daran zu erinnern, daß du Frameraten beschrieben hast, die ungefähr 50% höher bis doppelt so hoch wie die meinen sind, was eigentlich hinkommen sollte (du hast einen P4 >= 2GHz, richtig ???).

Jedenfalls gibt es keine Abstürze und Grafikfehler mit der Radeon 1 und der GeforceMX. Desweiteren bewegen sich die MX und die Radeon 1 auf ähnlichem Niveau (Radeon 1 ist geringfügig schneller, das schiebe ich auf den DDR-Speicher), sodaß ich hier davon ausgehe, daß keine einseitige Optimierung auf einen Hersteller vorliegt.

Jetzt spiele ich mit meiner neuen Radeon8500LE und bin entzückt. :)

aths
2002-06-11, 23:03:10
Originally posted by zeckensack
(du hast einen P4 >= 2GHz, richtig ???).Richtig.

Originally posted by zeckensack
Jetzt spiele ich mit meiner neuen Radeon8500LE und bin entzückt. :)Reicht die CPU-Limitierung für FSAA aus?

Priest
2002-06-11, 23:24:12
(gelöscht)

zeckensack
2002-06-11, 23:40:25
Originally posted by aths
Richtig.

Reicht die CPU-Limitierung für FSAA aus? Jein. Bei der 1024er-Auflösung macht es im laufenden Spiel eigentlich nichts aus, ob ich ohne AA, oder mit 2xQuality spiele. Allerdings sind die Menüs dann irgendwie stockig. Ich vermute ein Problem zwischen Smoothvision und der Methode, mit der die Overlays dargestellt werden. Schwer zu beschreiben ...

Ein typisches Extremszenario in Balmora zB liegt ohne (wie mit) AA bei ca 15 fps. Wenn ich jetzt ohne AA ein Menü aufklappe, steigt das ganze auf 25~30 fps an. So läßt es sich halbwegs bequem im Inventar und in Vorratskisten wühlen (bin Profi-Alchemist mit Frischluft-Lagerhaltung ;) ).

Schalte ich AA ein, bleibt dieser Anstieg aus und habe schwer mit der Maus zu kämpfen. Irgendwie enttäuschend ;(

Die für meinen Geschmack bessere Lösung (bei meinem Rechner) ist auf 1280x960 raufzugehen und AA ausgeschaltet zu lassen.

Ich habe den Verdacht (reine Spekulation!), daß bei aktiviertem AA Blits (=meine verdächtigte Overlay-Methode) vor der Übertragung auf die Graka von der CPU hochgerechnet werden. Und da ist bei mir halt nicht viel zu holen ;)

Und btw, Quake 3 kann ich entweder
1)in 800x600 4xFSAA halbwegs
2)in 1280x960 ohne FSAA richtig flüssig
spielen. 2xFSAA scheidet unter OpenGL bekanntermaßen aus. Ich bevorzuge Variante 2, bin mithin summa summarum vom FSAA der Karte enttäuscht (muß mal ein paar andere D3D-Spiele ausprobieren ...), andererseits entzückt von der Möglichkeit, in jedem Spiel meinen Monitor am Limit betreiben zu können.

HOT
2002-06-12, 00:01:12
Morrowind nutzt die Netimmerse 4.0, also die erste DX8 Version der Engine. Es ist ja so dass Morrowind einen extremen Overdraw erzeugt, der glücklicherweise skalierbar ist. Ich finde es gut, dass man wenigstens eine Engine gefunden hat, die mit Morrowind, also dem Konzept von Morrowind, überhaupt vernünftig funktioniert. Ich erinnere hier nur an Ultima9.
Ich bezweifle, dass ein solches Game überhaupt auf einer Quake/Unreal Engine aufgebaut werden kann, die sind ja auch nicht dafür entwickelt worden. MMORPG (Morrowind gehäört ja nicht dazu, ist aber grafisch hier einzuordnen) ist schwer im kommen und eins hat ne bessere Grafik als das nächste. Man sehe sich die Screenshots für EQ2 und SW Galaxies an.
DAoC wird demnächst grafisch auch auf den neuesten Stand gebracht und bekommt die Netimmerse 4.0 auch aufgebrummt, die Lizenz für 4.2 ist schon von Mythic auch schon lizensiert worden.
Was mir an Morrowind und DAoC aufgefallen ist, ist die extreme Speicherabhängigkeit. Wenn man FSB hochtaktet, bekommt man bessere Ergebnisse mit Morrowind zustande.
Der neueste MMORGP Streich ist hier zu bewundern:
http://www.codemasters.com/redirect/redirect.php?url=/dragonempires/uk/front.php
hab mich da erstmal angemeldet.
Die Engine ist die nächste Version der OFP Engine.

aths
2002-06-12, 13:10:50
Originally posted by zeckensack
andererseits entzückt von der Möglichkeit, in jedem Spiel meinen Monitor am Limit betreiben zu können. Ich denke, das müsstest du mit Ti200 auch können und sollte jetzt nicht den Grund darstellen. Spielst du alles mit 16x AF?

zeckensack
2002-06-12, 13:20:24
Originally posted by aths
Ich denke, das müsstest du mit Ti200 auch können und sollte jetzt nicht den Grund darstellen. Spielst du alles mit 16x AF? Nein, auch das habe ich mir nach kurzer Testphase wieder abgewöhnt. Trilinear sieht in hohen Auflösungen für meinen Geschmack besser aus als durch Texturschärfe akzentuiertes Mip-Banding ;)
Das wußte ich auch schon zu Zeiten meiner Radeon 1. Die verlor auch fast null Geschwindigkeit. Nur je höher die Auflösung, desto besser wird trilinear, und desto schlimmer wird das Mip-Banding bei Bi-Aniso.

Äh, und in Quake 3 sollten es schon deutlich über 100 fps sein. Sind es jetzt auch. Was bringt denn eine Ti200 so in 1280x960x32? *eg*

Iceman346
2002-06-12, 13:24:37
Ich spiele zwar nur in 1024 aber das Mip Banding fällt mir abseits von Quake 3 kaum bis garnicht auf. Ich habe sowohl in Direct 3D als auch in Open GL dauernd 16x AF angeschaltet.

ow
2002-06-12, 13:36:27
Originally posted by zeckensack
Nein, auch das habe ich mir nach kurzer Testphase wieder abgewöhnt. Trilinear sieht in hohen Auflösungen für meinen Geschmack besser aus als durch Texturschärfe akzentuiertes Mip-Banding ;)
Das wußte ich auch schon zu Zeiten meiner Radeon 1. Die verlor auch fast null Geschwindigkeit. Nur je höher die Auflösung, desto besser wird trilinear, und desto schlimmer wird das Mip-Banding bei Bi-Aniso.




Geht mir genauso.:(

Ich hoffe doch sehr, dass die kommenden ATi Chip endlich qualitativ hochwertiges AF anbieten werden. Eigentlich hatte ich das schon fuer den R8k5 erwartet.

aths
2002-06-12, 13:36:47
Originally posted by zeckensack
Äh, und in Quake 3 sollten es schon deutlich über 100 fps sein. Sind es jetzt auch. Was bringt denn eine Ti200 so in 1280x960x32? *eg* 100 fps, bei 1280x1024.

Hm, du spielst der Radeon zwar mit recht hohen (heute allerdings auch nicht mehr extremen) Auflösungen, aber nur trilinear und ohne Anti-Aliasing? Öff.

zeckensack
2002-06-12, 13:53:32
Originally posted by aths
100 fps, bei 1280x1024.

Hm, du spielst der Radeon zwar mit recht hohen (heute allerdings auch nicht mehr extremen) Auflösungen, aber nur trilinear und ohne Anti-Aliasing? Öff. Das hängt wohl auch vom Spiel ab. Unter OpenGL ist alles unter 4xPerformance kein 'echtes' FSAA. Und dann wird's für Action-Kracher nun wirklich zu langsam. Und auf 640x gehe ich nicht runter, egal wie glatt die Kanten sind ;)

Morrowind frißt Füllrate zum Frühstück und braucht zwingend hohe Auflösungen (Menüs). Auch hier also nichts zu holen.

Ich bin schon noch recht zuversichtlich, das eine oder andere Spiel zu finden, in dem ich FSAA nutzen kann, vorzugsweise gemütlich und unter Direct3D.

Nur habe ich außer Morrowind und Quake 3 noch nichts gespielt ;)

edit: 1280x960 ist übrigens das Limit für meinen Monitor. Mit ach und Krach 85Hz (86kHz Horizontalfrequenz, 1280x1024 max). Und bevor du dich über diesen vermeintlichen Widerspruch wunderst: eine 'richtige' Auflösung hat ein 4 zu 3 Seitenverhältnis, alles andere ist Quatsch *eg*

aths
2002-06-12, 15:20:37
Originally posted by zeckensack
Und bevor du dich über diesen vermeintlichen Widerspruch wunderst: eine 'richtige' Auflösung hat ein 4 zu 3 Seitenverhältnis, alles andere ist Quatsch *eg* Gerade in 3D-Spielen (im Gegensatz zu 2D-Spielen) finde ich 1280x1024 ziemlich sinnvoll. Noch mal zur AF-Thematik: Was ich auf Screenshots so sehe, sieht eigentlich meistens recht brauchbar aus. Wird das MIP-Banding Artefakt durch Bewegung wirklich so extrem verstärkt? Den meisten Radeon-Besitzern scheint es jedenfalls relativ wenig auszumachen.

Mephisto
2002-06-12, 15:39:44
Originally posted by zeckensack
2xFSAA scheidet unter OpenGL bekanntermaßen aus. Warum? (ernstgemeinte Frage!)

zeckensack
2002-06-12, 16:14:33
Originally posted by Mephisto
Warum? (ernstgemeinte Frage!) Weil Smoothvision unter OpenGL nur nach der 'Ordered Grid'-Methode funktioniert. Siehe dazu auch aths' Artikel. 2xFSAA arbeitet dann mit einem festen 2x1-Raster.

Zu Deutsch: Nur bei annähernd waagrechten Kanten wirkt die Glättung überhaupt, bei annähernd senkrechten Kanten sind die 'Jaggies' genauso stark, wie ohne FSAA. Und sowas lasse ich mir nicht bieten. Dann erhöhe ich lieber in beide Richtungen die Auflösung.

aths:
Eine ähnliche Begründung biete ich für meine Abscheu gegenüber der 1280x1024er Auflösung. Die Pixel sind nicht quadratisch, die Auflösung wird daher IMO nicht sinnvoll über den Bildschirm verteilt ;)
Zum Bilinear AF: Die Mipmap-Stufen kannst du dir sicher auch auf deiner Geforce anschauen ;).
Dazu kommen noch diese dusseligen Bewegungsartefakte durch die AF-Annäherung. Am irritierendsten ist es, wenn man (bei hohen fps) im Stand den Blick langsam hebt oder senkt. Es mag ein kleiner Fehler sein, aber mich stört sowas. Ich hole mir die durch's trilinieare Filtern verlorene Schärfe lieber mit einer hohen Auflösung zurück, als diese beiden 'Fehler' in Kauf zu nehmen.

PS: Realistischer ist's sowieso. Verstehe das einfach als Kurzsichtigkeits-Simulator. In der Tiefe wird's unscharf. Dafür brauchte 3dfx noch einen extra T-Buffer :lol: :D

StefanV
2002-06-12, 19:17:44
zu 1280x1024

Diese Auflösung stammt aus grauer Vorzeit, als Monitore generell unscharf waren (verglichen mit heutigen Streifenmasken)

Wenn man 1280x1024 'richtig' sehen will, dann muß man es mit entsprechenden Tools entsprechend einstellen.
Allerdings hat man dann einen Rand...

Labberlippe
2002-06-12, 19:24:23
Originally posted by zeckensack
Nein, auch das habe ich mir nach kurzer Testphase wieder abgewöhnt. Trilinear sieht in hohen Auflösungen für meinen Geschmack besser aus als durch Texturschärfe akzentuiertes Mip-Banding ;)
Das wußte ich auch schon zu Zeiten meiner Radeon 1. Die verlor auch fast null Geschwindigkeit. Nur je höher die Auflösung, desto besser wird trilinear, und desto schlimmer wird das Mip-Banding bei Bi-Aniso.

Äh, und in Quake 3 sollten es schon deutlich über 100 fps sein. Sind es jetzt auch. Was bringt denn eine Ti200 so in 1280x960x32? *eg*

Hi

Ich komme mit der Hercules R8500 250/250 auf 121 fps. noch unoptimiert.
Auflösung 1280x1024 in 32 Bit.
Proz. XP 1800+

Gruss Labberlippe

aths
2002-06-12, 19:49:39
Originally posted by zeckensack
Weil Smoothvision unter OpenGL nur nach der 'Ordered Grid'-Methode funktioniert. Siehe dazu auch aths' Artikel. 2xFSAA arbeitet dann mit einem festen 2x1-Raster.Nee, sondern 1x2 Raster (X*Y :))
Originally posted by zeckensack
Zu Deutsch: Nur bei annähernd waagrechten Kanten wirkt die Glättung überhaupt, bei annähernd senkrechten Kanten sind die 'Jaggies' genauso stark, wie ohne FSAA. Und sowas lasse ich mir nicht bieten. Dann erhöhe ich lieber in beide Richtungen die Auflösung.Das Problem besteht bei GF3/4 zwischen 2x RG und 4xS (2x RG mit 1x2 SS). Selbst wenn nur eine Achse feiner aufgelöst wird ist das immer noch besser, als wenn keine Achse feiner aufgelöst wird.
Originally posted by zeckensack
Eine ähnliche Begründung biete ich für meine Abscheu gegenüber der 1280x1024er Auflösung. Die Pixel sind nicht quadratisch, die Auflösung wird daher IMO nicht sinnvoll über den Bildschirm verteilt ;)Das ist schon sinnvoll. Umso mehr Zeilen, umso heller das Bild. Um Füllrate zu sparen kann man auf der X-Achse ruhig etwas weniger Pixel nehmen. Das wird ja z.B. sowohl beim TV-Signal als auch bei VHS ganz ähnlich gemacht. (Wo man natürlich nicht Füllrate, sondern Übertragungsbandbreite spart.) Durch mehr Zeilen gewinnt auch Computergrafik eher als durch zusätzliche Spalten: Der Weg vor dem Avatar ist feiner aufgelöst, die Horitonz-Linie ist weniger treppig etc.
Originally posted by zeckensack
Zum Bilinear AF: Die Mipmap-Stufen kannst du dir sicher auch auf deiner Geforce anschauen ;).Hab ich noch gar nicht probiert. Das nächste mal in Quake...
Originally posted by zeckensack
Dazu kommen noch diese dusseligen Bewegungsartefakte durch die AF-Annäherung. Am irritierendsten ist es, wenn man (bei hohen fps) im Stand den Blick langsam hebt oder senkt. Es mag ein kleiner Fehler sein, aber mich stört sowas. Ich hole mir die durch's trilinieare Filtern verlorene Schärfe lieber mit einer hohen Auflösung zurück, als diese beiden 'Fehler' in Kauf zu nehmen.Den Artefakt kann ich jetzt nicht nachvollziehen.
Originally posted by zeckensack
PS: Realistischer ist's sowieso. Verstehe das einfach als Kurzsichtigkeits-Simulator. In der Tiefe wird's unscharf. Dafür brauchte 3dfx noch einen extra T-Buffer :lol: :D Naja, DoF ist ja doch ein 'wenig' anders und auch noch fokussierbar. (Ich verwöhnter Bengel finde trilineare Grafik inzwischen zum sich übergeben.)

Unregistered
2002-06-14, 03:23:34
Originally posted by Unregistered
Tja, ich denke dieses Thema wird vorallem auch Subjektiv davon beeinflusst wieviel Geld ein jeder für eine Grafikkarte übrig hat.


Laut einer Umfrage bei 3dconcept (http://www.hardwareconcept.de/umfragen/0600/) wollen zwei Drittel der Befragten nicht mehr als 250 EUR (500 DM) für eine neue Grafikkarte ausgeben. Mehr als 250 EUR macht ja auch nicht wirklich Sinn.

http://www.hardwareconcept.de/umfragen/0600/0600.gif

Und da die Teilnehmer der Umfrage, also Leser einer 3D-Hardware-Site, sicher nicht repräsentativ sind, weil sie ihr Hobby teurer finanzieren als die Durchschnittsspieler, dürfte die Schmerzgrenze für den Durchschnittsspieler noch weit niedriger liegen. Sicher unter 200 EUR.

Xmas
2002-06-14, 03:49:10
Originally posted by Stefan Payne
zu 1280x1024

Diese Auflösung stammt aus grauer Vorzeit, als Monitore generell unscharf waren (verglichen mit heutigen Streifenmasken)

Wenn man 1280x1024 'richtig' sehen will, dann muß man es mit entsprechenden Tools entsprechend einstellen.
Allerdings hat man dann einen Rand...
Hö? Was hat das mit der Unschärfe des Monitors zu tun? Wenn ich das Bild einstellen will, dann mach ich das am Monitor, nicht mit Tools.
1280x1024 ist bei einigen TFTs die native Auflösung.

ZilD
2002-06-14, 11:32:45
neue grafikkarten-generationen werden nie überflüssig sein , weil in der vergangenheit waren sie das bis auf (gforce3) auch nicht.

StefanV
2002-06-14, 13:29:14
Originally posted by Xmas
Hö? Was hat das mit der Unschärfe des Monitors zu tun? Wenn ich das Bild einstellen will, dann mach ich das am Monitor, nicht mit Tools.
1280x1024 ist bei einigen TFTs die native Auflösung.

1. heute nicht viel, damals wohl etwas mehr...
Wie gesagt, 1280x1024 stammt aus grauer Vorzeit (k/a, wann diese Auflösung 'ausgedacht' wurde)...

2. schon richtig, nur brauchst du bei 1280x1024 Tools, damit du das richtige Seitenverhältnis hinbekommst.
Bei allen anderen Auflösungen ist es einfach:
Einfach Bild so einstellen, daß es schirmfüllend ist, bei 1280x1024 ist das nicht soo schön, da dabei die Geometrie nicht stimmt (ein Kreis wird zur Elipse).

3. TFTs sind Festfrequenz Geräte ;)
Entsprechend ist bei den 1280x1024 das Seitenverhältnis...
Ich sprach ja von 'normalen' 4:3 Monitoren.

zeckensack
2002-06-14, 13:32:30
Wie sieht das eigentlich bei den 1280x1024-TFTs aus? Sind die Pixel quadratisch, oder eher nicht ???

Oder andersrum gefragt, hat der Schirm ein 5:4 Seitenverhältnis, oder 4:3?

Labberlippe
2002-06-14, 13:43:02
Hi

Hier gibt es den Patch.

http://www.hartware.net/news.html?id=26160

Bin gespannt wie die Werte jetzt sind.

Support für zukünftige Direct Versionen
Support für AGP 3.0 (AGP 8x)
Support und Identifikation neuer Hardware
Weitere Bugfixes

Gruss Labberlippe

Andre
2002-06-14, 13:46:03
Originally posted by Labberlippe
Hi

Hier gibt es den Patch.

http://www.hartware.net/news.html?id=26160

Bin gespannt wie die Werte jetzt sind.

Support für zukünftige Direct Versionen
Support für AGP 3.0 (AGP 8x)
Support und Identifikation neuer Hardware
Weitere Bugfixes

Gruss Labberlippe

Falscher Thread, LL?

StefanV
2002-06-14, 13:48:58
Originally posted by zeckensack
Wie sieht das eigentlich bei den 1280x1024-TFTs aus? Sind die Pixel quadratisch, oder eher nicht ???

Oder andersrum gefragt, hat der Schirm ein 5:4 Seitenverhältnis, oder 4:3?

Sind AFAIK 5:4 Schirme...

StefanV
2002-06-14, 13:50:00
Originally posted by Andre
Falscher Thread, LL?

kommt vor, wenn man 20 Browser Fenster geöffnet hat ;)

Ist mir auch schon passiert (WAS ist mir eigentlich noch nicht passiert??)

Labberlippe
2002-06-14, 13:52:46
Originally posted by Andre


Falscher Thread, LL?

Verdammt. Argh

:)

Gruss Labberlippe

nocturne
2002-06-14, 14:28:16
Originally posted by Unregistered

Laut einer Umfrage bei 3dconcept (http://www.hardwareconcept.de/umfragen/0600/) wollen zwei Drittel der Befragten nicht mehr als 250 EUR (500 DM) für eine neue Grafikkarte ausgeben. Mehr als 250 EUR macht ja auch nicht wirklich Sinn.

http://www.hardwareconcept.de/umfragen/0600/0600.gif

Und da die Teilnehmer der Umfrage, also Leser einer 3D-Hardware-Site, sicher nicht repräsentativ sind, weil sie ihr Hobby teurer finanzieren als die Durchschnittsspieler, dürfte die Schmerzgrenze für den Durchschnittsspieler noch weit niedriger liegen. Sicher unter 200 EUR.

Interessant ist auch der Vergleich zu einer früheren Umfrage bei 3dconcept, wo die meisten nur 100-150 EUR für eine neue Umfrage ausgeben wollten. Man beachte, dass die Angaben noch in DM und nicht in Euro waren:

http://www.hardwareconcept.de/umfragen/0600/vergleich.gif

Insofern wäre bestimmt mal ein aktuellerer Poll hier im Forum interessant. Ich mach mal einen Vorschlag. Vielleicht könnte ja ein Moderator hier einen neuen Poll-Thread aufmachen? =)

Wieviel würdet Ihr für eine neue Grafikkarte ausgeben?

[ ] bis 50 EUR (100 DM)
[ ] 50 bis 100 EUR (100 bis 200 DM)
[ ] 100 bis 150 EUR (200 bis 300 DM)
[ ] 150 bis 200 EUR (300 bis 400 DM)
[ ] 200 bis 250 EUR (400 bis 500 DM)
[ ] 250 bis 300 EUR (500 bis 600 DM)
[ ] 300 bis 400 EUR (600 bis 800 DM)
[ ] 400 bis 500 EUR (800 bis 1000 DM)
[ ] mehr als 500 EUR (1000 DM)

Xmas
2002-06-14, 22:27:41
Originally posted by Stefan Payne
1. heute nicht viel, damals wohl etwas mehr...
Wie gesagt, 1280x1024 stammt aus grauer Vorzeit (k/a, wann diese Auflösung 'ausgedacht' wurde)...
Die meisten üblichen Auflösungen stammen aus "grauer Vorzeit". Grafikkarten wären theoretisch in der Lage jede beliebige Auflösung (oder zumindest durch 4 teilbare) darzustellen, wenn das der Treiber anbieten würde.
Aber was hat diese Auflösung mit der Unschärfe von Monitoren zu tun? Wo soll da ein Zusammenhang sein?

2. schon richtig, nur brauchst du bei 1280x1024 Tools, damit du das richtige Seitenverhältnis hinbekommst.
Bei allen anderen Auflösungen ist es einfach:
Einfach Bild so einstellen, daß es schirmfüllend ist, bei 1280x1024 ist das nicht soo schön, da dabei die Geometrie nicht stimmt (ein Kreis wird zur Elipse).
Du hast doch davon gesprochen, dass man dann einen Rand hat. Stelle ich das Bild am Monitor so ein, dass die Pixel wieder quadratisch sind, habe ich einen Rand...
Ansonsten sollte es möglich sein, unter Windows Schriften und Vektorgrafik an das Seitenverhältnis anzupassen, Bitmaps bleiben allerdings verzerrt. Für 3D-Spiele dagegen ist es unerheblich, die gehen praktisch immer von einem realen 4:3-Verhältnis aus bzw. horizontales FOV ist veränderbar (weswegen die ersten Surround Gaming Bilder von Matrox verzerrte 2D-Anzeigen haben)

3. TFTs sind Festfrequenz Geräte ;)
Entsprechend ist bei den 1280x1024 das Seitenverhältnis...
Ich sprach ja von 'normalen' 4:3 Monitoren.
Ich weiß jetzt nicht was du mit "Festfrequenz" meinst, TFTs bieten üblicherweise einen Bildwiederholfrequenzbereich von 50-75Hz oder ähnlich.
Klar, die haben dann ein 5:4-Verhältnis. Aber das bezog sich nur darauf dass es sich so anhörte als würdest du diese Auflösung als ein überflüssiges Relikt aus grauer Vorzeit betrachten.

Unregistered
2002-06-14, 23:31:28
Originally posted by nocturne
Interessant ist auch der Vergleich zu einer früheren Umfrage bei 3dconcept, wo die meisten nur 100-150 EUR für eine neue Umfrage ausgeben wollten.Ich könnte diese Frage nicht beantworten.
Preis-/Leistung ist für mich der Schlüsselbegriff. Wenn es eine Super-Karte ist, die in 2D und in 3D für bessere Bildqualität und - bei sonst gleichbleibenden Komponenten - für höhere Geschwindigkeit sorgt, kann sie bis zu 500 Euro kosten. Soviel hat die GF3 damals gekostet, und ich hab sie sofort gekauft.
Aber wenn die neue Karte nur mit zusätzlicher Rechner-Modernisierung richtig Sinn macht, oder wenn sie sich derbe Schnitzer in 2D / 3D leistet, würde ich wesentlich weniger einkalkulieren, auch abhängig von den sonstigen Investitionen.

StefanV
2002-06-15, 00:01:08
Originally posted by Xmas


Ich weiß jetzt nicht was du mit "Festfrequenz" meinst, TFTs bieten üblicherweise einen Bildwiederholfrequenzbereich von 50-75Hz oder ähnlich.

Klar, die haben dann ein 5:4-Verhältnis. Aber das bezog sich nur darauf dass es sich so anhörte als würdest du diese Auflösung als ein überflüssiges Relikt aus grauer Vorzeit betrachten.

1. TFTs sind für eine Feste Auflösung vorgesehen, eine 'Widerholrate' gibt es nicht mehr in dem Sinne, in dem es sie bei CRTs sind...
Ist eher eine 'Aktualisierungsrate'.

2. Ja, das sehe ich in etwa so.
Ist einer der Fehlgriffe von damals, aber wird heutzutage glücklicherweise zunehmend von 1280x960 abgelöst...
Damals war es unerhablich, da die Monitore zum Rand hin unscharf waren, daher war es damals durchaus sinnig.

Nur kann man heute sagen, daß es in der PC Industrie eine Menge Fehlgriffe gab, die leider bis heute kaum/garnicht ausgemerzt wurden...

Xmas
2002-06-15, 01:40:46
Originally posted by Stefan Payne
1. TFTs sind für eine Feste Auflösung vorgesehen, eine 'Widerholrate' gibt es nicht mehr in dem Sinne, in dem es sie bei CRTs sind...
Ist eher eine 'Aktualisierungsrate'.
Klar, aber aus Sicht der Grafikkarte ist es immer noch die "Bildwiederholrate". Und diese Rate ist auch bei TFTs variabel.

2. Ja, das sehe ich in etwa so.
Ist einer der Fehlgriffe von damals, aber wird heutzutage glücklicherweise zunehmend von 1280x960 abgelöst...
Damals war es unerhablich, da die Monitore zum Rand hin unscharf waren, daher war es damals durchaus sinnig.
Die Tatsache dass TFTs immer weitere Verbreitung finden und dass bessere 17"/18"-TFTs meist 1280x1024 als native Auflösung haben, sollte eigentlich andeuten dass diese Auflösung kein "Fehlgriff" ist.

Monitore, die zum Rand hin unscharf werden, sind aber von vornherein nicht für 1280x1024 geeignet...

Nur kann man heute sagen, daß es in der PC Industrie eine Menge Fehlgriffe gab, die leider bis heute kaum/garnicht ausgemerzt wurden...
Das stimmt wohl...

jedi
2002-06-16, 20:02:32
Originally posted by zeckensack
Wie sieht das eigentlich bei den 1280x1024-TFTs aus? Sind die Pixel quadratisch, oder eher nicht ???

Oder andersrum gefragt, hat der Schirm ein 5:4 Seitenverhältnis, oder 4:3?

Die Pixel sind quadratisch. Auf einem 17''/18''-TFT sind 1280x1024 optimal. Auf einem 19''-Röhrenmonitor wären 1280x960 optimal und verzerrungsfrei. Die meisten Grafikkartentreiber bieten 1280x960 auch standardmässig an. Die von ATI standardmäßig nicht. Keine Ahnung, warum ATI das nicht auf die Reihe kriegt...

zeckensack
2002-06-16, 20:26:12
Das weiß ich auch nicht. Zum Glück kann man das kostenlos freischalten. Hmmm, da war doch was, was ein anderer großer Hersteller nicht hinbekommen hat, man mußte dafür sogar ein Tool kaufen. Was war das denn noch gleich ... ??? :D

Exxtreme
2002-06-16, 20:27:53
LOL
Oder einen Tweaker benutzen muss wenn man unter D3D anisotropen Filter benutzen will...

Gruß
Alex

StefanV
2002-06-16, 22:16:12
Wobei ich immer noch nicht verstehen kann, warum es 3DFX nicht mehr gibt, die hatten alle Einstellungen, die man braucht *eg*

Naja, hätten wohl die V4 und V5 besser mit 'nem DVI und TV Out bestückt :naughty:

nocturne
2002-06-17, 00:33:37
Originally posted by jedi

Auf einem 19''-Röhrenmonitor wären 1280x960 optimal und verzerrungsfrei. Die meisten Grafikkartentreiber bieten 1280x960 auch standardmässig an. Die von ATI standardmäßig nicht. Keine Ahnung, warum ATI das nicht auf die Reihe kriegt...

Weil QUACK selten in dieser Auflösung gebencht wird? *eg*

aths
2002-06-17, 00:46:46
Originally posted by jedi
Die meisten Grafikkartentreiber bieten 1280x960 auch standardmässig an. Die von ATI standardmäßig nicht. Keine Ahnung, warum ATI das nicht auf die Reihe kriegt... Mindestens 3dfx bot auch 960x720 standardmäßig an. Die Treiber von NVidia nicht. Keine Ahnung, warum die das nicht auf die Reihe kriegen.

Salvee
2002-06-17, 00:58:38
Originally posted by aths
Mindestens 3dfx bot auch 960x720 standardmäßig an. Die Treiber von NVidia nicht. Keine Ahnung, warum die das nicht auf die Reihe kriegen.

Also, meine 4MB Riva128 hatte diese Auflösung aber in Quake2. Lief sogar einigermassen erträglich (15-20 fps). Was haben die Treiber nachgelassen ! ;D

StefanV
2002-06-17, 01:08:11
Originally posted by aths
Mindestens 3dfx bot auch 960x720 standardmäßig an. Die Treiber von NVidia nicht. Keine Ahnung, warum die das nicht auf die Reihe kriegen.

Ja, stimmt.

Die 3DFX Treiber bieten einfach die meisten Auflösungen.

z.B. 786x576 und noch ein 'paar' andere auch...

StefanV
2002-06-17, 01:09:18
Originally posted by Salvee


Also, meine 4MB Riva128 hatte diese Auflösung aber in Quake2. Lief sogar einigermassen erträglich (15-20 fps). Was haben die Treiber nachgelassen ! ;D

Naja, wenn es schlimmer als Riva128 geworden wäre, dann gäbe es NV jetzt nicht mehr *eg*

Quasar
2002-06-17, 02:03:38
Originally posted by aths
Mindestens 3dfx bot auch 960x720 standardmäßig an. Die Treiber von NVidia nicht. Keine Ahnung, warum die das nicht auf die Reihe kriegen.

Weils schlicht unnötig ist? Wer kauft sich schon eine 3D-Graka für einen altersschwachen 14-Zoll Monitor?

Für 3D-Darstellung wird diese Auflösung ja auch angeboten...siehe Q3-Engine.

ow
2002-06-17, 09:37:44
Originally posted by aths
Mindestens 3dfx bot auch 960x720 standardmäßig an. Die Treiber von NVidia nicht. Keine Ahnung, warum die das nicht auf die Reihe kriegen.



Mindestens NVidia bot auch 848x480 standardmäßig an. Die Treiber von 3dfx nicht. Keine Ahnung, warum die das nicht auf die Reihe kriegen.

ow
2002-06-17, 09:38:39
Originally posted by Exxtreme
LOL
Oder einen Tweaker benutzen muss wenn man unter D3D anisotropen Filter benutzen will...

Gruß
Alex


So wie fuer meine Radeon1, gelle?

ow
2002-06-17, 09:39:42
Originally posted by Stefan Payne


Ja, stimmt.

Die 3DFX Treiber bieten einfach die meisten Auflösungen.

z.B. 786x576 und noch ein 'paar' andere auch...


Nein, Stefan, die Aufloesung ist 768x576 und das kann auch meine Gf2MX.

StefanV
2002-06-17, 10:18:54
Originally posted by ow

Mindestens NVidia bot auch 848x480 standardmäßig an. Die Treiber von 3dfx nicht. Keine Ahnung, warum die das nicht auf die Reihe kriegen.

Matrox kann 848x480 auch, nur frag ich mich, wozu die gut sein soll!!

Ein 16:9 Format macht ja auch viel Sinn...

Insbesondere, da die einzigen 16:9 Monitore, die mir bekannt sind, 24" Modelle sind...

HOT
2002-06-17, 10:24:32
Jede Karte kann jede Auflösung, die der RAMDAC hergibt. Es ist eben nur ne Sache der relevanz.
Beim Riva128 war 960x720 sehr wichtig, da dieser nur 4MB Speicher besass.

ow
2002-06-17, 12:48:36
Nein HOT.
Jede Karte kann die Aufloesungen, die im Treiber programmiert sind.

Ob diese Aufloesungen auch alle im .inf file des Treibers drin stehen ist eine andere Sache.

HOT
2002-06-17, 13:06:50
Das ist schon richtig, ow, aber jeder Treiber enthält alle Standartauflösungen + PAL, NTSC und HDTV. Ich kann micht noch gut an einen Elsatreiber erinnern, bei dem du die Auflösung Pixelgenau einstellen konntest (war glaub ich zu TNT Zeiten).
Die Auflösung sind nur 2 Zahlen, die geändert werden können, mehr nicht.

ow
2002-06-17, 13:15:43
Nein, pixelgenaue Einstellung der Aufloesung auf 4Pixel war eine ELSA Spezialitaet. Daa konnte schon meine Victory3D mit dem originalen S3Virge Chip (325).

Und es muss im Treiber so geproggt werden.
Kannst dir ja mal das DXDDK (driver development kit) von M$ saugen, da ist der Quellcode eines Sample-Drivers mit dabei.

nocturne
2002-06-17, 13:25:25
Originally posted by HOT
Jede Karte kann jede Auflösung, die der RAMDAC hergibt. Es ist eben nur ne Sache der relevanz.

Eben. Und 1280x960 ist auf heutigen 19''-Monitoren sehr relevant, und das können die ATI-Treiber nicht von Haus aus.

grandmasterB
2002-06-17, 14:15:11
Wie's scheint sind die PowerVR Treiber richtig gut.
Ich kann hier auf meinem 19"er bequem in 1280x960 und in 1280x1024 rumsurfen.
Ich fahr auf der 1280x1024er Schiene, obwohl se nicht 4:3 is. Aber wenn juckts. Wird nicht arg verzerrt.

Quasar
2002-06-17, 14:22:00
Originally posted by ow
Nein, pixelgenaue Einstellung der Aufloesung auf 4Pixel war eine ELSA Spezialitaet. Daa konnte schon meine Victory3D mit dem originalen S3Virge Chip (325).

Und es muss im Treiber so geproggt werden.
Kannst dir ja mal das DXDDK (driver development kit) von M$ saugen, da ist der Quellcode eines Sample-Drivers mit dabei.

AFAIK ging das mit Matrox auch, und sogar mit Powerstrip konnte man mal individuelle Auflösungen erzeugen, wenn ich mich recht erinnere.

nocturne
2002-06-17, 14:44:06
Originally posted by grandmasterB
Ich kann hier auf meinem 19"er bequem in 1280x960 und in 1280x1024 rumsurfen.

Auf nVidia-Treibern ebenfalls kein Problem. 1280x960 ist Standard auf einem 19''er.

aths
2002-06-17, 15:02:50
Originally posted by Quasar
Für 3D-Darstellung wird diese Auflösung ja auch angeboten...siehe Q3-Engine. Ja, und läuft dann aber in Wahrheit im 1024x768-Modus, mit dickem Rand...

aths
2002-06-17, 15:04:13
Originally posted by ow
Nein, Stefan, die Aufloesung ist 768x576 und das kann auch meine Gf2MX. Standardmäßig?

Salvee
2002-06-17, 15:16:53
Gibt es eigentlich einen trifftigen Grund, warum 1280x960 standardmässig nicht von ATi unterstützt wird? Am Programmieraufwand sollte es wohl nicht liegen ;) .

ow
2002-06-17, 16:53:56
Originally posted by aths
Standardmäßig?

Nein.:D

ow
2002-06-17, 16:55:25
Originally posted by Salvee
Gibt es eigentlich einen trifftigen Grund, warum 1280x960 standardmässig nicht von ATi unterstützt wird? Am Programmieraufwand sollte es wohl nicht liegen ;) .


AFAIK wird der Modus von ATi unterstuetzt. Es fehlen 'nur' die entsprechenden "Modes" Eintraege fuer die Registry. Warum weiss wohl auch ATi nicht, einen Grund gibt es nicht dafuer.

jedi
2002-06-17, 16:57:37
Originally posted by Salvee
Gibt es eigentlich einen trifftigen Grund, warum 1280x960 standardmässig nicht von ATi unterstützt wird? Am Programmieraufwand sollte es wohl nicht liegen ;) .

Die ATI-Treiberabteilung war zu sehr damit beschäftigt, nach Strings wie "Quake" ... ähhh ... "Quack" zu suchen?
*eg*

nocturne
2002-06-19, 15:38:56
Originally posted by jedi
Die ATI-Treiberabteilung war zu sehr damit beschäftigt, nach Strings wie "Quake" ... ähhh ... "Quack" zu suchen?
*eg*

Was heisst hier "Abteilung"? Das ist nur ein Praktikant. ;)

StefanV
2002-06-19, 20:38:26
Originally posted by ow

Nein.:D

Tja, siehst du, das ist der Unterschied...

Bei den 3DFX Treibern ist das per default aktiviert, kannst also den Desktop mit der 'PAL' Auflösung fahren *eg*

Ohne in der Registry rumzupfuschen...

bambo
2002-06-19, 21:57:28
Originally posted by Priest
Ich gehöre zu denen, die sich nur dann eine neue Karte kaufen, wenn Spiele anfangen zu ruckeln. Momentan bin ich bei einer GF2 pro und kann mich noch immer nicht beklagen.

Ich schätze mal, dass Doom 3 erst in ca. einem Jahr oder später erscheint. Dann wird sich auch klären, was man braucht um Spiele mit dieser Engine flüssig und in guter Qualität zu spielen. Was das sein wird, und was dann am preiswertesten sein wird, steht in den Sternen.

Cu P.

Gesunde Einstellung. Ich kaufe auch erst jetzt meine erste DX8-Karte, und zwar eine preiswerte GF4-Ti4200. Die hält dann mindestens bis Ende nächsten Jahres für alle Spiele.

Xmas
2002-06-20, 03:38:39
Originally posted by Salvee
Gibt es eigentlich einen trifftigen Grund, warum 1280x960 standardmässig nicht von ATi unterstützt wird? Am Programmieraufwand sollte es wohl nicht liegen ;) .
Vermutlich haben sich nur die User noch nicht laut genug beschwert ;). Der Programmieraufwand ist praktisch Null, es müssen lediglich ein paar Zahlen zu einer Liste hinzugefügt werden.

nocturne
2002-06-20, 14:11:12
Originally posted by Xmas

Vermutlich haben sich nur die User noch nicht laut genug beschwert ;). Der Programmieraufwand ist praktisch Null, es müssen lediglich ein paar Zahlen zu einer Liste hinzugefügt werden.

Oft reagiert ein Hersteller wie ATI doch erst, wenn sich nicht nur die User beschweren, sondern es auch richtig in der Presse oder auf einer Website kritisiert wird.

Wie wär's, 3dcenter? ;)

Eine 1280x960-Petition auf einer ATI-Fansite würde wahrscheinlich auch Wirkung zeigen.

AlfredENeumann
2002-06-20, 18:36:34
Originally posted by nocturne


Oft reagiert ein Hersteller wie ATI doch erst, wenn sich nicht nur die User beschweren, sondern es auch richtig in der Presse oder auf einer Website kritisiert wird.

Wie wär's, 3dcenter? ;)

Eine 1280x960-Petition auf einer ATI-Fansite würde wahrscheinlich auch Wirkung zeigen.

Dazu muß sich aber erstmal jemand bei ATI melden. Wenn es keiner macht, sondern einfach nur in irgendwelchen Foren jammert bringt alles nix.
http://apps.ati.com/driverfeedback/index.asp hier werden Sie gehört.

aths
2002-06-20, 21:24:23
Dann möchte ich aber auch 960x720 im Deto haben!

Andre
2002-06-20, 21:43:28
Originally posted by aths
Dann möchte ich aber auch 960x720 im Deto haben!

Es hindert dich keiner daran, an NV zu schreiben.

jedi
2002-06-20, 22:01:40
Will er doch gar nicht. Er will doch nur wie immer gegen nV stänkern, oder glaubst Du, er braucht diese Auflösung mit seiner High-End-Karte für einen 14''-Monitor? ;)

:nono:

StefanV
2002-06-20, 22:07:30
Originally posted by jedi
Will er doch gar nicht. Er will doch nur wie immer gegen nV stänkern, oder glaubst Du, er braucht diese Auflösung mit seiner High-End-Karte für einen 14''-Monitor? ;)

:nono:

Nein, aber ich brauch diese Auflösung für meinen Philips 17er...

Dann Rechne mal aus, wie weit 58kHz reichen...

jedi
2002-06-20, 22:23:59
Originally posted by Stefan Payne
Nein, aber ich brauch diese Auflösung für meinen Philips 17er...
Dann Rechne mal aus, wie weit 58kHz reichen...
ROTFL!
:rofl: :lol:

Da verdirbt er sich selber die Augen mit einem 58kHz-17''er und labert andererseits die ganze Zeit von "Signalqualität"

:lol: :rofl:

aths
2002-06-20, 22:27:51
Originally posted by jedi
Will er doch gar nicht. Er will doch nur wie immer gegen nV stänkern, oder glaubst Du, er braucht diese Auflösung mit seiner High-End-Karte für einen 14''-Monitor? ;)Eben, jedi. Wie schon mal gesagt steht uns nV-Stänkerern ein riesiges Netzwerk zur Verfügung. Von dunklen Dämonen eingenommen haben wir nur eins im Sinn: nV überall schlechtzumachen. Dazu ist uns kein Mittel zu peinlich, keine Formulierung zu fragwürdig, kein Flameversuch zu albern. Das wird sogar von höchster Stelle gesponsort: Wie gesagt ist 3DCenter erwiesenermaßen eine tückische nV-Hetzseite. Unglaublich, was man euch, die ihr noch klar bei Verstand seid, hier antut!

Schade, dass du überall sofort zu erkennen glaubst dass wer gegen nV sei, nur weil er Verbesserungsvorschläge anbringt.

Trotz 19-Zoll-Moni, der bei 1600x1200 mit 85 Hz läuft, habe ich gerne die Auswahl. nV bietet alle möglichen unsinnigen Modi an, wie z.B. 1280x768. Ich würde als Übergang zwischen 800x600 und 1024x768 gerne noch 960x720 haben. Bei 3dfx war das jedenfalls kein Problem.

nocturne
2002-06-21, 01:22:19
Originally posted by AlfredENeumann
Dazu muß sich aber erstmal jemand bei ATI melden. Wenn es keiner macht, sondern einfach nur in irgendwelchen Foren jammert bringt alles nix.

Einzelpersonen kann der ATI-Support locker ignorieren, oder glaubst Du, es hätte sich bei denen deswegen noch keiner beschwert? ATI ist nur scharf drauf, in Reviews gut auszusehen, wie man am Quack-Cheat sehen kann. Solange man in keinem ATI-Karten-Review liest, dass der Tester bemängelt, dass ATI noch nicht mal die Standardauflösung für einen 19''-Monitor unterstützt, wird sich daran wohl nicht viel ändern...

nocturne
2002-06-21, 01:40:11
Originally posted by jedi


Da verdirbt er sich selber die Augen mit einem 58kHz-17''er und labert andererseits die ganze Zeit von "Signalqualität"

:lol: :rofl:

Muhahahahahaaaa! ;D

http://www.comicforum.de/comicforum/images/smilies/ola.gif

aths
2002-06-21, 01:57:25
Angesichts der Postings gewisser Herren, die sich über Leute lustig machen anstatt mit Argumenten zu diskuieren sollte man mal eine Netiquette diskutieren.

nocturne
2002-06-21, 02:07:27
So wie ein gewisser Herr a***, der zwar gerne mit Pöbeleien wie z.B. "Dachschaden" und "nVidioten" um sich wirft, aber selber anfängt zu weinen, wenn er mal etwas kritischer angefasst wird. Und selber liebend gern trollt, aber sich regelmässig über andere angeblichen Trolle entrüstet. Wie war das mit den unterschiedlichen Maßstäben für sich selber und für andere?

:nono:

aths
2002-06-21, 02:25:05
:lol: Getroffene Hunde bellen :D

zeckensack
2002-06-21, 02:48:44
Originally posted by aths
Angesichts der Postings gewisser Herren, die sich über Leute lustig machen anstatt mit Argumenten zu diskuieren sollte man mal eine Netiquette diskutieren. Ach aths, lass mich doch. Immer bin ich der böse. Nur weil ich die Italiener als 'müde Stolperer' bezeichnet habe ... :bawling:

aths
2002-06-21, 03:32:18
zeckensack, die Italiener sind so sauer wegen der Sache, dass Panini den Vertrieb von WM-Stickern in Italien eingestellt hat.

:D

nocturne
2002-06-21, 10:36:18
Originally posted by aths
Getroffene Hunde bellen

:rofl: Ja, wie man sieht.... :lol:

StefanV
2002-06-21, 11:12:40
Originally posted by jedi

ROTFL!

Da verdirbt er sich selber die Augen mit einem 58kHz-17''er und labert andererseits die ganze Zeit von "Signalqualität"

:lol: :rofl:

Was glaubst du denn, warum ich was von Bildqualität Predige??

Weils mir spaß macht, oder weil ich 6 Jahre mit 'nem Monitor leben mußte, der für die Tonne ist??

Übrigens:

Hab jetzt 'nen A901HT am Hauptrechner, der ist 'etwas' besser als der 58kHz Wohnwagen Monitor ;)

Ach ja: die Horizontalfrequenz ist in etwa doppelt so hoch, wie beim alten *eg*

AlfredENeumann
2002-06-21, 12:38:10
Originally posted by nocturne


Einzelpersonen kann der ATI-Support locker ignorieren, oder glaubst Du, es hätte sich bei denen deswegen noch keiner beschwert? ATI ist nur scharf drauf, in Reviews gut auszusehen, wie man am Quack-Cheat sehen kann. Solange man in keinem ATI-Karten-Review liest, dass der Tester bemängelt, dass ATI noch nicht mal die Standardauflösung für einen 19''-Monitor unterstützt, wird sich daran wohl nicht viel ändern...


Deine meinung.

Unregistered
2002-06-21, 22:12:30
Originally posted by AlfredENeumann
Dazu muß sich aber erstmal jemand bei ATI melden. Wenn es keiner macht, sondern einfach nur in irgendwelchen Foren jammert bringt alles nix.
http://apps.ati.com/driverfeedback/index.asp hier werden Sie gehört.

Schon vor langer Zeit gemacht, nix gebracht. ATI pennt weiter.

nocturne
2002-06-22, 21:35:45
Noch mal ein paar Quotes aus diesem Thread:
Originally posted by jedi
Wenn Hersteller wie ATI tatsächlich noch DX9-Chips auf 0.15µ-Basis machen wollten, würden es ziemlich stromfressende Transistormonster werden, die man (u.a. wegen der Hitzeentwicklung bei den vielen Transistoren) nicht sehr hoch takten könnte.

Eine DX9-Karte, deren Chip noch in 0.15µ gefertigt wird, hole ich mir bestimmt nicht.

Originally posted by Labberlippe
Wer behauptet das ATi den R300 in 0,15 unbedingt den Chip fertigt?
Solange die Chips noch nicht am Markt sind kann man nichts genaueres sagen.

Originally posted by Iceman346
Wobei ich dann wahrscheinlich der Karte mit dem 0.13er Fertigungsprozess den Vorrang geben werde einfach weil sie (vorrausichtlich) mehr Leistung bieten wird.

Anscheinend macht ATI den R300 doch nur in 0.15 µ und nicht in 0.13 µ. Falls Ihr die heutigen 3DCenter-News noch nicht gesehen habt, kopiere ich das mal hier rein:


In unserem inzwischen nicht mehr aktuellen Artikel vom 6. Juni zu den zukünftigen ATi-Chips RV250 & R300 hatten wir diese beiden Chips noch als 0.15 micron angenommen, mit den News des 19. Juni schwenkten wir aufgrund neuerer Informationen auf 0.13 micron um - und müssen uns diesbezüglich heute schon wieder korrigieren :-). Denn gemäß einer hochaktuellen ATi-Roadmap vom 16. Juni 2002 sind beide genannten Chips definitiv in 0.15 micron (es sei denn, ATi verschreibt sich in den eigenen Roadmaps). Wie ATi die RV250 mit 60 Millionen Transistoren in 0.15 micron bei 250 MHz noch passiv kühlen will und wie die R300 mit 107 Millionen Transistoren in 0.15 micron die ebenfalls von ATi angegebenen 350 MHz Chiptakt erreichen will, ist uns zwar unklar, nichts desto trotz müssen wir diese in ihrer Eindeutigkeit kaum zu überbietende neuen Information erst einmal so entgegennehmen.

Tür und Tor sind damit natürlich für nVidia geöffnet - denn der Platzhirsch wird dann als einziger Hersteller in diesem Herbst mittels des NV30-Chips in 0.13 micron antreten können. Zwar erwartet man den NV30 (Oktober bis Dezember?) derzeit allgemein etwas später als ATi´s neuen HighEnd-Chip R300 (September?), nVidia kann den kleineren Fertigungsprozeß jedoch in zweierlei Hinsicht zu seinem Vorteil nutzen: Zum einen sollte in 0.13 micron der NV30 höhere Taktraten erreichen können - was durchaus etwas mehr Leistung bringt und zudem auch für das NV30-Marketing gut ist. Und des weiteren sollte sich der NV30 in 0.13 micron auch günstiger herstellen lassen als der R300 in 0.15 micron (wenn die Transistorenanzahl ungefähr gleich liegt, wovon auszugehen ist), womit nVidia mehr Spielraum beim Preis als ATi haben würde. Der ATi-Vorteil des (wahrscheinlich) früheren Starts des R300 könnte sich so schnell wieder relativieren.

StefanV
2002-06-22, 21:52:06
@nocturne & Ronald

Eine Radeon 8500LE verbrät bei 250MHz deutlich weniger Abwärme als eine GF3!!

Es ist also durchaus möglich, daß die RV250 mit 250MHz passiv gekühlt ist.

Nochetwas:

Weder die Transistorzahl, noch die Taktfrequenz oder der Fertigungsprozess sagt was über die Verlustleistung aus!!

Insbesondere bei Grafikchips spielt die Architektur eine Rolle...

Demirug
2002-06-22, 22:05:49
@Stefan Payne:

Natürlich reichen die Angaben über Transistorzahl, Taktfrequenz und Fertigungsprozess nicht aus um etwas über die Verlustleistung zu sagen. Diese entsteht ja nur wenn die Transitoren auch schalten. Daraus ergibt sich aber zwangsläufig das ein Chip der seine Transitoren besser nutzt heiser werden muss. (vergleiche P4 und Athlon)

StefanV
2002-06-22, 22:17:15
@Demirug

Bei einem Grafikchip brauch ich nie alle Teile gleichzeitig.

Durch diesen Umstand kann man den Chip so designen, daß er nicht benötigte Teile deaktiviert, wenn man sie nicht benutzt, was meist einen deutlichen Vorteil verschaffen sollte...

Demirug
2002-06-22, 22:30:55
@Stefan Payne:

Das deaktiviert lohnt sich abe nur wenn die Teile längerfirstig nicht gebraucht werden. Man könnte also den 3D teil deaktivieren wenn man man gerade keine 3d App ausführt.

Teile der Pipeline die nicht gebraucht werden werden können durch entsprechende Gatter umgangen werden und erzeugen dann eben auch keine Wärme. Man kann die entsprechenden Teile natürlich auch durchlaufen und spart damit die für die umgehung notwendige DIE-Fläche.

Ist eben immer eine frage wo man die prioritäten setzt.

zeckensack
2002-06-22, 22:43:57
Ich sag's immer wieder gerne, eine Radeon8500 ist kühl. Nach der patentierten "Daumen-an-den-Kühler-halten"-Methode erreicht sie nach längerem 3D-Betrieb ungefähr Körpertemperatur*, die bei mir momentan nicht krankhaft erhöht ist. Ja, die Karte hat einen Aktivkühler. Trotzdem wage ich es zu bezweifeln, daß sie mit einem ausreichend dimensionierten Passivkühler Probleme hätte. Ich kann ja mal testweise den Lüfter abstecken und einen weiteren Stresstest machen ...

*) Bezieht sich auf den Betrieb bei 275MHz

StefanV
2002-06-23, 00:39:58
Originally posted by zeckensack
Ich sag's immer wieder gerne, eine Radeon8500 ist kühl. Nach der patentierten "Daumen-an-den-Kühler-halten"-Methode erreicht sie nach längerem 3D-Betrieb ungefähr Körpertemperatur*, die bei mir momentan nicht krankhaft erhöht ist. Ja, die Karte hat einen Aktivkühler. Trotzdem wage ich es zu bezweifeln, daß sie mit einem ausreichend dimensionierten Passivkühler Probleme hätte. Ich kann ja mal testweise den Lüfter abstecken und einen weiteren Stresstest machen ...

*) Bezieht sich auf den Betrieb bei 275MHz

Jep, eben ;)

An die Verlustleistung der R8500 bei 250MHz kommt keine GF3 bei 175MHz ran...

Und ich muß es ja wissen, schließlich hatte ich beide Karten...

Xmas
2002-06-23, 01:16:54
Also ne GF3Ti200 lässt sich bei 175 MHz hervorragen passiv kühlen. Mag ja sein, dass eine R200 noch kühler ist, aber entscheidend ist ja wohl eher, wie ATI (und deren Partner) die Karten ausliefern. Denn wenn die alle aktiv gekühlt sind, bin ich auch die Garantie los, wenn ich sie passiv kühlen will, egal ob sie dann heiss oder kalt ist.

zeckensack
2002-06-23, 04:17:00
Originally posted by Xmas
Also ne GF3Ti200 lässt sich bei 175 MHz hervorragen passiv kühlen. Mag ja sein, dass eine R200 noch kühler ist, aber entscheidend ist ja wohl eher, wie ATI (und deren Partner) die Karten ausliefern. Denn wenn die alle aktiv gekühlt sind, bin ich auch die Garantie los, wenn ich sie passiv kühlen will, egal ob sie dann heiss oder kalt ist. Sollte lediglich heißen:
Passivkühlung bei 250MHz ist definitiv machbar, 60Mio Transistoren hin oder her. Es muß dafür auch kein kleinerer Fertigungsprozess benutzt werden.

StefanV
2002-06-23, 10:55:17
Originally posted by Xmas
Also ne GF3Ti200 lässt sich bei 175 MHz hervorragen passiv kühlen. Mag ja sein, dass eine R200 noch kühler ist, aber entscheidend ist ja wohl eher, wie ATI (und deren Partner) die Karten ausliefern. Denn wenn die alle aktiv gekühlt sind, bin ich auch die Garantie los, wenn ich sie passiv kühlen will, egal ob sie dann heiss oder kalt ist.

Naja, hervorragend stimmt nicht soo ganz...

Soll ja einige TI200 Karten geben, die zwar passiv gekühlt sind aber stabilitätsprobleme haben (deshalb gibts die TI200 auch nur als OEM)...
Habs selbst mal mit der MSI versucht (Lüfter abgeklemmt), der Temp Sensor neben dem Chip zeigte aber irgendwann 70°C an...

Mit der Garantie hast du recht, aber wichtig ist auch, wie die Temperatur und die stabilität sind, wenn man die Karte passiv Kühlt...

Quasar
2002-06-23, 11:06:20
1. Lies mal c't. Zwar ordentlich warm, aber keine Stabilitätsprobleme mit der Ti200.

2. Meine Banshee erreicht passiv gekühlt auch ohne Last locker 70°C, mein PPro/200 sportliche 86°C.

StefanV
2002-06-23, 11:21:02
Originally posted by Quasar
1. Lies mal c't. Zwar ordentlich warm, aber keine Stabilitätsprobleme mit der Ti200.

2. Meine Banshee erreicht passiv gekühlt auch ohne Last locker 70°C, mein PPro/200 sportliche 86°C.

1. gibt auch einige Userberichte davon.
'ab und an' ist diese GF3 recht instabil...

2. schön für deine Banshee, meine erreicht aktiv gekühlt ohne Last 60°C...
Die V3 wird bei mir übrigens 'nur' 63°C warm.

PS: ASUS Boards rulen!!

Birdman
2002-06-23, 11:34:51
es gibt auch genug leute, die mit 8500LE karten stabilitätsprobleme haben wegen zu geringer Kühlung.

btw. ich hatte meine Retail mit nem zalman CU passiv gekühlt, das hat problemlos geklappt, aber mit anfassen war da nix mehr zu machen, ausser man steht auf brandblasen.

Quasar
2002-06-23, 11:38:13
ad 1) Diese User-Berichte....die haben nicht zufällig einen iungelüftetes Flex-ATX Gehäuse? Oder selber versucht, einen Passivkühler draufzupfuschen?

StefanV
2002-06-23, 12:21:41
Originally posted by Quasar
ad 1) Diese User-Berichte....die haben nicht zufällig einen iungelüftetes Flex-ATX Gehäuse? Oder selber versucht, einen Passivkühler draufzupfuschen?

Nein, ich meine die 'original' MSI TI200.

Diese GraKa gibts auch nur in einer OEM Version, hab sie auch nie irgendwo im Laden/Versandhandel gesehen.

ergo:

Die Karte kann also nur mit einem Komplett Rechner gekauft worden sein.
AFAIK verbauen nur Medion und Vobis diese Karte...
Ist also entweder aus einem ALDI oder Vobis Rechner...

StefanV
2002-06-23, 12:24:06
Originally posted by Birdman
es gibt auch genug leute, die mit 8500LE karten stabilitätsprobleme haben wegen zu geringer Kühlung.

btw. ich hatte meine Retail mit nem zalman CU passiv gekühlt, das hat problemlos geklappt, aber mit anfassen war da nix mehr zu machen, ausser man steht auf brandblasen.

Die, die Stabilitäsprobleme mit der 8500 haben, haben meist auch ein Enermax Netzteil oder ein anderes, das schwach auf der 5V Leitung ist.

Zudem zieht die 8500 ihren 'Saft' aus der 5V Leitun, was in diesem Fall die Probleme verursachen könnte...

Nicht immer alles auf ATI schieben ;)

Ach ja:

Hab mal versucht meine 8500 passiv zu kühlen, habs aber leider nicht durchgehalten...

Birdman
2002-06-23, 12:56:42
Originally posted by Stefan Payne
Die, die Stabilitäsprobleme mit der 8500 haben, haben meist auch ein Enermax Netzteil oder ein anderes, das schwach auf der 5V Leitung ist.
Zudem zieht die 8500 ihren 'Saft' aus der 5V Leitun, was in diesem Fall die Probleme verursachen könnte...
Nicht immer alles auf ATI schieben ;)

nein, nein, nicht immer alles auf Enermax oder die Netzteile schieben.
Es gab im Ati forum genug leute die ihre karte nur mit erhöhter Kühlung oder untertaktung zum laufen gebracht haben, unabhängig von der stromversorgung.
Z.B. der User dessen karte nur mit Kühlspray aus der Dose richtig lief ;)

Snak84
2002-06-23, 15:18:31
hmm... komisch ich habe noch nie was von Instabilität einer Radeon auf grund unzureichender Kühlung gehört :D. Ganz im gegenteil meine Radeon läuft übertaktet ohne jegliche Extrakühlung @ 290/300 :P. Also sonst kenn ich nur das problem mit dem zu schwachen Netzteil doch dies ist glaube ich auch überall bekannt.

StefanV
2002-06-23, 15:29:56
Originally posted by Birdman

nein, nein, nicht immer alles auf Enermax oder die Netzteile schieben.
Es gab im Ati forum genug leute die ihre karte nur mit erhöhter Kühlung oder untertaktung zum laufen gebracht haben, unabhängig von der stromversorgung.
Z.B. der User dessen karte nur mit Kühlspray aus der Dose richtig lief ;)

Meinst du nicht, daß das nicht auch von unterversorgung der Karte kommen könnte??

Womit wir wieder bei den Netzteilen wären ;)

Com1
2002-06-23, 15:37:53
Zum Thema wärmeentwicklung der Radeon 8500:

Meine R8500 LE ist im Vergleich zu meinen vorherigen Karten (Voodoo 3/5) wirklich kühl. Die V5 wurde Locker 55 Grad heiß, die R8500 gerade mal 40-45. (gemessen mit dem dritten Temperatursensor von meinem Abit Board)

Instabil wird die Karte, wenn ich sie auf Retail Takt takte. Und das liegt IMHO eher dran das ein Teil des Speichers minderwertig ist (es sind 2 verschiedene Speichertypen auf der Karte, neben dem Üblichen "Hynix" ist noch älterer Speicher drauf (steht noch "Hyundai" drauf, das sagt wohl alles). Bis 270/270 ist sie absolut stabil.

Quasar
2002-06-23, 15:39:40
Komisch, ich dachte immer, daß die Karten ihren Strom aus dem AGP bekommen, und wie der versorgt wird, ist Sache des Mainboards....

Und der AGP liefert afaik 1,5 oder 3,3v an die Graka.

Deswegen glaube ich ehrlich gesagt nicht an die Mähr von den 4,89v-Enermax-Netzteilen, aber was tut man nicht alles, um seine Favoriten zu verteidigen, gelle?

Exxtreme
2002-06-23, 15:49:47
Originally posted by Birdman
Z.B. der User dessen karte nur mit Kühlspray aus der Dose richtig lief ;)
Richtig. Je kälter ein Chip ist desto weniger Saft braucht er um zu laufen.

Gruß
Alex

Birdman
2002-06-23, 16:05:32
wie schon gesagt, es lag bei diesem und auch andern usern nicht am Netzteil oder der stromversorgung, ob der chip nun weniger strom frisst wenn er kühl ist oder nicht....aber wenn es um die Ehre geht schiebt noch so mancher den schwarzen peter nem andern zu ;)

Btw. diese 0.1 - 0.3Watt die das ausmacht, sind ja wohl lächerlich....wenns daran scheitern sollte, produziert ATi aber hundslausige Produkte.

StefanV
2002-06-23, 16:12:52
Originally posted by Quasar
Komisch, ich dachte immer, daß die Karten ihren Strom aus dem AGP bekommen, und wie der versorgt wird, ist Sache des Mainboards....

Und der AGP liefert afaik 1,5 oder 3,3v an die Graka.

Deswegen glaube ich ehrlich gesagt nicht an die Mähr von den 4,89v-Enermax-Netzteilen, aber was tut man nicht alles, um seine Favoriten zu verteidigen, gelle?

1. Richtig und das Board bekommt seinen Saft vom Netzteil, oder??

2. ähm, verwechselst du hier nicht Versorgungsspannung mit Signalspannung??
DAS ist ein gewaltiger Unterschied...

3. Damit ein AMD-System mit Enermax NT instabil wird, benötigt es nicht unbedingt eine Radeon...
Und wenn Enermax so gut ist, wie von einigen behauptet, warum gibt/gab es denn Probleme mit dem Epox 8K7A??

Den letzten Satz könnte ich jetzt gegen dich verwenden, tu ich aber nicht, da ich ja ein netter Kerl bin :naughty:

Xmas
2002-06-23, 16:30:37
Originally posted by Stefan Payne
Habs selbst mal mit der MSI versucht (Lüfter abgeklemmt), der Temp Sensor neben dem Chip zeigte aber irgendwann 70°C an...
Meinst du nicht, dass das ein bisschen was anderes ist als eine "richtige" passiv gekühlte Karte?

StefanV
2002-06-23, 17:07:59
Originally posted by Xmas

Meinst du nicht, dass das ein bisschen was anderes ist als eine "richtige" passiv gekühlte Karte?

etwas schon, aber auch nicht soo sehr ;)

siehe hier (http://www.msi-computer.de/produkte/main.php3?Prod_id=196)...

Unregistered
2002-06-24, 17:20:06
Originally posted by Leonidas

In unserem inzwischen nicht mehr aktuellen Artikel vom 6. Juni zu den zukünftigen ATi-Chips RV250 & R300 hatten wir diese beiden Chips noch als 0.15 micron angenommen, mit den News des 19. Juni schwenkten wir aufgrund neuerer Informationen auf 0.13 micron um - und müssen uns diesbezüglich heute schon wieder korrigieren :-). Denn gemäß einer hochaktuellen ATi-Roadmap vom 16. Juni 2002 sind beide genannten Chips definitiv in 0.15 micron (es sei denn, ATi verschreibt sich in den eigenen Roadmaps). Wie ATi die RV250 mit 60 Millionen Transistoren in 0.15 micron bei 250 MHz noch passiv kühlen will und wie die R300 mit 107 Millionen Transistoren in 0.15 micron die ebenfalls von ATi angegebenen 350 MHz Chiptakt erreichen will, ist uns zwar unklar, nichts desto trotz müssen wir diese in ihrer Eindeutigkeit kaum zu überbietende neuen Information erst einmal so entgegennehmen.

Tür und Tor sind damit natürlich für nVidia geöffnet - denn der Platzhirsch wird dann als einziger Hersteller in diesem Herbst mittels des NV30-Chips in 0.13 micron antreten können. Zwar erwartet man den NV30 (Oktober bis Dezember?) derzeit allgemein etwas später als ATi´s neuen HighEnd-Chip R300 (September?), nVidia kann den kleineren Fertigungsprozeß jedoch in zweierlei Hinsicht zu seinem Vorteil nutzen: Zum einen sollte in 0.13 micron der NV30 höhere Taktraten erreichen können - was durchaus etwas mehr Leistung bringt und zudem auch für das NV30-Marketing gut ist. Und des weiteren sollte sich der NV30 in 0.13 micron auch günstiger herstellen lassen als der R300 in 0.15 micron (wenn die Transistorenanzahl ungefähr gleich liegt, wovon auszugehen ist), womit nVidia mehr Spielraum beim Preis als ATi haben würde. Der ATi-Vorteil des (wahrscheinlich) früheren Starts des R300 könnte sich so schnell wieder relativieren.


De facto ist überhaupt noch nicht klar, dass der R300 wirklich früher kommt, auch wenn das seine einzige (kurzzeitige) Chance wäre, bevor der NV30 kommt. Das Zeitfenster von ATI ist ziemlich eng. Und das hat ATI schon oft vermasselt.

nocturne
2002-06-26, 00:59:47
Originally posted by aths
Haben sie jedoch ein 256-Bit-DDR-Interface, dreht auch alte 0.15µm-HW schön auf, so dass selbst meine Ti4600 alt aussieht. Von Ti4200 ganz zu schweigen.


Wie sich an den katastrophal lahmen Parhelia-Benchmarks gezeigt hat, ist das alles nur hohle Theorie. Durch die alte 0.15µm-Bauweise lässt sich ein Transistormonster wie der Parhelia eben nur auf 220 MHz (OEM sogar nur 200 MHz) takten und ist trotz der niedrigen Taktfrequenz ein exorbitanter Stromfresser - und das bei armseliger Performance.

Es bleibt abzuwarten, ob ATI mit dem R300 in die selbe 0.15µm-Falle tappt.

Salvee
2002-06-26, 01:37:47
Naja, eine ganze Ecke schneller (>20%) als eine GF4-4600 ist die R300 ja schon im Alpha-Stadium mit Alpha-Treibern (siehe die bis zum Exzess ausdiskutierten Statements von JohnC zu Doom3), und das in OGL, nicht gerade eine ATi-Domäne. Wie es gegen den NV30 ausgeht, bleibt natürlich abzuwarten...

jedi
2002-06-26, 20:29:24
Originally posted by nocturne

Wie sich an den katastrophal lahmen Parhelia-Benchmarks gezeigt hat, ist das alles nur hohle Theorie. Durch die alte 0.15µm-Bauweise lässt sich ein Transistormonster wie der Parhelia eben nur auf 220 MHz (OEM sogar nur 200 MHz) takten und ist trotz der niedrigen Taktfrequenz ein exorbitanter Stromfresser - und das bei armseliger Performance.

Es bleibt abzuwarten, ob ATI mit dem R300 in die selbe 0.15µm-Falle tappt.

Witzig, dass im März auf manchen Webseiten (http://www.tweakpc.de/mehr_all.php?news_id=1224) noch von 300 MHz die Rede war. Dabei läuft dieses Ding schon mit 220 MHz am Anschlag.

aths
2002-06-27, 09:53:05
Originally posted by nocturne
Wie sich an den katastrophal lahmen Parhelia-Benchmarks gezeigt hat, ist das alles nur hohle Theorie.Du hast meinen Quote (mit Absicht?) in einen falschen Zusammenhang gebracht. Ich sprach von DX9-Karten. Parhelia ist keine DX9-Karte. Noch mal der Quote im Kontext:
Originally posted by aths
Nette Argumente mit denen du späteren DX9-HW-Besitzern einreden kann, dass sie sich Unsinn gekauft haben. Haben sie jedoch ein 256-Bit-DDR-Interface, dreht auch alte 0.15µm-HW schön auf, so dass selbst meine Ti4600 alt aussieht. Von Ti4200 ganz zu schweigen.

"Überflüssig" sind die neuen DX9-Karten sicher nicht. Edit: Die "Argumentation" ließe sich über T&L, 32 Bit, Pixelshader, VertexShader etc. führen, ist aber sinnlos: Ohne Hardware keine Software. Der Boden für DX9 muss bereitet werden. Der Sprung von DX8 zu 9 ist übrigens, gerade was z.B. PixelShader anbelangt, beträchtlich. Ich sprach also nicht davon, dass Ti4600 und Ti4200 gegen Parhelia alt aussehen, sondern gegen zukünftige DX9-HW mit 256-Bit-DDR-Interface, selbst wenn sie in 0.15 gefertigt wurden! Lesen müsste man können...

StefanV
2002-06-27, 11:31:44
Originally posted by jedi

Witzig, dass im März auf manchen Webseiten (http://www.tweakpc.de/mehr_all.php?news_id=1224) noch von 300 MHz die Rede war. Dabei läuft dieses Ding schon mit 220 MHz am Anschlag.

Das mit den 220MHz ist nur eine Behauptung deinerseits, den Beweiß bleibst du aber 'dank' fehlender OC Tools schuldig.

Momentan kann man nicht sagen, wie gut sich der Parhelia übertakten lässt...

jedi
2002-06-27, 17:54:23
Originally posted by Stefan Payne

Das mit den 220MHz ist nur eine Behauptung deinerseits, den Beweiß bleibst du aber 'dank' fehlender OC Tools schuldig.


Das ist nicht meine Behauptung, das steht so bei 3DCenter: 220 MHz retail, 200 MHz bulk.

Den Beweis, dass die Reviewer-Karten nicht höher getaktet sind als die später verkauften, bleibt Matrox 'dank' fehlender Tools allerdings wirklich schuldig.

aths
2002-06-27, 18:04:16
Originally posted by jedi
Den Beweis, dass die Reviewer-Karten nicht höher getaktet sind als die später verkauften, bleibt Matrox 'dank' fehlender Tools allerdings wirklich schuldig. Vorhin hast du noch von der Übertaktbarkeit geredet:

Originally posted by jedi
Dabei läuft dieses Ding schon mit 220 MHz am Anschlag.

ow
2002-06-27, 18:41:27
Wo steht denn da was von übertakten?

Anschlag=Herstellerspezifikation interpretiere ich das.

Es wird wohl immer wieder gerne vergessen, das ein Hersteller seine Chips für recht widrige klimatische Bedingungen spezifizieren muss.
Denn die Teile werden ja nicht nur in den gemässigten Breiten eingesetzt.

Dass bei günstigerem Klima dann noch Spielraum nach oben ist ist eine Selbstverständlichkeit.

nggalai
2002-06-27, 21:08:03
Hi there,

laut Haig (MURC Foren) verträgt die Parhelia mit guter Kühlung deutlich mehr, aber mehr als 220MHz seien mit einer AGP-komformen Kühlvorrichtung (i.e. eine, die noch den ersten PCI-Slot zugänglich lässt) nicht drin. Ich schau mal, ob ich das Posting finden kann.

Edit:OK, found it. Was on matrox.com, not MURC:Hi,
adding a larger HSF will give you maybe a 20MHz increase in clocks.

If you want to get a bigger boost, you would have to increase our core voltage, which I can't get into on how to do that.

If you do manage to do this, it will violate spec and also reduce the life expectancy of the chip.

------------------
Haig
Matrox Graphics
Technical Support Manager

Link (http://forum.matrox.com/mgaforum/Forum8/HTML/001314.html)

Die Beta-Boards hatten noch so einen Mords-P3-Kühlkörper drauf . . . mit Wakü lässt sich da sicher noch was rausholen, vielleicht sogar mit anständiger Leitpaste und einem anderen Lüfter.

ta,
-Sascha.rb

Unregistered
2002-06-27, 21:25:24
Auch bezüglich Stromverbrauch ist beim Parhelia nicht mehr viel Spielraum, was höhere Takte betrifft. 0.13 µm statt 0.15 µm sind in den kommenden Chipgeneration sicher ein deutlicher Vorteil. Schade, dass Matrox diesen Schritt noch nicht geschafft hat.

http://www.tecchannel.de/hardware/907/images/0010490_PIC.gif

jedi
2002-06-28, 11:37:55
Yepp, der Stromverbrauch ist natürlich genau so kritisch wie die Hitzeentwicklung. Wenn das eine steigt, steigt natürlich auch das andere ( -> Energieerhaltungssatz )

nocturne
2002-06-29, 13:24:27
Bin echt mal neugierig auf nVidia's nV30. Als erster 0.13 µm-Chip wird der wahrscheinlich abgehen wie ne Rakete.

Ist das eigentlich inzwischen schon sicher, dass ATI beim R300 erst mal nur 0.15 µm hinkriegt?

nggalai
2002-06-29, 13:27:58
Originally posted by nocturne
Ist das eigentlich inzwischen schon sicher, dass ATI beim R300 erst mal nur 0.15 µm hinkriegt? Sicher ist gar nichts, solange nichts vorgestellt wird. Es ist übrigens auch bei weitem noch nicht sicher, dass NV30 gleich mit .13um-Fertigung kommt; starke Indizien zeigen vorerst auf .15um.

Ergo: alles Vaporware, nix sicher.

ta,
.rb

nocturne
2002-06-29, 13:30:15
Originally posted by nggalai
Sicher ist gar nichts, solange nichts vorgestellt wird. Es ist übrigens auch bei weitem noch nicht sicher, dass NV30 gleich mit .13um-Fertigung kommt; starke Indizien zeigen vorerst auf .15um.


Welche "Indizien"? Oder hast Du das gerade erfunden? ;)

Exxtreme
2002-06-29, 13:31:50
Originally posted by nocturne
Welche "Indizien"? Oder hast Du das gerade erfunden? ;)
Also nocturne. Du willst dich doch nicht ernsthaft über Vaporware[TM] unterhalten.
:nono: ;)

Gruß
Alex

nocturne
2002-06-29, 13:40:37
:lol:

Unregistered
2002-06-29, 13:49:09
Originally posted by nocturne


Welche "Indizien"? Oder hast Du das gerade erfunden? ;) Nö. Auf [H] findest Du z.B. das hier:We got word yesterday that that the NV30 GPU had come back from the fab on a .15 micron architecture instead of the planned .13 micron. It has been rumored that this could certainly effect NVIDIA launching a part that will be competitive with the ATi R300 which has already had almost three months to mature. . Auf der Fronseite von 3DC liest Du, dass Börsenanalysten von einem Releasedate für NV30 im Jahr 2003 ausgehen--was den Aussagen von NV widerspricht (fall part). NV kann sich nicht auf TSMC verlassen, dass die .13-Version rechtzeitig marktreif fertig wird--was spricht gegen eine Backup-Variante in .15um, Und dann ein refresh im nächsten Jahr?

Wie schon gesagt--sind alles nur Indizien und Gerüchte. Aber da wir hier ja eh von Vaporware sprechen, möchte ich mich natürlich dem allgemeinen Niveau angleichen.

ta,
-Sascha.rb

nggalai
2002-06-29, 13:51:23
mist, cookie verloren. sorry.rb

StefanV
2002-06-29, 13:52:02
Originally posted by nocturne

Welche "Indizien"? Oder hast Du das gerade erfunden? ;)

Wie wäre es damit, daß außer Intel noch keiner 0,13µ 'richtig' beherrscht??

Xmas
2002-06-29, 14:31:34
Vielleicht ist das ja auch der Unterschied zwischen NV30 und NV31...

zeckensack
2002-06-29, 15:52:22
Warum sind die sich eigentlich alle zu fein, eigene Fabs zu basteln? Oder zumindest mal an UMC zu denken? Oder bei SiS in Miete zu gehen?
*amkopfkratz*

Den Ärger mit TSMC kennt man doch nun schon seit über einem Jahr.

TBird
2002-06-29, 16:17:40
Originally posted by zeckensack
Warum sind die sich eigentlich alle zu fein, eigene Fabs zu basteln?

Zu hohes Risiko und zu hohe Kosten.

jedi
2002-06-29, 18:54:09
Originally posted by Exxtreme

Du willst dich doch nicht ernsthaft über Vaporware[TM] unterhalten.
:nono: ;)


Im Gegensatz zu Dir hat er die Vaporware wenigstens nicht auch noch in der Signatur. :zunge:

Exxtreme
2002-06-29, 18:55:58
Originally posted by jedi
Im Gegensatz zu Dir hat er die Vaporware wenigstens nicht auch noch in der Signatur. :zunge:
Er hat nämlich gar keine Signatur.
:P ;)

Gruß
Alex

StefanV
2002-06-29, 20:24:11
Originally posted by jedi
Im Gegensatz zu Dir hat er die Vaporware wenigstens nicht auch noch in der Signatur. :zunge:

Tja, manche haben eine Signatur, andere können sich das nicht leisten :zunge:

Unregistered
2002-07-01, 18:34:00
Originally posted by nocturne
Bin echt mal neugierig auf nVidia's nV30. Als erster 0.13 µm-Chip wird der wahrscheinlich abgehen wie ne Rakete.

Ist das eigentlich inzwischen schon sicher, dass ATI beim R300 erst mal nur 0.15 µm hinkriegt?

Zumindest wenn die ATI-Roadmap vom 16. Juni 2002 stimmt:

http://www.3dcenter.org/news/2002/woche25.php#2002-06-22

AlfredENeumann
2002-07-01, 20:22:44
Originally posted by nocturne
Bin echt mal neugierig auf nVidia's nV30. Als erster 0.13 µm-Chip wird der wahrscheinlich abgehen wie ne Rakete.

Ist das eigentlich inzwischen schon sicher, dass ATI beim R300 erst mal nur 0.15 µm hinkriegt?


Seit wann interessiert dich Vapoware ?
Ach ja, ich vergaß die ist ja von Nvidia.

Unregistered
2002-07-03, 01:25:29
Originally posted by nggalai

Auf der Fronseite von 3DC liest Du, dass Börsenanalysten von einem Releasedate für NV30 im Jahr 2003 ausgehen--was den Aussagen von NV widerspricht (fall part). NV kann sich nicht auf TSMC verlassen, dass die .13-Version rechtzeitig marktreif fertig wird--was spricht gegen eine Backup-Variante in .15um, Und dann ein refresh im nächsten Jahr?


Werden wir sehen, ob diese Spekulation stimmt. Wie der Flop von Matrox gezeigt hat, sind so transistorreiche 0.15µm-Chips eben problematisch und deshalb eher lahm. Lohnt sich also nicht. Mit 0.15µm ist wohl kaum noch eine Steigerungsmöglichkeit zu den aktuellen Karten drin.

Lieber jetzt noch eine preiswerte GF4-Ti4200 kaufen und damit genüsslich und ohne Zeitdruck auf die 0.13µm-Chips warten.

StefanV
2002-07-03, 08:16:28
Originally posted by Unregistered


Werden wir sehen, ob diese Spekulation stimmt. Wie der Flop von Matrox gezeigt hat, sind so transistorreiche 0.15µm-Chips eben problematisch und deshalb eher lahm. Lohnt sich also nicht. Mit 0.15µm ist wohl kaum noch eine Steigerungsmöglichkeit zu den aktuellen Karten drin.

Lieber jetzt noch eine preiswerte GF4-Ti4200 kaufen und damit genüsslich und ohne Zeitdruck auf die 0.13µm-Chips warten.

Hab nicht viel Zeit, deshalb die Kurzform:

Denk mal an die GF1, die war auch schneller als 'ne TNT2, trotz geringerem Chiptekt...

Com1
2002-07-03, 09:16:09
Originally posted by nocturne
Bin echt mal neugierig auf nVidia's nV30. Als erster 0.13 µm-Chip wird der wahrscheinlich abgehen wie ne Rakete.

Ist das eigentlich inzwischen schon sicher, dass ATI beim R300 erst mal nur 0.15 µm hinkriegt?

Sicher? Was ist beid em Thema schon sicher? nix. Dass der NV30 der erste 0.13 Grafikchip sein wird ist ungefähr so sicher wie das Wetter von nächster Woche.

der NV30 wird schon "abgehen wie ne Rakete". Aber dass der Shrink so stark darauf Einfluss hat wage ich mal zu bezweifeln. Den meisten Einfluss darauf hat nach wie vor die Chip Architektur.

Ist sowieso fraglich, obs dieses Jahr noch etwas wird mit der 0.13 µ Fertigung.

aths
2002-07-03, 12:30:56
Originally posted by nocturne
Bin echt mal neugierig auf nVidia's nV30. Als erster 0.13 µm-Chip wird der wahrscheinlich abgehen wie ne Rakete.Wahrscheinlich wird der 0.13-er NV30 erst 2003 kommen. Nach den allerbösesten Gerüchten ist es sogar möglich, dass NV30 generell erst 2003 kommt.

Zu 0.13 kann ich ansonsten nur fragen: Ging die erste 0.13-er CPU ab wie eine Rakete?

zeckensack
2002-07-03, 12:48:30
Originally posted by aths
Zu 0.13 kann ich ansonsten nur fragen: Ging die erste 0.13-er CPU ab wie eine Rakete? Wohl kaum ...
http://www.via.com.tw/en/viac3/c3E.jsp *eg*

aths
2002-07-03, 14:54:45
Originally posted by zeckensack
Wohl kaum ...
http://www.via.com.tw/en/viac3/c3E.jsp *eg* Nana :nono: Du willst doch nicht andeuten, dass der 0.13-Prozess für sich alleine genommen nichts über die Endgeschwindigkeit aussagt, ja sogar implizieren, dass NV30 Vaporware ist? ;-)

StefanV
2002-07-03, 15:25:14
Originally posted by zeckensack
Wohl kaum ...
http://www.via.com.tw/en/viac3/c3E.jsp *eg*

Ähm, wieviele Transistoren hat der C3??

Wie groß ist das DIE??

1. war beim C3 ohne Cache glaub ich 3-4MIO Transistoren, oder??
(also extrem wenig)

2. nicht groß...


Na, was schließen wir draus??

Quasar
2002-07-03, 19:41:44
Originally posted by Stefan Payne
Denk mal an die GF1, die war auch schneller als 'ne TNT2, trotz geringerem Chiptekt...

Bist du nicht sonst immer einer derjenigen gewesen, die nicht müde wurden, zu beteuern, daß die technologisch fortschrittlichere GF 256 teils von schneller getakteten TNT2's abgehängt wurde?

:lol:

ow
2002-07-03, 20:05:38
Originally posted by Quasar


Bist du nicht sonst immer einer derjenigen gewesen, die nicht müde wurden, zu beteuern, daß die technologisch fortschrittlichere GF 256 teils von schneller getakteten TNT2's abgehängt wurde?

:lol:


Oder eine GF2MX wäre nicht schneller als eine V3. :lol:

StefanV
2002-07-03, 21:16:24
Originally posted by ow
Oder eine GF2MX wäre nicht schneller als eine V3. :lol:

Ja, und??

Ich hab gesagt, eine V3 wäre schneller, hab aber nie unter welchen Bedingungen!!!

StefanV
2002-07-03, 21:17:54
Originally posted by Quasar

Bist du nicht sonst immer einer derjenigen gewesen, die nicht müde wurden, zu beteuern, daß die technologisch fortschrittlichere GF 256 teils von schneller getakteten TNT2's abgehängt wurde?

Ähm, nunja, gute Frage...

Ehrlichgesagt hab ich keine Ahnung, ob/wann ich das gesagt haben soll...

BTW: stimmt doch, daß eine TNT2U eine GF1SDR ab und an schlägt, oder?

ow
2002-07-03, 21:39:59
Originally posted by Stefan Payne


Ja, und??

Ich hab gesagt, eine V3 wäre schneller, hab aber nie unter welchen Bedingungen!!!


Treibst du hier irgendwelche Spielchen?

Kann ich auch: Mit meiner TNT mach ich eine V5 platt.

nocturne
2002-07-05, 01:36:57
Originally posted by Stefan Payne

Ja, und??

Ich hab gesagt, eine V3 wäre schneller, hab aber nie unter welchen Bedingungen!!!

Schneller veraltet. ;)

morfeus
2002-07-05, 07:57:07
Man wird es nicht glauben aber es gibt sie, die PC Benützer die
nur extra für 3D Mark 2003 eine neue Grafikkarte kaufen.
Der Umstieg von einer TI 4600 auf eine ATI R300 würde sich ja
kaum lohnen, aber 3D Mark fînde ich ist es wert.:santa:

nocturne
2002-07-05, 12:10:53
Originally posted by morfeus
Man wird es nicht glauben aber es gibt sie, die PC Benützer die
nur extra für 3D Mark 2003 eine neue Grafikkarte kaufen.
Der Umstieg von einer TI 4600 auf eine ATI R300 würde sich ja
kaum lohnen, aber 3D Mark fînde ich ist es wert.:santa:

Wer kauft sich schon Grafikkarten für seine Spiele? aths zumindest nicht. *eg*

aths
2002-07-05, 12:22:47
Originally posted by nocturne
Wer kauft sich schon Grafikkarten für seine Spiele? aths zumindest nicht. *eg* Zum Zeitpunkt des Kaufes sowie am heuten Tage (5.7.02) halte ich eine 'Marken'-Ti4600 für die beste Karte, die man für Spiele kaufen kann.

StefanV
2002-07-05, 12:23:01
Originally posted by ow
Treibst du hier irgendwelche Spielchen?

Kann ich auch: Mit meiner TNT mach ich eine V5 platt.

:rofl:

Aber nicht in einem Spiel :P

ow
2002-07-05, 13:00:46
Originally posted by Stefan Payne


:rofl:

Aber nicht in einem Spiel :P

Doch Stefan. Muesste IMO sogar in einigen Spielen funktionieren.
Bei welchen Bedingungen verrate ich allerdings nicht :P


So, genug gespielt jetzt.:D

StefanV
2002-07-05, 14:19:18
nur schaut 'meine' Voodoo unter 16bit besser aus als 'deine' TNT :P

jedi
2002-07-05, 17:10:13
Armer Kerl, dass Du immer noch von 16 bit schwärmen musst. Brille? Fielmann.

aths
2002-07-05, 17:57:02
Originally posted by jedi
Armer Kerl, dass Du immer noch von 16 bit schwärmen musst. Brille? Fielmann. Die "16" Bit sahen auf Voodoo3 (4,5) ziemlich gut aus, jedenfalls spürbar besser als auf nVidia-Karten (inkl. GeForce4 Ti.)

Mit 32 Bit ist man btw auch nicht vor Colorbanding gefeit - siehe Quake, Max Payne, RtCW, MW... (Das erwähne ich deshalb weil du mit dem Aufkommen der DX9-Karten genaueres Rendering wahrscheinlich mit "braucht man noch nicht" abtun wirst.) (Siehe auch das Topic.)

jedi
2002-07-05, 18:10:15
aths,
Deine Unterstellungen gehen mal wieder ins Leere. Übrigens braucht hier niemand höhere Rendergenauigkeiten "abzutun", denn bis diese auch in zukünftigen Spielen wirklich genutzt werden können, haben nVidia und ATI wahrscheinlich längst ihre zweite oder dritte Generation von DX9-Chips auf dem Markt. Und sogar ATI wird bis dahin endlich einen 0.13µm-Chip auf die Reihe gebracht haben, um den Performanceeinbruch der höheren Rendergenauigkeiten durch höhere Chipfrequenzen auffangen zu können. Mit 0.15 µm sehe ich da beim R300 nicht viel Spielraum. Daeshalb heisst das Subject ja auch: "Die ERSTEN DX9-Karten werden wieder überflüssig".

skampi
2002-07-05, 18:21:26
Originally posted by jedi
aths,
Deine Unterstellungen gehen mal wieder ins Leere. Übrigens braucht hier niemand höhere Rendergenauigkeiten "abzutun", denn bis diese auch in zukünftigen Spielen wirklich genutzt werden können, haben nVidia und ATI wahrscheinlich längst ihre zweite oder dritte Generation von DX9-Chips auf dem Markt. Und sogar ATI wird bis dahin endlich einen 0.13µm-Chip auf die Reihe gebracht haben, um den Performanceeinbruch der höheren Rendergenauigkeiten durch höhere Chipfrequenzen auffangen zu können. Mit 0.15 µm sehe ich da beim R300 nicht viel Spielraum. Daeshalb heisst das Subject ja auch: "Die ERSTEN DX9-Karten werden wieder überflüssig".


*lol*

Wenns doch nur nicht so traurig wäre...

AlfredENeumann
2002-07-05, 18:44:53
Originally posted by jedi
aths,
Deine Unterstellungen gehen mal wieder ins Leere. Übrigens braucht hier niemand höhere Rendergenauigkeiten "abzutun", denn bis diese auch in zukünftigen Spielen wirklich genutzt werden können, haben nVidia und ATI wahrscheinlich längst ihre zweite oder dritte Generation von DX9-Chips auf dem Markt. Und sogar ATI wird bis dahin endlich einen 0.13µm-Chip auf die Reihe gebracht haben, um den Performanceeinbruch der höheren Rendergenauigkeiten durch höhere Chipfrequenzen auffangen zu können. Mit 0.15 µm sehe ich da beim R300 nicht viel Spielraum. Daeshalb heisst das Subject ja auch: "Die ERSTEN DX9-Karten werden wieder überflüssig".

Wieso bist du dir eigentlich so sicher das NVIDIA nicht anfangs zwangsweise auch in 0.15µ Fertigen lassen muß ?

jedi
2002-07-05, 18:52:45
Originally posted by AlfredENeumann

Wieso bist du dir eigentlich so sicher das NVIDIA nicht anfangs zwangsweise auch in 0.15µ Fertigen lassen muß ?

Bin ich nicht. So einen Chip würde ich mir genau so wenig holen, falls er anfangs 0.15 µm wäre. :bäh:

Demirug
2002-07-05, 18:53:25
Originally posted by AlfredENeumann


Wieso bist du dir eigentlich so sicher das NVIDIA nicht anfangs zwangsweise auch in 0.15µ Fertigen lassen muß ?

Die wahrscheinlichkeit dafür liegt unter 1 Promile. NVIDIA hat ersten die Klappe im Bezug auf 0,13 schon zu weit aufgeriessen und zweitens kann man aus einem für 0,13 vorbereiteten Desgin für Chip und Platine nicht mal schnell eines 0,15 machen

AlfredENeumann
2002-07-05, 19:26:18
Mag sein. Aber es geht mir momentan dermaßenb auch den Zeige das hier so einige nix anderes mehr von sich geben das alle DX9-Chips die in 0.15µ produziert werden zwangsweise mist sind.
Sollen die doch erstmal abwarten bis die dinger released sind, dann kann man immer noch genung lästern.

Unregistered
2002-07-06, 13:48:37
Originally posted by jedi
denn bis diese auch in zukünftigen Spielen wirklich genutzt werden können, haben nVidia und ATI wahrscheinlich längst ihre zweite oder dritte Generation von DX9-Chips auf dem Markt. Also ungefähr so wie 3dfx, die 32-Bit-Support dann brachten, als man es wirklich unbedingt brauchte?
Originally posted by jedi Mit 0.15 µm sehe ich da beim R300 nicht viel Spielraum. Daeshalb heisst das Subject ja auch: "Die ERSTEN DX9-Karten werden wieder überflüssig". ??? Also langsamer als heutige Spitzen-DX8.1-Beschleuniger werden sie kaum sein - aber eben besser, zum Beispiel deutlich weniger anfällig für Colorbanding. 64 Bit kann man schon heute brauchen! Dürfte ich meine Ti4600 gegen R300 ("erster" DX9-Beschleuniger?) tauschen, würde ich das natürlich machen. "Überflüssig" ist für die ersten DX9-Karten das falsche Wort. (Für dich persönlich mögen sie vielleicht nicht in betracht kommen.) (Für mich übrigens auch nicht, aber deswegen bezeichne ich sie doch nicht als 'überflüssig', zumal man m.E. schon die Bildqualitätsnachteile von DX8.1-Karten 'eingestehen' sollte.) (Radeon8500 scheint eine löbliche Ausnahme zu sein: Schon heute höhere Rechengenauigkeit und Overbright Lighting.)

Probleme mit Keksen - das Posting ist von mir (aths)

jedi
2002-07-06, 14:35:59
Originally posted by aths

64 Bit kann man schon heute brauchen!
:lol: :lol: :lol:

Zeig mir die Spiele, in deren Optionsmenü man schon heute 64bit-Rendering einstellen kann. Ich finde trotz Deiner Propaganda immer nur die Optionen 16bit oder 32bit.

:nono:

zeckensack
2002-07-06, 14:39:17
Originally posted by jedi

:lol: :lol: :lol:

Zeig mir die Spiele, in deren Optionsmenü man schon heute 64bit-Rendering einstellen kann. Ich finde trotz Deiner Propaganda immer nur die Optionen 16bit oder 32bit.

:nono: Es soll Leute geben, die spielen Spiele mit AF und AA, die dafür garkeine Einstellmöglichkeiten haben. Wie machen die das nur? :|

StefanV
2002-07-06, 14:40:58
Originally posted by jedi

:lol: :lol: :lol:

Zeig mir die Spiele, in deren Optionsmenü man schon heute 64bit-Rendering einstellen kann. Ich finde trotz Deiner Propaganda immer nur die Optionen 16bit oder 32bit.

:nono:

Ja und??

Interne Rendergenauigkeit kann man immer gebrauchen!!

Aber die 40bit Interne Rendering Genauigket des VSA-100 Chips sind genauso schwachsin, wie die 36bit der GFs, oder??

aths
2002-07-06, 14:54:14
Originally posted by jedi
Zeig mir die Spiele, in deren Optionsmenü man schon heute 64bit-Rendering einstellen kann. Ich finde trotz Deiner Propaganda immer nur die Optionen 16bit oder 32bit.
:nono: 64 Bit kann ohne expliziten Support der Engine verwendet werden. (Ebenso kann man bei 16-Bit-Titeln 32 Bit 'forcen', mit Voodoo4/5 ging das.) Siehe auch Matrox' "Gigacolor" - kann per Treiber aktiviert bzw. deaktiviert werden.

zeckensack
2002-07-06, 16:01:58
Originally posted by zeckensack
Es soll Leute geben, die spielen Spiele mit AF und AA, die dafür garkeine Einstellmöglichkeiten haben. Wie machen die das nur? :| Ah, danke aths, jetzt ist's mir wieder eingefallen:
Per Treiberoption :)

Unregistered
2002-07-06, 18:44:29
Originally posted by morfeus
Man wird es nicht glauben aber es gibt sie, die PC Benützer die nur extra für 3D Mark 2003 eine neue Grafikkarte kaufen.
Der Umstieg von einer TI 4600 auf eine ATI R300 würde sich ja kaum lohnen, aber 3D Mark fînde ich ist es wert.:santa:

Klar, ein paar Deppen gibt es sicher wieder, die sich verfrüht eine DX9-Karte nur wegen 3DMurks2003-Punkten holen.

Ich wäre ja schon froh, wenn endlich ein paar mehr DX8-Spiele herauskommen würden. Die meisten aktuellen Spiele nutzen ja vorwiegend die Features von DX7-Karten, sogar das kommende UT2003.
Richtige DX9-Spiele? Kaum vor 2005. Aber bis dahin hypt man eben 3DMurks2003, um den DAUs teure Hardware anzudrehen.

Exxtreme
2002-07-06, 18:57:47
@ Unreg
Wer sagt denn, daß sich die Leute die DX9-GraKas kaufen nur wegen der DX9-Features? Ich denke, daß die DX9-GraKas einen massiven Leistungssprung ggü. den DX8-GraKas bringen werden, die man in BQ-Features wie AA oder AF stecken kann ohne Kompromisse einzugehen. Mit den heutigen DX8-GraKas ist das nicht der Fall.

Gruß
Alex

jedi
2002-07-06, 19:17:27
Originally posted by Exxtreme

Wer sagt denn, daß sich die Leute die DX9-GraKas kaufen nur wegen der DX9-Features? Ich denke, daß die DX9-GraKas einen massiven Leistungssprung ggü. den DX8-GraKas bringen werden, die man in BQ-Features wie AA oder AF stecken kann ohne Kompromisse einzugehen. Mit den heutigen DX8-GraKas ist das nicht der Fall.


Aber mit 0.15 µm wirst Du wohl kaum noch Deine "massiven" Performancesprünge erwarten können, da die DX9-Funktionalität ja auch wieder Transistoren frisst, was sich negativ auf den Takt auswirkt. 0.15 µm ist eben langsam am Limit angekommen, sonst hätte man schon längst schnellere oder höher getaktete 0.15µm-Chips herausbringen können.

Prognose: DX9-Chips bringen erst ab 0.13 µm einen wirklich signifikanten Leistungssprung.

.

zeckensack
2002-07-06, 19:22:44
Originally posted by jedi
Prognose: DX9-Chips bringen erst ab 0.13 µm einen wirklich signifikanten Leistungssprung.Begründung: Weil NVIDIA (all caps!) das so erzählt hat ?-)

8 Pipes sind doppelt soviel wie 4 Pipes, und 256 bit sind doppelt soviel wie 128 bit, vergiß das bitte nicht.

Exxtreme
2002-07-06, 19:23:32
@ jedi
Ich glaube du vergisst, daß z.B. die R300 8 Renderpipes haben wird was die Leistung erheblich erhöhen wird zumindest wenn man SSAA einsetzt. Die 0,15µ-Fertigung tut da nicht viel zu Sache. Es hängt nämlich auch vom Design des Chips ab wieviel MHz er verträgt und wieviel Strom er brauchen wird.

Gruß
Alex

jedi
2002-07-06, 19:29:53
Originally posted by zeckensack

8 Pipes sind doppelt soviel wie 4 Pipes, und 256 bit sind doppelt soviel wie 128 bit, vergiß das bitte nicht.

8 Pipes brauchen aber auch mehr Transistoren als 4 Pipes - und das wirkt sich negativ auf den Takt aus. Und zu "256 bit sind doppelt soviel wie 128 bit" kann ich mir angesichts des Parhelia-Desasters ein Lachen kaum verkneifen...

:lol:

StefanV
2002-07-06, 19:40:47
Originally posted by Exxtreme
@ Unreg
Wer sagt denn, daß sich die Leute die DX9-GraKas kaufen nur wegen der DX9-Features? Ich denke, daß die DX9-GraKas einen massiven Leistungssprung ggü. den DX8-GraKas bringen werden, die man in BQ-Features wie AA oder AF stecken kann ohne Kompromisse einzugehen. Mit den heutigen DX8-GraKas ist das nicht der Fall.

Gruß
Alex

Richtig, insbesondere FSAA und AF ziehen noch Kräftig an der Performance.

Fazit:

Alle aktuellen GraKas sind noch zu lahm...

zeckensack
2002-07-06, 19:58:00
Originally posted by jedi
8 Pipes brauchen aber auch mehr Transistoren als 4 PipesKeine Neuigkeit, sag bloß du wußtest das nicht. Du schreibst doch seit Wochen über die Nachteile von komplexen Chips in 0.15 mikron. - und das wirkt sich negativ auf den Takt aus.Meinst? Was ist höher getaktet, Willamette oder Palomino?Und zu "256 bit sind doppelt soviel wie 128 bit" kann ich mir angesichts des Parhelia-Desasters ein Lachen kaum verkneifen...Da bin ich gespannt ...:lol: Aha. Hast es also nicht geschafft, es dir zu verkneifen. Dachte ich mir fast. :P

Unregistered
2002-07-08, 00:51:48
Originally posted by jedi

Übrigens braucht hier niemand höhere Rendergenauigkeiten "abzutun", denn bis diese auch in zukünftigen Spielen wirklich genutzt werden können, haben nVidia und ATI wahrscheinlich längst ihre zweite oder dritte Generation von DX9-Chips auf dem Markt. Und sogar ATI wird bis dahin endlich einen 0.13µm-Chip auf die Reihe gebracht haben, um den Performanceeinbruch der höheren Rendergenauigkeiten durch höhere Chipfrequenzen auffangen zu können. Mit 0.15 µm sehe ich da beim R300 nicht viel Spielraum. Daeshalb heisst das Subject ja auch: "Die ERSTEN DX9-Karten werden wieder überflüssig".

Die erste 32bit-Kartengeneration (G200, TNT1 und Rage 128) konnte 32bit auch auf dem Papier, aber in der Praxis hat es niemand benutzt, weil es viel zu langsam war. Erst mehrere Generationen später (beim GF1-DDR und GF2) hat es sich in voller Breite bei den Spielern durchsetzen können.
64bit-Rendering würde man aus dem gleichen Grund auf einem 0.15µ-Chip gar nicht erst aktivieren, selbst wenn er theoretisch dazu in der Lage wäre. Selbst bei 0.13µ ist nicht sicher, ob das für ausreichend schnelles 64bit-Rendering reichen würde. Vielleicht in ferner, ferner Zukunft bei 0.11µ oder 0.09µ-Chips. ;)

nocturne
2002-07-09, 01:18:43
Originally posted by jedi


8 Pipes brauchen aber auch mehr Transistoren als 4 Pipes - und das wirkt sich negativ auf den Takt aus. Und zu "256 bit sind doppelt soviel wie 128 bit" kann ich mir angesichts des Parhelia-Desasters ein Lachen kaum verkneifen...

:lol:

Mal sehen, wie lange sich das Märchen "DX9-Karten sind automatisch schneller als DX8-Karten" noch halten wird, das hier einige versuchen zu suggerieren. ;)

Xmas
2002-07-09, 02:25:00
Originally posted by Unregistered
Die erste 32bit-Kartengeneration (G200, TNT1 und Rage 128) konnte 32bit auch auf dem Papier, aber in der Praxis hat es niemand benutzt, weil es viel zu langsam war. Erst mehrere Generationen später (beim GF1-DDR und GF2) hat es sich in voller Breite bei den Spielern durchsetzen können.
64bit-Rendering würde man aus dem gleichen Grund auf einem 0.15µ-Chip gar nicht erst aktivieren, selbst wenn er theoretisch dazu in der Lage wäre. Selbst bei 0.13µ ist nicht sicher, ob das für ausreichend schnelles 64bit-Rendering reichen würde. Vielleicht in ferner, ferner Zukunft bei 0.11µ oder 0.09µ-Chips. ;)
Ich verstehe nicht ganz wieso du 64bit-Rendering so von der Chipleistung/Fertigungstechnik abhängig machst.
Dass 32bit so lange gebraucht hat um sich durchzusetzen lag einzig und allein am Speicher (sowohl Bandbreite als anfangs auch Kapazität).
Klar, höhere Präzision braucht breiter ausgelegte Recheneinheiten und Datenpfade, aber ATI hatte damit beim R8500 mit mindestens 12Bit pro Farbkanal interne Genauigkeit auch keine Probleme. Beim Rampage waren 13Bit/Kanal vorgesehen. Und das ohne die Performance zu drücken. 16Bit/Kanal sollten spätestens mit 0.13µ kein Problem mehr sein. Will man diese Präzision aber im Framebuffer haben, braucht man natürlich auch die entsprechende Bandbreite, und daran mangelt es noch.


Originally posted by nocturne
Mal sehen, wie lange sich das Märchen "DX9-Karten sind automatisch schneller als DX8-Karten" noch halten wird, das hier einige versuchen zu suggerieren. ;)
Wie kannst du jetzt schon wissen dass es ein "Märchen" ist? Und wer sind diese "einige", die das suggerieren?

zeckensack
2002-07-09, 13:55:17
Originally posted by nocturne


Mal sehen, wie lange sich das Märchen "DX9-Karten sind automatisch schneller als DX8-Karten" noch halten wird, das hier einige versuchen zu suggerieren. ;)
Dann erbitte ich von dir die Antwort auf zwei weitere harmlose Fragen:

1)Was lässt sich höher takten, ein P3-Coppermine (15,5 Mio Transistoren), oder ein TBird (37Mio Transistoren). Beide in 0,18mü (dank Opera kann ich das Mikron-Zeichen nicht erzeugen *grml*)

Quelle: Sandpile.org (http://www.sandpile.org/)

2)Wenn du mir nicht belegen kannst, daß eine Verdopplung der Komplexität bei gleichem Fertigungsprozeß eine Halbierung des maximalen Takts mit sich zieht, worauf begründet sich deine Vermutung?

ow
2002-07-09, 14:05:20
Originally posted by zeckensack

(dank Opera kann ich das Mikron-Zeichen nicht erzeugen *grml*)



nicht nur du.
und das Euro-Zeichen geht auch nicht. :bawling:

Labberlippe
2002-07-09, 14:14:14
Originally posted by jedi

:lol: :lol: :lol:

Zeig mir die Spiele, in deren Optionsmenü man schon heute 64bit-Rendering einstellen kann. Ich finde trotz Deiner Propaganda immer nur die Optionen 16bit oder 32bit.

:nono:

Achso ???
Wie soll die Option angeboten werden, wenn noch nicht die Karten verfügbar sind.
Damals hat nVIDIA auch 32 Bit gesetzt gegeben hat es noch kein Game auser bei div. wo man über DD den Wert setzen konnte.
Erst Q3 war ein richtiges 32 Bit Game.

Wieso wird von Dir 64 Bit Rendering abgetan und 32 geht ok

Gruss Labberlippe

Salvee
2002-07-09, 14:36:43
Sollte ein Grafikchip mit 8 Pixelpipes mit sagen wir mal 150MHz Chiptakt nicht in etwa eine genauso hohe Rohpixelfüllrate haben wie ein 4-Piper mit 300 MHz
(natürlich unter der Prämisse, dass weder der Treiber, das Memoryinterface oder sonstige Engpässe im Chip selbst dem Ausnutzen dieser 8 Pixelpipes im Weg stehen) ?
Schliesslich verbläst doch auch ein GF1 DDR mit 120 MHz Coretakt eine TNT2U mit 185 Mhz, oder sehe ich das falsch ?