PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv18, nv28 facts


Tarkin
2002-09-24, 13:31:00
http://www.pcpop.com.cn/read.asp?id=584&page=3

voll krass innovativ ... 0.15. Da haben sich einige hier zu früh auf einen 0.13er Prozess gefreut.

Also IMO hat das Teil gegen eine ATI 9500er (die im Übrigen wahrscheinlich früher erscheint) keine Chance.

:chainsaw:

daflow
2002-09-24, 14:19:06
Muesste man die Seite kennen? Nachdem du die dort angezeigte Tabelle als Fakt nimmst...
Würde mich allerdings nicht wundern wenns so währe wies da steht, in sämtlichen Infos die ich zum Thema gesehen habe ist immer nur die Rede von update auf 8*Agp, aber vielleicht wissen wir ja morgen mehr; Wie Ati mit der Radeon9500 gegen Nvidia dasteht hängt meiner Ansicht nach auch nicht vom Nv28 ab, weil ich davon ausgehe, dass er keine grosse Verbesserung im Kartensegment der jetzigen Nv25er bringen wird, sondern lediglich vom Wann und Wie der Radeon 9500;

Gruss,

PeTa

Saro
2002-09-24, 14:49:46
Die Radeon 9500 wird sowieso schneller da es doch eine DX9 Karte ist (also schon 256Bit Speicher usw vorgeschrieben ist). Und die NVidia nur DX8 Karten sind daher finde ich solche vergleiche eh bescheuert.

Tarkin
2002-09-24, 15:16:03
Originally posted by Saro
Die Radeon 9500 wird sowieso schneller da es doch eine DX9 Karte ist (also schon 256Bit Speicher usw vorgeschrieben ist). Und die NVidia nur DX8 Karten sind daher finde ich solche vergleiche eh bescheuert.

seit wann ist für DX9 ein 128bit Speicherinterface Vorschrift?

... also ich finde den Vergleich zwischen 9500er und nv28 nicht "bescheuert". Beide Karten sind im gleichen Preissegment angesiedelt (< USD 200,-)

daflow
2002-09-24, 15:40:46
Jap ich denke auch das sie in nächster Zeit sich dem Vergleich stellen müssen weil sie im selben Preissegment anzusiedeln sind! Und das die Radeon 9500 schneller ist als eine Gf4ti4600 wage ich mal zu bezweifeln, will mich aber nicht darauf festlegen ;) Meine Einschätzung zwischen Gf4ti4400 und 4200 aber um das wirklich zu sagen muss man wohl erst eine 9500 in Aktion sehen, mal abwarten;

ow
2002-09-24, 16:37:32
Keine Fakten -> Spekulation :D

Pussycat
2002-09-24, 16:52:13
Originally posted by Saro
Die Radeon 9500 wird sowieso schneller da es doch eine DX9 Karte ist (also schon 256Bit Speicher usw vorgeschrieben ist). Und die NVidia nur DX8 Karten sind daher finde ich solche vergleiche eh bescheuert.

DX9 gibt vorgabe zur programmierbarkeit und zur minimalen Anzahl von loop-backs. Ein 1*1 chip (mit 1*16 via loop-back) auf 100 MHz mit 32 bit-Speicher könnte auch 'full DX9 support' haben.

AlfredENeumann
2002-09-24, 19:03:29
Originally posted by PeTa
Jap ich denke auch das sie in nächster Zeit sich dem Vergleich stellen müssen weil sie im selben Preissegment anzusiedeln sind! Und das die Radeon 9500 schneller ist als eine Gf4ti4600 wage ich mal zu bezweifeln, will mich aber nicht darauf festlegen ;) Meine Einschätzung zwischen Gf4ti4400 und 4200 aber um das wirklich zu sagen muss man wohl erst eine 9500 in Aktion sehen, mal abwarten;


Anschließ. Im Bereich 4200/4400 mit schnellerem AA, da die 9700er ohne AA nicht zwingend schneller ist als ne 4600er.

Richthofen
2002-09-24, 20:47:38
"
voll krass innovativ ... 0.15. Da haben sich einige hier zu früh auf einen 0.13er Prozess gefreut.
"

Wer dem CEO vor paar Monaten richtig zugehört hat, der musste eigentlich von 0.15 ausgehen.
An 0.13 dachten erst einige, als within3d von so einer Elsa Ankündigung aus Asien sprach, wo die wohl meinten er wäre 0.13.
Ansonsten gab es aber 0,0 Anzeichnen für 0.13 und ich hab auch nicht drann geglaubt.

Ansonsten ist das Teil korrekt. Nvidia hat einen AGP8x nForce2 zu verkaufen und bietet nun passend dazu NV18 und NV28 Chips für AGP8x an.
Da sollten doch einige nForce2 und NV AGP8x Karten in den Systemen für Weihnachten landen.
Also mehrheitlich GF4MX und GF4Ti.

Unregistered
2002-09-24, 21:16:10
Ha...

Link : http://www.heise.de/newsticker/data/law-24.09.02-000/


Änderungen : Bugfixes + AGP 8x das ist alles.

Anscheinend gibt es aber nur die Ti4200 und die MX440 mit AGP8x.
Da werden die Preise für diese "sehr stark aufgewertete :D " Ti4200 wohl mächtig steigen. wer also noch eine Ti4200 will sollte sich beeilen. Bei der MX440 hat sich wenigstens was getan. 275MHz Core + 256MHz RAM sind nicht einmal so schlecht. Da wird die Performance dann wohl auf ATi9000 Niveau liegen, allerdings ohne DX8.1 (natürlich).

ow
2002-09-24, 22:04:50
@ Tarkin, Nagus

Euren Posting-Müll habe ich dorthin entsorgt wo er hingehört: in den Müll.

Das kann ich nämlich auch.

egdusp
2002-09-24, 23:03:50
Für mich hört sich der Heise Artikel an, als ob der AF Bug behoben und die Übertaktbarkeit erheblich verbessert wurde. Nichts anderes wurde erhofft.

Den PCPOP.com.cn Artikel kann man per Direktlink nicht aufrufen.

Salvee
2002-09-24, 23:24:09
Also die Hauptaussage aus dem heise-Bericht ist für mich bislang folgende:

"TexBench bescheinigte der AGP8X-Karte sogar eine um 8 Prozent niedrigere Texturlade-Geschwindigkeit, obwohl dieser Vorgang besonders vom höheren AGP-Durchsatz profitieren sollte." (AGP8x im Vergleich zu 2x, wohlgemerkt !)

Die momentanen AGP8x Implementierungen seitens der Boardhersteller (hier der VIA KT400) sowohl die der Grakahersteller (ATi-Probleme bzw. neue Chiprevision, offensichtlich miese nV-Performance) scheinen ja noch unter aller Kanone zu sein.

Hoffentlich wird so langsam mal geklärt, welche Hardware oder Spec-Verletzung oder was auch immer denn im Endeffekt Ursache dieser ganzen Probleme ist!

Richthofen
2002-09-24, 23:30:08
"
Da werden die Preise für diese "sehr stark aufgewertete " Ti4200 wohl mächtig steigen
"
Ehrlich gesagt gibt es eigentlich keine Anzeichen, das die Karten deutlich teurer werden.
Ich rechner eher mit einer stillen leisen Einführung.
Nvidia wird zwar bissl mehr für den Chip nehmen, aber so viel nun auch wieder nicht.
Die Grakahersteller selber werden nach kurzer Zeit die Karten ganz normal einreihen.
Die Ti4400 läuft eh aus, und die Ti4600 wird in nicht allzulanger Zeit vom NV30 ersetzt.
Bleiben MX440 + SE, 420 für absolut Low COst und Ti4200 übrig.
Eigentlich gabs für NV nur 2 Schwerpunkte mit dem NV18 bzw 28.

1. Produktionskosten senken, ich denke die haben da sicher was optimiert noch so wie es AMD und CO auch ständig machen.
2. AGP8x ist unheimlich wichtig für OEMs.
Wenn es AGP8x Boards gibt, dann will man auch Grakas dafür. 8x ist mehr als 4x, und so werben die OEMs. Es ist schwer einen AGP 8x nForce2 zu vermarkten, wenn man selber unfähig ist AGP8x Karten herzustellen.
Der finanzielle Aufwand für dieses kleine Update des NV17/25 dürfte sich doch sehr in GRenzen gehalten haben, insofern sehe ich nicht, das die Karten deutlich teurer werden. Ich rechner er mit einer Ablösung über die nächsten Monate was den NV17 und NV25 betrifft.

PCGH_Thilo
2002-09-25, 00:15:55
Originally posted by Unregistered
Ha...

Link : http://www.heise.de/newsticker/data/law-24.09.02-000/


Änderungen : Bugfixes + AGP 8x das ist alles.

Anscheinend gibt es aber nur die Ti4200 und die MX440 mit AGP8x.
Da werden die Preise für diese "sehr stark aufgewertete :D " Ti4200 wohl mächtig steigen. wer also noch eine Ti4200 will sollte sich beeilen. Bei der MX440 hat sich wenigstens was getan. 275MHz Core + 256MHz RAM sind nicht einmal so schlecht. Da wird die Performance dann wohl auf ATi9000 Niveau liegen, allerdings ohne DX8.1 (natürlich).

im schnitt liegt die mx-440-8x auf dem niveau einer 9000/64. übertaktet man sie auf das maximum (bei uns: 370/740!), dann ist sie etwas schneller als 9000 Pro/64. nv hat wohl vor allem die fertigung optimiert. solche taktraten waren noch mit keiner gf4 ti zu erreichen. der agp8x-effekt ist gleich null, allerdings erlaubt erst der 40.41 überhaupt 8x (und der ist noch beta).

Tarkin
2002-09-25, 08:43:39
Originally posted by PCGH_Thilo


im schnitt liegt die mx-440-8x auf dem niveau einer 9000/64. übertaktet man sie auf das maximum (bei uns: 370/740!), dann ist sie etwas schneller als 9000 Pro/64. nv hat wohl vor allem die fertigung optimiert. solche taktraten waren noch mit keiner gf4 ti zu erreichen. der agp8x-effekt ist gleich null, allerdings erlaubt erst der 40.41 überhaupt 8x (und der ist noch beta).

370/740 ...???

ähhh irgendwie klingt das etwas unglaubwürdig.

Für eine MX440 zumindest. (Standardtakt 275/270, oder?)

ow
2002-09-25, 09:21:05
*Thread vom Muell befreit*

ow
2002-09-25, 09:22:59
Originally posted by Tarkin


370/740 ...???

ähhh irgendwie klingt das etwas unglaubwürdig.

Für eine MX440 zumindest. (Standardtakt 275/270, oder?)


"Die OEM-Ausführung einer V9180 von Asus mit dem neuen MX440 8X aus einem in Kürze erhältlichen Rechner von 4MBO, dort als GeForce4 MX468 bezeichnet, konnte die c't-Redaktion auch noch mit erheblich höheren Taktraten betreiben. Der Chip selbst akzeptierte klaglos bis zu 351 MHz. Der Speicher arbeitete auch noch mit 338 MHz, bevor es im 3DMark-Test Draghotic zu ersten Bildfehlern kam.


Quelle: http://www.heise.de/newsticker/data/law-24.09.02-000/

Tarkin
2002-09-25, 09:45:18
ne wirklich tolle Geforce2 TI ULTRA, ULTRA

... wirklich beeindruckend, aber leider nur ein DX7 Chip. :bäh:

Nvidia ist wirklich Meister im "uralte Chips Aufwärmen"

ATI ist, mit der Fülle neuer Chips im Herbst, praktisch eine ganze Generation voraus.

ATIs lowcost ist DX8.1 fähig, alles andere DX9

Und Nvidias Produkte? ... DX7 und DX8 Chips. (im mobile Berich siehts nicht besser aus)

Nvidias nv17 bzw. nv28 kommen mir ziemlich "hilflos" vor. Nur um irgend ein neues Produkt noch vor Weihnachten in den Läden zu haben.

nagus
2002-09-25, 10:19:44
Originally posted by Tarkin
ne wirklich tolle Geforce2 TI ULTRA, ULTRA

... wirklich beeindruckend, aber leider nur ein DX7 Chip. :bäh:

Nvidia ist wirklich Meister im "uralte Chips Aufwärmen"

ATI ist, mit der Fülle neuer Chips im Herbst, praktisch eine ganze Generation voraus.

ATIs lowcost ist DX8.1 fähig, alles andere DX9

Und Nvidias Produkte? ... DX7 und DX8 Chips. (im mobile Berich siehts nicht besser aus)

Nvidias nv17 bzw. nv28 kommen mir ziemlich "hilflos" vor. Nur um irgend ein neues Produkt noch vor Weihnachten in den Läden zu haben.


ganz meine meinung.

nggalai
2002-09-25, 10:52:21
Hi Tarkin,Originally posted by Tarkin
Nvidias nv17 bzw. nv28 kommen mir ziemlich "hilflos" vor. Nur um irgend ein neues Produkt noch vor Weihnachten in den Läden zu haben. Das Ding heisst NV18. Und wenn Du meinst, dass das Ding nur dazu da ist, dass halt trotzdem mangels NV30 noch was neues zu Weihnachten in den Geschäften liegt, hast Du nicht verstanden, wie das mit Produkteplanung und so funktioniert.

ta,
.rb

Tarkin
2002-09-25, 11:10:22
Originally posted by nggalai
Hi Tarkin,Das Ding heisst NV18. Und wenn Du meinst, dass das Ding nur dazu da ist, dass halt trotzdem mangels NV30 noch was neues zu Weihnachten in den Geschäften liegt, hast Du nicht verstanden, wie das mit Produkteplanung und so funktioniert.

ta,
.rb

Ja, BITTE erklärs mir!

nggalai
2002-09-25, 11:20:56
Hi Tarkin,

war nicht bös gemeint. ;) Aber mal nur kurz als Gedankenanstoss:

- Vorlaufzeit

- Strategische Planung (Stichwort nForce2, cf. Richthofen)

Hope this helps,
-Sascha.rb

egdusp
2002-09-25, 11:39:56
Und wieder einmal werden die Marketingabteilungen über den Erfolg der Chips entscheiden, denn es läuft IMO auf einen Zweikampf Bekanntheit DX(9) gegen Bekanntheit Gerforce hinaus.
Die Radeon 9500 wird als einzigen erwähnenswerten Vorteil gegenüber dem NV28 die DX9 Fähigkeit haben (ich gehe mal von einem DX8 Speedgleichstand aus, da beide gleiche Raminterfaces und AA Techniken haben, nur bei AF wird Radeon9500 wahrscheinlich schneller sein).

Der NV28 dürfte aber eher billiger herzustellen sein => Preisvorteil nVidia.

IMO wird der NV28 das Mittelklassesegment beherrschen, zumal er in allen Benchmarks (es gibt ja bisher nur DX8) kaum schlechter sein wird.

Im Lowcostsegment wird es einen spannenden Kampf geben.

Eusti
2002-09-25, 12:56:24
Originally posted by Tarkin
Also IMO hat das Teil gegen eine ATI 9500er (die im Übrigen wahrscheinlich früher erscheint) keine Chance.Ja, sehe ich genauso. Folgendes dürfte vermutlich ungefähr hinkommen:

Die Radeon 9500 (4 Pipes, 128bit Ram) sollte fast genau die halbe Leistung einer 9700 bringen und somit in der Rohleistung knapp unter der GF4Ti 4200 liegen. In den allerdings viel wichtigeren Modes wie 2xAA + 4xAF sollte sie "ein gutes Stuck" vor der GF4Ti 4200 liegen (meine Schätzug 30%).

Die Radeon 9500PRO (8 Pipes, 128bit Ram) sollte in der Rohleistung auf dem Niveau der GF4Ti 4600 liegen. In den allerdings viel wichtigeren Modes wie 2xAA + 4xAF sollte sie "knapp" vor der GF4Ti 4600 liegen (meine Schätzug 15%).

Beiden Karten gemein dürfte sein, das Sie wegen der besseren Vertex-Shader in Extremsituationen Ihre maximale Leistung bereits mit einem kleineren Prozessor erreichen (für die GF4Ti-Serie also bessere Prozessoren gebraucht werden).

Zum öfters diskutierten Thema Vergleich: Ist mir doch egal ob die Karten DX8 oder 9 unterstützen. Bis die ersten DX9 Spiele kommen, sind beide Elektronikschrott. Somit ist ein Vergleich absolut korrekt (zumal die Preise ähnlich sein sollen). Meiner Meinung nach wird die GF4Ti auf ganzer Linie verlieren (Voraussetzung: ATI bekommt endlich Ihre Treiber in den Griff und es laufen auf den Karten mehr als 95% der Games).

Tarkin
2002-09-25, 13:17:27
Originally posted by Eusti
Ja, sehe ich genauso. Folgendes dürfte vermutlich ungefähr hinkommen:

Die Radeon 9500 (4 Pipes, 128bit Ram) sollte fast genau die halbe Leistung einer 9700 bringen und somit in der Rohleistung knapp unter der GF4Ti 4200 liegen. In den allerdings viel wichtigeren Modes wie 2xAA + 4xAF sollte sie "ein gutes Stuck" vor der GF4Ti 4200 liegen (meine Schätzug 30%).

Die Radeon 9500PRO (8 Pipes, 128bit Ram) sollte in der Rohleistung auf dem Niveau der GF4Ti 4600 liegen. In den allerdings viel wichtigeren Modes wie 2xAA + 4xAF sollte sie "knapp" vor der GF4Ti 4600 liegen (meine Schätzug 15%).

Beiden Karten gemein dürfte sein, das Sie wegen der besseren Vertex-Shader in Extremsituationen Ihre maximale Leistung bereits mit einem kleineren Prozessor erreichen (für die GF4Ti-Serie also bessere Prozessoren gebraucht werden).

Zum öfters diskutierten Thema Vergleich: Ist mir doch egal ob die Karten DX8 oder 9 unterstützen. Bis die ersten DX9 Spiele kommen, sind beide Elektronikschrott. Somit ist ein Vergleich absolut korrekt (zumal die Preise ähnlich sein sollen). Meiner Meinung nach wird die GF4Ti auf ganzer Linie verlieren (Voraussetzung: ATI bekommt endlich Ihre Treiber in den Griff und es laufen auf den Karten mehr als 95% der Games).


also ich glaub schon, dass die 9500er min. (ohne AA/AF) so schnell wie eine GF4 4400 sein wird. Schließlich hat das Teil praktisch die gleichen Specs, wie eine 4400 ... bis auf 4 Vertex Shader, HyperZ III, Smoothvision 2.0, DX9 Support,....

WArum sollte also eine 9500er (keine Pro) "nur" so schnell wie eine (niedriger getaktete) GF4 4200 sein ??? Kann mir das jemand erklären?

die 9500pro (also die mit 8 Pipelines) dürfte (nach den Speks.) eine 4600er leicht überflügeln (doppelt soviel Pipelines, Vertex Shader,... und den ganzen anderen R300 Kram ;)

Tarkin
2002-09-25, 13:22:14
Originally posted by Eusti

Meiner Meinung nach wird die GF4Ti auf ganzer Linie verlieren (Voraussetzung: ATI bekommt endlich Ihre Treiber in den Griff und es laufen auf den Karten mehr als 95% der Games).


stimme ich zu, allerdings HAT ATI die Treiber im Griff!

Ich habe selbst eine 9700er und ich hatte noch nicht EINEN Absturz, oder ähnliche Probleme. Die Treiber sind SEHR stabil. Da und dort gibts zwar noch kleinere Probleme ... die Lister der Spiele läßt sich allerdings an einer Hand abzählen.

ow
2002-09-25, 13:26:32
Originally posted by Tarkin



stimme ich zu, allerdings HAT ATI die Treiber im Griff!



:rofl:


Ich gehe mal stark dabvon aus, dass du noch NIE eine Karte mit wirklich guten Treibern in der Hand hattest.

ow
2002-09-25, 13:29:51
Originally posted by Eusti
Ja, sehe ich genauso. Folgendes dürfte vermutlich ungefähr hinkommen:

Die Radeon 9500 (4 Pipes, 128bit Ram) sollte fast genau die halbe Leistung einer 9700 bringen und somit in der Rohleistung knapp unter der GF4Ti 4200 liegen. In den allerdings viel wichtigeren Modes wie 2xAA + 4xAF sollte sie "ein gutes Stuck" vor der GF4Ti 4200 liegen (meine Schätzug 30%).





Es ist schwer die Leistung der 9500er abzuschaetzen, weil man u.a nicht weiss, inwieweit das RAM-Interface und die Pixelpipes der R9700 denn auch ausgelastet sind.


Wenn die normale 9500 mit 4 pipes und 128Bit DDR kommt, dann hat sie rechnerisch nur die halbe Rohleistung einer R9700 und liegt damit deutlich unter jeder GF4.

Mit AA und AF wird sich das aber wohl zugunsten der 9500 verschieben.

egdusp
2002-09-25, 13:47:32
Originally posted by Tarkin



also ich glaub schon, dass die 9500er min. (ohne AA/AF) so schnell wie eine GF4 4400 sein wird. Schließlich hat das Teil praktisch die gleichen Specs, wie eine 4400 ... bis auf 4 Vertex Shader, HyperZ III, Smoothvision 2.0, DX9 Support,....

WArum sollte also eine 9500er (keine Pro) "nur" so schnell wie eine (niedriger getaktete) GF4 4200 sein ??? Kann mir das jemand erklären?


Ja kann ich. Die Radeon 9500 hat zwar 4 Pipelines, aber nur 1 TMU je Pipeline. In füllratenkritischen Situationen mit viel Multitexturing (ist heute Norm) wird sie die doppelte Texelleistung haben (bei gleichem Chiptakt).
Die 4 Vertex Shader sind momentan IMO noch nicht notwendig und werden außer evtl. in LowRes keine Vorteile bei den fps bringen, da eher Füllratenengpässe vorliegen. Dies wird sich wohl erst bei Einsatz des Lightningteils der T&L ändern, was aber AFAIK selbst Doom3 noch nicht benutzt (ich kann mich hier aber auch irren, Belehrungen willkommen).

HyperZ 3 ist zwar gegenüber HyperZ 2 verbessert worden, allerdings war LMA2 auch besser als HyperZ 2. Eine GF4 Ti hat eine gleichgetaktete Radeon 8500 ohne Probleme geschlagen, obwohl die Radeon 8500 weniger Passes braucht.
Wer also das bessere Memorymanagement hat, muss sich erst noch zeigen.

mfg
egdusp

Tarkin
2002-09-25, 13:52:13
Originally posted by ow




Es ist schwer die Leistung der 9500er abzuschaetzen, weil man u.a nicht weiss, inwieweit das RAM-Interface und die Pixelpipes der R9700 denn auch ausgelastet sind.


Wenn die normale 9500 mit 4 pipes und 128Bit DDR kommt, dann hat sie rechnerisch nur die halbe Rohleistung einer R9700 und liegt damit deutlich unter jeder GF4.

Mit AA und AF wird sich das aber wohl zugunsten der 9500 verschieben.

ich glaub, Du weißt so gut wie ich, dass diese Rechnung sicher nicht aufgeht. Außerdem *falls* die 9500er 1/2 so schnell sein sollte, dann ist sie mit AA immer noch min. so schnell wie eine 4600er!

Tarkin
2002-09-25, 14:10:18
Originally posted by ow


:rofl:


Ich gehe mal stark dabvon aus, dass du noch NIE eine Karte mit wirklich guten Treibern in der Hand hattest.

völlig richtig!

hatte vorher lange nvidia Karten (tnt, geforce, geforce3)

der Mythos, dass ATI schlechte Treiber produziert, ist ein DUMMES Vorurteil.

btw. Schon mal ins nvidia Hilfe-Forum geschaut? Da gibts auch genug user, die Probleme mit ihren Geforce Karten haben.

StefanV
2002-09-25, 14:15:41
Originally posted by ow


:rofl:


Ich gehe mal stark dabvon aus, dass du noch NIE eine Karte mit wirklich guten Treibern in der Hand hattest.

Die letzte Karte, die 'richtig gute' Treiber hatte, war meine Millenium...

Und natürlich (eingeschränkt) die Voodoo1...

StefanV
2002-09-25, 14:18:17
Originally posted by ow

Es ist schwer die Leistung der 9500er abzuschaetzen, weil man u.a nicht weiss, inwieweit das RAM-Interface und die Pixelpipes der R9700 denn auch ausgelastet sind.


Wenn die normale 9500 mit 4 pipes und 128Bit DDR kommt, dann hat sie rechnerisch nur die halbe Rohleistung einer R9700 und liegt damit deutlich unter jeder GF4.

Mit AA und AF wird sich das aber wohl zugunsten der 9500 verschieben.

Theoretisch...

Nur wie du weißt, liegen Theorie und Praxis 'manchmal' soweit auseinander wie Amazonas und Nil...

Außerdem solltest du nicht vergessen, daß die AF Implementation der GFs einfach nur zum Brechen ist (da zu lahm)...

ATI ist da besser, schaut zwar 'nicht so gut' aus, dafür ist ein Performaceverlust fast nicht vorhanden...

StefanV
2002-09-25, 14:22:58
Originally posted by Tarkin


völlig richtig!

hatte vorher lange nvidia Karten (tnt, geforce, geforce3)

der Mythos, dass ATI schlechte Treiber produziert, ist ein DUMMES Vorurteil.

btw. Schon mal ins nvidia Hilfe-Forum geschaut? Da gibts auch genug user, die Probleme mit ihren Geforce Karten haben.

1. naja :)

2. ich hatte auch schon einige NV Karten, hab sie aber alle wieder weggegeben...

3. es gibt keinen 'guten' Treiber!!
Irgendwo sind alle Treiber scheiße!
Das Control Panel von NV z.B.
Das neue von ATI ist da schon besser, richtig gut gefiel mir nur das 3DFX Panel für Voodoo 3/4/5...

4. diese Argumentation geht meist nach hinten los, da viele nicht die 'Erfahrung' haben, mit ihren Problemen klar zu kommen :)

Allerdings:

Schonmal 'nen RAID Controller mit 'ner GraKa sharen lassen??
Hab ich auch schonmal und mich gewundert, warum sich meine GF1 DDR immer aufhängt (hab 'mal eben' von Radeon auf GF1 umgebaut :))...

Pussycat
2002-09-25, 14:23:35
Originally posted by egdusp


Ja kann ich. Die Radeon 9500 hat zwar 4 Pipelines, aber nur 1 TMU je Pipeline. In füllratenkritischen Situationen mit viel Multitexturing (ist heute Norm) wird sie die doppelte Texelleistung haben (bei gleichem Chiptakt).
Die 4 Vertex Shader sind momentan IMO noch nicht notwendig und werden außer evtl. in LowRes keine Vorteile bei den fps bringen, da eher Füllratenengpässe vorliegen. Dies wird sich wohl erst bei Einsatz des Lightningteils der T&L ändern, was aber AFAIK selbst Doom3 noch nicht benutzt (ich kann mich hier aber auch irren, Belehrungen willkommen).

HyperZ 3 ist zwar gegenüber HyperZ 2 verbessert worden, allerdings war LMA2 auch besser als HyperZ 2. Eine GF4 Ti hat eine gleichgetaktete Radeon 8500 ohne Probleme geschlagen, obwohl die Radeon 8500 weniger Passes braucht.
Wer also das bessere Memorymanagement hat, muss sich erst noch zeigen.

mfg
egdusp

Schöne Analyse!

Eines hast du jedoch vergessen, nl. der Memory Controller. Falls der CBMC des 9700 den Sprung nach 128 bit geschafft hat, wird dies auch ein Vorteil gegen den 8500 bringen (hatte nur 2 unterteilungen statt 4).

Tarkin
2002-09-25, 14:55:27
Originally posted by Stefan Payne


1. naja :)

2. ich hatte auch schon einige NV Karten, hab sie aber alle wieder weggegeben...

3. es gibt keinen 'guten' Treiber!!
Irgendwo sind alle Treiber scheiße!
Das Control Panel von NV z.B.
Das neue von ATI ist da schon besser, richtig gut gefiel mir nur das 3DFX Panel für Voodoo 3/4/5...

4. diese Argumentation geht meist nach hinten los, da viele nicht die 'Erfahrung' haben, mit ihren Problemen klar zu kommen :)

Allerdings:

Schonmal 'nen RAID Controller mit 'ner GraKa sharen lassen??
Hab ich auch schonmal und mich gewundert, warum sich meine GF1 DDR immer aufhängt (hab 'mal eben' von Radeon auf GF1 umgebaut :))...

... genau das meine ich. Wenn etwas mal nicht auf Anhieb funktionier, dass heißt es gleich "SCHEISS ATI TREIBER". Dabei ist in 90% der Fällen der User (bzw. dessen System schuld).

Ich wundere mich immer wieder, wenn bei manchen Usern Spiele nicht richtig funktionieren, die bei mir 1A laufen.

Ist dann immer toll, wenn alles auf die ATI Treiber geschoben wird.

ow
2002-09-25, 15:38:09
Originally posted by Tarkin


völlig richtig!

hatte vorher lange nvidia Karten (tnt, geforce, geforce3)

der Mythos, dass ATI schlechte Treiber produziert, ist ein DUMMES Vorurteil.

btw. Schon mal ins nvidia Hilfe-Forum geschaut? Da gibts auch genug user, die Probleme mit ihren Geforce Karten haben.



blablabla

Hast du noch was sinnvolles vorzutragen?

Es ist TATSACHE, dass die ATi Treiber schlecht sind.
Frag doch mal die ganzen Spielentwickler, warum die NV Karten bevorzugen.

Ich kann es dir sagen: die NV Treiber tun das, was sie tun sollen.
Und bei den ATi Treibern kann alles moeglich rauskommen, wenn ein Entwickler sauberen 3D Code drauf loslaesst.
Und da haben die Entwickler keinen Bock drauf.
So ist das und nicht anders.

ow
2002-09-25, 15:39:06
Originally posted by Stefan Payne


Die letzte Karte, die 'richtig gute' Treiber hatte, war meine Millenium...

Und natürlich (eingeschränkt) die Voodoo1...


Richtig gute Treiber haben derzeit PowerVR und NVidia.

ow
2002-09-25, 15:41:03
Originally posted by Stefan Payne


Theoretisch...

Nur wie du weißt, liegen Theorie und Praxis 'manchmal' soweit auseinander wie Amazonas und Nil...

Außerdem solltest du nicht vergessen, daß die AF Implementation der GFs einfach nur zum Brechen ist (da zu lahm)...

ATI ist da besser, schaut zwar 'nicht so gut' aus, dafür ist ein Performaceverlust fast nicht vorhanden...


Tja Stefan, wie oft muss ich dir das noch erklaeren:

Man kann entweder Komprommisse eingehen oder nicht.

Und NV setzt auf perfekte Bildqualitaet und opfert die nicht zugunsten der Performance wie ATi das tut.

ow
2002-09-25, 15:43:33
Originally posted by Tarkin


... genau das meine ich. Wenn etwas mal nicht auf Anhieb funktionier, dass heißt es gleich "SCHEISS ATI TREIBER". Dabei ist in 90% der Fällen der User (bzw. dessen System schuld).




Nein, in 90% der Faelle ist es eben der ATi Treiber und nicht der User Schuld.

Dass du als FanATiker diese Tatsachen immer verdrehst ist ja nix neues.

Salvee
2002-09-25, 16:07:09
Originally posted by ow
Und NV setzt auf perfekte Bildqualitaet und opfert die nicht zugunsten der Performance wie ATi das tut.

Das ist imo einer der Hauptgründe, warum TDFX das Zeitliche segnete.
Bildqualität kann man halt schlecht in den alles entscheidenden Balken ausdrücken ;).
Ausserdem liefert auch das R8500-AF-Verfahren ein mehr an Bildqualität und ist immer praxistauglich dank des geringen Performanceverlusts.

Das die momentan meisten Games (bzw. die Spieleerscheinungen seit Anfang des Jahres) angeblich besser auf nV-Hardware laufen, liegt wohl am besseren nV-Developersupport seit/vor ca. 1,5 bis 2 Jahren.
Da ATi hier seine Bemühungen extrem intensiviert hat (von 0 auf 100 sozusagen), gibt es eigentlich bei den Neuerscheinungen keinerlei 'Totalausfälle' mehr, sprich Games, die überhaupt nicht funktionieren (seinerzeit Lithtech-Games, beispielsweise).

Die nV-Neuerscheinungen bringen technisch nichts neues, der Kunde bekommt im Endeffekt eine oc-wütige Karte, er bezahlt also sozusagen eine Ti4200 und macht eine Ti4600 daraus. Nicht mehr und nicht weniger.

Eusti
2002-09-25, 16:16:06
Originally posted by Tarkin
Also ich glaub schon, dass die 9500er min. (ohne AA/AF) so schnell wie eine GF4 4400 sein wird. Schließlich hat das Teil praktisch die gleichen Specs, wie eine 4400 ... bis auf 4 Vertex Shader, HyperZ III, Smoothvision 2.0, DX9 Support,.... Warum sollte also eine 9500er (keine Pro) "nur" so schnell wie eine (niedriger getaktete) GF4 4200 sein Kann mir das jemand erklären?In meiner Prognose hab ich folgendes unterstellt: Durch das fehlen der 2 Textureinheit fehlt es dem 9500 an Rohleistung. Da der (offensichtlich vorhandene) Bandbreitenvorteil der 9500 ohne Einsatz von AA & AF nict so ins Gewicht fallen sollte, gehe ich von in etwa der Leistung einer 4200 aus.



Originally posted by Tarkin
Ich glaub, Du weißt so gut wie ich, dass diese Rechnung sicher nicht aufgeht. Außerdem *falls* die 9500er 1/2 so schnell sein sollte, dann ist sie mit AA immer noch min. so schnell wie eine 4600er! Ja, hab ich doch auch so geschrieben (deutlich schneller als eine 4200). Ich denke somit, du hast dich in diesem Punkt einfach nur verlesen.

ow
2002-09-25, 16:18:50
Originally posted by Salvee

Das ist imo einer der Hauptgründe, warum TDFX das Zeitliche segnete.
Bildqualität kann man halt schlecht in den alles entscheidenden Balken ausdrücken ;).
Ausserdem liefert auch das R8500-AF-Verfahren ein mehr an Bildqualität und ist immer praxistauglich dank des geringen Performanceverlusts.



Das AF der R8500 liefert einerseits mehr und andererseits weniger Qualitaet, weil es nicht mit dem trilinearen Filter arbeitet, die mipmap-level manchmal wohl etwas seltsam bestimmt werden und Artefakte zeigt. Dazu ist der AF-Level winkelabhaengig.

Fuer mich ueberwiegen die Nachteile des AFs von Ati so dass ich es nicht benutze (und manch anderer Ai User auch nicht).


Das die momentan meisten Games (bzw. die Spieleerscheinungen seit Anfang des Jahres) angeblich besser auf nV-Hardware laufen, liegt wohl am besseren nV-Developersupport seit/vor ca. 1,5 bis 2 Jahren.
Da ATi hier seine Bemühungen extrem intensiviert hat (von 0 auf 100 sozusagen), gibt es eigentlich bei den Neuerscheinungen keinerlei 'Totalausfälle' mehr, sprich Games, die überhaupt nicht funktionieren (seinerzeit Lithtech-Games, beispielsweise).



Schoen, wenn ATi sich da endlich mal engagiert.
Dazu gehoert IMO vorallem, dass man Fehler in den Treibern, die von Entwicklern gemeldet werden fixt, und nicht die Entwickler anweist, workarounds in ihren Code einzubauen.

Die Probs, die meine Radeon1 in Ut2003 zeigt kann nur ATi mit den Treibern fixen.
Epic wird sicher keine workarounds in den D3D Code einbasteln, damit die R7x00 Karten fehlerfei laufen.

Tarkin
2002-09-25, 16:25:56
Originally posted by ow




blablabla

Hast du noch was sinnvolles vorzutragen?

Es ist TATSACHE, dass die ATi Treiber schlecht sind.
Frag doch mal die ganzen Spielentwickler, warum die NV Karten bevorzugen.

Ich kann es dir sagen: die NV Treiber tun das, was sie tun sollen.
Und bei den ATi Treibern kann alles moeglich rauskommen, wenn ein Entwickler sauberen 3D Code drauf loslaesst.
Und da haben die Entwickler keinen Bock drauf.
So ist das und nicht anders.

:lol: :lol: :lol:

Tarkin
2002-09-25, 16:32:19
Originally posted by ow



Nein, in 90% der Faelle ist es eben der ATi Treiber und nicht der User Schuld.

Dass du als FanATiker diese Tatsachen immer verdrehst ist ja nix neues.

Ja, gibs mir, komm schon!

btw, nur weil ein paar nvidia fanboys die Dollars von nvidia in den Arsch geschoben bekommen (Tim Sweeney z.b.) und sich dann über ATI auslassen, heißt dass noch lange nicht, dass ATI schlechte Treiber macht!

Noch eine Frag: Welcher Hersteller hat z.Z. die beste Karte am Markt. ? :fuck:

und nvidia? ups, tut mir leid. ich hoffe du mußt jetzt nicht flennen!

:...(


und jetzt bitte verschone uns mit Aussagen wie "Ich hab 50.000 3D Anwendungen auf meine GF4 getestet, und die laufen alle SUPA-DIDUPA!"


und im Übrigen gehts hier wohl um die nv18/nv28.

Wenn das alles ist, was Nvidia zur Zeit zu bieten hat ...
Aber nur keine Bange, bis zur CeBIt gibts sicher schon erste nv30 Samples ;)

Eusti
2002-09-25, 16:53:30
Originally posted by Tarkin
Ja, gibs mir, komm schon!

btw, nur weil ein paar nvidia fanboys die Dollars von nvidia in den Arsch geschoben bekommen (Tim Sweeney z.b.) und sich dann über ATI auslassen, heißt dass noch lange nicht, dass ATI schlechte Treiber macht!

Noch eine Frag: Welcher Hersteller hat z.Z. die beste Karte am Markt. ? :fuck:

und nvidia? ups, tut mir leid. ich hoffe du mußt jetzt nicht flennen!

:...(


und jetzt bitte verschone uns mit Aussagen wie "Ich hab 50.000 3D Anwendungen auf meine GF4 getestet, und die laufen alle SUPA-DIDUPA!"


und im Übrigen gehts hier wohl um die nv18/nv28.

Wenn das alles ist, was Nvidia zur Zeit zu bieten hat ...
Aber nur keine Bange, bis zur CeBIt gibts sicher schon erste nv30 Samples ;)
Manchmal nimmst du die Dinge einfach zu persönlich.

Ich sehe das auch so, das ATI Scheiss Treiber hat. Alle meine Bekannten (und ich) die NVidia-Karten haben, haben keine Probleme. Alle meine Bekanten die eine ATI-Karte haben (ausser Andrea, die nutzt das Notebook aber nur zum surfen) haben immer wieder einmal ein Problem (nicht oft, aber immer wieder). Zusammen mit den Berichten im Internet, hat sich auch bei mir die Meinung gefestigt, das die ATI Treiber einfach schlechter sind.

Die NV18/NV28 sind momentan alles was NVidia zu bieten hat. Momentan reicht das auch locker, um die Spitzenposition im Grafikbereich einzunehmen (Preis/Leistung). Allerdings sehe ich da auch eine deutliche Verschiebung hin zu ATI. In 2 Montaten sieht es warscheinlich so aus:

- Low-End: ATI 9000 / Nvidia GF4MX (ATI deutlich im Vorteil)
- Mid-Range: ATI 9500 / NVidia GF4Ti (ATI deutlich im Vorteil)
- High-End: ATI 9700 / NVidia "nix" (ATI deutlich im Vorteil)

Da sieht es dann bis auf die Treiber (ja, komm du nur mit deinem blablabla) erheblich besser für ATI aus. Allerdings plant NVidia mit dem NV30 (8x2 Pipes, High-End) und dem NV31 (4x2 Pipes, Mid-Range) ja 2 neue Chips. Leistungen dürften bei beiden Chips über den jeweiligen ATI-Produkten liegen. Sollten diese Chips schnell kommen (4 Monate), sollte NVidia seine Führungsposition so lange mit dem aufgebauten Image retten können.

Salvee
2002-09-25, 16:55:24
Originally posted by ow
Die Probs, die meine Radeon1 in Ut2003 zeigt kann nur ATi mit den Treibern fixen.
Epic wird sicher keine workarounds in den D3D Code einbasteln, damit die R7x00 Karten fehlerfei laufen.

ow, beizeiten lasse ich den virtuellen Hut 'rumgehen, damit du deine R100 endlich wegwerfen kannst. Das Teil ist von vorgestern, und obwohl ich mich seit der R8500 sehr für ATi erwärmen kann, hätte ich mir die R100 nie und nimmer zugelegt. Bei der Präsentation damals auf der CeBit lief da als Demo-Game CMR2 mit aktiviertem Cube-Mapping auf der R100, mit schätzungsweise 5 Frames! Spätestens da war mir klar, dass das Ding nichts taugt. Es war nie eine 'richtige' Gamerkarte, und auch die heutigen Derivate sind keine, also ab auf den Müllhaufen der Geschichte damit *eg*.

Richthofen
2002-09-25, 18:49:11
Das Problem lieber Salvee ist, das ein Großteil der Fehler sich bei ATI durch die gesamte Produktpalette ziehen.
Viele Fehler der Radeon7x Serie findest du bei der 8x Serie und auch bei der 9x Serie.

ATI hat ja vorgegeben, dass sie extra für die 9700er die Treiber komplett neugeschrieben haben.
Gut das es Entwickler gibt und zudem noch nichtmal solche Größen wie Carmack und Sweeny, die sowas nachrpüfen.
Und was kam raus?

Reihenweise die selben Fehler wie bei der 8x Serie. Nach weiterem Untersuchen kam raus das der Treiber 0,0 neu ist und schlichtweg einfach ne DLL ausgetauscht wurde mehr nit, was den speziellen Fall des einen Entwicklers anging.

Gibt ein paar nette Threads dazu im Internet.
Also von Entwicklersupport kann bei ATI keine Rede sein. Der ist nicht vorhanden und ansonsten schlampig.
Mit Leuten wie J.C gibt man sich gerne ab mit den Kleinen aber nicht.
Das ist dumm für ATI, denn die Masse der Spiele sind nunmal von nicht so bekannten Entwicklern und so ergibt sich auch schnell das Ergebnis, dass wenn du abseits der Standardbenchmarks dich bewegst, es schnell zu Fehlern bei ATI Karten kommt.

Bei Nvidia kannst du wenn du ein Problem hast als kleiner Hannes ankommen und den Code in Ausschnitten deiner Engine schicken und die machen sich die Arbeit noch und schaun drüber.
Das ist guter Entwicklersupport und führt letztlich dazu das nahezu 100% hauptsächlich sich bei Nvidia bewegen und deswegen wird ATI das Problem auch nicht in den Griff bekommen ausser sie investieren mal gescheit viel Geld da rein.

Salvee
2002-09-25, 19:10:53
@ Richthofen
Erstmal Congrats zum 1000. Post, der bald kommt ;).
Nein, ich bin kein 3DMark Junkie, der nichts ausserhalb der gängigen Benchmarks auf seinem Rechner laufen lässt.
Auch ich verdinge mich von Zeit zu Zeit mit Scene-Demos (habe knapp einhundert, zugegebenermassen nicht soviele wie ow) sowie Emulatoren, die abseits vom Mainstream liegen, und muss zu deiner Enttäuschung feststellen, das 99% fehlerfrei läuft (PVR-Demos mal aussen vor gelassen, find ich grafisch sowieso uninteressant). Anfangs war das weiss Gott nicht so mit der R8500 (Lithtech oder Soul Reaver z.B), aber mittlerweile kann das JEDER nachvollziehen, der zumindest eine R200 sein Eigen nennt *hint*. Mit anderen Developern meinst du hoffentlich nicht Derek Smart, denn abgesehen davon, dass seine Games zum Reihern sind, scheinen sie noch auf der Engine von `96 zu basieren.
Wie gesagt, ich spreche aus EIGENER Erfahrung, und zu jedem Thread, der irgendwelche Probleme heraufbeschwört, findet sich auch mindestens ein Gegenthread (das ist Fluch und Segen der Internetforen).
Der nV-Support war in der Vergangenheit mit Sicherheit um Welten besser als jeder andere, momentan und zukünftig wird ATi da aber 100% gleichziehen, davon kann jeder rational denkende Mensch ausgehen.

Exxtreme
2002-09-25, 19:20:00
Naja, eine ATi-Treiber-Diskussion hatten wir mindestens schon 10x. Fakt ist, daß diese Treiber immer besser wurden, Fakt ist aber, daß ATi noch einen langen Weg vor sich hat, was Treiber-Entwicklung angeht. Die R9700-Treiber stufe ich z.Zt. als gleichwertig mit den R8500-Treibern ein was Spiele-Kompatibilität angeht, vielleicht sind sie noch ein Tick besser, obwohl sie ein wirklich frühes Stadium haben. Alle meine Spiele laufen gut bis sehr gut. Es gibt vereinzelt Z-Fehler zu sehen bei grosser Sichtweite. Aber das dürfte auch in den Griff zu kriegen sein. Zum Developer-Support kann ich jetzt nichts sagen da ich kein registrierter ATi-Dev bin und ich es auch nicht vorhabe zu werden, vielleicht sagt zeckensack was dazu. Auf jeden Fall gibt es jetzt auf der ATi-Website ein Formular, bei dem man seine Fehler, welche durch den Treiber produziert werden, eintragen kann. Ob's hilft, keine Ahnung.

Gruß
Alex

ow
2002-09-25, 19:53:18
Originally posted by Salvee


ow, beizeiten lasse ich den virtuellen Hut 'rumgehen, damit du deine R100 endlich wegwerfen kannst. Das Teil ist von vorgestern, und obwohl ich mich seit der R8500 sehr für ATi erwärmen kann, hätte ich mir die R100 nie und nimmer zugelegt. Bei der Präsentation damals auf der CeBit lief da als Demo-Game CMR2 mit aktiviertem Cube-Mapping auf der R100, mit schätzungsweise 5 Frames! Spätestens da war mir klar, dass das Ding nichts taugt. Es war nie eine 'richtige' Gamerkarte, und auch die heutigen Derivate sind keine, also ab auf den Müllhaufen der Geschichte damit *eg*.

Hö:|

Sorry, aber was ist denn das für ein dummes Gespräch?

Die Radeon Chips sind seit jeher ausgezeichnet und wenn sie mal richtig laufen, dann tun sie das hervorragend.

Leider hat ATi die Treiber vermurkst, es treten oft Fehldarstellungen auf und bisweilen lässt auch die Performance zu wünschen übrig (Beispiel: Comanche 4 Demo, in allen Auflösungen und Farbtiefen und auch mit 2xAA ist meine Gf2MX schneller).


Mit der Radeon liesse sich hervorragend gamen, wenn denn die Treiber mal ein akzeptables Qualitätsniveau hätten.
btw. game ich fast gar nicht.
3D-Darstellung ist auch nicht auf´s Gamen beschränkt.

ow
2002-09-25, 19:59:19
Originally posted by Salvee
Der nV-Support war in der Vergangenheit mit Sicherheit um Welten besser als jeder andere, momentan und zukünftig wird ATi da aber 100% gleichziehen, davon kann jeder rational denkende Mensch ausgehen.


???

Was ist daran rational?
ATi hat das bisher nicht für nötig gehalten und trotzdem wird es jetzt als logische Gegebenheit dargestellt?

Das muss ATi erst mal zeigen, dass sie den gleichen Support wie Nv leisten können und solange sie das nicht tun, glaube ich da auch nicht dran.

StefanV
2002-09-25, 20:25:59
@ow

An den 'ach so tollen' NV Treibern stört mich z.B. das Panel, daß kaum Optionen bietet, auch der Support vom TV Out und Widerholrateneinstellung in 1Hz schritten vermisse ich.

Wie gesagt, die letzte Karte, die ich hatte, die gute Treiber hatte, war die Millenium mit MGA-2064W Chip drauf, alles danach, hatte überall Macken.

Und hör entlich mit dem lächerlichen ATI gebashe aus, du hast nur 'ne R100, davon auf 'ne 8500 oder sogar 9700 zu schließen ist absolut falsch, genauso, wie es falsch ist, von 'ner GF2 MX auf 'ne GF4 TI zu schließen!!

Und das mit den 'Qualität is besser' kannst dir auch in die Tasche stecken, damit ist 3DFX schon gescheitert, wichtig ist halt nur Performance, denn die kann man in 'Balken sichtbar' machen!!

Wichtig ist, daß ein Feature ohne großen Performanceverlust nutzbar ist!!

Das AF von der G4 ist schwachsinn, da viel zu lahm (weswegen es wohl nicht soo viele nutzen werden)...

Tarkin
2002-09-25, 20:47:30
Originally posted by ow

...

Es ist TATSACHE, dass die ATi Treiber schlecht sind.
Frag doch mal die ganzen Spielentwickler, warum die NV Karten bevorzugen.

Ich kann es dir sagen: die NV Treiber tun das, was sie tun sollen.
Und bei den ATi Treibern kann alles moeglich rauskommen, wenn ein Entwickler sauberen 3D Code drauf loslaesst.
Und da haben die Entwickler keinen Bock drauf.
So ist das und nicht anders.

...

???

Was ist daran rational?
ATi hat das bisher nicht für nötig gehalten und trotzdem wird es jetzt als logische Gegebenheit dargestellt?

Das muss ATi erst mal zeigen, dass sie den gleichen Support wie Nv leisten können und solange sie das nicht tun, glaube ich da auch nicht dran.

Blödsinn!!

"... Now that every developer who matters (and even some that don’t) are armed with Radeon 9700 Pro’s, you can be rest assured that tomorrow’s games will be able to fully exploit ATI’s technology."

http://www.gamersdepot.com/events/ati_mojo_day/001.htm

BRAVO ATI kann ich da nur sagen. Ein auf der ganzen Linie gelungenes Event! Und den Entwicklern hats offensichtlich auch Spaß gemacht ;)

also dein Argument, dass alle Entwickler nvidia bevorzugen würden, ist idiotisch. Welcher Developer würde freiwillig noch auf einer Geforce4 entwickeln, wenn der eine 9700 von ATI haben kann?

(na außer vielleicht Tim Sweeney ... der aber zuhause sicher eine 9700er hat
:D )


zurück zur nv18:
http://www.tweaktown.com/document.php?dType=review&dId=366&dPage=4

... tolle Leistung, toller Preis!

"At a price of around $399 AU ($199 US roughly), the card is quite cheap. However, considering the fact that an ATi Radeon 9000 card can be purchased for just $377 AU ($188 US roughly) and features full DirectX 8.1 support, it is impossible for us to recommend the MX440-8X. The bottom line is, the chipset's lack of DirectX 8.1 support has spoiled an otherwise superb card."

typisch nVidia eben. Overpriced auf der ganzen Linie!

Demirug
2002-09-25, 21:21:51
Originally posted by Tarkin
Blödsinn!!

"... Now that every developer who matters (and even some that don’t) are armed with Radeon 9700 Pro’s, you can be rest assured that tomorrow’s games will be able to fully exploit ATI’s technology."

http://www.gamersdepot.com/events/ati_mojo_day/001.htm

BRAVO ATI kann ich da nur sagen. Ein auf der ganzen Linie gelungenes Event! Und den Entwicklern hats offensichtlich auch Spaß gemacht ;)

also dein Argument, dass alle Entwickler nvidia bevorzugen würden, ist idiotisch. Welcher Developer würde freiwillig noch auf einer Geforce4 entwickeln, wenn der eine 9700 von ATI haben kann?

(na außer vielleicht Tim Sweeney ... der aber zuhause sicher eine 9700er hat
:D )


du warst noch nie auf einer Developer-Konferenz, oder?

Die Radeon 9700 Pro's die dort "verschenkt" wurde werden nur zu einem sehr geringen Prozentsatz in einem Entwicklungsrechner landen. Die schrauben sich die Leute die dort waren zum grösten Teil in einen Privatrechner.

Für Entwickler ist die Karte im Moment sowieso noch nicht wirklich interesant. Es fehlen die DX9 Treiber. Ob das jetzt an ATi oder rechtlichen gründen liegt hab ich noch nicht genau herausgefunden.

Das NVIDIA "bevorzugt" wird hat zwei gründen:
1. Sie haben wirklich den derzeit besten DEV-Support.
2. Es gibt für NVIDIA Karten ein nettes kleines Programm welches beim suchen von Engpässen in der Engine sehr gute Dienste leistet.


zurück zur nv18:
http://www.tweaktown.com/document.php?dType=review&dId=366&dPage=4

... tolle Leistung, toller Preis!

"At a price of around $399 AU ($199 US roughly), the card is quite cheap. However, considering the fact that an ATi Radeon 9000 card can be purchased for just $377 AU ($188 US roughly) and features full DirectX 8.1 support, it is impossible for us to recommend the MX440-8X. The bottom line is, the chipset's lack of DirectX 8.1 support has spoiled an otherwise superb card."

typisch nVidia eben. Overpriced auf der ganzen Linie!

Woher haben die den Preis? Die $200 US waren in der Pressemeldung von NVIDIA als Zielpreis für die NV28 Karten angegeben

ow
2002-09-25, 22:01:32
Ich heb das mal hervor.:D
Vielleicht begreift das ja noch irgendwann der ein oder andere.



Das NVIDIA "bevorzugt" wird hat zwei gründen:
1. Sie haben wirklich den derzeit besten DEV-Support.
2. Es gibt für NVIDIA Karten ein nettes kleines Programm welches beim suchen von Engpässen in der Engine sehr gute Dienste leistet.

Salvee
2002-09-26, 05:12:22
Originally posted by ow
Ich heb das mal hervor.:D
Vielleicht begreift das ja noch irgendwann der ein oder andere.



Das NVIDIA "bevorzugt" wird hat zwei gründen:
1. Sie haben wirklich den derzeit besten DEV-Support.
2. Es gibt für NVIDIA Karten ein nettes kleines Programm welches beim suchen von Engpässen in der Engine sehr gute Dienste leistet.



1. Aber sie haben momentan zumindest nicht mehr die beste Hardware !
2. Auch von ATi kommt was brauchbares, nämlich Shaderbasteln leichtgemacht mit Rendermonkey ;)

Originally posted by ow
Was ist daran rational?
ATi hat das bisher nicht für nötig gehalten und trotzdem wird es jetzt als logische Gegebenheit dargestellt?

Das muss ATi erst mal zeigen, dass sie den gleichen Support wie Nv leisten können und solange sie das nicht tun, glaube ich da auch nicht dran.

Sagt dir 'QuakeCon 2002' irgend etwas?
Welche Firma hat diese nicht unerhebliche Veranstaltung gesponsort?
Auf wessen Hardware wurde gezockt? (Ist kein Dev-Support, ich weiss, zeigt aber die Marschrichtung an).
Einen sehr interessanten Bericht zu den DEVREL-Bemühungen findest du bei Onkel Tom (http://www.tomshardware.com/business/02q3/020925/atimojo-01.html).
Zum illustren Kreis der dort teilnehmenden Developer gehören u.a. Fox Interactive, Bioware, insgesamt 200 Personen/Studios.

Zu guter letzt findet sich auf Seite 16 des Berichts noch ein echter Hardwareleckerbissen, wie ich finde:

"ATI will soon have pixel shader support for the integrated market. This will mean that if you can afford a basic motherboard, you can afford pixel-shading hardware. That's all the more incentive for game developers."

Bei zügigem Erscheinen eines DX8-Mainboard-Chipsets kann nV wirklich nur noch auf die Dummheit der Leute zählen, um den MX-Elektroschrott unters Volk zu bringen*eg*.

(Leicht OT das Ganze, aber imo lesenswert).

Demirug
2002-09-26, 07:49:42
Originally posted by Salvee
1. Aber sie haben momentan zumindest nicht mehr die beste Hardware !
2. Auch von ATi kommt was brauchbares, nämlich Shaderbasteln leichtgemacht mit Rendermonkey ;)


1. Die "beste" Hardware für den Spieler ist nicht zwangsläufig die beste Hardware für den Entwickler. Der Speed ist sowieso zweitrangig da man die meiste Zeit mit DX-Debug Versionen arbeitet die sowieso als bremse wirken.

2. ach ja Rendermonkey. Im Moment kann man dazu nur sagen:
Viel versprochen aber bisher wenig gehalten.
Brauchbar ist es im Moment noch nicht wirklich (ok ist ja auch nur eine Beta). Der Designer braucht sowas eher in seinem bevorzugtem Modler und für den Entwickler stellt das Tool auch keine Arbeitserleichterung da.


Sagt dir 'QuakeCon 2002' irgend etwas?
Welche Firma hat diese nicht unerhebliche Veranstaltung gesponsort?
Auf wessen Hardware wurde gezockt? (Ist kein Dev-Support, ich weiss, zeigt aber die Marschrichtung an).
Einen sehr interessanten Bericht zu den DEVREL-Bemühungen findest du bei Onkel Tom (http://www.tomshardware.com/business/02q3/020925/atimojo-01.html).
Zum illustren Kreis der dort teilnehmenden Developer gehören u.a. Fox Interactive, Bioware, insgesamt 200 Personen/Studios.


Beide Veranstaltungen wurde wohl so stark vom Marketing geprägt. Was im Devsupport aber viel wichtiger ist wäre das Tagesgeschäft und da hat ATi noch Mängle. Sie geloben allerding besserung.


Zu guter letzt findet sich auf Seite 16 des Berichts noch ein echter Hardwareleckerbissen, wie ich finde:

"ATI will soon have pixel shader support for the integrated market. This will mean that if you can afford a basic motherboard, you can afford pixel-shading hardware. That's all the more incentive for game developers."

Bei zügigem Erscheinen eines DX8-Mainboard-Chipsets kann nV wirklich nur noch auf die Dummheit der Leute zählen, um den MX-Elektroschrott unters Volk zu bringen*eg*.

(Leicht OT das Ganze, aber imo lesenswert).

Pixelshader im Mainboardchipsatz wären ganz nett. Aber als game developer bin ich sowieso kein grosser Freund dieser Lösungen da es den Chipssatz Grafikkernen in der Regel eher an der Fillrate mangelt.

Tarkin
2002-09-26, 08:32:44
Originally posted by ow
Ich heb das mal hervor.:D
Vielleicht begreift das ja noch irgendwann der ein oder andere.



Das NVIDIA "bevorzugt" wird hat zwei gründen:
1. Sie haben wirklich den derzeit besten DEV-Support.
2. Es gibt für NVIDIA Karten ein nettes kleines Programm welches beim suchen von Engpässen in der Engine sehr gute Dienste leistet.



Ja, aber sicher doch ... den "BESTEN"


Also IMO reißt sich ATI z.Z. ziemlich den Arsch auf, um ihre DX9 Hardware unters Entwickler-Volk zu bringen. Das wird spätestens in 6-12 Monaten Früchte tragen. Dann nämlich wenn alle DX9 Spiele auf ATI Hardware entwicklet wurde...

ähhh... wo ist den eigentlich nvidias DX9 Hardware ... :bäh:

Tarkin
2002-09-26, 08:33:23
Originally posted by Salvee


1. Aber sie haben momentan zumindest nicht mehr die beste Hardware !
2. Auch von ATi kommt was brauchbares, nämlich Shaderbasteln leichtgemacht mit Rendermonkey ;)



Sagt dir 'QuakeCon 2002' irgend etwas?
Welche Firma hat diese nicht unerhebliche Veranstaltung gesponsort?
Auf wessen Hardware wurde gezockt? (Ist kein Dev-Support, ich weiss, zeigt aber die Marschrichtung an).
Einen sehr interessanten Bericht zu den DEVREL-Bemühungen findest du bei Onkel Tom (http://www.tomshardware.com/business/02q3/020925/atimojo-01.html).
Zum illustren Kreis der dort teilnehmenden Developer gehören u.a. Fox Interactive, Bioware, insgesamt 200 Personen/Studios.

Zu guter letzt findet sich auf Seite 16 des Berichts noch ein echter Hardwareleckerbissen, wie ich finde:

"ATI will soon have pixel shader support for the integrated market. This will mean that if you can afford a basic motherboard, you can afford pixel-shading hardware. That's all the more incentive for game developers."

Bei zügigem Erscheinen eines DX8-Mainboard-Chipsets kann nV wirklich nur noch auf die Dummheit der Leute zählen, um den MX-Elektroschrott unters Volk zu bringen*eg*.

(Leicht OT das Ganze, aber imo lesenswert).

:bier:

ow
2002-09-26, 09:26:05
Originally posted by Tarkin


Ja, aber sicher doch ... den "BESTEN"


Also IMO reißt sich ATI z.Z. ziemlich den Arsch auf, um ihre DX9 Hardware unters Entwickler-Volk zu bringen. Das wird spätestens in 6-12 Monaten Früchte tragen. Dann nämlich wenn alle DX9 Spiele auf ATI Hardware entwicklet wurde...

ähhh... wo ist den eigentlich nvidias DX9 Hardware ... :bäh:


Aeh wo ist denn eigentlich DX9?

Demirug
2002-09-26, 09:27:05
Originally posted by Tarkin


Ja, aber sicher doch ... den "BESTEN"


Also IMO reißt sich ATI z.Z. ziemlich den Arsch auf, um ihre DX9 Hardware unters Entwickler-Volk zu bringen. Das wird spätestens in 6-12 Monaten Früchte tragen. Dann nämlich wenn alle DX9 Spiele auf ATI Hardware entwicklet wurde...

ähhh... wo ist den eigentlich nvidias DX9 Hardware ... :bäh:

Tarkin,

ow hat mich zitiert. ergo bitte mich angreifen. :)

naja eine DevCon zu veranstalten und den Leuten am ende eine Karte in die Hand zu drücken ist nicht gerade den Arsch aufreissen. NVIDIA macht sowas regelmässig. Es ist aber schön das ATi jetzt auch auf diesen Zug aufspringt und das Marketing hat das ganze nach aussen wirklich sehr gut vermarktet.

Als DX9 Hardware ist die R9700 im Moment aber noch vollkommen unbrauchbar. Es gibt einfach keine Treiber. Ergo entwickelt im Moment auch niemand ein DX9 Spiel/Anwendung (reine DX9 Spiele werden wir sowieso nicht vor > 24 Monaten sehen) auf einer R9700 Hardware.

Und mal ganz im ernst:
Glaubst du wirklich das nur weil ATi ein paar Karten verteilt hat jetzt jeder Entwickler ab sofort nur noch mit ATi Karten entwickelt?

Tarkin
2002-09-26, 09:37:06
Originally posted by Demirug


Tarkin,

ow hat mich zitiert. ergo bitte mich angreifen. :)

naja eine DevCon zu veranstalten und den Leuten am ende eine Karte in die Hand zu drücken ist nicht gerade den Arsch aufreissen. NVIDIA macht sowas regelmässig. Es ist aber schön das ATi jetzt auch auf diesen Zug aufspringt und das Marketing hat das ganze nach aussen wirklich sehr gut vermarktet.

Als DX9 Hardware ist die R9700 im Moment aber noch vollkommen unbrauchbar. Es gibt einfach keine Treiber. Ergo entwickelt im Moment auch niemand ein DX9 Spiel/Anwendung (reine DX9 Spiele werden wir sowieso nicht vor > 24 Monaten sehen) auf einer R9700 Hardware.

Und mal ganz im ernst:
Glaubst du wirklich das nur weil ATi ein paar Karten verteilt hat jetzt jeder Entwickler ab sofort nur noch mit ATi Karten entwickelt?

ich weiß, dass ATI die einzige DX9 Hardware hat!

und ich glaube nicht, dass DX9 Spiele, die gerade in Entwicklung sind, auf einer Nvidia Karte entwicklet werden.

Oder irre ich mich da?

Und DX9 muß nicht erst released werden, damit Entwickler beginnen Spiele dafür zu programmieren, oder? Stell dir vor, ich hab daheim auch schon DX9 ;)

Ich glaube deshalb, dass viele zukünftige (DX9) Spiele auf ATI Hardware entwickelt wird.

Ach ja, hab ich schon erwähnt, dass es von nvidia noch keine DX9 Hardware gibt? ... Mein Tipp: CeBit 2003., nicht vorher!

tschüss-küss!

nggalai
2002-09-26, 09:43:00
Hi Tarkin,

bitte lies Demiurg etwas genauer, das ist er als 3D-Entwickler wert. ;)

Originally posted by Tarkin


ich weiß, dass ATI die einzige DX9 Hardware hat!

und ich glaube nicht, dass DX9 Spiele, die gerade in Entwicklung sind, auf einer Nvidia Karte entwicklet werden.

Oder irre ich mich da?

Und DX9 muß nicht erst released werden, damit Entwickler beginnen Spiele dafür zu programmieren, oder? Stell dir vor, ich hab daheim auch schon DX9 ;)
Dass es eine DX9-Beta gibt bestreitet ja niemand. Aber eben, hier nochmals das Relevante von Demiurg:Als DX9 Hardware ist die R9700 im Moment aber noch vollkommen unbrauchbar. Es gibt einfach keine Treiber. Ergo entwickelt im Moment auch niemand ein DX9 Spiel/Anwendung (reine DX9 Spiele werden wir sowieso nicht vor > 24 Monaten sehen) auf einer R9700 Hardware. Die schönste DX9-Hardware und Beta-DirectX bringen dir nichts, wenn die Radeon9700-Treiber nix damit anfangen können. Und das ist momentan noch Status Quo.

Und eben, ich hab' dich schonmal gefragt--dir ist schon ein wenig klar, wie das mit Produkte-Vorlaufzeiten funktioniert, oder? Das lässt sich auch auf das Produkt "Spiel" andwenden. Da kommen dann noch so schöne Sachen wie "Marktdurchdringung" und "least common denominator" hinzu.

ta,
-Sascha.rb

Richthofen
2002-09-26, 10:07:44
Kann es sein, das MS jegliche DX9 fähigen Treiber untersagt, bis DX9 draussen ist?

Demi?
Die Radeon Treiber sind definitiv noch nix DX9 also kann auch keiner DX9 drauf entwickeln.
Das ist zwar eine Karte mit DX9 Hardware Fähigkeit aber das wars bis jetzt auch.
Die Verspätung spielen hier sozusagen ATI nicht in die Hände :)

Außerdem glaube ich werden die meissten trozdem eher auf NV entwickeln. Tagesgeschäft besser, mehr Marktdurchdringung und zu guter letzt herrvorragende Dokumentation.

ow
2002-09-26, 10:12:05
Originally posted by Richthofen
Kann es sein, das MS jegliche DX9 fähigen Treiber untersagt, bis DX9 draussen ist?



???
Wie soll es DX9 Treiber geben, wenn es noch kein DX9 gibt?
Die ersten DX9 Treiber werden nach dem offiziellen DX9 erscheinen, und das kann noch etwas dauern.



Demi?
Die Radeon Treiber sind definitiv noch nix DX9 also kann auch keiner DX9 drauf entwickeln.
Das ist zwar eine Karte mit DX9 Hardware Fähigkeit aber das wars bis jetzt auch.
Die Verspätung spielen hier sozusagen ATI nicht in die Hände :)

Außerdem glaube ich werden die meissten trozdem eher auf NV entwickeln. Tagesgeschäft besser, mehr Marktdurchdringung und zu guter letzt herrvorragende Dokumentation.



Jep. Natuerlich wird Nvidia auch die Standard-Entwicklungsplatform fuer DX9 darstellen.
Den guten Support von denen wirft kein Entwickler so einfach weg um sich dann mit ATi rumquaelen zu muessen.

Pitchfork
2002-09-26, 10:18:22
Originally posted by Richthofen
Kann es sein, das MS jegliche DX9 fähigen Treiber untersagt, bis DX9 draussen ist?


Nope.

Weiterhin in dieser Diskussion relevant:

die technische Schere wird sich mit der Zeit eher vergrößern, d.h. zur Zeit haben die Entwickler hauptsächlich mit DX7 und DX8 Hardware zu kämpfen. In den nächsten Monaten/Jahren wird sich das eher auf DX7-DX9 aufweiten, weil zum einen verschiedene IHVs nicht sofort mitziehen (siehe DX9, wo bleibt Matrox, SiS und wie sie alle heissen) und weil für die Endkunden der Druck zum Neukauf einer Karte schwächer wird.
DX9 Spiele (die DX8 aber auch noch unterstützen werden) gibts IMHO frühestens Q4/2004. Vorher gibts DX9 Einsätze nur in besonderen Bereichen, aber eine durchgehende Berücksichtigung einer DX9 Karte (wie es Doom3 mit DX7 Hardware macht) wird noch lange dauern...

Pitchfork

Demirug
2002-09-26, 10:31:37
ATi darf DX9 Beta Treiber rausgeben. Inzwischen weis ich auch warum es noch keine gibt:


Thank you for contacting ATI developer relations. We
recently had DirectX 9.0 beta drivers available, however
since these were early beta, they were a bit unstable
hence we have removed them from our secure site for the
time being.


Im Moment beschäftigt sich kein Entwickler ernsthaft mit den neuen DX9 Features die erst mit R300/NV30 zur Verfügung stehen. Es wird zwar schon vereinzelt DX9 Entwicklung betrieben aber im wesentlichen auf DX7/8 Feature Ebene. Alles andere ist nur rumspielerei.

Deswegen kann ich da Pitchfork nur voll zustimmen. Im Moment weis ja auch noch niemand ob man die DX9 Features aus Performances sicht überhaupt richtig nutzen kann oder man erst mal auf die Nachfolgerkarten warten muss.

Salvee
2002-09-26, 10:33:44
Originally posted by Demirug
naja eine DevCon zu veranstalten und den Leuten am ende eine Karte in die Hand zu drücken ist nicht gerade den Arsch aufreissen. NVIDIA macht sowas regelmässig. Es ist aber schön das ATi jetzt auch auf diesen Zug aufspringt und das Marketing hat das ganze nach aussen wirklich sehr gut vermarktet.


Ja, das glaube ich Dir gern, dass du das begrüsst!
Gibs zu, du willst auch eine R9700 abgreifen :biggrin:!

BTW. ich wäre fast bereit für eine Wette:

DX9 wird dank inniger Freundschaft&Geschäftsbeziehungen zwischen M$ und nV erst bei zu Silikon gewordenem NV30 aufschlagen,
nach dem Motto "X-Box-Chipset gibts (insert $$$ here) billiger, dafür kommt DX9 WIE und WANN wir es wollen."

Paranoia oder Realität ?

Demirug
2002-09-26, 10:52:02
ach Salvee,

das "abgreifen" bei solchen DevCons ist in der Regel teurer als wenn man sich die Hardware gleich kauft. Weil wenn man die Reisekosten, Hotelkosten und in der Regel will der Veranstalter auch noch ein bischen was zusammenrechnet wird es eben teurer als wenn man sich das Teil gleich kauft. Das DevCon Prinzip ist eher das man seine Leute dort als Belohnung hinschickt.

Wenn deine Vermutung stimmt gibt es NV30 wohl im November. :D

Tarkin
2002-09-26, 11:23:28
Originally posted by Demirug

Wenn deine Vermutung stimmt gibt es NV30 wohl im November. :D

Ich sag nur CeBit 2003!

Im Feb. 2003 wird sie vorgestellt, und nach der CeBit gibts dann fertige Produkte im Handel ... so wie bei der GeForce 3 (also im Juni ;)

egdusp
2002-09-26, 11:43:18
Originally posted by Tarkin


Ich sag nur CeBit 2003!

Im Feb. 2003 wird sie vorgestellt, und nach der CeBit gibts dann fertige Produkte im Handel ... so wie bei der GeForce 3 (also im Juni ;)

Bitte nicht NV30 mit NV35 verwechseln :D

mfg
egdusp

P.s.: Ich sag nur QuakeCon 2005, da wird der NV56,3 vorgestellt, der dank seiner hardwarebeschleunigten Partikeleffekte 100 Gegner physikalisch korrekt zerplatzen lassen kann, inkl. Blutregen und Hautfetzen. Selbstverständlich fotorealistisch per Raytracing mit Bewegungs- und Tiefenunschärfe in Echtzeit.

Eusti
2002-09-26, 12:27:32
Originally posted by nggalai
Hi Tarkin,

bitte lies Demiurg etwas genauer, das ist er als 3D-Entwickler wert. ;)Hmmm?

Demiurg, was hast du denn bisher veröffentlicht. Würd mich mal interessieren, um einzuschätzen, welchen Wert deine Aussagen bei mir einnehmen müssen.

egdusp
2002-09-26, 12:32:44
Originally posted by Eusti
Hmmm?

Demiurg, was hast du denn bisher veröffentlicht. Würd mich mal interessieren, um einzuschätzen, welchen Wert deine Aussagen bei mir einnehmen müssen.

Du scheinst nicht oft im Technologieforum zu sein. Seine Postings zeigen, dass er mehr von der Materie versteht als (wahrscheinlich) alle anderen im Forum.

mfg
egdusp

Eusti
2002-09-26, 12:52:01
Originally posted by egdusp
Du scheinst nicht oft im Technologieforum zu sein. Seine Postings zeigen, dass er mehr von der Materie versteht als (wahrscheinlich) alle anderen im Forum.Nee, bin da so gut wie nie (ausser es interessiert mich mal was spezielles). Was hat er denn nun veröffentlicht?

Girli
2002-09-26, 12:59:09
Originally posted by Demirug
ATi darf DX9 Beta Treiber rausgeben. Inzwischen weis ich auch warum es noch keine gibt:



Im Moment beschäftigt sich kein Entwickler ernsthaft mit den neuen DX9 Features die erst mit R300/NV30 zur Verfügung stehen. Es wird zwar schon vereinzelt DX9 Entwicklung betrieben aber im wesentlichen auf DX7/8 Feature Ebene. Alles andere ist nur rumspielerei.

Deswegen kann ich da Pitchfork nur voll zustimmen. Im Moment weis ja auch noch niemand ob man die DX9 Features aus Performances sicht überhaupt richtig nutzen kann oder man erst mal auf die Nachfolgerkarten warten muss.

Naja wobei ich aber glaube das wenn der NV30 kommt auch die ersten Benchmarks auf DX9 veröffentlicht werden.
ala 3DMark
nVIDIA hat hier einfach noch einen Vorspung.
Kurz wenn nVIDIA keine DX9 Karte bringen würde, dann würden die ATi User ´länger darauf warten müssen.
Ist leider so. :(

Ich glaube schon das man mit den momentan Status etwas basteln könnte.
Bei Games defenitiv nein da die R9700 nur einen Marktanteil von 0.0 und noch etwas hat.
Ergo für diesen kleinen Prozentsatz wird sich keiner den A aufreissen.
Techdemos ja, Games momentan nein.

Gruss Labberlippe

ow
2002-09-26, 13:07:25
LL:

Zuerst muss die final DX9 da sein.

Alles was voher auf Beta geproggt wird koennte spaeter den Status "proprietaerer Code" haben und nicht mehr lauffaehig sein.

Ausserdem braucht es schon wenigestens eine Karte mit DX9 Treibern, damit die Entwickler auch mal laufen lassen koennen, was sie denn geproggt haben.

Girli
2002-09-26, 13:19:17
Originally posted by ow
LL:

Zuerst muss die final DX9 da sein.

Alles was voher auf Beta geproggt wird koennte spaeter den Status "proprietaerer Code" haben und nicht mehr lauffaehig sein.

Ausserdem braucht es schon wenigestens eine Karte mit DX9 Treibern, damit die Entwickler auch mal laufen lassen koennen, was sie denn geproggt haben.

Yepp allerdings glaube ich nicht das alles über Nacht komplett geändert wird.
Aber schon klar, ohne die richtigen finalen Treiber und festgelegten DX9 Standart gibt es nichts.

Gruss Labberlippe

Demirug
2002-09-26, 13:31:37
@Eusti:

Die alten Sachen (noch 2D) waren arbeiten für Heftmagazine und sind deshalb eher unbekannt.

Als dann zwei weitere Projekte abgewürgt wurden hatte ich erst mal keine Lust mehr auf Spieleentwicklung und hab mich in die Industriesoftwareentwicklung verzogen.

Da man aber nie ganz von der Sache losskommt hab ich nebenbei immer noch ein bischen was gemacht. Da mich aber jetzt wieder das Fieber gepackt hat arbeite ich jetzt mit viel Nachdruck an einer neuen 3D-Engine + Spiel. (wobei die Spiel anteile nur am rande von mir gemacht werden)

@ow:

mit refrast kann man schon ein bischen was machen. Ist aber verdammt langsam. refrast halt.

@Labberlippe:
Ja die Änderungen werden wohl nur noch im Detail liegen. Da ja schon der Schritt von DX8 zu 9 was die API angeht als für den Entwickler sehr einfach anzusehen ist da es kaum grosse änderungen gibt.

ow
2002-09-26, 13:52:09
@Demi

Zum Refrast haette ich eine Frage:

Ist es moeglich, den Refrast so einem Spiel vorzusetzen, dass es ihn als Renderer akzeptiert?

In den SDK-Demos und Kyro-Dmos etc. kann man ja zwischen HAL und REF waehlen. Bei Spielen konnte ich da noch nie was waehlen.
Laesst sich da was machen?

(Q3 kann man zB. ja auch den GDI-Renderer unterjubeln, das funzt auch problemlos damit).

Xmas
2002-09-26, 22:02:55
Originally posted by ow
Ist es moeglich, den Refrast so einem Spiel vorzusetzen, dass es ihn als Renderer akzeptiert?

In den SDK-Demos und Kyro-Dmos etc. kann man ja zwischen HAL und REF waehlen. Bei Spielen konnte ich da noch nie was waehlen.
Laesst sich da was machen?
Ohne das Spiel oder D3D zu manipulieren, nein. Denn das Spiel entscheidet, ob es den Refrast überhaupt "sehen" will.

ow
2002-09-27, 09:58:25
Ja, das dachte ich mir.

Unregistered
2002-09-27, 21:58:23
http://www.warp2search.net/article.php?sid=7301&mode=thread&order=0

geil die NV18 geht hir auf 390/740 mit 2,8ns speicher!!!!!!!! wenn die das auf die NV28 4200 übertragen dann jeha

Eusti
2002-09-27, 22:03:04
Originally posted by Unregistered
http://www.warp2search.net/article.php?sid=7301&mode=thread&order=0

geil die NV18 geht hir auf 390/740 mit 2,8ns speicher!!!!!!!! wenn die das auf die NV28 4200 übertragen dann jeha Ja, das Übertaktungspotential ist schon beachtlich. NVidia hat übrigens den Standardtakt für die 8x Karten angehoben. Sie scheinen somit mit dem neuen Core einige Taktverbessernde Designänderungen vorgenommen zu haben.

Quasar
2002-09-27, 22:38:15
Ist zwar OT, aber da wir hier im Speku-Forum sind:

Diese Änderungen hätten sie jederzeit bringen können, es war bislang schlicht unnötig.

aths
2002-09-28, 01:29:35
Originally posted by egdusp
Für mich hört sich der Heise Artikel an, als ob der AF Bug behoben und die Übertaktbarkeit erheblich verbessert wurde. Nichts anderes wurde erhofft.Der AF-Bug scheint eine bewusste Design-Entscheidung zu sein und das wurde meines Wissens im NV28 nicht geändert.

aths
2002-09-28, 01:33:01
Originally posted by ow
Es ist TATSACHE, dass die ATi Treiber schlecht sind. Ich würde eher sagen, dass es Ansichts-Sache ist.

aths
2002-09-28, 01:33:44
Originally posted by ow
Und NV setzt auf perfekte Bildqualitaet und opfert die nicht zugunsten der Performance wie ATi das tut. Auch nV opfert Bildqualität für Performance: Siehe DXT1-Implementierung, siehe "Performance"-Mode für AF.

aths
2002-09-28, 01:34:27
Originally posted by ow
Dazu ist der AF-Level winkelabhaengig. Spätestens bei 8x AF gilt das auch für nVidia-AF.

ow
2002-09-28, 10:00:55
Originally posted by aths
Ich würde eher sagen, dass es Ansichts-Sache ist.


Nur bedingt, aths.

Die Fehler in den Treibern sind zahlreicher als in denen der Konkurrenz.
Das wurde schon mehrfach belegt.

ow
2002-09-28, 10:05:32
Originally posted by aths
Auch nV opfert Bildqualität für Performance: Siehe DXT1-Implementierung, siehe "Performance"-Mode für AF.


DXT1 bei NV beringt aber keine Performanceschub, also ist dieses Argument nicht haltbar.

Was AF angeht ist NVs Methode den Sparvarianten von ATi qualitativ vorzuziehen.
Insbesondere beim 9700 ist mir unverständlich, warum ATi auf eine Sparvariante setzt. Der Chip hat nun wirklich genug Power, um auch einen Einbruch um 40-50% bei qualitativ perfektem AF zu verkraften und spielbar zu bleiben.

ow
2002-09-28, 10:07:49
Originally posted by aths
Spätestens bei 8x AF gilt das auch für nVidia-AF.


AFAIK nein.
Es wird nur der mipmap-lodbias variiert.
Der AF-level ist konstant auf 8x.

aths
2002-09-28, 15:37:23
Originally posted by ow
DXT1 bei NV beringt aber keine Performanceschub, also ist dieses Argument nicht haltbar.Offenbar doch, wenn auch einen sehr kleinen.
Originally posted by ow
Was AF angeht ist NVs Methode den Sparvarianten von ATi qualitativ vorzuziehen. Nur solange die Geschwindigkeit reicht.
Originally posted by ow
Insbesondere beim 9700 ist mir unverständlich, warum ATi auf eine Sparvariante setzt. Der Chip hat nun wirklich genug Power, um auch einen Einbruch um 40-50% bei qualitativ perfektem AF zu verkraften und spielbar zu bleiben. Das AF ist mit dem R300 doch deutlich besser geworden. Die übrig gebliebene Leistung kann man z.B. in Auflösung stecken, wodurch das Texturdetail sich ja ebenfalls erhöht. Lieber dieser Weg als ein AF-Bug à la NV25, denke ich.

aths
2002-09-28, 15:37:52
Originally posted by ow
AFAIK nein.
Es wird nur der mipmap-lodbias variiert.
Der AF-level ist konstant auf 8x. Bei 45°-Winkeln ist 8x AF nicht besser als 4x AF.

aths
2002-09-28, 15:39:48
Originally posted by ow
Nur bedingt, aths.

Die Fehler in den Treibern sind zahlreicher als in denen der Konkurrenz.
Das wurde schon mehrfach belegt. Dann könnte man formulieren: Die ATI-Treiber enthalten mehr Fehler als die des (Noch?-) Marktführers. In das Forum zu klatschen Es ist TATSACHE, dass die ATi Treiber schlecht sind könnte imo zu leicht als Flameversuch ausgelegt werden.

aths
2002-09-28, 15:41:54
Originally posted by ow
(Q3 kann man zB. ja auch den GDI-Renderer unterjubeln, das funzt auch problemlos damit). Wie bewerkstellig ich das?

Xmas
2002-09-28, 18:58:41
Originally posted by aths
Bei 45°-Winkeln ist 8x AF nicht besser als 4x AF.
Doch.

aths
2002-09-28, 20:17:40
Originally posted by Xmas
Doch. Die "Ecke" bei der 1. MIP-Stufe bleibt (gut zu sehen bei BF AF)

Xmas
2002-09-28, 22:49:04
Originally posted by aths
Die "Ecke" bei der 1. MIP-Stufe bleibt (gut zu sehen bei BF AF)
Trotzdem ist es besser als 4x, weil das nur die 1. Mip-Stufe betrifft.

aths
2002-09-29, 02:27:08
Originally posted by Xmas
Trotzdem ist es besser als 4x, weil das nur die 1. Mip-Stufe betrifft. Winkelabhängig ist NV-AF dennoch, das war meine ursprüngliche Aussage.

BTW ow, zu deinem "konstant" 8x - ich fürchte du hast die Funktionsweise von AF noch immer nicht verstanden.

Xmas
2002-09-29, 02:36:27
Originally posted by aths
Winkelabhängig ist NV-AF dennoch, das war meine ursprüngliche Aussage.

BTW ow, zu deinem "konstant" 8x - ich fürchte du hast die Funktionsweise von AF noch immer nicht verstanden.
Deine ursprüngliche Aussage war: "Bei 45°-Winkeln ist 8x AF nicht besser als 4x AF."

Was ow meinte ist dass 8XAF bei NVidia immer erreichbar ist, während bei ATI trotz eingestelltem 16xAF bei manchen Winkeln das Limit bei 2x liegt.

ow
2002-09-29, 10:32:28
Originally posted by Xmas

Was ow meinte ist dass 8XAF bei NVidia immer erreichbar ist, während bei ATI trotz eingestelltem 16xAF bei manchen Winkeln das Limit bei 2x liegt.


Korrekt (es sind aber 4xAF bei 9700 und 1xAF bei 7x00/8500).

War das so schwer zu verstehen, aths?

Quasar
2002-09-29, 10:55:01
Mind. 2xAF, nicht 4xAF bei der R9700 ow.

StefanV
2002-09-29, 10:58:27
Originally posted by ow



Korrekt (es sind aber 4xAF bei 9700 und 1xAF bei 7x00/8500).

War das so schwer zu verstehen, aths?

1x AF???

WIe soll das denn gehen???

Das kann ja sogar meine Voodoo 1...

Sir Integral Wingate Hellsing
2002-09-29, 11:34:57
@ow: Ich hatte bis gestern noch ne Radeon 8500...
Und ich fand die AF-Leistung die mir geboten + die dazugehörige
Bildqualisteigerung ok.
Bei der nVidia-Variante die ich nun mit meiner Ti4200 habe, sehe ich KEINEN Unterschied, ich merke nur oft genug das die Performance in den Keller geht.

Mag sein, das an einigen Standbildern die nVidia-Variante toller sein mag, aber das juckt mich net, wenn ich mit aktiviertem ATi-AF besser zoggen kann.

Richthofen
2002-09-29, 12:25:59
dann musst du aber Tomaten auf den Augen haben.

Das ecklige Mip Map Banding bei der Radeon8500 sieht man doch sofort.
Und auch die mehr als schwammige Filterung, an zb Wänden also alles was um die 45 Grad ist.
Gerade in der Bewegung sollte das auffallen.
Wenn du deine Perspektive in einem Shooter drehst, dann ist das doch voll auffällig, wenn einige Dinge plötzlich von schwammig nach scharf sich verändern oder umgedreht.

StefanV
2002-09-29, 12:33:16
@Richthofen

Jeder hat halt andere präferenzen.

Einige stört das, andere nicht.

Was aber viele stört ist eine bescheidene Framerate, da kann das AF noch so gut aussehen, wenns nicht nutzbar ist, ist schrott...

Quasar
2002-09-29, 13:04:32
Komisch, SP. Genau DAS Argument war von den Die-Hard Fanatics aber nur sehr selten zu hören, wenn's um Smoothvision vs. Accuview ging....

Tempora mutandur, was?

Exxtreme
2002-09-29, 13:06:32
@ Richthofen

Das MIPMAP-Banding sieht man AFAIK in 3 Spielen richtig gut: Q3A, SerSam1 und SerSam2. Und in diesen Spielen stört es richtig. In anderen Spielen sieht man es IMHO kaum. Es hängt sehr stark von den gewählten Texturen ab.

Und du sagtest mal selber in einer SuperSampling vs. MultiSampling-Diskussion, daß ein Feature unbrauchbar ist wenn es zuviel Leistung frisst. Dann müsste deiner Meinung nach der anisotrope Filter der GF4Ti-Reihe unbrauchbar sein weil man damit kaum das Maximum fahren kann.
;)

Gruß
Alex

aths
2002-09-29, 13:20:24
Originally posted by Xmas
Deine ursprüngliche Aussage war: "Bei 45°-Winkeln ist 8x AF nicht besser als 4x AF."Meine ursprüngliche Aussage war
Originally posted by aths
Spätestens bei 8x AF gilt das auch für nVidia-AF. auf ows BemerkungOriginally posted by ow
Und NV setzt auf perfekte Bildqualitaet und opfert die nicht zugunsten der Performance wie ATi das tut.
Originally posted by Xmas
Was ow meinte ist dass 8XAF bei NVidia immer erreichbar ist, während bei ATI trotz eingestelltem 16xAF bei manchen Winkeln das Limit bei 2x liegt. Ok.

aths
2002-09-29, 13:21:14
Originally posted by Stefan Payne
1x AF???

WIe soll das denn gehen???Mit 1x AF kann man reine bi/trilineare Filterung umschreiben.

StefanV
2002-09-29, 13:23:08
Originally posted by aths
Mit 1x AF kann man reine bi/trilineare Filterung umschreiben.

Eben, das meinte ich...

ow
2002-09-29, 13:35:54
Originally posted by Stefan Payne


Eben, das meinte ich...

Eben genau das tun die R7x00/8500/9000: 45° Winkel werden nicht AF-gefiltert.

ow
2002-09-29, 13:38:47
Originally posted by Stefan Payne
@Richthofen

Jeder hat halt andere präferenzen.

Einige stört das, andere nicht.

Was aber viele stört ist eine bescheidene Framerate, da kann das AF noch so gut aussehen, wenns nicht nutzbar ist, ist schrott...

Wer sagt denn, dass das nicht nutbar ist?
Ist ja wohl Quascth.

Die Rohleistung der GF4 ist so hoch, dass da auch ein Einbruch der fps noch zu verschmerzen ist.

Es muss ja nicht immer 8xAF sein.
Ein trilineares winkelunabhängiges 4xAF sieht schon sehr gut aus.

StefanV
2002-09-29, 13:38:53
Originally posted by ow
Eben genau das tun die R7x00/8500/9000: 45° Winkel werden nicht AF-gefiltert.

Ja und??

Dafür ist das ATI AF nutzbar, wohingegen das NV AF zu lahm ist...

ow
2002-09-29, 13:41:07
Das ATi AF sieht teilweise derart schlecht aus, dass es nicht nutzbar ist.
Dann lieber trilinear ohne Artefakte und mipmap-bandings.


Und die Leistung der GFs reicht aus für AF.

frag_evil
2002-09-29, 14:38:02
Originally posted by ow

Und die Leistung der GFs reicht aus für AF.

Reicht sie wirklich aus? :|

Quelle: http://www.anandtech.com/video/showdoc.html?i=1683&p=15

Quasar
2002-09-29, 14:53:38
Im Flyby kann's wirklich etwas stockend wirken, aber wie sieht's mitm Deathmatch un Bots aus?

Richthofen
2002-09-29, 15:13:40
"
@ Richthofen

Das MIPMAP-Banding sieht man AFAIK in 3 Spielen richtig gut: Q3A, SerSam1 und SerSam2. Und in diesen Spielen stört es richtig. In anderen Spielen sieht man es IMHO kaum. Es hängt sehr stark von den gewählten Texturen ab.

Und du sagtest mal selber in einer SuperSampling vs. MultiSampling-Diskussion, daß ein Feature unbrauchbar ist wenn es zuviel Leistung frisst. Dann müsste deiner Meinung nach der anisotrope Filter der GF4Ti-Reihe unbrauchbar sein weil man damit kaum das Maximum fahren kann.
"

Ne Exxtreme...
Ich sagte, was nütz mir ein Feature, das so lahm ist und so wenig FPS liefert, das man es nicht mehr spielbar ist.
Bei der GF4Ti ist aber wie OW schon richtig sagte die Rohleistung so brachial, das man zwar zb in Q3 von 200 auf 139 fps fällt mit 8x AF aber ehrlich gesagt das doch jedem wurscht ist.
Völlig ausreichend. Hinzukommt, das bei zusätzlichem AA der Einbruch für dieses wiederum nicht mehr so stark ins Gewicht fällt.

Im Gegensatz zur Radeon8500 ist AF und AA bei der GF4Ti locker nutzbar und zwar beides.
Je nach Game und persönlicher Präferenz natürlich in unterschiedlichen Qualitätssetting.
Aber nur weil die GF4Ti Leistung verliert und zwar prozentual recht viel heisst das nicht, das es nicht nutzbar ist.
Das ist ja wohl Quark.

Ich spiele alles mit mindestens 4x AA und 4x AF hier.
Bei jeder Flugsim kann ich mir sogar alles erlauben also 4xS und 8xAF.
Meine 35 fps die für ne Flusi wichtig sind habe ich immer mit meinem XP2000+ und Ti4400 @ 32ß / 690.
In nem Multiplayer Shooter wiederum stell ich ohnehin alles aus. Ausser Counterstrike, aber das SPiel ist so ehlendig lahm das man selbst bei bester und brillianter Grafik den Gegner noch rechtzeitig erkennt. Bei jedem anderen Shooter im Style von UT und Q3 würde ich sofort in eckligster Plattengrafik spielen. Also alles aus am besten auch die Texturen, denn da will ich ja nur den Gegner gut sehen und nicht die tollen Effekte :)

Sir Integral Wingate Hellsing
2002-09-29, 15:19:07
Originally posted by ow
Das ATi AF sieht teilweise derart schlecht aus, dass es nicht nutzbar ist.
Dann lieber trilinear ohne Artefakte und mipmap-bandings.


Und die Leistung der GFs reicht aus für AF.

nö, definitiv net!

bei alten games wie q3 oder ut ja...

aber zogg ma battlefield 1942 (neues DX7 Game) mit 4x AF auf 1152x864x32... das wird nämlich nen satz mit x... nix!

so, also kann man nur trilinear nutzen. und trilinaer ist ja selbst dem 16x af von ati nicht annäherend gewachsen.

und bei ut2003 wird das im botmatch bei high oder highest texture quali bestimmt nicht anders sein!

StefanV
2002-09-29, 15:26:30
Originally posted by Richthofen
"
@ Richthofen

Das MIPMAP-Banding sieht man AFAIK in 3 Spielen richtig gut: Q3A, SerSam1 und SerSam2. Und in diesen Spielen stört es richtig. In anderen Spielen sieht man es IMHO kaum. Es hängt sehr stark von den gewählten Texturen ab.

Und du sagtest mal selber in einer SuperSampling vs. MultiSampling-Diskussion, daß ein Feature unbrauchbar ist wenn es zuviel Leistung frisst. Dann müsste deiner Meinung nach der anisotrope Filter der GF4Ti-Reihe unbrauchbar sein weil man damit kaum das Maximum fahren kann.
"

Ne Exxtreme...
Ich sagte, was nütz mir ein Feature, das so lahm ist und so wenig FPS liefert, das man es nicht mehr spielbar ist.
Bei der GF4Ti ist aber wie OW schon richtig sagte die Rohleistung so brachial, das man zwar zb in Q3 von 200 auf 139 fps fällt mit 8x AF aber ehrlich gesagt das doch jedem wurscht ist.
Völlig ausreichend. Hinzukommt, das bei zusätzlichem AA der Einbruch für dieses wiederum nicht mehr so stark ins Gewicht fällt.

Im Gegensatz zur Radeon8500 ist AF und AA bei der GF4Ti locker nutzbar und zwar beides.
Je nach Game und persönlicher Präferenz natürlich in unterschiedlichen Qualitätssetting.
Aber nur weil die GF4Ti Leistung verliert und zwar prozentual recht viel heisst das nicht, das es nicht nutzbar ist.
Das ist ja wohl Quark.

Ich spiele alles mit mindestens 4x AA und 4x AF hier.
Bei jeder Flugsim kann ich mir sogar alles erlauben also 4xS und 8xAF.
Meine 35 fps die für ne Flusi wichtig sind habe ich immer mit meinem XP2000+ und Ti4400 @ 32ß / 690.
In nem Multiplayer Shooter wiederum stell ich ohnehin alles aus. Ausser Counterstrike, aber das SPiel ist so ehlendig lahm das man selbst bei bester und brillianter Grafik den Gegner noch rechtzeitig erkennt. Bei jedem anderen Shooter im Style von UT und Q3 würde ich sofort in eckligster Plattengrafik spielen. Also alles aus am besten auch die Texturen, denn da will ich ja nur den Gegner gut sehen und nicht die tollen Effekte :)

Richthofen, es gibt aber mittlererweile einige Games, bei denen AF und FSAA nicht mehr nutzbar ist!!

z.B. Aquanox, wie du im DX8 Roundup sicher gesehen hast...

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_aquanox_1.php


@028

Dann tausch die GF4 Montag um oder tausch gegen eine 8500 :)

ow
2002-09-29, 15:43:45
Originally posted by Stefan Payne


Richthofen, es gibt aber mittlererweile einige Games, bei denen AF und FSAA nicht mehr nutzbar ist!!

z.B. Aquanox, wie du im DX8 Roundup sicher gesehen hast...

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_aquanox_1.php



Wer sagt denn, das e simmer die höchste AF-Stufe sein muss?
Ich seh da keine Benches mit 2xAF oder 4xAF ohne AA.

Und Aquanox stellt ja mal ein Ausnahme dar.
Ich kann auch nicht erkennen, dass es mit einer R8500 besser zu spielen wäre.

Exxtreme
2002-09-29, 17:13:07
Originally posted by ow


Wer sagt denn, das e simmer die höchste AF-Stufe sein muss?

Richthofen selbst hat das gesagt. ;)
Alles, was man micht auf Maximum setzen kann, ist für ihn eine halbe Sache.
Guckst du hier:
http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=21355&pagenumber=2


Gruß
Alex

frag_evil
2002-09-29, 19:58:30
Originally posted by Quasar
Im Flyby kann's wirklich etwas stockend wirken, aber wie sieht's mitm Deathmatch un Bots aus?

???

Da wirds noch mehr ruckeln!!!

Oder hab ich deine Aussage jetzt falsch verstanden??

So, wie du das schreibst, könnte man nämlich Folgendes meinen:"Im Flyby stockts vielleicht etwas, aber im Botmatch läufts flüssig."

So interpretiere ich das jetzt bei dir.

Pussycat
2002-09-30, 15:04:11
Full Ack. Im botmatch liegen die Framerates duetlich niedriger.