PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV 40 noch dieses Jahr laut xbit


Richthofen
2003-06-08, 13:47:17
http://www.xbitlabs.com/news/video/display/20030608032259.html

Wenn die NV35 im Laden sind, dürften die Gerüchteküche zum nächsten Chip wieder gut brodeln und die ein oder andere Information durchsickern.
Ich bin recht gespannt, zumal Nvidia scheinbar den Gashebel jetzt um einiges anzieht und wohl doch nicht so ganz an eine Verlängerung der Zyklen denkt, zumindest vorerst nicht. Deswegen wohl auch IBM statt TSMC.

Mr. Lolman
2003-06-08, 14:23:22
Original geschrieben von Richthofen
http://www.xbitlabs.com/news/video/display/20030608032259.html

Wenn die NV35 im Laden sind, dürften die Gerüchteküche zum nächsten Chip wieder gut brodeln und die ein oder andere Information durchsickern.
Ich bin recht gespannt, zumal Nvidia scheinbar den Gashebel jetzt um einiges anzieht und wohl doch nicht so ganz an eine Verlängerung der Zyklen denkt, zumindest vorerst nicht. Deswegen wohl auch IBM statt TSMC.

Toll, aber eher ärgerlich für die NV30/NV35 Käufer, oder?

LovesuckZ
2003-06-08, 14:25:24
Original geschrieben von Mr. Lolman
Toll, aber eher ärgerlich für die NV30/NV35 Käufer, oder?

???

Warum sollte sich jemand aergern, wenn 6 Monate spaeter ne neue Karte auf den markt kommt? oder denkst du, dass sich ein 9800pro User über Ati aufregen wuerde, weil diese Herbst ne neue Karten bringen?
...

Exxtreme
2003-06-08, 14:28:13
Für mich klingt die Meldung nach einer FUD-Kampagne. =)

mapel110
2003-06-08, 14:37:54
hm, da steht, dass er ende des jahres angekündigt wird, nicht das er ausgeliefert wird.

The representative from the Santa Clara, California-based company said the NV40 would be twice as fast as the NV35 and would feature entirely new architecture.

schon wieder ?

LovesuckZ
2003-06-08, 14:41:19
Original geschrieben von mapel110
hm, da steht, dass er ende des jahres angekündigt wird, nicht das er ausgeliefert wird.


When do you think NVIDIA NV40 will be announced? I suggest that roughly a year after the NV30 at Comdex Fall 2003 in November. The graphics cards itself will in this case come either in very late December or in early 2004.

Crazy_Bon
2003-06-08, 14:47:51
Kennen wir das nicht schon zum x-ten Male? Zu einem Zeitpunkt angekündigt und schliesslich um Monate verspätet erscheinen.
Allerhöchtens ein Paperlaunch bekommen wir zu sehen.

LovesuckZ
2003-06-08, 14:49:59
Original geschrieben von Crazy_Bon
Kennen wir das nicht schon zum x-ten Male? Zu einem Zeitpunkt angekündigt und schliesslich um Monate verspätet erscheinen.
Allerhöchtens ein Paperlaunch bekommen wir zu sehen.

Der NV35 kommt puenktlich (max. 2 Monate nach den ersten Test). wenn alles gut laeuft, dann wird es wahrscheinlich mit dem NV40 genauso verlaufen.

Aquaschaf
2003-06-08, 15:13:35
entirely new architecture ?

das glaube ich kaum

Omnicron
2003-06-08, 15:52:02
"twice as fast as the NV35"

glaube ich auch nicht, es sei denn in einem bestimmten Benchmark.
Das ist das übliche Marketing blabla, das einzige interessante ist das der NV40 nun früher vorgestellt wird als erwartet.
(War nicht ursprünglich 1Q 2004 vorgesehen ?)

mapel110
2003-06-08, 16:02:30
Original geschrieben von Omnicron
"twice as fast as the NV35"

glaube ich auch nicht, es sei denn in einem bestimmten Benchmark.
Das ist das übliche Marketing blabla, das einzige interessante ist das der NV40 nun früher vorgestellt wird als erwartet.
(War nicht ursprünglich 1Q 2004 vorgesehen ?)

nö, bislang immer ende 2003. aber das überschneidet sich bzw der übergang ist fliessend zum ersten quartal 2004.
man kann sich wohl vorerst auf "ende 4.quartal 2003" einigen :)

Kosh
2003-06-08, 17:06:40
Wetten das man in diesem jahr absolut keinen NV40 kaufen kann?

seahawk
2003-06-08, 18:00:41
Ich würde im Hinblick auf den NV40 mal sagen : ABWARTEN

Dieser Chip ist für mich unkakulierbar, da er der erste Chip gefertigt von IBM seien dürfte.

Ein Design zu entwicklen, dass 2x schneller als der NV35 (im Schnitt) ist sollte möglich sein. Nur kann man das noch in 2003 fertigen ?? Hier wird es wohl davon abhängen, was IBM kann.

Es ist allerdings gefährlich zu glauben. dass alle NV Chis verspätet sind, nur weil der NV30 verspätet war.

mictasm
2003-06-08, 19:17:03
Original geschrieben von seahawk
Es ist allerdings gefährlich zu glauben. dass alle NV Chis verspätet sind, nur weil der NV30 verspätet war.

Gefährlich? Hallo? Das sind Grafikkarten! ;)

MIC

gRoUnD
2003-06-08, 19:23:11
Firstly, all participating game developers should use only NVIDIA Quadro professional graphics cards when designing games; secondly, many games would have certain features that only NVIDIA GPUs would be able to take advantage of.

Ich hoffe dieses Programm geht den Bach runter.

Edit: Ich weiss nichts Neues, aber dieses Geseier wie mit der "Are you ready"-Kampagne scheint nicht aufhören zu wollen.

mAxmUrdErEr
2003-06-08, 19:31:11
Original geschrieben von mapel110
The representative from the Santa Clara, California-based company said the NV40 would be twice as fast as the NV35 and would feature entirely new architecture.

hmmm... "entirely new auchitecture" sagt absolut gar nichts aus... das kann jeder interpretieren wie er will und
"twice as fast as NV35" glaube ich erst recht nicht, denn bis jetzt war es bei nvidia immer so dass die versprechen erst bei den jeweils nachfolger-chip eingelöst wurden---->was man für GF3 versprochen hat hat man erst mit GF4 erfüllt usw... bin ich eigentlich der einzige den das aufgefallen ist?????

Demirug
2003-06-08, 19:54:39
Das ist aber alles sehr Spekulativ hier.

*move*

Quasar
2003-06-08, 21:39:12
Original geschrieben von Omnicron
"twice as fast as the NV35"

glaube ich auch nicht, es sei denn in einem bestimmten Benchmark.
Das ist das übliche Marketing blabla, das einzige interessante ist das der NV40 nun früher vorgestellt wird als erwartet.
(War nicht ursprünglich 1Q 2004 vorgesehen ?)

Naja, generell ist diese Aussage sicher nicht. Dazu gibt es allein zu viele CPU-limitierte Spiele.

Ist doch immer so, dass sich solcher Marketing-Mist auf ein, zwei mehr oder weniger konstruierte Fälle stützen, die absichern, dass man nicht wegen Wettbewerbsverzerrung verklagt werden kann.

Demirug
2003-06-08, 22:13:08
Quasar, ich gehe davon aus das das doppelt so schnell für Tri/AF Situationen gilt.

Nachdem 3DLabs und jetzt auch S3 dazu übergegangen sind Tri-TMUs zu verbauen wird nV diesem Trend wohl folge. Möglichweise kommt dabei ein altes Patent zum Einsatz welches tri-Samples aus einer Mip-Map Stuffe erzeugt.

Aquaschaf
2003-06-08, 22:49:45
wieso ist man nicht schon länger dazu übergegangen Tri TMU´s zu verbauen ? Es wird doch praktisch immer Trillineare Filterung verwendet

mapel110
2003-06-09, 00:06:07
Original geschrieben von Aquaschaf
wieso ist man nicht schon länger dazu übergegangen Tri TMU´s zu verbauen ? Es wird doch praktisch immer Trillineare Filterung verwendet

weil das verhältnis "mehr traisistoren zu mehr leistung" nicht gestimmt hat ?!

Richthofen
2003-06-09, 00:18:42
Original geschrieben von Mr. Lolman
Toll, aber eher ärgerlich für die NV30/NV35 Käufer, oder?

Wieso?
Hat sich der Radeon9700 Käufer geärgert das es die 9800pro gibt oder im Herbst die R360?

Verstehe nicht so ganz was daran ärgerlich sein soll. Nur weil der NV40 kommt, werden die anderen Karten deswegen nicht schlechter. Ich für meinen Teil kauf den NV35, weil ich immer das Refresh Produkt kaufe und nicht das erste. Wenn der NV40 dieses Jahr gelauncht wird und so um den Januar Februar in Deutschland verfügbar ist, dann freu ich mich umso mehr, weil ich dann im Sommer rum mit dem NV45 rechnen kann.

Es zeigt doch in jedem Fall, dass Nvidia nen Scheiss daran denkt langsamer zu machen. Im Gegenteil ich hab das Gefühl die ziehen das Tempo wieder an. Wenn IBM keine Probleme bei der Fertigung hat, dann wird man sehr sehr früh im Jahr 2004 Karten haben.
Es ist jedenfalls leichtsinnig zu glauben, dass nur weil der NV30 Produktionsprobleme hatte und somit hällisch verspätet war, sich das auf alle anderen Chips auswirkt. Das habe ich damals schon zu bedenken gegeben und der NV35 hat das bereits bestätigt, dass es eben nicht so ist, weil die Design Teams schon längst an was neuem arbeiten und jetzt wo es keinen x-box zu designen gibt oder ähnliches, hat man den vollen Manpower nur für Desktop und Mobile Grafik.


"
entirely new architecture ?

das glaube ich kaum
"
Naja die NV3x Linie ist schon sehr fortschrittlich, was den flexiblen Aufbau angeht und das wird man nochmal erheblich ausbauen. Was ich bisher bei nVnews oder Beyond3D dazu lesen konnte, klingt sehr vielversprechend und ambitioniert. Von einer Grund neuen Architektur würde ich nicht reden, weil sich immer die Frage stellt, was komplett neu ist und was nicht. Der NV3x ist im großen und ganzen ziemlich komplett neu. Der R300 zb mehr ein Ausbau. Mehr Pipes etc.

"
Firstly, all participating game developers should use only NVIDIA Quadro professional graphics cards when designing games; secondly, many games would have certain features that only NVIDIA GPUs would be able to take advantage of.

Ich hoffe dieses Programm geht den Bach runter.

Edit: Ich weiss nichts Neues, aber dieses Geseier wie mit der "Are you ready"-Kampagne scheint nicht aufhören zu wollen.
"
Das hoffe ich nicht. So bekomm ich das maximale aus meiner Nvidia Hardware und mein Gefühl sagt mir, dass dieses Programm sehr erfolgreich sein wird, weil alles von der guten Hardware, Developer Unterstützung, Versorgung mit Tools wie CG, Versorgung mit Quadro Karten auf nForce Plattform und schliesslich auch hier und da bisserl finanzielle Unterstützung alles vorhanden ist. Alles in allem ein sehr umfangreiches Programm, dass aber langfristig dafür sorgen wird, das Developer mehr aus den Möglichkeiten machen und weniger sich mit altem DX7 Schrott beschäftigen.
Da Nvidia ja auch seine Hardware Strategie komplett geändert hat (MXen sind jetzt auf aktuellem technischen Stand) ist eine hervorragende Basis geschaffen.

egdusp
2003-06-09, 02:12:01
Original geschrieben von mapel110
weil das verhältnis "mehr traisistoren zu mehr leistung" nicht gestimmt hat ?!

Sollte nicht sein. Ein Tri Pixel braucht 2 Durchgänge. Ich glaube nicht, dass eine Tri Pipeline doppelt soviel Transitoren braucht wie eine Bi Pipeline.

Problematisch wird es nur bei Verschnitt, also Pixel, die nicht Tri gefiltert werden müssen (Lightmaps, etc..).

Vielleicht sind aber auch mehr AF Optimierungen bei Bi Pipes möglich, evtl. sogar sinvolle :D

mfg
egdusp

egdusp
2003-06-09, 02:16:41
Original geschrieben von Demirug
Nachdem 3DLabs und jetzt auch S3 dazu übergegangen sind Tri-TMUs zu verbauen wird nV diesem Trend wohl folge. Möglichweise kommt dabei ein altes Patent zum Einsatz welches tri-Samples aus einer Mip-Map Stuffe erzeugt.

NV hat schon mit dem NV30 (OK, der war höllisch verspätet) und dem 128 bit Interface gezeigt, dass sie nicht immer alles genauso machen wie die Konkurrenz, auch wenn es an der Reihe wäre. Mmmmh, na gut, überzeugt mich selber auch nicht so.

Trilinear aus einer Stufe, hört sich vergleichsweise logisch und einfach an. Man verwendet eine hohe Mipmapstufentextur und generiert aus den Werten on-the-fly die nächstniedrigere und dann werden sie vermischt.

mfg
egdusp

Ailuros
2003-06-09, 05:04:36
*kriecht unters Buero*

Wann veroeffentlicht Futuremark 3dmark2004? ;D

Demirug
2003-06-09, 09:02:32
Original geschrieben von egdusp
Sollte nicht sein. Ein Tri Pixel braucht 2 Durchgänge. Ich glaube nicht, dass eine Tri Pipeline doppelt soviel Transitoren braucht wie eine Bi Pipeline.

Problematisch wird es nur bei Verschnitt, also Pixel, die nicht Tri gefiltert werden müssen (Lightmaps, etc..).

Vielleicht sind aber auch mehr AF Optimierungen bei Bi Pipes möglich, evtl. sogar sinvolle :D

mfg
egdusp

Solange man nur die TMUs entsprechenden auslegt braucht man gar nicht so viel zusätzliche Transitoren. Nur hat man dann eben keinen Gewinn wenn man nur bi Filtert.

Immer daran denken das immer noch bei den Tests immer noch gerne ohne tri/AF gemessen wird. In solchen Fällen wären die zusätzlichen Transitoren rausgeworfen. Um die Aussage bezüglich der tri TMUs mal ein wenig genauer zu machen. Ich gehe eingentlich von einer TMU mit einem programmierbaren 4*4 Filter kernel aus.

Demirug
2003-06-09, 09:08:57
Original geschrieben von egdusp
NV hat schon mit dem NV30 (OK, der war höllisch verspätet) und dem 128 bit Interface gezeigt, dass sie nicht immer alles genauso machen wie die Konkurrenz, auch wenn es an der Reihe wäre. Mmmmh, na gut, überzeugt mich selber auch nicht so.

Wenn der NV30 pünktlich fertig geworden wäre hätten die 128 Bit ja noch gereicht

Trilinear aus einer Stufe, hört sich vergleichsweise logisch und einfach an. Man verwendet eine hohe Mipmapstufentextur und generiert aus den Werten on-the-fly die nächstniedrigere und dann werden sie vermischt.

mfg
egdusp

Ja im Prinzip kann man das so sehen in der Praxsis geht es aber sogar noch ein wenig einfacher weil man die nächste Stufe gar nicht explizit erzeugen muss. Das Problem ist nur das man dafür 16 (4*4) Werte aus der Texture braucht was mit einem gute Cache aber nicht alzu kritisch werden dürfte.

Tigerchen
2003-06-09, 11:47:19
Original geschrieben von Demirug
Wenn der NV30 pünktlich fertig geworden wäre hätten die 128 Bit ja noch gereicht



Hmm.Aber nur mit extremen Taktraten und Staubsaugerkühlung.

Demirug
2003-06-09, 12:06:08
Original geschrieben von Tigerchen

Hmm.Aber nur mit extremen Taktraten und Staubsaugerkühlung.


Nicht wirklich. Der extreme Takt war ja nur erforderlich um nicht ganz abzustinken und der Staubsauger war die Folge das der DDR-II RAM einfach zu heiss wurde und bei TSMC ja der gewüschte Process nicht funktioniert hat.

Der NV30 war ein klasischer Murphy.

mapel110
2003-06-09, 13:52:18
Original geschrieben von Demirug
Wenn der NV30 pünktlich fertig geworden wäre hätten die 128 Bit ja noch gereicht


wann wäre denn diese pünktlich gewesen ?
mitte 2002 ?
frühling 2002 ?

Demirug
2003-06-09, 14:17:15
Original geschrieben von mapel110
wann wäre denn diese pünktlich gewesen ?
mitte 2002 ?
frühling 2002 ?

3Q02 und zwar nicht der Chip den es dann später als NV30 gab.

Tigerchen
2003-06-09, 16:36:14
Original geschrieben von Demirug
3Q02 und zwar nicht der Chip den es dann später als NV30 gab.

Oha.Jetzt wirds interessant.Was sollte denn da kommen?So eine Art Rampage?

robbitop
2003-06-09, 18:47:40
nein.
Es wäre der NV30 ABER @low k dielectric gewesen. Bei 400-450Mhz Chiptakt gewesen.
Somit deuitlich weniger Verlustleistung

Crushinator
2003-06-09, 22:00:22
Original geschrieben von robbitop
(...)
Es wäre der NV30 ABER @low k dielectric gewesen. Bei 400-450Mhz Chiptakt gewesen.
Somit deuitlich weniger Verlustleistung Toll, gereicht hätte die Performance für die "Krone" aber trotzdem nicht, schon gar nicht im 3Q02. :|

robbitop
2003-06-10, 02:26:47
naja ungefähr gleichschnell wie die R300...und durch dessen damalige treiber (nich so schnell und ausgereift) wohl leicht besser bei 400-450Mhz

MadManniMan
2003-06-10, 04:32:39
Original geschrieben von Exxtreme
Für mich klingt die Meldung nach einer FUD-Kampagne. =)

bah. schon wieder dieses komische wort!

was zum *#~%µ heißt das eigentlich?

MadManniMan
2003-06-10, 04:35:14
Original geschrieben von Aquaschaf
entirely new architecture ?

das glaube ich kaum

ich ebenso wenig.

wenn man PS und VS 3 bringt und dafür extra ne neue archi baut, dann braucht man keinen "schwachen" PS und VS 2

-> kombiniert mit demis ansatz ein indiz für tri-tmus, sowie (m.E.) nun auch 8 farbwert-pipes

Original geschrieben von Omnicron
"twice as fast as the NV35"

glaube ich auch nicht, es sei denn in einem bestimmten Benchmark.
Das ist das übliche Marketing blabla, das einzige interessante ist das der NV40 nun früher vorgestellt wird als erwartet.
(War nicht ursprünglich 1Q 2004 vorgesehen ?)

hehe, "twice as fast" nur noch? beim gf3 wars 7 mal so schnell - und da wissen wir ja, was dabei rausgekommen is ;D

MadManniMan
2003-06-10, 04:38:07
Original geschrieben von Richthofen
Es zeigt doch in jedem Fall, dass Nvidia nen Scheiss daran denkt langsamer zu machen.


es zeigt, was NV eigentlich plant. ob die das schaffen werden wir sehen. ein derartiger optimismus ist in einem solchen geschäft einfach naiv, man sollte sich eine gewisse portion skepsis in jedem fall beibehalten

Original geschrieben von Richthofen
Das hoffe ich nicht. So bekomm ich das maximale aus meiner Nvidia Hardware...

aha. immernoch fan von monopolen?

Lost Prophet
2003-06-10, 11:34:19
Original geschrieben von MadManniMan
bah. schon wieder dieses komische wort!

was zum *#~%µ heißt das eigentlich?

FUD = Fear, Uncertainty and Doubt

FUAD = Fear, Uncertainty And Doubt

im übrigen www.abkuerzungen.de ;)

cya axel

Richthofen
2003-06-10, 11:37:48
Original geschrieben von MadManniMan
es zeigt, was NV eigentlich plant. ob die das schaffen werden wir sehen. ein derartiger optimismus ist in einem solchen geschäft einfach naiv, man sollte sich eine gewisse portion skepsis in jedem fall beibehalten

aha. immernoch fan von monopolen?

Es ist nicht meine Aufgabe ATI zu unterstützen nur damit Nvidia keinen Marktanteile gewinnt.
Ich kaufe dass, was für mich als Spieler und nur als Spieler am besten ist. Und wenn ich bei NV mehr aus der Hardware bekomme, dann kauf ich diese Hardware. Ist mir doch egal wie das fabriziert wird. Wenn ATI das gleiche will, dann müssen sie eben ein ähnliches Programm in dem Umfang schaffen und investieren. Wie sie das machen ist mir doch wurscht.

Ich kauf mir ne Graka für 400 Euro und will, dass das maximale daraus rausgeholt wird. Wieso soll ich mich mit Standard zufrieden geben? Nur damit es ATI leichter hat? Also sorry mal aber dafür geb ich sicher keine 400 Euro aus.

seahawk
2003-06-10, 11:43:17
Original geschrieben von MadManniMan
es zeigt, was NV eigentlich plant. ob die das schaffen werden wir sehen. ein derartiger optimismus ist in einem solchen geschäft einfach naiv, man sollte sich eine gewisse portion skepsis in jedem fall beibehalten



Full Ack,

aber das gilt auch bei Ankündigungen anderer Hersteller. Ich halte es genauseo gewagt sicher zu sein, dass ein aufgebohrter R300 (Loci) mit einer NV40 mithalten können wird. Möglich ist es, aber nicht sicher.

Pussycat
2003-06-10, 12:17:34
Original geschrieben von Richthofen
Es ist nicht meine Aufgabe ATI zu unterstützen nur damit Nvidia keinen Marktanteile gewinnt.
Ich kaufe dass, was für mich als Spieler und nur als Spieler am besten ist. Und wenn ich bei NV mehr aus der Hardware bekomme, dann kauf ich diese Hardware. Ist mir doch egal wie das fabriziert wird. Wenn ATI das gleiche will, dann müssen sie eben ein ähnliches Programm in dem Umfang schaffen und investieren. Wie sie das machen ist mir doch wurscht.

Ich kauf mir ne Graka für 400 Euro und will, dass das maximale daraus rausgeholt wird. Wieso soll ich mich mit Standard zufrieden geben? Nur damit es ATI leichter hat? Also sorry mal aber dafür geb ich sicher keine 400 Euro aus.

Und wenn du bei ATI mehr aus der Hardware bekommst? Ich bekomme täglich meine Dosis 6xAA. Ich kriege täglich schnelles und gutes AF. Ich brauche dafür, nein könnte das nicht mal mit einer Karte von NV kriegen. Und ist das standard?

Und sowieso, glaubst du dass Designer sich nicht um millionen DX9-fähige R300's kümmern werden? Chips die das ganze auch noch in brauchbarer Geschwindigkeit machen können? An blöde kann man deine FX5200 bestimmt als DX9-fähig verkaufen. Dass developer so blöd sein werden, wage ich aber mal zu bezweifeln.

Demirug
2003-06-10, 13:00:05
Original geschrieben von Pussycat
Und wenn du bei ATI mehr aus der Hardware bekommst? Ich bekomme täglich meine Dosis 6xAA. Ich kriege täglich schnelles und gutes AF. Ich brauche dafür, nein könnte das nicht mal mit einer Karte von NV kriegen. Und ist das standard?

Und sowieso, glaubst du dass Designer sich nicht um millionen DX9-fähige R300's kümmern werden? Chips die das ganze auch noch in brauchbarer Geschwindigkeit machen können? An blöde kann man deine FX5200 bestimmt als DX9-fähig verkaufen. Dass developer so blöd sein werden, wage ich aber mal zu bezweifeln.

In Summe dürften wir im Moment maximal 3 Millionen DX9 Chips (inkl 5200) im Markt haben die aber noch nicht alle beim Endkunden sind. In Bezug auf die Gesamtsumme der Grafiklösungen nicht unbedingt viel.

Developer müssen das berücksichtigen was der "blöde" Kunde an Hardware zuhause hat. Wenn der Kunde also wie blöd FX 5200 Karten kauft muss man das berücksichtigen. Wenn die nicht so wäre müssten wir uns jetzt nicht mit so vielen Spielen herumschlagen die DX7-Techlevel haben.

Pathfinder
2003-06-10, 18:16:33
Original geschrieben von Demirug
In Summe dürften wir im Moment maximal 3 Millionen DX9 Chips (inkl 5200) im Markt haben die aber noch nicht alle beim Endkunden sind. In Bezug auf die Gesamtsumme der Grafiklösungen nicht unbedingt viel.

Developer müssen das berücksichtigen was der "blöde" Kunde an Hardware zuhause hat. Wenn der Kunde also wie blöd FX 5200 Karten kauft muss man das berücksichtigen. Wenn die nicht so wäre müssten wir uns jetzt nicht mit so vielen Spielen herumschlagen die DX7-Techlevel haben.

Zum Glück sind Entwickler ja nicht "blöde" und erkennen folgende Tatsache:
Die 5200 hat bestensfalls DX8-Performancelevel.

Nun ist die Frage, was die Entwickler wohl eher berücksichtigen werden:
- Das DX9-Techlevel in Theorie
oder
- Die DX7-Rohleistung auf dem Niveau einer GF4-MX

Was bringen DX9-Fertigkeiten, wenn's nur zu einer Dia-Show reicht.

Die FX5200(non Ultra) wird ohne Einschränkung in zukünftigen Spielen als DX7-8 eingestuft werden, weil sie bei allen DX7-8 Tests auf dem Niveau einer DX7-8 Karte (GF4-MX/R9000) liegt!

Pathfinder

Demirug
2003-06-10, 19:04:04
Original geschrieben von Pathfinder
Zum Glück sind Entwickler ja nicht "blöde" und erkennen folgende Tatsache:
Die 5200 hat bestensfalls DX8-Performancelevel.

Nun ist die Frage, was die Entwickler wohl eher berücksichtigen werden:
- Das DX9-Techlevel in Theorie
oder
- Die DX7-Rohleistung auf dem Niveau einer GF4-MX

Was bringen DX9-Fertigkeiten, wenn's nur zu einer Dia-Show reicht.

Die FX5200(non Ultra) wird ohne Einschränkung in zukünftigen Spielen als DX7-8 eingestuft werden, weil sie bei allen DX7-8 Tests auf dem Niveau einer DX7-8 Karte (GF4-MX/R9000) liegt!

Pathfinder

Klar die FX 5200 ist kein Performance Wunder aber was kann man von einer Grafikkarte < 100€ schon gross erwarten?

Tatsache ist nun aber auch das jede Engine diese Karte erst mal als DX9 Karte erkennen wird und falls keine spezielle Sperre eingebaut wurde auch die DX9 Shader benutzten wird.

Handelt es sich nun bei den DX9 Shadern um reine Passreduktionsshader welche für die FX-Chips und mit reduzierter Genauigkeit erzeugt wurden ist der NV34 damit nicht langsamer als mit einer Multipass PS1.1-1.3 Lösung oder gar eine DX7 MT Lösung. Dafür wird dadurch aber die CPU-Last geringer und wer eine billige Grafikkarte kauft hat sicherlich auch keine Highend CPU.

Reden wir nun von echtem DX9 Eyecandy wird es natürlich mit einer FX 5200 wirklich sehr eng aber solche Eyecandy Effekte kann man ja normalerweise abschalten. Und der geneigte User kann sich das ganze dann zumindestens mal anschauen und erkennen was er von einere besseren Karte hätte.

LovesuckZ
2003-06-10, 19:06:47
Original geschrieben von Pathfinder
Die DX7-Rohleistung auf dem Niveau einer GF4-MX


wenn es danach gehen wuerde, waere selbst eine 9000 keine DX8 Karte, sondern nur eine Karte mit der "DX7 - Rohleistung auf dem Niveau einer GF4-MX" ...

MadManniMan
2003-06-10, 19:36:26
Original geschrieben von LovesuckZ
wenn es danach gehen wuerde, waere selbst eine 9000 keine DX8 Karte, sondern nur eine Karte mit der "DX7 - Rohleistung auf dem Niveau einer GF4-MX" ...

ja.

...und? ???

MadManniMan
2003-06-10, 19:37:29
Original geschrieben von Demirug
Klar die FX 5200 ist kein Performance Wunder aber was kann man von einer Grafikkarte < 100€ schon gross erwarten?


aber immerhin freut es dich doch, daß der eklige dx7-schranz immer mehr an quantität verliert :D eines tages wirst du ganz von ihm verschont sein !

Demirug
2003-06-10, 19:54:42
Original geschrieben von MadManniMan
aber immerhin freut es dich doch, daß der eklige dx7-schranz immer mehr an quantität verliert :D eines tages wirst du ganz von ihm verschont sein !

Ja das freut mich ungemein.

seahawk
2003-06-10, 19:58:35
Und deshalb, bin ich (als High-End-Käufer) froh, dass es die 5200 gibt. Je eher DX9 die Massenverbreitung erreicht, desto schneller werden die Leute mit den High-End-Karten auch was von den Fähigkeiten Ihrer Karten haben.

Ich hoffe, dass der RV360 ein DX9 Low-End-Chip von ATI ist.

Pathfinder
2003-06-10, 21:18:39
Original geschrieben von seahawk
Und deshalb, bin ich (als High-End-Käufer) froh, dass es die 5200 gibt. Je eher DX9 die Massenverbreitung erreicht, desto schneller werden die Leute mit den High-End-Karten auch was von den Fähigkeiten Ihrer Karten haben.

Ich hoffe, dass der RV360 ein DX9 Low-End-Chip von ATI ist.

Eigentlich kommen wir hier vom Thread-Thema ab, aber da die nachfolgenden Reaktionen auf mein Posting in die flasche Richtung gingen...

Ich hatte es schon bei meiner Antwort auf Demirug's Posting angedeutet:
Die Leistung der FX5200 ist in jeder Beziehung deutlich unterhalb des Leistungsschnitts gegenwärtiger DX9-Hardware einzuordnen. Wie Demirug schon schrieb, so wird DX9 zunächst nur zur optischen Aufbesserung benutzt werden. Bereits demnächst erscheinende Spiele (HL2/D3/Stalker/...) werden die FX5200 überfordern. Für DX9-Effekte ist bei der FX5200 in nachfolgeden DX9-Knüllern absolut kein Rechenzeit mehr übrig. Ich bezweifele sogar die grundsätzliche Eignung für zukünftige Spiele. Interessanter hingegen ist die Frage, ob die Entwickler noch für die R9600-/FX5600-Klasse Minimal-DX9-Shader schreiben werden?!


Kurzum:
Selbst wenn in zukünftigen Spielen DX9-Effekte als Option für entsprechende Hardware angeboten werden wird, so ändert das nichts an meiner Überzeugung, daß die FX5200 von Entwicklern nicht in die Kategorie 'DX9-Hardware' eingestuft wird und folglich auch nichts zur 'Verbreitung' von DX9-Hardware beitragen kann.

Aus dem gleichen Grund benötigen wir keine "Sub-RV350-Leistung" DX9-Hardware von ATI!

Pathfinder

LovesuckZ
2003-06-10, 21:22:09
Original geschrieben von Pathfinder
Aus dem gleichen Grund benötigen wir keine "Sub-RV350-Leistung" DX9-Hardware von ATI!

Pathfinder

Dadraus laesst sich schließen, dass wir ueberhaupt keine technologisch fortschrittlichen Karten im Markt unter 100€ benoetigen. Und wenn sie erst Sinn machen, sind sie wieder vollkommen veraltet (siehe GF4MX).

seahawk
2003-06-10, 21:35:30
@ Pathfinder

es geht nicht um die Leistung, es geht um die Verfügbarkeit der Features. Jede Karte in der Preisklasse unter 100€ ist zu langsam um Spiele wie HL2, D3 oder Stalker in hohen Auflösung bei medium oder max. Details zu spielen.

Nur leider ist die Anzahl der Besitzer von Medium- to Highend-Karten im Vergleich zu der Anzahl aller PC Besitzer gering. Die erfolgreichsten Spiele (Verkäufe) stellen oftmals geringe Hardwareanforderungen. (Sims)

Diese Low-End-Karten werden den Besitzern nicht eine besser Grafik oder Leistung bieten als eine DX7 oder DX8 KArte gleicher Leistung.

Nur Besitzer solcher HArdware spielen auch nicht in hohen Auflösungen mit allen Details und AF +AA. Die Leute spielen heute noch mit 640x480x32 in niedrigsten Details. Das werden die kleinen FX in Zukunft schaffen.

Der Vorteil ist, dass die Entwickler aufhören können einen Pfad für DX7 oder gar TNT-Karten einzubauen. Es wird den Entwicklern erlauben Shader einzusetzen ohne auf einen Fallbackmodus für alte KArten zu achten. Diese gewonnene Entwicklungszeit wird sicherlich in eine bessere Ausnützung der DX9 Features gesteckt.

Für den Low-End-User ändert sich wenig, aber für alle anderen wird der Entfall der alten Karten zu einer besseren Nutzung der DX8/9 Möglichkeiten führen.

ENDE OT

(Kann das einer rausplitten ?? - Diskussion über den Sinn biliger DX 9 Hardware - Technologieforum)

AlfredENeumann
2003-06-10, 21:41:47
Original geschrieben von LovesuckZ
wenn es danach gehen wuerde, waere selbst eine 9000 keine DX8 Karte, sondern nur eine Karte mit der "DX7 - Rohleistung auf dem Niveau einer GF4-MX" ...

Kanst du endlich mal aufhören mit der scheiß 9000er ???
In jedem Thread kommst du jedesmal mit "aber die 9000er ist aber auch zu langsam dafür". So langsam wissen wir es. Sind wir hier im Kindergarten oder was ?

Sorry für die Wortwahl, aber so langsam nervt es.

Quasar
2003-06-10, 22:25:41
Original geschrieben von AlfredENeumann
Kanst du endlich mal aufhören mit der scheiß 9000er ???
In jedem Thread kommst du jedesmal mit "aber die 9000er ist aber auch zu langsam dafür". So langsam wissen wir es. Sind wir hier im Kindergarten oder was ?

Sorry für die Wortwahl, aber so langsam nervt es.

;D Da fang aber mal lieber bei anderen an zu schimpfen, AEN. Und zwar vielleicht bei denen, auf die Lovesuckz reagiert hat.... z.B.:

Original geschrieben von Pussycat
An blöde kann man deine FX5200 bestimmt als DX9-fähig verkaufen. Dass developer so blöd sein werden, wage ich aber mal zu bezweifeln.
:nono:

Ailuros
2003-06-11, 05:18:10
Also die drei Seiten les ich mir jetzt nicht durch und ich kann mir auch nicht vorstellen was die moegliche Vorstellung von NV40 in 2003 mit der 5200 or 9000 zu tun hat...

Wie dem auch sei bezweichle ich dass NV40 noch dieses Jahr auf Ladentische kommt, was wohl der Ideal-Fall oder "best case scenario" fuer NVIDIA waere.

In der Zwischenzeit sagen mir ein paar ge-leakte Paperspecs kombiniert mit meiner eher vibranten Vorstellungskraft gar nichts. Ich moechte abwarten bis das Ding getestet/analysiert wird, wann es erhaeltlich sein wird und zu welchem Preis, dann werde ich erst sagen koennen was der Codename eigentlich repraesentiert.

Im gegebenen Fall bin ich genauso begeistert/enttaeuscht mit NV40/Loci/Serie5 usw usw.

Und jetzt mal zum OT Thema: obwohl dx9.0 Features in einer 5200 keinen wohl begeistern werden, ist es mir trotzdem lieber als die vorige dx7/MX Varianten im budget Markt. Wuerden die 5200er teurer sein wegen der dx9 Faehigkeiten, dann waere es anders. Da es aber fraglich ist ob selbst eine FX5800 oder 5900 durch ihre Lebenszeit viel von dx9.0 ausnutzen werden koennen, ist es natuerlich wieder mal eine Debatte fuer die Debatte ;)

***edit: um Missverstaendnissen auszuweichen, was man bezahlt bekommt man auch. Fuer 100$ gibts auch 100$ Leistung.

Razor
2003-06-11, 08:54:11
Original geschrieben von Ailuros
***edit: um Missverstaendnissen auszuweichen, was man bezahlt bekommt man auch. Fuer 100$ gibts auch 100$ Leistung.
Hmmm...
Und für 500$ gibt's auch 500$ Leistung ?
:kratz:

Ich denke, Du weißt worauf ich hinaus will...

Razor

P.S.: Auch noch einen zum OT... wer die Leistungsfähigkeit einer FX5200 wirklich einschätzen will, sollte sie sich selber anschaffen (kostet ja nicht viel ;-) und sie ausprobieren. Offensichtlich haben die meisten hier nicht die Spur einer Ahnung...

Ailuros
2003-06-11, 20:44:53
P.S.: Auch noch einen zum OT... wer die Leistungsfähigkeit einer FX5200 wirklich einschätzen will, sollte sie sich selber anschaffen (kostet ja nicht viel ;-) und sie ausprobieren. Offensichtlich haben die meisten hier nicht die Spur einer Ahnung...

Eine 5600 war schon genug um mir zu zeigen dass sie momentan noch kein Upgrade sondern ein Sidegrade fuer meine Ti4400@300/650MHZ ist. Muss ich da noch weiter in die Tiefe steigen? Was genau ist da so toll an einer 5200? Nichts mehr oder weniger als eine budget Karte.

http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_ut2003_a.php

*gaehn*

Hmmm...
Und für 500$ gibt's auch 500$ Leistung ?

Zu allem gibt es auch Ausnahmen. Zeig mir eine derzeitige High-End Karte von ATI oder NVIDIA die 500$ kostet und NICHT ebenbuertige Leistung liefert. Oder willst Du mir weissmachen dass eine 5900 nur um 20-30% schneller ist als eine 5200?

Mit AA/AF eingeschaltet in hohen Aufloesungen ist die Preis/Leistung Relation zwischen diesen beiden Beispielen wohl gerechtfertigt oder? Und ja high end Karten kauft man normalerweise heute fuer ihre AA/AF Faehigkeiten meistens, sonst verschwendet man viel zu viel Geld ohne Grund.

mapel110
2003-06-11, 21:06:12
Original geschrieben von seahawk
Und deshalb, bin ich (als High-End-Käufer) froh, dass es die 5200 gibt. Je eher DX9 die Massenverbreitung erreicht, desto schneller werden die Leute mit den High-End-Karten auch was von den Fähigkeiten Ihrer Karten haben.



lol

bis das soweit ist, hat ein high end user schon ps/vs 3.0 und kann wieder nur auf featuresupport warten.

Richthofen
2003-06-11, 21:40:33
Original geschrieben von mapel110
lol

bis das soweit ist, hat ein high end user schon ps/vs 3.0 und kann wieder nur auf featuresupport warten.

Na immerhin bekommt er dann Games mit PS / VS 2.0 und das reicht ja erstmal. Bis jetzt bekommt er DX7 Games und da wird die FX 5200 einiges bewegen.


"
Eine 5600 war schon genug um mir zu zeigen dass sie momentan noch kein Upgrade sondern ein Sidegrade fuer meine Ti4400@300/650MHZ ist. Muss ich da noch weiter in die Tiefe steigen? Was genau ist da so toll an einer 5200? Nichts mehr oder weniger als eine budget Karte.
"
Es haben aber nicht alle eine GF4Ti Karte. Es sagt ja niemand das ein GF4TI User umrüsten soll.
Wer aber eine neue Low End Karte kaufen will, und das sind zich fach mehr Leute als FX 5600 Ultra oder GF4TI aufwärts Käufer, der bekommt in dem Segment mit der FX5200 die beste Karte - Punkt!

StefanV
2003-06-11, 22:00:03
Original geschrieben von Razor
P.S.: Auch noch einen zum OT... wer die Leistungsfähigkeit einer FX5200 wirklich einschätzen will, sollte sie sich selber anschaffen (kostet ja nicht viel ;-) und sie ausprobieren. Offensichtlich haben die meisten hier nicht die Spur einer Ahnung...

Passt sie in mein Aopen A340??
Nein, also gibts für mich absolut keinen Grund, sie mir zu holen, im Gegensatz zu einer Club3D Radeon 9100...

Quasar
2003-06-11, 22:01:14
Original geschrieben von Ailuros
Eine 5600 war schon genug um mir zu zeigen dass sie momentan noch kein Upgrade sondern ein Sidegrade fuer meine Ti4400@300/650MHZ ist. Muss ich da noch weiter in die Tiefe steigen? Was genau ist da so toll an einer 5200? Nichts mehr oder weniger als eine budget Karte.


Das bestreitet doch hier niemand. Das Problem ist m.E., dass einige hier der FX5200 jede Existenzberechtigung absprechen wollen.

Du solltest nicht die Millionen GF2MX-Benutzer, die Millionen TNT2M64-Benutzer und die Millionen Rage128-Besitzer, für die die FX5200 im Bereich von weniger als €100 zusammen mit den Abverkäufen der Ti4200 das optimale Upgrade darstellt (wie gesagt, vorausgesetzt, man setzt sich eine strikte Grenze).

Klar sollte niemand von einer Ti4200 oder höher "quergraden"....

Quasar
2003-06-11, 22:08:22
Original geschrieben von Stefan Payne
Passt sie in mein Aopen A340??
Nein, also gibts für mich absolut keinen Grund, sie mir zu holen, im Gegensatz zu einer Club3D Radeon 9100...

OMG SP....
Hast du das, was du da gequotet hast auch gelesen?

Falls ja: Wie willst du mit einer R9100 die Leistungsfähigkeit einer FX5200 einschätzen?

Ailuros
2003-06-12, 01:50:51
Original geschrieben von Quasar
Das bestreitet doch hier niemand. Das Problem ist m.E., dass einige hier der FX5200 jede Existenzberechtigung absprechen wollen.

Du solltest nicht die Millionen GF2MX-Benutzer, die Millionen TNT2M64-Benutzer und die Millionen Rage128-Besitzer, für die die FX5200 im Bereich von weniger als €100 zusammen mit den Abverkäufen der Ti4200 das optimale Upgrade darstellt (wie gesagt, vorausgesetzt, man setzt sich eine strikte Grenze).

Klar sollte niemand von einer Ti4200 oder höher "quergraden"....

Jede Existenz einer 5200 abzustreiten ist Schwachsinn. Auf gleichem Preisniveau liegen heutzutage je nach Speichermenge 9200/9100 usw. Dabei kann man auf einer 5200 immer noch 2xRGMS in moderaten Aufloesungen mit ein bisschen Anisotropic anwenden, wobei es wohl wieder zur Differenz zwischen schnellen MSAA/langsamen AF gegen langsamen SSAA/schnellem AF kommt. Da kommt es wohl eher zu den Bevorzugungen jedes Gamers, was bei ihm Vorrang nimmt.

Von dem Standpunkt aus ist mir die 5200 doch lieber auf diesem Preisniveau. Mit 3rd party tweakern kann man eventuell Supersampling fuer D3D und OGL einschalten wenn man SSAA um jeden Preis haben muss.

Was ich meinte ist, dass wirklich nichts imposantes in einer 5200 steckt.

seahawk
2003-06-12, 08:18:31
Original geschrieben von Ailuros

Was ich meinte ist, dass wirklich nichts imposantes in einer 5200 steckt.

Was will man für unter 100 Euro auch erwarten ?? Ist halt Low-End.

Ailuros
2003-06-12, 08:51:58
Sagte ich ja auch in einem vorigen Post:

...um Missverstaendnissen auszuweichen, was man bezahlt bekommt man auch. Fuer 100$ gibts auch 100$ Leistung.

Dieser Satz hat komischerweise die Debatte sogar weitergefuehrt.

Richthofen
2003-06-12, 10:47:47
Original geschrieben von Ailuros
JedeDabei kann man auf einer 5200 immer noch 2xRGMS in moderaten Aufloesungen mit ein bisschen Anisotropic anwenden, wobei es wohl wieder zur Differenz zwischen schnellen MSAA/langsamen AF gegen langsamen SSAA/schnellem AF kommt. Da kommt es wohl eher zu den Bevorzugungen jedes Gamers, was bei ihm Vorrang nimmt.

Da wäre ich vorsichtig. Du kannst ja bei der FX zwischen Quality, Performance und High Performance wählen. Es dürfte wohl kein geheimnis sein, dass selbst Performance im Deto 44.03 besser aussehen dürfte als das AF des R200 respektive Rv250/280.
Insofern wirst mit der FX hier wohl nicht großartig langsamer sein.
Kombinierst es mit AA, ist die FX haushoch überlegen. Die meissten Reviews haben das ja auch getestet.
Und eigentlich kannst die 9100 auch streichen, weil die ohnehin nur noch aus Restbeständen verkauft wird. Somit flächendeckend nicht mehr in den entsprechenden Mengen verfügbar ist vor allem nicht für OEMs.
Insofern ist die 5200 da ganz allein auf weiter Flur.
Ich find die Karte mehr als Klasse, weil es interessant ist wieviel sie da aus 42 bis 45 Mio Transistoren rausgeholt haben. Damit haben sie nur unwesentlich mehr als der Wettbewerber in dem Segment. Die 9100 hat deutlich mehr.

MadManniMan
2003-06-12, 10:59:14
Original geschrieben von Richthofen
Da wäre ich vorsichtig. Du kannst ja bei der FX zwischen Quality, Performance und High Performance wählen. Es dürfte wohl kein geheimnis sein, dass selbst Performance im Deto 44.03 besser aussehen dürfte als das AF des R200 respektive Rv250/280.
Insofern wirst mit der FX hier wohl nicht großartig langsamer sein.


:|

dir ist schon bewußt, dass die 9000-irgendwas nen performance-hit von so in etwa null komma gar nix haben, oder?

Richthofen
2003-06-12, 12:04:57
ja und dementsprechend sieht es auch aus -> schlechter als normales Trillinear.
Das AF auf der RV250/280 und R200 Reihe ist wie der 3dMurks Murks.
Bei der FX kannst halt je nach Situation wählen.
Alles in allem ist die FX5200 schneller und ATI im Low End weit abgeschlagen. DX9 bekommst bei der FX5200 dann noch kostenlos dazu.

Ein paar Werte aus dem Nordichardware Low End Review:
Quake3 1024 mal 768 HQ++ Mode 32 Bit 2x AA und 4x AF
FX5200 102 fps
Radeon9200 60fps

Mit 4x AA und 8x AF
FX5200 55fps
Radeon9200 27 fps -> unspielbar.

und auch beim klassischen UT liegt die FX5200 vorn.
1024 mal 768 32 Bit full Details
FX5200 59 fps
Radeon92000 44fps

Preis nach geizhalst.at
Albatron FX5200 74 Euro lieferbar
die getestete Saphire 9200 88 Euro lieferbar, also sogar noch teurer.

MadManniMan
2003-06-12, 14:15:26
Original geschrieben von Richthofen
ja und dementsprechend sieht es auch aus -> schlechter als normales Trillinear.

hast du sowas überhaupt schonmal in aktion gesehen? ???

Original geschrieben von Richthofen
Das AF auf der RV250/280 und R200 Reihe ist wie der 3dMurks Murks.
Bei der FX kannst halt je nach Situation wählen.
Alles in allem ist die FX5200 schneller und ATI im Low End weit abgeschlagen. DX9 bekommst bei der FX5200 dann noch kostenlos dazu.

es geht mir hier nur um af und im speziellen um die sehr gute performance dessen

Original geschrieben von Richthofen
Ein paar Werte aus dem Nordichardware Low End Review:
Quake3 1024 mal 768 HQ++ Mode 32 Bit 2x AA und 4x AF
FX5200 102 fps
Radeon9200 60fps

schön, daß du antialiasing mit ins spiel bringst -> darum gehts überhaupt nicht

Original geschrieben von Richthofen
Mit 4x AA und 8x AF
FX5200 55fps
Radeon9200 27 fps -> unspielbar.

siehe oben. und BTW: 55fps sind auch schon lang unspielbar

Original geschrieben von Richthofen
und auch beim klassischen UT liegt die FX5200 vorn.
1024 mal 768 32 Bit full Details
FX5200 59 fps
Radeon92000 44fps

warum führst du hier eigentlich die standardschwache 9200 an? ich habe von der 8500 und 9000-sonstwas im allgemeinen geredet - da sollte man nicht unbedingt die 400 MHz variante anführen...

Original geschrieben von Richthofen
Preis nach geizhalst.at
Albatron FX5200 74 Euro lieferbar
die getestete Saphire 9200 88 Euro lieferbar, also sogar noch teurer.

laut preistrend gibts die wesentlich stärkere 9000 pro für 82€ und ne zur 9200 gleichwertig 9000 für unter 60 euronen :eyes:


... -> mir geht es nicht darum, eine dx8-9000er-radeon auf gedeih und verderb besser als ne 5200 dastehen zu lassen. nur geht mir das ewige schlechtgemache dieser reihe gehörig auf den sack - was hat man denn davon?

Richthofen
2003-06-12, 15:52:28
die antwort ist ziemlich einfach, sie sind schlechter punkt.
Ist nach den bisherhigen Erkenntnissen auch nicht wirklich diskutierbar dieser Punkt :)
Low End geht klar an NV.
Nicht mehr und nicht weniger sagt der Vergleich aus.

MadManniMan
2003-06-12, 15:56:34
Original geschrieben von Richthofen
die antwort ist ziemlich einfach, sie sind schlechter punkt.
Ist nach den bisherhigen Erkenntnissen auch nicht wirklich diskutierbar dieser Punkt :)
Low End geht klar an NV.
Nicht mehr und nicht weniger sagt der Vergleich aus.

der einzige grund, warum du noch nicht auf meiner ignore-liest bist, ist meine prinzipielle abneigung gegen diese...

GIB KEINE VERDAMMTEN PAUSCHALAUSSAGEN OHNE IRGENDWELCHEN BEZUG ZUR ZU BEANTWORTENDEN FRAGE UND GEH AUF MEINE PUNKTE EIN, HERRGOTT!!!

:freak2:

mapel110
2003-06-12, 16:45:47
Original geschrieben von MadManniMan
der einzige grund, warum du noch nicht auf meiner ignore-liest bist, ist meine prinzipielle abneigung gegen diese...


:topic:
die ignore list ist sowieso sinnlos, weil posts immer gequotet werden und man sie so trotzdem zu lesen bekommt.

sorry

MadManniMan
2003-06-12, 16:48:27
Original geschrieben von mapel110
:topic:
die ignore list ist sowieso sinnlos, weil posts immer gequotet werden und man sie so trotzdem zu lesen bekommt.

sorry

ein grund für meine prizipien

Richthofen
2003-06-12, 17:19:58
Original geschrieben von MadManniMan
der einzige grund, warum du noch nicht auf meiner ignore-liest bist, ist meine prinzipielle abneigung gegen diese...

GIB KEINE VERDAMMTEN PAUSCHALAUSSAGEN OHNE IRGENDWELCHEN BEZUG ZUR ZU BEANTWORTENDEN FRAGE UND GEH AUF MEINE PUNKTE EIN, HERRGOTT!!!

:freak2:

Warum soll ich da noch gross darauf eingehen?
Nach Benchmarks ist die FX5200 schneller,
AA brauchbar,
AF schöner,
DX9 als Goodie,
Passiv gekühlt,
super Kompatibilität und Treiber,
günstig und nicht teurer als die Konkurenz,
super Nview und Tv-Out.

Was willstn noch alles hören? Die Karte ist auf der ganzen Linie besser als das was ATI als Low Cost in seiner Produktpalette als Gegenstück anbietet. Da gibts nichts weiter zu diskutieren, zerpflücken und zu doktern.
Kann doch nicht so schwer sein.

LovesuckZ
2003-06-12, 17:20:49
Original geschrieben von MadManniMan
laut preistrend gibts die wesentlich stärkere 9000 pro für 82€ und ne zur 9200 gleichwertig 9000 für unter 60 euronen :eyes:

Trotzdem nicht schneller als ne 5200 :D
Ati's 8500/9100 ist die einzgiste Alternative zur 5200. 9000/pro sind entweder zu langsam oder zu teuer


... -> mir geht es nicht darum, eine dx8-9000er-radeon auf gedeih und verderb besser als ne 5200 dastehen zu lassen. nur geht mir das ewige schlechtgemache dieser reihe gehörig auf den sack - was hat man denn davon?

Das frage ich mich auf das 5200 gebashe auch. Was hat man davon, eine konkurenzfaehige Karte nicht als diese anzusehen.

robbitop
2003-06-12, 17:21:40
besser als die die lowcost ATi Variante sicher (oh wunder nach einer Generation später)

aber das AA ist in der Praxis sicher meist nicht brauchbar :)

MadManniMan
2003-06-12, 17:34:04
Original geschrieben von Richthofen
Was willstn noch alles hören? Die Karte ist auf der ganzen Linie besser als das was ATI als Low Cost in seiner Produktpalette als Gegenstück anbietet. Da gibts nichts weiter zu diskutieren, zerpflücken und zu doktern.
Kann doch nicht so schwer sein.

du hast doch mit allem recht, was du der fx 5200 zusprichst nur habe ich einfach ein problem damit, daß du die dx8-radeons schlechter dastehen läßt, als sie sind.

verstehst du? :balla:

LovesuckZ
2003-06-12, 18:18:22
Original geschrieben von MadManniMan
du hast doch mit allem recht, was du der fx 5200 zusprichst nur habe ich einfach ein problem damit, daß du die dx8-radeons schlechter dastehen läßt, als sie sind.

verstehst du? :balla:

Hoe, ich stelle die "dx8-radeons slechter [...] als sie sind" nirgends so hin. Dir scheint wohl entfallen zu sein, dass immer zu in letzter Zeit immer zuerst gegen die nvidiakarten gebasht werden, und dann erst gegen ATi.

MadManniMan
2003-06-12, 18:34:17
Original geschrieben von LovesuckZ
Hoe, ich stelle die "dx8-radeons slechter [...] als sie sind" nirgends so hin. Dir scheint wohl entfallen zu sein, dass immer zu in letzter Zeit immer zuerst gegen die nvidiakarten gebasht werden, und dann erst gegen ATi.

a) ich hab richthofen gequotet und nicht dich :idea:

b) wer im allgemeinen gegen wen basht ist mir wurst, aber wenn ich in einem meines erachtens lesenswerten thread ungerechtfertigte aussagen lese, kann ich das einfach nicht unkommentiert stehen lassen

Richthofen
2003-06-12, 18:46:53
Original geschrieben von robbitop
besser als die die lowcost ATi Variante sicher (oh wunder nach einer Generation später)

aber das AA ist in der Praxis sicher meist nicht brauchbar :)

Wieso? Bei jedem CPU limitierten Game dürfte das sehr gut gehen. Die meissten Reviewer benchen das halt nur nicht. Die hauen UT oder Comanche4 rein und benchen dann teilweise gleich mit 4x AA und gar nicht erst mit 2x etc..

Also es wird mit Sicherheit mehr Spiele geben wo es einsetzbar ist dosiert als welche wo es nicht einsetzbar ist.

MadManniMan
2003-06-12, 19:06:36
Original geschrieben von Richthofen
Also es wird mit Sicherheit mehr Spiele geben wo es einsetzbar ist dosiert als welche wo es nicht einsetzbar ist.

das 2* der gf3 ist immernoch brauchbar, also ist es auch das der 5200

Ailuros
2003-06-13, 05:41:09
Original geschrieben von Richthofen
Da wäre ich vorsichtig. Du kannst ja bei der FX zwischen Quality, Performance und High Performance wählen. Es dürfte wohl kein geheimnis sein, dass selbst Performance im Deto 44.03 besser aussehen dürfte als das AF des R200 respektive Rv250/280.
Insofern wirst mit der FX hier wohl nicht großartig langsamer sein.
Kombinierst es mit AA, ist die FX haushoch überlegen. Die meissten Reviews haben das ja auch getestet.
Und eigentlich kannst die 9100 auch streichen, weil die ohnehin nur noch aus Restbeständen verkauft wird. Somit flächendeckend nicht mehr in den entsprechenden Mengen verfügbar ist vor allem nicht für OEMs.
Insofern ist die 5200 da ganz allein auf weiter Flur.
Ich find die Karte mehr als Klasse, weil es interessant ist wieviel sie da aus 42 bis 45 Mio Transistoren rausgeholt haben. Damit haben sie nur unwesentlich mehr als der Wettbewerber in dem Segment. Die 9100 hat deutlich mehr.

Geschmackssache und nein da brauch ich nicht vorsichtig sein. Selbst nach den Aenderungen nach den >43xx Treibern ist mir z.B. 2xQuality lieber als 4xPerformance.

Bei Dir geht es dann eher dass es sich um ATI vs NVIDIA handelt, bei mir ist der Grund eher die Begrenzung der 9000/9100/9200 auf nur Supersampling, wobei es mir egal wer was baut oder verkauft.

Zu den restlichen Uebertreibungen brauch ich gar nicht antworten.

Razor
2003-06-13, 07:45:16
Original geschrieben von Ailuros
Eine 5600 war schon genug um mir zu zeigen dass sie momentan noch kein Upgrade sondern ein Sidegrade fuer meine Ti4400@300/650MHZ ist. Muss ich da noch weiter in die Tiefe steigen? Was genau ist da so toll an einer 5200? Nichts mehr oder weniger als eine budget Karte.
Du vergleichst eine 5200 mit einer ti4600-Level-Karte ?
???
Original geschrieben von Ailuros
Zu allem gibt es auch Ausnahmen. Zeig mir eine derzeitige High-End Karte von ATI oder NVIDIA die 500$ kostet und NICHT ebenbuertige Leistung liefert. Oder willst Du mir weissmachen dass eine 5900 nur um 20-30% schneller ist als eine 5200?
Bringt sie die 5-fache Leistung einer 5200 (128Bit) ?
???

Für Dich... das bedeutet 400% schneller zu sein oder 500% der Leistung einer 5200 zu haben... ;-)
Original geschrieben von Ailuros
Mit AA/AF eingeschaltet in hohen Aufloesungen ist die Preis/Leistung Relation zwischen diesen beiden Beispielen wohl gerechtfertigt oder? Und ja high end Karten kauft man normalerweise heute fuer ihre AA/AF Faehigkeiten meistens, sonst verschwendet man viel zu viel Geld ohne Grund.
Nein.
Bei High-End-Karten zahlt man grundsätzlich drauf' und zwar ganz gehörig...
Das ist aber nichts Neues, sondern gehört vielmehr zur Normalität.
:D

Razor

Razor
2003-06-13, 07:50:03
Original geschrieben von Stefan Payne
Passt sie in mein Aopen A340??
Nein, also gibts für mich absolut keinen Grund, sie mir zu holen, im Gegensatz zu einer Club3D Radeon 9100...
An Deiner Stelle würd' ich das Gehäuse weg schmeißen...
Was ist das für ein Murks, wenn ich dermaßen (bei allen Herstellern) in meiner Hardware-Wahl eingeschränkt werde ?
???

Razor

Razor
2003-06-13, 07:53:38
Original geschrieben von Ailuros
Dabei kann man auf einer 5200 immer noch 2xRGMS in moderaten Aufloesungen mit ein bisschen Anisotropic anwenden, wobei es wohl wieder zur Differenz zwischen schnellen MSAA/langsamen AF gegen langsamen SSAA/schnellem AF kommt. Da kommt es wohl eher zu den Bevorzugungen jedes Gamers, was bei ihm Vorrang nimmt.
2xRGMS mit Application-4°AF...
Das ist nicht ausreichend ?
???
Original geschrieben von Ailuros
Was ich meinte ist, dass wirklich nichts imposantes in einer 5200 steckt.
Was soll an einer Budget-Karte imposant sein ?
Es ist viel eher so, dass die Konkurrenz nichts vergleichbares bietet...

Razor

Razor
2003-06-13, 07:56:29
Original geschrieben von Ailuros
Sagte ich ja auch in einem vorigen Post:
Original geschrieben von Ailuros
...um Missverstaendnissen auszuweichen, was man bezahlt bekommt man auch. Fuer 100$ gibts auch 100$ Leistung.

Dieser Satz hat komischerweise die Debatte sogar weitergefuehrt.
Und ich sagte: "Für 500€ gibt's dann also 500% Leistung ?"
Und Du hast nicht konkret geantwortet...

Wollen wir es mal so formulieren... relativ gesehen, bekommst Du für 100€ mehr Leisutng, als für 500€ !
Oder etwa nicht ?

Bis denne

Razor

Razor
2003-06-13, 07:57:38
Original geschrieben von MadManniMan
dir ist schon bewußt, dass die 9000-irgendwas nen performance-hit von so in etwa null komma gar nix haben, oder?
Und Du bist Dir hoffentlich bewußt, dass Du hier Unsinn redest...

Razor

Razor
2003-06-13, 08:08:29
Bin zwar nicht Richthofen, aber...
Original geschrieben von MadManniMan
hast du sowas überhaupt schonmal in aktion gesehen? ???
Ja und es sieht grausam aus...
(vor allem, wennman was anderes gewohnt ist ;-)
Original geschrieben von MadManniMan
es geht mir hier nur um af und im speziellen um die sehr gute performance dessen
Sehr gute Performance bei absolut schrottiger Qualität ?
Nein danke !

Im übrigen ist auch die Performance mit den 44'er-Deto's in excellente Bereiche vorgestoßen. Schon mal den sagenhaften Drop an Performance mit einer FX5200 bei 4°AF im Quality (application) Mode in Augenschein genommen ? Nein ? Würde ich mal tun...
:D
Original geschrieben von MadManniMan
schön, daß du antialiasing mit ins spiel bringst -> darum gehts überhaupt nicht
Natürlich geht's hier auch um AA... warum willst Du das aus der Betrachtung nehmen ?
Original geschrieben von MadManniMan
siehe oben. und BTW: 55fps sind auch schon lang unspielbar
Nein.
Was redest Du da für einen Unsinn ?
Original geschrieben von MadManniMan
warum führst du hier eigentlich die standardschwache 9200 an? ich habe von der 8500 und 9000-sonstwas im allgemeinen geredet - da sollte man nicht unbedingt die 400 MHz variante anführen...
Da kannst Du gerne die ganze Bank an Karten nehmen... die einzig konkurrenzfähige dürfte (zumindest in der Rohleistung und keinesfalls in der Quali-Leistung !) die R8500 (nonLE) sein. Die ganze 9000'er-Reihe bis zur 9200 ist Crap.
Original geschrieben von MadManniMan
laut preistrend gibts die wesentlich stärkere 9000 pro für 82€ und ne zur 9200 gleichwertig 9000 für unter 60 euronen :eyes:
Wesentlich stärker ?
Wo denn das ?
???
Original geschrieben von MadManniMan
... -> mir geht es nicht darum, eine dx8-9000er-radeon auf gedeih und verderb besser als ne 5200 dastehen zu lassen. nur geht mir das ewige schlechtgemache dieser reihe gehörig auf den sack - was hat man denn davon?
Die 9000'er sind Schrott.
Basta.

Nicht nur von der Leistung her... nein, auch weil sie Technologiebremsen sind, wie damals die gf4mx.

Razor

Razor
2003-06-13, 08:11:55
Original geschrieben von MadManniMan
das 2* der gf3 ist immernoch brauchbar, also ist es auch das der 5200
Völlig korrekt !
Und bei UT2003 ist die FX5200 bei gleicher Qauli (2xRGMS, 4°AF) glatt doppelt so schnell, wie meine gute alte OC'te gf3. Wenn das mal nichts ist ?
:D

Razor

Ailuros
2003-06-13, 08:12:03
Du vergleichst eine 5200 mit einer ti4600-Level-Karte ?

Ja wieso? Ich kann beide auf etwa gleichem Preisniveau auf Regalen heute finden.

Bringt sie die 5-fache Leistung einer 5200 (128Bit) ?


Für Dich... das bedeutet 400% schneller zu sein oder 500% der Leistung einer 5200 zu haben... ;-)

Was soll der Quatsch? High end ist immer teuer. Wie dem auch sei eine 5200 liefert heute nicht mehr als 100$ oder weniger Leistung; wenn's trotzdem immer noch nicht klar genug ist, siehe oben nochmal. Die Preis/Leistungs Relation ist genau da wo sie sein sollte.

Nein.
Bei High-End-Karten zahlt man grundsätzlich drauf' und zwar ganz gehörig...
Das ist aber nichts Neues, sondern gehört vielmehr zur Normalität.

Ansichtssache oder Ausrede fuer Deine eigenen Bevorzugungen. Moechte ich nur befriedigende Graphik dann kann ich mir selber auch die Haelfte meiner Moneten sparen. Je hoeher meine Ansprueche desto teurer wird es dann. Da gibt es nichts zu kritisieren darueber, genauso wie ich auch nicht die Bevorzugungen anderer kritisiere.

2xRGMS mit Application-4°AF...
Das ist nicht ausreichend ?

Bitte siehe vorigen Paragraph. Wieso soll mir jetzt das bitte imponieren? Meine Meinung ueber die 5200 ist klipp und klar und ich hab auch klargestellt dass ich sie nicht fuer das was sie Wert ist unterschaetze. Mehr gibt's da eigentlich gar nicht zu sagen.

Was soll an einer Budget-Karte imposant sein ?
Es ist viel eher so, dass die Konkurrenz nichts vergleichbares bietet...

Hab ich auch nicht bestritten. Trotzdem imponiert mir nichts an dem Ding, genauso wie mir auch nicht die GF2 oder GF4MX nie imponiert haben. Werd ich jetzt dafuer zur Inquisition geschickt oder was? :D

Razor
2003-06-13, 08:14:51
Original geschrieben von Ailuros
Geschmackssache und nein da brauch ich nicht vorsichtig sein. Selbst nach den Aenderungen nach den >43xx Treibern ist mir z.B. 2xQuality lieber als 4xPerformance.
Es gibt kaum einen Unterschied zwischen 2°quality und 4°quality AF in den D3D-Games unter Deto44.03.
Warum also 4°performance ?
???
Original geschrieben von Ailuros
Zu den restlichen Uebertreibungen brauch ich gar nicht antworten.
Brauchst Du natürlich nicht, wäre aber ganz interessant, oder ?
Kann natürlich sein, dass Du dazu nichts zu sagen hast...

Razor

Ailuros
2003-06-13, 08:17:24
Sag mal kannst Du vielleicht Deine Antworten in einem Post aufraeumen oder ist die Aufregung zu gross dass duzente von Antworten in sekunden-Abstand folgen muessen?

Quasar@Work
2003-06-13, 08:18:40
Original geschrieben von Ailuros
Ja wieso? Ich kann beide auf etwa gleichem Preisniveau auf Regalen heute finden.

Ich glaube, es ging hier eher um die non-ultra. Und die kostet gut 50€ weniger als die ultra. Und die Ti4600 bzw. 4400er kosten, AFAIK, noch immer um die 150-200€, oder?

Ailuros
2003-06-13, 08:22:19
Original geschrieben von Quasar@Work
Ich glaube, es ging hier eher um die non-ultra. Und die kostet gut 50€ weniger als die ultra. Und die Ti4600 bzw. 4400er kosten, AFAIK, noch immer um die 150-200€, oder?

Kommt ganz auf den IHV an und welcher Retailer fuer wofuer verkauft. Ich hab erst gestern ne OEM 4k6 fuer 110 euro gesehen. Ich hatte nicht mehr oder weniger im Kopf als:

5200 = ~4200
5200U = ~4400

PS: nein es handelt sich nicht um die AGPx8 NV25 Varianten die schon im >150 euro Niveau liegen.

Razor
2003-06-13, 08:23:22
Original geschrieben von Ailuros
Kommt ganz auf den IHV an und welcher Retailer fuer wofuer verkauft. Ich hab erst gestern ne OEM 4k6 fuer 110 euro gesehen. Ich hatte nicht mehr oder weniger im Kopf als:

5200 = ~4200
5200U = ~4400

PS: nein es handelt sich nicht um die AGPx8 NV25 Varianten die schon im >150 euro Niveau liegen.
Darf ich mal fragen, wo Du das gesehen hast ?
???

Razor

Ailuros
2003-06-13, 08:33:05
Hier in Griechenland oder dachtest Du vielleicht dass ich in Deutschland wohne :D

Wie gesagt die AGPx8 Modelle kosten dann 4200= ~130 und aufwaerts.

Die werden nur den ueberfluessigen Stock los, und bei einer OEM Karte in einer Plastiktuete kann man auch nicht so viel verlangen wie bei einer retail ASUS Karte.

Razor
2003-06-13, 09:10:09
Original geschrieben von Ailuros
Hier in Griechenland oder dachtest Du vielleicht dass ich in Deutschland wohne :D

Wie gesagt die AGPx8 Modelle kosten dann 4200= ~130 und aufwaerts.

Die werden nur den ueberfluessigen Stock los, und bei einer OEM Karte in einer Plastiktuete kann man auch nicht so viel verlangen wie bei einer retail ASUS Karte.
Also 'ne ti4600 für 110€ ist ein echtes Schnäppchen !
(AGP 8x ist wurscht und schönen Gruß an aths ;-)

Nur leider findet man die hier (D) für diesen Preis nicht.
:-(

Razor

P.S.: Würde mir so ein Teil dann vielleicht auch noch für meine GraKa-Historie zulegen... mein Bruder hat z.Bsp. noch 'ne gf2ultra, die er mir bereits vermacht hat, wenn mal die Zeit kommt ;-)

Ailuros
2003-06-13, 09:24:03
Gibt's keine grosse Laeden die "Stock Abteilungen" haben?

Die Leadtek A250 TD kommt sowieso in naechster Zeit auf mein Sammel-Regal. Bei den Preisen ist es heutzutage nicht mehr wert das Ding zu verkaufen; ich behalte immer vorige Karten fuer Notfaelle.

Ich hab gerade eine Sapphire 9700 fuer schaebige 230 euro gesehen und da ist es wirklich schwer zu wiederstehen.

egdusp
2003-06-13, 09:25:22
Original geschrieben von Razor
Und ich sagte: "Für 500€ gibt's dann also 500% Leistung ?"


Das ist sowieso Quatsch. ABer seltsamerweise ist Verhältnisrechnung eine der Saschen, mit der Menschen im Alltag die meisten Probleme haben.

Wenn ich einen Computer für insgesamt 1000,- Euro kaufen will und ihn hauptsächlich zum Spielen benutzen will, dann ist die optimale Kombination einen Billigcomputer für 500,- Euro zu holen (monentan wohl eine Athlon 2400+ mit 521 MB) und eine GFFX 5900.
Das billigste Angebot mit einer GFFX 5200 würde dann 600,- Euro Kosten.

Die GFFX 5900 bringt locker die 3fache Leistung, sofern keine CPU Limitierung vorliegt. Der Computer mit 5900 kostet aber noch nciht einmal das doppelte, also ist dieser Computer in Relation zur (hier betrachteten Grafik-) Leistung billiger.

Um mal eine Analogie herzustellen. Wenn ein Auto durch ein 300,- Euro teures Zubehörteil doppelt so schnell ist wie wie mit einem 100,- Euro Zubehörteil, dann würde ja auch keiner dran zweifeln, dass das 300,- Euro Zubehörteil die bessere Wahl ist, obwohl es bei 3fachem Preis "nur" doppelte Leistung bringt.

mfg
egdusp

Razor
2003-06-13, 09:55:24
Sorry, aber das ist eine Milchmädchen-Rechnung, die Du da aufstellst...

Besser wäre hier folgender Vergleich:

- Computer für 500€ mit OnBoard-Grafik
- FX5200 für 100€ Aufschlag
- FX5900 für 500€ Aufschlag

Jetzt sieht das Ganz doch wohl schon ganz anders aus, oder ?
Der Comupuer kann KEINE Relevanz bei der Preis-/Leistung einer GraKa haben !
(wäre ja auch noch schöner ;-)

Razor

egdusp
2003-06-13, 11:03:02
Original geschrieben von Razor
Sorry, aber das ist eine Milchmädchen-Rechnung, die Du da aufstellst...

Besser wäre hier folgender Vergleich:

- Computer für 500€ mit OnBoard-Grafik
- FX5200 für 100€ Aufschlag
- FX5900 für 500€ Aufschlag

Jetzt sieht das Ganz doch wohl schon ganz anders aus, oder ?
Der Comupuer kann KEINE Relevanz bei der Preis-/Leistung einer GraKa haben !
(wäre ja auch noch schöner ;-)

Razor

Doch, dem ist so. Eine Grafikkarte kann niemals losgelöst vom Wert des Computers betrachtet werden. Wenn der finanzielle Wert des Computers (als Spielmaschine) gegen 0 geht, also wenn man ihn sowieso zum arbeiten braucht (=keine Zusatzkosten als Spielemschine), dann hast du recht.

Wer sich aber überlegt eine GFFX 5900 zu kaufen, der wird höchstwahrscheinlich ein Spieler sein und seinen Computer hauptsächlich zum Spielen kaufen, bzw. gekauft haben. Wir wissen doch alle, dass ein 3 Jahre alter Rechner bis auf Spiele und Videoprogrammierung heute noch problemlos ausreicht.

mfg
egdusp

StefanV
2003-06-13, 11:11:25
Original geschrieben von Razor
An Deiner Stelle würd' ich das Gehäuse weg schmeißen...
Was ist das für ein Murks, wenn ich dermaßen (bei allen Herstellern) in meiner Hardware-Wahl eingeschränkt werde ?
???

Razor

1. nur weil du es sagst, werd ichs sicher nicht machen, zumal das Gehäuse unheimlich leicht ist.
Wenn du ein größeres Gehäuse für mich hast, das genauso schwer bzw leichter ist, dann bitte...
An dieser Stelle stelle ich mal die Behauptung auf, daß mein Rechnerm der un A340A steckt, leichter ist als so manches Notebook, was ja auch mein Ziel war (nagut, die beiden 3,5" Platten und der Brenner wiegen schon einiges)...

Ergo hab ich ein voll erweiterbaren Desptop Rechner, der in der Gewichtsklasse von Desknotes kommt!!

Auch zum zocken ists geeignet, gibt ja schließlich diverse

2. schonmal was von Low Profile µATX Gehäusen gehört?
Genau das ist nämlich das Aopen, für einen Office Rechner ist es optimal!!
Schön klein, leicht und recht hübsch, preisgünstig ist es für ein ALU Case auch!!

3. das die HW Wahl etwas eingeschränkt ist, das ist mir auch vorher bekannt gewesen, du kannst es dir ja kaufen und mit 'nem WInkelschleifer das Gehäuse 'vergrößern', dann passt zumindest eine Radeon 9700 rein, eine FX5600 ULTRA und größer passt aufgrund der Länge nicht...

Ailuros
2003-06-13, 11:20:03
Computer (C) kostet zweimal so viel wie Loesung (B) ist aber im allermindesten auch zweimal so schnell, wenn man sich ueberhaupt mit Spielen abgibt.

Komisches Beispiel. Die momentanen noch etwas fruehe Resultate zeigen in Doom3@medium detail

1600*1200*32/4xAA-8xAF
5900U = 29fps
5200U = 6fps.

1280*1024*32/4xAA-8xAF
5900U = 38fps
5200U = 9fps

1024*768*32/4xAA-8xAF
5900U = 53fps
5200U = 14fps

Etwas konservativer UT2003:

1024*768*32/4xAA-8xAF
5900U = 142fps

1280*1024*32/4xAA-8xAF
5900U = 100fps

1600*1200*32/4xAA-8xAF
5900 = 68fps
(da keine 5200U hier in flybys getestet wurde, soll ich an die ~16-17fps raten?)

Loesung (A) kann man sogar fuer einen einfachen Desktop ueber 1152*864*32 schon mal vergessen; 3D ist wohl Schachsinn auf so einer Loesung.

MadManniMan
2003-06-13, 12:03:01
Original geschrieben von MadManniMan
dir ist schon bewußt, dass die 9000-irgendwas nen performance-hit von so in etwa null komma gar nix haben, oder?

Original geschrieben von Razor
Und Du bist Dir hoffentlich bewußt, dass Du hier Unsinn redest...


dir ist bewußt, daß ich von af geredet habe?

...es gibt auf einer recht bekannten seite ein recht interessantes review, das folgendes besagt:


1024/32 +8tap AF
Aquanox 52,5 51,5
Comanche4 29,0 28,9
Dungeon Siege 32,3 33,2
Giants 62,0 50,6
Max Payne 40,5 41,6
RtCW 59,2 61,2
SS:SE 36,5 32,8
Ultima9 59,1 59,7
UT 93,2 92,6
Z2 115,2 114,6


...gehts dir jetz besser, weil die karte einmal knapp ein füntel und einmal ein zehntel verliert? dir ist klar, was ich mit "in etwa null komma gar nix" meine?

seahawk
2003-06-13, 12:13:02
Das AF der 8500 ist ja eigentlich kaum als AF zu bezeichnen.

Sollte gelegentliche Kantenverbesserung heissen.

MadManniMan
2003-06-13, 12:16:53
Original geschrieben von Razor
Bin zwar nicht Richthofen, aber...

schade, der merkt nämlich wenigstens, wenn er im unrecht ist und sagt gar nix mehr :eyes:

Original geschrieben von Razor
Ja und es sieht grausam aus...
(vor allem, wenn man was anderes gewohnt ist ;-)

mir ist zwar bekannt, daß z-bag mit dem af gar nich klargekommen ist, aber das wars auch schon. sowohl mein auge, als auch unzählige reviews sagen nicht, daß man auf den performancehit für weniger qualität in form von af verzichten soll

Original geschrieben von Razor
Sehr gute Performance bei absolut schrottiger Qualität ?
Nein danke !

s.o.

Original geschrieben von Razor
Im übrigen ist auch die Performance mit den 44'er-Deto's in excellente Bereiche vorgestoßen. Schon mal den sagenhaften Drop an Performance mit einer FX5200 bei 4°AF im Quality (application) Mode in Augenschein genommen ? Nein ? Würde ich mal tun...


gib mal bench

Original geschrieben von Razor
Natürlich geht's hier auch um AA... warum willst Du das aus der Betrachtung nehmen ?

weil es mir explizit um AF ging. entweder du akzeptierst daß oder die diskussion ist passè

Original geschrieben von Razor
Nein.
Was redest Du da für einen Unsinn ?

hast du schonmal ernsthaft Q3A gespielt? ???

in jedem anderen spiel mag das ausreichen, aber nicht in Q3!

Original geschrieben von Razor
Da kannst Du gerne die ganze Bank an Karten nehmen... die einzig konkurrenzfähige dürfte (zumindest in der Rohleistung und keinesfalls in der Quali-Leistung !) die R8500 (nonLE) sein. Die ganze 9000'er-Reihe bis zur 9200 ist Crap.

wie kommst du darauf, daß die 9000 pro scheiße ist im vergleich zur 8500 :ratlos:

Original geschrieben von Razor
Wesentlich stärker ?
Wo denn das ?
???

man schaue sich die takte an:

9000 Pro 275/275 MHz -> 1,1GPixel und 8,8GB/s
9200 250/200 MHz -> 1,0GTexel und 6,4GB/s

OK?

Original geschrieben von Razor
Die 9000'er sind Schrott.
Basta.

man erkennt deine objektivität. im grunde würde es reichen, meinen post auf diese antwort hier zu reduzieren

Original geschrieben von Razor
Nicht nur von der Leistung her... nein, auch weil sie Technologiebremsen sind, wie damals die gf4mx.


nur weil auf einmal von NV im lowcostmarkt ne dx9 karte ist (wie auch von ati: 9500 über geizhals suchen, gigabyte für 96,- finden), ist eine dx8 karte, die sich schon länger auf dem markt befindet eine technologiebremse?


.......


was ist eigentlich dein persönliches problem mit ati?

MadManniMan
2003-06-13, 12:17:58
Original geschrieben von seahawk
Das AF der 8500 ist ja eigentlich kaum als AF zu bezeichnen.

Sollte gelegentliche Kantenverbesserung heissen.

sicher, daß du hier nicht irgendwas verwechselst?

MadManniMan
2003-06-13, 12:18:52
Original geschrieben von Razor
Völlig korrekt !
Und bei UT2003 ist die FX5200 bei gleicher Qauli (2xRGMS, 4°AF) glatt doppelt so schnell, wie meine gute alte OC'te gf3. Wenn das mal nichts ist ?
:D

Razor

ich komm immernoch nich damit klar, daß du einen solchen shooter mit derartigen frames zocken kannst

:ratlos: ;)

seahawk
2003-06-13, 12:29:28
Original geschrieben von MadManniMan
sicher, daß du hier nicht irgendwas verwechselst?

Unglücklich ausgedrückt.


Sagen wir gelegentliche Texturschärfung

(Imo ist der einzige Vorteil, dass die Übergänge zwischen einzelnen Texturen etwas besser werden ... deswegen hatte ich Kantenverbesserung gesagt und leider nicht an den Zusammenhang von AA und Kanten gedacht)

MadManniMan
2003-06-13, 12:39:28
Original geschrieben von seahawk
Unglücklich ausgedrückt.


Sagen wir gelegentliche Texturschärfung

(Imo ist der einzige Vorteil, dass die Übergänge zwischen einzelnen Texturen etwas besser werden ... deswegen hatte ich Kantenverbesserung gesagt und leider nicht an den Zusammenhang von AA und Kanten gedacht)

:balla:

sicher, daß du nicht trilinearen filter meinst?

seahawk
2003-06-13, 12:49:04
Und wie filtert der AF der 8500 - bilinear soweit ich weiss

MadManniMan
2003-06-13, 12:54:07
Original geschrieben von seahawk
Und wie filtert der AF der 8500 - bilinear soweit ich weiss

richtig, deshalb verstehe auch deinen letzten post nicht, da du sagst, daß nur die übergänge zwischen den einzelnen texturen(due meinst die mip maps?) verbessert werden, wobei das af der r2*0 doch einzig das mipmap-lod-bias verschiebt und dementspechend höher sampled

Razor
2003-06-14, 02:20:49
Original geschrieben von egdusp
Doch, dem ist so. Eine Grafikkarte kann niemals losgelöst vom Wert des Computers betrachtet werden. Wenn der finanzielle Wert des Computers (als Spielmaschine) gegen 0 geht, also wenn man ihn sowieso zum arbeiten braucht (=keine Zusatzkosten als Spielemschine), dann hast du recht.
Lieder hast Du Dir hier selbst wiedersprochen...
"niemals" und "wenn" schließen sich irgendwie aus, oder ?
;-)

Wer seinen Rechner also tatsächlich 'nur' zum Spielen benutzt, der kann eine solche Rechnung, wie Du sie aufstelltest durchaus aufmachen. Allerdings werden die wenigsten Menschen einen Rechner ausschlißlich zum Spielen benutzen...

Mal davon abgesehen, dass letztere dann wirklich besser (und um einiges kostengünstiger) mit 'ner Konsole bedient wären... 'ne Ausnahme wären hier Strategie-Spiele, nur dafür braucht man keine GraKa (wenn Du verstehst, wie ich das meine ;-).
Original geschrieben von egdusp
Wer sich aber überlegt eine GFFX 5900 zu kaufen, der wird höchstwahrscheinlich ein Spieler sein und seinen Computer hauptsächlich zum Spielen kaufen, bzw. gekauft haben. Wir wissen doch alle, dass ein 3 Jahre alter Rechner bis auf Spiele und Videoprogrammierung heute noch problemlos ausreicht.
Wer sich eine FX5900 zulegt wird vermutlich 'auch' ein Spieler sein, aber vor allem 'enthusiast'.
Gerade Spieler (zumindest die große Masse derer ;-) daddeln hier fröhlich mit 'ner gf2mx oder Schimmeren. Die werden sich sicher keine FX5900 zulegen...

Bis denne

Razor

Razor
2003-06-14, 02:23:44
@Stefan

Wenn ich ein 'leichtes' System haben will, hol ich mir 'nen Notebook.
Warum sollte ich einen Office-PC (auch wenn's 'nen LowProfile ist ;-) durch die Gegend schleppen ?
???

Sorry, aber Du ziehst Dir die Argumente einfach an den Haaren herbei.

Razor

Razor
2003-06-14, 02:30:43
Original geschrieben von MadManniMan
dir ist bewußt, daß ich von af geredet habe?

...es gibt auf einer recht bekannten seite ein recht interessantes review, das folgendes besagt:


1024/32 +8tap AF
Aquanox 52,5 51,5
Comanche4 29,0 28,9
Dungeon Siege 32,3 33,2
Giants 62,0 50,6
Max Payne 40,5 41,6
RtCW 59,2 61,2
SS:SE 36,5 32,8
Ultima9 59,1 59,7
UT 93,2 92,6
Z2 115,2 114,6


...gehts dir jetz besser, weil die karte einmal knapp ein füntel und einmal ein zehntel verliert? dir ist klar, was ich mit "in etwa null komma gar nix" meine?
Sehr schön Manni...
Greifen wir uns also ein Beispiel heraus:
1024/32 +8tap AF
RtCW 59,2 61,2
Und hierzu mal mein Ergebnis:
1024/32 2xAA/4°AF
RtCW 89,9 77,5
Erst einmal finde ich es witzig, dass bei Deinem Ergebnis die Karte mit AF offensichtlich schneller ist, als ohne und zweitens zeigen meine Ergebnisse wohl deutlich, dass die FX5200 selbst mit AA und AF noch immer sehr viel schneller ist, als sie von Dir beschriebene Karte. Und das noch zudem bei wesentlich besserer AF-Qualität.

Sorry, aber irgendwie...

Razor

Ailuros
2003-06-14, 02:44:11
Wer sich eine FX5900 zulegt wird vermutlich 'auch' ein Spieler sein, aber vor allem 'enthusiast'.
Gerade Spieler (zumindest die große Masse derer ;-) daddeln hier fröhlich mit 'ner gf2mx oder Schimmeren. Die werden sich sicher keine FX5900 zulegen...


Ich bezweifle dass jemand das Gegenteil behauptet hat. Nach eigener Schaetzung:

Ultra high end: 1-2%
High end: ~5%
Mainstream: ~20-30%
Budget: die breite Mehrheit

Ich dachte es geht darum ob der Preis-Unterschied zwischen Ultra- oder high end verglichen zu Budget Loesungen auch gerechtfertigt sein kann.

Mir persoenlich fliesst das Geld auch nicht gerade aus den Hosentaschen, deshalb hab ich meistens mainstream - high end Systeme. Waeren Unkosten kein Kopfschmerz wuerde ich sicher mit mehreren als nur einem high end System dasitzen, hoechstwahrscheinlich sogar mit nem groesserem Bildschirm als der Fernseher in meinem Buero :D

Ausser den Profis die teure high end Hartware auch wirklich benoetigen, ist es wohl klar dass sich die breiteste Mehrheit mit umso einiges billigeren Loesungen abfinden kann.

Die Faktoren fuer was sich ein Gamer fuer wieviel und wie oft entscheidet, sind mehrere und nicht nur einer. Wie dem auch sei gibt es immer Unterschiede je nach Preis-marge und dass in jeder Markt-abteilung nicht nur in Hardware.

Beispiele waeren ein stinknormaler 21" Fernseher vs einem Plasma-TV-set, ein mittlerer Golf gegen einen 500-er Mercedes usw usw. Da denkt der Endverbraucher was er ausgeben kann oder will oder was er wirklich braucht.

Ironischerweise kommt es auch zu Extremen, was man dann als Lebensstandard von so manchen ansehen koennte: Sachen kaufen die man wirklich nicht braucht, mit Geld dass man eigentlich nicht hat, um Leuten zu imponieren die man sowieso nicht ausstehen kann ;D

Kommt ganz auf die Perspektive an. Was so manche als totalen Ueberfluss bezeichnen koennen, koennen andere eventuell als Notwendigkeit ansehen.

Razor
2003-06-14, 02:47:41
Original geschrieben von MadManniMan
mir ist zwar bekannt, daß z-bag mit dem af gar nich klargekommen ist, aber das wars auch schon. sowohl mein auge, als auch unzählige reviews sagen nicht, daß man auf den performancehit für weniger qualität in form von af verzichten soll
Den Satz versuch jetzt noch mal verständlich zu formulieren...
;-)

Das AF ist schrott. Punkt. Trilineare Filterung würde ich dieser Form von AF IMMER vorziehen. Und ich denke, dass es nicht nur mir und zeckensack so geht...
Original geschrieben von MadManniMan
gib mal bench
Sieh mal sig...
:D
Original geschrieben von MadManniMan
weil es mir explizit um AF ging. entweder du akzeptierst daß oder die diskussion ist passè
Dann ist sie passé (ist wohl richtiger, oder ;-).

Du willst die Geschwindigkeit einer AF-Lösung beurteilen, aber nicht deren Qualität. Du willst außerdem die eine Quali-Lösung losgelöst von der anderen betrachten... ist das Dein ernst ?

Sorry, aber praxisferner geht's ja nun wirklich nicht.
Original geschrieben von MadManniMan
hast du schonmal ernsthaft Q3A gespielt? ???
in jedem anderen spiel mag das ausreichen, aber nicht in Q3!
Ja ich habe Q3 auch schon ernsthaft 'gespielt' !
:D

Im Single-Player ist es absolut ausreichend, im Multiplayer würdest Du Dich wundern, was ich sonst noch alles weg lasse, nur um permanent weit über hundert frames zu leigen (und hier bremst in keinem Fall die GraKa ;-). Aber Dir werde ich so etwas hoffentlich nicht erzählen müssen, oder ?
;-)
Original geschrieben von MadManniMan
wie kommst du darauf, daß die 9000 pro scheiße ist im vergleich zur 8500
Dann hätte ich mich vielleicht klarer ausdrücken sollen.
Auch die 8500 ist scheiße, und der größte Teil der 9000'er (bis 9200) ist sogar noch schlimmer.

Besser ?
:D
Original geschrieben von MadManniMan
man schaue sich die takte an:

9000 Pro 275/275 MHz -> 1,1GPixel und 8,8GB/s
9200 250/200 MHz -> 1,0GTexel und 6,4GB/s

OK?
Nö.
Theoretische Specs haben mich noch nie sonderlich interessiert.
Wie schaut's mit der RealWorld-Performance aus ?
???
Original geschrieben von MadManniMan
man erkennt deine objektivität. im grunde würde es reichen, meinen post auf diese antwort hier zu reduzieren
Ich bin nicht objektiv und war es noch nie.

Aber ich versuche zumindest meine Argumente zu hinterlegen und darin objektive Elemente einfließen zu lassen.

Bis Du objektiv ?
Original geschrieben von MadManniMan
nur weil auf einmal von NV im lowcostmarkt ne dx9 karte ist (wie auch von ati: 9500 über geizhals suchen, gigabyte für 96,- finden), ist eine dx8 karte, die sich schon länger auf dem markt befindet eine technologiebremse?
Die 9500 hat eigentlich nichts im LowCost-Markt zu suchen und wird gerade ausverkauft (rentabel ist sie bei diesem Preis sicher nicht ;-). Die 9000'er sind zwar schon länger am Markt, aber nicht unter diesem Namen und stellen, bezigen auf die derzeit verfügbare Technologie eine Technologiebremse dar, wie seinerzeit die gf4mx. Damals haben deswegen alle auf nVidia herum gehackt (ich übrigens auch ;-), nun ist eben ATI dran.

Und an der FX5200 ist weit mehr, als nur DX9...
(und wieder: siehe sig ;-)
Original geschrieben von MadManniMan
was ist eigentlich dein persönliches problem mit ati?
DAS würde ich Dich gerne fragen !

Und bitte nicht aufregen...
;-)

Razor

Razor
2003-06-14, 02:55:37
Original geschrieben von MadManniMan
ich komm immernoch nich damit klar, daß du einen solchen shooter mit derartigen frames zocken kannst
Siehe oben...
Im Single-Player kein Problem, im Multiplayer sieht's etwas anders aus.

Und ich garnatiere Dir, das JEDER, der UT oder Q3 ernsthaft online oder im Netz spielt, auch mit einer R9700/9800 KEINESFALLS AA oder AF dazu schalten wird, da es auch damit immer wieder einzelne Scenarien bestimmter Maps gibt, in wechen die Frames dermaßen absacken, dass sich dies im hitzigen Gefecht äusserst ungünstig auswirken würde. Hier geht es in der Regel darum, die CPU weitestgehend zu entlasten... so werden denn u.a. die Geometrie-Details auf ein Minimum herunter geschraubt...

Und glaube mir, bei solchen Game-Settings macht AA/AF nun wirklich keinen Sinn mehr !
(oder zumindest den Kohl auch nicht mehr fett ;-)
:D

Razor

mapel110
2003-06-14, 03:11:45
razor, wie kommst du bitteschön auf 80 fps bei rtcw mit deiner 5200er ?
http://www.hardtecs4u.com/reviews/2003/nvidia_geforcefx_5200+5600/index10.php
hast du ne ultra ?

von daher kannst du deine werte hier nicht als argumente verkaufen ;)

/edit
Die NV34 Karten sind letztlich nur für den Gelegenheitsspieler ohne große Ansprüche von Interesse, ohne Reserven für zukünftige Spieletitel.

das fazit solltest du auch lesen ;) wozu dann dx9 ?
dann langt auch dx8 von der 9000er. zukunftsicher sind bei karten nicht, wegen ihrer mangelden rohleistung.

achja, 9600er gibts für 124 € =)

Razor
2003-06-14, 03:15:54
Original geschrieben von Ailuros
Kommt ganz auf die Perspektive an. Was so manche als totalen Ueberfluss bezeichnen koennen, koennen andere eventuell als Notwendigkeit ansehen.
Ich habe Deinen Post etwas eingekürzt, stimme aber auch dem Rest zu.

Ich würde nicht so weit gehen, und es für solche Leute als Notwendigkeit ansehen (gehöre ja auch von Zeit zu Zeit dazu ;-). Es ist vielmerh Technik-Fastzination, die weit über das 'spielen' im herkömmlichen Sinne hinaus geht. Es ist vielmer das Spielen mit der Hardware, als das Spielen von Spielen (wenn Du verstehst... ;-).

Und ja, solche Spielzeuge können teuer werden.

Sicher kann man sich so etwas auch aus Prestige-Gründen zulegen (meine letzten Anschaffungen ala R9500 und FX5200 zählen wohl nicht dazu ;-), aber für so etwas Verständnis aufzubringen, fällt mir ehrlich gesagt äusserst schwer.

Kann mich da gut an die Wahl meines letzten Firmenwagens erinnern. Der Preisrahmen war festgelegt und so hätten es folgende Modelle sein können:

- Mercedes C-Klasse
- Audi S3
- Golf IV V6

Den Mercedes fand ich scheiße, den S3 zu prollig (vor allem im Sound ;-) und den Golf IV gerade richtig (nachdem die äusseren Schriftzüge '4motion' und 'V6' entfernt wurden ;-). OK, schwarze Rückleuchten hatten es dann aber schon sein müssen und generell eine fast maximale Ausstattung... aber das ist etwas anderes.

Ist zwar reichlich OT, aber vieleicht kommt ja doch rüber, was ich meine...

Mich fastziniert die Technik und auch irgendwann die Leistung, wenn die Technik stimmt. Natürlich muss eine Technik auch reibungslos funktionieren und vor allem die eigene Erwartung erfüllen.

Mit dem Kauf der beiden Kärtchen (R9500/FX5200, falls der Faden verloren gegangen ist ;-) habe ich mir die Technik angeschaut und war bei beiden nicht sonderlich zufrieden (allerdings aus unterschiedlichen Gründen). Tendiere mehr zu nVidia, aber nicht in Richtung NV30, insofern ich jetzt warte, ob der NV35 meine Erwartungen technisch vollkommen erfüllt (ist eigentlich nur noch ein einziger Punkt, der geklärt werden muss ;-). Und wenn das stimmt, werde ich wieder tief in die Tasche greifen, um mir auch Leistung zu holen (wie damals mit meiner TNT/V2-Kombo, der gfddr oder auch der gf3 ;-).

Schaun' wir mal...
Aber auch wenn wir oft kontroverser Meinung sind, scheinen wir hier recht ähnlich zu denken.
(bis auf den kleinen Punkt 'Notwendigkeit')

Razor

Razor
2003-06-14, 03:30:40
Original geschrieben von mapel110
razor, wie kommst du bitteschön auf 80 fps bei rtcw mit deiner 5200er ?
http://www.hardtecs4u.com/reviews/2003/nvidia_geforcefx_5200+5600/index10.php
hast du ne ultra ?

von daher kannst du deine werte hier nicht als argumente verkaufen ;)
Schau Dir mal die Specs der Testumgebung an...
AthlonXP2000 (FSB133) bei HT4U gegen AthlonXP2700 (FSB166) bei mir.

Und wenn man sich ein wenig mit dem Hintergrund der RTCW-Engine auskennt...
;-)
Original geschrieben von mapel110
Die NV34 Karten sind letztlich nur für den Gelegenheitsspieler ohne große Ansprüche von Interesse, ohne Reserven für zukünftige Spieletitel.
Ich spiele derzeit ALLE Titel mit höchster Qualität.
In der Regel auch immer mit 2xAA/4xAF, was mit der FX5200 sehr viel besser klappt, als zuvor noch mit meiner gf3.

Wenn Du also der Meinung bist, dass auch eine gf3 heutzutage völlig unzureichend und nur für "Gelegenheitsspieler ohne große Ansprüche" von Interesse ist, dann hast Du natürlich recht.

Nur frage ich mich dann ernsthaft, was alle die armen Leutz da draußen machen, die nicht einmal eine gf3 haben. Und dann auch die ganzen Leutz, die gf3-Klasse-Hardware haben, die ja offensichtlich nach Deiner Definition ebenfalls keine 'richtigen' Spieler sein sein können...

Sorry, aber ein bissel mehr Realität wäre machmal schon ganz hilfreich, meinst Du nicht ?
Original geschrieben von mapel110
das fazit solltest du auch lesen ;) wozu dann dx9 ?
dann langt auch dx8 von der 9000er. zukunftsicher sind bei karten nicht, wegen ihrer mangelden rohleistung.
Les Dir mal meinen Erfahrungsbericht durch, dann kannst Du Dir diese Frage selbst beantworten. DX9 ist eine Zugabe, ein 'Tech-Preview', wenn Du so willst. Und sehr viel mehr ist die sonstig verfügbare DX9-Hardware auch nicht.

Wenn ich das richtig gelesen habe, dann sollte die folgende Generation an DX9-Hardware durchgehend sehr viel bessere fp32-Performance bieten, was die Entwickler (nach einem Cross-Interview bei Beyond3D) auch so fordern.

Insofern liefert ATI hier derzeit nix (nur fp24) und nVidia kann hier leistungsseitig nicht punkten (keine vernünftige fp32-Performance). Insofern betrachte ich schlicht die gesamte Palette derzeit verfügbarer DX9-Hardware als nicht zukunftssicher (von longhorn mal abgesehen, welches wohl auch von einer FX5200 noch gut gewuppt wird ;-).

Der NV35 wird der erste Chip mit vernünftiger fp32-Performance sein, weitere (auch und voer allem anderer Hersteller) werden folgen. Insofern ist dies auch der erste für mich wirklich interessante Chip aus der Riege der DX9'er.

Bin nun zwar etwas abgeschweift, aber ich hoffe, Du verstehst, was ich meine und auch warum ich dem Fazit von HT4U NICHT zustimmen kann.

Bis denne

Razor

Ailuros
2003-06-14, 03:57:38
Ich würde nicht so weit gehen, und es für solche Leute als Notwendigkeit ansehen (gehöre ja auch von Zeit zu Zeit dazu ;-). Es ist vielmerh Technik-Fastzination, die weit über das 'spielen' im herkömmlichen Sinne hinaus geht. Es ist vielmer das Spielen mit der Hardware, als das Spielen von Spielen (wenn Du verstehst... ;-).

Ich kann von mir selber ausgehen. Fasziniert wird man ja eigentlich von jedem neuen "Spielzeug" oder neuer Anschaffung (ausser den Ausnahmen wo man wirklich mal Schrott gekauft hat, was auch mal passieren kann z.B. impulsiver Kauf ohne vorige Forschung ueber´s Produkt). Wie dem auch sei kaufe ich mir persoenlich immer VGA´s bewusst nachdem ich alles aus-balanciert habe.

Ich kaufte mir Anfang letztes Jahres bewusst die GF4Ti als Beispiel, weil:

a) Sie als eine der staerksten Karten fuer UT2k3 (was auch eins meiner Target-Games war) zu dieser Zeit war.

b) Ich genau wusste was ich mit dem Ding anfangen kann und will. Supersampling auf der Konkurrenz haette mich irgendwo in der Mitte ohne AA gelassen, wobei ich mit MSAA eine laengere Laufzeit fuer antialiasing geschaetzt habe, wobei ich bis jetzt nicht fehlgetroffen habe.

c) Ich probier meistens mehrere Karten aus bevor ich sie kaufe (ja ich weiss wenige haben den kleinen Luxus), wobei ich mit der R200 bei weitem nicht so zufrieden war wie mit der NV25 (mir ist es egal wehr das Ding baut es muss laufen).

d) Heutzutage sieht es meiner Meinung nach ein bisschen anders aus. Ich hab momentan zwei Alternativen die ich einen Upgrade nennen koennte:

1. GFFX 5800 (non Ultra) fuer 399€
2. Radeon 9700 (non Ultra) fuer 239€

Ich lass mal das Preis-Verhaeltniss zur Seite; ich weiss jetzt schon was mir Loesung (1) oder (2) bringen kann. (1) ist nur eine schnellere NV25 fuer heutige Spiele im relativen Sinn, (2) weiss ich schon jetzt (nach ein paar Experimenten) was ich erwarten kann. Texture aliasing in ein paar aelteren Spielen wobei wenigstens die GeForces die hybriden modi haben wo man es mit ein bisschen AF teilweise ueberwaeltigen kann oder bei der Radeon einfach Aufloesung bis zu 1600 hochschrauben mit moderaten AA/AF Kombinationen. Fuer Extrem-Faelle lass ich die NV25 halt einfach im zweiten System hocken und schmeiss die "miesen" Spiele rein; vielleicht sogar eins meiner Lieblingspiele in letzter Zeit F1 2002, wo R300-er immer noch aus unbekannten Gruenden immer noch viel zu langsam sind mit jeglichem AA. Wieso? Weil ich keinen Grund sehe mir die extra 150€ NICHT zu sparen und weil es so langsam zu stressig wird fuer die NV25 in hohen Aufloesungen mit AA/AF.

Es handelt sich dabei nicht um irgendwelche Protz-Syndrome/Komplexe, nur dass ich mich eben in der Zwischenzeit an gewisse Kleinigkeiten gewohnt habe auf die ich nicht verzichten moechte. Mehr oder weniger gewisse Standars beim Spielen die ich erhalten will durch die Zeit; nach fast 1 1/2 Jahren mit der NV25 hab ich auch nie mehr erwartet. Irgendwo mit diesen Intervallen an die 250€ fuer ne Graka zu blechen ist nicht uebertrieben. Selbst 1024*768 sieht mir schon oft zu oede aus. Ja ich bin so "verrueckt", wie man es sich auch ansieht ;)

Oooops schon mal wieder zu viel getippt um die Langeweile bei der Arbeit ein bisschen zu vermindern :D

Ailuros
2003-06-14, 04:04:37
Und wenn man sich ein wenig mit dem Hintergrund der RTCW-Engine auskennt...

ROFL CPU limitiert wie fast jedes Spiel dass die q3a engine nutzt. Nur die Parhelia schneidet hier wirklich mies ab.

Es gibt trotztdem ein paar miese Stellen im Spiel wo selbst die staerkste CPU nicht viel helfen kann. Ein "Pracht-exemplar" ist der Anfang der "Forest"-map, wo man eigentlich ueberhaupt kein AA/AF benutzen sollte. Manche Entwickler sind wirklich verrueckt :D


****edit:

Insofern betrachte ich schlicht die gesamte Palette derzeit verfügbarer DX9-Hardware als nicht zukunftssicher (von longhorn mal abgesehen, welches wohl auch von einer FX5200 noch gut gewuppt wird ;-).

Tier1 mal ganz sicher; fuer Tier2 hab ich dann so manchen Zweifel. Von dem abgesehen LH kommst sowieso nicht vor 2005 raus. Nach zwei Jahren von heute muss man sowieso ein Held sein wenn man immer nocht eine 5200 oder jegliche andere budget Karte besitzt *kicher*.

********editNr.2:

Der NV35 wird der erste Chip mit vernünftiger fp32-Performance sein, weitere (auch und voer allem anderer Hersteller) werden folgen. Insofern ist dies auch der erste für mich wirklich interessante Chip aus der Riege der DX9'er.

Das muss die NV35 erstmal beweissen IMO. Auf jeden Fall sieht es eher bis jetzt danach aus als ob NV40 das (hoffentlich) sein wird was Du meinst. Einer NV40 kannst Du dann auch die best-moegliche LONGHORN Leistung zutrauen, wenn nicht auch zumindest doppelte Geschwindigkeit bei Doom3 z.B. (letzteres hat auch wieder nichts mit dx9.0 zu tun).

mapel110
2003-06-14, 04:07:21
dein vergleich hinkt, razor. die geforce3 bot vor 2 jahren zeitgemässe leistung.

als neuanschaffung kommt eine geforce3 (gebraucht 50€ und weniger) sicher genauso in betracht, wie eine 5200er (100 €)

MadManniMan
2003-06-14, 04:11:13
Original geschrieben von Razor

Erst einmal finde ich es witzig, dass bei Deinem Ergebnis die Karte mit AF offensichtlich schneller ist, als ohne und zweitens zeigen meine Ergebnisse wohl deutlich, dass die FX5200 selbst mit AA und AF noch immer sehr viel schneller ist, als sie von Dir beschriebene Karte. Und das noch zudem bei wesentlich besserer AF-Qualität.


so, das jetzt ist meine einzige antwort auf all deine posts, weil ich diskussionen mit dir leid bin. wer es nicht einsieht, auch nur ein stück von seiner vorher stehenden meinung abrücken zu können, der ist auch kein würdiger diskussionspartner.

btw, das review stammt von Leo

LovesuckZ
2003-06-14, 06:58:31
Original geschrieben von Ailuros
1. GFFX 5800 (non Ultra) fuer 399€


Keine Freunde in deutschland, die dir die karte fuer 299€ kaufen koennen?

Ailuros
2003-06-14, 08:47:25
Original geschrieben von LovesuckZ
Keine Freunde in deutschland, die dir die karte fuer 299€ kaufen koennen?

Als alternative koennte ich mir viel schicken lassen auch aus der US um einen noch niedrigeren Preis fuer jede Karte. Erklaer mir aber mal bitte, wie ich Umstaenden und Komplikationen umgehen kann, im Falle wo ich ein RMA benoetigen sollte?

In so einem Fall ist es nicht nur ein Alptraum von der Wartezeit her, sondern ich muss dann eventuell bei einen einzigem RMA, gleich dreimal die Post bezahlen fuer's gleiche Ding.

Ausserdem moechte ich armer Suendiger eine R300 und da braeuchte ich normalerweise keine Entschuldigungen dafuer ;)

Richthofen
2003-06-14, 10:45:05
bitte aufpassen.

Hardtecs4u hat noch den 43.45 Treiber verwendet und nicht den neuen 44.03.
Die Ergebnisse sind nicht ohne weiteres vergleichbar.
Ich hab mir das Review gestern durchgelesen.

Das sie noch die alte NV31 Ultra hatten, nagut dafür können sie nichts. Sie haben es ja immerhin erwähnt.
Aber mit dem neuen Treiber hätte man schon testen können. Kommt natürlich darauf an wie lange der Test schon zurückliegt.
Der 44.03 macht bei der FX Serie sehr viel aus.

Pussycat
2003-06-14, 15:19:09
Original geschrieben von Razor
quote:
Original geschrieben von MadManniMan
mir ist zwar bekannt, daß z-bag mit dem af gar nich klargekommen ist, aber das wars auch schon. sowohl mein auge, als auch unzählige reviews sagen nicht, daß man auf den performancehit für weniger qualität in form von af verzichten soll

Den Satz versuch jetzt noch mal verständlich zu formulieren...
;-)

Das AF ist schrott. Punkt. Trilineare Filterung würde ich dieser Form von AF IMMER vorziehen. Und ich denke, dass es nicht nur mir und zeckensack so geht...

quote:
Original geschrieben von MadManniMan
gib mal bench

Sieh mal sig...


quote:
Original geschrieben von MadManniMan
weil es mir explizit um AF ging. entweder du akzeptierst daß oder die diskussion ist passè

Dann ist sie passé (ist wohl richtiger, oder ;-).

Du willst die Geschwindigkeit einer AF-Lösung beurteilen, aber nicht deren Qualität. Du willst außerdem die eine Quali-Lösung losgelöst von der anderen betrachten... ist das Dein ernst ?

Sorry, aber praxisferner geht's ja nun wirklich nicht.

quote:
Original geschrieben von MadManniMan
hast du schonmal ernsthaft Q3A gespielt?
in jedem anderen spiel mag das ausreichen, aber nicht in Q3!

Ja ich habe Q3 auch schon ernsthaft 'gespielt' !


Im Single-Player ist es absolut ausreichend, im Multiplayer würdest Du Dich wundern, was ich sonst noch alles weg lasse, nur um permanent weit über hundert frames zu leigen (und hier bremst in keinem Fall die GraKa ;-). Aber Dir werde ich so etwas hoffentlich nicht erzählen müssen, oder ?
;-)

quote:
Original geschrieben von MadManniMan
wie kommst du darauf, daß die 9000 pro scheiße ist im vergleich zur 8500

Dann hätte ich mich vielleicht klarer ausdrücken sollen.
Auch die 8500 ist scheiße, und der größte Teil der 9000'er (bis 9200) ist sogar noch schlimmer.

Besser ?


quote:
Original geschrieben von MadManniMan
man schaue sich die takte an:


code:

9000 Pro 275/275 MHz -> 1,1GPixel und 8,8GB/s
9200 250/200 MHz -> 1,0GTexel und 6,4GB/s


OK?

Nö.
Theoretische Specs haben mich noch nie sonderlich interessiert.
Wie schaut's mit der RealWorld-Performance aus ?


quote:
Original geschrieben von MadManniMan
man erkennt deine objektivität. im grunde würde es reichen, meinen post auf diese antwort hier zu reduzieren

Ich bin nicht objektiv und war es noch nie.

Aber ich versuche zumindest meine Argumente zu hinterlegen und darin objektive Elemente einfließen zu lassen.

Bis Du objektiv ?

quote:
Original geschrieben von MadManniMan
nur weil auf einmal von NV im lowcostmarkt ne dx9 karte ist (wie auch von ati: 9500 über geizhals suchen, gigabyte für 96,- finden), ist eine dx8 karte, die sich schon länger auf dem markt befindet eine technologiebremse?

Die 9500 hat eigentlich nichts im LowCost-Markt zu suchen und wird gerade ausverkauft (rentabel ist sie bei diesem Preis sicher nicht ;-). Die 9000'er sind zwar schon länger am Markt, aber nicht unter diesem Namen und stellen, bezigen auf die derzeit verfügbare Technologie eine Technologiebremse dar, wie seinerzeit die gf4mx. Damals haben deswegen alle auf nVidia herum gehackt (ich übrigens auch ;-), nun ist eben ATI dran.

Und an der FX5200 ist weit mehr, als nur DX9...
(und wieder: siehe sig ;-)

quote:
Original geschrieben von MadManniMan
was ist eigentlich dein persönliches problem mit ati?

DAS würde ich Dich gerne fragen !

Und bitte nicht aufregen...
;-)

Razor


Let the Quotewars begin!

Razor
2003-06-14, 20:23:04
Original geschrieben von Ailuros
Oooops schon mal wieder zu viel getippt um die Langeweile bei der Arbeit ein bisschen zu vermindern :D
Sehe ich nicht so...
:D

Aber in einem Punkt hast Du Dich hoffentlich verschrieben... die FX5800 (nonUltra) kostet lediglich 300€.
(UPS... hab's vergessen... Du hast mein Mitrleid...)

Ansonsten wäre nur zu sagen, dass ich mir die GraKa's nicht nach der Leistungsfähigkeit in irgend einem Spiel aussuche. Wie Du sehe ich es genauso: Sie muss laufen ! Dann muss sie mir mehr (an Features) bieten, als es die vorhandene Lösung tut. Ist unter anderem ein Grund, warum der NV25+ bei mir kein Interesse weckte, da dieser mir im vergleich zur NV20 NICHTS neues bot... ausser eben Leistung (was ich als eher zweitrangig sehe). Nun ja, die neue NV3x-Linie hat, wie auch die R3xx-Linie so einiges Neues zu bieten, weswegen ich mir ja auch die beiden Low-Cost-Modelle R9500 und FX5200 zugelegt habe, damit ich mal ausprobieren konnte, wie sich die beiden 'anfühlen' (ATI auch vor allem, weil sich die Treiber wesentlich verbessert haben sollen, im Vergleich zu dem R8500-Desaster damals).

Nun ja, die ATI Treiber sind sehr viel besser geworden, genügen meinen Ansprüchen aber noch nicht in Gänze (liegt an meiner Ausrichtung als Tech-/Scene-Demo-Narr). Die FX5200 hingegen hat mich zumindest hinsichtlich Kompatibilität voll überzeugt. Auch Feature-seitig konnte sie mich voll begeistern, mit einer winzigen Ausnahme, die allen FX'ern bis zur 5800 anheim ist: die schwache Shader-Leistung und die Tatsache, dass nVidia bei diesen Karten den fp32-Mode überhaupt nicht mehr benutzt, während es bei der FX5900 nun so zu sein scheint, wie es sein sollte (insbesondere die Hardware-Beschleungung von Schatten-Berechnungen, da dies bisher auf JEDER Hardware jedes Herstellers unglaublich Leistung fraß !).

So warte ich denn nun auf die FX5900 und die ersten 'richtigen' Praxiserfahrungen, die meine Vermutungen bestägen müssen (immer noch 'perfekter' TV-Out, problemloses nView, sehr gute SQ, keine fp32-Schwäche, leise Kühlung). Und wenn dem so ist, dann darf's auch gerne das High-End-Modell sein... Geld spielt hier dann keine Rolle.

Schaun' wir mal, was da so kommt...
(jetzt hab' ich schon wieder 'geschwafelt' ;-)

Razor

Razor
2003-06-14, 20:43:09
Original geschrieben von Ailuros
ROFL CPU limitiert wie fast jedes Spiel dass die q3a engine nutzt. Nur die Parhelia schneidet hier wirklich mies ab.

Es gibt trotztdem ein paar miese Stellen im Spiel wo selbst die staerkste CPU nicht viel helfen kann. Ein "Pracht-exemplar" ist der Anfang der "Forest"-map, wo man eigentlich ueberhaupt kein AA/AF benutzen sollte. Manche Entwickler sind wirklich verrueckt :D
Ich sehe, wir verstehen uns...
;-)
Original geschrieben von Ailuros
Tier1 mal ganz sicher; fuer Tier2 hab ich dann so manchen Zweifel. Von dem abgesehen LH kommst sowieso nicht vor 2005 raus. Nach zwei Jahren von heute muss man sowieso ein Held sein wenn man immer nocht eine 5200 oder jegliche andere budget Karte besitzt *kicher*.
Du vergißt den geplanten Einsazu dieser Karte: Wohnzimmer PC !
Der wird wohl auch noch in 3-4 Jahren existieren und dann ist LH schon längst 'aktuell'.
Gerade für den Multi-Media-Einsatz erachte ich die FX5200 noch immer als ideal, vor allem, wenn man die Auflösung auf 720x576 bzw. 768x576 begrenzt...

So wird dies wohl der erste 'vernünftige' digitale Video-Recorder (mit Time-Shifting-Funktion !), Multi-Medien-Player und Video/Sound-Lösung mit allen Möglichkeiten eines modernen PC's im Wohnzimmer, welcher hinsichtlich Lautstäke nicht lauter als ein Fernseher sein sollte (und damit leiser, als ein Video-Recorder ;-).
Original geschrieben von Ailuros
Das muss die NV35 erstmal beweissen IMO. Auf jeden Fall sieht es eher bis jetzt danach aus als ob NV40 das (hoffentlich) sein wird was Du meinst. Einer NV40 kannst Du dann auch die best-moegliche LONGHORN Leistung zutrauen, wenn nicht auch zumindest doppelte Geschwindigkeit bei Doom3 z.B. (letzteres hat auch wieder nichts mit dx9.0 zu tun).
Völlig korrekt.

Insofern scheke ich denn den Marketing-Aussagen grundsätzlich kein Gehör. Aber eines läßt mich schon frohlocken: so hat Digit-Life (?) wohl festgestellt, dass fp32-Anforderungen von den ATI-Karten natürlich grundsätzlich auf fp24 herunter gesetzt werden. nVidia-Karten (bis 5800) setzen auf fp16 zurück, auch wenn fp32 explizit angefordert wird. Der NV35 hingegen verhält sich genau so, wie man es erwarten würde: bei expliziter Anforderung wird ohne wenn-und-aber das geliefert, was gefordert wird (fp32), bei 'freier' Anforderung wird nur das reduziert, was auch reduziert werden 'darf' (siehe dazu auch das im Anhang befindliche Bildchen ;-).

Es geht mir halt darum, das meine Neuanschaffung, technisch nicht 'kastriert' sein darf. Das trifft derzeit auf alle ATI, wie auch nVidia-Lösungen (bis FX5800) zu.

Und wenn die Leistung dann noch OK ist... umso besser !
(von einer guten D3-Performance gehe ich bei beiden Kontrahenten aus)
:D

Razor

Razor
2003-06-14, 20:44:24
Original geschrieben von mapel110
dein vergleich hinkt, razor. die geforce3 bot vor 2 jahren zeitgemässe leistung.

als neuanschaffung kommt eine geforce3 (gebraucht 50€ und weniger) sicher genauso in betracht, wie eine 5200er (100 €)
Habe ich nicht verstanden...
Könntest Du das einmal ein wenig präzisieren ?
???

Razor

Razor
2003-06-14, 20:45:24
Original geschrieben von MadManniMan
so, das jetzt ist meine einzige antwort auf all deine posts, weil ich diskussionen mit dir leid bin.
Danke, denn es geht mir mit Dir genauso...
Original geschrieben von MadManniMan
wer es nicht einsieht, auch nur ein stück von seiner vorher stehenden meinung abrücken zu können, der ist auch kein würdiger diskussionspartner.
Und wieder herzlichen Gruß zurück...
(und vermutlich sind Dir die Argumente einfach ausgegangen)
:D

Razor

Ailuros
2003-06-15, 03:43:09
Aber in einem Punkt hast Du Dich hoffentlich verschrieben... die FX5800 (nonUltra) kostet lediglich 300€.
(UPS... hab's vergessen... Du hast mein Mitrleid...)

Pffff meine Welt dreht sich nicht um NVIDIA und erst schon ueberhaupt nicht rund um die NV3x Linie, fuer das Preissegment das mich interessiert. Nein vertippt hab ich mich nicht:

http://www.plaisio.gr/IWCatSectionView.process?IWAction=Load&Section_Id=1004&Catalog_Id=1&Merchant_Id=1&pcount=0&sts_cid=3

http://www.plaisio.gr/IWCatProductPage.process?Section_Id=873&Catalog_Id=1&Product_Id=105049&Merchant_Id=1&sts_cid=3

Nun ja, die neue NV3x-Linie hat, wie auch die R3xx-Linie so einiges Neues zu bieten,....

Nur dass mich eben die Begrenzung auf 2xRGMS schon ueber NV20, NV25 und jetzt NV3x zu Tode "langweilt".

(insbesondere die Hardware-Beschleungung von Schatten-Berechnungen, da dies bisher auf JEDER Hardware jedes Herstellers unglaublich Leistung fraß !).

Ach Du meinst stencil ops. Na ja so toll sind die 8Z/stencils per clock nun auch wieder nicht (R3xx/NV3x) :D

Ich sehe, wir verstehen uns...
;-)

Nur einfache Logik. Wie gesagt ich hab keine IHV-spezifische Bevorzugungen, nur eine gewisse Schwaeche fuer TBDR Architekturen, aber das ist sowieso irrelevant hier, was mich aber trotzdem nicht davon abhaelt zumindest zu versuchen mich an alle Seiten so objektiv wie moeglich zu naehern. Ich kaufe ja auch alles moegliche jetzt schon seit Jahren.

Was LONGHORN betrifft, meinte ich nicht die einfache Tier1/dx7 Variante des OS, sondern Tier2/dx9. Mit den zahllosen von Transparenzen und den fehlenden notwendigen HSR Featuers einer 5200, wird es da eher wohl etwas kritisch werden. Wie gesagt ich wuerde auch nicht so viel von einer 70-100€ Karte erwarten, ueberhaupt so weit in die Zukunft.

Insofern scheke ich denn den Marketing-Aussagen grundsätzlich kein Gehör. Aber eines läßt mich schon frohlocken: so hat Digit-Life (?) wohl festgestellt, dass fp32-Anforderungen von den ATI-Karten natürlich grundsätzlich auf fp24 herunter gesetzt werden. nVidia-Karten (bis 5800) setzen auf fp16 zurück, auch wenn fp32 explizit angefordert wird. Der NV35 hingegen verhält sich genau so, wie man es erwarten würde: bei expliziter Anforderung wird ohne wenn-und-aber das geliefert, was gefordert wird (fp32), bei 'freier' Anforderung wird nur das reduziert, was auch reduziert werden 'darf' (siehe dazu auch das im Anhang befindliche Bildchen ;-).

Es geht mir halt darum, das meine Neuanschaffung, technisch nicht 'kastriert' sein darf. Das trifft derzeit auf alle ATI, wie auch nVidia-Lösungen (bis FX5800) zu.

Der Artikel ist mir schon bekannt, nur ist es trotzdem immer noch nicht in ALLEN Faellen ausschliesslich FP32. Das mit dem FP32 ist sowieso nicht allzu notwendig denn fuer die dx7 bis dx9 Spiele die noch veroeffentlicht werden (bis endlich wahre dx9 Spiele erscheinen nach geraumer Zeit) wuerde ich sagen ist FP16 ueberaus genug (siehe Developers-Interview bei B3D ueber hohe PS Praezision). Wenn dann endlich wahre dx9.0 nach ein paar Jahren ankommen wird FP32 auch aeusserst wichtig sein und die NV3x sowieso weg vom Fenster (so zu sagen; sprich schon NV50 oder hoeher).

Auf jeden Fall finde ich die Limitierung bei ATI auf FP24 im PS keine schlechte Idee, nur hat wohl ATI nicht allzu sehr fuer die Zukunft vorhergesehen (siehe PS/VS3.0). Bin sowieso kein Entwickler also ist mir der Shader Wirrwarr sowieso in einer Karte schnuppe; aus technischer Perspektive bin ich dann schon daran interessiert aber mehr nun auch wieder nicht.

Und wenn die Leistung dann noch OK ist... umso besser !
(von einer guten D3-Performance gehe ich bei beiden Kontrahenten aus)

Ich waere enttaeuscht wenn ich von der naechsten Generation nicht zumindest NV35*2 Leistung sehe in D3 (wie schon gesagt).

Demirug
2003-06-15, 08:42:31
Original geschrieben von Ailuros
Ach Du meinst stencil ops. Na ja so toll sind die 8Z/stencils per clock nun auch wieder nicht (R3xx/NV3x) :D


Ich glaube er meint auch noch Ultra-Shadow. Und es sind ja nicht nur 8 Stencil Ops sondern 32 aber leider nur bei der Verwendung von 4xMSAA. Un bei Z-Ops hängt es ja davon ab was man den nun genau bracht weil ja die Early-Z Einheit mehr als 8 Pixel/Takt schaft. Ich weiss das du hier jetzt gleich mit einem TBDR kommt der ja die Stencil/Z Ops auch ohne MSAA hat. Was wir dabei aber nicht vergessen dürfen ist der Ausnutzunggrad der Ops. Da bei einem IMR die Stencil und Z-Operationen ja zum Teil getrennt ausgeführt werden und die Pixelfläche pro bearbeitungseinheit beim IMR kleiner ist sollte der Verschnitt auch durchaus keliner sein. Das ist natürlich alles sehr situationsabhängig. Ein TBDR hat da aber auf jeden Fall den Vorteil das er was die Performance angeht weniger anfällig für unterschiedliche Renderarten ist.

Razor
2003-06-15, 10:15:24
Original geschrieben von Ailuros
Pffff meine Welt dreht sich nicht um NVIDIA und erst schon ueberhaupt nicht rund um die NV3x Linie, fuer das Preissegment das mich interessiert. Nein vertippt hab ich mich nicht:

http://www.plaisio.gr/IWCatSectionView.process?IWAction=Load&Section_Id=1004&Catalog_Id=1&Merchant_Id=1&pcount=0&sts_cid=3

http://www.plaisio.gr/IWCatProductPage.process?Section_Id=873&Catalog_Id=1&Product_Id=105049&Merchant_Id=1&sts_cid=3
Wie gesagt, Du hast mein Mitleid...
Original geschrieben von Ailuros
Nur dass mich eben die Begrenzung auf 2xRGMS schon ueber NV20, NV25 und jetzt NV3x zu Tode "langweilt".
Da könnte nVidia wirklich mal was tun. Allerdings bieten sie ja noch sehr viel interessantere Modi, die zwar unglaublich Leistung fressen, aber wenigstens verfügbar sind. Mir reich das, was derzeit von nVidia geboten wird. Aber ein 4xRGMS wäre wirklich noch ganz 'nett'...
;-)
Original geschrieben von Ailuros
Ach Du meinst stencil ops. Na ja so toll sind die 8Z/stencils per clock nun auch wieder nicht (R3xx/NV3x) :D
Siehe Kommentar von Demirug... (was ich nicht in Gänze verstanden habe ;-). Ich meinte vor allem die 'Ultra-Shadow'-Technologie, der dem NV35 anheim ist, sonst weder von anderen nVidia-Produkten noch ATI geboten wird. Sehr interessates Feature, was zukündtig sogar noch an Gewicht gewinnen dürfte...
Original geschrieben von Ailuros
Nur einfache Logik. Wie gesagt ich hab keine IHV-spezifische Bevorzugungen, nur eine gewisse Schwaeche fuer TBDR Architekturen, aber das ist sowieso irrelevant hier, was mich aber trotzdem nicht davon abhaelt zumindest zu versuchen mich an alle Seiten so objektiv wie moeglich zu naehern. Ich kaufe ja auch alles moegliche jetzt schon seit Jahren.
Was meinst Du warum ich mir von ATI die R9500 und von nVidia die FX5200 geholt habe ?
(waren immerhin satte 300€ just-for-fun, im 2:1 Verhältnis)
???

Ich wollte wertfrei an diese Sache heran gehen, nur leider hat sich genau das alles bestätigt, was ich befürchtete. Deswegen ist ATI nun erst einmal in dieser Runde kein Thema mehr für mich. Und aufgrund meines Berufes habe ich sehr viel mit unterschiedlichster Hardware zu tun, mein Hobby tut dann noch einiges dazu und deswegen kann ich da auf eine laaaaaange Historie an GraKa-Generationen (sozusagen von Anbeginn an ;-) zurück blicken. Wenn ich jetzt nur wüsste, warum ich dies jetzt schrieb...
;-)
Original geschrieben von Ailuros
Was LONGHORN betrifft, meinte ich nicht die einfache Tier1/dx7 Variante des OS, sondern Tier2/dx9. Mit den zahllosen von Transparenzen und den fehlenden notwendigen HSR Featuers einer 5200, wird es da eher wohl etwas kritisch werden. Wie gesagt ich wuerde auch nicht so viel von einer 70-100€ Karte erwarten, ueberhaupt so weit in die Zukunft.
Glaube mir... auch für Tier2 wird die FX5200 locker ausreichen.
Ich möchte hier nicht näher ins Detail gehen, also entweder kaufst Du mir das ab oder Du läßt es einfach bleiben...
;-)
Original geschrieben von Ailuros
Der Artikel ist mir schon bekannt, nur ist es trotzdem immer noch nicht in ALLEN Faellen ausschliesslich FP32. Das mit dem FP32 ist sowieso nicht allzu notwendig denn fuer die dx7 bis dx9 Spiele die noch veroeffentlicht werden (bis endlich wahre dx9 Spiele erscheinen nach geraumer Zeit) wuerde ich sagen ist FP16 ueberaus genug (siehe Developers-Interview bei B3D ueber hohe PS Praezision). Wenn dann endlich wahre dx9.0 nach ein paar Jahren ankommen wird FP32 auch aeusserst wichtig sein und die NV3x sowieso weg vom Fenster (so zu sagen; sprich schon NV50 oder hoeher).
Es geht mir nicht primär um Leistung, sondern um volle Funktionalität. ATI bietet diese gar nicht, nVidia erst mit der FX5900. Ob das jetzt nun als brauchbar oder notwendig eingestuft wird, ist mir ehrlich gesagt ziemlich wurscht. Auch geht es mir hier nicht primär um Spiele, denn um Tech-/Scene-Demos, die genretypisch schon wesentlich früher auf solche Technologien setzen... einfach aus Spaß an der Freud.

DARUM geht es mir. Nicht um mehr und auch nicht um weniger...

Die Interview-Arie auf B3D habe ich übrigens auch gelesen. Dort ist die Meinung zu fp32 ja recht einhellig, oder ?
Original geschrieben von Ailuros
Auf jeden Fall finde ich die Limitierung bei ATI auf FP24 im PS keine schlechte Idee, nur hat wohl ATI nicht allzu sehr fuer die Zukunft vorhergesehen (siehe PS/VS3.0). Bin sowieso kein Entwickler also ist mir der Shader Wirrwarr sowieso in einer Karte schnuppe; aus technischer Perspektive bin ich dann schon daran interessiert aber mehr nun auch wieder nicht.
ATI hat es sich einfach zu einfach gemacht, findest Du nicht ?
Insofern fand ich diesen technologischen Ansatz (welches je eigentlich eine recht heftige Beschränkung der vorgesehenen DX-Funktionalität ist) nun gearde nicht besonders attraktiv. Aber jedem das Seine, gell ?
;-)
Original geschrieben von Ailuros
Ich waere enttaeuscht wenn ich von der naechsten Generation nicht zumindest NV35*2 Leistung sehe in D3 (wie schon gesagt).
Und auch ich möchte noch mal sagen, dass mir die performance in bestimmten Games absolut schnuppe ist. Sowohl derzeitige Karten von ATI, wie auch jetzt erhältliche nVidia-Karten werden schon gut mit so etwas wie D3 zurecht kommen...

Bis denne

Razor

MadManniMan
2003-06-15, 13:00:28
Original geschrieben von Razor
Danke, denn es geht mir mit Dir genauso...
Und wieder herzlichen Gruß zurück...
:D
Razor

na dann erzähl mir mal einer, daß er von mir nicht erwartet hätte, daß das jetzt kommt

Original geschrieben von Razor
(und vermutlich sind Dir die Argumente einfach ausgegangen)

mal ganz davon ab, daß es dich anscheinend immernoch nicht interessiert, daß das review von leo war (der RH-effekt: "huppala, ich hatte ja unrecht... antworten wir einfach nicht drauf ;-) !" - nur eben mit dem nachteil, daß du dann trotzdem noch in dem thread weiter rumtrollst), setzt diese aussage der ganzen sache die krone auf.

mehr als beleidigungen hast du anscheinend nicht drauf, deshalb solltest du jetzt endlich und endgültig auf meine ignoreliste wandern.

allerdings ist diese offenbar nicht mehr vorhanden :ratlos:

@mod: lösch das hier jetzt ruhig:

razor, :finger:

Razor
2003-06-15, 13:40:19
Original geschrieben von MadManniMan
na dann erzähl mir mal einer, daß er von mir nicht erwartet hätte, daß das jetzt kommt
Was erwartest Du denn, wenn solch ein Post von Dir kommt ?
Original geschrieben von MadManniMan
mal ganz davon ab, daß es dich anscheinend immernoch nicht interessiert, daß das review von leo war (der RH-effekt: "huppala, ich hatte ja unrecht... antworten wir einfach nicht drauf ;-) !" - nur eben mit dem nachteil, daß du dann trotzdem noch in dem thread weiter rumtrollst), setzt diese aussage der ganzen sache die krone auf.
Externe Reviews interessieren mich eigentlich nur dann, wenn ich keine eigenen Erfahrungen habe. Warum also sollte ich ich mir, um von mir nicht nachvollziehbare, Reviews Gedanken machen ? Vor allem, wenn ich definitv weiß, dass ein gezogenes Fazit viele Dinge außer acht läßt und aus einem falschen oder sagen wir... eingeschränktem Sichtwinkel heraus getroffen wurde.
???

Allerdings hast Du mir auf meine Kommentare noch immer nicht geantwortet, insofern muss ich davon ausgehen, dass Du nichts mehr zu sagen hast.
Original geschrieben von MadManniMan
mehr als beleidigungen hast du anscheinend nicht drauf, deshalb solltest du jetzt endlich und endgültig auf meine ignoreliste wandern.
Wenn Du meinst... ist Deine Entscheidung.
Mich interessiert so etwas nicht, da ich meine Augen nicht einfach vor den Ansichten anderer verschließe. Und wo wir schon dabei sind, wo habe ich Dich bitte beleidigt ?
???

Sorry, aber ausgerechnet von Dir hätte ich einen solchen Post nicht erwartet.
Aber sei's drum.

Ist nicht das erste mal, dass ich es erlebe, wenn jemand seine wohlfeine Maske fallen läßt.

Schönen Tag noch und viel Spaß mit Deiner Ignore-Liste.

Razor

Ailuros
2003-06-16, 04:13:07
Quote Orgien sind eigentlich sehr nett wenn man sich bei der Arbeit langweilt...oooops ich wiederhole mich wohl. :D


Wie gesagt, Du hast mein Mitleid...

Wieso Mitleid? Ich schmeiss die NV25 ins zweite System und bekomm fuer ~160€ weniger, ~4.5GB/sec mehr Speicherbandbreite. Hohe Aufloesungen noch mal ;)

Da könnte nVidia wirklich mal was tun. Allerdings bieten sie ja noch sehr viel interessantere Modi, die zwar unglaublich Leistung fressen, aber wenigstens verfügbar sind. Mir reich das, was derzeit von nVidia geboten wird. Aber ein 4xRGMS wäre wirklich noch ganz 'nett'...
;-)

Ob es nun glaubhaft ist oder nicht FS2002 ist extrem CPU-limitiert; ich spiele es auf der NV25 mit base texture optimiertem 8x Aniso und 8xS in 1024*768*32. Die NV25 wird im zweiten System weiterleben. Hoffentlich kann ich dann irgendwann neue Treiber installieren ohne Angst zu haben MSAA hier und da zu verlieren.


Siehe Kommentar von Demirug... (was ich nicht in Gänze verstanden habe ;-). Ich meinte vor allem die 'Ultra-Shadow'-Technologie, der dem NV35 anheim ist, sonst weder von anderen nVidia-Produkten noch ATI geboten wird. Sehr interessates Feature, was zukündtig sogar noch an Gewicht gewinnen dürfte...

Nicht unbedingt. Wie gesagt hab ich eine gewisse Schwaeche fuer TBDR´s. Meine Spekulationen mit Demirug´s teilen sich ein bisschen fuer einen high end TBDR; ich spekuliere auf nur 128 Z/stencil Operationen per clock, waehrend er eher schon an 256 denkt.

Demirug,

Nichts kommt ohne Nachteile, aber ich sehe die Faehigkeit eines TBDR die stencil ops parallel rendern zu koennen eher als Vorteil im Durchschnitt an. Die Vor- und Nachteile einem Entwickler zu erwaehnen ist sinnlos.

Also mit 4xMSAA gleich 32*0 (zixel pipes)? Interessant ;D

Glaube mir... auch für Tier2 wird die FX5200 locker ausreichen.
Ich möchte hier nicht näher ins Detail gehen, also entweder kaufst Du mir das ab oder Du läßt es einfach bleiben...
;-)

Transparencies kombiniert mit 2*2 Antialiasing bei einem 3d desktop das 1024*768*32 als Minimum hat?

Natuerlich kauf ich Dir es nicht ab, da die bisherigen geleakten....ach was soll´s. Leistung ist sowieso Geschmacksache.

Die Interview-Arie auf B3D habe ich übrigens auch gelesen. Dort ist die Meinung zu fp32 ja recht einhellig, oder ?

Keine Ahnung zu welcher Schlussvolgerung Du gekommen bist, aber ich wuerde sagen dass FP32 keine Notwendigkeit sein wird bevor wahre dx9.0 Spiele nach Jahren erscheinen. Bis dahin sind wohl Karten wie R3xx oder NV3x wohl gar nicht mehr der Rede wert, wenn nicht schon Antiken.

ATI hat es sich einfach zu einfach gemacht, findest Du nicht ?
Insofern fand ich diesen technologischen Ansatz (welches je eigentlich eine recht heftige Beschränkung der vorgesehenen DX-Funktionalität ist) nun gearde nicht besonders attraktiv. Aber jedem das Seine, gell ?
;-)

Keine Ahnung ich wuerde es lieber einem Entwickler ueberlassen sich zu aeussern was ihm das Leben leichter macht (von den zwei Loesungen). Ich hab eine andere Perspektive fuer die R3xx Serie- die hoechstmoegliche Leistung bei hoechstmoeglicher Qualitaet in allen Abteilungen. Wie gesagt den ganzen Shader-Wirrwarr kann ich sowieso nicht benutzen; dieser Teil der Debatte ist ja sowieso nur theoretisch.

Und auch ich möchte noch mal sagen, dass mir die performance in bestimmten Games absolut schnuppe ist. Sowohl derzeitige Karten von ATI, wie auch jetzt erhältliche nVidia-Karten werden schon gut mit so etwas wie D3 zurecht kommen...

Hmmm ich bezweifle dass ich mich allzu viel mit D3 beschaeftigen werde, vielleicht ein paar Stunden Spielzeit und dass war´s dann schon. Fuer die anderen Spiele die dann auf der D3-engine basieren werden, haette ich schon gerne hohe Aufloesungen mit AA/AF.

Leistung nimmt zwar bei mir nicht unbedingt Vorrang, aber sie ist mir auch nicht egal. Ultra-schoene "Slideshows" sind dann doch eher enttaeuschend. Also zumindest mal spielbar bei jedem Spiel (je nach genre), ein FPS muss schon zackig sein, wobei ein Sim ruhig unter der 40fps Barriere liegen kann.

MfG
-AiL

Demirug
2003-06-16, 07:32:35
Original geschrieben von Ailuros
Demirug,

Nichts kommt ohne Nachteile, aber ich sehe die Faehigkeit eines TBDR die stencil ops parallel rendern zu koennen eher als Vorteil im Durchschnitt an. Die Vor- und Nachteile einem Entwickler zu erwaehnen ist sinnlos.

Also mit 4xMSAA gleich 32*0 (zixel pipes)? Interessant ;D

MfG
-AiL

Ja mit 4xMSAA sollen angeblich 32 Z-Operationen möglich sein. Aber das komplizierte bei den modernen IMRs ist ja das die unterschiedliche Operationen die eigentlich zur gleichen Einheit gehören an unterschiedlichen Stellen auf eine unterschiedliche Anzahl von Pixeln ausführen können.

Ailuros
2003-06-16, 12:17:32
Mal ganz OT Demirug:

Ist es wahr dass bei LONGHORN eine Unmenge von Data ueber den AGP bus transportiert werden soll? Wenn ja wer zum Teufel kam auf so eine bloede Idee, oder hab ich jetzt mal wieder was uebersehen?

Demirug
2003-06-16, 12:32:26
Original geschrieben von Ailuros
Mal ganz OT Demirug:

Ist es wahr dass bei LONGHORN eine Unmenge von Data ueber den AGP bus transportiert werden soll? Wenn ja wer zum Teufel kam auf so eine bloede Idee, oder hab ich jetzt mal wieder was uebersehen?

Das ist aber wirklich total OT. :D

Im Prinzip gehen bei Longhorn nicht mehr Daten über den AGP als bisher auch. Es sind sogar eher weniger weil im Grafikram ja der Fensterinhalt der aktiven Anwendungen zwischengespeichert wird. So werden beim verschieben von Fenster nur noch ein paar Komandos benötigt im gegensatz zu bisher wo ja immer die bisher verdeckten Bereiche nachgeschoben werden müssen.

Sogar Fonts werden als Texture zwischengespeichert. Damit das Schreiben von Text nur noch als eine folge von einfachen kurzen Blitanweisungen zur Grafikkarte übertragen werden muss.

seahawk
2003-06-17, 07:57:05
Hat einer eine sichere Ahnung wieviele Transistoren der NV 40 haben wird. Ich habe Werte von 150-200 M gelesen.

Ailuros
2003-06-17, 09:16:38
Auf dem Niveau werden wohl alle PS/VS3.0 chips sein (ergo >150M).

Razor@Work
2003-06-18, 09:26:46
Original geschrieben von Ailuros
Quote Orgien sind eigentlich sehr nett wenn man sich bei der Arbeit langweilt...oooops ich wiederhole mich wohl.
So to say...
:D
Original geschrieben von Ailuros
Wieso Mitleid? Ich schmeiss die NV25 ins zweite System und bekomm fuer ~160€ weniger, ~4.5GB/sec mehr Speicherbandbreite. Hohe Aufloesungen noch mal ;)
Was das jetzt nun mit dem Preis einer FX5800 in Griechenland zu tun haben soll, musst Du mir jetzt aber mal erklären !
;-)
Original geschrieben von Ailuros
Ob es nun glaubhaft ist oder nicht FS2002 ist extrem CPU-limitiert; ich spiele es auf der NV25 mit base texture optimiertem 8x Aniso und 8xS in 1024*768*32. Die NV25 wird im zweiten System weiterleben. Hoffentlich kann ich dann irgendwann neue Treiber installieren ohne Angst zu haben MSAA hier und da zu verlieren.
Klar wird 8xS "nicht so leistungsfressend" sein, wenn die CPU schon massiv limitiert. Was aber doch eher eine Binsenweißheit ist... oder willst Du mir jetzt erzählen, dass ein Feature sinnvol einzusetzen ist, weil die GraKa ja in dem überwiegenden Teil der verfügbaren Games eigentlich gar nichts tut ?

Sorry, aber irgendwie...
Original geschrieben von Ailuros
Nicht unbedingt. Wie gesagt hab ich eine gewisse Schwaeche fuer TBDR´s. Meine Spekulationen mit Demirug´s teilen sich ein bisschen fuer einen high end TBDR; ich spekuliere auf nur 128 Z/stencil Operationen per clock, waehrend er eher schon an 256 denkt.
Das macht mal lieber unter Euch aus...
Technisch ist es mir eigentlich wurscht, hauptsache Spiele, die massiv mit Schatten herum spielen, laufen mit einer bestimmten Technologie schneller, gell ?
;-)
Original geschrieben von Ailuros
Transparencies kombiniert mit 2*2 Antialiasing bei einem 3d desktop das 1024*768*32 als Minimum hat?

Natuerlich kauf ich Dir es nicht ab, da die bisherigen geleakten....ach was soll´s. Leistung ist sowieso Geschmacksache.
a) Du wirst mir doch wohl hoffentlich zustimmen, dass ein Desktop NIEMALS die Geometrielast eines Games erreichen wird. Das AA selbst ist gar nicht das Problem, sondern die Geometrie aktueller Games. Hier liegt auch die eigentliche Schwäche der FX5200...

b) die geleakten Versionen (bis 08/15 glaub' ich ;-) meinst Du also... ah ja. Nun ich will und werde nicht sehr viel weiter auf diese Problematik eingehen, aber sei Dir einem sicher... Tier2 funktioniert schon laaaaange und 08/15 ist richtig alt.
:D
Original geschrieben von Ailuros
Keine Ahnung zu welcher Schlussvolgerung Du gekommen bist, aber ich wuerde sagen dass FP32 keine Notwendigkeit sein wird bevor wahre dx9.0 Spiele nach Jahren erscheinen. Bis dahin sind wohl Karten wie R3xx oder NV3x wohl gar nicht mehr der Rede wert, wenn nicht schon Antiken.
Zu welcher Schlussfolgerung ICH gekommen bin ?
???

Sorry, aber ich sprach von den dort rezitierten 'Experten', i.e. Entwicklern, die sich im überwiegenden Teil (ein einziger wollte es wohl 'einfacher' haben ;-) FÜR eine hohe Präzision und die Kontrolle darüber ausgesprochen haben. ATI bietet beides nicht und wie es derzeit ausschaut (klärt sich mit Demirug's Hilfe ja vielleicht bald) die FX'er vor 5900 ebenfalls nicht.

Mich interessiert keine uminöse Zukunft, sondern mich interessiert das JETZT. Und wenn ich jetzt eine bestimmte Technologie haben kann, dann will ich sie auch. Die Performance in ein paar Jahren ist mir schlicht völlig egal !
Original geschrieben von Ailuros
Keine Ahnung ich wuerde es lieber einem Entwickler ueberlassen sich zu aeussern was ihm das Leben leichter macht (von den zwei Loesungen). Ich hab eine andere Perspektive fuer die R3xx Serie- die hoechstmoegliche Leistung bei hoechstmoeglicher Qualitaet in allen Abteilungen. Wie gesagt den ganzen Shader-Wirrwarr kann ich sowieso nicht benutzen; dieser Teil der Debatte ist ja sowieso nur theoretisch.
Eben nicht, fp32-Anforderungen werden auf fp24 reduziert (ATI), somit bieten sie zwar hohe Leistung aber eben nicht "hoechstmoeglicher Qualitaet".

Zu dem vorherigen Absatz nochmal:

Auch DX9 (und damit fp16/24) ist nicht sinnvoll, bis es Spiele gibt, die das auch nutzen...

Sag' mal, geht's noch ?

Wenn wir so argumentieren, dann können wir uns gleich wieder in die Steinzeit zurück begeben !

Mit geht es darum, dass zukünftige Technologien fp32 in breiter Front unterstützen werden. Die FX5900 (eigentlich ja auch die ganze FX-Serie) tut dies jetzt schon, also warum darauf verzichten ?
Original geschrieben von Ailuros
Hmmm ich bezweifle dass ich mich allzu viel mit D3 beschaeftigen werde, vielleicht ein paar Stunden Spielzeit und dass war´s dann schon. Fuer die anderen Spiele die dann auf der D3-engine basieren werden, haette ich schon gerne hohe Aufloesungen mit AA/AF.
Von einer Neuanschaffung erwarte ich nicht mehr und auch nicht weniger, als das sie mit AA/AF genauso performt (vielleicht auch ein bissel besser), als eine gf3 ohne... insofern ich die Feature's AA/AF schlicht ohne Leistungseinbußen (gemessen an der bestehenden Lösung) nutzen können möchte. Auch sollte sie in der Lage sein, alle in den nächsten 12 Monaten erscheinenden Games flüssig (mit AA/AF) laufen zu lassen. Zusätzlich noch sehr gute Qualität und modernste, derzeit verfügbare Technologie (ohne Einschränkungen) und schon habe ich ein neues Spielzeug !
:D
Original geschrieben von Ailuros
Leistung nimmt zwar bei mir nicht unbedingt Vorrang, aber sie ist mir auch nicht egal. Ultra-schoene "Slideshows" sind dann doch eher enttaeuschend. Also zumindest mal spielbar bei jedem Spiel (je nach genre), ein FPS muss schon zackig sein, wobei ein Sim ruhig unter der 40fps Barriere liegen kann.
Siehe oben.
Und damit sehe ich es genauso...
Allerdings JETZT und nicht in 2 Jahren !

Was das Ding in Jahren macht, ist mir Schnuppe, da soll es dann einfach in den zweit- oder dritt-Rechner wandern und zumindest die dann breit verfügbare Technologie unterstützen (so, wie bis vor kurzem noch dir gute alte gfddr... ;-).

-

Ich bin jetzt zwar noch immer nicht so ganz sicher, über was wir hier eigentlich reden, aber eine Überbrückung lustloser Arbeitszeit ist es allemal wert, gell ?

In diesem Sinne

Razor

Ailuros
2003-06-18, 12:18:50
Was das jetzt nun mit dem Preis einer FX5800 in Griechenland zu tun haben soll, musst Du mir jetzt aber mal erklären !
;-)

Ich denke die Bandbreiten einer 9700 im Vergleich zu einer FX5800 kannst Du Dir wohl selber ausrechnen. Was ist so schwer dran zu verstehen?


Klar wird 8xS "nicht so leistungsfressend" sein, wenn die CPU schon massiv limitiert. Was aber doch eher eine Binsenweißheit ist... oder willst Du mir jetzt erzählen, dass ein Feature sinnvol einzusetzen ist, weil die GraKa ja in dem überwiegenden Teil der verfügbaren Games eigentlich gar nichts tut ?

Sorry, aber irgendwie...

Wenn ich 8xS oder 4xS oder pures Supersampling haben will, kann ich es im zweiten System mit der NV25 benutzen; ansonsten MSAA/AF Radeon. So einfach.

Bieten die FX-en vielleicht einen AA-modus den ich nicht bei einer NV25 einschalten kann? Wie dem auch sei ist die maximale verfuegbare Fuellrate mit 4xSSAA bei einer FX5k8= 800MTexels/sec und bei einer GF4Ti= 600MTexels/sec; so gigantisch ist der Unterschied gar nicht (33% um genau zu sein).

Das macht mal lieber unter Euch aus...
Technisch ist es mir eigentlich wurscht, hauptsache Spiele, die massiv mit Schatten herum spielen, laufen mit einer bestimmten Technologie schneller, gell ?
;-)

Wenn Du einen TBDR meinst gegen NV35 (Voraussetzung das Spezifikationen auch vergleichbar sind), dann wuerde ich theoretisch eher dem ersten den Vorrang geben.

a) Du wirst mir doch wohl hoffentlich zustimmen, dass ein Desktop NIEMALS die Geometrielast eines Games erreichen wird. Das AA selbst ist gar nicht das Problem, sondern die Geometrie aktueller Games. Hier liegt auch die eigentliche Schwäche der FX5200...

b) die geleakten Versionen (bis 08/15 glaub' ich ;-) meinst Du also... ah ja. Nun ich will und werde nicht sehr viel weiter auf diese Problematik eingehen, aber sei Dir einem sicher... Tier2 funktioniert schon laaaaange und 08/15 ist richtig alt.

Wie gesagt Leistung kann auch Geschmacksache sein.

Sorry, aber ich sprach von den dort rezitierten 'Experten', i.e. Entwicklern, die sich im überwiegenden Teil (ein einziger wollte es wohl 'einfacher' haben ;-) FÜR eine hohe Präzision und die Kontrolle darüber ausgesprochen haben. ATI bietet beides nicht und wie es derzeit ausschaut (klärt sich mit Demirug's Hilfe ja vielleicht bald) die FX'er vor 5900 ebenfalls nicht.

ATI bietet MEHR Praezision fuer groessere Geschwindigkeit als NV30 (FP24>FP16) und die meisten Entwickler (so wie ich sie verstanden habe), werden FP32 erst bei wahren dx9.0 Spielen brauchen; wobei zwar eine NV35 als Entwicklungs-Plattform ihre Nutzen haben wird aber liegt noch geraume Zeit vor fuer solche Notwendigkeiten.

Fuer die Zwischenzeit von dx7 (heute) bis zu dx9.0 ist selbst FP16 ausreichend fuer die dementsprechenden Spiele. Wo Du siehst dass ATI in diesem Fall mit weniger ankommt ist mir ein Raetsel.

Mich interessiert keine uminöse Zukunft, sondern mich interessiert das JETZT. Und wenn ich jetzt eine bestimmte Technologie haben kann, dann will ich sie auch. Die Performance in ein paar Jahren ist mir schlicht völlig egal !

Na in diesem Sinne ist es wohl auch egal welcher Accelerator nun FP16/24 oder 32 unterstuetzt.

Eben nicht, fp32-Anforderungen werden auf fp24 reduziert (ATI), somit bieten sie zwar hohe Leistung aber eben nicht "hoechstmoeglicher Qualitaet".

Dann zeig mir mal die FP32 Anforderungen in heutigen Spielen und diesen naechstes Jahres?

Im Vergleich zu NV30/FP16 ist FP24 und dessen Leistung die hoechstmoegliche Qualitaet. Natuerlich ist FP32 dann besser fuer die weitgegriffene Zukunft, aber auch schneckenlangsam auf einer NV30.

Auch DX9 (und damit fp16/24) ist nicht sinnvoll, bis es Spiele gibt, die das auch nutzen...

Siehe oben. Leider meinte ich nicht nur interne Farbenpraezision sondern die gesamte Architektur, wobei ich AA natuerlich nicht ausgeschlossen habe.

Wenn wir so argumentieren, dann können wir uns gleich wieder in die Steinzeit zurück begeben !

Wie der Dichter so schoen sagt: "it takes two to tango" :D

Mit geht es darum, dass zukünftige Technologien fp32 in breiter Front unterstützen werden. Die FX5900 (eigentlich ja auch die ganze FX-Serie) tut dies jetzt schon, also warum darauf verzichten ?

NV's Karten unterstuetzen theoretisch schon seit Generationen 4096*4096 grosse Texturen. Nichts gegen technologischen Fortschritt aber es ist mir lieber wenn ich solche Kleinigkeiten in einer Feature-List sehe, wenn diese auch wirklich nutzvoll sind bzw. der chip auch wirklich was damit anfangen kann. Kein Argument gegen die NV35. Bei NV30 ist es absoluter Bloedsinn IMO, fuer FP32 zu werben.

Ich bin jetzt zwar noch immer nicht so ganz sicher, über was wir hier eigentlich reden, aber eine Überbrückung lustloser Arbeitszeit ist es allemal wert, gell ?

Ich glaube der Sinn dieser Debatte war, dass mir eine FX5200 imponieren sollte, was aber nicht der Fall ist.

Ich habe schon seit mehreren Seiten zugegeben dass sie eine sehr gute budget Loesung ist und ich sie auch nicht fuer dass was sie kann unterschaetze. Trotzdem verbleibt sie eine exzellente Aufruestung fuer Gamer die budget Karten von frueheren Generationen haben, aber auch nicht mehr.

Und falls ich es nicht erwaehnt habe: viele haben den Nutzen von dx9.0 Features auf NV34 bezweifelt. Obwohl da zwar was daran steckt, ist es mir immer lieber als die nur dx7.0/GF4MX-en der Vergangenheit.