PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Pro und Contra "ATI Radeon 9xxx" vs. "nVidia Geforce 4/FX" -> Nix als die Wa


Unregistered
2003-04-04, 12:12:18
so langsam ist der Graka Chip-Markt kaum noch objektibv
überschaubar. Ist das denn nur noch ein Glaubensfrage oder
gibt es wirklich stichhaltige Pros und Cons?

Bitte ohne viel BlaBla aber evtl. mit `ner kurzen Erläuterung der Techn. Marketing Ausdrücke posten.

Vielen Dank
Maruk

StefanV
2003-04-04, 12:24:18
Originally posted by Unregistered
so langsam ist der Graka Chip-Markt kaum noch objektibv
überschaubar. Ist das denn nur noch ein Glaubensfrage oder
gibt es wirklich stichhaltige Pros und Cons?

Bitte ohne viel BlaBla aber evtl. mit `ner kurzen Erläuterung der Techn. Marketing Ausdrücke posten.

Vielen Dank
Maruk

Naja, die 9700 hat die bessere Technik, schnellere Shader, das bessere FSAA, ist kühler, die Platine ist kleinder der Lüfter ist leiser usw...

Dagegen die FX5800:

laut, schlechter TV Out, lahme Shader, 4 Pipelines mit 2 TMUs (R300-> 8x1), sehr heiß, kaum übertaktbar ...

kurz:

Die GF FX ist nur was für 'Fanboys'...

Frank
2003-04-04, 12:46:24
Originally posted by Stefan Payne
...
Die GF FX ist nur was für 'Fanboys'...
Originally posted by Unregistered
Bitte ohne viel BlaBla

ice cool69
2003-04-04, 12:49:49
stimmt in etwa: AA ist deutlich besser bei der r9700pro und deutlich schneller, das AF ist auf beiden karten ähnlich gut. vom reinen speed her geben sich die karten nicht sonderlich viel. wenn du eine BBA (build by ATI) nimmst, erkennt man am roten platinenlayout, haste auch noch ne garantie für eine sehr hochwertige signalqualität.

GFFX ist wirklicher schrott, teuerer und schlechter. wenn man unbedingt nvidia will dann nur die kleine gffx, die große ist irrsinnig laut und kaum schneller. aber wie paine sagt, eher was für fanboys ;)

x-dragon
2003-04-04, 13:07:23
Originally posted by Unregistered
so langsam ist der Graka Chip-Markt kaum noch objektibv
überschaubar. Ist das denn nur noch ein Glaubensfrage oder
gibt es wirklich stichhaltige Pros und Cons?

Bitte ohne viel BlaBla aber evtl. mit `ner kurzen Erläuterung der Techn. Marketing Ausdrücke posten.

Vielen Dank
Maruk Da findest du glaube ich alles was du brauchst:
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800

Aber als Tip: Man kann auch rechts in der Spalte direkt bestimmte Bereiche aus dem Test auswählen, da er doch sehr umfangreich ist :).

Quasar
2003-04-04, 13:12:10
Das FSAA der Radeon ist ungeschlagen, sowohl, was IQ als auch was Geschwindigkeit angeht, soviel steht fest.

Das AF geht IMO eindeutig an nVidia, da man dort mittlerweile die Wahl zwischen sehr hochwertigem AF à la GeForce3 und geschwindigkeitsoptimiertem AF à la R200/R300 hat (wobei ich leider noch nicht in natura sehen konnte, wie gut es wirklich ist.

Was den TV-Out angeht, so höre ja gut auf Stefan Payne, der schon unzählige GeForce FX im INTERNET angegafft hat.. (i.e. nicht weiß, wovon er spricht!). Der TV-out und die VPE sind AFAIK mittlerweile mind. als gleichwertig anzusehen.

Wenn man auf das Ultra-Modell vorerst noch verzichtet, kriegt man die technisch fortschrittlichere GeForce FX auch in einer erträglich lauten Variante.

Die Signalqualität ist bei den GeForce FX Platinen laut ersten Berichten erstklassig und kann mindestens mit der der ATi-Karten mithalten.

PCGH_Thilo
2003-04-04, 13:13:41
Originally posted by Stefan Payne


Naja, die 9700 hat die bessere Technik, schnellere Shader, das bessere FSAA, ist kühler, die Platine ist kleinder der Lüfter ist leiser usw...

Dagegen die FX5800:

laut, schlechter TV Out, lahme Shader, 4 Pipelines mit 2 TMUs (R300-> 8x1), sehr heiß, kaum übertaktbar ...

kurz:

Die GF FX ist nur was für 'Fanboys'...

*sigh*

Riptor @ Work
2003-04-04, 13:30:58
Originally posted by Unregistered
Ist das denn nur noch ein Glaubensfrage oder
gibt es wirklich stichhaltige Pros und Cons?

Also:

Erste Preiskategorie (bis 150€):

ATI Radeon 9000/9100/9200 und nVidia GF4MX/GFFX 5200

nVidias GF4MX ist ATIs Radeon 9X00 unterlegen, allerdings kommt jetzt bald die GFFX 5200, die wohl die Radeon 9X00 schlagen kann. Allerdings ist der Preis noch unbekannt, ich bezweifel, dass die GFFX 5200 Ultra für unter 100€ erscheinen wird. Die GFFX 5200 ist anscheinend relativ schwach. Insgesamt kann man eigentlich sagen: Für ~85€ ist man sehr gut mit einer R9100 bedient, wer mehr will, aber die 150€ nicht sprengen will, sollte nach einer GFFX 5200 Ultra auschau halten.

Zweite Preiskategorie (bis 250€):

ATI Radeon 9500/9600 und nVidia GF4Ti/GFFX 5600

Hier muss man Unterscheiden: Einerseits die Karten für 150-199€ (Radeon 9500 und bald Radeon 9600, wobei ich zu dieser Karte performance-technisch noch nichts konkretes sagen kann, da keine unabhängigen Benchmarks vorhanden sind und GF4Ti4200-8X, GFFX 5600 (Ultra)), andererseits die Karten für 200-249€ (Radeon 9500 Pro, Radeon 9600 Pro und GF4Ti4800/SE, eventuell GFFX 5600 Ultra):

In der ersten Eingrenzung haben die nVidia 4200er klar den Vorteil, dass sie einfach schneller sind und auch mit ATIs 9500er bei AF/FSSA mithalten können. Die GFFX 5600 ist so eine Sache: Genauer Preis ist noch nicht da, von der Performance darf man aber nicht so viel erwarten. Ab 200€ wirds eindeutig: Radeon 9500 Pro! ~ so schnell wie eine Ti4800, aber mit FSAA/AF zieht sie deutlich weg, die kommende GFFX 5600 Ultra kann der R9500 Pro nichts entgegen setzen, allerdings kann sie eine Ti4800 in Sachen FSAA/AF schlagen. Insgesamt ein Vorteil für ATI, aber unter 200€ ist wohl nVidia stärker. Ob ATIs R9600 allerdings die Klasse halten wird, kann man so noch nicht sagen, da heißts noch abwarten.

Dritte Preiskategorie: 250-500€

Was soll man hierzu noch groß sagen? Die Radeon 9700 (Pro) ist billiger (270-300 und 360-410€) als die Konkurrenz (GFFX 5800 ~400-450€, die Ultra 475-650€), leiser und hat das bessere FSAA/(AF). Jetzt kommt dann noch R9800, die wird den geringen Vorsprung noch etwas vergrößern. Hier hat meiner Meinung nach ATI die Nase vorn.

Am besten wäre es, wenn man sich den Test auf www.3dcenter.de zu Gemüte führt, der klärt eigentlich soweit alles auf.

Ingesamt hat ATI mehr Vorteile gegenüber nVidia, wobei letzterer natürlich nicht klar unterlegen ist oder "am Boden" liegt, wie manche das sehen wollen. ;) Aber ATI ist derzeit wohl überlegen, auch objektiv gesehen... So weit das eben geht. ;)

Endorphine
2003-04-04, 13:52:35
Originally posted by Stefan Payne


Naja, die 9700 hat die bessere Technik, schnellere Shader, das bessere FSAA, ist kühler, die Platine ist kleinder der Lüfter ist leiser usw...

Dagegen die FX5800:

laut, schlechter TV Out, lahme Shader, 4 Pipelines mit 2 TMUs (R300-> 8x1), sehr heiß, kaum übertaktbar ...

kurz:

Die GF FX ist nur was für 'Fanboys'...

Endorphine
2003-04-04, 13:57:35
Man kann nicht eindeutig sagen, dass ein Grafikchipproduzent nur perfekte GPUs produziert und der andere nur Müll.

Aus meiner Sicht sollte man bei einer Grafikkarten-Neuanschaffung zuerst einen Preisbereich definieren, in dem man sich aufhalten möchte. Dann sollte man sich darüber im klaren werden, welche Anforderungen man an die Grafikkarte stellt, welche Eigenschaften wichtig und welche weniger wichtig sind.

Unter diesen Individualitätsgesichtspunkten kann man überhaupt nicht sagen "das ist gut, und das ist schlecht". Jeder hat andere Anforderungen. Für den einen ist eine integrierte Rage II+ Grafik völlig ausreichend und stellt das Optimum dar, der nächste benötigt für seine Bedürfnisse unbedingt eine Quadro fx 2000 samt IA64-Workstation.

Unreg,
das optimale Modell musst du ganz für dich allein finden, wir können dir höchstens in Detailfragen helfen :)

BUG
2003-04-04, 14:02:01
*ggg*

cu
BUG

roman
2003-04-04, 14:06:46
@ Endorphine: :rofl:

so krass wie payne würd ichs nicht ausdrücken, aber im großen und ganzen kann man durchaus sagen, dass die 9700er die bessere wahl ist.

Endorphine
2003-04-04, 14:11:13
Originally posted by Romanski
@ Endorphine: :rofl:

so krass wie payne würd ichs nicht ausdrücken, aber im großen und ganzen kann man durchaus sagen, dass die 9700er die bessere wahl ist. ;)

Deine Aussage ist wieder mal genau der Punkt. Auch du sprichst von "besserer" Wahl. Eine Frage: wenn etwas "besser" als das andere ist, hiesse das ja, dass das für alle Anforderungen und für jeden gelten muss. Ich bezweifle aber, dass dem wirklich so ist.

Ich bin sogar überzeugt, dass viele andere Anforderungen als du und ich haben und eher zur FX 5800 Ultra greifen, vielleicht , weil die Karte freier programmierbar ist, weil Cg benutzt werden soll, weil man die Karte für CAD nutzen möchte oder aus anderen Gründen.

Ich mag einfach dieses schwarz-weiss Gemale nicht. Immer dieses "gut - schlecht" denken. Dabei hat doch jeder andere Anforderungen!?!

Radeonator
2003-04-04, 14:11:55
GF4 ohne MX ist den Radeon 9000/9000pro/9100/9500 relativ überlegen

GF 4Ti Series :

Gute Roh Performance, relativ gute FSAA performance, sehr gute AF quali . Leistung reicht auch für neue Games noch aus

Contra :

Wer sich jetzt eine Karte zulegt, den erwartet kein all zu gutes Preis/Leistungs Verhältnis. AF viel zu langsam

9000...9500

pro :

Günstige einsteiger Karten, gute BQ, guter TV Out, mittelmässige Leistung.

Kontra:

ausser bei der 9500er nur in niedrigen Auflösungen brauchbares FSAA, Bi AF, 9500er nicht gerade günstig

GF FX Ultra und Ohne :

Pro:
Komplexere Shader, Appl.AF sehr gute BQ

Kontra : Viel zu teuer, zu laut, Stromfresser, sehr großes PCB, Treiber müssen noch optimiert werden. Schlechte Verfügbarkeit

Radeon 9500Pro,9700,9700Pro :

Pro: Günstig, schnell, verfügbar, gute gesammt quali

Kontra: Teilweise PCB´s mit Problemen (Störwellen), AF filtert nicht alle Winkel gleich, Lüfterlautstärke und Preis varieren sehr stark je nach Hersteller, Treiber müssen noch optimiert werden

Zu den 5200-5600Pro kann man erst was sagen, wenn welche verkauft werden und dann retail tests auftauchen...

Sphinx
2003-04-04, 14:14:13
Ich kann jedem nur die RadeON 9700PRO empfehlen...

1# Kaufen
2# Einbauen
3# Installieren
4# Have Fun
4.1# No Fun ? -> Kauf dir eben ne FX und werd Glücklich ;)

Unregistered
2003-04-04, 14:19:25
Wenn du nur alte Spiele zocken willst sind beide Karten ( FX-U / R9800 ) in etwa gleich schnell. Wenn du dann AA+AF nutzen willst dann ist die R300/R350 besser.

Bei der "Zukunftssicherheit" schaut es bei der FX dagegen ziemlich schlecht aus. Die R300/R350 ist pro Takt und überhaupt wesentlich schneller als eine FX, wenn man die PS2.0 benutzt.

Siehe :

http://www.beyond3d.com/forum/viewtopic.php?t=5177


http://www.beyond3d.com/forum/viewtopic.php?t=5150


There are four reasons (for NV30 being slower than R300):

1. NV30 has 4 FP units - R300 has 8
2. NV30 cannot execute an FP instruction in the cycle it fetches textures - R300 can
3. NV30 doesn't seem to be able to pack a vec3 and a float in the same cycle - R300 can
4. NV30 has penalty when using more than 2 FP32 registers or 4 FP16 registers - R300 has no such penalty


Alles in allem sind die R300/R350 - Chips wesentlich besser designt und entsprechend gut ist die Performance mit neuen Spielen, bzw. DX9-Spielen, die erst in Monaten/Jahren auf den Markt kommen.
An einer R9800Pro wird man wahrscheinlich noch Freude haben, wenn die FX5800U schon lange zu langsam ist um ein Spiel drauf laufen zu lassen.

Aquaschaf
2003-04-04, 14:20:29
Originally posted by Radeonator


Radeon 9500Pro,9700,9700Pro :

Pro: Günstig, schnell, verfügbar, gute gesammt quali

Kontra: Teilweise PCB´s mit Problemen (Störwellen), AF filtert nicht alle Winkel gleich, Lüfterlautstärke und Preis varieren sehr stark je nach Hersteller, Treiber müssen noch optimiert werden



naja , die Treiber der 9500/9700 Serie sind mitlerweile doch schon ausgereift .

Unregistered
2003-04-04, 14:26:28
Originally posted by Unregistered
Bei der "Zukunftssicherheit" schaut es bei der FX dagegen ziemlich schlecht aus. Die R300/R350 ist pro Takt und überhaupt wesentlich schneller als eine FX, wenn man die PS2.0 benutzt.


Noch ein paar Ergänzungen :

Sireric (ATi-Entwickler):
In our implementation of the F-Buffer, we can completly hide the latency of accessing the buffer. Writes from the fragment shader to the F-Buffer are similar to other outputs, and have no effect on the fragment execution. F-Buffer reads are similar to texture reads and we already, by architecture, hide that latency from the shader execution.

The only issue that is left is BW. The thing to note is that the F-Buffer will be invoked when the instruction count exceeds the 160 instruction limit. That means that the F-Buffer reads/writes only occur a few times every 160 instruction pass (which is at most 64 cycles). That means that F-Buffer BW is very low. Texture reads from the shader program would still dominate the BW.

In general, real time applications will not take advantage of the F-Buffer, since real time applications will limit their shader count to, at most, 1 to 2 dozens of instructions (i.e. 3dmark03 or D3). Of course, they could use them for small high-complexity object. That being said, using our F-Buffer, we were able to execute a compiled renderman shader (~500 instructions) at 50 FPS (our quadraFX board executed it at 2.7 FPS -- must be a driver bug?). In the same way, but at lower fps, we can execute much more complexe shaders (10's of thousands of instructions).



2 weeks ago in a forum, someone claimed that he's testing F-buffer.
Also claimed that in 512x512 window, he gets ~ 40fps when shading object with ~ 500 instruction long shader, if the object covers ~ 50% of the window.
With 100% covering of the window, fps dropping to ~20, with 2% raising to 200+ .
What was left unknown - the card he was using. He did not gave striaght answer was it R350 or R300softmod (probably NDA?!). He has R300 for sure, whether he has R350 also I don't know.
Anyway the performance numbers he gave look impressive for me.


Link : http://www.beyond3d.com/forum/viewtopic.php?t=4946&postdays=0&postorder=asc&start=140

ow
2003-04-04, 14:28:25
hihi....ueber das Gelaber so mancher Fanboys kann ich mich wirklich nur amuesieren ;D

Radeonator
2003-04-04, 14:31:36
Originally posted by ow
hihi....ueber das Gelaber so mancher Fanboys kann ich mich wirklich nur amuesieren ;D

Wieso, DU hast doch noch gar nichts gelabert...;D

ow
2003-04-04, 15:01:18
Originally posted by Radeonator


Wieso, DU hast doch noch gar nichts gelabert...;D

ich bin ja auch kein Fanboy, also hab ich hier auch nix zu sagen in dem Thread;D.
faellt dir btw. nicht auf, dass ich hier keine gestimmte Fraktion genannt habe?

Aber ich lass mich mal dazu hinreissen: der erste Platz ("wer ist der extremste Fanboy") geht (bis jetzt) hier wieder unangefochten an SP.:D

StefanV
2003-04-04, 15:04:33
Originally posted by ow
Aber ich lass mich mal dazu hinreissen: der erste Platz ("wer ist der extremste Fanboy") geht (bis jetzt) hier wieder unangefochten an SP.:D

...wer im Glashaus sitzt, sollte nicht mit Steinen schmeißen, Brüderchen...

betasilie
2003-04-04, 15:16:14
ow und sp ... das ungleiche Paar. :bäh:


Die FX hat zwar das hochwertigere AF, aber dazu muss auch gesagt werden, dass dieses bei hohen Auflösungen kombiniert mit AA nicht die super Bildraten bietet. Daher wird imho auch bei FX-Usern AA in Kombination mit nicht 100%tigen AF auf Grund der besseren Performance die Regel werden. Und in diesem Fall tun sich ATI und NV nix bei der Quali des AF.

Also ich kann nur die 9700(pro) oder 9800(pro) empfehlen, da sie alltgemein leistungsfähiger sind, das in jeglicher Hinsicht bessere AA bieten und der AF (z.B. tri/8x) kostet fast nichts an Performance bei guter Qualität. Und die Karte, insbesondere die 9700er, hat ein mega-ultra-super-gutes Preis-/Leistungsverhätlniss. ;) Ich war noch nie so zufrieden mit einer Karte seit der Vodoo2(sli), und auch die schlägt meine 9700er vom Zufriedenheitsfaktor her.

NV-Fanboys würde ich da eher empfehlen auf den NV35 zu warten, denn der wird bestimmt nicht nur ein Fitzelchen besser, als der NV30.


@Payne
Meine alte Aopen GF2Tti hatte eine minimal bessere Signalqualität, als meine 9700 BBA. :| Und ich denke, dass die neuen NV-Karten mindestens genausogut wie die BBAs werden von der Signalqualität her. Muss zwar nicht sein, aber warte ertmal ab und bediene nicht einfach ins blaue hinein solche Voruteile. ;)

MadManniMan
2003-04-04, 15:17:16
Originally posted by ow
Aber ich lass mich mal dazu hinreissen: der erste Platz ("wer ist der extremste Fanboy") geht (bis jetzt) hier wieder unangefochten an SP.:D

hm... weniger! meine auflistung sähe wie folgt aus...

1. nagus
2. nagus
3. nagus
4. stefan payne
5. ow
6. lovesucks (wenns auch schon besser wird)
7. tarkin
8. radeonator (komm, gibs zu...)
.
.
.

mapel110
2003-04-04, 15:17:41
Originally posted by ow


ich bin ja auch kein Fanboy, also hab ich hier auch nix zu sagen in dem Thread;D.
faellt dir btw. nicht auf, dass ich hier keine gestimmte Fraktion genannt habe?

Aber ich lass mich mal dazu hinreissen: der erste Platz ("wer ist der extremste Fanboy") geht (bis jetzt) hier wieder unangefochten an SP.:D

was hat das mit fanboy-tum zu tun, wenn man die FX als das hinstellt, was sie nunmal ist. luxusschrott.


gründe eine FX zu kaufen:

1.zuviel kohle
2.nvidia fan boy
3.als ow bei 3dcenter registriert sein :P

betasilie
2003-04-04, 15:21:44
Originally posted by MadManniMan


hm... weniger! meine auflistung sähe wie folgt aus...

1. nagus
2. nagus
3. nagus
4. stefan payne
5. ow
6. lovesucks (wenns auch schon besser wird)
7. tarkin
8. radeonator (komm, gibs zu...)
.
.
.
Razor vergessen? :naughty:

MadManniMan
2003-04-04, 15:23:51
Originally posted by betareverse

Razor vergessen? :naughty:

der kommt an 9!

aber immerhin hat er mit seiner r300 doch schon was eingesehen... von daher hab ich mal nur die "8" schlimmsten aufgezählt

Endorphine
2003-04-04, 15:23:57
Originally posted by betareverse

Razor vergessen? :naughty:
Und was is mit Richthofen? *harr* :naughty:

mapel110
2003-04-04, 15:25:19
Originally posted by Endorphine

Und was is mit Richthofen? *harr* :naughty:

der hält sich doch seit FX release aus solchen threads raus :D

StefanV
2003-04-04, 15:26:21
Originally posted by mapel110


was hat das mit fanboy-tum zu tun, wenn man die FX als das hinstellt, was sie nunmal ist. luxusschrott.


gründe eine FX zu kaufen:

1.zuviel kohle
2.nvidia fan boy
3.als ow bei 3dcenter registriert sein :P

4. 'leichter' bis 'mittlerer' 'Dachschaden' :)
5. das Bedürfnis 'etwas anderes' zu haben ;)
(um ehrlich zu sein, hab ich mir, bevor ich mir die 9700 bestellt hab, die Preise der GF FX5800 angeschaut)

Riptor
2003-04-04, 15:29:05
So... Bin jetzt wieder da und hat ja gleich auch schon ein paar Flame-Versuche gegeben. :D

Ehrlich: Die GFFX 5800 würde mich anmachen... Für 300€ würde ich sofort zuschlagen. :) So aber nicht... ;)

StefanV
2003-04-04, 15:32:01
@Riptor

Was glaubst du, warum ich mir 'ne 9700 bestellt hab *eg*

ow
2003-04-04, 15:40:23
Originally posted by ow
hihi....ueber das Gelaber so mancher Fanboys kann ich mich wirklich nur amuesieren ;D

.

betasilie
2003-04-04, 15:40:24
Originally posted by Stefan Payne
@Riptor

Was glaubst du, warum ich mir 'ne 9700 bestellt hab *eg*
Du würdest dir doch auch ne ATI kaufen, wenn NV besser wäre bei gleichem Preis! :naughty:

mapel110
2003-04-04, 15:50:12
Originally posted by ow


.

selber quoten ist ein zeichen, dass einem die argumente oder besser gesagt die schlagfertigkeit fehlt !

Quasar
2003-04-04, 15:51:28
Originally posted by Stefan Payne
edit: Auf Wunsch von Stefan Payne nochmals hervorgehoben, wer Vater der von ihm übernommenen Gedankengänge ist:
Originally posted by mapel110


was hat das mit fanboy-tum zu tun, wenn man die FX als das hinstellt, was sie nunmal ist. luxusschrott.


gründe eine FX zu kaufen:

1.zuviel kohle
2.nvidia fan boy
3.als ow bei 3dcenter registriert sein :P
4. 'leichter' bis 'mittlerer' 'Dachschaden'
5. das Bedürfnis 'etwas anderes' zu haben
(um ehrlich zu sein, hab ich mir, bevor ich mir die 9700 bestellt hab, die Preise der GF FX5800 angeschaut)

Mal wieder ein Paradebeispiel undifferenzierter und wenig reflektierender Fanboy-Argumentation...

Meine persönlichen Gründe, die für eine GFFX sprächen:

1. Preise bis unter 100€ (ja, sowas gibt's!)
2. Ausreichende Optionen bei der AF-Wahl
3. 2xFSAA ist noch RGMS (in hohen Auflösungen langt mir das)
4. Power Connector ist stabiler als bei der Konkurrenz ;)
5. Signalqualität soll recht gut sein
6. Passive Kühlung möglich
7. Ich komme in den Genuß, sämtlicher CineFX optimierten Spiele, ohne auf tb's exzellentes 3DA angewiesen zu sein.
8. 128Bit FP Pipeline ("top to bottom" ;))
9. aTuner/RivaTuner rocken sämtliche ATi-Tuner unter'n Tisch
9a. Ich kann das 3DCF mit Screenies zumüllen, wie nagus damals ;)
9aa. SP ärgert sich ;)
10. Die Treiber sind "kompatibler", soweit ich das bislang beurteilen kann...

Quasar
2003-04-04, 15:52:01
Originally posted by Stefan Payne
@Riptor

Was glaubst du, warum ich mir 'ne 9700 bestellt hab *eg*

Weil du dir 'ne FX5800 ultra nicht leisten kannst!
(Ich kann's im Moment auch nur, wenn ich den Dispo bis zum Anschlag ausreize, für den Fall, daß jemand fragt)

ow
2003-04-04, 15:56:30
Originally posted by mapel110


selber quoten ist ein zeichen, dass einem die argumente oder besser gesagt die schlagfertigkeit fehlt !


???:rofl:

noe, ich bestaetige damit nur die Gueltigkeit meiner Aussage.

einfach mal alle Postings lesen, mapel, dann siehst du wo die fanboys sitzen. und bei manchen ist's ja sogar direkt am Nick ersichtlich...

ow
2003-04-04, 15:58:45
Originally posted by Quasar


Weil du dir 'ne FX5800 ultra nicht leisten kannst!

:D gaynau
imo spricht da der blanke Neid aus SP.

MadManniMan
2003-04-04, 16:06:22
Originally posted by Endorphine

Und was is mit Richthofen? *harr* :naughty:


:bad1: der jung ist doch kein fanboy - der is vonner gewerkschaft! guck dir doch mal seine argumente an...

MadManniMan
2003-04-04, 16:07:53
Originally posted by Quasar


Weil du dir 'ne FX5800 ultra nicht leisten kannst!

ich weiß nich, wies bei fanboy nr.4 *hrr* aussieht, aber ich würde mir - sodenn ich sie mir schenken lassen könnte - ne 9700/9800 XXX schenken lassen. die FX sagt mir persönlich einfach nicht zu

betasilie
2003-04-04, 16:07:55
ow, moderieren! Nicht mitflamen! *grrr*

MadManniMan
2003-04-04, 16:08:48
Originally posted by betareverse
ow, moderieren! Nicht mitflamen! *grrr*

:eyes: tu jetz nich so, als würde dich das überraschen...

Exxtreme
2003-04-04, 16:10:50
Originally posted by MadManniMan


hm... weniger! meine auflistung sähe wie folgt aus...

1. nagus
2. nagus
3. nagus
4. stefan payne
5. ow
6. lovesucks (wenns auch schon besser wird)
7. tarkin
8. radeonator (komm, gibs zu...)
.

.
.
Und wo bin ich? :D
Ich habe sogar ein ATi-Symbol im Avatar. Wenn das kein Zeichen für FanATIsmus ist? :| :D

ow
2003-04-04, 16:10:54
Originally posted by betareverse
ow, moderieren! Nicht mitflamen! *grrr*


hmm.... sag du mir, wie man bei den ganzen Flamern hier moderieren soll...ich tue da wirklich mein bestes..

Riptor
2003-04-04, 16:11:18
Originally posted by betareverse
ow, moderieren! Nicht mitflamen! *grrr*

Interessiert den doch nicht. :D ;)

mapel110
2003-04-04, 16:12:04
und hier das neue thread content treffende pic

http://images.amazon.com/images/P/3980624927.03.LZZZZZZZ.gif

Endorphine
2003-04-04, 16:17:08
Originally posted by Exxtreme

Und wo bin ich? :D
Ich habe sogar ein ATi-Symbol im Avatar. Wenn das kein Zeichen für FanATIsmus ist? :| :D Du flam0rst ja nicht mit... Du oller Langweiler ;)

Radeonator
2003-04-04, 16:21:52
@OW : jaja, du bist ja so neutral...komisch nur, das keiner ausser du selbst das so empfindet :rofl:

Zum Topic: Afaik soll die GF FX eine sehr gute BQ haben! Die "kleinen" müssen erstmal beweisen, was Sie zum "retail" Zeitpunkt auf dem Kasten haben. Deshalb sind alle Aussagen dazu Spekulation.

p.s.: Wenn die NV35 Preis/Leistung und einen kleinen Bruder (wie die Ti4200 bei GF4) bekommt, pack ich sie mir in den Rechner :bäh:

Endorphine
2003-04-04, 16:23:32
Originally posted by Radeonator
p.s.: Wenn die NV35 Preis/Leistung und einen kleinen Bruder (wie die Ti4200 bei GF4) bekommt, pack ich sie mir in den Rechner :bäh: DAS will ich sehen =)

Radeonator
2003-04-04, 16:29:02
@Endorphine :

Ehm guckst du hier und machst kopp zu :P http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=43813&perpage=20&pagenumber=2

Fehlen noch die Xabre400, die Riva zx128 und Trident Image3d...

Piffan
2003-04-04, 17:35:45
Wieso wird ow eigentlich Parteilichkeit vorgeworfen? Er hat doch einfach recht mit seinen Aussagen! Soll er sich denn eine Selbstzensur auferlegen? ;)

Ist aber wirklich was dran. Wenn man einem FaATIker Paroli bietet, ist man gleich ein NV- Fanboy. Der Schmarrn im Nachbarthread über das Bi- AF der R300 zeigt es doch nur, da behaupten einige schlichtweg Unfug, nämlich dass es keine Mip-Map- Bänder mehr gibt bei BiAF....Ist natürlich Kappes, aber ow durfte das ja nicht sagen, der war ja gleich wieder nicht neutral.....(ist der Thread über den Aldi mit der 9500Pro)

Die Diskussionskultur der FanATIker ist mehrheitlich eindeutig übler...

@Threadstarter: Du glaubst doch nicht ernsthaft, dass du hier die "Wahrheit" erfährst.....Was soll das eigentlich sein???

mapel110
2003-04-04, 17:38:49
Originally posted by Piffan

Die Diskussionskultur der FanATIker ist mehrheitlich eindeutig übler...

nana, ich schau mittlerweile auch mal öfter ins nv forum. wenn man da in einem kaufberatunsthread ati vorschlägt, wird man auch zerfleischt ;)
da nehmen sich imo beide parteien nix.

StefanV
2003-04-04, 17:51:30
Originally posted by Quasar


Mal wieder ein Paradebeispiel undifferenzierter und wenig reflektierender Fanboy-Argumentation...

Meine persönlichen Gründe, die für eine GFFX sprächen:
(...)

Kannst du dein Quote zu dem obigen Posting bitte ändern ??

Denn ICH hab das nicht gepostet, was du gequotet hast !!

[€dit]

THX, Quasar


PS: warum löscht das Furum automatisch einen Quote, wenn man ein gequotetes Posting quotet ?? :|

StefanV
2003-04-04, 17:53:48
Originally posted by ow
:D gaynau
imo spricht da der blanke Neid aus SP.

...wer hier wohl auf wen neidisch ist...

'ne GF FX wäre absolut im Budget, wenn ich mir nicht vorher 'ne GF 4MX440 und ein MK35N gekauft hätte...

Den Betrag zusammenzurechnen, was mich die obigen Komponenten gekostet haben, überlasse ich dir, ow...

StefanV
2003-04-04, 17:55:57
Originally posted by Quasar
Weil du dir 'ne FX5800 ultra nicht leisten kannst!
(Ich kann's im Moment auch nur, wenn ich den Dispo bis zum Anschlag ausreize, für den Fall, daß jemand fragt)

1. exakt :)
Auch wenn ich 'ne 5800 lieber gehabt hätte...
Grund:
die hat kaum jemand...

2. naja, im Sommer wäre sie allemal im Budget :)
Aber bis dahin ists noch 'etwas' hin *eg*

StefanV
2003-04-04, 17:57:52
Originally posted by MadManniMan
ich weiß nich, wies bei fanboy nr.4 *hrr* aussieht, aber ich würde mir - sodenn ich sie mir schenken lassen könnte - ne 9700/9800 XXX schenken lassen. die FX sagt mir persönlich einfach nicht zu

Umgekehrt Manni, umgekehrt :naughty:
(aber wenns darum geht, was ich mir schenken lassen wollte, dann würde ich mir wohl zu 75% ein PC60 wünschen ;))

Quasar
2003-04-04, 17:58:21
Originally posted by Stefan Payne


Kannst du dein Quote zu dem obigen Posting bitte ändern ??

Denn ICH hab das nicht gepostet, was du gequotet hast !!

Durch deine Fortsetzungspüntkchen hast du dir aber den Inhalt dessen, was ich in deinem Posting las, zu eigen gemacht und um deine eigenen Punkte erweitert.

Poste halt nicht so unüberlegt und schreibfaul.
Weil ich so nett bin, hab' ich's trotzdem gemacht...

Frank
2003-04-04, 18:17:20
Originally posted by ...
BLA BLA BLA LABER

>>>
Originally posted by THREADSTARTER
Bitte ohne viel BlaBla

Also bitte mal etwas weniger zukoffern.
Und noch etwas: Ich halte ow für halbwegs Neutral. Und wenn jemand ein Problem mit ihm hat, soll er das Privat ausmachen - nicht im Forum.

Stimmts "BRÜDERCHEN" Stefan Payne?

Obligaron
2003-04-04, 18:24:15
ich bin dafür den Thread zu spliten.

mfg,
obligaron

zeckensack
2003-04-04, 19:07:44
Originally posted by Obligaron
ich bin dafür den Thread zu spliten.

mfg,
obligaron Du meinst, das Posting des Threadstarters stehenlassen, und den Rest direkt in die Mülltonne splitten???
Jedenfalls hatte ich gerade diesen Gedanken :|

LovesuckZ
2003-04-04, 19:43:25
Originally posted by Quasar
5. Signalqualität soll recht gut sein


Test results
Together with the ViewSonic P817 monitor and BNC Bargo cable it showed excellent 2D quality at the following resolutions and clock speeds:
ASUS V9900 Ultra 1600x1200x85Hz, 1280x1024x120Hz, 1024x768x160Hz

Most manufacturers simply assemble such cards according to the reference design including the FlowFX cooler which has gotten a great many ludicrous names and epithets.

Quelle (http://www.digit-life.com/articles2/gffx/asus-v9900u.html)

LovesuckZ
2003-04-04, 23:17:30
Originally posted by Stefan Payne
4 Pipelines mit 2 TMUs (R300-> 8x1), sehr heiß,kaum übertaktbar ...


1. Versteh ich net...

2.The sound produced by the Leadtek is definitely lower than the MSI solution and cooling works much better as well. One fan takes the air in while the other blows it out. The average temperatures as measured by nVidia drivers were close to 60 degress on the MSI whereas the Leadtek runs almost ten degress cooler- around 50-53 range.

3.We couldnt overclock this card either and Leadtek informed us that nVidia has currently locked the overclocking feature from the BIOS in FX cards, however, in the future, Leadtek might provide a way to unlock and overclock.

Quelle (http://www.tbreak.com/reviews/article.php?id=195&pagenumber=2)

Unregistered
2003-04-04, 23:25:29
Originally posted by LovesuckZ


1. Versteh ich net...

2.The sound produced by the Leadtek is definitely lower than the MSI solution and cooling works much better as well. One fan takes the air in while the other blows it out. The average temperatures as measured by nVidia drivers were close to 60 degress on the MSI whereas the Leadtek runs almost ten degress cooler- around 50-53 range.

3.We couldnt overclock this card either and Leadtek informed us that nVidia has currently locked the overclocking feature from the BIOS in FX cards, however, in the future, Leadtek might provide a way to unlock and overclock.

Quelle (http://www.tbreak.com/reviews/article.php?id=195&pagenumber=2)



@endorphine

Schönen neuen Avartar hast du. Nur hab ich deshalb bis eben gedacht, ich lese die Posts von SP.:D Ist gar nicht aufgefallen.

aths
2003-04-05, 20:32:58
Originally posted by Quasar
Mal wieder ein Paradebeispiel undifferenzierter und wenig reflektierender Fanboy-Argumentation...

Meine persönlichen Gründe, die für eine GFFX sprächen:

1. Preise bis unter 100€ (ja, sowas gibt's!)... und taugen für "unsere" Zwecke nichts...
Originally posted by Quasar
2. Ausreichende Optionen bei der AF-WahlDie billigen Karten sind zu langsam für hochwertiges AF.
Originally posted by Quasar
3. 2xFSAA ist noch RGMS (in hohen Auflösungen langt mir das)Radeon ab 9500 hat trotzdem besseres AA, und kostet zudem weniger.
Originally posted by Quasar
4. Power Connector ist stabiler als bei der Konkurrenz ;)Ist er das wirklich?
Originally posted by Quasar
5. Signalqualität soll recht gut seinDavon ist auszugehen, ja. Aber ATIs Karten werden wohl nicht gerade schlechter sein.
Originally posted by Quasar
6. Passive Kühlung möglichBei Radeon auch.
Originally posted by Quasar
7. Ich komme in den Genuß, sämtlicher CineFX optimierten Spiele, ohne auf tb's exzellentes 3DA angewiesen zu sein.Wird es solche Spiele überhaupt geben? Wird es Spiele geben, die auf Radeon 9700 insgesamt schlechter aussehen, als auf NV30?
Originally posted by Quasar
8. 128Bit FP Pipeline ("top to bottom" ;))Bei der gebotenen Geschwindigkeit für unsere Zwecke irrelevant.
Originally posted by Quasar
9. aTuner/RivaTuner rocken sämtliche ATi-Tuner unter'n TischDas stimmt allerdings.
Originally posted by Quasar
9a. Ich kann das 3DCF mit Screenies zumüllen, wie nagus damals ;)Na toll.
Originally posted by Quasar
9aa. SP ärgert sich ;)Ärgert mir bloß den SP nicht!
Originally posted by Quasar
10. Die Treiber sind "kompatibler", soweit ich das bislang beurteilen kann... Zumindest die ersten FX-Treiber schienen katastrofal gewesen zu sein.

Vergleicht man die FX 5800 mit der GF4, so beeindruckt die FX. Vergleicht man sie mit Radeon 9700, beeindruckt die Radeon. Fällt es für einige wirklich sooo schwer zu sagen: "Die FX war ein Schuss in den Ofen"?

Vielleicht wird der NV35 ja besser. Die aktuelle Produktpalette ist imo für den normalen Spieler nicht zu empfehlen, weil es von der Konkurrenz besseres gibt.

aths
2003-04-05, 20:36:11
Originally posted by ow
:D gaynau
imo spricht da der blanke Neid aus SP. Die FX ist nicht nur teurer, sondern ganz objektiv sprechen auch mehr Gründe für die 9700, wenn man den Preis nicht berücksichtigen würde. Die FX bietet in relevanten Settings weniger Power, und erst recht weniger "Bang for the Bucks".

aths
2003-04-05, 20:38:28
Originally posted by Frank
Und noch etwas: Ich halte ow für halbwegs Neutral. Ich halte sogar nagus für halbwegs neutral. (Man beachte die Betonung auf 'halbwegs'.)

SP halte ich für unbeschreiblich :D und mich halte für einen Hirni.

MMM imo bemüht sich wirklich um Neutralität.

Wenn SP rumnervt, leider nervt er ja öfters mal rum, so hat er im Falle FX imo durchaus recht.

König der Metwurst
2003-04-05, 21:04:20
kauf ne Radeon 9700 non pro

LovesuckZ
2003-04-05, 21:05:55
Originally posted by aths
Die billigen Karten sind zu langsam für hochwertiges AF.
Radeon ab 9500 hat trotzdem besseres AA [...]


Auch ne 9500 ost fuer 4AA in den meisten Faellen schon zu langsam. Und wenn dann noch AF dazu kommt, sieht es nicht so rosig aus.

zeckensack
2003-04-05, 21:15:34
Originally posted by LovesuckZ


Auch ne 9500 ost fuer 4AA in den meisten Faellen schon zu langsam. Und wenn dann noch AF dazu kommt, sieht es nicht so rosig aus. Dann nimmsch halt 2x. Ist ab einer gewissen Grundauflösung (1024x768) sowieso zu empfehlen, weil schöner und schneller als höhere Auflösungen.
Das gilt natürlich auch für die Geforces, aber eben hier nur für 2x.

StefanV
2003-04-05, 21:41:35
Originally posted by LovesuckZ

Auch ne 9500 ost fuer 4AA in den meisten Faellen schon zu langsam. Und wenn dann noch AF dazu kommt, sieht es nicht so rosig aus.

...wer weiß, was ATI alles bei der 9500 deaktivieren musste, damit sie mit 4 Pipes funzt...

Ganz ab davon:

Wer mit FSAA zocken will, der nimmt sich gleich 'ne 9700 oder gar 9800...

Frank
2003-04-05, 22:13:31
Originally posted by aths
Ich halte sogar ...Da divergieren unsere Meinungen.
Originally posted by Stefan Payne
Wer mit FSAA zocken will, der nimmt sich gleich 'ne 9700 oder gar 9800...Welch Empfehlung. Für den Preis bekommt man heutzutage einen ganzen PC. Für Leute die mit FSAA spielen wollen, reicht auch weniger - viel weniger.

aths
2003-04-05, 22:38:26
Originally posted by Frank
Welch Empfehlung. Für den Preis bekommt man heutzutage einen ganzen PC. Sicherlich keinen spieletauglichen.
Originally posted by Frank
Für Leute die mit FSAA spielen wollen, reicht auch weniger - viel weniger. Für FSAA sollte es schon GF4 Ti-Klasse sein. Um State-of-the-Art-FSAA zu haben, sollte es schon Radeon 9700 oder höher sein.

StefanV
2003-04-05, 22:53:51
Originally posted by Frank
Da divergieren unsere Meinungen.
Welch Empfehlung. Für den Preis bekommt man heutzutage einen ganzen PC. Für Leute die mit FSAA spielen wollen, reicht auch weniger - viel weniger.

1. für 260-300€ einen kompletten PC ??
Liste mir bitte die Komponenten auf...
Außer Büro Rechner mit Onboard Grafik dürfte da nicht viel drin sein...


2. für leute die mit FSAA spielen und einen TFT ab 16" haben, führt kein Weg an der Radeon 9700 vorbei...
Wenn man sich mit 800x600 Punkten zufrieden gibt und nicht gerade die neusten Spiele spielen will, dann langt auch 'ne GF4...
Wenn man mit mindestens 1024x768 spielen will, dann ist AF nicht wirklich drin...

Ergo:

GF4 langt für FSAA nicht mehr wirklich, eine 9500 PRO schon eher, ist aber auch nicht mehr lange...

Cadmus
2003-04-05, 23:14:44
Na dann machen wir die ganze Sache doch etwas einfacher: Angenommen, ihr dürftet euch in einem Hardware-Markt, egal welcher, eine Grafikkarte aussuchen und als Geschenk mitnehmen. Welche der aktuellen Modelle würdet ihr nehmen?

Ich habe jetzt eine R9500Pro, und würde die sofort wieder nehmen. Warum ich als bekennender Ex-3Dfx-Fetischist und jetziger FanATIker keine 9700Pro nehme? Weil ich denke, das mein Prozessor, ein XP2000+, eine 9700Pro nicht vollständig ausreizen würde, und die Mehrleistung relativ gering wäre. Ausserdem hätte ich mit der 9500Pro, aufgrund der Lieferschwierigkeiten, eine relativ seltene Karte drinne.

StefanV
2003-04-05, 23:24:28
Originally posted by Strafer
Na dann machen wir die ganze Sache doch etwas einfacher: Angenommen, ihr dürftet euch in einem Hardware-Markt, egal welcher, eine Grafikkarte aussuchen und als Geschenk mitnehmen. Welche der aktuellen Modelle würdet ihr nehmen?

Ich habe jetzt eine R9500Pro, und würde die sofort wieder nehmen. Warum ich als bekennender Ex-3Dfx-Fetischist und jetziger FanATIker keine 9700Pro nehme? Weil ich denke, das mein Prozessor, ein XP2000+, eine 9700Pro nicht vollständig ausreizen würde, und die Mehrleistung relativ gering wäre. Ausserdem hätte ich mit der 9500Pro, aufgrund der Lieferschwierigkeiten, eine relativ seltene Karte drinne.

Es kommt auf die persönlichen Präferenzen und die 'Ausgabegeräte', die man stehen hat...
Wenn du einen CRT oder einen 15" TFT hast, dann hängt es eigentlich 'nur' davon ab, ob du viel mit FSAA spielst und welchen Modus du gerne hättest.
Wenn du einen TFT ab 16" hast (1280x1024), dann macht die 9700 mehr Sinn.
Es kommt halt alles drauf an, wie du spielst, was du gerne hättest und was du für 'Ausgabegeräte' hast...

Iceman346
2003-04-05, 23:24:33
Für ne seltene Karte kannst du dir nix kaufen ;)

Und ne 9700Pro zu nehmen hat trotzdem Sinn. Die Mehrleistung merkst du vielleicht in den Standardeinstellungen nicht, aber AA und AF profitieren davon.

aths
2003-04-05, 23:25:14
Originally posted by Stefan Payne
2. für leute die mit FSAA spielen und einen TFT ab 16" haben, führt kein Weg an der Radeon 9700 vorbei...
Wenn man sich mit 800x600 Punkten zufrieden gibt und nicht gerade die neusten Spiele spielen will, dann langt auch 'ne GF4...
Wenn man mit mindestens 1024x768 spielen will, dann ist AF nicht wirklich drin...Mit meiner Ti spiele ich fast alles in 1024x768 oder höher, dazu 2x AA und 4x oder 8x AF. Ich weiß nicht, ob der Unterschied zur Ti 4200 wirklich so groß ist.

Originally posted by Stefan Payne
Ergo:

GF4 langt für FSAA nicht mehr wirklich, eine 9500 PRO schon eher, ist aber auch nicht mehr lange... Für FSAA reicht jede GF4 Ti aus, behaupte ich jetzt einfach mal.

StefanV
2003-04-05, 23:33:02
Originally posted by aths
Mit meiner Ti spiele ich fast alles in 1024x768 oder höher, dazu 2x AA und 4x oder 8x AF. Ich weiß nicht, ob der Unterschied zur Ti 4200 wirklich so groß ist.

Optisch ist er es allemal, zumal ein 9700 User wohl mit 4x/16° oder sogar 6x/16° spielen.

Wirklich getestet hab ich leider noch nicht viel, Mech Warrior 4 werde ich aber bald wieder spielen, dabei 'kränkelte' die GF4 ja schon etwas...
Originally posted by aths
Für FSAA reicht jede GF4 Ti aus, behaupte ich jetzt einfach mal.

Kommt aufs Game und auf die Auflösung an...

Es gibt durchaus einige Spiele, bei denen der GF4 TI4200 die Puste ausgeht...

Piffan
2003-04-05, 23:47:00
Mit meiner Gf4Ti4200 (280/560) mit 128 mb kann man auch fast alle Spiele mit 2x FSAA und optimiertem Af spielen....Spiele wie Nolf 2, Mafia, Gothic 2 und Dungeon Siege sind damit gut spielbar....Nicht mehr so gut geht das bei UT2 und Unreal 2, aber da leidet das Spielgefühl selbst bei meiner Radeon 9700 (33o Core/300 Speicher), wenn ich FSAA und Af einstelle...

Es ist schlicht falsch, dass man auf einer Gf4 kein FSAA mehr nutzen kann. FSAA geht eher noch als unoptimiertes AF......

So nebenbei: Ein "älterer" Proz wie ein Athlon Xp 2000+ sollte niemanden hindern, die schnellste Graka zu nehmen, wenn er FSAA oder AF nutzen will. Schließlich kann man mit solchen Einstellunge schnell an die Grenzen der Graka stoßen, so dass diese dann zum begrenzenden Faktor bei der Performance wird....

Piffan
2003-04-05, 23:50:55
Originally posted by Stefan Payne


Optisch ist er es allemal, zumal ein 9700 User wohl mit 4x/16° oder sogar 6x/16° spielen.

Wirklich getestet hab ich leider noch nicht viel, Mech Warrior 4 werde ich aber bald wieder spielen, dabei 'kränkelte' die GF4 ja schon etwas...


Kommt aufs Game und auf die Auflösung an...

Es gibt durchaus einige Spiele, bei denen der GF4 TI4200 die Puste ausgeht...

Erstens mal hast du nicht richtig gelesen, was aths schrieb; er meinte den Unterschied zwischen der 4600 und der 4200....der ist in der Tat nicht so groß, wenn man die 4200er ordentlich hochtaktet, andernfalls wohl doch....

Zweitens nenne mir mal die Spiele, bei denen der 4200 die Puste ausgeht......wirklich schlecht spielbar sind für mich nur die schon genannten Spiele Ut2 und Unreal 2.....

Cadmus
2003-04-05, 23:51:06
Wo wir grade dabei sind: Wie siehts denn mit der Xabre2 aus? Laut lamestar kommt er MINDESTENS mit 375 MHz Chiptakt und 1000 MHz DDR2 Speichertakt. Extrem starke Texturkompression rechtfertig das Fehlen einer 256-Bit-Speicheranbindung, diese hat 128 Bit. Und der Preis soll laut SIS bei 200€ liegen. Wenn das stimmt, wäre es doch eine gute Alternative. Und PoverVR mit seiner Serie5? Dauert wohl noch ne Weile...:...(

aths
2003-04-05, 23:52:44
Originally posted by Stefan Payne
Kommt aufs Game und auf die Auflösung an...

Es gibt durchaus einige Spiele, bei denen der GF4 TI4200 die Puste ausgeht... Welche Spiele sind das?

StefanV
2003-04-05, 23:54:57
Originally posted by aths
Welche Spiele sind das?

Besonders aufgefallen ist es mir bei Mech Warrior 4 sowie allen ablegern.

Am Anfang ist noch 4xS möglich, im laufe des Spieles ändert sich das aber, so daß sich sogar 2x teilweise 'unrund' 'anfühlt'.

Piffan
2003-04-05, 23:57:41
Originally posted by Strafer
Wo wir grade dabei sind: Wie siehts denn mit der Xabre2 aus? Laut lamestar kommt er MINDESTENS mit 375 MHz Chiptakt und 1000 MHz DDR2 Speichertakt. Extrem starke Texturkompression rechtfertig das Fehlen einer 256-Bit-Speicheranbindung, diese hat 128 Bit. Und der Preis soll laut SIS bei 200€ liegen. Wenn das stimmt, wäre es doch eine gute Alternative. Und PoverVR mit seiner Serie5? Dauert wohl noch ne Weile...:...(

So ein Schmarrn. Wenn die Jungs noch eine stärkere Texturkompression bei vergleichbarer Bildqualität bringen könnten, dann wären die Leute bei NV und Ati wohl Pappnasen....;)

Stärkere "Kompression" heißt tatsächlich nur, dass die Texturen extrem mies aufgelöst sind bzw. saumäßig aussehen. So war es beim ersten Xabre.....

Ist logischerweise nur heiße Luft. Bis jetzt waren die Xabre- Leute nur stark im Ankündigen, die realen Produkte können einfach nicht mithalten......

Frage mal Shishingu hier im Forum, der Dämel hat wider den Empfehlungen hier aus dem Forum eine Xabre gekauft und war gar nicht zufrieden...

Demirug
2003-04-06, 00:05:29
Originally posted by Piffan
So ein Schmarrn. Wenn die Jungs noch eine stärkere Texturkompression bei vergleichbarer Bildqualität bringen könnten, dann wären die Leute bei NV und Ati wohl Pappnasen....;)

NVIDIA (und sicherlich auch ATI) haben da durchaus noch ein paar Sachen in der Schublade. Im NV2A gibt es ein zusätzliches Verfahren.

Stärkere "Kompression" heißt tatsächlich nur, dass die Texturen extrem mies aufgelöst sind bzw. saumäßig aussehen. So war es beim ersten Xabre.....

Kompresion und schlechte Filterung ist aber schon was anderes. Allerdings macht ein neues Kompresionsverfahren nur begrennzt Sinn. Beim üblichen Weg übergibt das Spiel komprimmierte Texturen und der Chip dekomprimiert nur. Wenn kein Spiel das Verfahren unterstützt ist es Nutzloss. Sinn macht es nur wenn der Chip die Texturen "on the fly" auch neu komprimieren kann und damit nicht von der Gnade der Entwickler abhängig ist.

Cadmus
2003-04-06, 00:07:25
Naja, beim NV30 war die Speicheranbindung auch nur 128 Bit groß. Dewegen hatte sie doch kein schlechtes Bild, zumindest nicht in dem Maße wie du es bei der Xabre beschreibst. Und ich glaube die Jungs von SIS werden dazugelernt haben :)
Warten wir mal ab, im Sommer soll der Chip präsentiert werden.

Piffan
2003-04-06, 00:11:33
Wie ist das beim Xabre denn nun konkret: Hat der im Turbotex-Mode nur ne schlimme Filterung oder ist das Mipmap-LOD so mies?

aths
2003-04-06, 00:21:31
Originally posted by Strafer
Naja, beim NV30 war die Speicheranbindung auch nur 128 Bit groß. Wieso sprichst du vom NV30 im Präteritum? Hehe...

(SCNR)

Cadmus
2003-04-06, 00:34:38
Originally posted by aths
Wieso sprichst du vom NV30 im Präteritum? Hehe...

(SCNR)
Sorry, mein Fehler.Lese grade einen Artikel über den NV 35, und muß zugeben, der könnte dem R350 gefährlich werden. Zumindest bis zum R400.

Piffan
2003-04-06, 00:42:36
Originally posted by aths
Wieso sprichst du vom NV30 im Präteritum? Hehe...

(SCNR)

Unser Lehrer sagte mal: Man sollte den Usus von Fremdwörtern auf ein Minimum reduzieren.....;)

Frank
2003-04-06, 00:45:14
Originally posted by Stefan Payne
1. für 260-300€ einen kompletten PC ??
Liste mir bitte die Komponenten auf...
Außer Büro Rechner mit Onboard Grafik dürfte da nicht viel drin sein...
Selbst ein Thinkpad 600 dürft da schon drin sein(13,3er TFT, Tilla...). Oder halt:
http://www.winner-computer.de/
Originally posted by Stefan Payne
2. für leute die mit FSAA spielen und einen TFT ab 16" haben, führt kein Weg an der Radeon 9700 vorbei...
Wenn man sich mit 800x600 Punkten zufrieden gibt und nicht gerade die neusten Spiele spielen will, dann langt auch 'ne GF4...
Wenn man mit mindestens 1024x768 spielen will, dann ist AF nicht wirklich drin...Du solltest evtl nicht immer von dir ausgehen. Zu meinen kleinen Spielefundus (da beschränkte Kapitallage für sowas) zählt ua. Flashpoint Resistance. Das is mehr als Rechenhungrig und Grafikmäßig aktuell. Und weder auf Gf3ti200 noch auf Radeon9000pro hab ich in 2x Fsaa irgendwelche Probs - in 1024...

Frank
2003-04-06, 00:48:59
Originally posted by Piffan


Unser Lehrer sagte mal: Man sollte den Usus von Fremdwörtern auf ein Minimum reduzieren.....;) Ich kenn das nur so:
Wäre es nicht adequat, den Usus heterogener Termini zu minimieren?

hmmm dazu passend:
Es existiert ein Interesse an der generellen Rezession der Applikation relativ primitiver Methoden komplementär zur Favorisierung adäquater komplexer Algorithmen.

Piffan
2003-04-06, 10:36:09
Originally posted by Frank
Ich kenn das nur so:
Wäre es nicht adequat, den Usus heterogener Termini zu minimieren?

hmmm dazu passend:
Es existiert ein Interesse an der generellen Rezession der Applikation relativ primitiver Methoden komplementär zur Favorisierung adäquater komplexer Algorithmen.

Auf deutsch: Warum einfach, wenns auch kompliziert geht. ;)

MadManniMan
2003-04-06, 13:21:18
Originally posted by aths
MMM imo bemüht sich wirklich um Neutralität.


mann, habt ihr ein glück, daß 3dfx nich mehr is... :D

MadManniMan
2003-04-06, 13:24:03
Originally posted by Frank
Flashpoint Resistance. Das is mehr als Rechenhungrig und Grafikmäßig aktuell. Und weder auf Gf3ti200 noch auf Radeon9000pro hab ich in 2x Fsaa irgendwelche Probs - in 1024...

:|

a) grafikmäßig aktuell halte ich für zumindest 'ein wenig' zweifelhaft...

b) arg grafikhungrig ist flashpoint kaum - selbst auf meiner kyro2 war 2*aa in 1024 kein problem

Frank
2003-04-06, 14:08:07
genau deswegen hab ich auch nicht Flashpoint sondern Flashpoint Resistance geschrieben - das ist ein Grafischer Unterschied wie zwischen Civ 2 un Civ 3.

MadManniMan
2003-04-06, 14:41:13
hm, ich war der meinung gewesen, ich hätte auch davon gesprochen... :| hätt mich vielleicht deutlicher ausdrücken sollen (oder nicht an buchstaben sparen, auch wenn das mir nur einer hand - die andere hält die pizza - recht mühselig war ) ;)

Frank
2003-04-06, 14:44:07
glaub ich aber nicht. Ich hab Flashpoint Resitance auf ner Prophet4500 gesehen. Da is vielleicht flüssig in niedrigen Einstellungen bei 1024. Aber von AA wollen wir da gar nicht erst anfangen zu reden.

edit. Letztendlich isses ja aber auch egal. Mir jedenfalls würde/hat die GF3 für 2x AA überall gereicht. Ich bin da aber allerdings auch nicht so empfindlich, wenn es heißt zwischen 120 und 130 FPS zu unterscheiden. Von daher soll das jeder mit sich selbst ausmachen.

Is aber interessant zu lesen: Einserseits beschweren sich alle wie dreckig es in Deutschland doch zugeht mit der Wirtschaft und wie schlecht es allen geht - und dann ließt man hier: naja ne R9700pro is auch bald veraltet ... neues muss her... bla blub blubber.

Radeonator
2003-04-06, 14:54:29
Originally posted by Piffan


So ein Schmarrn. Wenn die Jungs noch eine stärkere Texturkompression bei vergleichbarer Bildqualität bringen könnten, dann wären die Leute bei NV und Ati wohl Pappnasen....;)

Kann man nur abwarten was SiS da gebastelt haben...

Originally posted by Piffan
Stärkere "Kompression" heißt tatsächlich nur, dass die Texturen extrem mies aufgelöst sind bzw. saumäßig aussehen. So war es beim ersten Xabre.....



Gut, ich zweifle einfach an deinen hellseherischen Fähigkeiten, btw soll die XabreII eine sehr gute BQ haben... XabreGamers (http://xabregamers.dgwh.com/modules/news/article.php?storyid=178)


Originally posted by Piffan
Ist logischerweise nur heiße Luft. Bis jetzt waren die Xabre- Leute nur stark im Ankündigen, die realen Produkte können einfach nicht mithalten......




Ist das nicht bei allen Herstellern so ? Das die finalen Produkte nicht 60% dessen erfüllen , was vorher PR mässig eingetrichtert wird? Haben nicht alle GPU Hersteller mal klein angefangen und dann aus Fehlern gelernt ? IMO scheinst du etwas zu eingefahren...

Originally posted by Piffan
Frage mal Shishingu hier im Forum, der Dämel hat wider den Empfehlungen hier aus dem Forum eine Xabre gekauft und war gar nicht zufrieden...


Ich habe auch eine Xabre400(128MB) als Notfall Karte und die Karte erfüllt das, was ich für unter 100€uro von einer Karte erwarte...Wenn das Problem nun zwischen den Ohren des Anwenders oder im Zusammenspiel mit der HW/SW konfig liegt , was kann SiS dafür ???

Vielleicht sollte man einfach erstmal abwarten und nicht vor verurteilen, aber das macht ja nicht soviel "Spaß" , gelle ...;D

MadManniMan
2003-04-06, 15:10:38
Originally posted by Frank
glaub ich aber nicht. Ich hab Flashpoint Resitance auf ner Prophet4500 gesehen. Da is vielleicht flüssig in niedrigen Einstellungen bei 1024. Aber von AA wollen wir da gar nicht erst anfangen zu reden.

:idea: jo! 2* in 1024 wars beim original, bei resistance liefs aber bei 800 mit 2* gut... :| naja - einigen wir uns darauf, daß das spiel nicht sooo pralle aussieht?

Originally posted by Frank
Is aber interessant zu lesen: Einserseits beschweren sich alle wie dreckig es in Deutschland doch zugeht mit der Wirtschaft und wie schlecht es allen geht - und dann ließt man hier: naja ne R9700pro is auch bald veraltet ... neues muss her... bla blub blubber.

ein klein wenig luxus wird man doch noch behalten dürfen... bei der graka zurückstecken? :o hilfeee!

Frank
2003-04-06, 19:10:12
Originally posted by MadManniMan
naja - einigen wir uns darauf, daß das spiel nicht sooo pralle aussieht? reden wir über das selbe Spiel?

MadManniMan
2003-04-06, 19:16:59
Originally posted by Frank
reden wir über das selbe Spiel?


imho schon. ich weiß ehrlich gesagt wirklich nicht, was an resistance sonderlich gut aussehen sollte. vielleicht bin ich einfach nur verwöhnt durch battlefield und co. aber ich fand dieses addon genau wie das original zum release eher minder hübsch. daß es bei diesem allerdings nicht auf die optik, sondern den inhalt ankommt(und der spielspaß stimmt imho), sei hier mal nicht von belang.

ich bleib dabei: resistance sieht nich toll aus. vom gegenteil überzeugen laß ich mich dennoch gerne

Frank
2003-04-06, 23:37:26
battlefield sieht in meinen augen schlechter aus. Evtl verwechselst du RedHammer mit Resistance? 2x 30€ beim Updaten vom UrFlashpoint aus sind aber eigentlich recht einprägsam. naja egal - BspBilder (Bilder aber dunkler als im Spiel):
http://rcswww.urz.tu-dresden.de/~fh468638/temp/Unbenannt1.jpg
http://rcswww.urz.tu-dresden.de/~fh468638/temp/Unbenannt2.jpg

Piffan
2003-04-07, 00:48:51
Originally posted by Frank
battlefield sieht in meinen augen schlechter aus. Evtl verwechselst du RedHammer mit Resistance? 2x 30€ beim Updaten vom UrFlashpoint aus sind aber eigentlich recht einprägsam. naja egal - BspBilder (Bilder aber dunkler als im Spiel):
http://rcswww.urz.tu-dresden.de/~fh468638/temp/Unbenannt1.jpg
http://rcswww.urz.tu-dresden.de/~fh468638/temp/Unbenannt2.jpg

Erhöhe doch mal den Gammawert, dann siehts auch so aus wie im Spiel ;)

MadManniMan
2003-04-07, 01:22:03
Originally posted by Frank
battlefield sieht in meinen augen schlechter aus. Evtl verwechselst du RedHammer mit Resistance? 2x 30€ beim Updaten vom UrFlashpoint aus sind aber eigentlich recht einprägsam. naja egal - BspBilder (Bilder aber dunkler als im Spiel):


ja, nee, hm...

da kommt dann a) der persönliche geschmack zu trage (worüber ich gewißnicht mit dir streiten möchte! ;) ) und b) das ständige diskutieren über irgendwelche features usw. ... da mir die engine von battlefield besser gefällt, erweckt sie anscheinend auch auf mein unterbewußtsein den 'passenderen' eindruck...

aber - wie gesagt - seis drum... belassen wir es dabei, daß du das anders siehst als ich und resistance performance frißt :D


/edit: nach dem zweiten mal durchlesen klappts ;) redhammer hab ich damals noch mit der k2 probiert, danach hatte ich die gf3!

MadManniMan
2003-04-07, 01:29:48
Originally posted by Piffan


Erhöhe doch mal den Gammawert, dann siehts auch so aus wie im Spiel ;)


hab ich halt einfach meinen moni heller gestellt :eyes:

Quasar
2003-04-07, 13:15:26
Sorry, daß ich so spät antworte...
(hab' mir erlaubt, die Aussagen zu nummerieren..)

Originally posted by aths
1 ... und taugen für "unsere" Zwecke nichts...
2 Die billigen Karten sind zu langsam für hochwertiges AF.
3 Radeon ab 9500 hat trotzdem besseres AA, und kostet zudem weniger.
4 Ist er das wirklich?
5 Davon ist auszugehen, ja. Aber ATIs Karten werden wohl nicht gerade schlechter sein.
6 Bei Radeon auch.
7 Wird es solche Spiele überhaupt geben? Wird es Spiele geben, die auf Radeon 9700 insgesamt schlechter aussehen, als auf NV30?
8 Bei der gebotenen Geschwindigkeit für unsere Zwecke irrelevant.
9 Das stimmt allerdings.
10 Na toll.
11 Ärgert mir bloß den SP nicht!
12 Zumindest die ersten FX-Treiber schienen katastrofal gewesen zu sein.

13 Vergleicht man die FX 5800 mit der GF4, so beeindruckt die FX. Vergleicht man sie mit Radeon 9700, beeindruckt die Radeon. Fällt es für einige wirklich sooo schwer zu sagen: "Die FX war ein Schuss in den Ofen"?

14 Vielleicht wird der NV35 ja besser. Die aktuelle Produktpalette ist imo für den normalen Spieler nicht zu empfehlen, weil es von der Konkurrenz besseres gibt.

ad1) Kennst du "Meine persönlichen Gründe..."?

ad2) Ja, ist das so?

ad3) Ja und nein. Besseres AF nur in der Beziehung, daß eine Gammakorrektur erfolgt, billiger im Sinne von Preiswerter sehe ich noch nicht.

ad4) Im Gegensatz zu 3,5"-Connectoren hatte ich bei 5,25"-Anschlüssen noch nie die Befürchtung, gleich die Pins mit aus dem PCB zu reissen..

ad5) Die der ATi-Karten vielleicht nicht, aber die c`t z.B. meint, daß einige Dritthersteller nicht empfehlenswert seien.

ad6) Ja, aber bei keiner DX9-fähigen.

ad7) Ja, Stalker wäre da ein Beispiel und bei dem Tammtamm, was um EA-Spiele gemacht wurde auf der CeBit, würde mich eine spezielle Anpassung derer Titel auch nicht wundern.

ad8) siehe Antwort zu 1)

ad9) Sagst du das nur aus Eigennutz? ;)

ad10) Ja, toll, oder? Dann weiss jeder, wie schick UT2003 mit 16xFSAA in 1280x1024 mit 8xAF aussehen kann....ob ich's dann wirklich mit den oftmals gepriesenen "all maxed" Settings spielen kann, oder doch wieder auf "something maxed" zurückschalte, wie einige andere Screenie-Poster hier, merkt ja keiner...

ad11) Na gut. Fällt mir aber schwer.. ;)

ad12) Schreibt man das Adjektiv zu Katastrophe jetzt mit "f"??? Wie widerlich!
Topic: Mag sein, mag aber auch nicht sein. Daß FSAA auf einigen Screenies nicht zu sehen war, lag dann im Nachhinein auch am Problem VOR dem Monitor...

ad13) Wenn es denn so ist, fällt mir das nicht schwer, wozu ich mich bislang aber höchstens hinreißen könnte, wäre ein "Die FX5800 ultra kann die hochgesteckten Erwartungen nur zum Teil erfüllen".

ad14) Zählst du zur aktuellen Palette auch schon die nV3x-Reihe (mit x<=4)?

Quasar
2003-04-07, 13:28:51
Originally posted by Radeonator
Wenn das Problem nun zwischen den Ohren des Anwenders oder im Zusammenspiel mit der HW/SW konfig liegt , was kann SiS dafür ???

Da stimme ich völlig mit dir überein, Radeonator. Wenn man die Augen (bekanntemaßen liegen sie optisch zwischen den Ohren, gelle?) ganz fest zudrückt, kann man über den TTex-Modus hinwegsehen.

Wenn man sie dagegen aufmachen und ihrem Zweck entsprechend nutzen will, muss man langfristig den TTex deaktivieren.
Und dann sinkt die Leistung der Karte auf ein Niveau, welches ich auch von einer Karte für 50€ bekomme.

Obligaron
2003-04-07, 13:45:35
1, per.. was? ^^

2, kommt drauf an was man unter "hochwertig" versteht... 8xAF application wird mit sicherheit nicht unbedingt gut in ut2k3 und geforceFX 5200 laufen.

3, wollt ihr euch jetzt wege den preisen zancken? o.O aber auf jeden fall bietet die radeon die besseren auswahlmöglichkeiten im bezug auf AA, weil man eben auch > 2x noch nehmen kann ohne schlechtes gewissen beim Leistungs/Qualitäts-Verhältnis

4, 5,25" ist schon stabile, aber MICH würde das sowieso nur unwesentlich beim kauf einer graka stören (also die frage ob jetzt 3,5" oder 5,25" stromanschluss.

5, tja die c't meint aber auch das einige nv hersteller "nicht empfehlenswert sind", somit kommen wir wieder zu der grundaussage von aths zurück: (ca.) gleichstand ;)

6, naja tackte halt ne 9500 soweit runter oder bau halt einen zalmann drauf. alles nur eine frage des machbaren. und wenn man sich eine geforce FX5200 kauft nur wiel man passiv UND mit Dx9 unterwegs sein will... da frägt man sich dann schon ^^ ...

7, we will see. vll aber wenn die hersteller so "blöd" sind und wirklich VIEL optimieren gehen sie halt das risiko ein das sich der käufer entscheiden muss: "graka oder game, graka oder game..." und für was er sich entscheidet ist ja mal ne andere frage

8, imho sowieso relativ irrelevant weil ihr mir erstmal zeigen müsst das ihr den unterschied seht wenn ich euch vor ein laufendes spiel hock (nicht screenshot) und selbst wenn ist der unterschied nichtmehr sonderlich gravierend

9, also Quasar das ist eine unterstellung ^^. aber man könnte es auch anders formulieren: "Haben Ati karten wirklich solche Tuner nötig?" *grins*

10, wichtig ist doch nur ob man es so wie es läuft für einen persönlich optimal ist, d.h. wenn einer halt 100 fps haben will, soll er die einstellungen nehmen unter der es noch läuft und gut ist. wenn ihm 50 reichen soll er halt die nehmen. deshalb ist an sich "all maxed" etwas schwachsinnig. man müsste eher sagen "soviel eingestellt das es noch mit 100fps im durchschnitt rennt"(jaja minimum fps und sonstwas mal weggelassen, wir wollen ja net zusehr ins detail)

11, hehe

12, joh das lag scheinbar am user

13, Reden wir jetzt von der 5800 Ultra oder von den kleinen? bei der ultra würde ich schon sagen das sie so nicht aktzeptabel ist. imho schon wegen der kühlung. bei den kleinen mal abwarten ...

14, gute frage quasar ^^

P.S: ich wollte einfach mal antworten. ich weiss das dies fast eine privat unterhaltung zwischen den beiden war, aber mich hat es halt gejuckt zu antworten

Endorphine
2003-04-07, 13:58:21
Originally posted by Obligaron
[...] naja tackte halt [...]Takt - takten - getaktet - übertakten. Alles wird nur mit "k" geschrieben.Originally posted by Obligaron
[...]da frägt man sich dann schon [...]Frage - fragen - gefragt - fragt. Alles mit einem "a".

Deutsch ist schon schwer ;)

Obligaron
2003-04-07, 14:01:53
Originally posted by Endorphine
Deutsch ist schon schwer ;)

Das stimmt *grins*. *überlegobedetier* nee doch lieber net edetieren.

mapel110
2003-04-07, 14:12:33
Originally posted by Endorphine
Takt - takten - getaktet - übertakten. Alles wird nur mit "k" geschrieben.Frage - fragen - gefragt - fragt. Alles mit einem "a".

Deutsch ist schon schwer ;)

:lol:

heut schon beyond3d gaylesen. da loost die 5600er ultra derbst ab. die wird da von ner 4200er verprügelt. =(
http://www.beyond3d.com/previews/nvidia/nv31/
soviel zur produktpalette nv's. :stareup:

Radeonator
2003-04-07, 14:43:20
Originally posted by Quasar


Da stimme ich völlig mit dir überein, Radeonator. Wenn man die Augen (bekanntemaßen liegen sie optisch zwischen den Ohren, gelle?) ganz fest zudrückt, kann man über den TTex-Modus hinwegsehen.

Wenn man sie dagegen aufmachen und ihrem Zweck entsprechend nutzen will, muss man langfristig den TTex deaktivieren.
Und dann sinkt die Leistung der Karte auf ein Niveau, welches ich auch von einer Karte für 50€ bekomme.

:zzz:

Blah,Blah...Nvidia macht also alles Super und alle anderen bauen Sh1c3...hmmm, wie nennt man Leute die soetwas behaupten ;)

Zu deiner Pro FX Argumentation :
1. Ja, hauptsache du hast Recht...
2. Die neuen NV Karten unter 100€uro (welche sollen das sein? Die 5200 wird derzeit mit 129€u gehandelt) willst du also mit hohen AF Niveau benutzen können, :lol: die 5200er wird der Nachfolger der GF4 MX 420 ...
3. ...
4. tolles Argument...
5. Achso, bei NV Karten gabs ja nie sehr starke variationen mit SQ/BQ/TV-Out Quali etc. ;D
6. Ach ja, selbst eine OCte 9700Pro lässt sich mit Zahlmann Passiv Kühlen, also schreib keinen Müll...
7. Kewl, du hast die Final schon (das Spiel soll irgendwann 2004 Erscheinen, bisa dahin wird noch das ein oder andere Stück HW kommen) und bist also im Dev Team bei Stalker? Bis jetzt gab es nur einen angeblichen Dev Thread, aber wenns dir passt sind sicherlich auch solche Quellen 100% trust worthy , gelle...
8. siehe 1
9. - 11. Kein verwendbarer Inhalt...
12. Netter Versuch...
13. Natürlich fällt es dir schwer, dazu müsstest du auch neutral auf die Sache schauen...
14. Hmmm, so schwer ist das nicht zu verstehen, ausser man will es nicht verstehen...

Endorphine
2003-04-07, 15:00:33
Originally posted by mapel110
:lol:

heut schon beyond3d gaylesen. da loost die 5600er ultra derbst ab. die wird da von ner 4200er verprügelt. =(
http://www.beyond3d.com/previews/nvidia/nv31/
soviel zur produktpalette nv's. :stareup::rofl:
Der Konkurrent der 5600er werden die 9600er sein. Und mit denen liefern sie sich aller Vorraussicht nach ein Kopf-an-Kopf Rennen, wobei ich aus den jetzt schon bekannten Daten die 5600er vorne sehe.

Die Konkurrenz der 5600er sind weder 9500er noch GF4Ti.

Quasar
2003-04-07, 15:37:15
Originally posted by Radeonator
:zzz:

Blah,Blah...Nvidia macht also alles Super und alle anderen bauen Sh1c3...hmmm, wie nennt man Leute die soetwas behaupten [smilie wg. Foren-Limit entfernt]
Das, was ich gepostet habe (und worauf du dich beziehst) hat nichts mit nVIDIA zu tun, FYI. Es geht um die, per default beschissene Textur- und Mip-Mapping Qualität der SiS-Xabre-Treiber, die leider, wenn man ihnen per Registry einen brauchbaren Filteralgo abnötigt, i.A. auf ein nahezu unterirdisches Leistungsniveau einbrechen.

Leute, die behaupten, "Nvidia macht also alles Super und alle anderen bauen Sh1c3" nennt man nVidiots.


Originally posted by Radeonator
Zu deiner Pro FX Argumentation :
1. Ja, hauptsache du hast Recht...
2. Die neuen NV Karten unter 100€uro willst du also mit hohen AF Niveau benutzen können, :lol: die 5200er wird der Nachfolger der GF4 MX 420 ...
3. ...
4. tolles Argument...
5. Achso, bei NV Karten gabs ja nie sehr starke variationen mit SQ/BQ/TV-Out Quali etc. [smilie wg. Foren-Limit entfernt]
6. Ach ja, selbst eine OCte 9700Pro lässt sich mit Zahlmann Passiv Kühlen, also schreib keinen Müll...
7. Kewl, du hast die Final schon (das Spiel soll irgendwann 2004 Erscheinen, bisa dahin wird noch das ein oder andere Stück HW kommen) und bist also im Dev Team bei Stalker? Bis jetzt gab es nur einen angeblichen Dev Thread, aber wenns dir passt sind sicherlich auch solche Quellen 100% thrust worthy , gelle...
8. siehe 1
9. - 11. Kein verwendbarer Inhalt...
12. Netter Versuch...
13. Natürlich fällt es dir schwer, dazu müsstest du auch neutral auf die Sache schauen...
14. Hmmm, so schwer ist das nicht zu verstehen, ausser man will es nicht verstehen...

Entschuldige, wenn ich dir nicht alle Punkte noch einmal einzeln darlege...

ad1) Meine persönlichen Gründe haben nichts mit "Ich habe recht" zu tun, lieber Radeonator, sondern damit, für unter 100€ einen Einblick in die CineFX-Technologie, auf DirectX9 und auf die Filteroptimierungen zu bekommen, die nVIDIA mit der GeForce FX eingeführt hat. Dafür reicht auch eine FX5200 ohne ultra. Das nur zu meinen Gründen.

ad2) Es gibt durchaus Games, die sich mittels 8xAppAF gehörig aufwerten lassen, ohne unspielbar zu werden. Weder eine GeForce4 MX noch irgendeine ATi-Karte sind dazu in der Lage.

ad3) Kein passender Flame eingefallen??

ad4) Ja, finde ich auch. Für Joe Gamer vielleicht nicht so wichtig, aber wenn man die Grakas öfter wechselt als andere Leute ihre Unterhosen, ist mechanische Stabilität auch ein Kriterium. Und wie schon erwähnt, dreht sich meine Argumentation um die Ansprüche, die für micht (in meiner Eigenschaft als egozentrisches Arschloch) wichtig sind.

ad5) Behaupte ich das???

ad6) Was welche Bastler sich ausdenken, um ihre Lüfter loszuwerden interessiert nicht. Ab Werk gibt es bislang nur FX5200 in der DX9-Generation passiv gekühlt.
Meine R9700p produziert trotz aktiver Stock-Kühlung Bildfehler, wenn sie eine Karte in PCI-I vorgesetzt bekommt. Soviel dazu, daß ich Müll schriebe (wenn's dir nicht gefällt -> Klick! (http://www.forum-3dcenter.org/vbulletin/member2.php?s=&action=addlist&userlist=ignore&userid=731))

ad7) Informiere dich mal. Es gab bei 3D-GPU mittlerweile drei Äußerungen der Stalker-Jungs.

ad8) siehe 1

ad9-11) Schade, schon wieder nix zum flamen gefunden, Radeonator?

ad12) Ja, gut, oder? Ich glaub' ich such' nochmal in dem alten Thread hier, wer da am lautesten rumgeheult hat...

ad13) Was ist an meiner Aussage nicht neutral? Da ich noch keine FX5800 ultra habe, kann ich bei halbwegs neutralem Anspruch an mich selbst bislang noch gar keine andere Aussage treffen.

ad14) Da ich keine Gedanken lesen kann, frage ich nach, wenn etwas für mich unklar ist. Vielleicht hast du mir dahingehend ja ein paar paranormale Eigenschaften voraus.

So, jetzt habe ich doch auf alle deine Punkte geantwortet und bin dabei sogar sachlich geblieben und musst mich nicht mangels Argumenten auf billige Anmachen und halbseidene Beleidigungen stützen. :)

zeckensack
2003-04-07, 15:44:05
Originally posted by Endorphine
:rofl:
Der Konkurrent der 5600er werden die 9600er sein. Und mit denen liefern sie sich aller Vorraussicht nach ein Kopf-an-Kopf Rennen, wobei ich aus den jetzt schon bekannten Daten die 5600er vorne sehe.

Die Konkurrenz der 5600er sind weder 9500er noch GF4Ti. Warum roflst du?
Ich denke das Review beweist ausdrücklich Punkt 14. Und es beweist auch noch etwas anderes ... nämlich:
Der NV31 hat nur 2 Pipes.

Für den finalen Satz bedarf es einiger Vorrede *hust*
Ich habe ja wirklich versucht die ganze Sache 'neutral' anzugehen. Zuerst fand ich die 5800 Ultra aufgrund ihrer Kühllösung unattraktiv, aber ansonsten recht spannend. Man konnte ja noch auf die non-Ultra bauen. Dann kamen die eindeutigen Meßergebnisse: NV30 ist ein 4x2-Design, die einzige relevante Änderung ggü NV25 sind die 'draufgeklebten' FP16-Einheiten und die teilweise Nutzbarkeit der Multisample-Z/Stencil-Einheiten für's non-AA-Rendering. Ernüchterung pur.

Also mal auf NV31 schauen. Eindeutig ein 2x2-Design. Selbst die Ultra-Variante kann nicht gegen die alte Mainstream-Lösung aus gleichem Hause anstinken - dafür bräuchte man schon 500MHz Takt, es sind aber nur 350MHz geworden. Quatsch mit Sauce.
Wenn ich jetzt mal spekulieren darf, wie der NV34 aufgebaut ist, dann isses ein 1x2, also mit Verlaub total unzulänglicher Schrott. Sogar die MX420 wäre ein unbezwingbarer Gegner für dieses ... Ding.

So, jetzt kommts:
Die NV3x-Reihe (mit x<5) ist - IMO und nach Bewertung aller mir zugänglichen Fakten - die größte Fehlkonstruktion die NV jemals abgeliefert hat.

Und weil's so schön paßt, jetzt mal ein paar Worte zum Mitbewerb:
Der RV350 kann bezogen auf Füllrate und PS-Leistung bei gleichem Takt nicht langsamer sein als der NV31. Das ist völlig ausgeschlossen. Die Relation der Geometrieleistung wird man beobachten müssen, ab einem gewissen Grundlevel ist dies für Spiele jedoch völlig irrelevant.
Im Low End reicht der RV250 @ 200MHz locker aus, um den NV34 zu plätten, nachteilig wären hier der fehlende DX9-Support und das schlechtere AA/AF. Ist aber korrigierbar: 9600 non-Pro wird den NV34 in den Boden stampfen.

Konkurrenzfähig ist einzig der NV30 auf hohen Taktraten. Dieser übertrifft doch tatsächlich unter Umständen (application driven deferred shading) teilweise die Füllrate pro Takt des R300. Bei Dual/Quad/Hexa/Octa-Texturing ist die Füllrate pro Takt exakt gleich, bei ungeraden Texturenanzahlen ist das 8x1-Design des R300 effizienter als das 4x2 des NV30.
Natürlich taktet der NV30 bis zu 50% höher, ist also in der Summe schneller.
Dieser Vorteil wird sofort wieder aufgefressen, und verwandelt sich in einen handfesten Nachteil, wenn man echte DX9-Shader einsetzt (FP32 => 2 Takte pro Op). CineFX my ass.

Jedwede Konkurrenzfähigkeit des NV30 schwindet allerdings sofort dahin, wenn man AA (edit: >2x) benutzen möchte.

Beim Featureset sehe ich im Moment nur noch zwei Pluspunkte für NV3x, die mir persönlich völlig schnurz sind, die aber der Vollständigkeit halber erwähnt werden müssen:
1)Längere Shader
2)Application-AF


PS: Mir ist bewußt daß meine Betrachtungen arg theoretischer Natur sind. Treibereffizienz ist nicht Teil meiner Rechnung. Jedoch gibt die Theorie immer ein verwertbares 'oberstes Limit an', und ich halte das für eine angemessene Grundlage, wenn man über Grafikchips reden will.

Exxtreme
2003-04-07, 15:50:35
Full Ack @ zecke

Endorphine
2003-04-07, 15:55:17
Originally posted by zeckensack
[...]
Die NV3x-Reihe (mit x<5) ist - IMO und nach Bewertung aller mir zugänglichen Fakten - die größte Fehlkonstruktion die NV jemals abgeliefert hat.Interessante Sicht auf die Dinge. Den NV34 würde ich aber nicht in ein ganz so schlechtes Licht rücken. Der ist IMHO nämlich eine echte Preis-Leistungs Granate und ein echter Fortschritt im Mainstream/low-cost Segment.

Alle modernen Features, für ein gelegentliches Spiel aktueller Spiele vollkommen ausreichend und das zu einem sehr niedrigen Preis. Die non-ultra Version ist sogar passiv kühlbar.

Quasar
2003-04-07, 16:02:15
Originally posted by zeckensack
Ich denke das Review beweist ausdrücklich Punkt 14. Und es beweist auch noch etwas anderes ... nämlich:
Der NV31 hat nur 2 Pipes.


IMO nicht. Die Pixellfüllrate wird bei B3D mit 1053,xx MPps angegeben. Das würde bei einem 2-Pipe-Design und 100% Effizienz schon einen Chiptakt von 525MHz erfordern.

edit:
Im Gegentum hat mich das B3D-Review überzeugt, dass der nV31 eher ein Schritt in die Zukunft ist. Ein nV30-Design, bei dem die zusätzlichen Z-/Stencil-Einheiten abgeknipst wurdem, bei dem die Legacy-Einheiten entfernt wurden, um Platz zu schaffen und alles von den "neuen Pipes" emuliert wird.
Dass da einiges an altem Zeugs langsamer läuft, dürfte nach den nV30-Ergebnissen nicht weiter verwundern.

edit2:
Bei einem 2x2-Design müsste die FX5600u ausserdem im 3texturigen Villagemark deutlich weiter hinten liegen. So kann sie bei gleicher Pipeanzahl ihre fehlende 2te TMU durch den höheren Takt nahezu wieder ausgleichen. Und im GL_EXT_reme liegt sie (Single-Texturing?) teils deutlich vor der Ti4200.

zeckensack
2003-04-07, 16:16:03
Originally posted by Quasar


IMO nicht. Die Pixellfüllrate wird bei B3D mit 1053,xx MPps angegeben. Das würde bei einem 2-Pipe-Design und 100% Effizienz schon einen Chiptakt von 525MHz erfordern. Ich hätte mir dazu in der Tat gerne einen brauchbaren Füllraten-Test gewünscht. 2x2 ist ein Rückschluss aus dem (gemessenen!) 4x2 des NV30. Denkbar ist, daß B3D mit 4x1 gerechnet haben, oder es tatsächlich so ist - was an der Leistungseinordnung jedoch kaum etwas ändern kann.

Zur 'realen' Füllrate, gemessen in einer 'klassischen' Engine, schlage ich diese Grafik als Anhaltspunkt vor:
http://www.beyond3d.com/previews/nvidia/nv31/chart/image010.gif
(Quelle (http://www.beyond3d.com/previews/nvidia/nv31/index.php?p=10))

Zur Rechnung:
Der NV25@250MHz hat eine theoretische Füllrate von 1GPix/s. Davon setzt er in RTCW ca 16% in 'real world'-Füllrate um. Wobei die Füllratenlimitierung nicht ganz lupenrein ist.
Die FX5600U@350MHz kommt im Vergleich auf ca 60% der 'real world'-Füllrate. Hier ist die Limitierung sehr klar.

Taktnormalisiert erreicht der NV31 43% der Leistung des NV25. Beim NV25 limitiert in den gefahrenen Auflösungen noch nicht absolut die Füllrate, also könnten es auch glatt 50% sein. => 2x2 oder 4x1

Hätte NV31 ein 4x1-Design, wäre von erhöhter Effizienz ggü NV25 auszugehen (ie >=50%). Daß dies nicht der Fall ist, werte ich als weiteres Indiz für die 2x2-These.

Iceman346
2003-04-07, 16:17:13
Originally posted by Endorphine
Interessante Sicht auf die Dinge. Den NV34 würde ich aber nicht in ein ganz so schlechtes Licht rücken. Der ist IMHO nämlich eine echte Preis-Leistungs Granate und ein echter Fortschritt im Mainstream/low-cost Segment.

Alle modernen Features, für ein gelegentliches Spiel aktueller Spiele vollkommen ausreichend und das zu einem sehr niedrigen Preis. Die non-ultra Version ist sogar passiv kühlbar.

Huh? Preis/Leistungsgranate? Wo denn bitte. Die für 100€ angekündigte 5200 NonUltra ist bedeutend langsamer als die Konkurrenz in dem Preisbereich (Radeon 9000, GF4 MX440 etc.) und die Ultra ist viel zu teuer und (ausser AA Performance) grade mal einer 8500 gleichwertig.

Radeonator
2003-04-07, 16:20:09
@Quasar : Ich habe nirgendwo geflamed und deine subtile Art zu Beleidigen finde ich da schon eher in diese Richtung gehend...

Die 5200er Kostet 129€uro, warum überliest du solche kleinen Details einfach ? Also nix ists, mit ner Karte unter 100Euro, ausser du meinst die GF4MX , welche aber ein DX7 Design darstellt... Ach ja Beweise : Klick (http://www.kmelektronik.de/root/shop4/auswahl.php?ArtNr=4020)

Es gibt also keine Retail Karte von ATi mit passiv Kühlung...KlickHier (http://www.ocsystem.com/videocard.html) oder hier (http://www.sapphiretech.de/)

Vielleicht solltest du dich erstmal bei jemanden fragen, der sich damit auskennt...

Quasar
2003-04-07, 16:27:14
Originally posted by zeckensack
Ich hätte mir dazu in der Tat gerne einen brauchbaren Füllraten-Test gewünscht. 2x2 ist ein Rückschluss aus dem (gemessenen!) 4x2 des NV30. Denkbar ist, daß B3D mit 4x1 gerechnet haben, oder es tatsächlich so ist - was an der Leistungseinordnung jedoch kaum etwas ändern kann.

Ich gehe doch gar nicht davon aus, wie B3D gerechnet hat, sondern vom Pixelfüllratentest des 3DMark2001 (http://www.beyond3d.com/previews/nvidia/nv31/index.php?p=5).
Wie sollen da 10xx MPix/s rauskommen, wenn der nV31 nur ein 2Pipe-Design hat, zumal das 4x2-Design des nV30 gerade in diesem Test mit als erstes indiziert wurde.


RTCW ist darüberhinaus auch eher ein Beispiel für den "edit", den ich noch meinem Posting hinzugefügt habe. Wenn der nV31 alle in dieser Q3-Engine vorkommende Grafik emulieren muss, ist die resultierende Leistung nicht überraschend.

Exxtreme
2003-04-07, 16:33:10
Originally posted by Quasar

Ich gehe doch gar nicht davon aus, wie B3D gerechnet hat, sondern vom Pixelfüllratentest des 3DMark2001 (http://www.beyond3d.com/previews/nvidia/nv31/index.php?p=5).
Wie sollen da 10xx MPix/s rauskommen, wenn der nV31 nur ein 2Pipe-Design hat, zumal das 4x2-Design des nV30 gerade in diesem Test mit als erstes indiziert wurde.

Hmm, es kann sein, daß sich das Teil bei Single Texturing wie ein 4x1-Design verhält. Das war beim NV30 AFAIK ähnlich.

Quasar
2003-04-07, 16:35:00
Originally posted by Radeonator
@Quasar : Ich habe nirgendwo geflamed und deine subtile Art zu Beleidigen finde ich da schon eher in diese Richtung gehend...

- Blah,Blah...Nvidia macht also alles Super und alle anderen bauen Sh1c3...hmmm, wie nennt man Leute die soetwas behaupten
- Ach ja, selbst eine OCte 9700Pro lässt sich mit Zahlmann Passiv Kühlen, also schreib keinen Müll...

Dazu noch einige "nette" Subtilitäten deinerseits.

Originally posted by Radeonator
Die 5200er Kostet 129€uro, warum überliest du solche kleinen Details einfach ? Also nix ists, mit ner Karte unter 100Euro, ausser du meinst die GF4MX , welche aber ein DX7 Design darstellt... Ach ja Beweise : Klick (http://www.kmelektronik.de/root/shop4/auswahl.php?ArtNr=4020)

Es gibt also keine Retail Karte von ATi mit passiv Kühlung...KlickHier (http://www.ocsystem.com/videocard.html) oder hier (http://www.sapphiretech.de/)

Vielleicht solltest du dich erstmal bei jemanden fragen, der sich damit auskennt...
Es gibt verlässliche Preisangaben unterhalb von 100€.

Deine Retail-Karte von ATi ist von OC-sonstwas, aber meinetwegen. Es gibt passiv kühlbare Radeons, zufrieden?
Sobald das Kunststück dann auch ohne Verlust der Spec hinzukriegen ist, wird das interessant für mein Arbeitssystem. Ausserdem fallen mir da diverse Slot-Mainboards ein, die mit dem dicken Buckel auf dem Rücken gar nicht zurechtkommen würden (ob eine FX dort passt, kann ich noch nicht sagen).

Wen würdest du denn empfehlen, der sich "mit sowas" auskennt?

zeckensack
2003-04-07, 16:36:39
Originally posted by Quasar

Ich gehe doch gar nicht davon aus, wie B3D gerechnet hat, sondern vom Pixelfüllratentest des 3DMark2001 (http://www.beyond3d.com/previews/nvidia/nv31/index.php?p=5).
Wie sollen da 10xx MPix/s rauskommen, wenn der nV31 nur ein 2Pipe-Design hat, zumal das 4x2-Design des nV30 gerade in diesem Test mit als erstes indiziert wurde.Okay, das ist ein sehr gutes Argument. 4x1 :)

RTCW ist darüberhinaus auch eher ein Beispiel für den "edit", den ich noch meinem Posting hinzugefügt habe. Wenn der nV31 alle in dieser Q3-Engine vorkommende Grafik emulieren muss, ist die resultierende Leistung nicht überraschend. Für RTCW kann ich (trotz 4x1) meine These halten. NV31 ist pro Takt ~halb so schnell wie NV25, und das deckt sich mit den Erwartungen bzgl Architektur. Ob du nun richtig liegst oder nicht, weiter optimierbar ist da nichts mehr - jedenfalls nicht mehr als 5% oder so.

edit: Dazu müsste man nun eigentlich wissen, wieviel Texturen RTCW im Schnitt benutzt. Ich gehe einfach mal von 2 Texturen für die überwiegende Anzahl an Pixeln aus (Base*Light => klassisch Q3A).

Quasar
2003-04-07, 16:38:15
Originally posted by Exxtreme

Hmm, es kann sein, daß sich das Teil bei Single Texturing wie ein 4x1-Design verhält. Das war beim NV30 AFAIK ähnlich.

IIRC nicht, denn die niedrige Pixelfüllrate beim ST-Test des 3DMark2001 SE brachte doch erst die Leute dazu, dem Design mal näher auf den Grund zu gehen. Zuerst hieß es ja immer noch "Speicherbandbreite limitiert". Guckst du hier. (http://www.beyond3d.com/previews/nvidia/gffxu/index.php?p=5)

Quasar
2003-04-07, 16:41:13
Originally posted by zeckensack
Für RTCW kann ich (trotz 4x1) meine These halten. NV31 ist pro Takt ~halb so schnell wie NV25, und das deckt sich mit den Erwartungen bzgl Architektur. Ob du nun richtig liegst oder nicht, weiter optimierbar ist da nichts mehr - jedenfalls nicht mehr als 5% oder so.
Das das in RTCW so ist, bestreite ich ja gar nicht :), aber da gerade RTCW als relativ CPU-limitiert gilt: Wieso wählst du gerade dieses Beispiel aus?
UT2003 Flyby ist auch ein ziemlich guter Graka-Test, ausser der Füllrate fiele mir da nicht viel ein, was eine Ti4200 dort zurückhalten sollte?

edit 0,5:
:bonk: Ich seh' grad, daß es in UT2003 auch nicht anders ist, wohl aber in SeSam SE...komisch.


edit:
AFAIK ist bei den meisten moderneren Ablegern von Quake3 mindestens noch eine Detail-Textur mit dabei. Base, Detail, Light; dazu noch zusätzliche Dirtmaps und Special-Effects.

mapel110
2003-04-07, 16:46:03
Originally posted by Quasar
Ausserdem fallen mir da diverse Slot-Mainboards ein, die mit dem dicken Buckel auf dem Rücken gar nicht zurechtkommen würden (ob eine FX dort passt, kann ich noch nicht sagen).


http://soundmark.net/images/nv30/nv30f-desktop.jpg

das ding passt doch überall rein :D

Radeonator
2003-04-07, 16:46:46
Originally posted by Quasar


- Blah,Blah...Nvidia macht also alles Super und alle anderen bauen Sh1c3...hmmm, wie nennt man Leute die soetwas behaupten
- Ach ja, selbst eine OCte 9700Pro lässt sich mit Zahlmann Passiv Kühlen, also schreib keinen Müll...

Dazu noch einige "nette" Subtilitäten deinerseits.


Es gibt verlässliche Preisangaben unterhalb von 100€.

Deine Retail-Karte von ATi ist von OC-sonstwas, aber meinetwegen. Es gibt passiv kühlbare Radeons, zufrieden?
Sobald das Kunststück dann auch ohne Verlust der Spec hinzukriegen ist, wird das interessant für mein Arbeitssystem. Ausserdem fallen mir da diverse Slot-Mainboards ein, die mit dem dicken Buckel auf dem Rücken gar nicht zurechtkommen würden (ob eine FX dort passt, kann ich noch nicht sagen).

Wen würdest du denn empfehlen, der sich "mit sowas" auskennt?

Ja Mensch und auf 486er Passen diese AGP Karten auch nicht...
Tolles Posting, frei nach "Wenn man keine Argumente hat, da bastelt man sich welche"

p.s.: Der 2te Link führt dich auch die Sapphire HP, die haben dann ja auch nichts mit ATi Retail Karten zu tun, stimmts...ach so, mal wieder absichtlich übersehen, weil es deine tolle Argumentationsweise nicht unterstützt.

Quasar
2003-04-07, 16:48:38
Nein, Radeonator.

Schon vergessen:
"Es gibt passiv kühlbare Radeons, zufrieden?"

Da du dich ja selber darüber aufgeregt hast, daß manche nur lesen, was sie lesen wollen, geh' ich einfach mal davon aus, dass dir das entgangen sein muss.

edit:
Ach ja, FYI (und damit es nicht heißt, ich beleidige subtil):
Es gibt keine 486er mit AGP-Slot.
Vielleicht solltest du dich erstmal bei jemanden fragen, der sich damit auskennt...


edit2:
Auf dein "Blabla" reagiere ich einfach mal nicht weiter.... vielleicht kommt dann auch noch was raus, bei diesem Thread.

Quasar
2003-04-07, 16:50:15
Originally posted by mapel110


http://soundmark.net/images/nv30/nv30f-desktop.jpg

das ding passt doch überall rein :D
:rofl:
Naja....ob ich dafür ein Shuttle-Dingens aufgesägt hätte... ?

Was ich meinte, war die Rückseite, die bei beiden (passiv gekühlter Radeon und GFFX 5800u) zuwenig Platz zu einer Slot-CPU liesse.

Obligaron
2003-04-07, 17:34:44
*amkopfkratz*
ich weiss warum alle flamen, da reagiert wenigstens jemand auf seine post *trübseligwerd*. wenn man "gescheit" schreibt und argumentiert würden sich ja alle viel zu schnell einig und man hätte garnichtsmehr zum lesen/schreiben. ich versteh ... *ineckestell*

Demirug
2003-04-07, 17:38:14
Originally posted by zeckensack

Für den finalen Satz bedarf es einiger Vorrede *hust*
Ich habe ja wirklich versucht die ganze Sache 'neutral' anzugehen. Zuerst fand ich die 5800 Ultra aufgrund ihrer Kühllösung unattraktiv, aber ansonsten recht spannend. Man konnte ja noch auf die non-Ultra bauen. Dann kamen die eindeutigen Meßergebnisse: NV30 ist ein 4x2-Design, die einzige relevante Änderung ggü NV25 sind die 'draufgeklebten' FP16-Einheiten und die teilweise Nutzbarkeit der Multisample-Z/Stencil-Einheiten für's non-AA-Rendering. Ernüchterung pur.

Ich habe schonmal gefragt. Wo ist dieser Test der Nachweist das bei 4xAA das mit den 8 Z-Pixel pro Takt nicht mehr funktioniert? Ich habe da eben immer noch eine andere Theorie als du und ich wüsste gerne welche stimmt.

Konkurrenzfähig ist einzig der NV30 auf hohen Taktraten. Dieser übertrifft doch tatsächlich unter Umständen (application driven deferred shading) teilweise die Füllrate pro Takt des R300. Bei Dual/Quad/Hexa/Octa-Texturing ist die Füllrate pro Takt exakt gleich, bei ungeraden Texturenanzahlen ist das 8x1-Design des R300 effizienter als das 4x2 des NV30.
Natürlich taktet der NV30 bis zu 50% höher, ist also in der Summe schneller.
Dieser Vorteil wird sofort wieder aufgefressen, und verwandelt sich in einen handfesten Nachteil, wenn man echte DX9-Shader einsetzt (FP32 => 2 Takte pro Op). CineFX my ass.

Stimmt nach dem was man derzeit so weiss ja alles. Aber wer spielt heute noch mit einfach nur bi gefilterten Texturen?

Also Tri ist doch IMHO eigentlich schon mal das Minimum. Bei den TMUs ist es dann schon mal vollkommen egal ob nun 8*1 oder 4*2.

Bei den DX9-Shadern kommt es dann wirklich darauf an ob diese Texturelastig oder Rechenlastig sind. Beim R300 das ganze pro Phase dem NV30 ist das egal. Je stärker die Rechenlastigkeit (bei voller genauigkeit) wird desto besser wird der R300 aussehen. Nur bei den anforderunge die heute bezüglich AF gestellt werden muss man schon eine ganze menge reine Rechenoperationen im Shader haben um einen Rechenlastigen Shader zu bekommen. Aber sei dir sicher NVIDIA wird die Entwickler schon bearbeiten das sie auch immer schön pp an die Pixelshaderanweisungen schreiben.

zeckensack
2003-04-07, 18:02:03
Originally posted by Demirug
Ich habe schonmal gefragt. Wo ist dieser Test der Nachweist das bei 4xAA das mit den 8 Z-Pixel pro Takt nicht mehr funktioniert? Ich habe da eben immer noch eine andere Theorie als du und ich wüsste gerne welche stimmt.Spekulation.
Jemand mit NV30 (habt ihr eure schon? Pitchfork fragen?) möge bitte Archmark mit 4xMS laufen lassen und auf die Stencil-Füllrate schauen.
Man beachte: kombinierter Z/Stencil-Fill ist bereits ab 2xMS auf NV30 bandbreitenlimitiert (32 Bit*4 Pipes*2/Takt=256 Bit/Takt), wodurch diese Frage eh an Bedeutung verliert. Gerade deswegen wäre ein Design mit acht Einheiten Transistoren-Verschwendung. Meine Annahme geht aus diesem Grund in die andere Richtung.

Als richtig krasse Doom-Optimierung wäre allerdings ein Design mit 4 Z-Einheiten, aber 8 Stencil-Einheiten denkbar. Wenn dem so wäre, dann könnten wir es leider nicht nachmessen.

Quasar
2003-04-07, 18:11:18
Originally posted by Obligaron
1, per.. was? ^^
Persönliche... ;)
Ist mittlerweile wohl beantwortet, oder?

Originally posted by Obligaron
2, kommt drauf an was man unter "hochwertig" versteht... 8xAF application wird mit sicherheit nicht unbedingt gut in ut2k3 und geforceFX 5200 laufen.
Richtig. Aber manche Spiele wird's geben (bzw. gibt's), bei denen der Einbruch zu verkraften ist, und da finde ich's gut, auch diesen leistungsfressenden Modus zur Wahl zu haben.

Originally posted by Obligaron
3, wollt ihr euch jetzt wege den preisen zancken? o.O aber auf jeden fall bietet die radeon die besseren auswahlmöglichkeiten im bezug auf AA, weil man eben auch > 2x noch nehmen kann ohne schlechtes gewissen beim Leistungs/Qualitäts-Verhältnis
Jein. Sicher, die Radeon ist, was FSAA angeht, überlegen, punkt aus. :)
Nur besteht eine Karte, zumindest IMO, nicht nur aus FSAA.

Originally posted by Obligaron
4, 5,25" ist schon stabile, aber MICH würde das sowieso nur unwesentlich beim kauf einer graka stören (also die frage ob jetzt 3,5" oder 5,25" stromanschluss.
Ack. Ich schrieb' ja auch schon, daß ich evtl. etwas andere Prioritäten habe, als andere....

Originally posted by Obligaron
5, tja die c't meint aber auch das einige nv hersteller "nicht empfehlenswert sind", somit kommen wir wieder zu der grundaussage von aths zurück: (ca.) gleichstand ;)
Richtig. Bei den "Built Bys" ist wohl Gleichstand. Mal schauen, wie's dann bei den Drittherstellern ausschaut. Jedenfalls ist die SQ pauschal auch kein Argument mehr, gegen nV.

Originally posted by Obligaron
6, naja tackte halt ne 9500 soweit runter oder bau halt einen zalmann drauf. alles nur eine frage des machbaren. und wenn man sich eine geforce FX5200 kauft nur wiel man passiv UND mit Dx9 unterwegs sein will... da frägt man sich dann schon ^^ ...
"^^" Was heisst das?
Ich habe momentan eine Bürokarte (G400) drin, weil ich damit arbeite. Die Radeon9000, die ich damals hatte, war leider nicht passiv gekühlt und machte "Krach". Die Option, nicht immer den Test-PC anwerfen zu müssen, wenn ich mal etwas mehr als Solitär will (i.e. ein paar DX9-Samples probieren) wäre schon nett.

Originally posted by Obligaron
7, we will see. vll aber wenn die hersteller so "blöd" sind und wirklich VIEL optimieren gehen sie halt das risiko ein das sich der käufer entscheiden muss: "graka oder game, graka oder game..." und für was er sich entscheidet ist ja mal ne andere frage
Richtig, wir werden sehen. Aber falls es zu solcherlei Optimierungschosen kommt, denke ich, daß nVidia da ein wenig weiter den Fuss in der Tür hat. (Siehe aktuelle Stalker-Berichte auf 3DGPU.com und den Thread zu "Splinter Cell" hier im Forum)

Originally posted by Obligaron
8, imho sowieso relativ irrelevant weil ihr mir erstmal zeigen müsst das ihr den unterschied seht wenn ich euch vor ein laufendes spiel hock (nicht screenshot) und selbst wenn ist der unterschied nichtmehr sonderlich gravierend
Sehen wird man den Unterschied wohl nur, wenn ein Demo speziell darauf ausgelegt ist. IMO genauso den Unterschied zwischen fp16 und fp24.
Alles eine Frage der Programmierung.

Originally posted by Obligaron
9, also Quasar das ist eine unterstellung ^^. aber man könnte es auch anders formulieren: "Haben Ati karten wirklich solche Tuner nötig?" *grins*
Teilweise ja. OC ist im Treiber nicht drin, HierZ "forcen" geht auch nur per Registry. Ansonsten sind die Möglichkeiten sowohl des CP als auch des Detos eigentlich ausreichend, wenn man nicht sehr spezielle Dinge machen will (ColorCompression oder alternative AA-Modi).

Originally posted by Obligaron
10, wichtig ist doch nur ob man es so wie es läuft für einen persönlich optimal ist, d.h. wenn einer halt 100 fps haben will, soll er die einstellungen nehmen unter der es noch läuft und gut ist. wenn ihm 50 reichen soll er halt die nehmen. deshalb ist an sich "all maxed" etwas schwachsinnig. man müsste eher sagen "soviel eingestellt das es noch mit 100fps im durchschnitt rennt"(jaja minimum fps und sonstwas mal weggelassen, wir wollen ja net zusehr ins detail)
Hehehe..... Das hat viele aber auch nicht davon abgehalten, mit Screenies in 1600 "all maxed" zu protzen.
BTW, hast du den ";)" gesehen?


Originally posted by Obligaron
11, hehe

12, joh das lag scheinbar am user

13, Reden wir jetzt von der 5800 Ultra oder von den kleinen? bei der ultra würde ich schon sagen das sie so nicht aktzeptabel ist. imho schon wegen der kühlung. bei den kleinen mal abwarten ...
Ich rede von der GeForce FX. Je nach Bedarf wechsle ich dabei zwischen den Versionen hin und her. Primär ist für mich erstmal der Funktionsumfang, sekundär die Performance.
Wie "disqualifizierend" der Fön ist, mag ich noch nicht beurteilen, da ich das Ding bisher nur im CeBIT-Lärm gehört habe.

Originally posted by Obligaron
14, gute frage quasar ^^
Danke. :) Bei aths weiß ich's wirklich nicht....

Originally posted by Obligaron
P.S: ich wollte einfach mal antworten. ich weiss das dies fast eine privat unterhaltung zwischen den beiden war, aber mich hat es halt gejuckt zu antworten
...und bist prompt mit deiner differenzierten Meinung ignoriert worden. Sorry!!! (aber irgendwie juckte mich die Art der anderen Antworten mehr in den Fingern.)

Demirug
2003-04-07, 18:12:11
Originally posted by zeckensack
Spekulation.
Jemand mit NV30 (habt ihr eure schon? Pitchfork fragen?) möge bitte Archmark mit 4xMS laufen lassen und auf die Stencil-Füllrate schauen.
Man beachte: kombinierter Z/Stencil-Fill ist bereits ab 2xMS auf NV30 bandbreitenlimitiert (32 Bit*4 Pipes*2/Takt=256 Bit/Takt), wodurch diese Frage eh an Bedeutung verliert. Gerade deswegen wäre ein Design mit acht Einheiten Transistoren-Verschwendung. Meine Annahme geht aus diesem Grund in die andere Richtung.

Als richtig krasse Doom-Optimierung wäre allerdings ein Design mit 4 Z-Einheiten, aber 8 Stencil-Einheiten denkbar. Wenn dem so wäre, dann könnten wir es leider nicht nachmessen.

Du must aber beim Z-Fill noch die Kompression berücksichtigen und Stencil wird möglicherweise auch noch komprimiert.

Meine Vermutung geht ja dahin das für das 8-Pixel Z/Stencil der Color Anteil der AA-Einheiten missbraucht wird.

aths
2003-04-07, 18:40:48
Originally posted by Quasar
Sorry, daß ich so spät antworte...
(hab' mir erlaubt, die Aussagen zu nummerieren..)



ad1) Kennst du "Meine persönlichen Gründe..."?

ad2) Ja, ist das so? Ja, das ist so. Gutes AF verbraucht jede Menge Füllrate. Davon muss erst mal genug da sein. Preiswerte Karten zeichnen sich aber nicht gerade durch "Füllratenüberschuss" auf.
Originally posted by Quasar
ad3) Ja und nein. Besseres AF nur in der Beziehung, daß eine Gammakorrektur erfolgt, billiger im Sinne von Preiswerter sehe ich noch nicht.Du meinst besseres AA :). Das 4x-Muster ist bei Radeon>=9500 besser, von der Gamma-Korrektur mal ganz abgesehen.
Originally posted by Quasar
ad4) Im Gegensatz zu 3,5"-Connectoren hatte ich bei 5,25"-Anschlüssen noch nie die Befürchtung, gleich die Pins mit aus dem PCB zu reissen..Du darfst auch Objekte nicht wie Frauen behandeln..
Originally posted by Quasar
ad5) Die der ATi-Karten vielleicht nicht, aber die c`t z.B. meint, daß einige Dritthersteller nicht empfehlenswert seien.Das gilt für die FXe nicht?
Originally posted by Quasar
ad6) Ja, aber bei keiner DX9-fähigen.Wozu braucht ein Spieler eine DX9-Karte, wenn die Rohleistung nicht stimmt? Wie wir sehen, ist die Rohleistung selbst einer nicht ganz so billigen Karte (FX 5600) nicht gerade überragend.
Originally posted by Quasar
ad7) Ja, Stalker wäre da ein Beispiel und bei dem Tammtamm, was um EA-Spiele gemacht wurde auf der CeBit, würde mich eine spezielle Anpassung derer Titel auch nicht wundern.Ich behaupte an dieser Stelle, das Tammtamm hat auf das tatsächliche Spiel keine praktischen Auswirkungen.

Meine Rückzugsmöglichkeit, falls es auf das Spiel doch praktische (nutzbare) Auswirkungen hat: Das Beispiel wird dann keine Schule machen.
Originally posted by Quasar
ad9) Sagst du das nur aus Eigennutz? ;)Aber neeein. Das ist nur meine ganz persönliche Privat-Meinung.
Originally posted by Quasar
ad10) Ja, toll, oder? Dann weiss jeder, wie schick UT2003 mit 16xFSAA in 1280x1024 mit 8xAF aussehen kann....ob ich's dann wirklich mit den oftmals gepriesenen "all maxed" Settings spielen kann, oder doch wieder auf "something maxed" zurückschalte, wie einige andere Screenie-Poster hier, merkt ja keiner...
Ähm, und dann...?
Originally posted by Quasar
ad11) Na gut. Fällt mir aber schwer.. ;)Mit etwas Gewöhnung wirds schon noch :)
Originally posted by Quasar
ad12) Schreibt man das Adjektiv zu Katastrophe jetzt mit "f"??? Wie widerlich!Ich weiß nicht, ob Katastrofe schon so "eingedeutscht" wurde oder nicht. Zwischendurch war mir so, aber scheinbar bleibt katastrophal katastrophal. Übrigens wird eigentlich bei Wörtern aus dem Griechischem die drittletzte Silbe von hinten betont. Das wäre dann die Sprechweise kaTAStrophal. Ok ich schweife ab...
Originally posted by Quasar
Topic: Mag sein, mag aber auch nicht sein. Daß FSAA auf einigen Screenies nicht zu sehen war, lag dann im Nachhinein auch am Problem VOR dem Monitor...Es gab auch andere Probleme, richtige Bildfehler z.B.
Originally posted by Quasar
ad13) Wenn es denn so ist, fällt mir das nicht schwer, wozu ich mich bislang aber höchstens hinreißen könnte, wäre ein "Die FX5800 ultra kann die hochgesteckten Erwartungen nur zum Teil erfüllen".Ich habe mich bislang zurückgehalten, und schon aus Widerspruch zum NV30-Bashing versucht, Gutes im Chip zu erkennen. Das ist mir nicht gelungen. Ich halte das NV30-Design für gründlich missraten. Da können die Shader meinetwegen noch so ausgefuchst sein - Rohleistung und AA-Leistung (in Bezug auf sichtbare AA-BQ) enttäuschen mich extrem.
Originally posted by Quasar
ad14) Zählst du zur aktuellen Palette auch schon die nV3x-Reihe (mit x<=4)? Ich zähle zur "aktuellen" Palette NV30, 31 und 34. Wenn man sie zum günstigen Preis bekommt, wäre eine Ti imo noch zu empfehlen. Aber wozu einen NV3x? DX9 gibts auch von ATI, und das bei mehr Leistung pro Euro.

zeckensack
2003-04-07, 19:21:52
Originally posted by Demirug
Du must aber beim Z-Fill noch die Kompression berücksichtigen und Stencil wird möglicherweise auch noch komprimiert.Archmark ist extrem kompressionsfreundlich. Sollte Kompression aktiv sein, dann ist's um so besser, weil die Ergebnisse durch das Bandbreitenlimit nicht verfälscht werden.
Meine Vermutung geht ja dahin das für das 8-Pixel Z/Stencil der Color Anteil der AA-Einheiten missbraucht wird.Ich bezweifle nicht daß dies möglich ist, aber 'echte' Z/S-Einheiten sind IMO der Weg des geringeren Widerstands.
Wertebereich, Aufgaben und RMW-Fähigkeiten sind doch ziemlich verschieden. Was einem Z-Test noch am nächste käme, wäre die Alpha-Test/Blending-Einheit. Diese sitzt leider - im Normalbetrieb - ganz unpraktisch hinter den Pixelpipes, und ist nur darauf ausgelegt, Vergleiche gegen Konstanten auszuführen. Z-Test braucht Vergleiche gegen Z-Buffer-Inhalt. Das müßte man also erweitern. Die Shader-ALUs könnten eventuell die HW für Shadow Mapping wiederverwerten, das ginge also.
Aber wie mache ich einen 'bitverwürfelnden' Stencil-Test auf einer (konzeptionell) diskreten Shader-ALU? Die Frage stellt sich sowohl für die Shader-ALUs, als auch für die AT/Blend-Units.

Dann wäre noch sicherzustellen, daß 'echte' Z/S-Units und 'emulierte' Z/S-Units garantiert exakt gleich arbeiten (Stichworte Rundung, Dithering).
Unter'm Strich lohnt sich dieser Aufwand wohl kaum, zumal man am 'fast path' rumkorksen müßte, um Erweiterungen einzubauen. Ie, diese Einheiten komplizierter zu machen als nötig, wäre schlecht für die erreichbare Taktrate.

zeckensack
2003-04-07, 19:23:39
Originally posted by aths
Ich zähle zur "aktuellen" Palette NV30, 31 und 34. Wenn man sie zum günstigen Preis bekommt, wäre eine Ti imo noch zu empfehlen. Aber wozu einen NV3x? DX9 gibts auch von ATI, und das bei mehr Leistung pro Euro. Ack. Genau das wollte ich auch sagen.
Mich juckt auch schon die Ti4200 64MB, die mein lokaler Händler für 135€ anbietet. Bei der FX5600 jucken mir dagegen nur die Füße :|

ow
2003-04-07, 19:59:45
Originally posted by zeckensack
Ack. Genau das wollte ich auch sagen.
Mich juckt auch schon die Ti4200 64MB, die mein lokaler Händler für 135€ anbietet. Bei der FX5600 jucken mir dagegen nur die Füße :|

hehe...mir geht´s da fast umgekehrt.:D
Da speed für mich als wenig-bis-fast-gar-nicht-gamer nur von untergeordneter Bedeutung ist reizt ich allein die Technik der FX.

btw. warum keine gebrauchte GF4ti? hab für meine 4200/64MB im Dez. noch 100€ bezahlt.
Ist sogar der gute CX25871 TVencoder drauf.:)

aths
2003-04-07, 20:18:18
Originally posted by ow
hehe...mir geht´s da fast umgekehrt.:D
Da speed für mich als wenig-bis-fast-gar-nicht-gamer nur von untergeordneter Bedeutung ist reizt ich allein die Technik der FX.Es gibt ja diese DX9-Demo, die Leo auch in den News verlinkt hat. Eine FX 5200 wäre die billigste Möglichkeit, diese Demo zu sehen, wenn man noch keine DX9-Karte hat. Aber mit wieviel FPS? 1 oder doch schon 2? Oder gar nur - bei hoher Auflösung und mit AA nur 0,5? Imo lohnen gute Shader nur, wenn auch die Leistung vorhanden ist.

Soll die Karte als Offline-Renderer eingesetzt werden, wäre es vielleicht etwas anderes. Sobald man offline Rendering macht, spielt in der Regel die Zeit trotzdem eine Rolle, so dass man gleich zur 5800 greifen würde.

I.A. wird mindestens GF4 Ti-Niveau empfohlen, wenn man aufrüsten möchte. Eine Karte mit 4200 oder 4400-er Grund-Leistung und 2 DX9-PS-ALUs pro Pipe, das wäre imo eine Überlegung wert. Aber so wie sich die 5200, selbst Ultra, zeigt, wüsste ich nicht warum die DX9-Fähigkeit interessant sein soll, wenn doch die Power nicht reicht die DX9-Shader sinnvoll im Echtzeitbetrieb zu nutzen.

StefanV
2003-04-07, 20:18:39
Originally posted by ow
Ist sogar der gute CX25871 TVencoder drauf.:)

Soo gut ist der nun auch wieder nicht.

aths
2003-04-07, 20:23:43
Originally posted by Stefan Payne
Soo gut ist der nun auch wieder nicht. Der Connexant reicht nachdem was ich gehört habe wirklich aus.

StefanV
2003-04-07, 20:30:50
Originally posted by aths
Der Connexant reicht nachdem was ich gehört habe wirklich aus.

Naja, besser als Philips schon, nur wenn man mal 'nen 'ordentlichen' TV Out gesehen hat, dann sieht man die Sache schon 'etwas klarer'...

Und nicht so verschwommen wie mit 'nem Conexant..

aths
2003-04-07, 20:31:57
Originally posted by Stefan Payne
Naja, besser als Philips schon, nur wenn man mal 'nen 'ordentlichen' TV Out gesehen hat, dann sieht man die Sache schon 'etwas klarer'...

Und nicht so verschwommen wie mit 'nem Conexant.. Das Topic behandelt keine TV-Outs :)

betasilie
2003-04-07, 20:32:43
Bitte nicht schon wieder diese Diskussion. :o

StefanV
2003-04-07, 20:33:12
Originally posted by aths
Das Topic behandelt keine TV-Outs :)

Achja, stimmt ja, wenn ein gewisser Personenkreis meine beiden Postings liest, dann endet alles nur in 'nem Flamewar *eg*

LovesuckZ
2003-04-07, 20:46:10
Originally posted by zeckensack
Bei der FX5600 jucken mir dagegen nur die Füße :|

Hm, und wie sieht es bei der 9600pro aus?

LovesuckZ
2003-04-07, 20:48:05
Originally posted by Stefan Payne
Achja, stimmt ja, wenn ein gewisser Personenkreis meine beiden Postings liest, dann endet alles nur in 'nem Flamewar *eg*

Liebers vernuenftige Treiber statt nen TV-Out den man nur am Wochenende benutz... :|

Aehm, langsam reichts mit deiner Maer des T-Outs. und ja, den Link zu diesem einen Test kennt wahrscheinlich schon jeder

zeckensack
2003-04-07, 20:50:44
Originally posted by ow
hehe...mir geht´s da fast umgekehrt.
Da speed für mich als wenig-bis-fast-gar-nicht-gamer nur von untergeordneter Bedeutung ist reizt ich allein die Technik der FX.Meine DX9-Gelüste und mein Bedürfnis nach besserer Spieleperformance (endlich brauchbares AA+AF!) kann ich theoretisch auf einen Schlag erledigen. Ich versuche nun schon seit vier Wochen, mir eine R9500Pro zu kaufen ... erfolglos :(
Die Ti4200 ist sofort verfügbar, und würde wahrscheinlich meine Spiele erheblich schöner machen (dank 2xRGMS) und deswegen reizt sie mich im Moment. Nur ist das in Anbetracht des vor der Tür stehenden RV350 eine irrationale Lösung. Die 9600Pro wird sowieso mein, sobald sie erhältlich ist. Zwei Monate halte ich es wohl noch aus :)

Die Ti4200 bleibt natürlich als Test-HW interessant, das neueste NV-Gebilde in meinem Besitz ist eine Gf2MX. Die würde ich nur ungern durch eine FX5200 ersetzen, weil der Rechner teilweise zum Spielen genutzt wird :|

Ich muß hier auch abwägen, wenn ich schon 'Test-Hardware' kaufe, dann soll es eine möglichst weit verbreitete Referenzplattform für einen bestimmten Tech-Level sein. Die Ti200 wäre zB auch sehr geeignet. NV3x ist als DX9-Zuspätkommer leider Referenz für garnichts ... so hart das jetzt auch klingen mag.
Zweitens soll ein 'Ersatz für die MX' auch deutlich schneller sein als diese. Die FX5200 wird dies nicht leisten können, und die größeren Modelle sind mir für den Zweitrechner dann doch zu teuer.

btw. warum keine gebrauchte GF4ti? hab für meine 4200/64MB im Dez. noch 100€ bezahlt.
Ist sogar der gute CX25871 TVencoder drauf.:) Klar wäre das angenehm :)
Es ging nur darum, daß ich die Karte sofort (dh innerhalb 30 Minuten, inkl Hin- und Rückfahrt) haben kann.

zeckensack
2003-04-07, 20:57:12
Originally posted by LovesuckZ


Hm, und wie sieht es bei der 9600pro aus? Bestens :)
Alle 'guten' AA-Modi des R300 sind drin. Wobei die Leistung bei konsequentem AA-Einsatz sowieso in Richtung 9500Pro gehen sollte (die 9600Pro wird mehr Bandbreite haben, also eher noch besser). Die geringere Füllrate kratzt mich dann auch wenig, bisher kam ich mit 1GPix/s ganz gut aus. Was mir privat halt noch fehlt ist nutzbares AA und artefaktfreies AF (wenn's auch nicht 'perfekt' ist ...).

Piffan
2003-04-07, 21:01:30
Originally posted by aths
Es gibt ja diese DX9-Demo, die Leo auch in den News verlinkt hat. Eine FX 5200 wäre die billigste Möglichkeit, diese Demo zu sehen, wenn man noch keine DX9-Karte hat. Aber mit wieviel FPS? 1 oder doch schon 2? Oder gar nur - bei hoher Auflösung und mit AA nur 0,5? Imo lohnen gute Shader nur, wenn auch die Leistung vorhanden ist.

Soll die Karte als Offline-Renderer eingesetzt werden, wäre es vielleicht etwas anderes. Sobald man offline Rendering macht, spielt in der Regel die Zeit trotzdem eine Rolle, so dass man gleich zur 5800 greifen würde.

I.A. wird mindestens GF4 Ti-Niveau empfohlen, wenn man aufrüsten möchte. Eine Karte mit 4200 oder 4400-er Grund-Leistung und 2 DX9-PS-ALUs pro Pipe, das wäre imo eine Überlegung wert. Aber so wie sich die 5200, selbst Ultra, zeigt, wüsste ich nicht warum die DX9-Fähigkeit interessant sein soll, wenn doch die Power nicht reicht die DX9-Shader sinnvoll im Echtzeitbetrieb zu nutzen.

So etwas ähnliches ahne ich, wenn ich den 3dMark 2003 ansehe: Die einzige Demo, die wirklich gut performt auf der Rad 9700, ist die erste (Wing of Fury). Dumm nur, dass diese auschließlich Features nutzt, die auch schon eine alte Geforce 2 kann. Sobald es spannend wird und die Shader in Aktion treten, ist Schluß mit Lustig.....

Dabei bin ich mit 4700 Punkten ja noch relativ gut bedient...aber wie soll das bitteschön auf ner kastierten NV laufen?

Mit der augenblicklich vorhandenen Hardware ist es undenkbar, dass die Shaders in vollem Umfange eingesetzt werden können in dem Sinne, dass ALLE Flächen pixelweise bearbeitet werden. Schätze mal, dass DOOM III noch einen kräftigen Rückschnitt erhalten muß, ehe man dieses Spiel unter das Volk werfen kann. - Oder man wartet noch ein weiteres Jahr, bis die Hardware noch stärker wird. Aber ob das Volk weiterhin so brav mitzieht beim Aufrüsten der Spielmaschinen oder ob man erst mal froh ist, wenn so einige Spiele von der X-Box und Konsorten adaptiert werden, das wird sich zeigen. Vielleicht erlischt ja das Interesse an den Computerspielen ja doch mal.....

mapel110
2003-04-07, 21:14:57
Originally posted by Piffan


So etwas ähnliches ahne ich, wenn ich den 3dMark 2003 ansehe: Die einzige Demo, die wirklich gut performt auf der Rad 9700, ist die erste (Wing of Fury). Dumm nur, dass diese auschließlich Features nutzt, die auch schon eine alte Geforce 2 kann. Sobald es spannend wird und die Shader in Aktion treten, ist Schluß mit Lustig.....

Dabei bin ich mit 4700 Punkten ja noch relativ gut bedient...aber wie soll das bitteschön auf ner kastierten NV laufen?

Mit der augenblicklich vorhandenen Hardware ist es undenkbar, dass die Shaders in vollem Umfange eingesetzt werden können in dem Sinne, dass ALLE Flächen pixelweise bearbeitet werden. Schätze mal, dass DOOM III noch einen kräftigen Rückschnitt erhalten muß, ehe man dieses Spiel unter das Volk werfen kann. - Oder man wartet noch ein weiteres Jahr, bis die Hardware noch stärker wird. Aber ob das Volk weiterhin so brav mitzieht beim Aufrüsten der Spielmaschinen oder ob man erst mal froh ist, wenn so einige Spiele von der X-Box und Konsorten adaptiert werden, das wird sich zeigen. Vielleicht erlischt ja das Interesse an den Computerspielen ja doch mal.....

hm, mit ner 9700er hast du noch, was weiss ich 20-30 fps. bei ner 5200er eben aths besagte 1-2 fps.
das ist imo schon ein unterschied.
so einfach, wie du es hier siehst, kann man sichs nun auch nicht machen.
ausserdem wirds ja so wie es aussieht, noch 3 dx9 refeshs geben. also chipgenerationen, in denen hauptsächlich die rohperformance verbessert wird, weil dx9 ja so lange bestehen soll.
dann werden irgendwann aus den 20-30 fps der 9700er 200 fps der radeon FX ;)

quake3 hat man auch nicht von anfang an mit 200 fps mit 32 leuten im lan/internet gezockt, schon garnicht bei high detail.

MadManniMan
2003-04-07, 21:18:33
Originally posted by Piffan


So etwas ähnliches ahne ich, wenn ich den 3dMark 2003 ansehe: Die einzige Demo, die wirklich gut performt auf der Rad 9700, ist die erste (Wing of Fury).


nit 3dscheiß03 als referenz nehman! :nono:

die variante, an die shadow volumes zu kommen, ist bei game2/3 mehr als hirnrissig und bis wir nature-demo grafik innem spiel haben... :eyes:

Piffan
2003-04-07, 21:24:12
Originally posted by mapel110


hm, mit ner 9700er hast du noch, was weiss ich 20-30 fps. bei ner 5200er eben aths besagte 1-2 fps.
das ist imo schon ein unterschied.
so einfach, wie du es hier siehst, kann man sichs nun auch nicht machen.
ausserdem wirds ja so wie es aussieht, noch 3 dx9 refeshs geben. also chipgenerationen, in denen hauptsächlich die rohperformance verbessert wird, weil dx9 ja so lange bestehen soll.
dann werden irgendwann aus den 20-30 fps der 9700er 200 fps der radeon FX ;)

quake3 hat man auch nicht von anfang an mit 200 fps mit 32 leuten im lan/internet gezockt, schon garnicht bei high detail.

Man sollte aber auch an die Grenzen des Wachstums denken! Man kann die Leistung nicht nach Belieben steigern! Die Chipdesigns sind heutzutage derart komplex, dass eine gute Performance im wahrsten Sinne des Wortes ein glückliches Händchen braucht.

NV hat mit der FX leider ins Klos gegriffen, Pech gehabt! Aber noch schlimmer ist, dass man unbeirrt an der einmal eingeschlagenen Roadmap weiter macht und nun recht flaue Ableger eines ohnehin nicht so dollen Designs verkaufen will. Wenn NV weiterhin seine Marktanteile halten könnte, dann wäre die NV30 Reihe wieder ein Schritt zurück....

Ich könnte mir vorstellen, dass der Komplexitätsgrad der letzten GPUs so hoch ist, dass man sich in Zukunft auf kleinere Brötchen einstellen muss, was die Leistungszuwächse betrifft......Vor allem: Wer will bitte die Entwicklung noch finanzieren? Die Gamer sind auch irgendwann mal so weit, dass sie den Grakaherstellern den Vogel zeigen!

LovesuckZ
2003-04-07, 21:25:31
Originally posted by Piffan
Aber noch schlimmer ist, dass man unbeirrt an der einmal eingeschlagenen Roadmap weiter macht und nun recht flaue Ableger eines ohnehin nicht so dollen Designs verkaufen will.

Was stoert dich am Design?

StefanV
2003-04-07, 21:27:02
Originally posted by LovesuckZ


Liebers vernuenftige Treiber statt nen TV-Out den man nur am Wochenende benutz... :|

Aehm, langsam reichts mit deiner Maer des T-Outs. und ja, den Link zu diesem einen Test kennt wahrscheinlich schon jeder

Suckie, kauf dir gebraucht 'ne MGA G400 DH mit TVO Kabel und schaus dir einfach an !!

LovesuckZ
2003-04-07, 21:29:37
Originally posted by Stefan Payne
Suckie, kauf dir gebraucht 'ne MGA G400 DH mit TVO Kabel und schaus dir einfach an !!

Was soll ich damit? Um DVD's zu gucken hab ich nen Player am TV bzw. nen tragbaren DVD Player fuer unterwegs. Und DIVX guck ich ueber PC oder Player, also nix TV-Out.

Je oefters du deine Maer vom TV-Out bringst, umso langweiliger wird sie und so uninteressanter wirst du. Dir muessen doch auch andere Dinge missfallen...

Piffan
2003-04-07, 21:32:30
Originally posted by LovesuckZ


Was stoert dich am Design?

Das man auf der einen Seite hochtrabende Ambitionen pflegt (CineFX), auf der anderen Seite aber die Leistung recht kläglich ist, als dass es ernsthaft brauchbar wäre.

Dass man nicht an Features ernsthaft weiterentwickelt, die hier und heute nutzbar sind (AA) (schließe mich da bequem einfach mal aths an)

Dass man tönt, dass 256bit- Speicherbusse nicht nötig sein, andererseits den Takt so brutal hochprügelt, um nur in die Nähe der Speicherbandbreite der Konkurrenz zu kommen...

Von der Wärmeentwicklung rede ich lieber nicht, die scheint auf OC zu beruhen. Hoffe ich mal....komisch nur, dass man bei den popeligen Ablegern wieder auf 15µ zurückgeht. Dabei ist doch der neue Prozess so wirtschaftlich und stromsparend :|

mapel110
2003-04-07, 21:33:04
Originally posted by Piffan
Die Gamer sind auch irgendwann mal so weit, dass sie den Grakaherstellern den Vogel zeigen!

tja, schau in den cpu markt. soviel power brauchst du nur zum filme rippen. sonst nicht.
da gehts dann halt über den preis. hast du nach einführung der geforce4 mal eine preissenkung erlebt ? also ich nicht. die 4200er gabs für 200 € und wo steht sie jetzt, gerade mal auf 150 €.

bei ati isses was anderes. die kämpfen um marktanteile. radeon 8500 300 € einführungspreis und jetzt ? 70 €

Das ist nvidia !
und so gehts halt nicht mehr.
die grakas müssen endlich mal billiger werden, ob das nun richthofen passt oder nicht !
ob nvidia viel verdient oder nicht !

LovesuckZ
2003-04-07, 21:39:17
Originally posted by Piffan
Von der Wärmeentwicklung rede ich lieber nicht, die scheint auf OC zu beruhen. Hoffe ich mal....komisch nur, dass man bei den popeligen Ablegern wieder auf 15µ zurückgeht. Dabei ist doch der neue Prozess so wirtschaftlich und stromsparend :|

Ja der 13µ scheint fuer Grafikkarten noch nicht so weit zu sein, was man auch an der spaeten Verfuegbarkeit von 9600 und 5600 sieht.

Zu der Leistung: Ich warte noch nen bissl ab, bevor ich eine richtige Entscheidung treffe. Denn unter OpenGL kann die Karte sogar ne 9800pro wegpfegen und mit App. AF liegt Sie auf 9700pro niveau. Leider zeigt Sie unter D3D ihr diese Leistung noch nicht. Daher wird es spannend, was Nvidia da noch rausholt.

Zum AA: Geschmackssache. Dem einem gefaellts, der andere wil liebers das von der 9700. Manche wiederum haben nur Lust auf SSAA.

Piffan
2003-04-07, 21:39:27
Originally posted by mapel110


tja, schau in den cpu markt. soviel power brauchst du nur zum filme rippen. sonst nicht.
da gehts dann halt über den preis. hast du nach einführung der geforce4 mal eine preissenkung erlebt ? also ich nicht. die 4200er gabs für 200 € und wo steht sie jetzt, gerade mal auf 150 €.

bei ati isses was anderes. die kämpfen um marktanteile. radeon 8500 300 € einführungspreis und jetzt ? 70 €

Das ist nvidia !
und so gehts halt nicht mehr.
die grakas müssen endlich mal billiger werden, ob das nun richthofen passt oder nicht !
ob nvidia viel verdient oder nicht !

Deine Thesen haben mit der Marktwirtschaft aber nicht viel zu tun! Darum wird Richti über solche Ansichten nur milde lächeln ;)

Quasar
2003-04-08, 12:40:20
Originally posted by aths
Ja, das ist so. Gutes AF verbraucht jede Menge Füllrate. Davon muss erst mal genug da sein. Preiswerte Karten zeichnen sich aber nicht gerade durch "Füllratenüberschuss" auf.
Du meinst besseres AA :). Das 4x-Muster ist bei Radeon>=9500 besser, von der Gamma-Korrektur mal ganz abgesehen.
Du darfst auch Objekte nicht wie Frauen behandeln..
Das gilt für die FXe nicht?
Wozu braucht ein Spieler eine DX9-Karte, wenn die Rohleistung nicht stimmt? Wie wir sehen, ist die Rohleistung selbst einer nicht ganz so billigen Karte (FX 5600) nicht gerade überragend.
Ich behaupte an dieser Stelle, das Tammtamm hat auf das tatsächliche Spiel keine praktischen Auswirkungen.

Meine Rückzugsmöglichkeit, falls es auf das Spiel doch praktische (nutzbare) Auswirkungen hat: Das Beispiel wird dann keine Schule machen.
Aber neeein. Das ist nur meine ganz persönliche Privat-Meinung.

Ähm, und dann...?
Mit etwas Gewöhnung wirds schon noch :)
Ich weiß nicht, ob Katastrofe schon so "eingedeutscht" wurde oder nicht. Zwischendurch war mir so, aber scheinbar bleibt katastrophal katastrophal. Übrigens wird eigentlich bei Wörtern aus dem Griechischem die drittletzte Silbe von hinten betont. Das wäre dann die Sprechweise kaTAStrophal. Ok ich schweife ab...
Es gab auch andere Probleme, richtige Bildfehler z.B.
Ich habe mich bislang zurückgehalten, und schon aus Widerspruch zum NV30-Bashing versucht, Gutes im Chip zu erkennen. Das ist mir nicht gelungen. Ich halte das NV30-Design für gründlich missraten. Da können die Shader meinetwegen noch so ausgefuchst sein - Rohleistung und AA-Leistung (in Bezug auf sichtbare AA-BQ) enttäuschen mich extrem.
Ich zähle zur "aktuellen" Palette NV30, 31 und 34. Wenn man sie zum günstigen Preis bekommt, wäre eine Ti imo noch zu empfehlen. Aber wozu einen NV3x? DX9 gibts auch von ATI, und das bei mehr Leistung pro Euro.
Ich erlaube mir mal, ein wenig zu komprimieren...

Mit gutem AF kann man in absehbarer Zeit jede Karte an die Grenze ihrer Leistungsfähigkeit treiben, deswegen reizt es mich, in Spielen, wo diese Grenze noch sehr weit entfernt liegt, die Option zu haben, auf höherwertiges AF umzuschalten. Wenn die Leistung knapp wird, kann ich immer noch Quality oder Performance nehmen, oder es ganz deaktiveren.
Das 4xAA bei der Radeon besser ist, habe ich nie bestritten, davon abgesehen tritt hier in etlichen Fällen wieder das von dir an der FX<5600 in Bezug auf AF bemängelte in Kraft.
Daß gerade Du auf einmal so vehement auf der Rohleistung herumpochst wunder mich etwas, wolltest du doch Benches ohne AA/AF schon für sinnlos erklären. :)
Aber nichtsdestotrotz, DX9 als Option zu haben, um sich mal ein paar Demos anzuschauen ist doch ganz fein, oder? BTW denke ich, daß keiner der aktuell (heute+1 Monat) erhältlichen Karten bei einem Game, daß von DX9 ähnlich intensiven Gebrauch macht, wie UT2003 von DX7, mehr als den Startbildschirm ruckelfrei anzeigen kann.
Ob Chip-spezifische Optimierungen Schule machen oder nicht, überlassen wir am besten mal der Zeit, die es zeigen wird. Wenn sich mit etwas Geld verdienen läßt, wird es sich auch durchsetzen, Konsolen verkaufen sich ja auch wie blöde.

(OT: Die Aussprache griechischstämmiger Worte ist mir ansatzweise geläufig =))

Ich weiß nicht, wieviele nV30 du bisher live hast erleben dürfen/müssen. Ich sage nur, daß ich mir erst ein endgültiges Urteil bilde, bis ich ein Exemplar davon mal richtig ausgiebig quälen durfte, nicht mehr und nicht weniger.

Also aktuelle Palette <=> nV3x.
OEMs dürften gerade über die FX5200 sehr, sehr glücklich sein, schließlich gibt's mehr als genug MM-Kunden da draussen. Aber da kommst du (teilweise zurecht) mit dem Argument, daß "wir" eben keine solchen sind und möglicherweise solche noch vor ihrem Schicksal retten könnten. Auch gut, aber welch' allheilbringenden, sinnstiftenden und weltbefriedenen Hersteller kann man denn heute noch guten Gewissens empfehlen? Matrox? Zu teuer und zu wenig auf Gamer ausgerichtete Hardware. ATi? Hat sich schon mehr als eine Scheibe bei nVs Marketing abgeschnitten (s. R9200, R9800 und evtl. R9600).
Und bei der Konkurrenz bewahre ich mir endgültige Urteile auch auf, bis ich sie in Händen gehalten habe. Mag sein, daß die R9600Pro der absolute Preis-Leistungshammer sein wird, so wie es im Moment die R9500 Pro ist.

Piffan
2003-04-08, 13:44:49
Originally posted by Quasar

BTW denke ich, daß keiner der aktuell (heute+1 Monat) erhältlichen Karten bei einem Game, daß von DX9 ähnlich intensiven Gebrauch macht, wie UT2003 von DX7, mehr als den Startbildschirm ruckelfrei anzeigen kann.
Ob Chip-spezifische Optimierungen Schule machen oder nicht, überlassen wir am besten mal der Zeit, die es zeigen wird. Wenn sich mit etwas Geld verdienen läßt, wird es sich auch durchsetzen, Konsolen verkaufen sich ja auch wie blöde.



Genau den Verdacht habe ich, wenn ich den 3dMurks 2003 anschaue: Die echten Shaderdemos laufen so lahmarschig, dass der Spaß vergeht! Und wie bitteschön soll sich das in der nächsten Zukunft besser? Da müssten die Chips imho viermal so schnell werden ( LOL )

Was nützt die größte Flexibilität bei der Shader- Proggerei, wenns schnarchig läuft?

Ein "Gefühl" sagt mir, dass ich meine Gf4 Ti besser nicht verkloppe....denn so ist garantiert, dass portierte X-box - Spiele hundertprozentig auf meinem Rechner laufen......

Chipsatzopimierte Spiele werden wohl eher die Ausnahme bleiben, denn ob der Chiphersteller jedesmal so viel Geld springen lassen kann, dass man die Nachteile durch den beschränkten Markt einfach in Kauf nimmt, ist eher fraglich....

Eher ist es wahrscheinlich und legitim, dass die Xbox- Konvertanten nicht auf allen Chips so aussehen wie auf der Konsole....kann man aber nicht wirklich den Entwicklern vorwerfen, das ist halt das Risiko, wenn man sich für eine Hardware entscheidet....

Endorphine
2003-04-08, 14:54:51
Originally posted by ow
Ist sogar der gute CX25871 TVencoder drauf.:) Originally posted by Stefan Payne
Soo gut ist der nun auch wieder nicht.Ja, stimmt. Der ist nur zufällig der S-Video Ausgangsqualität sehr vieler handelsüblicher standalone DVD-Player überlegen. Hast recht, taugt nix, das Teil.

Man man Payne...

StefanV
2003-04-08, 15:06:13
Originally posted by Endorphine
Ja, stimmt. Der ist nur zufällig der S-Video Ausgangsqualität sehr vieler handelsüblicher standalone DVD-Player überlegen. Hast recht, taugt nix, das Teil.

Man man Payne...

Schonmal einen gesehen und mit 'ner G550 verglichen ??

Ich mein ja nur, weil so ein CX25871 ist ja nur auf 'ner Leadtek TI200 drauf...

Endorphine
2003-04-08, 15:10:13
Originally posted by Stefan Payne
Schonmal einen gesehen und mit 'ner G550 verglichen ??

Ich mein ja nur, weil so ein CX25871 ist ja nur auf 'ner Leadtek TI200 drauf...Ich bin auch wie du der Meinung, dass eine Matrox G550DH in den 2D-Fähigkeiten immer noch das Mass der Dinge darstellt. Aber was nützt es, wenn man die 3D-Fähigkeiten als nicht vorhanden bezeichnen kann? Zudem sind die G550 immer noch unverschämt teuer, als dass man damit einfach nen kleinen Videoserver aufbaut finde ich.

Die Conexants auf Grafikkarten mit brauchbarer 3D-Beschleunigung stellen aus meiner Sicht derzeit einen recht optimalen Kompromiss dar.

Radeonator
2003-04-08, 15:56:23
Das hier Klick (http://www.tech-report.com/reviews/2003q2/geforcefx-5800ultra/index.x?pg=1) spiegelt in etwa meine Meinung, die conclusion trifft es einfach...

Endorphine
2003-04-08, 16:10:02
Originally posted by Radeonator
Das hier Klick (http://www.tech-report.com/reviews/2003q2/geforcefx-5800ultra/index.x?pg=1) spiegelt in etwa meine Meinung, die conclusion trifft es einfach... Danke für den Link :)

Ich möchte nur mal kurz was aufzeigen, ich hoffe, Tech Report lässt Bilder verlinken zu:

GeForce FX "Application" option: 8X aniso + trilinear filtering:
http://www.tech-report.com/reviews/2003q2/geforcefx-5800ultra/q3a-colormip-aniso-app.png

Radeon 9800 "Quality" option: 8X aniso + trilinear filtering:
http://www.tech-report.com/reviews/2003q2/geforcefx-5800ultra/q3a-colormip-aniso-quality-9800.png

Schlussfolgert selbst! :)

/Edit:
Bitte nehmt's mir nicht übel, ISDN-User ;)

Exxtreme
2003-04-08, 16:20:55
Originally posted by Endorphine
Danke für den Link :)

Ich möchte nur mal kurz was aufzeigen, ich hoffe, Tech Report lässt Bilder verlinken zu:

GeForce FX "Application" option: 8X aniso + trilinear filtering:
http://www.tech-report.com/reviews/2003q2/geforcefx-5800ultra/q3a-colormip-aniso-app.png

Radeon 9800 "Quality" option: 8X aniso + trilinear filtering:
http://www.tech-report.com/reviews/2003q2/geforcefx-5800ultra/q3a-colormip-aniso-quality-9800.png

Schlussfolgert selbst! :)

/Edit:
Bitte nehmt's mir nicht übel, ISDN-User ;)
Sie sind sich sehr ähnlich und der Unterschied dürfte in der Praxis keine Rolle spielen.

mapel110
2003-04-08, 16:27:47
Originally posted by Piffan


Deine Thesen haben mit der Marktwirtschaft aber nicht viel zu tun! Darum wird Richti über solche Ansichten nur milde lächeln ;)

wieso sollen die mit marktwirtschaft nix zu tun haben ?! wenn ein produkt keine käufer findet, wird das produkt eben billiger.

wer will denn bitteschön den dritten dx9-refreshchip kaufen, wenn er eventuell nur ein tick mehr rohperformance bietet und sonst alles gleich ist ?!

naja, die preise werden nicht nur wegen dem technologischen stillstand sinken. es kommen ja wieder einige neue chips ins rennen von anderen herstellern !

mapel110
2003-04-08, 16:31:03
Originally posted by Exxtreme

Sie sind sich sehr ähnlich und der Unterschied dürfte in der Praxis keine Rolle spielen.

das sieht absolut identisch aus. also ich kann da garkeine unterschiede sehen.
selbst die kanten sehen alle gleich aus.
als wäre da copy/paste gemacht worden.

ow
2003-04-08, 16:31:10
Originally posted by Endorphine

Schlussfolgert selbst! :)



och, das ist einfach.
Die Szene enthaelt keine fuer ATis AF unguenstigen Winkel. Die Shots duerften daher fast pixel-identisch sein.

Endorphine
2003-04-08, 16:35:25
Also ich sehe schon einige Unterschiede. Vergleicht mal bei den Karten die beiden Säulen, insbesondere die linke. Da ist so einiges verschieden...

Interssant wäre natürlich, wie die bessere BQ der FX auf die Leistung durchschlägt.

ow
2003-04-08, 16:41:39
Originally posted by Endorphine
Also ich sehe schon einige Unterschiede. Vergleicht mal bei den Karten die beiden Säulen, insbesondere die linke. Da ist so einiges verschieden...




Klar, die Saeule faellt auf....aber auch nur bei eingefaerbten mipmaps.:D
Da ist die GF etwas schaerfer. Aber das juckt jetzt imo wirklich kaum jemanden, ich sehe die BQ der beiden Shots als gleichwertig an.

LovesuckZ
2003-04-08, 17:05:24
Originally posted by Endorphine
Interssant wäre natürlich, wie die bessere BQ der FX auf die Leistung durchschlägt.

Nvidia ist mit App. AF unter OpenGL bei gleichen Einstellungen (8X) gleichauf mit ATI's 8X settings. Balanced dagegen zieht bei 8X vs 8X ab.

MadManniMan
2003-04-08, 17:32:35
Originally posted by LovesuckZ


Nvidia ist mit App. AF unter OpenGL bei gleichen Einstellungen (8X) gleichauf mit ATI's 8X settings. Balanced dagegen zieht bei 8X vs 8X ab.


quelle?

LovesuckZ
2003-04-08, 17:35:29
Originally posted by MadManniMan
quelle?

kein Vertrauen in mir :| (http://www.xbitlabs.com/articles/video/display/geforce-fx_16.html)

MadManniMan
2003-04-08, 18:10:58
Originally posted by LovesuckZ


kein Vertrauen in mir :| (http://www.xbitlabs.com/articles/video/display/geforce-fx_16.html)


:D

zum thema...

Originally posted by LovesuckZ
Nvidia ist mit App. AF unter OpenGL bei gleichen Einstellungen (8X) gleichauf mit ATI's 8X settings. Balanced dagegen zieht bei 8X vs 8X ab.

da stellen sich mir 4 fragen:

a) sollte man bei der betrachtung evtl. nicht auch performance-af anschauen?
b) inwieweit ist q3 noch für irgendetwas representativ? die frames sind selbst in den extremsten (naja fast) settings noch im spielbaren bereich
c) wieviel bringen die cata 3.3 mit dem r350 renderpfad und wie schnell ist die 9800?
d) wenn man von c) die 9800 vergißt - sollte man die 5800 ultra überhaupt zum vergleich heranziehen?

Quasar
2003-04-08, 18:28:30
Originally posted by Endorphine
Danke für den Link :)

Ich möchte nur mal kurz was aufzeigen, ich hoffe, Tech Report lässt Bilder verlinken zu:
Schlussfolgert selbst! :)

/Edit:
Bitte nehmt's mir nicht übel, ISDN-User ;)

Daraus schlussfolgere ich...

a) Die Szene hat keine ungünstigen Winkel, bei denen ATis AF wirklich schlecht ausschaut (Bis auf die rechte Seite des Sockels der linken Säule).

b) Die Szene erlaubt nVs Application AF trotz alledem ein höherwertiges Bild hervorzubringen, wie man an den eingefärbten Mip-Levels deutlich sehen kann.

c) Die Unterschiede im Game selber, also ohne eingefärbte Mip-Level wären vernachlässigbar gering.

Ist aber irgendwie schon alles gesagt worden.
Nur dem Statement, daß beide Bilder gleich aussähen, kann ich mich nicht anschliessen.

MadManniMan
2003-04-08, 18:37:42
Originally posted by Quasar
a) Die Szene hat keine ungünstigen Winkel, bei denen ATis AF wirklich schlecht ausschaut (Bis auf die rechte Seite des Sockels der linken Säule).



wobei ich jetzt hoffe, daß keine forderungen nach einer szene mit vorangig ungünstigen aufkommt.

ich will nicht sagen, daß q3 oder gar speziell dieser shot für irgendetwas stellvertretend sind, aber irgendwo muß man doch mal einsehen, daß nicht immer nur die extremsituationen betrachtet werden dürfen.

man mag es kaum glauben, aber es soll durchaus szenen geben, in denen auch das beste AA nicht wirklich was ausmacht ;)

/edit: grammatik

Quasar
2003-04-08, 18:45:24
Right.
Nur muss man leider des öfteren solche Szenen samt Screenies bemühen, wenn man aufzeigen will, warum ATis AF z.B. sauschnell ist und nVs AF bis dato (prä-nV30, also App-AF) recht langsam war.

Besonders, wenn behauptet wird, man können keinen Unterschied sehen.

MadManniMan
2003-04-08, 18:47:28
Originally posted by Quasar
Right.
Nur muss man leider des öfteren solche Szenen samt Screenies bemühen, wenn man aufzeigen will, warum ATis AF z.B. sauschnell ist und nVs AF bis dato (prä-nV30, also App-AF) recht langsam war.

Besonders, wenn behauptet wird, man können keinen Unterschied sehen.


ist doch korrekt. nur wird dann ein extrem-screeny immer als indiz für vollkommen versaubeutelte ait-af-quali genommen :bonk:

Quasar
2003-04-08, 19:08:58
Eben nicht. Man sieht einen Unterschied.

Endorphine
2003-04-08, 19:15:04
Originally posted by Quasar
Eben nicht. Man sieht einen Unterschied. Das kann ich nur bestätigen. Ich habe den Qualitätsunterschied subjektiv beim Umstieg GF3 Ti500 -> R9700 deutlich wahrgenommen.

Das ist einfach nen Punkt, wo ATi noch Entwicklungsbedarf für die Zukunft hat. Ich hätte gern die Wahl zwischen perfektem eye candy application ("full-scene AF" :D) AF wie bei nvidia und sehr stark leistungsoptimiertem ATI-AF. Und dann beides jeweils noch bilinear oder trilinear.

Alternativ würde es auch reichen nur die reine unverfälschte AF-Lehre zu implementieren. Die Leistung kann dann über den Grad der Anisotropie geregelt werden. AF soll doch ein Feature sein, was die Texturqualität verbessert - wieso muss das auf Kosten der Qualität verschlimmbessert werden? Wenn die Leistung für hochgradige Anisotropie eben nicht ausreicht wird eben ein oder mehrere Grade zurückgeschaltet, fertig.

Adaptives AF kann von mir aus gern komplett verschwinden oder als Option irgendwo in den Treibereinstellungen verschimmeln.

LovesuckZ
2003-04-08, 19:16:19
Originally posted by MadManniMan
da stellen sich mir 4 fragen:

a) sollte man bei der betrachtung evtl. nicht auch performance-af anschauen?
b) inwieweit ist q3 noch für irgendetwas representativ? die frames sind selbst in den extremsten (naja fast) settings noch im spielbaren bereich
c) wieviel bringen die cata 3.3 mit dem r350 renderpfad und wie schnell ist die 9800?
d) wenn man von c) die 9800 vergißt - sollte man die 5800 ultra überhaupt zum vergleich heranziehen?

a) Es geht hier net um Bilinear vs. Trilinear sondern um das beste AF das es zur zeit gibt gegen ATI's optimierte und damit 2. beste AF. Unter D3D gewinnt ATi, unter OpenGL Nvidia.

b) Daher auch SeSam2 betrachten. Selbe Ergebnis. Und ich gehe nicht davon aus, dass man hier mit D3D gebencht hat.

c)Das ist ungewiss. Tommti-System geht von bis zu 10% aus. Digit-Life von bis zu 30%. Die Frage die dann bleibt: Wozu ne 9800...

d) Tech-Report hat die 9800pro mit gebencht un unter OpenGL das selbe Ergebnis.

ice cool69
2003-04-08, 20:39:05
pff nvidia hat nicht das bessere AF, sondern ati, dafür wird atis AF halt weniger oft verwendet (nur bei bestimmten winkeln).

-X-
2003-04-08, 20:41:46
das hatten wir jetzt schon des öfteren.nvidias AF mit application-einstellung ist besser(qualitativ),was mir egal ist,das AF meiner r300 ist schneller(besseres quali/leistungs-verhältnis).

aths
2003-04-08, 21:32:49
Originally posted by MadManniMan
b) inwieweit ist q3 noch für irgendetwas representativ? die frames sind selbst in den extremsten (naja fast) settings noch im spielbaren bereichP4 @ 2070, GF4 Ti 4600 @ 300/351, Quake3 @ 1152x864x32, alles max, 2x AA, 8x AF: Im Spiel um die 90 fps :)

Ach ja, mit aktiven Stencil-Schatten, natürlich.

aths
2003-04-08, 21:33:28
Originally posted by ice cool69
pff nvidia hat nicht das bessere AF, sondern ati, dafür wird atis AF halt weniger oft verwendet (nur bei bestimmten winkeln). ... also hat nV im App-Modus das bessere AF. Oder nicht?

aths
2003-04-08, 21:34:46
Originally posted by Endorphine
Ich hätte gern die Wahl zwischen perfektem eye candy application ("full-scene AF" :D) AF wie bei nvidia und sehr stark leistungsoptimiertem ATI-AF.Das ist Unsinn, denn:
Originally posted by Endorphine
Alternativ würde es auch reichen nur die reine unverfälschte AF-Lehre zu implementieren. Die Leistung kann dann über den Grad der Anisotropie geregelt werden. AF soll doch ein Feature sein, was die Texturqualität verbessert - wieso muss das auf Kosten der Qualität verschlimmbessert werden? Wenn die Leistung für hochgradige Anisotropie eben nicht ausreicht wird eben ein oder mehrere Grade zurückgeschaltet, fertig."Echtes" AF liefert die meiste Qualität pro Leistung, wobei die Leistung über den AF-Grad geregelt wird.

Endorphine
2003-04-08, 21:44:01
Originally posted by aths
Das ist Unsinn, denn:
"Echtes" AF liefert die meiste Qualität pro Leistung, wobei die Leistung über den AF-Grad geregelt wird. Ich glaube nicht, dass ATi und nVidia den Geschwindigkeitsgewinn von adaptivem AF wieder hergeben werden. Sollen sie's eben in ihren Treibern anbieten, ich muss es ja nicht nutzen.

Damit wären dann alle zufrieden. Die Speed-AF und Benchmarkfreaks und die denkende Anwenderschaft, die eine optimale Lösung bevorzugt.

betasilie
2003-04-08, 22:00:48
Originally posted by aths
P4 @ 2070, GF4 Ti 4600 @ 300/351, Quake3 @ 1152x864x32, alles max, 2x AA, 8x AF: Im Spiel um die 90 fps :)

Ach ja, mit aktiven Stencil-Schatten, natürlich.
Quake3 ist auch ein super Stellvertreter für aktuelle Spiele. :lol: Noch ein älteres Spiel hättest Du nicht raussuchen können?

MadManniMan
2003-04-08, 22:03:01
Originally posted by betareverse

Quake3 ist auch ein super Stellvertreter für aktuelle Spiele. :lol: Noch ein älteres Spiel hättest Du nicht raussuchen können?

hey - hat er damit andeuten wollen, daß q3 ein super-aktueller bench sei?

denk mal nach :eyes:

betasilie
2003-04-08, 22:04:18
Originally posted by aths
... also hat nV im App-Modus das bessere AF. Oder nicht?
Icecool meinte wohl eher, dass die Flächen, die bei ATI-Karten aniso. gefiltert werden, auch besser gefiltert werden im Vergleich mit NV. ... Das ist übrigens das, was ich auch meine in einigen Reviews gelesen zu haben.

betasilie
2003-04-08, 22:06:49
Originally posted by MadManniMan


hey - hat er damit andeuten wollen, daß q3 ein super-aktueller bench sei?

denk mal nach :eyes:
Ähhh, ich bin da wohl im Quote verruscht.

@Aths
... Sorry Aths, ich habe dein Posting mit den Q3-Benches falsch verstanden. :D

aths
2003-04-08, 23:29:28
Originally posted by betareverse
Icecool meinte wohl eher, dass die Flächen, die bei ATI-Karten aniso. gefiltert werden, auch besser gefiltert werden im Vergleich mit NV. ... Das ist übrigens das, was ich auch meine in einigen Reviews gelesen zu haben. Inwiefern "besser"?

-X-
2003-04-08, 23:36:59
höherer grad?weil bei gleichem grad müsste das nv-application AF doch besser sein?

Radeonator
2003-04-09, 09:15:18
Performance AF sieht auf der FX nicht grade eben gut aus, auf der ATi hingegen schon

Zu vergleichen bitte beide links anklicken und zwischen den Fenstern, hin und her schalten (so kann man auch direkt vergleichen und sieht unterschiede...)

GF FX 8x Performance AF (http://www.tech-report.com/reviews/2003q2/geforcefx-5800ultra/q3a-perf-aniso-fx.jpg)
Radeon9800 8x Performance AF (http://www.tech-report.com/reviews/2003q2/geforcefx-5800ultra/q3a-perf-aniso-9800.jpg)

Insgesammt gesehen finde ich daher die ATi Lösung , eindeutig besser.
Allerdings ist App AF von der quality überzeugend, wobei es ingame kaum sichtbare Unterschiede gibt.

Quasar@Work
2003-04-09, 11:15:55
Können wir uns vielleicht darauf einigen, daß die Performance-Modi beide shitty sind und solchen Leistungsmonstern eigentlich unwürdig?

Radeon9500 oder FX5200(u) mögen sowas nötig haben, die Topmodelle IMO nicht.

betasilie
2003-04-09, 11:25:21
Originally posted by Quasar@Work
Können wir uns vielleicht darauf einigen, daß die Performance-Modi beide shitty sind und solchen Leistungsmonstern eigentlich unwürdig?

Radeon9500 oder FX5200(u) mögen sowas nötig haben, die Topmodelle IMO nicht.
Nein. :bäh: Ich finde 8xAF/tri. qualitativ völlig überzeugend und bin froh, dass ATI solch eine AF-Qualität ohne nennenswerte Performanceverluste anbietet. ... Auf der anderen Seite wäre es natürlich schön, wenn eine 100%tige Lösung auf Wunsch nutzbar wäre.

mapel110
2003-04-09, 11:25:52
Originally posted by Quasar@Work
Können wir uns vielleicht darauf einigen, daß die Performance-Modi beide shitty sind und solchen Leistungsmonstern eigentlich unwürdig?

Radeon9500 oder FX5200(u) mögen sowas nötig haben, die Topmodelle IMO nicht.

ich versteh nicht, dass ihr immer so tut, als wäre die 9500 pro ultralangsam, verglichen mit der 9700er. das stimmt nicht.
AF performance:
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800/zj_bench_counter-strike_b.php
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800/zj_bench_comanche4_b.php
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800/zj_bench_ut2003_b.php

imo würde ich diese aussage eher auf die kommende 9600er beziehen. die wird eventuell performanceAF nötig haben. aber die 9500er pro nicht !

Radeonator
2003-04-09, 11:48:25
Originally posted by mapel110


ich versteh nicht, dass ihr immer so tut, als wäre die 9500 pro ultralangsam, verglichen mit der 9700er. das stimmt nicht.
AF performance:
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800/zj_bench_counter-strike_b.php
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800/zj_bench_comanche4_b.php
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800/zj_bench_ut2003_b.php

imo würde ich diese aussage eher auf die kommende 9600er beziehen. die wird eventuell performanceAF nötig haben. aber die 9500er pro nicht !

Ich denke Quasar bezieht sich hier auf die 9500er ohne pro

LovesuckZ
2003-04-09, 12:21:09
Originally posted by mapel110
ich versteh nicht, dass ihr immer so tut, als wäre die 9500 pro ultralangsam

Jetzt muesstest nur noch das Wort " pro" finden:D

LovesuckZ
2003-04-09, 12:23:41
Originally posted by betareverse
Icecool meinte wohl eher, dass die Flächen, die bei ATI-Karten aniso. gefiltert werden, auch besser gefiltert werden im Vergleich mit NV. ... Das ist übrigens das, was ich auch meine in einigen Reviews gelesen zu haben.

Wo wird bei ATI besser gefilter, wenn beide mit 8X gemessen werden?

Radeonator
2003-04-09, 12:58:30
Originally posted by LovesuckZ


Wo wird bei ATI besser gefilter, wenn beide mit 8X gemessen werden?

Im Quality mode, im App mode ist die Filterung der GF FX geringfügig besser allerdings nur mit Performance einbussen. Deshalb sag ich ja auch das die Lösung von ATi besser ist.

ow
2003-04-09, 13:00:37
Originally posted by Radeonator


Im Quality mode, im App mode ist die Filterung der GF FX geringfügig besser allerdings nur mit Performance einbussen. Deshalb sag ich ja auch das die Lösung von ATi besser ist.


Das App AF. ist qualitaetsmaessig um genau soviel besser, wie es weniger Performance bringt.

betasilie
2003-04-09, 13:21:30
Originally posted by ow



Das App AF. ist qualitaetsmaessig um genau soviel besser, wie es weniger Performance bringt.
Im Vergleich mit einem theoretischen, besseren app.Mode von NV selbst oder zu ATIs Lösung?

Piffan
2003-04-09, 14:37:15
Originally posted by Quasar@Work
Können wir uns vielleicht darauf einigen, daß die Performance-Modi beide shitty sind und solchen Leistungsmonstern eigentlich unwürdig?

Radeon9500 oder FX5200(u) mögen sowas nötig haben, die Topmodelle IMO nicht.

Das sehe ich völlig anders. Der Performancemodus bedeutet auf der Radeon ja schließlich lediglich, dass nun anstelle der trilinearen Filterung die bilineare genutzt wird. Ob das scheiße aussieht oder gut, das hängt vom Grad der Anisotrophie und von der Auflösung ab. Da kann ich mit der Radeon 9700 ordentlich klotzen, wodurch sich Mipmap- Bänder derart nach hinten verschieben, dass sie nicht die Spur stören. So zocke derzeit mit 1280x1024 mit 16fachem Bi- AF und habe allergrößte Mühe, die Bänder zu erkennen! Bei Mafia ist die Optik dadurch wesentlich besser, als sie auf der GF4 mit 8xAF war.

Entscheident ist für mich bei Spielen wie Mafia, dass die Straße und die Hauswände perfekt gefiltert werden, da ist nämlich das Auge am sensibelsten. Irgenwelche obskuren Winkel, wo schlecht gefiltert wird, mögen vorhanden sein, aber dann sind die Flächen so klein, dass es nicht den Gesamteindruck versaut!

Ich habe gestern nochmal die GF4 eingebaut, um unter anderem noch mal Endorphines These zu beleuchten, dass die Optik bei der GF viel besser sei als bei der Radeon...Dazu sage ich nur eins: Megalol!

BTW: Bei Splintercell sehen wohl manche Schatten auf der Geforce etwas besser aus, aber dafür performt die Radeon um den Faktor 2 besser, ohne ein wirklich schlechteres Bild abzuliefern...die meisten Effekte bei Splintercell sind nett, aber arg überstrapaziert. Es nutzt sich schnell ab, wohingegen ne beschissene Performance dauerhaft an den Nerven zerrt! ;)

Zu dem Performance- AF auf der Radeon 9700 sage ich: DAnke, wird von mir liebend gern genutzt. Denn dafür kann ich mit der Auflösung klotzen, was generell das Aliasing reduziert, auch das der Alphatexturen. So flimmern die Bäume bei Gothic 2 erheblich weniger, als wenn ich ne geringe Auflösung hätte, dafür dann die Leistung mit FSAA vergeigen würde.....

Mein Motto: Jeder soll sich seinen Mix aus den Einstellungen wählen und glücklich sein. Dogmatisch zu argumentieren ist albern!

mapel110
2003-04-09, 14:46:22
hm, "non-pro" sollte man imo dazu schreiben.

Piffan
2003-04-09, 14:53:59
Originally posted by mapel110
hm, "non-pro" sollte man imo dazu schreiben.

???

Axo, ja meine Radeon läuft mit 330 Core und 300 Speicher (Infinion :|

Aber was hat das damit zu tun? Die paar Prozente ändern doch nichts am Prinzip! Ich will nur sagen, dass es keineswegs Perlen vor die Säue werfen ist, wenn man auf ner 9700 das Bi- AF fährt! Es ist doch einfach die Frage, ob es einen stört, oder ob man sich künstlich dran hochzieht! Generell sage ich ja auch, dass wenn bi, dann auch VIEL Aniso UND eine hohe Auflösung! Wer so blöd ist und in 800x600 zockt, dafür dann aber die Karte mit FSAA quält, der MUSS zum Tri greifen und vergeigt noch mehr Leistung. Imho eine wirklich dumme Idee!

mapel110
2003-04-09, 14:57:52
Originally posted by Piffan


???

Axo, ja meine Radeon läuft mit 330 Core und 300 Speicher (Infinion :|


sorry, mein posting bezog sich auf lovesux und radeonator

LovesuckZ
2003-04-09, 15:48:09
Originally posted by Radeonator
Im Quality mode, im App mode ist die Filterung der GF FX geringfügig besser allerdings nur mit Performance einbussen. Deshalb sag ich ja auch das die Lösung von ATi besser ist.

Unter D3D sieht Balanced sehr, sehr ähnlich aus wie App. und unter OpenGL filter Nvidia mit App. genauso schnell wie ATI mit Quality. Daher hat man bei Nvidia zur Zeit immer das bessere AF zur Hand. ATI kann daher nicht besser filtern, vorallen, wenn Winkel kommen, die im unguenstigen liegen.

ow
2003-04-09, 16:18:49
Originally posted by betareverse

Im Vergleich mit einem theoretischen, besseren app.Mode von NV selbst oder zu ATIs Lösung?

Im Vergleich zu ATis Loesung. Die ist ja nur deshalb soi schnell, weil eben nicht ueberall (->Winkelabhaengigkeit) mit hohem AF-level gefiltert wird.

Ein AF in NVs application modus gibt es eben nicht ohne entsprechenden Performance-Verlust. Das sollte eigentlich jedem klar sein.

betasilie
2003-04-09, 16:56:48
Originally posted by ow


Im Vergleich zu ATis Loesung. Die ist ja nur deshalb soi schnell, weil eben nicht ueberall (->Winkelabhaengigkeit) mit hohem AF-level gefiltert wird.

Ein AF in NVs application modus gibt es eben nicht ohne entsprechenden Performance-Verlust. Das sollte eigentlich jedem klar sein.
Mhhh, mii Sicherheit kann man das aber nicht sagen, da müsste ATI ertsmal ein App.-Mode kzur Verfügung stellen. Wer weiß schon wie schnell der im Vergleich mit NV wäre.

ow
2003-04-09, 17:01:23
Originally posted by betareverse

Mhhh, mii Sicherheit kann man das aber nicht sagen, da müsste ATI ertsmal ein App.-Mode kzur Verfügung stellen. Wer weiß schon wie schnell der im Vergleich mit NV wäre.


Das ist richtig so.

Die TMUs in GF und Radeon duerften sich von ihrer Leistung her aber kaum bis garnicht unterscheiden (haben beide bi-TMUs). Das RAM-Interface duerfte bei AF kaum eine limitierende Rolle spielen, weil die Texturen ja (groesstenteils) im Texturcache liegen, wenn sie gerade gebraucht werden.

zeckensack
2003-04-09, 17:33:32
Originally posted by ow
Ein AF in NVs application modus gibt es eben nicht ohne entsprechenden Performance-Verlust. Das sollte eigentlich jedem klar sein. Ack, aaaaber:
AF ist mit ein paar HW-Kleinigkeiten noch sehr gut optimierbar (rein vom Speed her, ohne Qualitätseinbußen).
Klar kann man perfektes AF mit Bi-TMUs und entsprechendem Loopback erzeugen, aber dedizierte HW für FELINE und ähnliche Algos kann das ganze deutlich schneller.
Die Lösung im NV20/25/30 ist sehr hmmm ... straightforward :)

Leider bietet ATI kein App-AF, Meßergebnisse davon würden mich sehr interessieren :naughty:

StefanV
2003-04-09, 18:46:05
Originally posted by Piffan


Das sehe ich völlig anders. Der Performancemodus bedeutet auf der Radeon ja schließlich lediglich, dass nun anstelle der trilinearen Filterung die bilineare genutzt wird. Ob das scheiße aussieht oder gut, das hängt vom Grad der Anisotrophie und von der Auflösung ab. Da kann ich mit der Radeon 9700 ordentlich klotzen, wodurch sich Mipmap- Bänder derart nach hinten verschieben, dass sie nicht die Spur stören. So zocke derzeit mit 1280x1024 mit 16fachem Bi- AF und habe allergrößte Mühe, die Bänder zu erkennen! Bei Mafia ist die Optik dadurch wesentlich besser, als sie auf der GF4 mit 8xAF war.


...was man sehr gut mit dem AF Tester des 3DMark 03 selbst feststellen kann...

-X-
2003-04-09, 19:42:35
in der pro-version,nich jeder hat aber eine:D

Endorphine
2003-04-09, 20:19:16
Originally posted by zeckensack
Leider bietet ATI kein App-AF, Meßergebnisse davon würden mich sehr interessieren :naughty: Mich auch, vor allem im Vergleich zur FX :)

Könnte man die winkeladaptive Komponente des AF nicht einfach deaktivieren? Das sollte doch rein treiberseitig so implementiert sein, oder?

Nebenbei hätte ich dann auch wieder echtes eye candy "full scene" AF :D Dann wäre der R300 technisch für mich nahe der Perfektion (fehlt nur noch RGSSAA).

Mr. Lolman
2003-04-09, 21:16:12
Originally posted by Endorphine
...
(fehlt nur noch RGSSAA).

...ist mir sogar wichtiger als perfektes AF.

StefanV
2003-04-09, 21:19:16
Originally posted by Mr. Lolman


...ist mir sogar wichtiger als perfektes AF.

...geht mir genauso...

Obwohl das 16x AF der R300 schon ganz gut gegen Texturflimmern hilft, was Novalogic ja verbockt hat...

Wenn ihr mal richtig 'schönes' Texturshimmering sehen wollt, dann spielt mal Tachyon (oder Final Fantasy X, die Stille Ebene)...

betasilie
2003-04-09, 21:21:19
Originally posted by Mr. Lolman


...ist mir sogar wichtiger als perfektes AF.
hehe, full ack. RGSSAA ist wirklich mal nötig. :D Ich hoffe ATI überrascht uns bald mal mit so einer Wahlmöglichkeit.

Endorphine
2003-04-09, 21:32:51
Was is eigentlich aus dem Vote im R3D-Forum für SSAA beim R300 geworden? Und hatte ATI SSAA nicht als Feature der 9700 angegeben? Ich hätte schon gern SSAA :)

Piffan
2003-04-09, 21:40:08
Originally posted by Endorphine
Was is eigentlich aus dem Vote im R3D-Forum für SSAA beim R300 geworden? Und hatte ATI SSAA nicht als Feature der 9700 angegeben? Ich hätte schon gern SSAA :)

Jau, schaden würde es sicher nicht, wenn man es als Option für Fortgeschrittene anbieten würde. Gut versteckt und sicher vor unfähigen Testern gewisser Mags! :D (Die PcGHardware ist mittlerweile die rühmliche Ausnahme, was brauchbare Tests in Printmedien angeht!

Da fällt mir ein: Ich habe ja noch gar nicht gevoted! Nun aber schnell....

Endorphine
2003-04-09, 21:55:58
Optimal wäre dann ein rTool mit vier Schiebereglern jeweils für OGL und D3D:
(1) AF von deaktiviert über application default bis zu 16x
(2) RGSSAA von deaktiviert über 1,5x bis 4x in x-Richtung
(3) RGSSAA von deaktiviert über 1,5x bis 4x in y-Richtung
(4) RGMSAA von deaktiviert über application default bis 6x

Und dieser spezielle aths-Modus im rTool muss dann über ein nur eingeweihten Usern bekanntes Tastenkürzel zugänglich gemacht werden :D :bäh: