PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv30 wird nächste woche vorgestellt!!


alex_x
2002-08-09, 20:17:23
hi


also wird mir bestimmt keiner glauben,aber als ich vorhin auf der amerekanischen nvidia seite rumgesurft bin,stand unten "next week presented "nv3"
glaubt mir das stand dort als ich die seite nach wenigen minuten wieder aktualisierte war es plötzlich verschwunden.ich glaube da hat einer geheime daten die noch nicht an die öffnentlichkeit gelagen sollten ausversehen auf die homepage geladen anders kann ichs mir nicht erklären.mal abwarten bis dann


gruß:alex

alex_x
2002-08-09, 20:20:07
eine große diskussion wert ist auf jeden fall die alleinstehende "3" keine null oder kein x danach,vielleicht hat mans vergessen?


gruß:Alex

Richthofen
2002-08-09, 20:27:33
hm.....
Eigentlich kämen ein NV28 und ein NV18 noch davor.
Also ich bin da eher skeptisch wobei ich glaube, das der NV30 Paper mäßig früher gelauncht wird als viele hier denken einfach um die Leute von der Radeon9700 und 9500 abzuhalten.
Für nen Paperlaunch muss man imho auch keine finalen Karten fertig haben.

Achja und nochwas zu diesem Thema.

Nach Aussagen von irgendwem bei Beyond3D im Forum, ich weiss nicht mehr obs Dave Baumann, ben6, Reverend oder typedef enum war, brieft Nvidia in dieser Woche die Hardware Seiten über neue Produkte.
Ich glaub der Reverend war das.

Wir haben noch 3 Augustwochen und irgendwas passiert im August noch bei Nvidia. Die Frage ist nur was - NV30 oder NV28/18? :)

Demirug
2002-08-09, 20:29:39
Am 15.August hat NVIDIA eine Pressekonferenz für die Investoren einberufen.

Richthofen
2002-08-09, 20:32:30
as i said irgendwas passiert noch :)

ausgewählte Hardwareseiten werden gebrieft
Investorenkonferenz einberufen
und August traditioneller Nvidia Monat.

Schaun mer mal.

egdusp
2002-08-09, 20:32:41
Originally posted by Demirug
Am 15.August hat NVIDIA eine Pressekonferenz für die Investoren einberufen.

Diese Pressekonferenzen sind AFAIK nach amerikanischem Recht doch für alle Investoren = Aktionäre = jedermann (da sonst Ausschluss von Kleinaktionären) offen, sprich mitzuhören oder so.

Mal gespannt was da rauskommt.

Übrigens, woher hast du diese Info? Ist die offiziell?

mfg
egdusp

Demirug
2002-08-09, 20:36:56
Originally posted by egdusp


Diese Pressekonferenzen sind AFAIK nach amerikanischem Recht doch für alle Investoren = Aktionäre = jedermann (da sonst Ausschluss von Kleinaktionären) offen, sprich mitzuhören oder so.

Mal gespannt was da rauskommt.

Übrigens, woher hast du diese Info? Ist die offiziell?

mfg
egdusp

ja ist offziell:

http://www.nvidia.com/view.asp?IO=IO_20020808_6728

alex_x
2002-08-09, 20:39:42
also ich bin davon überzeugt das nächste woche eine presentation von seiten nvidia geben wird.weil wieso stand soetwas auf deiser seite?


gruß:alex

GUNDAM
2002-08-09, 22:13:58
Früher oder später muss NVidia ja sowieso eine Pressekonferenz abhalten;)

Unregistered
2002-08-09, 22:19:21
Was ist den der nv18?? Der nv30 ist wohl sicher die ti serie und nv28 vielleicht die mx serie?

Unregistered
2002-08-09, 22:20:30
"nv30 wird nächste woche vorgestellt!!"

Glaube ich kaum eher angekündigt

alex_x
2002-08-09, 22:22:48
angekündigt ist er ja schon ;-)


gruß:alex

zeckensack
2002-08-09, 22:25:16
Originally posted by alex_x
angekündigt ist er ja schon ;-)


gruß:alex Wo?

alex_x
2002-08-09, 22:29:25
klar nvidia hat doch gesagt das sie eine neue grafikkarte herstellen,oder ist nach geforce4 schluß?:)


gruß:alex

zeckensack
2002-08-09, 22:38:04
Originally posted by alex_x
klar nvidia hat doch gesagt das sie eine neue grafikkarte herstellen,oder ist nach geforce4 schluß?:)


gruß:alex Ich dachte jetzt an eine Pressemitteilung ala "Heute, am Dienstag, hier in der Küche, geben wir offiziell bekannt, ein Produkt zu bauen, daß wir verkaufen wollen.

blablabla ..."

Sowas gab's AFAIK noch nicht ;)

aths
2002-08-09, 22:55:05
Na dann bin ich ja mal auf den Paperlaunch gespannt. Was mir als nV-Kunde mehr bringen würde, wäre allerdings jetzt kein NV30, sondern ein Fixing des AF-Problemes vom NV25.

nocturne
2002-08-10, 00:11:16
Originally posted by Richthofen

Wir haben noch 3 Augustwochen und irgendwas passiert im August noch bei Nvidia. Die Frage ist nur was - NV30 oder NV28/18? :)

Bis dahin kann man sich ja die Zeit mit netten Artikeln wie diesen vertreiben:

http://tech-report.com/etc/2002q3/nextgen-gpus/index.x?pg=1

Richthofen
2002-08-10, 00:17:08
den kenn ich schon :)

da finde ich das hier ausm Beyond3D Forum viel interessanter

"
Yet another thread about this but fairly intresting!

According to my source who wished to remain anonymous, all the info reactor critical has posted is correct and the NV30 will indeed be effectively capable of reaching 48gb/s of bandwidth!! (keep in mind, effective bandwidth, taking into account HSR, etc...).

The physical bandwidth will be 30-32gb/s according to him and the NV30 will also utilize DDRII memory (meaning that it will ship with it).

Core Clockspeed: He was not able to reveal it to me just yet...

From all the gathered info above, his latest tease was:

NV30: 480mhz DDRII * 2 * 256bit=30gb/s
R300: 310mhz DDR * 2 * 256bit=19,8gb/s <-- somewhere near that

Note: He is not sure about the 480mhz number but he assured me that it will probably be clocked at this speed!

I think no comments are needed here!

Keep in mind that my source is very reliable, since the info he provided me the previous times was always correct!

What do u guys think?

P.S
Sorry about the exagerrated use of bolded stuff, I just wanted to avoid confusions.
"

Muh-sagt-die-Kuh
2002-08-10, 00:21:29
Originally posted by Richthofen
"According to my source who wished to remain anonymous, all the info reactor critical has posted is correct and the NV30 will indeed be effectively capable of reaching 48gb/s of bandwidth!! (keep in mind, effective bandwidth, taking into account HSR, etc...)."
Das ist schlicht und einfach bullshit, Techniken wie HSR und Crossbars dienen nur dazu, die verfügbare physikalische Bandbreite auszunutzen, schaffen aber nicht mehr Bandbreite.....immer diese Marketing Leute....

Mal abgesehen davon ist Speicher mit fast 500 mhz Takt schweineteuer...

nocturne
2002-08-10, 00:27:38
So weit ich mich erinnere, ist der Begriff "Effektive Bandbreite" von der Marketingabteilung von PowerVR (Kyro) eingeführt worden...

;)

Xmas
2002-08-10, 00:44:18
Was ja nichts daran ändert dass es Unsinn ist.

Schnitzl
2002-08-10, 11:07:46
Originally posted by Richthofen
Also ich bin da eher skeptisch wobei ich glaube, das der NV30 Paper mäßig früher gelauncht wird als viele hier denken einfach um die Leute von der Radeon9700 und 9500 abzuhalten.
Für nen Paperlaunch muss man imho auch keine finalen Karten fertig haben.
(...)
Ich weiss noch wie früher die Leute gezetert haben, als der K6 rauskam und doch nicht...

Aber inzwischen gibts ja das schöne Wort Paperlaunch und niemand merkt mehr
dass das eigentlich nur Ver*rschung ist. Alles schön "legalisiert"

Die Computerwelt ist schon eine seltsame, da wird von Jahr zu Jahr mehr von den
Firmen akzeptiert...
Das betrifft nicht nur nVidia. Ebenso ATI (Stichwort Treiber) oder Matrox
(Stichwort "keine" Treiber) usw.

wollte ich nur mal erwähnt haben...

Piffan
2002-08-10, 11:10:05
Originally posted by Xmas
Was ja nichts daran ändert dass es Unsinn ist.

Nö, finde ich nicht. Wenn ich eine "herkömmliche" Graka ohne bandbreitensparende Techniken mit einer Graka vergleiche, die diese hat, dann sagt die eigentliche Bandbreite gar nix aus. Beispiel Parhelia.....

Man sollte dabei aber auch klar sagen, dass es eine relative Bandbreite ist....Allerdings ist die relative Bandbreite kein fixer Wert, sondern hängt von der Programmierung eines Spieles ab und insofern ist es doch Unsinn (aber geiles Marketing :naughty: )

skampi
2002-08-10, 11:19:26
Originally posted by Piffan


Nö, finde ich nicht. Wenn ich eine "herkömmliche" Graka ohne bandbreitensparende Techniken mit einer Graka vergleiche, die diese hat, dann sagt die eigentliche Bandbreite gar nix aus. Beispiel Parhelia.....


Dann sollte wohl eher bei einer "herkömmliche" Graka die effektive Bandbreite angegeben sein.

Aber genausogut könnt man ein "Athlon Rating" für den P4 fordern.;)

Silent Hunter
2002-08-10, 11:22:06
ich bin schon auf den Preis gespannt, hmm 500 EUR ;D :-(

Richthofen
2002-08-10, 11:54:09
"
ich bin schon auf den Preis gespannt, hmm 500 EUR
"
Wenn die geposteten Specs von dem Kerl stimmen wirst du mit 500 Euro am unteren Ende der Preisspanne fürs Top Modell liegen.

TheGood
2002-08-10, 12:29:48
das wird wohl locker ein 740 € Produkt. Nur wer will das kaufen???!! OK DAS Teil hat Power genug das den Preis sicher rechtfertig. Lassen wir uns überraschen :)
DAs ist doch das schöne am Grakamarkt *gg

Korak
2002-08-10, 12:31:13
Originally posted by TheGood
Lassen wir uns überraschen :)


Eben. Was anderes können wir auch garnicht machen =)

nocturne
2002-08-10, 13:24:44
Eine der Stärken von nVidia ist eben, nicht nur teure "Topmodelle" aus Prestigegründen herauszubringen, sondern auch in jedem anderen Preis/Leistungssegment gute Lösungen anzubieten. Für jeden eben das passende.

Wir werden sehen. ;)

Dany
2002-08-10, 13:45:21
ob Nvidia mit den NV30 so stark wird wage ich zu bezweifeln, denn bis jetzt hat es nichts innovatives gegeben wie auch bei Ati, also mehr FPS sonst nichts, und wer braucht schon bei QuakeIII 200FPS und mehr?

Richthofen
2002-08-10, 13:51:03
ich fürchte mit 4x Antialiasing oder mehr und entsprechend hohem Anisotropen Filtern wirst du nicht 200 fps bei Quake3 haben.
Da ist wohl der Wunsch Vater des Gedanken :)

"
das wird wohl locker ein 740 € Produkt. Nur wer will das kaufen!!
"
Das ist ja der Trick den auch ATI versucht. Die Top Modelle sollen möglichst wenige kaufen und dafür die kastrierten Teile.
Also Top Modell bei Anandtech und CO zum Einfahren der Benchmarksiege und die langsamen Produkte dann zum Geld machen.

An den Top Modellen verdienen die Hersteller keinen Cent.
Je weniger die Teile kaufen umso besser für die Hersteller. Die Markanteile wollen die mit den Billig Teilen ausbauen. Deswegen auch immer der fürstliche Preis für die High End Produkte.

Dany
2002-08-10, 13:54:40
mir würden 60FPS auch reichen, dann aber mit super Bildqualität, das Problem bei den meisten ist das sie mehr auf FPS wert legen, und die Hersteller sich dann wohl auch mehr auf das konzentrien, indem sie die FPS puschen aber die Qualität vernachlässigen.

Unregistered
2002-08-10, 14:16:56
Originally posted by nocturne
Eine der Stärken von nVidia ist eben, nicht nur teure "Topmodelle" aus Prestigegründen herauszubringen, sondern auch in jedem anderen Preis/Leistungssegment gute Lösungen anzubieten. Für jeden eben das passende.

Wir werden sehen. ;)

Eine der Stärken von Nvidia ist es, die Qualtitäten der Konkurrenz als vernachlässigbar darzustellen und die Vorteile der eigenen Produkte in den Vordergrund zu rücken. IMHO genau Deine Masche, nocturne.

Unregistered
2002-08-10, 15:13:02
Originally posted by Dany
mir würden 60FPS auch reichen, dann aber mit super Bildqualität, das Problem bei den meisten ist das sie mehr auf FPS wert legen, und die Hersteller sich dann wohl auch mehr auf das konzentrien, indem sie die FPS puschen aber die Qualität vernachlässigen.

"Super Bildqualität" ist relativ. Überlegt doch mal.

Was stört Euch an der Optik von heutigen 3D-Spielen am meisten? Meistens ist es doch abhängig vom Spiel und nicht von der Grafikarte. Also z.B. eckige Spielfiguren oder polygonarme Level.

Wenn 3D-Spiele besser aussehen sollen, dann sind in erster Line die Spieldesigner und -entwickler gefragt. Schaut Euch doch mal Screenshots aktueler und kommender Spiele in den Zeitschriften an. Da bräuchte man in erster Linie besseres Design und nicht bessere Hardware.

Und je besser die Grafikhardware wird, umso mehr werden solche Designschwächen auffallen. Das ist, als ob man alter verkratze Schallplatten abspielt. Wenn man das auf einem alten Plattenspiler macht, dann fällt das rauschen und Knacksen nicht so auf. Wenn man allerdings so eine Platte auf einer neuen Super-High-End-Stereoanlage abspielt, wird es unerträglich.

egdusp
2002-08-10, 15:47:32
Originally posted by Unregistered


"Super Bildqualität" ist relativ. Überlegt doch mal.

Was stört Euch an der Optik von heutigen 3D-Spielen am meisten? Meistens ist es doch abhängig vom Spiel und nicht von der Grafikarte. Also z.B. eckige Spielfiguren oder polygonarme Level.

Wenn 3D-Spiele besser aussehen sollen, dann sind in erster Line die Spieldesigner und -entwickler gefragt. Schaut Euch doch mal Screenshots aktueler und kommender Spiele in den Zeitschriften an. Da bräuchte man in erster Linie besseres Design und nicht bessere Hardware.

Und je besser die Grafikhardware wird, umso mehr werden solche Designschwächen auffallen. Das ist, als ob man alter verkratze Schallplatten abspielt. Wenn man das auf einem alten Plattenspiler macht, dann fällt das rauschen und Knacksen nicht so auf. Wenn man allerdings so eine Platte auf einer neuen Super-High-End-Stereoanlage abspielt, wird es unerträglich.

Unglaublich, ein Unregistered mit einer vernünftigen Meinung, bitte registriere dich.

Bin übrigens gerade FF X am durchzocken. Es ist wirklich erstaunlich welche (Grafische) Wirkung man mit gutem Design auch bei schwacher (PS2) Hardware erreichen kann.

mfg
egdusp

[DH]Avenger
2002-08-10, 16:05:20
Hmm hmm...15. August....hmm ist nicht genau an diesem Tag auch die Deadline für die Bestätigung der Bilanzkorrektheit?

Silent Hunter
2002-08-10, 16:07:03
kommt drauf an, wann sie die Bilanz abrechnen...

[DH]Avenger
2002-08-10, 16:42:31
Ach nee wirklich :) Aber die Deadline am 15.8. ist generell gültig.

Richthofen
2002-08-10, 16:52:08
15.8. ist offizielle Bekanntgabe der Quartalszahlen + Q&A Session bei Nvidia.
Das Teil neulich war ja nur ein Q2 2002 earnings guidance.
Also sozusagen ein Update.
Im Prinzip wars nix anderes als eine Umsatz und Gewinnwarnung, was sie zu großen Teilen MS zu verdanken haben :)

zeckensack
2002-08-10, 17:43:47
Originally posted by Richthofen
15.8. ist offizielle Bekanntgabe der Quartalszahlen + Q&A Session bei Nvidia.
Das Teil neulich war ja nur ein Q2 2002 earnings guidance.
Also sozusagen ein Update.
Im Prinzip wars nix anderes als eine Umsatz und Gewinnwarnung, was sie zu großen Teilen MS zu verdanken haben :) OT: IMO sollte sich niemand auf einen Vertrag mit MS einlassen ;)

aths
2002-08-10, 18:10:16
Originally posted by Piffan
Nö, finde ich nicht. Wenn ich eine "herkömmliche" Graka ohne bandbreitensparende Techniken mit einer Graka vergleiche, die diese hat, dann sagt die eigentliche Bandbreite gar nix aus.Man müsste dann die Bandbreite der anderen Karten runterrechnen, die Bandbreite hochzurechnen und das "effektive" Bandbreite zu nennen, ist schlichter Unsinn um zu Marketingzwecken große Zahlen zu haben.

aths
2002-08-10, 18:11:11
Originally posted by nocturne
Eine der Stärken von nVidia ist eben, nicht nur teure "Topmodelle" aus Prestigegründen herauszubringen, sondern auch in jedem anderen Preis/Leistungssegment gute Lösungen anzubieten. Für jeden eben das passende.Welche gute Lösung bietet nV denn im 70-€-Segment an?

aths
2002-08-10, 18:12:03
Originally posted by Richthofen
Das ist ja der Trick den auch ATI versucht.Nach dem nVidia seit Jahren beweist, dass der "Trick" funktioniert.

Doomtrain
2002-08-10, 18:15:01
Originally posted by aths
Welche gute Lösung bietet nV denn im 70-€-Segment an?

Eine Lösung schon, nur keine gute;)

Richthofen
2002-08-10, 18:34:15
Eine herrvoragende GF3Ti200 die es immer noch zu kaufen gibt und natürlich die GF4MX, welche für dich als Spieler doch mehr als brauchbar sind.

@Zeckenzack
Naja ich denke den Fehler von MS werden sie verschmerzen können :)
Haben ja dafür ein vielfaches dessen was sie nun außnahmsweise mal abschreiben mussten verdient durch MS.

Richthofen
2002-08-10, 18:35:51
"
Nach dem nVidia seit Jahren beweist, dass der "Trick" funktioniert.
"

Der Trick ist doch auch herrvorragend. ATI guggt sich den nun wie vieles andere ab. Ich fürchte aber das NV dank weitsichtigerer Entscheidung was die Fertigung betrifft den Trick im nächsten halben Jahr wird besser umsetzen können wie es sich gehört :)

Unregistered
2002-08-10, 18:54:21
Originally posted by Unregistered


"Super Bildqualität" ist relativ. Überlegt doch mal.

Was stört Euch an der Optik von heutigen 3D-Spielen am meisten? Meistens ist es doch abhängig vom Spiel und nicht von der Grafikarte. Also z.B. eckige Spielfiguren oder polygonarme Level.

Wenn 3D-Spiele besser aussehen sollen, dann sind in erster Line die Spieldesigner und -entwickler gefragt. Schaut Euch doch mal Screenshots aktueler und kommender Spiele in den Zeitschriften an. Da bräuchte man in erster Linie besseres Design und nicht bessere Hardware.

Und je besser die Grafikhardware wird, umso mehr werden solche Designschwächen auffallen. Das ist, als ob man alter verkratze Schallplatten abspielt. Wenn man das auf einem alten Plattenspiler macht, dann fällt das rauschen und Knacksen nicht so auf. Wenn man allerdings so eine Platte auf einer neuen Super-High-End-Stereoanlage abspielt, wird es unerträglich.

Irgendwie kann ich dir beim besten willen nicht folgen......

so interpretiere ich deine aussage:
DAS heisst eine schlecthe grafik plus gutes design machen eine gute grafik ???

Quasar
2002-08-10, 18:58:09
Originally posted by aths
Welche gute Lösung bietet nV denn im 70-€-Segment an?

'Ne GF4MX420 z.B., ATi bietet im selben Segment die Radeon7000 an, Matrox gar nichts und die Lösungen von SiS sind hier doch nicht konkurrenzfähig, wenn man mehr will, als nur I-Net/DVD/Office.

Quasar
2002-08-10, 19:01:35
Originally posted by aths
Nach dem nVidia seit Jahren beweist, dass der "Trick" funktioniert.

Gut erkannt. So wird eben Geld verdient.

Stell' dir mal vor, wo nV wäre, wenn sie kein Geld verdienen würden...richtig: In der Insolvenz.
Dann würde ATi den Markt beherrschen und uns jede noch so kleine Innovation teuer bezahlen lassen....

Konkurrenz ist es, was den Fortschritt erst möglich macht, wenn es die nicht gäbe, wären wir noch beim 2 Pipelines, 2 TMUs, keinerlei HSR, keinem TnL, keiner Texturkompression und müssten trotzdem 300€ pro Grafikkarte blechen.

Eusti
2002-08-10, 19:39:04
Also zu der angekündigten Pressekonferenz: Das ist ein Conference Call, der alle 3 Monate routinemäßig stattfindet (ist bei den größten amerikanischen AG´s so Standard | machen z.B. auch AMD & Intel).

Eine Neuankündigung eines Produktes wird es meiner Meinung da auf gar keinen Fall geben. Bislang wurden alle Nvidia Produkte anders angekündigt.

Allerdings müssen die Manager von Nvidia auf der Konferenz Fragen der Besitzer/Aktionäre beantworten. Und nach dem Ärger der letzten Monate (Skandal um Worldcom und Enron, inkl. Verhaftungen der dortigen Manager) werden sich die Nvidia Manager mit dem Lügen wohl ein wenig zurückhalten.

Wenn jetzt jemand fragt, ob die nächste Chipgeneration (NV3x) in diesem Jahr noch ins Massengeschäft kommt, so gibt es auf dem Conferene Call sicherlich nur eine wenig falsche: Antwort. Wenn aber jemand nach Taktraten und/oder Anzahl von Funktionen/Pipelines fragen würde, so wird er (so denke ich) keine Antwort erhalten -> weil wegen Geheim und so....

nocturne
2002-08-10, 19:56:33
Originally posted by aths

Die Bandbreite hochzurechnen und das "effektive" Bandbreite zu nennen, ist schlichter Unsinn um zu Marketingzwecken große Zahlen zu haben.

Das musst Du vor allem der PR-Abteilung von PowerVR/Kyro vorwerfen, aber auch Leonidas. Der hat z.B. in einem 3dcenter-Artikel (Link (http://www.3dcenter.org/artikel/2001/06-12.php)) genau das gemacht: er hat die Bandbreite für die Kyro-Chips hochgerechnet, um größere Zahlen zu haben.

:lol:

Exxtreme
2002-08-10, 20:05:12
@ nocturne
Leo hat es aber auch explizit hingeschrieben. Er hat aber auch die 'echte' Bandbreite hingeschrieben.

Gruß
Alex

ice cool69
2002-08-10, 20:48:49
@ richthofen

*lol* auf welcher grundlage basieren deine vermutungen dass die firmen an ihren topmodellen nichts verdienen?

und warum sind deine texte eigentlich immer so subjektiv-nvidiabezogen?
mal ne frage: ist ein nvidiamonopol das was du am liebsten hättest, also kein ati o.ä. und glaubst du dass die technik- und preisentwicklung genaus wie jetzt ist wenn nvidia keine konkurrenz mehr zu fürchten hat?

aths
2002-08-11, 00:44:43
Originally posted by Quasar
'Ne GF4MX420 z.B., ATi bietet im selben Segment die Radeon7000 an, Matrox gar nichts und die Lösungen von SiS sind hier doch nicht konkurrenzfähig, wenn man mehr will, als nur I-Net/DVD/Office. Wo bekommt man eine MX420 für 70 €?

aths
2002-08-11, 00:47:25
Originally posted by nocturne
Das musst Du vor allem der PR-Abteilung von PowerVR/Kyro vorwerfen, aber auch Leonidas. Der hat z.B. in einem 3dcenter-Artikel (Link (http://www.3dcenter.org/artikel/2001/06-12.php)) genau das gemacht: er hat die Bandbreite für die Kyro-Chips hochgerechnet, um größere Zahlen zu haben.
:lol: Bitte genauer hingucken. Leo hat hochgerechnet um vergleichbare Zahlen zu haben. Die erste Anhabe ist die echte, die zweite in Klammern die hochgerechnete. Er hätte alternativ auch die Bandbreiten oder Füllraten herunterrechnen können, doch was für einen Aufschrei gäbe es von der nVidia-Fraktion, wenn die Füllrate einer GF2 Pro mit 400-500 MP angegeben würde...

nocturne
2002-08-11, 01:41:33
Originally posted by aths
Wo bekommt man eine MX420 für 70 €?

Z.B. hier, ab 69,99:

http://www.geizhals.at/de/?cat=gra64&sort=p

Richthofen
2002-08-11, 02:15:18
"
und warum sind deine texte eigentlich immer so subjektiv-nvidiabezogen?
"

Ich mag NV einfach mehr als ATI, weil sie für mich als Gamer bisher das bessere abgeliefert haben und das seid Jahren.
Der aktuelle Test von 3DCenter bzw das Roundup bestätigt mich darin eigentlich nur noch mehr.
Ich halte nach wie vor die GF3Ti500 der Radeon8500 für überlegen wenn auch nur minimal was ja viele nach dem 100ersten Treiberupdate seitens ATI anzweifeln aba wenn ich mir das Roundup anschaue, so muss ich sagen das ich sogar die alte GF3 noch für besser halte als die Radeon8500.

Ansonsten was das Geldverdienen betrifft, so ist das ein offenes Geheimnis das bei den HIgh End Modellen kein Geld gemacht wird.
Viel zu geringe Stückzahlen. Ich hab jetzt nicht die aktuelle Folie von Nvidia vorliegen wo die Marktsegmente genau eingeteilt sind.
High End jedenfalls ist nur ein sehr kleiner Teil, der kaum auffällt und gerade in dem Bereich sind die Kosten hoch, weil man in Extremzonen arbeitet, was Taktraten, Platinenlayout und und und angeht.

mezzo
2002-08-11, 02:21:15
Originally posted by Richthofen

Ansonsten was das Geldverdienen betrifft, so ist das ein offenes Geheimnis das bei den HIgh End Modellen kein Geld gemacht wird.
Viel zu geringe Stückzahlen. Ich hab jetzt nicht die aktuelle Folie von Nvidia vorliegen wo die Marktsegmente genau eingeteilt sind.
High End jedenfalls ist nur ein sehr kleiner Teil, der kaum auffällt und gerade in dem Bereich sind die Kosten hoch, weil man in Extremzonen arbeitet, was Taktraten, Platinenlayout und und und angeht.

Wenn du die besagte Folie noch finden solltest, dann poste sie hier doch mal. Wäre bestimmt sehr interessant!

Quasar
2002-08-11, 12:05:44
Originally posted by aths
Wo bekommt man eine MX420 für 70 €?

Hier (http://www.winner-computer.de/), hier (http://www.schiwi.de) und mit leichten Abstrichen (ca.73,5€) auch noch bei einigen anderen, z.B. hier (http://www.fortknox.de/)

Und für 82,50€ bekommt man eine MX440 hier (http://www.hw-elektronik.de).

ice cool69
2002-08-11, 17:01:36
und mit welcher begründung siehst du die gf3ti500 oder gar die gf3 vor der r8500?
die r8500 hat mehr features (dx8.1), eine bessere bildqualität und ist schneller (schnelleres ram, mehr texturen/pass etc.)

dir wurde anscheinend jede objektivität geraubt. na jedenfalls funzt die marketingmaschine nvidia bei dir wirklich sehr gut :D

Richthofen
2002-08-11, 17:08:14
"
und mit welcher begründung siehst du die gf3ti500 oder gar die gf3 vor der r8500?
die r8500 hat mehr features (dx8.1), eine bessere bildqualität und ist schneller (schnelleres ram, mehr texturen/pass etc.)
"

mehr Features nutzen mir als Gamer gar nix wenn es sich dabei um irgendwelche DX oda OGL Features handelt.
Bessere Bildqualität kann ich nicht ganz nachvollziehen wo die sein soll.
Schau dir den Test an und du wirst sehen das die Radeon nach wie vor unausgegoren ist und das nach dem x. Treiberupdate.
Und die hier getesteten Spiele bewegen sich sogar noch im Rahmen dessen was man als bekannte Spiele einordnen kann.
Sowie du abseits solcher Spiele dich bewegst siehts gerade bei der Radeon nicht selten schlechter aus wie ja zb auch SimHQ schon festgestellt haben.

Also mein Fazit bleibt. Als Gamer hast von einer GF3Ti500 nach wie vor mehr und nach dem Test rangiere ich auch fast die gute alte standard GF3 noch dazu.

ow
2002-08-11, 17:15:32
Originally posted by ice cool69
und mit welcher begründung siehst du die gf3ti500 oder gar die gf3 vor der r8500?
die r8500 hat mehr features (dx8.1), eine bessere bildqualität und ist schneller (schnelleres ram, mehr texturen/pass etc.)



Die mehr Features nutzen der Radeno nichts, da ungenutzt.
Die Bildqualität ist schlechter und sie ist langsamer als eine GF3.

HOT
2002-08-11, 17:21:33
Fragt sich nur ob die Radeon8500 auch in Games, wo es wirklich drauf ankommt immernoch hinterherhinkt. Z.B. in Doom3 oder neuen MMORPGs. Das wag ich nämlich zu bezweifeln. Die Geforce3 ist gegenüber der Radeon8500 nicht mehr empfehlenswert.

ow
2002-08-11, 17:27:16
Eine GF3 ist der Radeon8500 fast immer vorzuziehen, wie der 3DC Artikel hier zeigt:

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/

Und was zukünftige Games angeht: da sehe ich auch keinen Vorteil für die R8500.

Razor
2002-08-11, 17:27:38
PS1.4, nicht DX8.1, ice cool...

Auch die gf3-Linie ist DX8.1 compliant und keine der Karten (NV2x, R200) unterstützt DX8.1 voll !

Könnte mir vorstellen, dass Richthofen mit seiner Meinung die bessere Allround-Leistung meint und deswegen eher zur gf3, denn zur R8500 tendiert. Die R8500 ist im AF klar schneller, kommt aber bei weitem nicht an die Qualität der gf3 heran. Das Antialiasing der R8500 ist Leistungsseitig kaum zu gebrauchen.

Vielleicht konnte ich ja nun zu ein wenig mehr Objektivität Deinerseits beitragen !
:D

In diesem Sinne

Razor

Razor
2002-08-11, 17:31:22
Originally posted by HOT
Fragt sich nur ob die Radeon8500 auch in Games, wo es wirklich drauf ankommt immernoch hinterherhinkt. Z.B. in Doom3 oder neuen MMORPGs. Das wag ich nämlich zu bezweifeln. Die Geforce3 ist gegenüber der Radeon8500 nicht mehr empfehlenswert.
Für diese Art Games ist allenfalls noch die gf4ti4600 zu empfehlen...
Gf3 und R8500 ist hier beide nicht mehr sehr empfehlenswert und stellen bei dieser Art Games doch wohl eher die untere Leitungskategorie dar.

Somit wage ich Deine Aussage hierzu anzuzweifeln !
;-)

In diesem Sinne

Razor

Exxtreme
2002-08-11, 17:40:29
Originally posted by Razor

Für diese Art Games ist allenfalls noch die gf4ti4600 zu empfehlen...
Gf3 und R8500 ist hier beide nicht mehr sehr empfehlenswert und stellen bei dieser Art Games doch wohl eher die untere Leitungskategorie dar.

In diesem Sinne

Razor
Deswegen hole ich mir bald eine R9700Pro. Endlich SuperSampling in hoher Geschwindigkeit wenn man der ATi-Präsentation Glauben schenken darf.

Gruß
Alex

Razor
2002-08-11, 17:46:04
Originally posted by Exxtreme

Deswegen hole ich mir bald eine R9700Pro. Endlich SuperSampling in hoher Geschwindigkeit wenn man der ATi-Präsentation Glauben schenken darf.

Gruß
Alex
Jep.
Darauf bin ich schon mal wirklich gespannt !

Holen werde ich mir allerdings erst irgendetwas, wenn alle Fakte, aller Hersteller auf dem Tisch liegen.

Bis denne

Razor

ow
2002-08-11, 17:55:04
Originally posted by Exxtreme

Deswegen hole ich mir bald eine R9700Pro. Endlich SuperSampling in hoher Geschwindigkeit wenn man der ATi-Präsentation Glauben schenken darf.

Gruß
Alex


Du glaubst Herstellerpräsentationen? ;)

Mit Multisampling lässt sich IMO doch sehr gut leben.

Exxtreme
2002-08-11, 18:04:50
Originally posted by ow



Du glaubst Herstellerpräsentationen? ;)

Kommt darauf an von welcher Company. ;)

Originally posted by ow
Mit Multisampling lässt sich IMO doch sehr gut leben.
Solange die _relative_ Sichtweite unter 20 m ist, stimme ich zu.

Gruß
Alex

Muh-sagt-die-Kuh
2002-08-11, 18:22:52
Originally posted by ow
Eine GF3 ist der Radeon8500 fast immer vorzuziehen, wie der 3DC Artikel hier zeigt:

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/

Und was zukünftige Games angeht: da sehe ich auch keinen Vorteil für die R8500. Du gehts hier von deinen persönlichen Vorlieben aus und gibts deine persönliche Meinung als allgemeingültig an...das ganze anders zu formulieren wäre besser.

Ich sehe in diesem Artikel eine R8500 die mit der Bildqualitätssteigernden anisotropen Filterung die GeForce 3 in fast jedem Benchmark absägt....ich hab mir die Radeon eben wegen diesem Feature gekauft und dieser Vergleich zeigt mir, dass meine Wahl die richtige war..

Mir ist klar was jetzt wieder kommen wird....."aniso ist ja so hässlich mit der R8500, ich nehm lieber trilinear bla bla bla"....wer aniso nicht mag, soll eben mit seiner GF3 glücklich werden ;)

ow
2002-08-11, 18:23:16
Originally posted by Exxtreme


Solange die _relative_ Sichtweite unter 20 m ist, stimme ich zu.

Gruß
Alex [/SIZE]


??? Was hat denn das mit der Sichtweite zu tun?

ow
2002-08-11, 18:25:42
Originally posted by Muh-sagt-die-Kuh
Ich sehe eine R8500 die mit der Bildqualitätssteigernden anisotropen Filterung die GeForce 3 in fast jedem Benchmark absägt....ich hab mir die Radeon eben wegen diesem Feature gekauft und dieser Vergleich zeigt mir, dass meine Wahl die richtige war..

Mir ist klar was jetzt wieder kommen wird....."aniso ist ja so hässlich mit der R8500, ich nehm lieber trilinear bla bla bla"....wer aniso nicht mag, soll eben mit seiner GF3 glücklich werden ;)


Wenn du doch weisst, wie hässlich das aniso der Radeon ist, wie kannst du dann deren Benches mit der einer GF vergleichen, die ein absolut einwandfrei aniso gefiltertes Bild liefert?

Muh-sagt-die-Kuh
2002-08-11, 18:26:34
Originally posted by Exxtreme

Solange die _relative_ Sichtweite unter 20 m ist, stimme ich zu.

Gruß
Alex [/SIZE]Man kombiniere MSAA mit 16 x anisotropischer Filterung und freue sich über das fast perfekte Ergebnis ;)

Muh-sagt-die-Kuh
2002-08-11, 18:28:34
Originally posted by ow



Wenn du doch weisst, wie hässlich das aniso der Radeon ist, wie kannst du dann deren Benches mit der einer GF vergleichen, die ein absolut einwandfrei aniso gefiltertes Bild liefert? Hässlich ist subjektiv...geh nicht immer von deinen (übertriebenen) Forderungen aus...

Exxtreme
2002-08-11, 18:31:05
Originally posted by ow
??? Was hat denn das mit der Sichtweite zu tun?
SuperSampling erzeugt u.A. einen Pseudo-AF-Effekt. Das wird aber erst sichtbar wenn sich die Textur in einer gewissen Entfernung befindet. Auch die Texturen, auf die man direkt draufschaut, werden detailreicher. Alles eine Frage des richtigen LOD-Bias. Laut zeckensack ist dieser Effekt in den aktuellen R8500-Treibern leider deaktiviert da der LOD-Bias nicht angepasst wird.

Gruß
Alex

Exxtreme
2002-08-11, 18:32:21
Originally posted by Muh-sagt-die-Kuh
Man kombiniere MSAA mit 16 x anisotropischer Filterung und freue sich über das fast perfekte Ergebnis ;)
Man kombiniere SSAA mit 16xAF und erhält ein noch viel besseres Ergebnis wenn der Treiber den richtigen LOD-Bias wählt.

Gruß
Alex

ow
2002-08-11, 18:33:53
Originally posted by Exxtreme

Laut zeckensack ist dieser Effekt in den aktuellen R8500-Treibern leider deaktiviert da der LOD-Bias nicht angepasst wird.

Gruß
Alex


Also bleibt nur die viel schwächere Leistung des Supersampling gegenüber Multisampling.
Da finde ich doch, dass man mit MS gut leben kann.

Und wie der lodbias beim SSAA der R300 genutzt wird ist derzeit unbekannt.

Muh-sagt-die-Kuh
2002-08-11, 18:34:11
Originally posted by Exxtreme

Man kombiniere SSAA mit 16xAF und erhält ein noch viel besseres Ergebnis wenn der Treiber den richtigen LOD-Bias wählt.

Gruß
Alex Meine Meinung: Lieber ein klein bischen weniger Qualität durch MSAA dafür aber höhere Frameraten.

ow
2002-08-11, 18:36:13
Originally posted by Muh-sagt-die-Kuh
Hässlich ist subjektiv...geh nicht immer von deinen (übertriebenen) Forderungen aus...


Schwimmende Texturen und Artefakte, zudem falsche Auswahl der Mipmaplevel ist subjektiv?? IMO nicht.

Meine Forderungen sind nicht übertrieben, ich lege halt Wert auf perfekte Bildqualität und keine verschlimmbesserenden Texturfiltermassnahmen.

Muh-sagt-die-Kuh
2002-08-11, 18:46:08
Originally posted by ow



Schwimmende Texturen und Artefakte, zudem falsche Auswahl der Mipmaplevel ist subjektiv?? IMO nicht.

Meine Forderungen sind nicht übertrieben, ich lege halt Wert auf perfekte Bildqualität und keine verschlimmbesserenden Texturfiltermassnahmen. Deine Sache, ich lege Wert auf einen guten Kompromiss zwischen Bildqualität und Geschwindigkeit....welchen die GeForce Chips nicht bieten, sie brechen mit AF viel zu stark ein.

Falsche Auswahl der MIP-Level kommen selten vor, zudem sieht man (man steht für den Großteil der User) sie ohne farbige MIP-Levels sowieso nicht. Ein leichtes "Schwimmen" sieht man nur bei bestimmten Texturen. Und was verstehst du bitte unter sonstigen "Artefakten"?

AF ist bei der Radeon fast 4free, über diese kleinigkeiten sehe ich gerne hinweg, bzw sie fallen mir garnicht auf.....etwas gewöhnung ist wohl auch dabei.

Überhaupt mal eine R8500 unter AF in Aktion gesehen?

ow
2002-08-11, 18:56:42
Originally posted by Muh-sagt-die-Kuh
Deine Sache, ich lege Wert auf einen guten Kompromiss zwischen Bildqualität und Geschwindigkeit....welchen die GeForce Chips nicht bieten, sie brechen mit AF viel zu stark ein.



Das EINbrechen ist der Preis für perfekte Qualität. Imerhin liegen die GFs selbst mit dem Einbruch noch auf Niveau der R8500 und das bei wesentlich beserer Bildqualität. Und mit AA ist bei der R8500 fast nichts zu holen, viel zu langsam.


Falsche Auswahl der MIP-Level kommen selten vor, zudem sieht man (man steht für den Großteil der User) sie ohne farbige MIP-Levels sowieso nicht. Ein leichtes "Schwimmen" sieht man nur bei bestimmten Texturen. Und was verstehst du bitte unter sonstigen "Artefakten"?


Artefakte: unter bestimmten Sichtwinkln werden die Texturen fast gar nicht gefiltert. Sehr hässlich. Wurde in vielen Reviews der R8k5 auch durch Screenshots gezeigt.


AF ist bei der Radeon fast 4free, über diese kleinigkeiten sehe ich gerne hinweg, bzw sie fallen mir garnicht auf.....etwas gewöhnung ist wohl auch dabei.

Überhaupt mal eine R8500 unter AF in Aktion gesehen?


Das ist ja auch nur deshalb fast 4free, weil es kein echtes AF Filtern ist.

Ja, ich habe eine Radeon1. Die kann genauso AF filtern wie die R8500 auch. Ich kenne ATis AF in Aktion.

Und die niedrigeren AF Modi als 16fach scheinen zudem alle fehlerhaft zu arbeiten. Schau dir zB. mal Q3 mit 2xAF auf der Radeon an.


btw. schon eine GF bei AF in Aktion gesehen?

Muh-sagt-die-Kuh
2002-08-11, 19:13:37
Originally posted by ow


Das Einbrechen ist der Preis für perfekte Qualität. Imerhin liegen die GFs selbst mit dem Einbruch noch auf Niveau der R8500 und das bei wesentlich beserer Bildqualität. Und mit AA ist bei der R8500 fast nichts zu holen, viel zu langsam.Meistens ja....aber schau dir mal Aquanox und UT an ;) MSAA ist nicht direkt mit SSAA zu vergleichen, mir ist AA zudem unwichtig.
Artefakte: unter bestimmten Sichtwinkln werden die Texturen fast gar nicht gefiltert. Sehr hässlich. Wurde in vielen Reviews der R8k5 auch durch Screenshots gezeigt.Ich schau mir nicht jedes Bild mit der Lupe an, ist mir bisher auch noch nicht aufgefallen.
Das ist ja auch nur deshalb fast 4free, weil es kein echtes AF Filtern ist.Dann sag mir doch mal was es denn sein soll...es macht das was aniso machen soll, nämlich in der Bildtiefe schärfere Texturen erzeugen.Ja, ich habe eine Radeon1. Die kann genauso AF filtern wie die R8500 auch. Ich kenne ATis AF in Aktion.Dann gib mir eine Quelle, die besagt, dass sich hier nichts geändert hat.
Und die niedrigeren AF Modi als 16fach scheinen zudem alle fehlerhaft zu arbeiten. Schau dir zB. mal Q3 mit 2xAF auf der Radeon an.Wozu, wenn 16 x so gut wie keinen Verlust ergibt?
btw. schon eine GF bei AF in Aktion gesehen?Ja, ich hab neulich für einen Studienkollegen ein System mit einer GF3Ti200 zusammengeschraubt....ein leichter Unterschied ist sichtbar, allerdings nichts weltbewegendes.

Richthofen
2002-08-11, 20:55:34
"
Könnte mir vorstellen, dass Richthofen mit seiner Meinung die bessere Allround-Leistung meint und deswegen eher zur gf3, denn zur R8500 tendiert. Die R8500 ist im AF klar schneller, kommt aber bei weitem nicht an die Qualität der gf3 heran. Das Antialiasing der R8500 ist Leistungsseitig kaum zu gebrauchen.
"

Genau das ist der Punkt.
1. Lass ich das Rauspicken von Rosinen generell nicht gelten.
Bei mir zählt nur gescheites Bild also AF und AA.
AA only oder AF only lass ich grundsätzlich als Argument nicht gelten.
2. Bessere Allrounderkarte und das deutlich. Siehe 3DCenter Test
3. Liegen wir mit den getesteten Games im Bereich der Games die überall gebencht werden.
Daher meine Überzeugung die zb im Bereich der Flugsimulatoren von SimHQ auch nachgewiesen wurde: Bewegen wir uns abseits der Standard Games wird der Vorteil der GeForce3 und 4Ti Derivate größer, weil sie überall annähernd gleich gut performen. Sieht man übrigens im 3DCenter Test sehr gut in den CPU limitierten Spielen.

Ergo bleibt mir mich nach wie vor das Fazit das GF3Ti500 und mit Abstrichen GF3 Standard besser für mich als Gamer mehr bieten als die Radeon8500 oder LE.

Nix anderes hab ich oben gemeint.

TheGood
2002-08-11, 21:05:32
und wie siehts dann mit z2 aus???
Da sind die gf recht weit weg und genau das ist ein spiel das ausserhalb der sonst üblichen tests ist... Die anderen games sind alle mehr oder weniger häufig in test zu finden

PS: eines ist sicher nach diesem Vergleich kann ich jedem nur eine ti4200 empfehlen und das tue selbst ich als nicht so nvidia freundlich gesinnter. Aber für 150 € gibts einfach keine bessere Graka....atm.

StefanV
2002-08-11, 21:13:22
Originally posted by TheGood
PS: eines ist sicher nach diesem Vergleich kann ich jedem nur eine ti4200 empfehlen und das tue selbst ich als nicht so nvidia freundlich gesinnter. Aber für 150 € gibts einfach keine bessere Graka....atm.

Und wie schauts für die aus, die keine 300 Deutsche Mark für eine GF4 ausgeben wollen??
(außerdem gibts für 150€ auch nicht soo viel gutes, 'richtige' 4200 gibts erst ab 160€)...

Die lieber 220 DM für 'ne Radeon ausgeben??

Nur mal so in alter Währung gedacht...

zeckensack
2002-08-11, 23:05:21
Originally posted by Exxtreme

SuperSampling erzeugt u.A. einen Pseudo-AF-Effekt. Das wird aber erst sichtbar wenn sich die Textur in einer gewissen Entfernung befindet. Auch die Texturen, auf die man direkt draufschaut, werden detailreicher. Alles eine Frage des richtigen LOD-Bias. Laut zeckensack ist dieser Effekt in den aktuellen R8500-Treibern leider deaktiviert da der LOD-Bias nicht angepasst wird.

Gruß
Alex Jein ;)

Der LOD-Bias wird angepaßt, und genau das ist das Problem. Bei 'Strohdumm-SuperSampling' (TM), dh einfach rendern in höhere Auflösung mit anschließendem Runterfiltern tritt der gewünschte Effekt (quasi-AF) automatisch auf, ohne jede Änderung am LOD-Bias.

Das kann jeder Nachprüfen, der 'große' Screenshots mit 'ner Bildbearbeitung runterfiltert (Paint Shop Pro geht zB ganz gut) und mit 'kleinen' Screenshots vergleicht.

Ist aber ein klein wenig OT hier, oder ???

Ich mach demnächst nochmal 'nen Thread dazu im Techno-Forum auf (inklusive Screenshots), weil's doch in letzter Zeit sehr häufig angesprochen wurde ...

zeckensack
2002-08-11, 23:07:34
Originally posted by Muh-sagt-die-Kuh Dann gib mir eine Quelle, die besagt, dass sich hier nichts geändert hat.Ich stelle mich als 'Quelle' zur Verfügung. AF sieht auf der R100 und der R200 (IMO?) identisch aus. Ich habe beide Karten hier und verspreche weiterhin, nicht an NVidiotismus zu leiden :)

TheGood
2002-08-11, 23:23:32
Originally posted by zeckensack
Ich stelle mich als 'Quelle' zur Verfügung. AF sieht auf der R100 und der R200 (IMO?) identisch aus. Ich habe beide Karten hier und verspreche weiterhin, nicht an NVidiotismus zu leiden :)
lool :)

Exxtreme
2002-08-11, 23:29:40
Originally posted by zeckensack
Jein ;)

Bei 'Strohdumm-SuperSampling' (TM),
:bounce: :lol:
Ist echt gut der Spruch, Signatur aktualisiert. :)

Gruß
Alex

zeckensack
2002-08-11, 23:59:14
Originally posted by zeckensack
Ich mach demnächst nochmal 'nen Thread dazu im Techno-Forum auf (inklusive Screenshots), weil's doch in letzter Zeit sehr häufig angesprochen wurde ... Da isser (http://www.forum-3dcenter.net/vbulletin/showthread.php?threadid=28963)

edit:Originally posted by Exxtreme

:bounce: :lol:
Ist echt gut der Spruch, Signatur aktualisiert. :)

Gruß
Alex Ist mir immer wieder eine Freude, für Freude sorgen zu können :liplick: ;D

Unregistered
2002-08-12, 00:26:24
Originally posted by ow


Die mehr Features nutzen der Radeno nichts, da ungenutzt.
Die Bildqualität ist schlechter und sie ist langsamer als eine GF3.

LOOOOOOL, der Witz des jahres, ne echt, soetwas flasches und dämliches hab ich lange nicht mehr gehört...weiter so, ich lache doch so gerne...ROFLMAO

Unregistered
2002-08-12, 00:34:36
Originally posted by ow


Das EINbrechen ist der Preis für perfekte Qualität. Imerhin liegen die GFs selbst mit dem Einbruch noch auf Niveau der R8500 und das bei wesentlich beserer Bildqualität. Und mit AA ist bei der R8500 fast nichts zu holen, viel zu langsam.



Artefakte: unter bestimmten Sichtwinkln werden die Texturen fast gar nicht gefiltert. Sehr hässlich. Wurde in vielen Reviews der R8k5 auch durch Screenshots gezeigt.




Das ist ja auch nur deshalb fast 4free, weil es kein echtes AF Filtern ist.

Ja, ich habe eine Radeon1. Die kann genauso AF filtern wie die R8500 auch. Ich kenne ATis AF in Aktion.

Und die niedrigeren AF Modi als 16fach scheinen zudem alle fehlerhaft zu arbeiten. Schau dir zB. mal Q3 mit 2xAF auf der Radeon an.


btw. schon eine GF bei AF in Aktion gesehen?

Ups, das hatte ich ja auch noch übersehen, doh!
**** alleine die Radeon mit Radeon8500 gleichzusetzen, **** , aber der Rest ist ja noch schlimmer...BITTE SCHREIB DOCH NICHTS MEHR, WENN DU WIRKLICH GAR KEINE AHNUNG HAST UND NUR DEIN NVIDIOTISCHEN SCHROTT ABLASSEN KANNST...ROFLMAO
Ja, das AF sieht besser als bei einer GF3/GF4 aus und wird zudem eher erkannt als das NV gebilde (Renegade als Bsp., da darf die GF3/4 nur Trilinear Filtern und es sieht zudem schlechter aus)
Ja, die 2D Darstellung ist aufgrund eines Twin400MHz RamDacs besser und zudem sind höhere Auflösungen möglich
Ja, 2xFSAA mit 16xAF ist sehr wohl und sehr gut allerdings nur in mittelprächtigen Auflösungen spielbar und fehlerhaft waren nur die ersten Radeon8500er Treiber, sowie das Geschreibsel eines ow...;)

Jetzt bring mich bitte nicht noch mehr zum lachen, ich hab ja schon Bauchweh...;)

Dumme Anmache und Beleidigungen gelöscht by Exxtreme

Unregistered
2002-08-12, 00:41:24
Für manche Unregs kann ich mich nur schämen

Exxtreme
2002-08-12, 01:02:55
@ Unreg, dessen Posting ich gerade editiert habe

Gaaanz oben auf der Startseite des Forums gibt es einen Link zu den Forumsregeln. Lies sie dir mal richtig durch und dann wirst du merken, daß du gegen diese verstossen hast. Wenn das dumme Gelaber und die Beleidigungen nicht aufhören, wirst du mit Konsequenzen rechnen müssen. Das Forum speichert die IP-Adresse, so daß man dich zurückverfolgen kann.

Gruß
Alex

aths
2002-08-12, 10:23:23
Originally posted by ow
Das ist ja auch nur deshalb fast 4free, weil es kein echtes AF Filtern ist.Es gibt afaik keine "gültige" Definition von AF.

Radeon1 filtert nicht mehr oder weniger "echt" AF als GF3, nur dass ATIs Version performance- und die nVidia-Version qualitätsoptimiert ist.

ow
2002-08-12, 10:28:33
Originally posted by aths
Es gibt afaik keine "gültige" Definition von AF.

Radeon1 filtert nicht mehr oder weniger "echt" AF als GF3, nur dass ATIs Version performance- und die nVidia-Version qualitätsoptimiert ist.


Dann definiere ich mal grob AF: es werden mehr Texel zur Berechnung eines Pixels genutzt als ohne AF und auch mehr (oder gleichviele) Texel als bei trilinearem Filtern.

Zumindest letzteres ist bei ATi nicht der Fall, wie die Peformance zeigt.
Trilineares Filtern, dass man auch als 1xAF sehen kann ist auf der Radeon langsamer als 4xAF bilinear.

Also aths, erhelle uns mal, was ATi denn beim AF tut und was nicht.
Viele Texel scheinen sie dazu ja nicht zu brauchen.

Gibt's AFAYK auch keine Definition fuer bilinearers und trilineares Filtern??

Korak
2002-08-12, 12:14:22
Ich hab hier mal ein Bildchen gemacht von dem ich glaube, dass es das zeigt was ow meint.
Aufgenommen auf einer Radeon 1. Wenn das auf einer Radeon 8500 anders aussieht wäre es nett wenn jemand einen Screenshot machen würde.
SSam:TSE Techlevel
Sorry wegen der Komprimierung.

Korak
2002-08-12, 12:15:45
Man sieht, dass im hinteren Bereich die Bodentexturen plötzlich total unscharf dargestellt werden.

Silent Hunter
2002-08-12, 12:33:05
das könnte aber auch an der Komprimierung liegen

Korak
2002-08-12, 12:35:39
Originally posted by Silent Hunter
das könnte aber auch an der Komprimierung liegen

Tuts aber nicht.

Wenn jemand ein Bild für mich uploaded gibts ein HighRes unkomprimiert. Sonst geht das leider nur so und ihr müsst mir glauben, dass es nicht an der Komprimierung liegt.

ow
2002-08-12, 12:55:35
Ich glaube dir das. Ich sehe das ja an meiner Radeon auch.

Mit welchem AF-level wurde der Shot gemacht?

Bei SeSam laesst sich der AF-level in den Grafikoptionen ja waehlen.

Stelle mal AF aus und auf bilinearen Tex-filter (kein trilinear!), und dann schaltest du mal nacheinander auf 2xAF bilinear, 4x AF bi...usw. und schaust dir das Bild an.


Ich weiss nicht, was ATi da verbockt hat, aber 2x oder 4xAF bilinear sehen AFAIK schlechter aus als ohne AF bilinear. Kannst du das bestaetigen?

Korak
2002-08-12, 13:04:11
Originally posted by ow
Ich glaube dir das. Ich sehe das ja an meiner Radeon auch.

Mit welchem AF-level wurde der Shot gemacht?

Bei SeSam laesst sich der AF-level in den Grafikoptionen ja waehlen.

Stelle mal AF aus und auf bilinearen Tex-filter (kein trilinear!), und dann schaltest du mal nacheinander auf 2xAF bilinear, 4x AF bi...usw. und schaust dir das Bild an.


Ich weiss nicht, was ATi da verbockt hat, aber 2x oder 4xAF bilinear sehen AFAIK schlechter aus als ohne AF bilinear. Kannst du das bestaetigen?

Der Shot wurde mit 16xAF gemacht. Der Filter war auf Trilinear gestellt, aber nachdem was ich da ausprobiert hab macht das keinen Unterschied beim AF ob Bi oder Tri.

Bilinear wie erwartet-> schrittweises 'Wischiwaschi'
AF: Jetzt weiss ich galub ich auch was ATI unter AF versteht. Einfach die MipMaping Ebenen nach hinten schieben.

Bei 2xAF scheint das allerdings eher zum Betrachter hin geschoben worden zu sein. Bei 4xAF weiss ich nicht ob das jetzt näher oder weiter weg ist, aber aufjeden Fall zu nahe.

Oder anders ausgedrückt: 2xAF, 4xAF -> :kotz:

Muh-sagt-die-Kuh
2002-08-12, 13:06:36
Originally posted by ow
Ich glaube dir das. Ich sehe das ja an meiner Radeon auch.

Ich weiss nicht, was ATi da verbockt hat, aber 2x oder 4xAF bilinear sehen AFAIK schlechter aus als ohne AF bilinear. Kannst du das bestaetigen? Ich lad mit grad mal die demo und lade dann später ein paar 1152x864 shots mit verschiedenen AF leveln hoch...weobei ich allerdings sagen muss, dass es mit der Karte ziemlich sinnlos ist, auf ein niedriges AF niveau zu gehen.

Korak
2002-08-12, 13:07:34
Originally posted by Muh-sagt-die-Kuh
Ich lad mit grad mal die demo und lade dann später ein paar 1152x864 shots mit verschiedenen AF leveln hoch...

Thx.

Aehm du hast eine 8500, oder?

Muh-sagt-die-Kuh
2002-08-12, 13:08:54
Originally posted by Korak


Thx.

Aehm du hast eine 8500, oder? Ja, eine BBA Retail Karte mit 64 MB und den 6118 Treibern.

Muh-sagt-die-Kuh
2002-08-12, 13:10:47
Kann mir vielleicht grad noch jemand sagen, wie ich bei Serious Sam nen Screenie mache ;)

ow
2002-08-12, 13:16:34
Originally posted by Korak


Der Shot wurde mit 16xAF gemacht. Der Filter war auf Trilinear gestellt, aber nachdem was ich da ausprobiert hab macht das keinen Unterschied beim AF ob Bi oder Tri.


macht keinen Unterschied, da ATi nur bilinear AF kann.


Bilinear wie erwartet-> schrittweises 'Wischiwaschi'
AF: Jetzt weiss ich galub ich auch was ATI unter AF versteht. Einfach die MipMaping Ebenen nach hinten schieben.


Koennte man meinen, der Eindruck taeuscht aber.
Ansonsten ergaebe sich ein identisches Bild, wenn man in den SeSam Optionen den mipmap lodbias verringert und die ATi ohne AF nur bilinear filtern laesst.
Wie ATis AF funktioniert ist leider bis heute ungeklaert.
Allerdings werden nur wenige Texel zur Pixelberechnung herangezogen, daher auch die hohe Perfomance (hoeher als bei trilinear mit 8Texeln/pixel) und leider die schlechte Qualitaet.


Bei 2xAF scheint das allerdings eher zum Betrachter hin geschoben worden zu sein. Bei 4xAF weiss ich nicht ob das jetzt näher oder weiter weg ist, aber aufjeden Fall zu nahe.

Oder anders ausgedrückt: 2xAF, 4xAF -> :kotz:

Deckt sich mit meinen Beobachtungen. In Ordnung ist das nicht.

Ich habe hier zum Vergleich noch eine Kyro und GF3 Grafikkarte, beide koennen max. 2xAF und es sieht einwandfrei auf beiden aus, auch mit nur bilinearem Filter.

Korak
2002-08-12, 13:16:46
Ehrlich gesagt weiss ich es auch nicht. Ich hab mir mit ALT+Druck beholfen.

ow
2002-08-12, 13:19:58
Originally posted by Muh-sagt-die-Kuh
weobei ich allerdings sagen muss, dass es mit der Karte ziemlich sinnlos ist, auf ein niedriges AF niveau zu gehen.


Ja.

Aber soll das eine Entschuldigung sein, dass ATi da in den Treibern wieder Mist gebaut hat und diese Modi nicht richtig funktionieren?

Diesbezueglich fehlerhafte Treiber erscheinen MIR sinnlos.

Ansonsten kann ATi die Einstellungen fuer AF<16x gleich aus den Treibern weglassen, dann faellt der Fehler wenigstens nicht auf.:D

Muh-sagt-die-Kuh
2002-08-12, 13:20:37
Originally posted by ow

Ich habe hier zum Vergleich noch eine Kyro und GF3 Grafikkarte, beide koennen max. 2xAF und es sieht einwandfrei auf beiden aus, auch mit nur bilinearem Filter. 2x AF bringt so gut wie null, da kann man gleich bei tri bleiben, bei meiner alten GF2MX hab ich zumindest so gut wie keinen Unterschied gesehen ;)

Korak
2002-08-12, 13:21:49
ow ich hab hier nen Screenshot von der Radeon in SSam, der 'etwas' groß ist. Könnte ich dir den per e-mail schicken?

Edit: oder Muh-Kuh. Damit der Screeni geuploadet wird =) Res: 1600x1200

Muh-sagt-die-Kuh
2002-08-12, 13:50:33
Originally posted by Korak
Edit: oder Muh-Kuh. Damit der Screeni geuploadet wird =) Res: 1600x1200 Wenn deine eMail im Profil stimmt, dann hast du jetzt Post.

Muh-sagt-die-Kuh
2002-08-12, 13:55:57
So, unter http://home.t-online.de/home/erassmy/ gibt es Screenies in 1152x864x32 von SSAM TSE in allen verschiedenen Filteringstufen, die Szene sollte halbwegs identisch zu dem oben geposteten Screenie sein.

Korak
2002-08-12, 14:09:49
Die AF Shots in SSam sehen auf jeden Fall viel beser aus als bei mir.

Die e-mail Adresse stimmt, hab aber keine erhalten =)

Muh-sagt-die-Kuh
2002-08-12, 14:11:29
Mal sehn, was der Rest dazu sagt ;)

Korak
2002-08-12, 14:18:33
Mail is wech.

Muh-sagt-die-Kuh
2002-08-12, 15:04:57
Screenie ist oben.

Irgendwie hab ich das gefühl, dass die Texturen auf meiner 8500 allgemein einen tick schärfer sind als bei Koraks Radeon.

nggalai
2002-08-12, 15:13:51
Kurze Frage an Korak und dich, MsdK:

habt ihr unter Advanced Options alles gleich eingestellt, was die Texturen angeht? Und welche Settings habt ihr da gewählt, konkret?

ta,
-Sascha.rb

Korak
2002-08-12, 15:15:12
Thx für den Upload :)

Möglich. Wir haben wahrscheinlich auch nicht die gleichen Einstellungen im Spiel vorgenommen.

Falls ow sich jetzt fragt wie das Bild zustande gekommen ist:
AF im Treiber auf 16 aber im Spiel aus
dafür im SPiel auf Trilinear.

Obs mit Bilinear auch so aussieht muss ich noch schauen :)

Korak
2002-08-12, 15:16:07
Originally posted by nggalai
Kurze Frage an Korak und dich, MsdK:

habt ihr unter Advanced Options alles gleich eingestellt, was die Texturen angeht? Und welche Settings habt ihr da gewählt, konkret?

ta,
-Sascha.rb
=)

Genau das bezweifel ich :)

Muh-sagt-die-Kuh
2002-08-12, 15:21:42
Zu meinen Settings:

SSE-TSE Quality Voreinstellungen, ich hab nur im Spiel an den Filtering-Settings gedreht. Aniso war im Treiber auf Standareinstellung, also kein force.

Lokadamus
2002-08-12, 15:23:58
mmm...

Ich glaub, ich brauch nen neuen Rechner ... hab weder Spiel noch eine ordentliche Graka, was mir aber auffiel, war der Weg ... sieht bei 16x am besten aus ... wobei das Bild von Korak auch einen sehr scharfen Weg hatte ...

Korak
2002-08-12, 15:31:12
Originally posted by Muh-sagt-die-Kuh
Screenie ist oben.

Irgendwie hab ich das gefühl, dass die Texturen auf meiner 8500 allgemein einen tick schärfer sind als bei Koraks Radeon.

Ich hab das mal mit deinen Einstellungen gemacht(nur dass ich AF im Treiber erzwungen hab). Ich seh da keinen Unterschied :). Was aber nicht heissen muss, dass da keiner ist.

Muh-sagt-die-Kuh
2002-08-12, 15:32:36
Originally posted by Korak


Ich hab das mal mit deinen Einstellungen gemacht(nur dass ich AF im Treiber erzwungen hab). Ich seh da keinen Unterschied :). Was aber nicht heissen muss, dass da keiner ist. Waren dann wohl die Setting.

ow
2002-08-12, 15:50:43
Originally posted by Muh-sagt-die-Kuh
2x AF bringt so gut wie null, da kann man gleich bei tri bleiben, bei meiner alten GF2MX hab ich zumindest so gut wie keinen Unterschied gesehen ;)


Dann solltest du mal genauer schauen:D

Der Sprung von kein AF auf 2xAF ist der groesste Sprung in der Qualitaetsverbesserung.
Um einen relativ aehnlichen Sprung zu bekommen, muss man schon von 2x auf 8x stellen.

ow
2002-08-12, 15:55:13
Originally posted by Muh-sagt-die-Kuh
Zu meinen Settings:

SSE-TSE Quality Voreinstellungen, ich hab nur im Spiel an den Filtering-Settings gedreht. Aniso war im Treiber auf Standareinstellung, also kein force.


Die Shots sind ok soweit ich das beurteilen kann.

Evtl. tritt der Fehler auch nur bei erzwungenem AF (treiber) auf.
Muss das spaeter mal ueberpruefen.

Muh-sagt-die-Kuh
2002-08-12, 15:57:57
Originally posted by ow



Dann solltest du mal genauer schauen:D

Der Sprung von kein AF auf 2xAF ist der groesste Sprung in der Qualitaetsverbesserung.
Um einen relativ aehnlichen Sprung zu bekommen, muss man schon von 2x auf 8x stellen. Meiner Meinung nach sind die Abstufungen eher linear, aber jedem das seine ;)

ow
2002-08-12, 16:02:15
Originally posted by Muh-sagt-die-Kuh
Meiner Meinung nach sind die Abstufungen eher linear, aber jedem das seine ;)

Ja, theoretisch wohl schon, prktisch eher nicht.
Je weiter sich die Details in die Tiefe des Bildes erstrecken umso weniger fallen sie auf. Weil der Blick normalerweise nicht so sehr in die Tiefe gerichtet ist.

Oder in Sichtweiten mal primitiv ausgedrueckt (Zahlen willkuerlich gewaehlt):

Wenn die Grenze des Vermatschens der Texturen von 20m auf 40m Sichtweite rutscht, faellt das mehr auf, als wenn sie von 40m auf 80m rutscht.

Korak
2002-08-12, 16:05:36
Originally posted by ow



Die Shots sind ok soweit ich das beurteilen kann.

Evtl. tritt der Fehler auch nur bei erzwungenem AF (treiber) auf.
Muss das spaeter mal ueberpruefen.

Der Fehler tritt bei mir gerade dann nicht auf.

ow
2002-08-12, 16:19:16
Originally posted by Korak


Der Fehler tritt bei mir gerade dann nicht auf.

hmm??? *amkopfkratz*


Ist doch recht verwirrend nun.

Ich muss doch heute abend mal meine Radeon wieder einbauen und sehen, was sich da tut bei erzwugenem bzw. durchs Spiel geregeltem AF (wobei die Spiele AFAIk immer den hoechstmoeglichen AF level waehlen, sofern keine Einstellmoeglichkeiten des AF levels wie bei SeSam gegeben sind).

MadManniMan
2002-08-12, 18:03:59
hallo onkel razor.

guck mal bitte in meine sig.

danke.

ow
2002-08-12, 19:22:50
also, Radeon ist eingebaut.:)

Hab da einen Q3 Shot mit 4 verschiedenen AF Einstellungen gebastelt.
Quali ist durch jpeg etwas schlecht, aber man erkennt noch, dass die verwaschenen Texturen viel zu für einsetzen.

ow
2002-08-12, 19:25:47
Hier nochmal der 4xAF Shot allein mit verringerter jpeg Kompression.

Iceman346
2002-08-12, 19:27:00
Da scheint nen Bug in den Treibern der alten Radeon zu sein, oder es ist ein Hardwarefehler. Diese Effekte sind auf der Radeon 8500 definitiv nicht vorhanden.

Xcellerator
2002-08-12, 19:40:40
sowas habe ich bei mir (glücklicherweise) auch noch nie entdeckt...

zeckensack
2002-08-12, 19:47:03
So sieht's bei mir aus (Gamma aufgeblasen :=1,5; Vertex Lighting)

zeckensack
2002-08-12, 19:48:23
Wir sollten die Diskussion um's Radeon-AF so langsam absplitten ...

Xcellerator
2002-08-12, 19:56:32
jaa :)
sonst fängt das weiterhin in jedem thread, der auch nur entfernt mit dem thema grafikkarte in verbindung steht, wieder von neuem an :D

ow
2002-08-12, 19:59:15
Originally posted by Iceman346
Da scheint nen Bug in den Treibern der alten Radeon zu sein, oder es ist ein Hardwarefehler. Diese Effekte sind auf der Radeon 8500 definitiv nicht vorhanden.

Auch wenn´s so ist, kann mich als Radeon1 Besitzer das nicht glücklich stimmen.
Tritt auch bei im Game eingeschalteten AF (SeSam) auf.

Jener gezeigte Q3 'Bodenbelag' ist übrigens sehr anfällig für das Texturschwimmen, dass teils beim AF der Radeon auftritt.
Sieht man in Bewegung, wenn man von gezeigter Position aus leicht mit der Maus kreist.


Treiber ist 9050 auf Win98.

Zum Vergleich ein Shot auf meiner GF2MX, 2xAF/NoAF.

Korak
2002-08-12, 20:39:29
Das kann ich jetzt leider nicht nachprüfen (Ich hab nur die Wahl zwischen 16AF und aus).

Was ich aber sagen ist, dass wenn ich AF im Treiber erzwinge und im Prog. ausschalte, die Darstellung im Ati-Stil wohl korrekt ist. Da wird nix mehr verschwommen.

Stell ich es im Programm ein. Siehts genau so aus wie auf ows Screenies.

ice cool69
2002-08-12, 23:02:32
jetzt hört doch auf euch hierb zu bekriegen. anstelle eure energie dazu zu benutzen andere produkte schlecht zu machen als die eigenen solltet ihr die energie benutzen die VORTEILE EURER PRODUKTFAVORITEN zu nennen und klarstellen warum ihr diese genommen habt. ich glaube das hilft viel weiter als eure jetzige methode und erzeugt weniger krach.

übrigens, habt ihr euch mal den titel des threats gemerkt? wir sind irgendwie vom thema abgewichen... ;D

Muh-sagt-die-Kuh
2002-08-13, 01:21:57
Originally posted by ow
Jener gezeigte Q3 'Bodenbelag' ist übrigens sehr anfällig für das Texturschwimmen, dass teils beim AF der Radeon auftritt.
Sieht man in Bewegung, wenn man von gezeigter Position aus leicht mit der Maus kreist.
Wenn ich von dieser Position aus die Maus kreisen lasse sehe ich leichtes MIP-Banding am Boden. Bei kreisförmigen Mausbewegungen ist dies etwas auffälliger als sonst, da die Radeon MIP-Grenzen quadratische form haben. GeForce chips benutzen zumindest bei tri- und bi-linearem Filtering kreisförmige MIP-Grenzen, wie die grenzen hier unter Aniso aussehen weiss ich nicht, du könntest ja mal zwei Shots der GeForce2MX mit eingefärbten MIP-level zeigen, einmal aniso 2x, einmal trilinear.

aths
2002-08-13, 03:21:13
Originally posted by ow
Also aths, erhelle uns mal, was ATi denn beim AF tut und was nicht.
Viele Texel scheinen sie dazu ja nicht zu brauchen.Das ist im 3DCenter Filter-Artikel eigentlich erklärt: ATI liest die Texel immer nur in einer "Reihe" (also Zeile oder Spalte) aus der Textur aus, wodurch die schlechtere Qualität bei 45° zustande kommt. Solche Winkel sind allerdings relativ selten. Jedenfalls kommen bei 16 tap AF schon bis zu 64 Texel zusammen, wie es auch sein muss.

Man könnte ebensogut behaupten, MSAA sei gar kein Anti-Aliasing, weil nicht /alles/ geglättet wird. ATIs AF schärft eben nicht alle Texturen, sondern nur die "wichtigsten", einfach gesagt.
Originally posted by ow
Gibt's AFAYK auch keine Definition fuer bilinearers und trilineares Filtern?? Bi- und trilineare Filter sind gängige Interpolationsverfahren. AF sagt nur aus, dass "uneinheitlich" gefiltert wird. Das tut die Radeon auch.

ow
2002-08-13, 09:14:16
Originally posted by aths
Das ist im 3DCenter Filter-Artikel eigentlich erklärt: ATI liest die Texel immer nur in einer "Reihe" (also Zeile oder Spalte) aus der Textur aus, wodurch die schlechtere Qualität bei 45° zustande kommt. Solche Winkel sind allerdings relativ selten. Jedenfalls kommen bei 16 tap AF schon bis zu 64 Texel zusammen, wie es auch sein muss.




Dann erklaere doch mal, wieso bei 64 verarbeiten Texeln die Geschwindigkeit hoeher ist als bei den 8 Texeln fuer trilineares Filtern.

Und erklare mal den Effekt, dass die Texturen teilweise "schwimmen" bei nicht-45-Grad-Winkeln.

MadManniMan
2002-08-13, 09:55:17
Originally posted by ow



Dann erklaere doch mal, wieso bei 64 verarbeiten Texeln die Geschwindigkeit hoeher ist als bei den 8 Texeln fuer trilineares Filtern.



ist er ingenieur bei ati?

ow
2002-08-13, 09:56:50
Was soll diese dumme Bemerkung?

MadManniMan
2002-08-13, 10:00:08
was soll das abstempeln dieser frage als dumm?

aths hat die prinzipien erklärt, muß allerdings nicht zwangsläufig wissen, wie der chip das nun abhandelt.

ahcja: ich hab so gefragt, weil deine frage schon wieder irgendwie was provokantes hatte...

ow
2002-08-13, 10:03:35
??? wo siehst du da was provokantes?

ich habe aths was gefragt. ob er eine Antwort weiss oder nicht kann ich ja nicht im Voraus wissen, oder?
und ati-ingenieur braucht er dazu auch nicht zu sein.

aber denken koennte ich mir schon, dass er was weiss oder eine Erklaerung dafuer hat.

aths
2002-08-13, 11:40:55
Originally posted by ow
aber denken koennte ich mir schon, dass er was weiss oder eine Erklaerung dafuer hat. Hier habe ich keine Erklärungen, nur Vermutungen anzubieten.

Zunächst, noch mal kurz rekapitulieren: Bei 16x AF kommen die 64 Texel pro Pixel nur bei wenigen Pixeln zum Einsatz. Alles, worauf man orthogonal sieht, wird weiterhin bilinear gefiltert. Einiges dann 2x AF, weniger 4x, noch weniger 8x und ganz wenig 16x. Wieviel Texel pro Pixel das im Durchschnitt sind, ist von Szene zu Szene unterschiedlich, ich schätze das auf ganz grob 8.

MIP Map Interpolation erfordert 2 Texturen pro Fragment, was Cache-mäßig schlechter ist.

Insgesamt sehe ich keinen Grund, warum trilineare Filterung schneller sein sollte als ATIs Implementation von 16x AF.


Dass es manchmal Texture Shimmering gibt, liegt offenbar an der seltsamem AF-MIP-Map-Formel. Was ATI da gemacht hat, weiß ich nicht.

Quasar
2002-08-13, 11:48:28
Originally posted by aths
AF sagt nur aus, dass "uneinheitlich" gefiltert wird. Das tut die Radeon auch.

Darf ich das in meine Sig nehmen? Vielleicht ein wenig unbeabsichtigt von dir, aber ich finds total "roflig"

ow
2002-08-13, 11:54:55
Originally posted by aths
Hier habe ich keine Erklärungen, nur Vermutungen anzubieten.



Macht ja nichts. Vielleicht sind die Vermutungen ja einleuchtend und nachvollziehbar.


Zunächst, noch mal kurz rekapitulieren: Bei 16x AF kommen die 64 Texel pro Pixel nur bei wenigen Pixeln zum Einsatz.


Einwand: kann man dann ueberhaupt von 16xAF sprechen, wenn diese 64Texel, die ein 16xAF erfordert, nur fuer ganz wenige Pixel genutzt werden und fuer die meisten Pixel nur weniger Texel gefiltert werden?


Alles, worauf man orthogonal sieht, wird weiterhin bilinear gefiltert. Einiges dann 2x AF, weniger 4x, noch weniger 8x und ganz wenig 16x. Wieviel Texel pro Pixel das im Durchschnitt sind, ist von Szene zu Szene unterschiedlich, ich schätze sie auf ganz grob 8.


Die Schaetzung koennte etwa hinkommen, da 64x bilinear AF und trilinear bei ATi etwas gleich schnell sind.
Aber was ist denn zB. bei dem ATi 4xAF Modus? Sind es dann noch 2Texel/Pixel?? Kann ja nicht sein, oder?


MIP Map Interpolation erfordert 2 Texturen pro Fragment, was Cache-mäßig schlechter ist.


Scheint zumindest den GFs aber nicht viel auszumachen. Ob ich das bilinear oder trilinear nutze macht weniger als 10% Leistungsunterschied.


Insgesamt sehe ich keinen Grund, warum trilineare Filterung schneller sein sollte als ATIs Implementation von 16x AF.


Bei 'korrektem' AF (ja ich weiss, das ist deiner Meinung nach nicht definiert, du weisst aber was ich meine) muss trilinear schneller sein als 64xAF weil ja wesentlich weniger Texel gebraucht werden.


Dass es manchmal Texture Shimmering gibt, liegt offenbar an der seltsamem AF-MIP-Map-Formel. Was ATI da gemacht hat, weiß ich nicht.

Das wurde mich am meisten interessieren.

Dass ATi nur bilinear AF filtert halte ich fuer vertretbar, solange es korrektes artefaktfreies AF waere.
Die mipmap bandings liegen sehr weit hinten und fallen meistens nicht auf. Die seltsamen Artefakte leider schon.

aths
2002-08-13, 12:38:51
Originally posted by ow
Einwand: kann man dann ueberhaupt von 16xAF sprechen, wenn diese 64Texel, die ein 16xAF erfordert, nur fuer ganz wenige Pixel genutzt werden und fuer die meisten Pixel nur weniger Texel gefiltert werden?Ja. AF soll "schräge" Texturen besser darstellen. Je schräger, desto mehr Texel sind dazu erforderlich. Da längst nicht alle Texturen von 16-fachem Sampling profitieren, arbeitet anisotrope Filterung adaptiv.

Das macht nVidia nicht anders. Bei 8x AF kommen auch nur relativ wenig Pixel in Genuss von 32 bzw. 64 Texeln. nVidia sampelt mit AF aber grundsätzlich immer mindestens 2x, egal wie wenig einige Texturen davon profitieren.

Originally posted by ow
Die Schaetzung koennte etwa hinkommen, da 64x bilinear AF und trilinear bei ATi etwas gleich schnell sind.
Aber was ist denn zB. bei dem ATi 4xAF Modus? Sind es dann noch 2Texel/Pixel?? Kann ja nicht sein, oder?Im 4x-Modus wird bis zu 4x gesampelt. Das meinste also normal bilinear, einiges 2x und die Pixel die es "am nötigsten" haben 4x. 4x AF und 16x AF nimmt sich in der durchschnittlichen Texelzahl pro Pixel nicht besonders viel, da 8x und 16x gefilterte Pixel relativ selten vorkommen.

Man kann sich AF nicht wie Anti-Aliasing vorstellen, wo pro Pixel mit einer fest definierten Anzahl gesampelt wird. AF arbeitet grundsätzlich adaptiv.
Originally posted by ow
Bei 'korrektem' AF (ja ich weiss, das ist deiner Meinung nach nicht definiert, du weisst aber was ich meine) muss trilinear schneller sein als 64xAF weil ja wesentlich weniger Texel gebraucht werden. Das hängt von der Szene ab. Bei TF braucht jedes Pixel zwingend 8 Texel. Bei AF mit MIP-Map-Interpolation erhöht sich der Bedarf natürlich noch. Bei AF ohne MIP-Map-Interpolation wird ein Großteil nach wie vor bilinear gefiltert, was dann also 4 Texeln entspricht. Ob die zu anisotrop filternden Pixel die durchschnittliche Texelzahl auf über 8 steigen lassen, lässt sich ohne Kenntnis der Szenerie nicht sagen.
Originally posted by ow
Die mipmap bandings liegen sehr weit hinten und fallen meistens nicht auf. Die seltsamen Artefakte leider schon. Frag mich nicht, was ATI für eine Formel verwendet. Die MIP-Level sind für mich ziemlich uneinsichtig gewählt.

bambo
2002-08-13, 17:10:00
Originally posted by ice cool69

übrigens, habt ihr euch mal den titel des threats gemerkt? wir sind irgendwie vom thema abgewichen... ;D

Ja, wäre nett, wenn ein Mod die Postings zum hässlichen ATI-AF absplitten und mit dem passenden Thread zusammenmergen könnte:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=25120

ice cool69
2002-08-13, 17:24:53
das ATI-AF ist nicht hässlich :P ;D

bambo
2002-08-15, 17:31:39
Originally posted by ice cool69

das ATI-AF ist nicht hässlich :P ;D

... aber die dadurch resultierenden Mipmap-Bugwellen... :P ;D

MadManniMan
2002-08-15, 21:51:47
bambo: guck mal regel2!

Höhnangst
2002-08-20, 14:55:30
Back to Topic:

Was ist denn jetzt eigentlich aus der (angeblichen) NV30-Präsentation geworden ???

Würde mich schonmal interessieren. Ich meine, irgendwann sollte der Chip doch endlich mal fertig sein. Und es wäre auch mal nicht schlecht mal die endgültigen Specs zu erfahren, besonders da sich die Radeon 9700 ja jetzt schon in Tests bewiesen hat.