PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sammelthread: Tests der Radeon 9700 Pro


Seiten : 1 [2] 3

Korak
2002-08-19, 18:59:45
Originally posted by bambo


Seid Ihr FanATIker etwa nicht der Meinung, dass diese Sache mit ATIs unscharfem AF nach genauerer Untersuchung und Aufklärung schreit?



Is doch imo aufgeklär =)


BTW: der :nono: smilie gefällt dir, gell? ;)

Birdman
2002-08-19, 19:05:22
Originally posted by Unregistered
Hallo Jungs
Habt ihr denn alle nicht gelesen das die screenshots bei hartware von der ATI-Karte nur mit einer anderen, qualitativ schlechteren Methode gemacht werden konnten? Sie weisen selber oben auf der Seite darauf hin.
Gruß
BerndJazz
Wieder mal typisch ATi, neue Treiber --> neue Bugs
Tja, solange sie jedenfalls diesen Screenshot-Bug nicht gefixt haben, kaufe ich mir keine Ihrer Karten *eg*

btw. wo ich noch nicht ganz sicher bin, trotz der vielen Reviews, ist die BQ mit AnisoFiltering.
AFAIK ist ja selbst die QualityMethode immer noch mit der sagenumwobenen adaptiven Filterung ausgestattet, doch hat man es nun im Gegensatz zur 8500er geschafft alle Bugs und Unschönheiten dieser
Methode auszubügeln?
Denn nix kotzt mich mehr an, als zwischendurch, d.h. in Spezialsituationen, wider mal ein hässliches Frame vor Augen zu haben....

zeckensack
2002-08-19, 19:08:34
Originally posted by bambo
Oder sollte das Geschrei nur vom Problem ablenken? Wo sind die Argumente?Welches Problem?
Argumente wofür? Oder wogegen?

Von dir kam nichts diskussionswürdiges.

Sunrise
2002-08-19, 19:15:08
Bezüglich der Spezifikationen des Rams auf der Radeon 9700 Pro, hier mal eine Aufklärung:

Produktcode: K4D26323RA-GC2A
Spezifikationen: 2.86ns - 2.8V - 350 MHz DDR - 700 MHz effektiv

Ausführliches hier:

http://www.samsungelectronics.com/semiconductors/Graphics_Memory/DDR_SDRAM/128M_bit/K4D26323RA/k4d26323ra-gc.htm
http://www.samsungelectronics.com/semiconductors/Graphics_Memory/DDR_SDRAM/128M_bit/K4D26323RA/ds_k4d26323ra-gc.pdf

Die Karte lässt sich also um ein gehöriges Stück übertakten, und das betrifft nicht nur den Speicher. Laut mehreren Reviews (bsp. www.firingsquad.com) läuft sie bei 350 / 350 absolut stabil.

Noch beeindruckender sind dann die Werte die damit erzielt wurden (als wäre die Karte nicht schon schnell genug).

Noch ein kleines Schmankerl: Radeon 9700 Pro mit 358 / 351

http://212.43.236.46/images/auto/img27563.gif

Es ist absolut beeindruckend, was ATI hier abgeliefert hat. Sieht man doch schwarz-auf-weiss, wieviel Arbeit man z.b. in die Entwicklung des Cores gesteckt hat. Ich bin jedenfalls restlos begeistert.

Grüße
Sunrise

Höhnangst
2002-08-19, 19:24:42
Na aber Holla!! :o

Sieht zwar ganz nett aus, aber leider ist das ja nur wieder Q3A. Mich würde das eher mal bei anderen Spielen interessieren.


Achja:
Wenigstens wurde das jetzt auch mit der Bildqualität weitestgehend geklärt, so dass die Karte für mich eigentlich keine Schwächen mehr aufweist.

Unregistered
2002-08-19, 19:29:59
http://www.hardocp.com/images/articles/1029734693GLECcBBUFk_3_1.gif



Öhm warum ist die 9700 wirden nur bei den tehorie test so gut und bei den game test gelich oder sogar schlchter als die 4600?

perforierer
2002-08-19, 19:31:32
Also in einem kann ich dem 3dcenter Artikel nicht zustimmen: dass die Radeon "dringend" Quali Features vraucht um sich abzusetzen.
Ich zeige nochmal nur einen Bench von Anand:
1280 x 1024:
Radeon:107,9 FPS
4600er:65,5 FPS

1600 x 1200:
Radeon:77,7
4600er:45,1


Die 9700er ist in 1600 schneller als die 4600er in 1280. Und die Differenz insgesamt auch innerhalb einer Auflösung zwischen Radeon und GeForce. Hammer.

Exxtreme
2002-08-19, 19:33:37
Originally posted by bambo


Diese Pöbeleien waren leider zu erwarten. Nur weil ATIs Propagandaabteilung in Form von Exxtreme/Tarkin/nagus dieses Forum überflutet, müsst Ihr nicht gleich auf die "Gegenseite" schliessen. Oder sollte das Geschrei nur vom Problem ablenken? Wo sind die Argumente?

Seid Ihr FanATIker etwa nicht der Meinung, dass diese Sache mit ATIs unscharfem AF nach genauerer Untersuchung und Aufklärung schreit?

:nono:
Ahh, die NV-Propaganda-Abteilung hat immer noch Auslauf.
Sorry, jed... ähhhmm mezz... Shit.. bambo.
Guckst du hier:
http://www.hardware.fr/medias/photos_news/00/05/IMG0005112.jpg

Also ich sehe keine Probleme mit dem anisotropen Filter der Radeon 9700 ggü. der GF4Ti. Du etwa? Vielleicht solltest du deine Brille richtig putzen. Und dieser AF ist noch dazu um Dimensionen schneller als der, der GF4Ti.

Gruß
Alex

Muh-sagt-die-Kuh
2002-08-19, 19:42:59
Originally posted by ow



Ich hab jetzt kein Lust, das nochmal zu diskutieren.

Wenn du einmal qualitativ hochwertiges AF gesehen hast, dann stellst du garantiert nicht mehr auf den R100/200-Modus um. Und selbst wenn´s 30% der fps ausmachen würde. Deine Sache...ich hab schon eine GF3 mit AF in Aktion und fand die Unterschiede nicht gerade gross....aber das werde ich jetzt auch nicht weiter diskutieren....ist doch nur gut, wenn man dem Anwender die Wahl lässt, was man vom NVidia Treiber bei aniso unter D3D nicht gerade sagen kann....

Birdman
2002-08-19, 19:43:12
Originally posted by Exxtreme

http://www.hardware.fr/medias/photos_news/00/05/IMG0005112.jpg
Also ich sehe keine Probleme mit dem anisotropen Filter der Radeon 9700 ggü. der GF4Ti. Du etwa? Vielleicht solltest du deine Brille richtig putzen. Und dieser AF ist noch dazu um Dimensionen schneller als der, der GF4Ti.
Gruß
Alex
hrhr, auch ein Bild aus der original (tm) ATi Propaganda...daran erkennt man gar nix und selbst ne voodoo2 würd dabei noch gut aussehen.
Ok nicht ganz, aber bei diesen Steintexturen sieht man z.B. auf ner ati8500 nicht mal die MipMapstufen, obwohl sie die schon 2m vor den füssen beginnen. Ausserdem ist der Bildausschnitt zu klein um wirklich was sehen zu können.

btw. mein Händler (grossdistributor) erzählt was vom 28. Aug. als Liefertermin meiner Hercules 9700....mal kukken wie viel später es diesmal wird. (bei der 8500 kam die karte mehr als 1 Mnt nach dem erstgenannten Liefertermin ;)

zeckensack
2002-08-19, 19:44:06
Originally posted by Unregistered
http://www.hardocp.com/images/articles/1029734693GLECcBBUFk_3_1.gif



Öhm warum ist die 9700 wirden nur bei den tehorie test so gut und bei den game test gelich oder sogar schlchter als die 4600? Also ich sehe das so, daß die Radeon die Geforce auch in den 'Praxis' (hrhr)-Benchmarks schlägt.

Ausnahmen sind Car Chase LD, Car Chase HD, Lobby HD.

Macht immer noch 14:2 (Car Chase LD definitiv unentschieden) und die zwei 'verlorenen' Disziplinen sind ja nun nicht wirklich krass ausgegegangen ...

Sei's drum, NV's Treiber sind halt ein Stück effizienter. Wenn der Karte die Puste ausgeht, dann hilft das auch nicht mehr viel. ;)

HOT
2002-08-19, 19:53:56
Wenn dir das net reicht geh nach www.beyond3d.com birdman. Dort ist einwandfrei geklärt dass der Anisotropische Filter funktioniert. Warte nach Reviews von xbit oder digit-life ab, die testen das garantiert auch.

@Muh&ow
über geschmackt kann man nicht streiten :D
Mich stört das banding auch nicht derart gewaltig, aber es ist selbstredend ein fortschritt wenn es weg ist.

Muh-sagt-die-Kuh
2002-08-19, 19:55:13
Originally posted by Birdman

hrhr, auch ein Bild aus der original (tm) ATi Propaganda...daran erkennt man gar nix und selbst ne voodoo2 würd dabei noch gut aussehen.
Ok nicht ganz, aber bei diesen Steintexturen sieht man z.B. auf ner ati8500 nicht mal die MipMapstufen, obwohl sie die schon 2m vor den füssen beginnen. Ausserdem ist der Bildausschnitt zu klein um wirklich was sehen zu können.
Es ging hier nicht um die MIP-Mapstufen, sondern um die Texturschärfe im Vergleich zu NVidia, da diese bei hartware.net doch schon ziemlich grottig war (manche leute sind eben nicht in der Lage, die Treiber richtig einzustellen).

Dass es kein MIP-Banding mehr gibt siehst du schön bei den eingefärbten Shots auf beyond3d.....

Muh-sagt-die-Kuh
2002-08-19, 19:57:47
Originally posted by HOT
@Muh&ow
über geschmackt kann man nicht streiten :D
Mich stört das banding auch nicht derart gewaltig, aber es ist selbstredend ein fortschritt wenn es weg ist. Streiten kann man darüber schon, es bringt nur nix ;)

Klar ist es ein Fortschritt, aber ich persönlich hätte kein Problem damit tri wieder abschalten, wenn der Leistungsverlust wie bei UT2003 (anandtech) doch ziemlich hoch ist.

Birdman
2002-08-19, 19:58:08
Originally posted by zeckensack
Sei's drum, NV's Treiber sind halt ein Stück effizienter. Wenn der Karte die Puste ausgeht, dann hilft das auch nicht mehr viel. ;)
Finds aber schade und schon fast beschämend dass das immer noch so (krass ausgeprägt) ist.
Die 9700er verbrutzelt doch eine ganze Menge mehr CPU Power als die GF-Feinde und wird in den handelsüblichen Auflösungen und ohne Bildschmankerln oftmals noch von GF3 karten überholt. :nono:
und wenn man nun mal bedenkt wie viele Leute (laut Umfrage) ohne solche Bildschmankerl zocken..... ;)

Birdman
2002-08-19, 20:00:52
Originally posted by Muh-sagt-die-Kuh
(manche leute sind eben nicht in der Lage, die Treiber richtig einzustellen).

Tja und es gibt anscheinend Hersteller die es nötig haben, per Default ne miese BildQuali zu liefern um noch ein paar Frames mehr rauszuholen.....möchte nicht wissen, wie viele Leute nacher damit zocken, weilse ned mal wissen, wo und dass man Settings für Grafikkarten verstellen kann. *eg*

MegaManX4
2002-08-19, 20:04:02
Originally posted by Birdman

Tja und es gibt anscheinend Hersteller die es nötig haben, per Default ne miese BildQuali zu liefern um noch ein paar Frames mehr rauszuholen.....möchte nicht wissen, wie viele Leute nacher damit zocken, weilse ned mal wissen, wo und dass man Settings für Grafikkarten verstellen kann. *eg*

Leute die solche Einstellungen nicht finden, kaufen keine R9700 Pro.

tEd
2002-08-19, 20:05:01
@birdman
http://homepage.sunrise.ch/homepage/rstude/aniso.jpg
grössere version:

dann gehst du hier hin:
http://www.hardware.fr/art/lire/434/15/
und klickst auf das bild um das entsprechende grössere bild zu erhalten.

tEd
2002-08-19, 20:10:26
Originally posted by Birdman

Tja und es gibt anscheinend Hersteller die es nötig haben, per Default ne miese BildQuali zu liefern um noch ein paar Frames mehr rauszuholen.....möchte nicht wissen, wie viele Leute nacher damit zocken, weilse ned mal wissen, wo und dass man Settings für Grafikkarten verstellen kann. *eg*

das sind die gleichen leute die keinen anisotropischen filter bei nvidia karten unter d3d einschalten können weil nvidia den entsprechenden schalter noch immer nicht integriert hat:P

Muh-sagt-die-Kuh
2002-08-19, 20:12:56
Originally posted by tEd


das sind die gleichen leute die keinen anisotropischen filter bei nvidia karten unter d3d einschalten können weil nvidia den entsprechenden schalter noch immer nicht integriert hat:P Exakt....haben sie es eigentlich mal geschafft, den VSynch schalter unter D3D ohne RegTweak verfügbar zu machen?

Exxtreme
2002-08-19, 20:12:59
Da fällt mir ein, ich werde das rTool anpassen müssen. Schliesslich bietet die R300 keine Performance/Quality-Settings mehr beim FSAA, dafür wiederum beim AF.

Gruß
Alex

Madkiller
2002-08-19, 20:21:46
Regtweaker?
Also ich habe es schon immer so unter "weitere Direct3D-Optionen machen können... Aber ich benutze eh RivaTuner

MfG Madkiller

nggalai
2002-08-19, 20:26:07
Hi Birdman,Originally posted by Birdman
Tja und es gibt anscheinend Hersteller die es nötig haben, per Default ne miese BildQuali zu liefern um noch ein paar Frames mehr rauszuholen.....möchte nicht wissen, wie viele Leute nacher damit zocken, weilse ned mal wissen, wo und dass man Settings für Grafikkarten verstellen kann. *eg* Also, auf die Radeon9700 trifft das nicht zu. Ich hab' extra nochmals bei Wavey (B3D) nachgefragt, und bei Default sind auch die MIP-map Level richtig eingestellt.

Weshalb Hartware den Bias voll hochgeschraubt hat und sich dann über die miese Bildqualität beschwehrt, wird wohl für immer ein Rätsel bleiben. Das mit "anders haben wir die Karte nicht zum Laufen gebracht" schreit ja geradezu danach, die Karte so schnell wie möglich an den Hersteller zurückzuschicken. Bei den anderen Reviewern hat's ja auch geklappt.

ta,
-Sascha.rb

Muh-sagt-die-Kuh
2002-08-19, 20:33:24
Originally posted by Madkiller
Regtweaker?
Also ich habe es schon immer so unter "weitere Direct3D-Optionen machen können... Aber ich benutze eh RivaTuner

MfG Madkiller Ohne gesetztes CoolBits wirst du da aber nix zum Thema VSync finden ;)

zeckensack
2002-08-19, 20:33:28
Hab's gerade erst gesehen, ist aber wohl auch für die hier gelaufene AA-Debatte interessant.

http://www.beyond3d.com/reviews/ati/radeon9700pro/index.php?page=page4.inc

R300 nutzt (mit den getesteten Treibern) laut Beyond3D tatsächlich gamma-korrektes Multisampling. So schief geschaut habe ich dann wohl doch nicht, als ich die 4x-Shots vom R300 besser fand als die vom NV25 ;)

Hauwech
2002-08-19, 20:43:21
Mal ne Frage (kein Flamen, keine Propaganda):

Die Ergebnisse sind ja teilweise richtig beeindruckend, muss man einfach zugeben.
Was mir aufgefallen ist beim Anandtest: Auf Seite 12 vom Review lassen die mal Codecreatures laufen und ich muss ehrlich sagen das ich hier eigentlich mehr von der ATI erwartet haette.
Wie Anand selbst sagt, isses mehr als nen Benchark anzusehen dafuer recht DX8.1 intensiv. Was mich wundert das selbst in 800x600 die 9700 nicht ueber 40fps rauskommt? Das sie mehr fps haben wuerde als ne 4600 war mehr oder weniger klar.
Woran liegt das?
Bei mir laeuft Codecreatures leider nicht insofern weiss ich nicht was da alles von der Graka verlangt wird oder was fuer Schmankerl a la 10Mio polygone gleichzeitig oder so (reine Spekulation von mir) die engine von denen kann/will.
Wird diese Engine schon in irgendeinem Spiel eingesetzt oder zumindest sehr bald?

Sagt mal was

Exxtreme
2002-08-19, 20:44:25
Originally posted by nggalai

Weshalb Hartware den Bias voll hochgeschraubt hat und sich dann über die miese Bildqualität beschwehrt, wird wohl für immer ein Rätsel bleiben.

ta,
-Sascha.rb
ROFL :bonk: :|
Wie kann man nur so dämlich sein. Ich habe mich auch gewundert, warum die mit den Einstellungen gebencht haben. Die Standardeinstellungen nach einer frischen Treiberinstallation muss man manchmal auch nachregeln aber so krass auf schlechte BQ waren sie noch nie eingestellt. Und als ow die Screenshots der Treiber-Panel gepostet hat, war mir alles klar.

Gruß
Alex

Radeonator
2002-08-19, 20:45:04
Ich machs ma kurz und knackig: Einfach ein Monster die Radeon9700er, die Leistung fällt selbst in höheren Auflösungen nicht ab und auf fast allen seiten ist die SQ deutlich besser als beim QuarkMurksTest auf besagter Seite.

@allNvidiots: Bitte lasst doch eure Versuche ohne Argumente eine solch gelungene Karte schlecht zu reden, das schafft ihr nämlich nicht...;)

Wir alle dürfen auf NV´s Antwort gespannt sein, die Zeit der Grafikmonster wird von ATi eingeleitet und NV wird wohl auch eins abliefern...

Piffan
2002-08-19, 20:59:35
Originally posted by Birdman

Finds aber schade und schon fast beschämend dass das immer noch so (krass ausgeprägt) ist.
Die 9700er verbrutzelt doch eine ganze Menge mehr CPU Power als die GF-Feinde und wird in den handelsüblichen Auflösungen und ohne Bildschmankerln oftmals noch von GF3 karten überholt. :nono:
und wenn man nun mal bedenkt wie viele Leute (laut Umfrage) ohne solche Bildschmankerl zocken..... ;)


Mag sein, dass die Rad9700 mehr CPU- Power braucht. Dieses wird sich aber nur auswirken, wenn man wie ein Idiot die Möglichkeiten der Graka nicht nutzt... Für Vollidioten ist die Karte sicher nicht gedacht :P

nagus
2002-08-19, 21:02:52
Originally posted by bambo


Das ist ja extrem! Und die Tester bei Hartware schreiben dazu:

"Hier macht sich leider die schlechte Qualität der Screenshots der Radeon 9700 bemerkbar. Bei dieser Darstellung kann die anisotropische Filterung auf der ATI-Karte nicht überzeugen, vergleicht man sie mit der Konkurrenz."

Auch wenn hier manche FanATIker krampfhaft auf jeden Kritiker und Zweifler einschlagen, so muss die Ursache für die schlechte ATI-Bildqualität geklärt werden. Ein Schluss zur Quake/Quack-Betrügerei von ATI liegt schliesslich nahe:

http://www.3dcenter.de/artikel/2001/10-24_a.php

Immerhin musste ATI danach zugeben (http://www.killerinstincts.com/?action=comments&newsID=994):

"- yes, we did do optimizations specificly for Quake 3.
- yes, we did it because it is being used as a benchmark in reviews of our cards.
- yes, we sacrificed imagequality to gain better framerates."

Sorry für die Wiederholung, aber diese Erklärung ist nicht von der Hand zu weisen.

Das schreit nach genauerer Untersuchung und Aufklärung. Ist das der Grund, warum den Testern nur so wenig Zeit gelassen wurde?


geht das jetzt wieder los, *******?

ich glaub eher, dass hartware.de bei diesem test ziehmlich viel scheisse gebaut hat! ( z.b. ist eine radeon 8500 haushoch langsamer als eine 9000 http://www.hartware.net/review.html?id=251&page=8 der test ist ja fast noch besser als der auf tecchannel.de ! GEIL! btw, meine radeon 8500 hat auf deafault takt schlappe 51,3 fps auf 1600x1200 max details.... im vergleich zu 13 .... *hüstl*)

Piffan
2002-08-19, 21:05:16
Originally posted by Radeonator


@allNvidiots: Bitte lasst doch eure Versuche ohne Argumente eine solch gelungene Karte schlecht zu reden, das schafft ihr nämlich nicht...;)



Mich erstaunt dabei die Kreativität der Nvidianer.... Teilweise nicht schlecht ;)

Die meisten Reden hier werden ja wohl aus dem Fenster gehalten... Aber scheinbar halten viele die Leserschaft hier für reichlich doof...

Erklärlich sind diese Manöver schon: Man versucht einen Ruf aufzubauen, die schnellste Hardware unter der Sonne zu liefern... Dass der DAU dann gar nicht die Spitzenhardware kaufen kann (zu teuer) oder obs Unkenntnis ist; gekauft wird dann zwar bei der "Spitzenfirma", aber meist die letzte Gurke aus dem Sortiment...

Aber keine Bange, der Ruf von NV ist so schnell nicht kleinzukriegen. Als Beispiel 3dfx: Die haben immer die besten Chips geliefert und Punkt :jump2:

Exxtreme
2002-08-19, 21:06:43
nagus, beruhige dich wieder. Und Beleidigungen sind hier im Forum nicht erwünscht. Wenn du jedi/mezzo/bambo was "Nettes" zu sagen hast, das Forum bietet eine PM-Funktion.

Gruß
Alex

nagus
2002-08-19, 21:07:29
... außerdem glaube ich sehr stark, dass viele tests und reviews relativ viel blödsinn enthalten ( vertauschte bilder, dämliche settings bei den benchmarks, alte treiber, langsame cpus, etc... etc... )

wenn ich eine hab (hoffentlich bald, der preis is mir ziehhhmlich pupsegal), werde ich euch jedenfalls wieder mit reichlich screenshoots versorgen ;)

Unregistered
2002-08-19, 21:07:42
Originally posted by Piffan



Mag sein, dass die Rad9700 mehr CPU- Power braucht. Dieses wird sich aber nur auswirken, wenn man wie ein Idiot die Möglichkeiten der Graka nicht nutzt... Für Vollidioten ist die Karte sicher nicht gedacht :P

ACK.

PS: Schoen anzuschauen, wie sich bambo&co hier selbst disqualifizieren.

skampi
2002-08-19, 21:10:53
That's me

Birdman
2002-08-19, 21:27:51
Originally posted by Piffan
Mag sein, dass die Rad9700 mehr CPU- Power braucht. Dieses wird sich aber nur auswirken, wenn man wie ein Idiot die Möglichkeiten der Graka nicht nutzt... Für Vollidioten ist die Karte sicher nicht gedacht :P
nee klar ned, denn diese Leute kaufen sich eine MX denn da hats ja ein GeForce4 vornedran, oder eine Radeon 9xxx weil da die 9 ja für DX9 und supper speed steht :D

Btw. hat einer der Reviewer schon etwas über die Lautstärke des Lüfters gesagt?
Bei Chip stand nur was von 50!!!! Watt und dass ohne zusatzpower ausem NT gar nix geht, aber vom Lüfter/Kühler habe ich nix gelesen.

Korak
2002-08-19, 21:34:18
Originally posted by Birdman

Bei Chip stand nur was von 50!!!! Watt und dass ohne zusatzpower ausem NT gar nix geht, aber vom Lüfter/Kühler habe ich nix gelesen.

Ja 50 Watt ist viel. Aber auch nicht viel mehr als die GeF4 verbraucht.

Und ich meine irgendwo im Nirgendwo gelesen zu haben, dass die Karte ohne Stecker im 2D-Betrieb nutzbar ist.

nggalai
2002-08-19, 21:36:12
Kann mir mal jemand erklären, weshalb eine Grafikkarte mehr CPU-Power BRAUCHT? Und wozu, "braucht"? Um "voll" ausgenutzt zu werden?

???

Ich hab' diese Formulierung noch nie kapiert. Ich seh's eher anders rum--kaum eine CPU bremst das Teil aus. Deswegen "braucht" die Karte doch noch lange keine Super-CPU.

Oder rede ich jetzt komplett am Thema vorbei?

ta,
-Sascha.rb

Börk
2002-08-19, 21:38:04
Originally posted by Korak


Ja 50 Watt ist viel. Aber auch nicht viel mehr als die GeF4 verbraucht.

Und ich meine irgendwo im Nirgendwo gelesen zu haben, dass die Karte ohne Stecker im 2D-Betrieb nutzbar ist.

Des mit dem 2D Betrieb ohne Stecker hab ich auch gelesen!

Korak
2002-08-19, 21:40:10
Originally posted by nggalai
Kann mir mal jemand erklären, weshalb eine Grafikkarte mehr CPU-Power BRAUCHT? Und wozu, "braucht"? Um "voll" ausgenutzt zu werden?

???


Irgendwie (bitte frag mich nicht wie =)) sollen die ATi-Treiber eine höhere CPU-Last erzeugen, wodurch dann wohl weniger für die 3D-Berechnung übrigbleibt.


Ich hab' diese Formulierung noch nie kapiert. Ich seh's eher anders rum--kaum eine CPU bremst das Teil aus. Deswegen "braucht" die Karte doch noch lange keine Super-CPU.

Oder rede ich jetzt komplett am Thema vorbei?

ta,
-Sascha.rb

Ja du redest wohl am Thema vorbei :D

Schnitzl
2002-08-19, 21:42:27
Originally posted by Birdman

Btw. hat einer der Reviewer schon etwas über die Lautstärke des Lüfters gesagt?
Bei Chip stand nur was von 50!!!! Watt und dass ohne zusatzpower ausem NT gar nix geht, aber vom Lüfter/Kühler habe ich nix gelesen.
Die Lautstärke würd mich auch mal interessieren.
Bis die Karte hier erhältlich ist, dauerts wohl noch ne Weile... :(

Börk
2002-08-19, 21:45:38
Originally posted by Hauwech
Was mich wundert das selbst in 800x600 die 9700 nicht ueber 40fps rauskommt? Das sie mehr fps haben wuerde als ne 4600 war mehr oder weniger klar.
Woran liegt das?


Warscheinlich dass net genug Ram da is (mind 512 besser 1024), ausserdem hat Codecult behauptet, dass mehr als 128 MB texturen benutzt werden, dann bremst also der Ram und AGP durchsatzt, da ja Texturen ausgelagert werden müssen.

Birdman
2002-08-19, 21:47:05
Originally posted by nggalai
Kann mir mal jemand erklären, weshalb eine Grafikkarte mehr CPU-Power BRAUCHT? Und wozu, "braucht"? Um "voll" ausgenutzt zu werden?

???

Ich hab' diese Formulierung noch nie kapiert. Ich seh's eher anders rum--kaum eine CPU bremst das Teil aus. Deswegen "braucht" die Karte doch noch lange keine Super-CPU.

Oder rede ich jetzt komplett am Thema vorbei?

ta,
-Sascha.rb
"kaum eine CPU bremst das Teil aus" ist aber keine klassifizierende Antwort, so eine brachts aber um beschreiben zu können, wieso die GF karten in tieferen Auflösungen durchs Band hinweg schneller sind.
Sonst wäre ja eine alte Riva TNT noch besser, denn da findet man noch weniger CPU's die diese Karten ausbremsen könnten ;)

Ich verstehe das mit der CPU-Power so, dass z.B. nun die ATi für jedes zu rendernde Frame eine CPU-Zyklen mehr braucht, bzw. dass die CPU mehr "berechnen" muss, bis sich die Graka zufriedengibt, dann den Rest erledigt und das Bilf auf den Monitor wirft.
Vielleicht können die Geforce karten auch einfach mehr Operationen in Hardware, währenddessen die bei den Radeon karten im Treiber und damit über die CPU emuliert werden. ;)

Hauwech
2002-08-19, 21:55:27
Originally posted by burk23


Warscheinlich dass net genug Ram da is (mind 512 besser 1024), ausserdem hat Codecult behauptet, dass mehr als 128 MB texturen benutzt werden, dann bremst also der Ram und AGP durchsatzt, da ja Texturen ausgelagert werden müssen.

Hmm also muesste eine 256MB Variante bei gleichen Takt von chip und ram mehr frames bringen, richtig?

Piffan
2002-08-19, 21:57:40
Originally posted by nggalai
Kann mir mal jemand erklären, weshalb eine Grafikkarte mehr CPU-Power BRAUCHT? Und wozu, "braucht"? Um "voll" ausgenutzt zu werden?

???

Ich hab' diese Formulierung noch nie kapiert. Ich seh's eher anders rum--kaum eine CPU bremst das Teil aus. Deswegen "braucht" die Karte doch noch lange keine Super-CPU.

Oder rede ich jetzt komplett am Thema vorbei?

ta,
-Sascha.rb

Eine Super- CPU braucht die Karte, wenn ich ohne Bildverbesserung die Karte so weit fordern will, dass sie die maximale FPS- Zahl bringt, dh. nicht mehr mit der Cpu skalieren kann....

Diese "nicht mehr skalieren können" setzt bei schwächeren Karten halt früher ein bzw. bei der Rad9700 erst ein, wenn ich FSAA und AF auf hohem Niveau nutze...

In der Tat finde ich es von den Hardwarmags auch bekloppt, wenn gesagt wird, diese oder jene Graka lohne erst ab diesem oder jenem Prozi.... Dabei macht gute Bildqualität so süchtig, dass ich am liebsten immer die schnellste Graka gern hätte, Überschuß tut den Augen gut ;)

Radeonator
2002-08-19, 22:03:41
Gibts ja net,dass ich das ma schreibsel, aber Full Ack @ Piffan :D

Com1
2002-08-19, 22:40:23
Naja trotzdem, die R9700 entfaltent die roh-performance erst richtig ab 2000 Mhz bzw. PR 2000+. Und IMHO ist da durchaus noch Luft nach oben! Wetten, das P4 3 GHz, Hammer & Co. da noch weiter Skalieren?

Es gibt immernoch genügend Hardcore FSAA Verächter da draußen, denen es wirklich nur auf die Rohleistung ankommt ;)

Der THG Test mit dem P4 1,6 bzw. dem P3 800 zeigt: CPU Overkill wird nicht "gebraucht", aber für die letzen paar Frames Rohpower sollten es halt schon etwas mehr MHz sein ;)

Und wenn es wirklich mal mehr Spiele wie Aquanox gibt, die ab einer bestimmten Taktrate gar nicht mehr mit der CPU skalieren ist dieses Thema sowieso vom Tisch.

Birdman
2002-08-19, 22:47:30
Originally posted by Schnitzl
Die Lautstärke würd mich auch mal interessieren.
Bis die Karte hier erhältlich ist, dauerts wohl noch ne Weile... :(
Wenn ich's mir recht überlege iss die Lautstärke aber zurZeit noch nicht wirklich wichtig. Die getestete Referenzkarte kann man eh ned kaufen, und die meisten Hersteller von Grakas übernehmen zwar vom layout her das Referenzdesign, beim Lüfter gehen die aber zu 99% eigene Wege.....also lassen sich momentan keine Rückschlüsse auf die Lüfter der zu kaufenden Karten machen.

Btw. bin ich eigentlich der einzige der es schade findet, das ATi das SuperSampling aus <Spekulation>niederen politischen</Spekulation> Gründen bei der 9700er nicht anbietet?

zeckensack
2002-08-19, 22:50:30
Originally posted by Birdman
Btw. bin ich eigentlich der einzige der es schade findet, das ATi das SuperSampling aus <Spekulation>niederen politischen</Spekulation> Gründen bei der 9700er nicht anbietet? Nein, bist du nicht :)
Ich find's auch schade. 4xSS hätte bei der vorhandenen Bandbreite/Füllrate bestimmt noch Spaß gemacht, Exxtreme hat sich das auch schon öffentlich gewünscht.

Birdman
2002-08-19, 22:59:18
Na ja, vielleicht kann man das der Karte ja relativ einfach mit nem Rivatuner o.ö. entlocken....wobei imho von der Fillrate ja nicht wirklich zuviel vorhanden ist.
Aber für so ne Kombigeschichte Multi/SuperSamling wäre es sicher mehr als genug und die BQ wäre mehr als goil --> :habenwill:

tEd
2002-08-19, 23:15:52
jetzt wird es mir erst klar !!!!!!!!!!!!!! ;D

kein SSAA weil sie angst hatten ein paar dumme reviewer könnten r300 SS mit gf4 MS vergleichen(performance)-> :D sobald alle reviews vorbei sind werden sie es wohl dann anbieten hoffe ich zumindestens.

Demirug
2002-08-19, 23:28:34
Originally posted by nggalai
Kann mir mal jemand erklären, weshalb eine Grafikkarte mehr CPU-Power BRAUCHT? Und wozu, "braucht"? Um "voll" ausgenutzt zu werden?

???

Ich hab' diese Formulierung noch nie kapiert. Ich seh's eher anders rum--kaum eine CPU bremst das Teil aus. Deswegen "braucht" die Karte doch noch lange keine Super-CPU.

Oder rede ich jetzt komplett am Thema vorbei?

ta,
-Sascha.rb

Betrachten wir einmal einen Frame als die kleinste Einheit beim Rendern (in wirklichkeit stimmt das nicht aber so ist es einfacher zu verstehen) so gibt es 3 Zeiten die von interesse sind:

a. Die Zeit welche vom Grafikchip gebraucht wird um den Frame zu berechnen
b. Die Zeit welche vom Treiber gebraucht wird um die API Befehle für den Chip umzusetzten und an diesen zu übertragen
c. Die Zeit welche von dem Programm benötigt wird um den Frame vorzubereiten (Physik, Culling, usw)

a = GPU Zeit
c = CPU Zeit

Die Zeit b fällt zwar eigentlich auf der CPU an kann aber durch eine blockierende GPU vergrößert werden. Der einfachheit wegen sagen wir mal das das nicht passiert.

Dann gilt folgendes:

b+c = a perfekt
b+c < a Grafikkarte limitiert
b+c > a CPU limitiert

Hoffe es war verständlich

Edit: Formeln berichtigt.

Josef Jade
2002-08-19, 23:46:49
Das hat bisher keiner angeführt, also hab ich mir gedacht, dass ich das mal tue: In Borstis Review wird der Speichertakt mit 325 MHz genannt.

Hat er sich nur vertan?

Schließlich sprechen alle anderen Reviews von 325 Chip und 310 Speicher.

(btw: Soviel zu ersten "mach fettig die Karte muß in zwei Minuten aus dem Rechner raus" Reviews. Ich hasse Unpräzision vor allem bei Dingen wo sie dringend erforderlich ist, wie in technischen Grenzbereichen :()

Demirug
2002-08-19, 23:51:03
Also ich will jetzt ja nicht flamen, aber irgendwie ist es IMO schon komisch das ATi noch nicht mal genügend Karten für die Presse hat. War die Ausbeute bei der vorserie so schlecht?

nocturne
2002-08-19, 23:54:29
Originally posted by Demirug
Also ich will jetzt ja nicht flamen, aber irgendwie ist es IMO schon komisch das ATi noch nicht mal genügend Karten für die Presse hat. War die Ausbeute bei der vorserie so schlecht?

Naja, 0.15 µm bei so vielen Transistoren gibt 'ne ganz schön grosse Fläche, und zu optimieren gibt's bei 0.15 µm nicht mehr viel. Wahrscheinlich ist nur ein Bruchteil der Chips überhaupt so hoch taktbar. Aber da die Karte so teuer ist, wird sie sowieso nicht sehr viele Käufer haben.

Quasar
2002-08-20, 00:20:44
Fettes Stück Hardware, soviel ist sicher. Der Rest wird sich entscheiden, wenn wir das Ding in Händen halten können. (Sorry, habe leider so gut wie keine Zeit momentan...)

Grunt
2002-08-20, 00:31:50
Nochmal zum AA http://www.hardware.fr/art/lire/434/13/
Scheint für alle die französisch können überhaupt ein ganz guter Artikel zu sein.

Leonidas
2002-08-20, 00:33:22
Originally posted by Demirug
Also ich will jetzt ja nicht flamen, aber irgendwie ist es IMO schon komisch das ATi noch nicht mal genügend Karten für die Presse hat. War die Ausbeute bei der vorserie so schlecht?



Zwei Karten für D. Die Tester haben diese nur stundenweise bekommen. Deswegen ist es ein unabdingbarer Vorteil, in München zu sitzen, weil so die Karten nicht mit der Post gehen (gar keine Zeit), sondern per Kurierdienst.

MadManniMan
2002-08-20, 00:52:18
wem hier geht es noch so, daß für ihn das gros der unterhaltung durch nocturnes und bambos posts geleiefert wird?

nico
2002-08-20, 00:52:25
Zu Dir kann ich nur sagen, dass du einfach nicht liest (oder nicht lesen willst?!!) Sonst hättest du gesehen dass dein Problem mit der Texturqualität schon längst gelöst wurde !!! (glaub Seite 11-12)

Und die sclechte Qualität nur auf die Einstellungen von Hartware.de zurückzuführen sind!!!!!! Punkt aus !!! Such dir en anderes Forum aus wo du mit diesen Flame Versuchen eine Chance hast ?!!

Mfg Nico

Dass musste einfach mal gesagt werden !!! ( Bin übrigens grad erst auf S.13 beim lesen :)

Piffan
2002-08-20, 01:47:50
Originally posted by Demirug


Betrachten wir einmal einen Frame als die kleinste Einheit beim Rendern (in wirklichkeit stimmt das nicht aber so ist es einfacher zu verstehen) so gibt es 3 Zeiten die von interesse sind:

a. Die Zeit welche vom Grafikchip gebraucht wird um den Frame zu berechnen
b. Die Zeit welche vom Treiber gebraucht wird um die API Befehle für den Chip umzusetzten und an diesen zu übertragen
c. Die Zeit welche von dem Programm benötigt wird um den Frame vorzubereiten (Physik, Culling, usw)

a = GPU Zeit
c = CPU Zeit

Die Zeit b fällt zwar eigentlich auf der CPU an kann aber durch eine blockierende GPU vergrößert werden. Der einfachheit wegen sagen wir mal das das nicht passiert.

Dann gilt folgendes:

a+b = c perfekt
a+b < c Grafikkarte limitiert
a+b > c CPU limitiert

Hoffe es war verständlich

Der Sachverhalt ist mir schon klar, aber irgendwas ist bei deiner Formel putzig... Haste evtl. Zeit und Geschwindigkeit irgendwie vertauscht?

Wenn a+b < c , dann ist doch nicht die Graka limitierend??? Nach der Formel braucht die Graka weniger Zeit als die CPU, also ist doch die CPU der Flaschenhals....

Meint "limitiert", das die Graka vom System limitiert wird?

Irgendwie ists nicht einfach mit der Eindeutigkeit der Sprache :D

"Limitiert" im aktiven Sinne oder passiv..... "Kopfeinziehund schnell wech hier"

mapel110
2002-08-20, 02:36:20
jo, so wie ich das sehe, hat er das vertauscht:

a+b < c , die grafikkarte ist also eher fertig, als die cpu, cpu-limitiert

a+b > c , die graka braucht länger als die cpu, also graka-limitiert.

mapel110
2002-08-20, 03:47:03
auf hartware steht zum thema village-mark:

Auch hier wird der bisherige Spitzenreiter entthront. ATI hat nach eigenen Angaben trotz der erhöhten Speicherbandbreite durch die 256bit RAM- Schnittstelle auch ihre HyperZ-Technologie zur Schonung eben dieser Bandbreite weiterentwickelt und dies zeigt sich hier offenbar. HyperZ III und die erweiterte Speicherschnittstelle sind wohl gemeinsam für dieses gute Ergebnis verantwortlich.

http://www.hartware.net/review.html?id=251&page=5

ist doch wohl nicht ganz richtig ?! da der r300 16 texturen per pass schafft, kommt er auch gut durch den benchmark. das ist doch wohl das entscheidende, oder ?

sCu`
2002-08-20, 06:25:48
mal nebenbei.....

verdammt,wo ist stefan payne?? =)

Piffan
2002-08-20, 07:25:22
Originally posted by tEd
jetzt wird es mir erst klar !!!!!!!!!!!!!! ;D

kein SSAA weil sie angst hatten ein paar dumme reviewer könnten r300 SS mit gf4 MS vergleichen(performance)-> :D sobald alle reviews vorbei sind werden sie es wohl dann anbieten hoffe ich zumindestens.

Es würde ja helfen, wenn es "versteckt" angeboten würde und die "Fachkundigen" es per Tool aktivieren könnten....Mach NV ja schon seit Jahren so mit den hochwertigen AF und FSAA - Modi so... Es ist wirklich ratsam, manche Settings DAU- sicher unterzubringen ;)

Demirug
2002-08-20, 07:44:22
mapel110, piffan,

ja da war was falsch. a und c waren vertauscht. Ist inzwischen geändert.

PCGH_Thilo
2002-08-20, 08:15:46
Originally posted by zeckensack
Es gibt da bei den Speicherherstellern genaue Angaben, was was zu bedeuten hat. Muß ich aber nochmal suchen gehen ... bei Infineon hab' ich die '2A' aber glaube ich mal gesehen :)

++++++++++++++

Der Speicher auf den 9700 Pro Karten ist dieser hier.

www.samsungelectronics.com/semiconductors/Graphics_Memory/DDR_SDRAM/128M_bit/K4D26323RA/k4d26323ra-gc.htm

2A ist einfach ein Produktcode.

226 ist eine Art Datumsangabe (Jahr/Produktionswoche).

PCGH_Thilo
2002-08-20, 08:19:44
Originally posted by aths
NV25 verwendet bei 4x ein OG, R300 ein RG-Muster. Bei 45°-Winkeln ist OG ein wenig besser als RG. Bei den störenden 90°-Winkeln ist RG deutlich besser als OG. In EER-Terminologie* gesprochen ist das 4x-AA vom R300 vier mal so gut wie das 4x vom NV25, so wie 6x sogar 4,5 mal so gut wie 4xS ist.

Man sollte also nicht unbedingt 4x gegen 4x benchen - das bevorteilt die GeForce, da sie bei gleicher Subpixel-Zahl das schlechtere Bild liefert.

* EER ist nicht alles, in EER-Terminologie ist 2x RG ebensogut wie 2x2 OG, obwohl letzteres natürlich dann doch besser ist. Allerdings bleiben 2x RG und 2x2 OG _bei den schwierigen Stellen_ vergleichbar. Der Vorteil ist, dass sich mit der Edge Equivalent Resolution vernünftig rechnen lässt. Ebenso ist die Kantenglättung von 16x FAA natürlich besser als 4x RG, egal was hartware.net da faselt.

+++++

Was soll man den sonst benchen außer 4x gegen 4x?

Demirug
2002-08-20, 08:33:48
Originally posted by PCGH_Thilo

2A ist einfach ein Produktcode.



Zum Produktcode gehört ja irgendwie alles. Aber gerade die letzten beiden Stellen sind bei samsung Speicher für die OCler interesant da dort die Geschwindigkeit des Speichers koddiert ist:


25 2.50ns (400MHz @ CL=5)
2C 2.67ns (375MHz @ CL=5)
2A 2.86ns (350MHz @ CL=5)
33 3.3ns (300MHZ @ CL=4)
40 4.0ns (250MHz @ CL=4)
45 4.5ns (222MHz @ CL=4)
50 5.0ns (200MHz @ CL=3)
55 5.5ns (183MHz @ CL=3)
60 6.0ns (166MHz @ CL=3)
7C 7.5ns (133MHz @ CL=2)
70 7.0ns (143MHz @ CL=3)
80 8.0ns (125MHz @ CL=3)
75 PC133 (133MHz @ CL=3)
1H PC100 (100MHz @ CL=2 & CL=3)
1L PC100 (100Mhz @ CL=3)
10 10.0ns (100MHz @ CL=3)


Edit: Eine 0 die zuviel war entfernt

nggalai
2002-08-20, 09:22:10
Guten Morgen allerseits,

Danke für eure Ausführungen. Jetzt ist's klarer.

Also, nochmals als Verständnischeck zusammengefasst:

Wenn eine Grafikkarte in ganz klar CPU-limitierenden Situationen (niedrige Auflösungen, keine Qualitätsverbessernde Features) schlechtere FPS liefert als ein anderer VGA, dann "benötigt" diese Karte offenbar eine stärkere CPU--weil irgendwo cycles verbraucht werden, was bei der anderen Karte nicht passiert. Die Karte rendert also in Sachen Rohleistung "weniger effizient".

Hab' ich das so richtig interpretiert?

Well, generell ist's ja eigentlich recht egal, weil die Karte noch immer flott genug ist. ;)

ta,
-Sascha.rb

nggalai
2002-08-20, 09:23:04
Hi Demiurg,

Du hast da einen Tippfehler in deiner Tabelle:

> 2C 2.67ns (3750MHz @ CL=5)

Ansonsten natürlich auch hier: danke. :)

ta,
-Sascha.rb

ow
2002-08-20, 09:26:25
Originally posted by nggalai
Guten Morgen allerseits,

Danke für eure Ausführungen. Jetzt ist's klarer.

Also, nochmals als Verständnischeck zusammengefasst:

Wenn eine Grafikkarte in ganz klar CPU-limitierenden Situationen (niedrige Auflösungen, keine Qualitätsverbessernde Features) schlechtere FPS liefert als ein anderer VGA, dann "benötigt" diese Karte offenbar eine stärkere CPU--weil irgendwo cycles verbraucht werden, was bei der anderen Karte nicht passiert. Die Karte rendert also in Sachen Rohleistung "weniger effizient".

Hab' ich das so richtig interpretiert?

Well, generell ist's ja eigentlich recht egal, weil die Karte noch immer flott genug ist. ;)

ta,
-Sascha.rb


Das hast du richtig interpretiert.

Schoen zu sehen ist das auch in Leos letzem Graka-Review bei den CPU-limitierten Benches, wo alle GFs etwa auf einem Niveau liegen und zwar ueber dem der ATi karten.


http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_comanche4_1.php

oder

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/index3_unrealtournament_1.php

Demirug
2002-08-20, 09:47:05
Originally posted by nggalai
Guten Morgen allerseits,

Danke für eure Ausführungen. Jetzt ist's klarer.

Also, nochmals als Verständnischeck zusammengefasst:

Wenn eine Grafikkarte in ganz klar CPU-limitierenden Situationen (niedrige Auflösungen, keine Qualitätsverbessernde Features) schlechtere FPS liefert als ein anderer VGA, dann "benötigt" diese Karte offenbar eine stärkere CPU--weil irgendwo cycles verbraucht werden, was bei der anderen Karte nicht passiert. Die Karte rendert also in Sachen Rohleistung "weniger effizient".

Hab' ich das so richtig interpretiert?


Die Karte kann in solchen Fällen die Rohleistung einfach nicht nutzen. Die Einheiten drehen leerrunden. Rein theoretisch müsste dann natürlich alle Karten in einer solchen Situationen gleich schnell sein. Das sie es nicht sind ist durch zwei Dinge zu begründen:

1. Die CPUzeit welche durch den Treiber verbraucht wird ist bei allen Karten untschiedlich. Dadurch ist der Punkt an dem die CPU-Zeit gleich der GPU Zeit für einen Frame ist bei jeder Karte anders.

2.Jede Grafikkarte arbeitet mehr oder minder nach einem Exceutionpipe prinzip. Das heist der Treiber sammelt aufträge und übergibt sie an die Grafikkarte zur abarbeitung. In abhängikeit des Desgins erfordern aber bestimmte änderungen der Rendereinstellungen das die Pipeline erst leerlaufen muss bevor diese Änderungen durchgeführt werden können. Eine Ideale Grafikkarte müsste die Pipeline niemals leerlaufen lassen und würde alle Änderungen just in Time ausführen. AFAIK kann das aber derzeit keine Karte.

Die Fähigkeit einer Grafikkarte die Rohleistung auch umzusetzten hängt also davon ab wieviel CPUZeit der Treiber verbraucht und wie oft ein leerlaufen der Pipeline pro Frame erforderlich ist. Und hier kommt auch zum tragen das manche Spiele auf manchen Karte überhaupt nicht richtig laufen. Wenn die Renderreihenfolge für das Desgin der Karte so ungünstig ist das sie ständig die Pipeline leeren muss bekommt man einfach keine ordentliche Framerate mehr hin.

Demirug
2002-08-20, 09:49:11
Originally posted by nggalai
Hi Demiurg,

Du hast da einen Tippfehler in deiner Tabelle:

> 2C 2.67ns (3750MHz @ CL=5)

Ansonsten natürlich auch hier: danke. :)

ta,
-Sascha.rb

Copy and Paste:

Auf der Samsung Seite ist der Fehler auch:

http://www.samsungelectronics.com/semiconductors/search/datasheet.jsp?family=178

aths
2002-08-20, 10:02:58
Originally posted by PCGH_Thilo
Was soll man den sonst benchen außer 4x gegen 4x? 2x gegen 2x, da hier vergleichbare Raster zum Einsatz kommen.

4x sieht auf der GeForce deutlich schlechter aus als auf der Radeon. Ein Test 4x vs. 4x. benachteiligt die Radeon.

ow
2002-08-20, 10:10:09
Das ist nur deine Meinung aths.
Ich kann da keinen Unterschied zwischen den 4x Modi der Gf und R9700 erkennen.

Unregistered
2002-08-20, 10:21:02
Originally posted by ow
Das ist nur deine Meinung aths.
Ich kann da keinen Unterschied zwischen den 4x Modi der Gf und R9700 erkennen.

Blind? :D

Schau dir einmal die Screenshots auf www.hothardware.com an.
Da sieht man den Unterschied besser (so groß ist er aber nicht, außer beim Fahnenmasten).

Exxtreme
2002-08-20, 10:22:15
Also bei den Screenies bei Hothardware sieht man den Unterschied. Vor allem bei JK2.

Gruß
Alex

ow
2002-08-20, 10:26:06
Und wieso sieht man's auf den Anandtech Shots nicht?

Die anderen werd ich mir jetzt mal anschauen.

[edit]

exxtreme: welche JK2 Shots?

[edit]

:lol:
IMO hat hothartware auch scheisse gebencht.
der mipmap lod-bias stimmt nicht ueberein.
schoen zu sehen an den Comanche 4 Shots.

http://www.hothardware.com/reviews/images/r9700/r97004xaacomanche2.htm

http://www.hothardware.com/reviews/images/Parhelia512test/gf4aashots/gf4comanche10244xaaangle.htm

Unregistered
2002-08-20, 10:46:44
@ow;

ist aber angeblich der Default-MipMap Wert der R9700Pro. Wenn du die Texturen verwaschener willst, dann kannst du ja die Einstellungen von Hartware.net :D benutzen.

nggalai
2002-08-20, 10:52:23
Zu den Screenshots läuft gerade eine ziemlich Hitzige Diskussion auf B3D. Die Leute streiten sich mal wieder, was der "korrekte" LOD-Wert wäre, und ob ATi überfiltert (in Bewegung == Texturflimmern), oder NV unterfiltert (== geringfügig bessere Performance).

In Screenshots lässt sich das nur schwer ausmachen. :(

ta,
-Sascha.rb

Exxtreme
2002-08-20, 10:53:41
Originally posted by ow

[edit]

exxtreme: welche JK2 Shots?

[edit]

Hier:
http://www.hothardware.com/hh_files/S&V/radeon9700pro(3).shtml

Musst weiter runter scrollen.

Gruß
Alex

ow
2002-08-20, 10:55:33
Originally posted by Unregistered
@ow;

ist aber angeblich der Default-MipMap Wert der R9700Pro. Wenn du die Texturen verwaschener willst, dann kannst du ja die Einstellungen von Hartware.net :D benutzen.


Dann stimmt der bei der GF4 benutzte Wert nicht.:D

ow
2002-08-20, 10:56:52
Originally posted by Exxtreme

Hier:
http://www.hothardware.com/hh_files/S&V/radeon9700pro(3).shtml

Musst weiter runter scrollen.

Gruß
Alex

???

Du vergleichst 6xAA von ATi mit 4xAA von NV??

Welche Aussage ueber 4xAA ATi vs. 4xAA NV soll ich denn daraus ableiten?

Exxtreme
2002-08-20, 10:59:08
Originally posted by ow


???

Du vergleichst 6xAA von ATi mit 4xAA von NV??

Welche Aussage ueber 4xAA ATi vs. 4xAA NV soll ich denn daraus ableiten?
Arrrgghh! Stimmt. Ist mir so nicht aufgefallen. Und leider haben es die Jungs nicht gebacken bekommen identische Screenshots zu machen. Dabei ist es so einfach.

Gruß
Alex

ow
2002-08-20, 11:10:15
Jep.
Die JK2 Shots zeigen die hoechstmoeglichen AA-Settings der Karten. Also 6xAA bei R9700, 4xAA bei GF4 und 16xFAA bei Parhelia.

btw. das 6xAA der R9700 sieht wirklich gut aus.
Ueberrascht mich, dass es besser als das 16xFAA der Parhelia aussieht.

Exxtreme
2002-08-20, 11:14:27
Originally posted by ow

btw. das 6xAA der R9700 sieht wirklich gut aus.
Ueberrascht mich, dass es besser als das 16xFAA der Parhelia aussieht.
Logisch. ;)
Da es kein OGMS ist und jedes Sample sowohl die X- wie auch die Y-Achse filtert, erreicht es theoretisch eine Kantenglättungsqualität wie 36x OGMS bei beinahe horizontalen oder vertikalen Kanten. In der Praxis dürfte es dann doch nicht so gut aussehen wie echtes 36x OGMS.

Gruß
Alex

Tarkin
2002-08-20, 12:45:21
und noch eins: ATI RADEON 9700pro Review auf GamersDepot:

http://www.gamersdepot.com/hardware/video_cards/ati/9700pro/001.htm

mfg

sCu`
2002-08-20, 13:47:41
naja geht so..am besten finde ich persönlich den von rivastation..

Exxtreme
2002-08-20, 13:50:30
Also ich finde den von B3D am besten. Es gibt dort zwar keine bunten Balkendiagramme und keinen Vergleich zur Konkurrenz aber man erfährt sehr viele Details über den Chip. Wobei mich diese Tabellen doch ziemlich verwirren.

Gruß
Alex

ram
2002-08-20, 14:32:43
Originally posted by aths Man sollte also nicht unbedingt 4x gegen 4x benchen - das bevorteilt die GeForce, da sie bei gleicher Subpixel-Zahl das schlechtere Bild liefert.
[...]
2x gegen 2x, da hier vergleichbare Raster zum Einsatz kommen.
4x sieht auf der GeForce deutlich schlechter aus als auf der Radeon. Ein Test 4x vs. 4x. benachteiligt die Radeon.

Das man das nicht sollte ist klar, man will es aber vergleichen. Auch Leo wollte und hat 4x gegen 4x verglichen, solange man auf die klar ersichtlichen Qualitätsunterschiede hinweist ist das ja ok. Dennoch stellt sich die Frage, welche 4x Modi mit welchen Zusatzeinstellungen am vergleichbarsten sind.

4xS vs. 4xRGMS+2xAniso wär z.B. ein denkbarer Vergleichsmodus, da hat man wenigstens bei geneigten Flächen die gleiche Anzahl Textursamples und relativ ähnliche Kantenglättung hat. Bei 4xS+8X vs. 4xRGMS+16X wirds schon schwieriger, da die sehr hohen Verzerrungsgrade ja immer nur bei stark geneigten Flächen zum Einsatz kommen, 2X dagegen sich dagegen schon bei kleinerer Neigung bemerkbar macht.

aths
2002-08-20, 14:43:33
Originally posted by ram
4xS vs. 4xRGMS+2xAniso wär z.B. ein denkbarer Vergleichsmodus, da hat man wenigstens bei geneigten Flächen die gleiche Anzahl Textursamples und relativ ähnliche Kantenglättung hat. Bei 4xS+8X vs. 4xRGMS+16X wirds schon schwieriger, da die sehr hohen Verzerrungsgrade ja immer nur bei stark geneigten Flächen zum Einsatz kommen, 2X dagegen sich dagegen schon bei kleinerer Neigung bemerkbar macht. 4xS vs. 4x RG+2xAF finde ich ziemlich unfair, da 4x RG vertikale Kanten genauso gut glättet wie horizontale, was bei 4xS ja nicht der Fall ist. Zumal auch der 2x AF-Filter mehr hermacht als der 1x2 SSAA-Anteil von 4xS.

ram
2002-08-20, 14:48:52
Originally posted by aths
Zumal auch der 2x AF besser aussieht als der 1x2 SSAA-Anteil von 4xS.

Mit dieser Pauschalisierung bin ich nicht ganz einverstanden. Bei Spielen wo Texturflimmern stark störend wirkt ist 4xS genauso gut wenn nicht gar besser als 4xRGMS+2x aniso. Ausserdem wirk 4xS auch bei nicht oder nur schwach geneigten texturierten Flächen und bei Kanten von Alpha-Texturen, womit die "Ungerechtigkeit" beim Unterschied der vertikalen Kanten etwas ausgeglichen wird.

Abgesehen davon, hast du eine bessere Idee, wie man ATIs 4xRGMS gegen etwas der aktuellen NVIDIA-Produktelinie vergleichen könnte?

aths
2002-08-20, 14:59:01
ram,

4xS mindert flimmern nur in vertikaler Richtung. Ein Zaun, der von links nach rechts geht, flimmert durch 4xS praktisch genauso viel.

Wenn man die 4x-Modi nicht vergleichen kann, kann man das halt nicht. Ich habe keine bessere Idee.

HOT
2002-08-20, 15:27:23
Meiner Meinung nach sollte man ruhig die Modi vergleichen, die der Hersteller so angibt, also 4x mit 4x, 2x mit 2x. Allerdings immer auf höchster Qualitätsstufe die drin ist. Also bei NVidia 4xS Modus und bei ATI immer trilinearer anisotropische Filter. Ist doch egal ob es da qualitative Unterschiede zwischen diesen beiden Modes gibt, inwiefern sich das bemerkbar macht, kann man ja dabeischreiben.
Ich halte es aber für Blödsinn, normals MS von NVidia gegen SM2.0 zu benchen, da normals MS dies nicht die maximale Qualität widergibt, die der Chip/Treiber hergibt - SM2.0 hingegen schon. Der Kunde muss ja entscheiden, wo er Abstriche machen will. Das wurde bei vielen Tests mit der R200 und Geforce4 ähnlich falsch gemacht - es wurde oft NVs MS mit ATIs SS vergleichen. Wenn NV aber einen qualitativ vergleichbareren Modus liefert, sollte man auch den mit dem R200 vergleichen und nicht normales MS. Die Performance Modes sind im Vergleich der Chips eher uninteressant, sondern nur im Vergleich zu Max Settings und Min Settings des jeweiligen Grafikchips.
Desweiteren finde ich den Vergleich der absoluten max Settings (NVidia 4xS und AF auf 8, R300 6xMS + AF auf 16) und den vermeindlich sinnvollsten Settings (Geforce4 2xS AA + 4xAF, R300 4x AA + 16X AF, R(V)2x0 2xAA + 16x AF) immer recht interessant, darauf sollte aber keine Priorität liegen. Nur die Maximalmodes sind einigermassen vergleichbar.

ram
2002-08-20, 15:27:28
4xS mindert flimmern nur in vertikaler Richtung. Ein Zaun, der von links nach rechts geht, flimmert durch 4xS praktisch genauso viel.

Und inwiefern soll das bei 2X aniso nicht so sein?

Wenn man die 4x-Modi nicht vergleichen kann, kann man das halt nicht.

Klar. Aber hier geht es nicht darum, exakt dieselben Einstellungen zu finden, sondern die Settings zu approximieren. Es viele Leute, die das vergleichen _wollen_ und die es sich auch nicht ausreden lassen. Ein Vergleich 4xRGMS + 2x Aniso vs. 4xS ist IMO deutlich sinnvoller und aussagekräftiger als Quncinx vs. 6xRGMS. Oder denkst du nicht dass Leos DX8-Test eine gewisse Aussagekraft hat, auch ohne dass er absolut die gleichen Einstellungen getestet hat?

DrfreaK666
2002-08-20, 15:58:39
Originally posted by Birdman

Tja und es gibt anscheinend Hersteller die es nötig haben, per Default ne miese BildQuali zu liefern um noch ein paar Frames mehr rauszuholen.....möchte nicht wissen, wie viele Leute nacher damit zocken, weilse ned mal wissen, wo und dass man Settings für Grafikkarten verstellen kann. *eg*

AAAAAAAHHHHHHHHHHH Birdman,

über dein dein Geschwafel könnt ich mich aufregen....
Heutzutage weiss jedes Kind wo man die Grafikeinstellungen vornimmt.
Ist ja schließlich nicht an ner anderen Steele als bei geforce-karten.

Und richtige Zocker bräuchten eigentlich ne Karte mit 8MB RAM, weill die sowieso jedes Detail abschalten, damit man die Gegner besser erkennt...

SO DrFreaK666

aths
2002-08-20, 16:01:05
Originally posted by ram
Und inwiefern soll das bei 2X aniso nicht so sein? Wird ein Alphabit verwendet, flimmert es natürlich genauso. Ansonsten liefert 2x AF ja eine an den Winkel angepasste Filterung, so dass eine schräge Textur gleichermaßen geschärft werden kann, egal in welche Richtung sie in die Tiefe geht, während 4xS-AA nur bestimmte Winkel verbessert.
Originally posted by ram
Klar. Aber hier geht es nicht darum, exakt dieselben Einstellungen zu finden, sondern die Settings zu approximieren. Es viele Leute, die das vergleichen _wollen_ und die es sich auch nicht ausreden lassen. Ein Vergleich 4xRGMS + 2x Aniso vs. 4xS ist IMO deutlich sinnvoller und aussagekräftiger als Quncinx vs. 6xRGMS. Oder denkst du nicht dass Leos DX8-Test eine gewisse Aussagekraft hat, auch ohne dass er absolut die gleichen Einstellungen getestet hat? Quincunx vs. 6x AA ist totaler Unsinn und einem offensichtlich gehirnamputiertem Trottel entsprungen.

Wer vergleichen will, müsste auch Beispiele finden, die sich vergleichen lassen. 2x vs. 2x lässt sich vergleichen. Anschließend kann man noch Benchmarks von 4x (beide) und 6x (Radeon) bringen. Diese sollte man aber bitte nicht gegenüber stellen. Diese Settings können nach meinem Dafürhalten nur jeweils für sich gebencht werden. Die Aussage, dass 4x bei Radoen9700 sowohl schöner, als auch schneller ist, bleibt ja bestehen. Da 4x auf Radeon schöner ist finde ich es ungerecht, die Werte gegen 4x der GeForce zu stellen.

Als Leo in der Mod-Area um Vorschläge bat, welche Settings man vergleichen könnte, kam von mir ebenso die Meinung, dass es bei fast allen Settings nichts zu vergleichen gibt.

PCGH_Thilo
2002-08-20, 16:12:39
Originally posted by aths
Wird ein Alphabit verwendet, flimmert es natürlich genauso. Ansonsten liefert 2x AF ja eine an den Winkel angepasste Filterung, so dass eine schräge Textur gleichermaßen geschärft werden kann, egal in welche Richtung sie in die Tiefe geht, während 4xS-AA nur bestimmte Winkel verbessert.
Quincunx vs. 6x AA ist totaler Unsinn und einem offensichtlich gehirnamputiertem Trottel entsprungen.

Wer vergleichen will, müsste auch Beispiele finden, die sich vergleichen lassen. 2x vs. 2x lässt sich vergleichen. Anschließend kann man noch Benchmarks von 4x (beide) und 6x (Radeon) bringen. Diese sollte man aber bitte nicht gegenüber stellen. Diese Settings können nach meinem Dafürhalten nur jeweils für sich gebencht werden. Die Aussage, dass 4x bei Radoen9700 sowohl schöner, als auch schneller ist, bleibt ja bestehen. Da 4x auf Radeon schöner ist finde ich es ungerecht, die Werte gegen 4x der GeForce zu stellen.

Als Leo in der Mod-Area um Vorschläge bat, welche Settings man vergleichen könnte, kam von mir ebenso die Meinung, dass es bei fast allen Settings nichts zu vergleichen gibt.

++++++++++

Alles schön und gut, aber wenn ich die Geschwindigkeit vergleiche, muss ich nunmal 4x gegen 4x benchen (oder 2x gegen 2x). Ich kann da nicht einen wie auch immer gearteten Qualitäts-Gewichtungsfaktor einbringen, der die bessere Bildqualität mitberücksichtigt. Sonst brauche ich auch keine Parhelia-Benchmarks mit FAA-16X machen, da es in seiner Art einmalig ist.

Also Benchmarks mit möglichst gleichen Samplezahl, dazu vielleicht Extremsettings wie 6x und 4XS, Erklärung der Benchmarks, und daneben Screenshots mit FSAA-Modi und wiederum Erklärungen dazu. Alles andere ist nicht praktikabel.

DrFreaK666
2002-08-20, 16:20:56
Hmmmm,

mich würde die Geschwindigkeit mit truForm interessieren.
Die R9700 unterstützt es ja auch.

Ich weiss, dass bei SS2:SE meine Radeon8500 ziemlich in die Knie geht, wenn ich Truform for ALL (oder so) einschalte.
Mich würde interessieren wie stark die R9700 an geschwindigkeit verliert, wenn man es einstellt.

Vielleicht erscheinen ja noch ein paar Benchmarks...

Greetz DrFreaK666

ow
2002-08-20, 16:21:48
Zeige mir doch bitte mal einer den Beleg dafuer, dass ATis 4x AA dem von NV qualitativ ueberlegen sein soll!

Bis jetzt sehe ich da absolut NULL Unterschied.

aths
2002-08-20, 16:22:46
Originally posted by PCGH_Thilo
Alles schön und gut, aber wenn ich die Geschwindigkeit vergleiche, muss ich nunmal 4x gegen 4x benchen (oder 2x gegen 2x).Einspruch. Mit welcher Begründung soll ausgerechnet die Sample-Zahl genommen werden? Weil man im Hinterkopf hat, 4x = 4x? Man sollte m.E. nur vergleichbare Bildqualität gegeneinander benchen.
Originally posted by PCGH_Thilo
Sonst brauche ich auch keine Parhelia-Benchmarks mit FAA-16X machen, da es in seiner Art einmalig ist.Na klar kann man FAA benchen. Aber nicht "gegen" andere Settings. Man kann FAA benchen und die Werte inkl. Screenshots angeben. So weiss man, was für eine Geschwindigkeit bei welcher Qualität zu erwarten ist. Dieser Vergleichswahn ist m.E. dem Druck der "Kaufberatung" entsprungen, dem Leser zu zeigen, welche Karte nun die beste ist.

Ich bin der Meinung, es gibt keine beste Karte. Für unterschiedliche Ansprüche sind unterschiedliche Karten unterschiedlich gut.

ram
2002-08-20, 16:22:59
Als Leo in der Mod-Area um Vorschläge bat, welche Settings man vergleichen könnte, kam von mir ebenso die Meinung, dass es bei fast allen Settings nichts zu vergleichen gibt.

Hab ich ihm auch gesagt, aber diese idealistische Haltung lässt sich in der Praxis IMO nicht durchsetzen. Genauso hätte man V5 wegen fehlenden trilinear nicht gegen irgendetwas anderes Benchen dürfen, genauso R100/200/250 mit aniso. Filter nicht gegen irgendwas anderes testen dürfen, genauso wenig sämtliche Geforces mit DXT1 Texturkompression gegen irgendwas anderes, evtl. sogar sämtliche anisotropen Benchmarks R300 vs. NV2x wegen möglicherweise unterschiedlich implementiertem Winkel für den Wechsel der Verzerrungsstufe.

Aber die Leute sind ja auch nicht doof. Solange man versucht ähnliche Settings zu finden (evtl. mit Vergleich der Qualität im Spiel) und z.B. klar sagt, dass die eine Karte bei den gewählten Einstellungen diese und jene Kanten etwas besser glättet, dafür Texturen etwas schlechter behandelt, bietet man wohl genug Informationen für die Interpretation der Vergleichswerte.

ow
2002-08-20, 16:26:07
Originally posted by aths
Man sollte m.E. nur vergleichbare Bildqualität gegeneinander benchen.


Was ist den das fuer ein Quatsch?
Du weisst doch ganz genau, dass man so fast gar nichts zu benchen braucht.

PCGH_Thilo
2002-08-20, 16:27:55
Originally posted by ow


Was ist den das fuer ein Quatsch?
Du weisst doch ganz genau, dass man so fast gar nichts zu benchen braucht.

++++

agreed.

Exxtreme
2002-08-20, 16:31:23
Originally posted by ow


Was ist den das fuer ein Quatsch?
Du weisst doch ganz genau, dass man so fast gar nichts zu benchen braucht.
Klar, aber die reine Sample-Anzahl zu nehmen ist auch nicht unbedingt korrekt. Da wäre der Parhelia allen anderen nämlich weit überlegen. Du selbst sagtest aber, daß das 6x der Radeon9700 besser aussieht als das 16x des Parhelia. Und trotzdem wäre der Parhelia der Sieger, wenn man nach der reinen Sampleanzahl gehen würde.

Gruß
Alex

PCGH_Thilo
2002-08-20, 16:31:45
Originally posted by DrFreaK666
Hmmmm,

mich würde die Geschwindigkeit mit truForm interessieren.
Die R9700 unterstützt es ja auch.

Ich weiss, dass bei SS2:SE meine Radeon8500 ziemlich in die Knie geht, wenn ich Truform for ALL (oder so) einschalte.
Mich würde interessieren wie stark die R9700 an geschwindigkeit verliert, wenn man es einstellt.

Vielleicht erscheinen ja noch ein paar Benchmarks...

Greetz DrFreaK666

+++++

So, jetzt kann ich es ja rauslassen (eigentlich wollte ich mir das für die neue PCGH aufsparen) =)

Der Treiber, der an alle Redaktion für die Tests rausging (7.75), unterstützt unter OpenGL (noch) kein Truform. Laut Ati soll die Unterstützung nachgereicht werden, ist aber noch nicht klar, wann das passiert.

aths
2002-08-20, 16:32:04
Originally posted by ow
Was ist den das fuer ein Quatsch?
Du weisst doch ganz genau, dass man so fast gar nichts zu benchen braucht. Ich schrieb gegeneinander benchen. Von einem Review will ich wissen, wie schnell die Karte bei welchen Einstellungen ist. Wenn man praktisch nicht gegeneinander benchen kann, finde ich es quatsch, sich da auf biegen und brechen angeblich vergleichbare Modi auszudenken. Sonst könnte man auch mit der gleichen Karte 4x AF vs. 8x AF benchen - die Unterschiede sind ja nicht so groß - mit der Feststellung, dass 4x schneller ist. Toll.

PCGH_Thilo
2002-08-20, 16:33:37
Originally posted by Exxtreme

Klar, aber die reine Sample-Anzahl zu nehmen ist auch nicht unbedingt korrekt. Da wäre der Parhelia allen anderen nämlich weit überlegen. Du selbst sagtest aber, daß das 6x der Radeon9700 besser aussieht als das 16x des Parhelia. Und trotzdem wäre der Parhelia der Sieger, wenn man nach der reinen Sampleanzahl gehen würde.

Gruß
Alex

++++

Samplezahl bei "grundsätzlich" gleichen Methoden. Ein gedrehtes Muster bei MS ändert ja nix an der Geschwindigkeit, deshalb ist der vergleich mit ungedrehtem muster aus Geschwindigkeitssicht okay.

ram
2002-08-20, 16:36:47
Originally posted by ow
Zeige mir doch bitte mal einer den Beleg dafuer, dass ATis 4x AA dem von NV qualitativ ueberlegen sein soll!

Bis jetzt sehe ich da absolut NULL Unterschied.

Ist auf einem Standbild zugegeben auch schwieriger als in Bewegung.

Hardware.fr hatte ein gutes Beispielbild, wo man den Unterschied sehr gut sieht:

http://www.3dconcept.ch/IMAGES/vergleich.gif

Man zähle:

ATI 4x -> immer 3 Farbzwischenstufen
NVIDIA 4x -> meist nur 1-2 Farbzwischenstufen

Dasselbe sieht man bei der vertikalen Kante.

ow
2002-08-20, 16:38:38
Hi Thilo

Hast du vielleicht einen Beleg fuer die hier aufgestellte Behauptung, dass ATis AA anders arbeitet als NVs??

Und muesste man ein RG gegen OG Raster nicht in Screenshots sehen koennen?

ram
2002-08-20, 16:40:45
Hast du vielleicht einen Beleg fuer die hier aufgestellte Behauptung, dass ATis AA anders arbeitet als NVs??

Und muesste man ein RG gegen OG Raster nicht in Screenshots sehen koennen?

Den Beleg für das (für 2x und 4x bestmögliche) gedrehte Abtastungsraster findest Du im Review von Beyond3D:

http://www.beyond3d.com/reviews/ati/radeon9700pro/index.php?page=page15.inc

http://www.beyond3d.com/reviews/ati/radeon9700pro/aa_imp_4x.gif

Die Funktionsweise des genutzten Testprogramms ist in einem älteren Review erklärt.

ow
2002-08-20, 16:40:55
Originally posted by ram


Ist auf einem Standbild zugegeben auch schwieriger als in Bewegung.


ATI 4x -> immer 3 Farbzwischenstufen
NVIDIA 4x -> meist nur 1-2 Farbzwischenstufen

Dasselbe sieht man bei der vertikalen Kante.


AH thx, hast dich dazwischengedraengelt.:D

Ich bin mir aber nicht sicher, ob die gezeigten Bilder wirklich vom Raster abhaengen oder nicht einfach nur das Gamma-korrekte AA von ATi hier zum Tragen kommt.

ram
2002-08-20, 16:41:18
.

Exxtreme
2002-08-20, 16:42:04
Originally posted by PCGH_Thilo

Samplezahl bei "grundsätzlich" gleichen Methoden. Ein gedrehtes Muster bei MS ändert ja nix an der Geschwindigkeit, deshalb ist der vergleich mit ungedrehtem muster aus Geschwindigkeitssicht okay.
Man muss sich dann doch entscheiden und wählen ob man nach möglichst vergleichbarer Qualität bencht oder nach was anderen. Wenn man nach der reinen Subpixelanzahl geht, dann sollte man aber unbedingt zum Test anmerken, daß RGMS meist die bessere BQ bietet. Und mir persönlich ist Benchen nach Qualität doch lieber weil ich von der BQ direkt was habe. Wieviele Subpixel letztendlich einfliessen ist eigentlich zweitrangig.

Gruß
Alex

Unregistered
2002-08-20, 16:43:08
Hu Hu Thilo !
Ist nicht heute das NDa dins da fuer den NV3X vorbei ? Dann lass ma raus was es sich mit dem Chip auf sich hat ! :D :D :D

ow
2002-08-20, 16:43:08
Hmm, wieso sehe ich einen Unterschied auch beim 2xAA??

[edit]
Schade, dass auf B3D (http://www.beyond3d.com/reviews/ati/radeon9700pro/index.php?page=page15.inc) nicht auch der GF4 mit AA gezeigt wurde.

aths
2002-08-20, 16:43:36
Originally posted by PCGH_Thilo
Samplezahl bei "grundsätzlich" gleichen Methoden. Ein gedrehtes Muster bei MS ändert ja nix an der Geschwindigkeit, deshalb ist der vergleich mit ungedrehtem muster aus Geschwindigkeitssicht okay. Ein gedrehtes Muster ändert vermutlich schon, zumindest ein klein bisschen, die Geschwindigkeit. Davon abgesehen verwendet Radeon9700 kein MS á la NV, sondern eine geschwindigkeitsoptimierte Variante. Für den Kunden ist aber nur entscheidend, "was hinten rauskommt". Man kann doch aus dem Wunsch heraus, einen Shoot-Out verschiedener Hersteller zu liefern, die Bedingungen für einen fairen Vergleich herleiten. Radeon9700 liefert, nicht nur wegen dem besseren Raster, sondern auch wegen der gammakorrekten Filterung, ein spürbar besseres Bild als GeForce bei 4x. Deshalb sollte man meiner Meinung nach nicht die beiden Modi gegeneinander benchen.

OT: Es gibt einen Button, der mit "Quote" beschriftet ist ;)

PCGH_Thilo
2002-08-20, 16:44:35
Originally posted by Unregistered
Hu Hu Thilo !
Ist nicht heute das NDa dins da fuer den NV3X vorbei ? Dann lass ma raus was es sich mit dem Chip auf sich hat ! :D :D :D

+++

Völliger Käse, dass heute ein NV3x-NDA fallen soll. kA, wer das verzapft hat.

ram
2002-08-20, 16:44:45
Ich bin mir aber nicht sicher, ob die gezeigten Bilder wirklich vom Raster abhaengen oder nicht einfach nur das Gamma-korrekte AA von ATi hier zum Tragen kommt. [/SIZE]

Sie hängen vom Raster ab. Gamma-Korrektur "verbessert" nur die Farbe bestehnder Farbzwischenstufen, erzeugt aber selbst keine neue Zwischenstufen.

Unregistered
2002-08-20, 16:46:38
Ohh Entschuldige Thilo da hab ich wohl was falsch verstanden in irgend nem Post heir steht das es morgen mittag abgelaufen ist ! naja vielleicht war es ja auch nicht das NDa ! Sorry

aths
2002-08-20, 16:47:56
ow,

es lassen sich Situationen erzeugen, in denen nV bei 4x die bessere Glättung bringt. Das trifft nämlich auf 45°-Winkel zu. Allerdings können 45°-Treppen eh nur maximal 1 Zwischenstufe "tragen", für mehr ist einfach kein Platz. Deshalb ist eine Glättung dieser Winkel weniger wichtig.

Viel entscheidener sind (annähernd) horizontale oder vertikale Kanten. Da beim nV-Muster immer je 2 Subpixel über- bwz. nebeneinander stehen, kann in den meisten Fällen nur eine zusätzliche Zwischenstufe erzeugt werden.

Anders sieht es beim 3dfx- bzw. Radeon9700-Muster aus. Durch das Versetzen der Subpixel werden bei den kritischen Winkeln sogut wie immer 3 Zwischenstufen erzeugt, was dann natürlich deutlich glatter ist.

ow
2002-08-20, 16:48:29
Originally posted by aths
Radeon9700 liefert, nicht nur wegen dem besseren Raster, sondern auch wegen der gammakorrekten Filterung, ein spürbar besseres Bild als GeForce bei 4x.



Den Beweis dafuer bleibst du mir aber schuldig, oder??

WO sind die Screenshots, die das zeigen??

Unregistered
2002-08-20, 16:49:09
Das hatte ich aufgeschnappt Thilo ! :

PCGH_Thilo
Junior Member
Posts: 24
Registered: Jul.2002



Das darf ich eigentlich nicht sagen, ist bestandteil des NDAs
Aber da es ja wurschd ist: morgen mittag.

ow
2002-08-20, 16:50:53
Originally posted by aths
ow,
Da beim nV-Muster immer je 2 Subpixel über- bwz. nebeneinander stehen, kann in den meisten Fällen nur eine zusätzliche Zwischenstufe erzeugt werden.




Wo wurde denn schluessig gezeigt, dass NV kein 4xRGMS macht??
Quelle?

aths
2002-08-20, 16:52:43
Originally posted by ow
Den Beweis dafuer bleibst du mir aber schuldig, oder??

WO sind die Screenshots, die das zeigen?? In diversen Reviews gibt es genügend Screenshots. Radeon9700 erreicht kantenglättungsmäßig Voodoo5-Qualität, GeForce nicht.

aths
2002-08-20, 16:55:27
Originally posted by ow
Wo wurde denn schluessig gezeigt, dass NV kein 4xRGMS macht??
Quelle? nVidia HRAA PDF, bzw. meine Analyse der Screenshots, die ich direkt auf meiner GeForce4 Ti4600 machte. ("Analyse" ist etwas übertrieben, weil man das auf den ersten Blick sieht, wenn man sich, z.B. für einen Artikel, mit FSAA-Qualität beschäftigt hat.)

Quasar@work
2002-08-20, 16:57:41
Originally posted by aths
In diversen Reviews gibt es genügend Screenshots. Radeon8500 erreicht kantenglättungsmäßig Voodoo5-Qualität, GeForce nicht.

Sicher, dass du wirklich die Radeon8500 meinst, welche in vielen Fällen nur OGSSAA bietet?

aths
2002-08-20, 17:00:48
Originally posted by Quasar@work
Sicher, dass du wirklich die Radeon8500 meinst, welche in vielen Fällen nur OGSSAA bietet? Ups, ich meinte natürlich 9700, da 8500 nur in D3D und ohne Fog 4x RG bietet.

ram
2002-08-20, 17:09:22
Originally posted by aths
Von einem Review will ich wissen, wie schnell die Karte bei welchen Einstellungen ist.

Du vielleicht schon, andere Leute wollen aber wissen, wie schnell die Karte bei gewissen Einstellungen im Vergleich zu einer anderen Karte in einem ähnlichen Preissegment ist. Diese Zielgruppe würdest du mit deinem Ansatz nicht berücksichtigen oder dazu verdonnern, mühsam selbst die Vergleichswerte aus einem anderen Review herauszusuchen. Das ist durchaus ein Ansatz. Der ist aber nicht in jedem Fall praktikabel.

nggalai
2002-08-20, 17:20:42
Originally posted by PCGH_Thilo


++++++++++

Alles schön und gut, aber wenn ich die Geschwindigkeit vergleiche, muss ich nunmal 4x gegen 4x benchen (oder 2x gegen 2x). Ich kann da nicht einen wie auch immer gearteten Qualitäts-Gewichtungsfaktor einbringen, der die bessere Bildqualität mitberücksichtigt. Sonst brauche ich auch keine Parhelia-Benchmarks mit FAA-16X machen, da es in seiner Art einmalig ist.

Also Benchmarks mit möglichst gleichen Samplezahl, dazu vielleicht Extremsettings wie 6x und 4XS, Erklärung der Benchmarks, und daneben Screenshots mit FSAA-Modi und wiederum Erklärungen dazu. Alles andere ist nicht praktikabel. Na, das unterschreib ich doch mal.

*unterschreib*

Leider findet man sowas aufm Web viel zu selten. :(

ta,
-Sascha.rb

Nico
2002-08-20, 17:21:11
Mal zum Thema Ant-Aliasing !
Ich frage mich immer noch warum Nvidia nicht schon lang die Technik von 3dfx übernommen hat??? Wollen die dass etwa alles ( die ganze Technik von 3dfx) vergammeln lassen biss sie keiner mehr braucht?! Also wenn Nvidia diese Features nicht in ihren neuen Chip 'pflanzen' dann sind sie einfach nur Stoh dumm !! (aber Thilo wird da bestimmt mehr Wissen :) ) Denn das AA von 3dfx war einfach nur geil und kostet auch nicht zuviel Performance !!

Mfg Nico

^Vermutung^ Ich will auch gar nicht wissen wie weit wir jetzt schon wären wenn der Rampage noch rausgekommen wäre !! *geiil*
Naja aber die Zeit ist leider vorbei :(

nggalai
2002-08-20, 17:23:47
Hi Unreg,Originally posted by Unregistered
Das hatte ich aufgeschnappt Thilo ! :

PCGH_Thilo
Junior Member
Posts: 24
Registered: Jul.2002



Das darf ich eigentlich nicht sagen, ist bestandteil des NDAs
Aber da es ja wurschd ist: morgen mittag. Thilo sprach von der Radeon9700-NDA. Nicht von NV3x.

ta,
-Sascha.rb

KingLouis
2002-08-20, 18:06:15
muss jetzt erstmal die forumeinstellungen ändern... nur weil ich den Thread aufgemacht hab, hab ich jetzt zig tausende e-mails gekriegt;D

Unregistered
2002-08-20, 18:22:33
hey Thilo !
Schau ma was ich gefunden hab ! ! !

http://www.pcpop.com.cn/view.asp?type=news&id=7722

Korak
2002-08-20, 18:25:23
Schau mal was ich gefunden hab
http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=29778

:D

nggalai
2002-08-20, 18:25:28
Hola,
Originally posted by Unregistered
hey Thilo !
Schau ma was ich gefunden hab ! ! !

http://www.pcpop.com.cn/view.asp?type=news&id=7722 Wird schon hier besprochen:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=29778

Und handelt sich um übersetztes Material von einer Tschechischen Webseite, welche Spekulationen von einer Amerikanischen Website übernommen hat . . . also nicht sehr relevant.

ta,
-Sascha.rb

Korak
2002-08-20, 18:27:16
Hui das was war aber knapp :D

ow
2002-08-20, 18:58:00
Originally posted by aths
In diversen Reviews gibt es genügend Screenshots. Radeon9700 erreicht kantenglättungsmäßig Voodoo5-Qualität, GeForce nicht.


Welche Shots??
Ich hab die meisten Reviews überflogen aber nichts entdecken können.

ow
2002-08-20, 19:03:08
Originally posted by aths
Ups, ich meinte natürlich 9700, da 8500 nur in D3D und ohne Fog 4x RG bietet.


Ich bin ja mal wirklich gespannt, ob das Foggung im R9700 funzt, wie es sollte.
Wäre der erste Chip, bei dem ATi das hingekriegt hätte.

Unregistered
2002-08-20, 19:16:23
ATi wird gefressen.

HOT
2002-08-20, 19:27:34
Originally posted by ow



Ich bin ja mal wirklich gespannt, ob das Foggung im R9700 funzt, wie es sollte.
Wäre der erste Chip, bei dem ATi das hingekriegt hätte.

ATI hat das Teil ja auch net alleine gebaut. Das Teil wäre meiner Meinung nach ohne ArtX nicht halb so gut geworden :D

Exxtreme
2002-08-20, 19:37:01
Originally posted by HOT


ATI hat das Teil ja auch net alleine gebaut. Das Teil wäre meiner Meinung nach ohne ArtX nicht halb so gut geworden :D
Doch, das war ATi alleine. ArtX ist nämlich ATi.

Gruß
Alex

nagus
2002-08-20, 19:45:26
Originally posted by Unregistered
ATi wird gefressen.


möchte wissen was du für probleme hast?! .... nein eigentlich nicht. aber wenn du selber glaubst, was du da fasels, hast du meiner meinung nach einen gewaltigen dachschaden. :bonk::bonk::bonk:

Exxtreme
2002-08-20, 19:51:14
Komm schon nagus. Auf solche dummen Sprüche antwortet man doch normalerweise gar nicht da sie es nicht wert sind.
;)

Gruß
Alex

Madkiller
2002-08-20, 19:54:23
ATi wird gefressen.

Der will hier doch eifach nur Provozieren!
Einfach ignorieren.

Piffan
2002-08-20, 19:57:09
Originally posted by Demirug


Die Karte kann in solchen Fällen die Rohleistung einfach nicht nutzen. Die Einheiten drehen leerrunden. Rein theoretisch müsste dann natürlich alle Karten in einer solchen Situationen gleich schnell sein. Das sie es nicht sind ist durch zwei Dinge zu begründen:

1. Die CPUzeit welche durch den Treiber verbraucht wird ist bei allen Karten untschiedlich. Dadurch ist der Punkt an dem die CPU-Zeit gleich der GPU Zeit für einen Frame ist bei jeder Karte anders.

2.Jede Grafikkarte arbeitet mehr oder minder nach einem Exceutionpipe prinzip. Das heist der Treiber sammelt aufträge und übergibt sie an die Grafikkarte zur abarbeitung. In abhängikeit des Desgins erfordern aber bestimmte änderungen der Rendereinstellungen das die Pipeline erst leerlaufen muss bevor diese Änderungen durchgeführt werden können. Eine Ideale Grafikkarte müsste die Pipeline niemals leerlaufen lassen und würde alle Änderungen just in Time ausführen. AFAIK kann das aber derzeit keine Karte.

Die Fähigkeit einer Grafikkarte die Rohleistung auch umzusetzten hängt also davon ab wieviel CPUZeit der Treiber verbraucht und wie oft ein leerlaufen der Pipeline pro Frame erforderlich ist. Und hier kommt auch zum tragen das manche Spiele auf manchen Karte überhaupt nicht richtig laufen. Wenn die Renderreihenfolge für das Desgin der Karte so ungünstig ist das sie ständig die Pipeline leeren muss bekommt man einfach keine ordentliche Framerate mehr hin.




War das damals bei der Voodoo2 nicht ähnlich? Die war schneller als die TNT, weil sie weniger Cpu- Last verusachte... Damals wurde es damit begrüngdet, dass das Backface- Culling die Voodoo2 erledigte, bei der TNT mußte es die CPU erledigen..... War damals noch ein Geschwindigkeitsplus beim Pentium 1, dafür ging der Voodoo2 ganz fix die Puste aus, als die Prozis dann stärker wurden und die TNT noch locker skalierte....

Bei den heutigen Grakas sollte allerdings die Arbeitsteilung zwischen CPU und Graka gleich aussehen... Da kommt dann eher das Problem der Pipe- Strukturen zum Tragen oder die API...Am Rande: Ist OpenGl immer noch fixer als D3d? Auch bei hohen Auflösugen?

Aber ist eh alles wurscht, ein Radeon 9700 Besitzer wird wohl kaum in solchen Settings spielen, wo eine Geforce 3 noch schneller wäre.... Wäre Perlen vor die Säue werfen....

Xmas
2002-08-20, 19:57:09
Mal ne Frage, was für Gamma-Einstellungen benutzen die Tester bei solchen Screenshots? Die "Gamma-korrigierten" Zwischenstufen der R9700 sehen bei mir nämlich (im Farbraum!) schlechter verteilt aus als die der GF4.

Piffan
2002-08-20, 19:59:53
Originally posted by nagus



möchte wissen was du für probleme hast?! .... nein eigentlich nicht. aber wenn du selber glaubst, was du da falels, hast du meiner meinung nach einen gewaltigen dachschaden. :bonk::bonk::bonk:

Haben solche Typen nicht normalerweise einen Jagdschein? Die dürfen das also :D

Demirug
2002-08-20, 20:11:56
Originally posted by Piffan

Bei den heutigen Grakas sollte allerdings die Arbeitsteilung zwischen CPU und Graka gleich aussehen... Da kommt dann eher das Problem der Pipe- Strukturen zum Tragen oder die API...Am Rande: Ist OpenGl immer noch fixer als D3d? Auch bei hohen Auflösugen?

Aber ist eh alles wurscht, ein Radeon 9700 Besitzer wird wohl kaum in solchen Settings spielen, wo eine Geforce 3 noch schneller wäre.... Wäre Perlen vor die Säue werfen....

Bei der Voodoo2 vs TNT Sache must du jemanden anderen fragen. Zu dem Zeitpunkt war ich aus Beruflich/Privaten Gründen nicht in der lage mich im Detail mit der Materie zu beschäftigen

Das mit der Arbeitsteilung ist nach wie vor sehr stark von Spiel abhängig.

Was nun den Speed Vergleich OpenGL vs D3D angeht ist das zum einen stark von den Treibern abhängig. Der zweite wichtige Faktor ist wie stark die Entwickler die Hersteller spezifischen Extension nutzen welche natürlich sehr gute performance eigenschaften haben. In Summe geben sich die beiden APIs aber nicht sehr viel.

DrFreaK666
2002-08-20, 20:12:49
Originally posted by Nico
Mal zum Thema Ant-Aliasing !
Ich frage mich immer noch warum Nvidia nicht schon lang die Technik von 3dfx übernommen hat??? Wollen die dass etwa alles ( die ganze Technik von 3dfx) vergammeln lassen biss sie keiner mehr braucht?! Also wenn Nvidia diese Features nicht in ihren neuen Chip 'pflanzen' dann sind sie einfach nur Stoh dumm !! (aber Thilo wird da bestimmt mehr Wissen :) ) Denn das AA von 3dfx war einfach nur geil und kostet auch nicht zuviel Performance !!

Mfg Nico

^Vermutung^ Ich will auch gar nicht wissen wie weit wir jetzt schon wären wenn der Rampage noch rausgekommen wäre !! *geiil*
Naja aber die Zeit ist leider vorbei :(

Naja, hast du jemals ne Voodoo5 gehabt???
Klar, das AA sieht super aus, aber verglichen mit den heutigen Grakas verliert es doch unmengen an Performance...

DrFreaK666

Piffan
2002-08-20, 20:23:51
Originally posted by DrFreaK666


Naja, hast du jemals ne Voodoo5 gehabt???
Klar, das AA sieht super aus, aber verglichen mit den heutigen Grakas verliert es doch unmengen an Performance...

DrFreaK666

Damals war es aber der Hammer, durch das Zweichipprinzip hatte man nicht so viel mit der Bandbreite zu kämpfen, trotz Supersampling.... Das Wichtigste war imho das Jittering.....

Quasar
2002-08-20, 20:30:13
Hm...man hätte dafür genausogut schnödes DDR-RAM nutzen können, was? ;)

Exxtreme
2002-08-20, 20:34:02
Originally posted by Quasar
Hm...man hätte dafür genausogut schnödes DDR-RAM nutzen können, was? ;)
Klar, war aber zu Voodoo5-Zeiten sündhaft teuer. Da war die GF2GTS teurer als eine Voodoo5 obwohl Letztere 2 Chips und die ganze RAM-Menge doppelt vorhalten musste wegen SLI.

Gruß
Alex

Piffan
2002-08-20, 20:41:58
Originally posted by Quasar
Hm...man hätte dafür genausogut schnödes DDR-RAM nutzen können, was? ;)

Wieso dafür nutzen? Besser wäre es gewesen, DDR zusätzlich zu nutzen... Wenn schon, denn schon... :D Oder waren die Chips mit dem SDR schon gut bedient???

Unregistered
2002-08-20, 20:43:08
Originally posted by ow

Wo wurde denn schluessig gezeigt, dass NV kein 4xRGMS macht??
Quelle?


Anstelle hier rumzujammern, könntest du doch auch nach Quellen suchen:

http://www.xbitlabs.com/video/antialiasing

die Artikel von Beyond3D sind auch eine gute Quelle :

http://www.beyond3d.com/articles/gf4launch/index3.php

Die Info stammt (nach Augenschein) direkt von Nvidia.


Ich hoffe das hilft dir weiter.

Legolas
2002-08-20, 20:55:15
Originally posted by Piffan


Wieso dafür nutzen? Besser wäre es gewesen, DDR zusätzlich zu nutzen... Wenn schon, denn schon... :D Oder waren die Chips mit dem SDR schon gut bedient???

DDR-RAM wäre imho beim VSA-100 reiner Overkill gewesen, weil er denke ich in den meisten Situationen klar füllratenlimitiert ist. Ein einziger VSA-100 hat ja nur 2 Pipes à einer TMU, wobei afaik für Multitexturing Pipelinecombining benutzt wird.

StefanV
2002-08-20, 21:03:40
Originally posted by Unregistered
ATi wird gefressen.

Dieser Syntax macht keinen sinn...

nicht ATI wird gefressen, sondern ATi wird fressen *eg*

Unregistered
2002-08-20, 21:05:38
Originally posted by Legolas


DDR-RAM wäre imho beim VSA-100 reiner Overkill gewesen, weil er denke ich in den meisten Situationen klar füllratenlimitiert ist. Ein einziger VSA-100 hat ja nur 2 Pipes à einer TMU, wobei afaik für Multitexturing Pipelinecombining benutzt wird.


Was war zuerst... das Huhn oder das Ei??

Wenn 3DFx den VSA100 für DDR-RAM ausgelegt hätte, dann hätte er IMHO auch 4Pipelines bekommen. D.h. 3DFx hat keine Forschung betrieben (und damit nicht herausgefunden, das DDR-RAM möglich gewesen wäre) und somit den Chip von Anfang an auf SDRAM ausgelegt [so in etwa stelle ich mir das zumindest vor]. Diese sehr frühzeitige Festlegung hat ihnen letztendlich "den Kopf" gekostet (da ein 1Chip Voodoo5 wesentlich billiger in der Herstellung gewesen wäre).

All IMHO of course :)

Unregistered
2002-08-20, 21:05:56
Ja genau das Geld der fanATIker

Exxtreme
2002-08-20, 21:12:55
Originally posted by Legolas


DDR-RAM wäre imho beim VSA-100 reiner Overkill gewesen, weil er denke ich in den meisten Situationen klar füllratenlimitiert ist. Ein einziger VSA-100 hat ja nur 2 Pipes à einer TMU, wobei afaik für Multitexturing Pipelinecombining benutzt wird.
In den meisten Fällen ja. Der VSA10x-Chip war nichts anderes als ein getunter Voodoo3-Chip. 32 Bit-Farbtiefe hier, Texturkompression da, höhere Texturauflösung und das Wichtigste: der MultiSample-Buffer. Aber nur Letzterer dürfte einen etwas höheren Implementationsaufwand bedeuten. Ansonsten war dieser nicht viel besser als der V3-Chip. Einen Leistungsschub dürfte es trotzdem geben, da die damaligen Chips doch stark bandbreitenlimitiert waren.

Gruß
Alex

Unregistered
2002-08-20, 21:25:07
Soweit ich die Tests durchgeschaut habe, wurde bei keinem als Testsystem Win98 eingesetzt. Mag ja sein, dass weniger als 1 Prozent aller Gamer noch Win98 einsetzen, aber ich bin einer von denen.
Wenn ich nicht sicher weiß, dass die R9700 unter Win98 läuft, kaufe ich sie mir nicht.
Klar, ATi hat gesagt, das würde funktionieren, so wie ja auch Matrox die Win98-Treiber für September angekündigt hat.

nagus
2002-08-20, 21:36:09
Originally posted by Stefan Payne


Dieser Syntax macht keinen sinn...

nicht ATI wird gefressen, sondern ATi wird fressen *eg*


doppelplusgut ;)

Unregistered
2002-08-20, 22:16:08
Die werden die Kunden fressen weil sie kaum Umsatz machen wenn der Geforce5 kommt.

Thowe
2002-08-20, 22:24:47
Können wir beim Thema blieben? Es geht hier um Tests und nicht um Spekulationen wer wen zum "fressen" gern hat. Wer spammen will, der findet im Spam-Forum dazu eine Möglichkeit. Dort kann er gerne schreiben wie "toll" er ist und braucht sich auch gar nicht argumentativ zu artikulieren.

Aber einen, zumal auch noch ohne jegliche Aussagekraft, Satz in den Raum zu stellen, das vermittelt schon etwas geistige Unreife. Aber vielleicht werde ich ja durch eine geschickte Argumentation eines besseren belehrt.

Unregistered
2002-08-20, 22:27:27
Ich seh den Nagus gern kotzen :D

MadManniMan
2002-08-20, 22:32:40
obwohl vielleicht ein wenig OT möchte man mir mal folgende frage gestatten...

@Thilo:

warum gibts bei euch und der schwester mit dem holtmann bernd(me=doppelabofreak) a) so wenig aa tests und b) dann meist welche mit 4*, wo doch 2* wesentlich lieber und öfter genutzt wird und nun wirklich ähnlich dem bekanntheitsgrad der konfession des pabstes geläufig sein sollte, daß das 2* bei der nv- und der ati-d3d-implementation im großen und ganzen schon schmuck is und die relation zwischen leistungsverlust und qualigewinn bezüglich 4*og nicht die sinnigste ist?

hach, schreib ich heut wieder wirr. viel spaß beim lesen :D

PCGH_Thilo
2002-08-20, 22:33:00
Originally posted by Unregistered
Soweit ich die Tests durchgeschaut habe, wurde bei keinem als Testsystem Win98 eingesetzt. Mag ja sein, dass weniger als 1 Prozent aller Gamer noch Win98 einsetzen, aber ich bin einer von denen.
Wenn ich nicht sicher weiß, dass die R9700 unter Win98 läuft, kaufe ich sie mir nicht.
Klar, ATi hat gesagt, das würde funktionieren, so wie ja auch Matrox die Win98-Treiber für September angekündigt hat.

+++

Läuft unter Win9X =)
Da 50% unser Leser 9X haben, gibts auch 9x-Benchmarks.

Mehrpack
2002-08-20, 22:35:51
Originally posted by Unregistered
Soweit ich die Tests durchgeschaut habe, wurde bei keinem als Testsystem Win98 eingesetzt. Mag ja sein, dass weniger als 1 Prozent aller Gamer noch Win98 einsetzen, aber ich bin einer von denen.
Wenn ich nicht sicher weiß, dass die R9700 unter Win98 läuft, kaufe ich sie mir nicht.
Klar, ATi hat gesagt, das würde funktionieren, so wie ja auch Matrox die Win98-Treiber für September angekündigt hat.

hi,
unter spielern ist win98se noch realtiv verbreitet.
das ist mehr als nur 1%, da braucht man sich nur mal anzuschaun was auf den webseiten so rumsurft.
Matrox kann auf die Win9x treiber verzichten da sie ja weniger auf spieler abzielen sondern eher auf den professionellen bereich und dort wird sowieso WinNT basierende oder andere OS eingesetzt.

Mehrpack

MadManniMan
2002-08-20, 22:36:08
*stöhn!* *zaunpfahlschwenk* :bounce: gucksduher, Thilo!

wo du grad dabei bist... da oben tut noch ne lustige testfrage stehen!

@thowe: ich weiß, der post war nicht nötig... aber du weißt ja: meerjungfrauen haben keine hamster! und der post ist schön. sehr sogar. jawohl. hehe.

PCGH_Thilo
2002-08-20, 22:39:32
Originally posted by MadManniMan
obwohl vielleicht ein wenig OT möchte man mir mal folgende frage gestatten...

@Thilo:

warum gibts bei euch und der schwester mit dem holtmann bernd(me=doppelabofreak) a) so wenig aa tests und b) dann meist welche mit 4*, wo doch 2* wesentlich lieber und öfter genutzt wird und nun wirklich ähnlich dem bekanntheitsgrad der konfession des pabstes geläufig sein sollte, daß das 2* bei der nv- und der ati-d3d-implementation im großen und ganzen schon schmuck is und die relation zwischen leistungsverlust und qualigewinn bezüglich 4*og nicht die sinnigste ist?

hach, schreib ich heut wieder wirr. viel spaß beim lesen :D

++++++++++++++++++++++++

also zur schwester bernd kann ich nix sagen, der kocht seine eigene suppe (um das auch mal klarzustellen) =)

Bei größeren Tests gibts eigentlich immer mehr Benchmarks als nur 4x. In der aktuellen ausgabe zur 9000 Pro beispielsweise 2X, 4X und AF. Das wird in Zukunft auch so bleiben. Ist halt meistens eine Platzfrage, nicht jeder will in jedem Heft seitenweise Grafikkartentests und -Benchmarks.

Ob es angesichts der 9700er-Werte überhaupt noch groß Sinn macht, No-FSAA-Werte zu machen, ist sowieso fraglich. 16-Bit-Werte bringt auch niemand mehr. Ich denke mal, dass in naher Zukunft einer der großen Hersteller damit anfängt, FSAA einfach automatisch zu aktivieren. Wenn das mit der Kompabibilität 99% hinhaut, spricht angesichts der gigantischen FSAA-Leistungen durch Multisampling, 256-Bit-Busbreite und Z-Kompression (what else) nichts dagegen.

Piffan
2002-08-20, 22:41:34
Originally posted by Unregistered
Ich seh den Nagus gern kotzen :D

:rofl:

MadManniMan
2002-08-20, 22:48:35
schade, daß ich mich grad nich in meinem pcgh-haufen zurechtfinde(rossi hätte anno 95 noch "wegen überschleimung gekürzt" geschrieben, seufz...), sonst würd ich dir jetzt sagen, wo es richtig verhunzt ist...

aber der r9000 dingens war durchaus nicht suboptimal... :D

nagus
2002-08-20, 22:51:52
Originally posted by Unregistered
Ich seh den Nagus gern kotzen :D

ich habe keinen grund zum kotzen.
aber vielleicht kannst du mir einen grund nennen, ich warte... aber biite nicht hier sondern im spam-forum, ok?



btw, die Radeon9700 is das geilste was ich seit der voodo2 SLI erlebt hab!

MadManniMan
2002-08-20, 22:57:56
also zur schwester bernd kann ich nix sagen, der kocht seine eigene suppe (um das auch mal klarzustellen)

ohne ihm nahetreten zu wollen - allroundgenie zu sein is halt kompelziert, aber ein sehr guter allrounder ist er fraglos - hat er theoretischerweise ein paar bolzen rausgelassen, die schon nicht mehr feierlich waren (zb: jedes aa vorm parh.-faa blurrt). wie wärs mal mit nem kleinen intensivkurs in der pcgh-red? so praktikumsmäßig bei dir oder ram?

aber zurück zum thema: sinnloses geflame von einigen netten leuten

Thowe
2002-08-20, 23:08:39
Originally posted by nagus


ich habe keinen grund zum kotzen.
aber vielleicht kannst du mir einen grund nennen, ich warte... aber biite nicht hier sondern im spam-forum, ok?



Das nenn ich eine gute Einstellung

Piffan
2002-08-20, 23:16:15
Originally posted by nagus



btw, die Radeon9700 is das geilste was ich seit der voodo2 SLI erlebt hab!


:rofl:

Oli_Immerschoen
2002-08-21, 00:37:49
Was gibt es da zu Lachen Piffan?? Den Technologie/Leistungssprung den ATI mit der R300 gegenüber der 4600er macht ist IMHO seit der V2 nicht mehr dagewesen. NVidias Sprünge waren jedenfalls immer deutlich kleiner.

Warum ein Produkt ablehnen nur weils vom "falschen" Hersteller kommt??

AlfredENeumann
2002-08-21, 00:51:53
Originally posted by Unregistered
Soweit ich die Tests durchgeschaut habe, wurde bei keinem als Testsystem Win98 eingesetzt. Mag ja sein, dass weniger als 1 Prozent aller Gamer noch Win98 einsetzen, aber ich bin einer von denen.
Wenn ich nicht sicher weiß, dass die R9700 unter Win98 läuft, kaufe ich sie mir nicht.
Klar, ATi hat gesagt, das würde funktionieren, so wie ja auch Matrox die Win98-Treiber für September angekündigt hat.

Warum sollte ATI denn keine 98er Treiber mehr für den R300 anbieten ?
Alle Radeons nutzen den gleichen Treiber, also auch die R300.
Und Treiber für Win98 gibt es nunmal.

Unregistered
2002-08-21, 00:56:13
Originally posted by Oli_Immerschoen
Was gibt es da zu Lachen Piffan?? Den Technologie/Leistungssprung den ATI mit der R300 gegenüber der 4600er macht ist IMHO seit der V2 nicht mehr dagewesen. NVidias Sprünge waren jedenfalls immer deutlich kleiner.

Warum ein Produkt ablehnen nur weils vom "falschen" Hersteller kommt??

Naja, der Satz von Nagus hört sich ein bisschen so an, als hätte er die Karte schon und könnte genau beurteilen wie gut sie ist ;)

Unregistered
2002-08-21, 00:58:22
"
Was gibt es da zu Lachen Piffan?? Den Technologie/Leistungssprung den ATI mit der R300 gegenüber der 4600er macht ist IMHO seit der V2 nicht mehr dagewesen. NVidias Sprünge waren jedenfalls immer deutlich kleiner.
"

Der technologische Sprung ist eher nicht so prall. Der war bei der GF3 höher anzusiedeln.
Das NVs Sprünge kleiner sind liegt einfach daran das sie regelmäßig refreshen. Also kein + Punkt für ATI.
Zu verschenken hat niemand was. Wenn sie es nicht in baare Münze langfristig umsetzen gibts von mir die rote Karte wie immer.
Für mich zählt nur das kassiert wird alles andere is mir egal :)

Oli_Immerschoen
2002-08-21, 01:00:55
Originally posted by AlfredENeumann


Warum sollte ATI denn keine 98er Treiber mehr für den R300 anbieten ?
Alle Radeons nutzen den gleichen Treiber, also auch die R300.
Und Treiber für Win98 gibt es nunmal.

Nun ja, augenscheinlich rücken die Hersteller - siehe Matrox - wohl von win98 ab, ist natürlich die frage ob das repräsentativ ist. wenn ATI für die 9700 keinen win98 - Treiber anbietet kann die Karte bleiben wo der Pfeffer wächst. Aber ich glaube kaum dass die sich so eine Nummer leisten, ich glaub die haben "Großes" vor und werden sich hüten einen IMHO nicht wirklich kleinen Anteil der "GamerCommunity" zu vergrätzen.

Oli_Immerschoen
2002-08-21, 01:07:51
Originally posted by Unregistered
"
Was gibt es da zu Lachen Piffan?? Den Technologie/Leistungssprung den ATI mit der R300 gegenüber der 4600er macht ist IMHO seit der V2 nicht mehr dagewesen. NVidias Sprünge waren jedenfalls immer deutlich kleiner.
"

Der technologische Sprung ist eher nicht so prall. Der war bei der GF3 höher anzusiedeln.
Das NVs Sprünge kleiner sind liegt einfach daran das sie regelmäßig refreshen. Also kein + Punkt für ATI.
Zu verschenken hat niemand was. Wenn sie es nicht in baare Münze langfristig umsetzen gibts von mir die rote Karte wie immer.
Für mich zählt nur das kassiert wird alles andere is mir egal :)


Den technologischen Vorsprung als kleiner anzusehen als den der GF3 ist IMHO ´ne klare Fanboy-Meinung, Richthofen. Du bist doch selber einer von denen die immer die qualitätserhöhenden Maßnahmen gepriesen haben, sei so fair und mach das auch bei ATI. Schaltet man nämlich diese Maßnahmen ein wird aus dem ohnehin schon großen Vorsprung der R300 ein Erdrutschabstand. Da nützt Dir auch deine Freundschaft zum Erzkapitalismus, der sich - zugegeben - hervorragend mit dem Geschäftsgebaren NVidias in Einklang bringen läßt, herzlich wenig :)

Und das NVidias kleinere Sprünge nicht am häufigen Refresh lagen sondern daran daß sie einfach nicht mehr tun mußten um die Konkurrenz auszuschalten wissen wir beide Richti..oder etwa nicht?? :D

Piffan
2002-08-21, 01:13:04
Originally posted by Unregistered
"
Was gibt es da zu Lachen Piffan?? Den Technologie/Leistungssprung den ATI mit der R300 gegenüber der 4600er macht ist IMHO seit der V2 nicht mehr dagewesen. NVidias Sprünge waren jedenfalls immer deutlich kleiner.
"

Der technologische Sprung ist eher nicht so prall. Der war bei der GF3 höher anzusiedeln.
Das NVs Sprünge kleiner sind liegt einfach daran das sie regelmäßig refreshen. Also kein + Punkt für ATI.
Zu verschenken hat niemand was. Wenn sie es nicht in baare Münze langfristig umsetzen gibts von mir die rote Karte wie immer.
Für mich zählt nur das kassiert wird alles andere is mir egal :)

Richthofen? :D

Oli_Immerschoen
2002-08-21, 01:14:57
Originally posted by Piffan


Richthofen? :D

Blitzmerker??

Höhnangst
2002-08-21, 02:03:12
Auch wenn ich kein nVidia-Fan bin, muss ich unserem Unreg (bzw. Richthofen?) rechtgeben. Die Aussage mit dem "geringen Technologiesprung" geht schon in Ordnung. Im Prinzip ist die R9700 mit ihrer vollen DX9-Unterstützung technologisch gesehen ja "nur" eine Weiterentwicklung bzw. Verbesserung des bestehenden DX8 und seiner Features. Der Sprung von DX7 zu 8 (also zur GF3) war größer und das wurde AFAIK auch mal in einem 3DCenter-News-Bericht im Zusammenhang mit einer Presseaussage von nV (oder war's ATi?) geschrieben. Dabei ging es darum, dass die neuen Chips dank ihrer ach so tollen Neuerungen nun das Maß aller Dinge seien, sowohl was Perfomance als auch Renderingqualität angeht, wobei DX8 bzw. DX8-Grafikkarten schon wieder als "altes Eisen" abgestempelt wurden, was natürlich Quatsch ist ( Marketing halt :eyes: ).

Zweifelsohne richtig ist allerdings, dass die R9700 den deutlichsten Performancesprung seit (sehr) langer Zeit gemacht hat. Da gibt's auch nix dran zu rütteln :D.
Basta! :D

tEd
2002-08-21, 02:38:32
ich muss sagen das ich den jetzigen technologischen sprung von dx8 auf dx9 grösser finde als denjenigen von dx7 auf dx8.

vs2 -> bis zu 65xxx instruktion mit loops and stuff ;)
ps2 ->16texturen/pass
höhere genauigkeiten bis zu 128bit mit versch. zwischen formaten für integer und floatin point
displacement mapping

ist nicht gerade wenig

klar dx8 hat erstmal eine begrenzte programmierbarkeit eingeführt aber dennoch finde ich den schritt auf dx9 aufregender als derjenige auf dx8

tEd
2002-08-21, 02:53:01
Originally posted by Oli_Immerschoen


Nun ja, augenscheinlich rücken die Hersteller - siehe Matrox - wohl von win98 ab, ist natürlich die frage ob das repräsentativ ist. wenn ATI für die 9700 keinen win98 - Treiber anbietet kann die Karte bleiben wo der Pfeffer wächst. Aber ich glaube kaum dass die sich so eine Nummer leisten, ich glaub die haben "Großes" vor und werden sich hüten einen IMHO nicht wirklich kleinen Anteil der "GamerCommunity" zu vergrätzen.

sie werden w98/me treiber haben , sie werden einfach nicht von Microsoft zertifiziert -> ist ja auch nicht so wichtig denke ich

Höhnangst
2002-08-21, 03:33:15
Originally posted by tEd
ich muss sagen das ich den jetzigen technologischen sprung von dx8 auf dx9 grösser finde als denjenigen von dx7 auf dx8.

vs2 -> bis zu 65xxx instruktion mit loops and stuff ;)
ps2 ->16texturen/pass
höhere genauigkeiten bis zu 128bit mit versch. zwischen formaten für integer und floatin point
displacement mapping

ist nicht gerade wenig

klar dx8 hat erstmal eine begrenzte programmierbarkeit eingeführt aber dennoch finde ich den schritt auf dx9 aufregender als derjenige auf dx8





Stimmt schon, aber naja ... weiß auch nicht so recht ;). Wenn man's genauer betrachtet, würde ich dazu tendieren zu sagen, dass sich die Fortschritte etwa die Waage halten: 7 zu 8 = 8 zu 9.

Kann nicht mal jemand, der die Specs auswendig kennt, diejenigen, welche sich von 7 auf 8 und von 8 auf 9 ändern, aufzählen. :eyes: :D

Meta
2002-08-21, 07:18:07
Hi....

Was der größere Sprung von der Tech her ist, darüber lässt sich sicher streiten, im Sinne von DX 7,8,9

ABER man muss eben auch den Fortschritt bei FSAA und AF sehen und der ist imho groß, da das Hauptproblem Leistung sehr gut gelöst wurde. Ausser Frage ist wohl, dass der Perfonce Fortschritt der Größte seit langer Zeit ist und das ist ATI groß anzurechnen, da so endlich wieder mehr Bewegung reinkommt.

Denn der Schritt von G2 auf G3 war ja phänomenal. Sieben mal schneller sollte sie sein, stand auf der Packung hinten drauf und in Wirklichkeit war eine G2 Ultra oft schneller.... Auch bei den anderen Gernerationen war's nicht viel besser und so finde ich, dass man ATI mehr Respekt zollen kann. Denn sie sind verantwortlich für einen größeren Schritt im Grakamarkt.

NV kann sich immer noch mit dem NV 30 beweisen, aber inwiefern der ein Quantensprung ist, werden wir noch sehen. Keiner weiß es und keiner sollte Ati runtermachen, indem man sagt, der NV 30 wird alle fertig machen.

Mehr Respekt für Ati, mehr chance für NV sich zu profilieren...

imho
Euer Meta

Exxtreme
2002-08-21, 07:19:27
Es gibt ein anderes Review. Diesmal bei SharkyExtreme:
http://www.sharkyextreme.com/hardware/videocards/article.php/3211_1449721__1

Gehört IMHO zu den besseren Reviews zumal sie auch Screenshots vom FSAA zu bieten haben.

Gruß
Alex

nagus
2002-08-21, 08:16:25
das review auf scharky ist wirklich sehr gut gelungen!

am besten gefällt mir das: http://www.sharkyextreme.com/img/2002/08/r9700/aaaf_perf.jpg :O

Unregistered
2002-08-21, 08:35:27
Es ist eigentlich eine eigenwuerdige Gewohnheit diverse Foren zu "beobachten" oder um genauer zu sein 23 Seiten von so einem Thread zu lesen.

Winzige Kleinigkeit: was hartware.net nicht herausgefunden hat (hoechstwahrscheinlich war der Zeitdruck zu stark) ist das die 9700 beta Treiber bei jedem SV 2.0 oder Aniso Einstellungswechsel "rebooten" muss.

Es ist wirklich eine Schande dass anstatt das sich Gamer mal freuen dass Produkte in die Laeden kommen die manchmal bei weitem als 2x schneller sein als die schnellste bis jetzt high end Karte, kommt es immer noch zu kindischen Pisskonkurenzen. Ob jetzt ATI mit R300 oder NV spaeter mit NV30 ein bisschen weiter pinkeln kann ist mir doch wirklich schnuppe.

Ich bin froh dass ich fuer mein Geld diesmal mehr als das doppelte bekommen kann (von welchem IHV ist genauso egal), was bisher nicht gerade der Fall war (von high end zu high end zwischen "Generationen").

Thowe,

Schreib mir mal wieder. Vielleicht hab ich ein paar Kleinigkeiten fuer Dich, die Du vielleicht noch nicht gehoert hast.

Gruesse

-A ;)

nggalai
2002-08-21, 08:56:35
Hi there,

ehrlich gesagt, ich finde den Sharky-Test ziemlich mies. Viel zu wenige Kommentare, kaum technische Hintergründe, nur zwei hochgezoomte Bildausschnitte für den FSAA-Vergleich (anstelle eines Full-Screen-Bildes oder zwei) . . . neee. Viel Interessantes liest man da nicht raus, aus dem Test.

@A,

*full ack*

;)

ta,
-Sascha.rb

ow
2002-08-21, 09:21:48
Ack @ nggalai

Das Review ist wirklich nicht besonders toll.

aths
2002-08-21, 09:57:30
Originally posted by ram
Diese Zielgruppe würdest du mit deinem Ansatz nicht berücksichtigen oder dazu verdonnern, mühsam selbst die Vergleichswerte aus einem anderen Review herauszusuchen.Dabei wäre mir allerdings weniger unwohl, als z.B. 8x trilineares AF á la nv mit 16x performance AF á la ATI zu vergleichen.

Die Vergleiche von Radeon9700 und Ti4600 mit jeweils 4x AA berücksichtigen z.B. nicht, dass ein GF-Besitzer fast immer nur 2x AA einschaltet (und damit nicht mal deutlich schlechter fährt, als wenn er 4x nutzen würde.) 2x AA ist nun aber erheblich schneller. GF4 ist nicht für 4x AA gebaut. Es wird aber in diesem Vergleichswahn gebencht sie sonstwas, womit sich das Bild von der Karte verzerrt. Das kann doch nicht Sinn eines guten Reviews sein?

Wegen dem geringen Performance Hit würde ein R9700-Besitzer wohl fast immer 6x AA nutzen. Damit gibt es einfach nichts zu vergleichen.

ram
2002-08-21, 10:26:22
Originally posted by aths
Die Vergleiche von Radeon9700 und Ti4600 mit jeweils 4x AA berücksichtigen z.B. nicht, dass ein GF-Besitzer fast immer nur 2x AA einschaltet.
?

Es gibt auch viele NV25-Besitzer, die 4xS nutzen (z.B. Flightsim-Spieler oder Spieler von Racing-Games). Für die ist ein Vergleich 2x vs. 2x. nicht sehr interessant. Der Sinn eines Reviews kann auch sein, dieser Zielgruppe eine Entscheidungshilfe zu geben. Ein Leistungsvergleich 4xS vs. Settings, die auf einer R9700 insgesamt eine ähnlich gute Bildqualität ergeben, ist deshalb IMO nicht verkehrt, solange die Unterschiede klar kommuniziert werden.

aths
2002-08-21, 10:45:33
Originally posted by ram
Es gibt auch viele NV25-Besitzer, die 4xS nutzen (z.B. Flightsim-Spieler oder Spieler von Racing-Games). Für die ist ein Vergleich 2x vs. 2x. nicht sehr interessant. Der Sinn eines Reviews kann auch sein, dieser Zielgruppe eine Entscheidungshilfe zu geben. Ein Leistungsvergleich 4xS vs. Settings, die auf einer R9700 insgesamt eine ähnlich gute Bildqualität ergeben, ist deshalb IMO nicht verkehrt, solange die Unterschiede klar kommuniziert werden. 4x RG + 2x AF gibt eine deutlich bessere Bildqualität, sowohl Kantenglättungs- als auch texturtechnisch. Erst ein denkbarer 8xS-Modus liefert mit 4x RG vergleichbare Kantenglättung, und vor allem eine Art 2x AF gleich mit. 8xS mit 4xRG + 2x AF zu vergleichen, da würde ich mitgehen.

nggalai
2002-08-21, 10:50:25
Hi ram,

sorry, dass ich mich hier kurz einmische, aber ich muss da z.T. aths recht geben:
Originally posted by ram
Es gibt auch viele NV25-Besitzer, die 4xS nutzen (z.B. Flightsim-Spieler oder Spieler von Racing-Games). Für die ist ein Vergleich 2x vs. 2x. nicht sehr interessant. Der Sinn eines Reviews kann auch sein, dieser Zielgruppe eine Entscheidungshilfe zu geben.Ich gebe dir da eigentlich schon recht, aber--dann sollten auch entsprechende Applikationen für die Tests verwendet werden. Ich kann mir nicht vorstellen, dass sehr viele Leute auf einer NV25er Karte UT2003 oder andere Shooter mit 4xFSAA spielen werden. Die Mehrzahl wird auf 2x oder gar nix setzen. Daher sind solche Benches nicht gerade "praxisnah".

Aber eben--ich bin eh grundsätzlich gegen Vergleichsbenches. ;) Wenn man aber trotzdem vergleichen will, kommt man wie oben schon gesagt IMO nicht drumrum, ähnliche Sample-Zahlen zu vergleichen. Praxisnähe spielt dann nicht mit rein.

ta,
-Sascha.rb

ram
2002-08-21, 10:53:42
Originally posted by aths
4x RG + 2x AF gibt eine deutlich bessere Bildqualität, sowohl Kantenglättungs- als auch texturtechnisch.

aths, wir drehen uns im Kreis. 4x RGMS + 2x AF ist nicht generell besser als 4xS. 4xS arbeitet bezüglich der Reduktion von Texturflimmern und bezüglich der Reduktion von Kanten in Alpha-Texturen besser als 4x RGMS+2xAniso.

ram
2002-08-21, 11:08:41
Originally posted by nggalai
Ich gebe dir da eigentlich schon recht, aber--dann sollten auch entsprechende Applikationen für die Tests verwendet werden. Ich kann mir nicht vorstellen, dass sehr viele Leute auf einer NV25er Karte UT2003 oder andere Shooter mit 4xFSAA spielen werden. Die Mehrzahl wird auf 2x oder gar nix setzen. Daher sind solche Benches nicht gerade "praxisnah".

Die Wahl der Benchmarks für FSAA ist ein guter Punkt. Unabhängig davon, ein Vergleichbenchmark bei ähnlichen Qualitätseinstellungen zeigt hier doch auf, dass die Leistung von Karte A) nicht ausreichend ist für hohe Bildqualität-Qualität, während Karte B) dies kann. Das kann doch für einen potentiellen Käufer einer Karte im 400 Euro-Segment eine relevante Information sein, nicht?

Oder ist dein Punkt, dass man eine NV25 in UT2003 mit 0x resp. 2x und eine R300 mit 4x antreten lassen soll (inkl. Bildqualitätsvergleich), weil das die "praxisnahen" Einstellungen für dieses Spiel wären?

aths
2002-08-21, 11:14:59
Originally posted by ram
aths, wir drehen uns im Kreis. 4x RGMS + 2x AF ist nicht generell besser als 4xS. 4xS arbeitet bezüglich der Reduktion von Texturflimmern und bezüglich der Reduktion von Kanten in Alpha-Texturen besser als 4x RGMS+2xAniso. ... was allerdings relativ wenig interessiert, da Alphabit-Texturen heutzutage recht selten geworden sind, und 4xS nur für D3D auswählbar ist.

Texturflimmern sollte wie gesagt generell gar nicht auftreten, egal mit welchem AA- oder AF-Modus, ansonsten ist irgendwas falsch eingestellt.

aths
2002-08-21, 11:16:55
Originally posted by ram
Oder ist dein Punkt, dass man eine NV25 in UT2003 mit 0x resp. 2x und eine R300 mit 4x antreten lassen soll (inkl. Bildqualitätsvergleich), weil das die "praxisnahen" Einstellungen für dieses Spiel wären?Ich wurde zwar nicht gefragt, aber antworte mal :D

Man sollte m.E. praxisnahe Einstellungen benchen - diese aber nicht krampfhaft gegeneinander stellen. 4x MS auf GF4 zu benchen ist jedenfalls nicht sehr praxisnah, und Radeon9700-Besitzer werden wahrscheinlich in erster Linie 6x verwenden.

nggalai
2002-08-21, 11:54:20
Hi ram,
Originally posted by ram

1) Die Wahl der Benchmarks für FSAA ist ein guter Punkt. Unabhängig davon, ein Vergleichbenchmark bei ähnlichen Qualitätseinstellungen zeigt hier doch auf, dass die Leistung von Karte A) nicht ausreichend ist für hohe Bildqualität-Qualität, während Karte B) dies kann. Das kann doch für einen potentiellen Käufer einer Karte im 400 Euro-Segment eine relevante Information sein, nicht?

2) Oder ist dein Punkt, dass man eine NV25 in UT2003 mit 0x resp. 2x und eine R300 mit 4x antreten lassen soll (inkl. Bildqualitätsvergleich), weil das die "praxisnahen" Einstellungen für dieses Spiel wären? Sowohl 1) als auch 2). :) Was ich nicht mag, sind direkte Vergleiche in Reviews, das ist aber eine persönliche Preferenz. Grund dafür ist, dass zu häufig Äpfel mit Birnen verglichen werden, was besonders auch auf AF- und FSAA-Diskussionen zutrifft. Ich bevorzuge da klar ein Review ohne jegliche Vergleichswerte von nicht-vergleichbaren Karten, vielleicht noch mit einem Kommentar des Journalisten im Fazit ("Die Karte XYZ war in allen Benchmarks übrigens deutlich schneller als Karte OIU, blablabla."). Aber wie schnell direkte Vergleiche in die Hosen gehen können hat ja z.B. das eine Review gezeigt, wo eine Radeon9000 eine 8500er z.T. klar schlug--weil da mit neueren Treibern getestet wurde, aber lediglich bekannte Werte für die 8500er eingesetzt wurden. Wenn man dann noch unterschiedliche Hersteller so vergleicht, ist man schon sehr weit von Apfel<->Apfel entfernt.

Aber ja, 1) ist relevant. Daher hab' ich oben auch Thilo zugestimmt--wenn man schon Vergleichen muss oder will, dann machen eigentlich nur Vergleiche bei gleicher Sampelrate "Sinn". Ein aufmerksamer, informierter Leser kann sich so u.U. seine eigenen Schlussfolgerungen ziehen.

Dem gegenübergestellt steht 2). Du hast mich da eigentlich ganz richtig verstanden. :) Wenn eine Site wie Anandtech mehrere Seiten und Benchmarks mit ausschliesslicht der Unreal Engine postet, dann sind die Vergleichsresultate eigentlich nur für das getestete Ding relevant. Wenn man sich schon so stark auf eine Applikation konzentriert, wären praxisnahe Einstellungen begrüssenswert. Das verlangt aber wegen 1) nach einer riesigen Anzahl von verschiedenen Benchmarks, so dass so ein Bericht z.B. kaum mehr ins Printmedium passen würde, und dank der niedrigen Verfügbarkeit der Review-Karten im Fall hier auch nicht praktikabel gewesen wäre. Wavey auf B3D hatte seine Karte nur eine Woche zur Verfügung, die deutsche Presse wohl noch kürzer.

Im Idealfall sehe ich also entweder eine Kombination von 1) und 2) (wie sie z.B. Leo in seinen Reviews anstrebt), oder noch besser ein kompletter Verzicht auf Vergleichszahlen. Alles andere ist halbbacken und nicht sehr interessant, IMO.

ta,
-Sascha.rb

Birdman
2002-08-21, 12:52:37
Originally posted by Unregistered
Winzige Kleinigkeit: was hartware.net nicht herausgefunden hat (hoechstwahrscheinlich war der Zeitdruck zu stark) ist das die 9700 beta Treiber bei jedem SV 2.0 oder Aniso Einstellungswechsel "rebooten" muss.

ei, wenn dies auch noch mit den Treibern der Fall ist, welche bei kartenauslieferung eingesetzt werden können, dann kozzt mich das mal wieder mächtig an. (und irgendwie werde ich das Gefühl nicht los, dass es so sein wird....)

Muh-sagt-die-Kuh
2002-08-21, 13:12:29
Originally posted by Birdman

ei, wenn dies auch noch mit den Treibern der Fall ist, welche bei kartenauslieferung eingesetzt werden können, dann kozzt mich das mal wieder mächtig an. (und irgendwie werde ich das Gefühl nicht los, dass es so sein wird....) Was soll diese saudumme, andauernde und spekulative Schwarzmalerei deiner Meinung nach bringen?

Muh-sagt-die-Kuh
2002-08-21, 13:19:30
Originally posted by nggalai
Im Idealfall sehe ich also entweder eine Kombination von 1) und 2) (wie sie z.B. Leo in seinen Reviews anstrebt), oder noch besser ein kompletter Verzicht auf Vergleichszahlen. Alles andere ist halbbacken und nicht sehr interessant, IMO.

ta,
-Sascha.rb Vergleichszahlen sind meiner Meinung nach unverzichtbar, man will schliesslich auch wissen, was die neue Hardware im vergleich zu vorhandener bringt ohne alte Reviews mit evtl alten Treibern durchforsten zu müssen. Wenn Tecchannel eben zu blöd für sowas ist, ist es deren Problem, die Seite hat sowieso nur ComputerBild Niveau. Klar reichen die reinen Zahlen der Karte aus, um beurteilen zu können ob sie bei den bevorzugten Einstellungen schnell genug ist, aber Vergleichswerte zeigen eben auch, wo die Karte ihre Stärken und Schwächen im Vergleich zur Konkurrenz hat....und sowas gehört, meiner Meinung nach, auch in ein Review.

Girli
2002-08-21, 13:23:21
Originally posted by bambo


Das ist ja extrem! Und die Tester bei Hartware schreiben dazu:

"Hier macht sich leider die schlechte Qualität der Screenshots der Radeon 9700 bemerkbar. Bei dieser Darstellung kann die anisotropische Filterung auf der ATI-Karte nicht überzeugen, vergleicht man sie mit der Konkurrenz."

Auch wenn hier manche FanATIker krampfhaft auf jeden Kritiker und Zweifler einschlagen, so muss die Ursache für die schlechte ATI-Bildqualität geklärt werden. Ein Schluss zur Quake/Quack-Betrügerei von ATI liegt schliesslich nahe:

http://www.3dcenter.de/artikel/2001/10-24_a.php

Immerhin musste ATI danach zugeben (http://www.killerinstincts.com/?action=comments&newsID=994):

"- yes, we did do optimizations specificly for Quake 3.
- yes, we did it because it is being used as a benchmark in reviews of our cards.
- yes, we sacrificed imagequality to gain better framerates."

Sorry für die Wiederholung, aber diese Erklärung ist nicht von der Hand zu weisen.

Das schreit nach genauerer Untersuchung und Aufklärung. Ist das der Grund, warum den Testern nur so wenig Zeit gelassen wurde?


Sorry aber des Lesens sind einige hier nicht mächtig.

Zitat von Hardware.

Die Qualität der Kantenglättung und der Texturfilterung der ATI Radeon 9700 Pro wurde am bekannten Beispiel von Quake3 ermittelt. Allerdings funktionierte die eingebaute Screenshot-Funktion von Quake3 nicht korrekt, wenn unser Testmuster im System steckte. Gleiches gilt für externe Screenshot-Tools wie HyperSnapDX. So mussten wir auf die Windows-eigenen Bildschirmabzüge per Druck-Taste ausweichen, die aber leider viel dunkler ausfallen als in der Realität. Die Screenshots sind deshalb nachträglich aufgehellt, was aber leider zu Lasten der Farben geht. Sie geben deshalb in Punkto Farbbrillianz nicht die tatsächliche Darstellung wider!

Zitat Ende:

Lies das mal, hier steht deutlich das die Screenshotfunktion nicht richtig funktioniert hat.

Kurz Deine ganze Argumentation bricht gerade zusammen.

Exxtreme
2002-08-21, 13:31:21
Originally posted by Girli

Kurz Deine ganze Argumentation bricht gerade zusammen.
Hat bambo denn jemals argumentiert?

Gruß
Alex

Nasenbaer
2002-08-21, 15:14:19
Am Montag habe ich so gegen 10:30 eine E-Mail an Chip.de geschickt mittels deren Kontaktformular und gefragt warum sie sich denn immer wieder über NDA's hinwegsetzen.
3mal dürft ihr raten was zurück kam - Richtig! Gar nichts!
Naja den Spaß musst ich mir einfach machen aber nunja seis drum.
Diese Seite war ja schon immer für Ar***. :D

Mfg Nasenbaer

PCGH_Thilo
2002-08-21, 16:24:45
Originally posted by aths
Ich wurde zwar nicht gefragt, aber antworte mal :D

Man sollte m.E. praxisnahe Einstellungen benchen - diese aber nicht krampfhaft gegeneinander stellen. 4x MS auf GF4 zu benchen ist jedenfalls nicht sehr praxisnah, und Radeon9700-Besitzer werden wahrscheinlich in erster Linie 6x verwenden.

+++

Du gehst von Leuten aus, die schon eine G4-Ti haben. Soll aber welche geben, die noch keine haben (85% der Leser von PCGH). Und denen muss ich halt zeigen, bei welchem Spiel 4X spielbar ist und bei welchen nicht.

Ich finds klasse, dass Du soviel über die Besitzer von 9700er-Karten spekulierst. Hast Du denn selbst mal eine gehabt, oder basieren Deine Vorhersagen auf Screenshotvergleiche im Web und fundiertem Wissen? Lass die Leute das mal besser selbst entscheiden.

Das Argument, UT-Spieler würden sowieso kein FSAA nutzen, kann ich im übrigen nur bedingt zustimmen. Wenn FSAA irgendwann wirklich for free ist, dann werden das die Leute auch nutzen. Und ob es for free ist, zeigen nur Benchmarks.

zeckensack
2002-08-21, 16:47:27
Nur mal so nebenbei:
2xAA (nicht Quincunx!) auf NV25 gegen R300 ist perfekt vergleichbar.
4xAA auf NV25 bringt sehr wenig Qualitätsgewinn (ggü 2x) für einen heftigen Performanceeinbruch.

Es erscheint mir unfair, beide Chips mit 4xAA gegeneinander zu stellen. Nicht etwa, weil die dabei R300 besser aussieht, sondern weil der NV25 leistungsmäßig an die Grenzen stößt, ohne daß der Einbruch durch deutlich höhere Qualität gerechtfertigt wäre.

Man soll seinen Lesern doch nicht einreden, den wenig sinnvollen 4xModus auf NV25 nutzen zu müssen???

Extremsettings vergleichen finde ich wieder ok, weil's ja auch Sachen gibt, wo einem die Frames egal sind und man einfach nur das bestmögliche Bild haben will.
4xS auf NV25 gg 6x auf R300 leuchtet mir ein.
Wenn man vergleichbare Qualität haben will, dann wäre
4xS auf NV25 gg 4x+2xAF auf R300 IMO angebrachter, R300 macht dann ein minimal besseres Bild, was man IMO aber vernachlässigen kann.

PCGH_Thilo
2002-08-21, 16:52:56
Originally posted by zeckensack
Nur mal so nebenbei:
2xAA (nicht Quincunx!) auf NV25 gegen R300 ist perfekt vergleichbar.
4xAA auf NV25 bringt sehr wenig Qualitätsgewinn (ggü 2x) für einen heftigen Performanceeinbruch.

Es erscheint mir unfair, beide Chips mit 4xAA gegeneinander zu stellen. Nicht etwa, weil die dabei R300 besser aussieht, sondern weil der NV25 leistungsmäßig an die Grenzen stößt, ohne daß der Einbruch durch deutlich höhere Qualität gerechtfertigt wäre.

Man soll seinen Lesern doch nicht einreden, den wenig sinnvollen 4xModus auf NV25 nutzen zu müssen???

Extremsettings vergleichen finde ich wieder ok, weil's ja auch Sachen gibt, wo einem die Frames egal sind und man einfach nur das bestmögliche Bild haben will.
4xS auf NV25 gg 6x auf R300 leuchtet mir ein.
Wenn man vergleichbare Qualität haben will, dann wäre
4xS auf NV25 gg 4x+2xAF auf R300 IMO angebrachter, R300 macht dann ein minimal besseres Bild, was man IMO aber vernachlässigen kann.

+++

ein benchmark, der unterschiedliche fsaa-settings zeigt, führt ja genau vor, was spielbar ist und was nicht =)
wo ist denn da der suggerier-faktor? nur wenn man ein einziges fsaa-setting zeigt (wie chip), bildet man meinung beim leser.

Piffan
2002-08-21, 17:54:44
Originally posted by PCGH_Thilo


+++

ein benchmark, der unterschiedliche fsaa-settings zeigt, führt ja genau vor, was spielbar ist und was nicht =)
wo ist denn da der suggerier-faktor? nur wenn man ein einziges fsaa-setting zeigt (wie chip), bildet man meinung beim leser.

Genaus so ist das. Darum noch mal ein dickes Danke an Leo für sein Roundup.. Das Ding ist Gold, zeigt es mir doch überdeutlich, dass ich mit meiner G3 immer noch gut dastehe...

Mein tip für einen Kompromiss aus BQ und Performance: Bilinear, aber vierfach FA, 2x FSAA. Damit habe ich Jk2 und große Teile von MoHAA durchgezockt...Achja, Dungeon Siege habe ich auch so durchgerödelt..

Leider werde ich nach dem Erscheinen von Ut2 wohl meine geliebte Graka abschieben müssen... Nicht das sie zu lahm ist, ich glaube dass ihr Speichermangel zu schaffen macht bei den krassen Texturen...

Unregistered
2002-08-21, 18:01:42
sowas zum Beispiel :

Geforce4 4S-Mode :

http://users.otenet.gr/~ailuros/C4defaultLOD.jpg


Ich hoffe meine Links funktionieren. Bild 1 habe ich auf Beyond3d gefunden; Bild 2 ist von der Horhardware-Review


[edit]@ Unreg: ich hab das falsche Bild mal entfernt. Ist besser zum optischen Vergleichen hier. Die Bilder sprengen ohnehin schon meinen Desktop.;)

mfg
ow

Unregistered
2002-08-21, 18:04:16
[edit]

falsches Bild

hier ist das Radeon 9700 6xMSAA - Bild :

http://www.hothardware.com/reviews/images/r9700/screenshots/r97006xaacomanche1.jpg

zeckensack
2002-08-21, 18:07:03
Originally posted by Unregistered
sowas zum Beispiel :Beispiel wofür ???

Unregistered
2002-08-21, 18:09:40
Also,

damit gibt es doch 2 vergleichbare FSAA-Methoden :

GF4 4S - Mode gegen Radeon9700Pro-6xMSAA.

Die Bildqualität ist doch IMHO vergleichbar. Der Fahnenmast sieht
bei der R9700 IMHO immer noch besser aus, aber ansonsten sehe ich
keine großen (oder auch kleineren) Unterschiede mehr. Sogar das
LOD passt.

Nasenbaer
2002-08-21, 18:13:21
Die Bodentexturen sind beim R9700 Bild wesentlich schärfer. Es ist da wohl AF an.

Beim Palmenstamm ganz oben links sieht man die qualitativen nterschieder aber überdeutschlich.

Mfg Nasenbaer

nggalai
2002-08-21, 18:29:21
Originally posted by Nasenbaer
Die Bodentexturen sind beim R9700 Bild wesentlich schärfer. Es ist da wohl AF an.
AF wurde in keinem der Shots aktiviert, aber die Radeon hat offenbar einen "aggressiveren" MIP-map LOD Bias. Eben, wie schon gesagt, auf B3D streiten sich die Leute schon darüber, was denn "korrekt" wäre. ;)

ta,
-Sascha.rb

nggalai
2002-08-21, 18:32:43
P.S. das GF4-Bild stammt nicht vom 4xS-Modus, sondern vom normalen 4xMSAA. Das mitm 4xS ist dann irgendwann in die Diskussion gerutscht.

Die Originale liegen hier: http://www.hothardware.com/hh_files/S&V/radeon9700pro(3).shtml

ta,
-Sascha.rb

ow
2002-08-21, 18:43:16
Originally posted by Nasenbaer
Die Bodentexturen sind beim R9700 Bild wesentlich schärfer. Es ist da wohl AF an.

Beim Palmenstamm ganz oben links sieht man die qualitativen nterschieder aber überdeutschlich.

Mfg Nasenbaer



Schau dir mal das Dach (li. Hälfte) des 2.Zeltes an (nicht das bei der Fahne sondern das rechts daneben).

Da sieht die GF4 IMO besser aus.

Unterschiede zwischen den beiden Shots sind schon zu sehen, aber viel ist das wirklich nicht. Müsste man mal in Bewegung sehen, um das besser beurteilen zu können.

Piffan
2002-08-21, 18:44:41
Originally posted by Nasenbaer
Die Bodentexturen sind beim R9700 Bild wesentlich schärfer. Es ist da wohl AF an.

Beim Palmenstamm ganz oben links sieht man die qualitativen nterschieder aber überdeutschlich.

Mfg Nasenbaer


Da sieht man es mal wieder: Der eine sagt, dass der Unterschied sehr gering ist, dabei ist er ja wohl sehr groß (sehe ich sogar ohne Brille)

Darum sind solche Diskussionen irgendwie witzlos. Schon damals fanden einige die Bodenwellen (mipmap- Übergänge) bei der Ati nicht störend... lol.

Oft sieht man nur dass, was die eigene Meinung stützt, und wenn diese dann auch schon voreingenommen ist, dann ist klar, warum viele Diskussionen geführt werden...Teil weise wie die Geschichte von des Kaisers neuen Kleidern...

Piffan
2002-08-21, 18:46:00
Originally posted by ow



Schau dir mal das Dach (li. Hälfte) des 2.Zeltes an (nicht das bei der Fahne sondern das rechts daneben).

Da sieht die GF4 IMO besser aus.

Unterschiede zwischen den beiden Shots sind schon zu sehen, aber viel ist das wirklich nicht. Müsste man mal in Bewegung sehen, um das besser beurteilen zu können.

:rofl:

Nasenbaer
2002-08-21, 19:04:09
Wie heißts so schön: Was man nicht selber macht wird falsch gemacht. :)

Lauter Screenshots aber immer sind nich die dabei die man seber sehen und vergleichen will.
Aber letztlich ist es mir eigentlich egal wer nun das Non-Plus-Ultra FSAA hat, denn beide Verfahren machen nen guten Eindruck. Die Performance kann zur Zeit nur beim MS-Verfahren als brauchbar bezeichnet werden finde ich.
Allerdings hat das SS-Verfahren wieder besser Texturen.
Naja last nochmal 2 Generationen ins Land ziehen und solche Diskussionen lösen sich dann in Wohlgefallen denke und hoffe ich. :D

Mfg Nasenbaer

Höhnangst
2002-08-21, 19:15:16
@ Nasenbaer & ow
Ihr habt beide recht!
Die Texuren sowie die Palme ganz links oben sehen auf der Radeon besser aus, dafür ist das Hausdach bei GF4 glatter.

Aber mal ehrlich, wem von euch würden solche winzigen Unterschiede im laufenden Spiel auffallen, wenn man sich grad auf ganz andere, wichtigere Sachen konzentrieren muss ;). Ich möcht nicht wissen, wie lange ihr euch die Shots angeschaut habt, um diese Kleinigkeiten zu finden :D.

Nasenbaer
2002-08-21, 20:06:53
Originally posted by Höhnangst
Aber mal ehrlich, wem von euch würden solche winzigen Unterschiede im laufenden Spiel auffallen, wenn man sich grad auf ganz andere, wichtigere Sachen konzentrieren muss ;). Ich möcht nicht wissen, wie lange ihr euch die Shots angeschaut habt, um diese Kleinigkeiten zu finden :D.

Spiel mal NFS5. Da sieht mans sehr gut. SS verhindert auch das nervige Pixelflimmer (siehe dazu TrainSimulator an den Schienen).

MFg NAsenbaer

Thowe
2002-08-21, 21:37:46
Originally posted by Unregistered
Es ist eigentlich eine eigenwuerdige Gewohnheit diverse Foren zu "beobachten" oder um genauer zu sein 23 Seiten von so einem Thread zu lesen.

Winzige Kleinigkeit: was hartware.net nicht herausgefunden hat (hoechstwahrscheinlich war der Zeitdruck zu stark) ist das die 9700 beta Treiber bei jedem SV 2.0 oder Aniso Einstellungswechsel "rebooten" muss.

Es ist wirklich eine Schande dass anstatt das sich Gamer mal freuen dass Produkte in die Laeden kommen die manchmal bei weitem als 2x schneller sein als die schnellste bis jetzt high end Karte, kommt es immer noch zu kindischen Pisskonkurenzen. Ob jetzt ATI mit R300 oder NV spaeter mit NV30 ein bisschen weiter pinkeln kann ist mir doch wirklich schnuppe.

Ich bin froh dass ich fuer mein Geld diesmal mehr als das doppelte bekommen kann (von welchem IHV ist genauso egal), was bisher nicht gerade der Fall war (von high end zu high end zwischen "Generationen").

Thowe,

Schreib mir mal wieder. Vielleicht hab ich ein paar Kleinigkeiten fuer Dich, die Du vielleicht noch nicht gehoert hast.

Gruesse

-A ;)

*zustimm* und *meld*, Email kommt =)

Unregistered
2002-08-21, 22:08:09
Originally posted by nggalai
P.S. das GF4-Bild stammt nicht vom 4xS-Modus, sondern vom normalen 4xMSAA. Das mitm 4xS ist dann irgendwann in die Diskussion gerutscht.

Die Originale liegen hier: http://www.hothardware.com/hh_files/S&V/radeon9700pro(3).shtml

ta,
-Sascha.rb


Blind? :D :D

Schau dir mal das GF4 4xMSAA-Bild von Hothardware an :

http://www.hothardware.com/reviews/images/Parhelia512test/gf4aashots/gf410244xaa.jpg

Als wenn die beiden GF4-Bilder gleich sind, fresse ich einen Besen ;)

Das MSAA-Bild ist wesentlich unschärfer als das 4S-Bild oben. Da wirkt sich anscheinend das Supersampling aus.

Oli_Immerschoen
2002-08-21, 22:24:38
Die beiden GF4-Bilder sind nicht gleich, sieht man schon am Rauch beim Fadenkreuz...bei dem oberen Shot ist er da, beim unteren nicht...und bei dem Radeon-Shot auch nicht.

Wieso wird der mal dargestellt und mal nicht? Oder sind nicht alle Shots von exakt der gleichen Szene?? *wunder*

Unregistered
2002-08-21, 22:38:36
Originally posted by Oli_Immerschoen
Die beiden GF4-Bilder sind nicht gleich, sieht man schon am Rauch beim Fadenkreuz...bei dem oberen Shot ist er da, beim unteren nicht...und bei dem Radeon-Shot auch nicht.

Wieso wird der mal dargestellt und mal nicht? Oder sind nicht alle Shots von exakt der gleichen Szene?? *wunder*

Rakete abgeschossen <-> Rakete nicht abgeschossen :)

MadManniMan
2002-08-21, 22:41:41
na sascha, da haste dich aber wirklich verguckt...

du hassoch auch ne gefart3, da sollte das geschulte auge doch die vertikalen 4 samples erkennen... ich nehm mal an, du hassen 4xS modus-kramszeugsens schonmal ausprobiern tut?

kurzhaarig, aber mit tendenz zu rapunzel

manni

nggalai
2002-08-21, 22:43:01
Hi Unreg,Originally posted by Unregistered

Blind? :D :D
Nein, nicht ganz--nur einen scheisse justierten Monitor bei der Arbeit. ;) Hier daheim sieht die Musik doch ein wenig anders aus. Danke für den Hinweis.

Der erste Unreg (Du?) hat noch erwähnt, dass das Bild ausm B3D-Forum stamme. Also hatte ich da noch fix nachgeschaut, und da stand auch 4xFSAA von Hothardware--das hat mir dann gereicht. Woher stammt den genau das 4xS-Bild? Auf B3D konnte ich das Ding auf alle Fälle nicht finden, ein Link wäre da noch nett--auch damit wir wissen, ob da AF aktiviert wurde oder nicht. :(

ta,
-Sascha.rb

P.S. abgesehen davon verstehe ich noch immer nicht ganz, was der Bildvergleich in diesem Thread hier soll.rb

Unregistered
2002-08-21, 22:47:20
>die Radeon9700 is das geilste was ich seit der voodo2 SLI erlebt hab! <

Genauso unscharf?

Nasenbaer
2002-08-21, 23:19:56
Originally posted by Unregistered
>die Radeon9700 is das geilste was ich seit der voodo2 SLI erlebt hab! <

Genauso unscharf?
Dieser Kommentar war mal wieder einer für die Tonne.
Mfg Nasenbaer

Piffan
2002-08-21, 23:21:03
Originally posted by Unregistered
>die Radeon9700 is das geilste was ich seit der voodo2 SLI erlebt hab! <

Genauso unscharf?

Jetze ist es aber endgültig zu viel! Sage niemals, dass eine Voodoo2 unscharf ist!

Sage eher.... "Sie filtert die Texturen recht intensiv" oder "Die Texturen werden harmonisch weichgefiltert" :D

Thowe
2002-08-21, 23:39:32
Originally posted by Unregistered
>die Radeon9700 is das geilste was ich seit der voodo2 SLI erlebt hab! <

Genauso unscharf?

Bravo, aber dieserlei unqualifizierten Beiträge können in den extra von Nagus dafür angelegten Thread (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=29822) gepostet werden. Aber Vorsicht! Etwas mehr Humor sollte man da auch aufbringen können.

Wünsche einen schönen und erfolgreichen Abend.

Gruss,

Thowe

Unregistered
2002-08-22, 00:06:47
Hossa Nagus klopf weiter ins Wasser :D

zeckensack
2002-08-22, 00:27:32
Originally posted by Unregistered
Das MSAA-Bild ist wesentlich unschärfer als das 4S-Bild oben. Da wirkt sich anscheinend das Supersampling aus. Nicht nur ist es unschärfer, es weist sogar Mipmap-Banding auf!

Da hat jemand den bilinearen Texturfilter benutzt. Wofür stellt man denn solche Schrott-Shots (TM) überhaupt ins Netz ???

Unregistered
2002-08-22, 03:22:01
Das 4xS screenshot war von mir. Det 30.30 und LOD auf "0". Es gibt eine Chance dass 29xx Treiber mit positiverem LOD (+0.5 oder +1.0) laufen, wass ich aber leider nicht bestaetigen kann. Ich bin mir nur sicher ueber die 27 und 28-er Serien.

Apropos Screenshots:

Radeon9700
6xMSAA + 16x Level quality anisotropic filtering:

http://www.beyond3d.com/reviews/ati/radeon9700pro/index.php?page=screen.inc

PS: Ich hab den 4xS shot nur auf B3D gepostet weil die Diskussion sich fuer lange ueber die klitzekleine Fahne rotierte.

Nettes Forum :D

Unregistered
2002-08-22, 03:25:33
Das MSAA-Bild ist wesentlich unschärfer als das 4S-Bild oben. Da wirkt sich anscheinend das Supersampling aus.

Unter normalen Bedingungen kommt 2x SSAA mit einem -0.5 LOD offset.

zeckensatz,

Erfahrung; kein weiterer Kommentar ;)

Unregistered
2002-08-22, 04:17:52
Hi, kennt hier jemand schon diese geplante Version einer Radeon 9700?

"Radeon 9700 von HIS/Enmic

Der Grafikkarten Produzent His/Enmic wird eine Radeon 9700 mit 400Mhz (800Mhz DDR) herraus bringen. Im Gegensatz zur Kokurenz wie Sappihre die ihre Karten nur mit einem Takt von 310Mhz (620Mhz DDR) betreiben. Die Karte soll ab September für 439€ erhältlich sein."

von http://www.mhzpower.de/

Wird sich das erheblich auf die Leistung auswirken?

cu

nggalai
2002-08-22, 08:05:14
Originally posted by Unregistered
Das 4xS screenshot war von mir. Det 30.30 und LOD auf "0". Es gibt eine Chance dass 29xx Treiber mit positiverem LOD (+0.5 oder +1.0) laufen, wass ich aber leider nicht bestaetigen kann. Ich bin mir nur sicher ueber die 27 und 28-er Serien.
Hi, Ailuros. ??? :D

Und danke für den Hinweis.

Die nächste Frage wäre dann, weshalb der Hothardware-Shot der GF4 so unscharfe Texturen zeigt. Kannst Du vielleicht mal mit derselben Konfig ein Foto mit 4xMSAA machen? Wäre stark. :)


ta,
-Sascha.rb

P.S. regg' dich doch. bitte. ;) -.rb

Tarkin
2002-08-22, 08:33:35
Originally posted by Unregistered
Hi, kennt hier jemand schon diese geplante Version einer Radeon 9700?

"Radeon 9700 von HIS/Enmic

Der Grafikkarten Produzent His/Enmic wird eine Radeon 9700 mit 400Mhz (800Mhz DDR) herraus bringen. Im Gegensatz zur Kokurenz wie Sappihre die ihre Karten nur mit einem Takt von 310Mhz (620Mhz DDR) betreiben. Die Karte soll ab September für 439€ erhältlich sein."

von http://www.mhzpower.de/

Wird sich das erheblich auf die Leistung auswirken?

cu

??? Das halte ich für sehr unwahrscheinlich ... zumal im 9700er-Flash auf www.enmic.de von 620Mhz DDR die Rede is.... sehr verdächtig...

mfg

JaDz
2002-08-22, 08:55:48
Hier der genaue Link zu den technischen Daten der Enmic-9700er:

http://www.enmic.de/default.php?pg=products&pid=147

MfG JaDz

aths
2002-08-22, 12:30:12
Originally posted by PCGH_Thilo
Du gehst von Leuten aus, die schon eine G4-Ti haben. Soll aber welche geben, die noch keine haben (85% der Leser von PCGH). Und denen muss ich halt zeigen, bei welchem Spiel 4X spielbar ist und bei welchen nicht.Gerade GF3-Besitzer werden 4x AA sogut wie gar nicht verwenden, zumindest nicht in solch anspruchsvollen Titeln, wo auch eine Radeon9700 lohnt.
Originally posted by PCGH_Thilo
Ich finds klasse, dass Du soviel über die Besitzer von 9700er-Karten spekulierst. Hast Du denn selbst mal eine gehabt, oder basieren Deine Vorhersagen auf Screenshotvergleiche im Web und fundiertem Wissen? Jupp, meine Vorhersage basieren auf Vergleiche im Web und auch auf fundiertem Wissen (was in diesem Falle ausreicht, um den Frameraten-Einbruch mit dem Qualitätsgewinn abzuwägen.)
Originally posted by PCGH_Thilo
Das Argument, UT-Spieler würden sowieso kein FSAA nutzen, kann ich im übrigen nur bedingt zustimmen.Das Argument kam nicht von mir. Ich meine allerdings, mit UT2003 würde kaum 4xAA verwendet werden. Bei 2x zu bleiben und die Auflösung eine Stufe höher zu schalten, ist sowohl schöner als auch schneller.
Originally posted by PCGH_Thilo
Wenn FSAA irgendwann wirklich for free ist, dann werden das die Leute auch nutzen. Und ob es for free ist, zeigen nur Benchmarks. FSAA kann nie wirklich "for free" sein.

aths
2002-08-22, 12:33:29
Originally posted by zeckensack
Es erscheint mir unfair, beide Chips mit 4xAA gegeneinander zu stellen. Nicht etwa, weil die dabei R300 besser aussieht, sondern weil der NV25 leistungsmäßig an die Grenzen stößt, ohne daß der Einbruch durch deutlich höhere Qualität gerechtfertigt wäre.Eben das ist es. 4x für GF4 zu benchen ist wenig praxisnah, weshalb man aus solchen Benches nur wenig Gewinn ziehen kann.

Leo hat auch einen sehr praxisnahem Modus gebencht: 2x AA + 4x AF. Das wird auf GF3/4 recht häufig verwendet und liefert representative Ergebnisse.

Birdman
2002-08-22, 13:08:54
Originally posted by aths
Eben das ist es. 4x für GF4 zu benchen ist wenig praxisnah, weshalb man aus solchen Benches nur wenig Gewinn ziehen kann.
Leo hat auch einen sehr praxisnahem Modus gebencht: 2x AA + 4x AF. Das wird auf GF3/4 recht häufig verwendet und liefert representative Ergebnisse.
Full Akk

Alle neueren Spiele mit 2x FSAA und 0-8xAF (ne nach spiel) und nur einige ältere Games, vor allem solche welche Auflösungslimitiert sind, sind wirklich spielbar in 4x, bzw. 4xS

Daher konnte ich auch all diesen Parphelia Benches nichts abgewinnen.
überall wurde grossartig gesagt dass die Karte mit einer Ti4600 mithalten kann...sofern man die benches mit FSAA betrachtet. (und da kam immer 4x bei der GF4 zum einsatz)
Nur, die ti4600 ist zu lahm für sowas und fast keiner nutzt daher diese hohe Stufe.
Und genau diese Erkenntnix führt auch dazu, dass ich die g800 als ziemlich spieleuntauglich ankukke.

ram
2002-08-22, 13:19:53
Originally posted by aths
FSAA kann nie wirklich "for free" sein.

Natürlich kann es das, sofern man Diefläche und Ingenieurzeit nicht als "Kosten" betrachtet.

Muh-sagt-die-Kuh
2002-08-22, 13:43:24
Originally posted by ram


Natürlich kann es das, sofern man Diefläche und Ingenieurzeit nicht als "Kosten" betrachtet. Es ist auch for free, wenn es sich nicht mehr abschalten lässt :D