PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ende der GeForce 7


Seiten : [1] 2

Valixul
2007-09-01, 23:15:46
Wenn man heute die X1800/X9100/X1950 mit 7900/7950 kann man sich nur ärgern, damals eine GeForce 7 gekauft zu haben.
Die GF7 ist heute chancenlos gegen ATIs Wunderwerk. Man brauch sich nur aktuelle Benchmarks anzuschauen.

So ist eine X1650XT heute 76% schneller als eine 7600GT und 30% schneller als eine 7900GS.
Eine X1950 Pro ist 26% schneller als eine 7950GT und 10% schneller als eine 7900GTX.
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

Bei der GF6/X800 war das ja genauso wie heute. Ich kann mir deshalb vorstellen das das bei der HD-Serie genauso tut. ATI pflegt seine alten Karten professionell, NVIDIA lässt ihre alten Karten verdrecken.

VivaLaHarry
2007-09-01, 23:18:28
moin,

och Gottchen ... jetzt geht das wieder los. :biggrin:
Ja, die X800er sind tot. Die GeForce 7 ist tot. Die GeForce 8 schafft auch keine 500Fps in BioShock bei 2560x1600 ... dem Ende nahe. Und die Radeon 2900XT ist eine lebendige Leiche. Zufrieden? :wink:

Also für das Alter finde ich die Karten nach wie vor ganz ok. Man merkt nur, dass die Architektur mit den neueren Spieletiteln nicht mehr ganz abgestimmt ist und etwas hinkt. Völlig ok.

MfG,
VivaLaHarry

Valixul
2007-09-01, 23:21:54
och Gottchen ... jetzt geht das wieder los. :biggrin:
Nein, ich möchte nur falsche Tatsachen aus dem Weg räumen.

Und die Radeon 2900XT ist eine lebendige Leiche. Zufrieden? :wink:
Nein, sie ist die Zukunft, wie ich bereits erwähnte.

Also für das Alter finde ich die Karten nach wie vor ganz ok.
Nein, da sind die meisten anderer Meinung. Nur die X1800/X1900/X1950 finde ich heutzutage noch OK.


Viva la ATI
PS: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=361646&highlight=edition+2007
Falls du es noch nicht gelesen hast.

Coda
2007-09-01, 23:24:27
Bei der GF6/X800 war das ja genauso wie heute. Ich kann mir deshalb vorstellen das das bei der HD-Serie genauso tut.
Das hat nichts mit Pflege zu tun, sondern mit Technik.

Valixul
2007-09-01, 23:27:31
Das hat nichts mit Pflege zu tun, sondern mit Technik.
Das hat etwas mit beiden zu tun.

ATI entwickelt nur zukunftssichere Technik und pflegt diese mit neuen Treibern.
NVIDIA entwickelt nur Techniken, die aktuell "gut" (von BQ und Stromverbracuh abgesehen) sind, und vernachlässigt und lässt diese verdrecken.

Super Grobi
2007-09-01, 23:28:06
Was soll uns der Thread sagen? Das veraltete Grafikkarten nicht mehr schnell sind? Oder das Ati besser ist als NV?

Ich weiss es nicht...

SG

Coda
2007-09-01, 23:29:15
Das hat etwas mit beiden zu tun.
Nein hat es nicht. Die GeForce-6-Treiber verwenden den selben Shadercompiler wie den der GeForce 7. Es gibt nichts was da vernachlässigt wurde.

Ich hab's im anderen Thread schon geschrieben. CineFX hat einfach das grundlegende Problem nur eine Pipeline für Tex und ALU zu haben.

Valixul
2007-09-01, 23:30:21
Was soll uns der Thread sagen? Das veraltete Grafikkarten nicht mehr schnell sind?
Nur bei NVIDIA

Oder das Ati besser ist als NV?
Ist es auch

Ich weiss es nicht...
Ich aber.

Valixul
2007-09-01, 23:31:20
Nein hat es nicht. Die GeForce-6-Treiber verwenden den selben Shadercompiler wie den der GeForce 7. Es gibt nichts was da vernachlässigt wurde.
Weil NVIDIA zu faul war, eine neue Technologie zu entwickeln.

Super Grobi
2007-09-01, 23:33:06
sry, aber der Thread gehört dicht!

Soviel Mist hab ich schon lange nicht mehr gelesen!

SG

mapel110
2007-09-01, 23:34:41
Ein Game, dass auf G7 unspielbar ist, ist auch auf RX unspielbar. Mehr gibts dazu nicht zu sagen.
Wegen den 30 % mehr fps, kann man vielleicht hier und da mal 2xAA hinzuschalten, wo es bei der G7 nicht mehr geht, aber sonst ...

Valixul
2007-09-01, 23:35:07
Dann müsste dieser auch dicht gemacht werden: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=377503

StefanV
2007-09-01, 23:35:12
Weil NVIDIA zu faul war, eine neue Technologie zu entwickeln.
Nein, weil man nichts anderes hatte und man mit dem klarkommen musste, was man hatte.

AMD kann ja auch nicht 'mal eben' den K10 aufn Markt schmeißen, das dauert alles viel länger als du dir vorstellen kannst!

Insbesondere am G80 saß man länger als du dir vorstellen kannst.

Valixul
2007-09-01, 23:35:30
Ein Game, dass auf G7 unspielbar ist, ist auch auf RX unspielbar. Mehr gibts dazu nicht zu sagen.
Wegen den 30 % mehr fps, kann man vielleicht hier und da mal 2xAA hinzuschalten, wo es bei der G7 nicht mehr geht, aber sonst ...
Falsch, Mapelchen.

mapel110
2007-09-01, 23:37:01
Falsch, Mapelchen.
Dann nenn mir ein Spiel, dass auf G7 nicht läuft, aber auf RX schon. Ansonsten kann ich auch Bla sagen und mit Bla begründen.

hyperterminal
2007-09-01, 23:37:51
Ich habe mich auch schon gefragt, warum ATI Karten bisher anfangs immer etwas schwächelten und dann am Ende der Generation die Konkurrenz aus dem Hause NVIDIA gnadenlos versenkten.

Man vergleiche mal folgende zwei Tests auf Computerbase:
27.01.2007
Performancerating Qualität, 1280x1024
GeForce 7900 GTX knapp vor Radeon X1900 XTX
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1650_xt/23/#abschnitt_performancerating_qualitaet

12.02.2007
Performancerating Qualität, 1280x1024
GeForce 7900 GTX deutlich hinter Radeon X1900 XT 256MB
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating_qualitaet

Neu hinzugekommene Spiele:
Anno 1701
Company of Heroes
Gothic 3
Rainbow Six Vegas
Splinter Cell 4

Nicht mehr getestete Spiele:
Battlefield 2
Quake 4
SpellForce 2

Treiber erster Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1650_xt/5/#abschnitt_testsystem)
Treiber zweiter Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/4/#abschnitt_testsystem)

Aktuell zeichnet sich mit der HD Radeon 2900 XT ja eine ähnliche Tendenz ab, wenn man den heutigen News (http://www.3dcenter.de/#2007-08-31) Glauben schenken darf.

Coda
2007-09-01, 23:39:46
Ich red gegen ne Mauer...

Was einmal so war, wird auch so bleiben, auch wenn wir auf beiden Seiten völlig neue Architekturen haben.

Bandit_SlySnake
2007-09-01, 23:41:13
Ich hab wohl mmehr ahnung als DU!!!

Mich wundert es nur das du nicht als Gast postest. :biggrin:

Zum Thema, klar haben alte Generationen immer einen Nachteil gegenüber neueren, aber dafür kosten sie auch weniger. Ich selber habe eine, deiner Meinung nach untaugliche, 7600GT hier in meinem PC und bin immer noch sehr zufrieden damit.

-Sly

mapel110
2007-09-01, 23:45:08
@hyperterminal
Was hatte denn ATI der 8800er entgegenzusetzen? Da gabs nur die X-Serie. Und da war man ja wohl dazu gezwungen, da rauszuholen und zu cheaten, wo es nur geht.

Wie du nämlich erkennen wirst, wird der Unterschied beim Zuschalten von AF merkwürdigerweise größer zwischen 7xxx und X1xxx.

1600x1200 vs 1280x1024/4xAA/16xAF

Coda
2007-09-01, 23:46:41
Daran sehe ich nichts merkwürdiges. Die ATI-Karten können viel Texturlatenz hinter ALU-Berechnungen verstecken. Das können die alten GeForce nicht. Das war ja auch der eigentliche Grund für die ganze AF-Bescheißerei seitens nVIDIA.

Die gelbe Eule
2007-09-01, 23:46:49
Wen interessieren alte Karten? Eine 8600GT ist 20€ günstiger und 8% schneller als eine X1650XT, was da ATi dann richtig macht, kannst mir gerne erzählen :)

Gast
2007-09-01, 23:49:14
Wenn man heute die X1800/X9100/X1950 mit 7900/7950 kann man sich nur ärgern, damals eine GeForce 7 gekauft zu haben.
Die GF7 ist heute chancenlos gegen ATIs Wunderwerk. Man brauch sich nur aktuelle Benchmarks anzuschauen.

und was ist daran verwunderlich?

es war von anfang an klar dass die radeonX1900 wesentlich mehr arithmetikpower hat, die Geforce wesentlich mehr texturpower, was sie aber durch die cineFX-pipeline nur zum teil ausspielen kann.

wenn spiele nun verhältnismäßig mehr arithmetik- als texturpower benötigen werden die radeon-karten natürlich verhältnismäßig schneller. das war von anfang an klar und die frage war nur wie lange es dauern wird.

StefanV
2007-09-01, 23:56:49
Ich habe mich auch schon gefragt, warum ATI Karten bisher anfangs immer etwas schwächelten und dann am Ende der Generation die Konkurrenz aus dem Hause NVIDIA gnadenlos versenkten.
Das WAR mal so weil sich die Architekturen deutlich unterschieden!!

Heute sind die beiden Architekturen aber fast identisch, die Unterschiede zwischen G80 und R600 sind ziemlich gering, außer Anzahl der TMUs und die Organisation der Recheneinheiten gibts da kaum noch UNterschiede...

reunion
2007-09-02, 00:05:23
Wen interessieren alte Karten? Eine 8600GT ist 20€ günstiger und 8% schneller als eine X1650XT, was da ATi dann richtig macht, kannst mir gerne erzählen :)

Wie oft denn noch: Den Leuten, die diese Karte noch besitzen. Nicht jeder wirft seine Karte beim erscheinen einer neuen Generation in den Müll.

Die gelbe Eule
2007-09-02, 00:21:16
Achja reunion soll derjenige nun heulen das eine neue Karte die 2 Jahre später herauskommt auf einmal schneller ist?
Ein Golf V ist auch wertiger als ein Golf III, das zum gleichen Preis. Also eine sehr komische Milchmädchenrechnung.

sklave_gottes
2007-09-02, 01:09:37
Achja reunion soll derjenige nun heulen das eine neue Karte die 2 Jahre später herauskommt auf einmal schneller ist?
Ein Golf V ist auch wertiger als ein Golf III, das zum gleichen Preis. Also eine sehr komische Milchmädchenrechnung.

Also erstmal will ich sehen das du für einen golf 3 einen golf 5 bekommst :D.

Zweitens wurde die x19xx reihe früher auf den markt geschmissen, wie die 79xx reihe!

Und man kriegt für 83€ schon eine HD2600XT etwa 8600GT(86€) speed!

mfg martin

sklave_gottes
2007-09-02, 01:17:14
Wen interessieren alte Karten? Eine 8600GT ist 20€ günstiger und 8% schneller als eine X1650XT, was da ATi dann richtig macht, kannst mir gerne erzählen :)

Die x1650xt kostet zur zeit 83€(asus) die 8600gt 86€. Ich sehe da keine 20% somndern eher 4% für die ati karte.

Ausserdem gibs wie schon oben erwähnt die HD2600xt ab ebenfalls 83€.

mfg martin

sChRaNzA
2007-09-02, 01:19:51
Wenn man heute die X1800/X9100/X1950 mit 7900/7950 kann man sich nur ärgern, damals eine GeForce 7 gekauft zu haben.
Die GF7 ist heute chancenlos gegen ATIs Wunderwerk. Man brauch sich nur aktuelle Benchmarks anzuschauen.

So ist eine X1650XT heute 76% schneller als eine 7600GT und 30% schneller als eine 7900GS.
Eine X1950 Pro ist 26% schneller als eine 7950GT und 10% schneller als eine 7900GTX.
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

Bei der GF6/X800 war das ja genauso wie heute. Ich kann mir deshalb vorstellen das das bei der HD-Serie genauso tut. ATI pflegt seine alten Karten professionell, NVIDIA lässt ihre alten Karten verdrecken.

Ahja... komischer Weiße hab ich mit meiner zu Staube zerfallenen GeForce 6800 Ultra immernoch kleine Performence Schübe bei (den meisten) neuen Treibern...

Tut mir Leid, auch wenn man ein ,,Gamer'' ist, sind die Geforce 7 Karten immernoch nicht tot. Ich wünschte ich könnt mir eine leisten, aber auch wenns nicht geht weiß ich das ich auch neuere Spiele immernoch spielen kann damit ( siehe Bioshock ).

Jetzt wird wieder einer sagen ,, aber die grafik '' bla bla bla... Klar gehts bei Pc Spielen oft nur um die Grafik, aber es gibt auch Menschen die Spiele spielen weil sie Spaß machen, und nicht weil sie nur gut ausschauen.

DerKleineCrisu
2007-09-02, 01:24:34
Achja reunion soll derjenige nun heulen das eine neue Karte die 2 Jahre später herauskommt auf einmal schneller ist?.....

jupp, habe auch geheult das ne 2600XT schneller als meine 2 Jahre alte 6800GS ist. mein gott wie kann nur die poplige 2600xt soooo schnell nein.
Sie ist sogar vielll schneller als meine zweite graka die 7600GT so ä mist aber auch.

mfg

Grisu

p.s. i glaube i habe einen Troll gegessen rettet mich :D. Kann einer nicht wirklich den thread schließen ?. dieses ständige " Seht ihr die AMD/ATI ist doch besser, auch wenn sie mehr strom fressen tut. " nerfen langsam.

Die gelbe Eule
2007-09-02, 01:34:28
Also erstmal will ich sehen das du für einen golf 3 einen golf 5 bekommst :D.

Zweitens wurde die x19xx reihe früher auf den markt geschmissen, wie die 79xx reihe!

Und man kriegt für 83€ schon eine HD2600XT etwa 8600GT(86€) speed!

mfg martin

Da sieht man mal wie manche lesen. Ein Golf III kostete damals genauso viel wie ein Golf V heute, nur bekommt man fürs gleiche Geld heute mehr Golf.

Wird Zeit solche Trollthreads dicht zu machen ...

Gast
2007-09-02, 01:41:00
zumindest in der vergangenheit war es eigentlich immer so, dass die ati hardware besser altert als die von nvidia. das problem ist nur, dass ati nur all zu oft die treiber vermurkst hat...

Gast
2007-09-02, 03:18:22
Wenn man heute die X1800/X9100/X1950 mit 7900/7950 kann man sich nur ärgern, damals eine GeForce 7 gekauft zu haben.
Die GF7 ist heute chancenlos gegen ATIs Wunderwerk. Man brauch sich nur aktuelle Benchmarks anzuschauen.

So ist eine X1650XT heute 76% schneller als eine 7600GT und 30% schneller als eine 7900GS.
Eine X1950 Pro ist 26% schneller als eine 7950GT und 10% schneller als eine 7900GTX.
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

Bei der GF6/X800 war das ja genauso wie heute. Ich kann mir deshalb vorstellen das das bei der HD-Serie genauso tut. ATI pflegt seine alten Karten professionell, NVIDIA lässt ihre alten Karten verdrecken.

du witzbold..die x1650 ist nicht alt..die x1600 ist es
die beiden kannst du aber nicht miteinander vergleichen

Gast
2007-09-02, 03:21:09
Wenn man heute die X1800/X9100/X1950 mit 7900/7950 kann man sich nur ärgern, damals eine GeForce 7 gekauft zu haben.
Die GF7 ist heute chancenlos gegen ATIs Wunderwerk. Man brauch sich nur aktuelle Benchmarks anzuschauen.

So ist eine X1650XT heute 76% schneller als eine 7600GT und 30% schneller als eine 7900GS.
Eine X1950 Pro ist 26% schneller als eine 7950GT und 10% schneller als eine 7900GTX.
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

Bei der GF6/X800 war das ja genauso wie heute. Ich kann mir deshalb vorstellen das das bei der HD-Serie genauso tut. ATI pflegt seine alten Karten professionell, NVIDIA lässt ihre alten Karten verdrecken.


Held..vergleich mal 9800 vs 6600
anfangs war 9800 besser..mittlerweile..müll

Spasstiger
2007-09-02, 03:38:13
Wen interessieren alte Karten? Eine 8600GT ist 20€ günstiger und 8% schneller als eine X1650XT, was da ATi dann richtig macht, kannst mir gerne erzählen :)
Eine X1950 GT bekommt man für knapp über 100€ und die ist deutlich schneller als eine 8600 GT. Wer sein Geld für eine X1650 XT rausschmeissen will, kann das gerne tun, aber für einen Zocker lohnen die 10€ Aufpreis allemal.

=Floi=
2007-09-02, 04:10:33
die HD2600XT kostet auch knapp über 100€
jemand könnte sie auch eher zum video gucken benützen und da haben die dx10 karten sicherlich bessere videoprozessoren verbaut oder er will einfach nur eine dx10 kompatible graka, damit auch zukünftige spiele noch zu starten sind etc. also dx9 karten mögen gut und günstig sein aber nicht für jeden das richtige

Die gelbe Eule
2007-09-02, 04:29:59
Eine X1950 GT bekommt man für knapp über 100€ und die ist deutlich schneller als eine 8600 GT. Wer sein Geld für eine X1650 XT rausschmeissen will, kann das gerne tun, aber für einen Zocker lohnen die 10€ Aufpreis allemal.

Das stimmt natürlich und man könnte es endlos fortsetzen, nur der Vergleich im Startposting hinkt gewaltig, da zwischen beiden Karten 2 Jahre Unterschied liegen. Man muss sich nicht wundern wenn neue Technologie schneller ist
und gerade ATi hat mit seinem umlabeln von alten Chips sehr viel über Jahre ausgereizt.

Tigerchen
2007-09-02, 07:42:41
Wenn man heute die X1800/X9100/X1950 mit 7900/7950 kann man sich nur ärgern, damals eine GeForce 7 gekauft zu haben.
Die GF7 ist heute chancenlos gegen ATIs Wunderwerk. Man brauch sich nur aktuelle Benchmarks anzuschauen.

So ist eine X1650XT heute 76% schneller als eine 7600GT und 30% schneller als eine 7900GS.
Eine X1950 Pro ist 26% schneller als eine 7950GT und 10% schneller als eine 7900GTX.
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

Bei der GF6/X800 war das ja genauso wie heute. Ich kann mir deshalb vorstellen das das bei der HD-Serie genauso tut. ATI pflegt seine alten Karten professionell, NVIDIA lässt ihre alten Karten verdrecken.

Stimmt. Ist schon lange so. Bei nV ist immer das Featureset beeindruckend. Und die erwartete Leistung bei zukünftigen Spielen war immer toll bei nV. Nur wenn dann die erwarteten Spiele kamen wars dann schnell vorbei mit der Herrlichkeit. Und wenn dann noch neue nV-Karten auf den Markt kamen wurden die alten Karten durch mangelnde Treiberunterstützung oft langsamer.

signum incognitum
2007-09-02, 08:38:31
Da sieht man mal wie manche lesen. Ein Golf III kostete damals genauso viel wie ein Golf V heute, nur bekommt man fürs gleiche Geld heute mehr Golf...
;) ...prinzipiell erstmal richtig....nur waren's halt damals Märkli statt teuros :| ...

Gast
2007-09-02, 08:49:03
Ich habe mich auch schon gefragt, warum ATI Karten bisher anfangs immer etwas schwächelten und dann am Ende der Generation die Konkurrenz aus dem Hause NVIDIA gnadenlos versenkten.



Das liegt daran, dasß ATI die Bildqualität mit neueren Treibern immer weiter reduziert (A.I. nennen sie das) um mehr Performance zu schinden. Bei gleicher BQ sind die GFs absolut konkurrenzfähig zu den ATIs.

Gast
2007-09-02, 09:00:04
Das liegt daran, dasß ATI die Bildqualität mit neueren Treibern immer weiter reduziert (A.I. nennen sie das) um mehr Performance zu schinden. Bei gleicher BQ sind die GFs absolut konkurrenzfähig zu den ATIs.

ist mir nie aufgefallen also schlimm kanns nicht sein..

Die gelbe Eule
2007-09-02, 09:14:12
Dem allgemeinen User fällt sowas auch nicht auf und das sind fast 75%. Wenn man aber bedenkt, daß die GF7 auch nach oben hin noch offen und eine 7900GTX oder GX2 durchaus noch potent ist, sollte sich diese Generation noch etwas halten dürfen. Gerade bei dem CB Performance Rating Qualität unter 12x10 ist man immernoch gut bedient.

http://666kb.com/i/argd0rkk6kt5etm4r.jpg

So ist eine X1650XT nur 32% schneller als eine 7600GT und eine 7900GS sogar 7% schneller als eine X1650XT.

The_Invisible
2007-09-02, 09:21:49
also ne x1800 ist sicher nicht zukunftstauglicher als ein g70/71, da hat man nur das glück das die bei computerbase nicht mehr mitgetestet werden (warum eigentlich?)

btw
bei computerbase werden karten die hdrr+aa nicht können bei dem jeweiligen test als 0 bewertet, sehr fair also

mfg

Gast
2007-09-02, 10:28:28
also ne x1800 ist sicher nicht zukunftstauglicher als ein g70/71, da hat man nur das glück das die bei computerbase nicht mehr mitgetestet werden (warum eigentlich?)
Das kann ich nicht bestätigen. Ich habe eine 7950 GT und X1800 XT. In neueren Spielen war meine X1800 XT immer schneller, sei es Stalker oder Bioshock. In Oblivion war die X1800 XT teilweise doppelt so schnell wie die 7950 GT.
Früher sah das noch anders aus, da war die X1800 XT nur minimal schneller als die 7800 GTX.

The_Invisible
2007-09-02, 10:32:11
wär mir neu: http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

außerdem halte ich von "hörensagen" nicht viel, wennst benchmarks liefern kannst, ok

mfg

Gast
2007-09-02, 11:28:49
wär mir neu: http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

außerdem halte ich von "hörensagen" nicht viel, wennst benchmarks liefern kannst, ok

mfg
Eine X1800XT ist in diesem Spiel schneller als eine 7950 GT.

Hier ist die X1800XT sogar schneller als eine 7900GTX und sehr viel schneller als eine X1950Pro: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/15/#abschnitt_oblivion

Bullz
2007-09-02, 11:50:39
was für Blödsinn einige Stammuser hier schreiben. Nicht jeder hat das Geld / Lust sich ne 8800 GTS aufwärts immer zu leisten. Ich behalte meine Grakas im Schnitt 2 Jahre aufwärts und mich interresiert es brennend wie die Perfomance der Karten sich mit der Zeit weiterentwickelt.

und wenn eine GF 7900 GTX gegen eine Radeon 1950 Pro abstinkt weiss ich welche Budget Grafikkarte ich mir kaufen werde...

The_Invisible
2007-09-02, 12:54:36
Eine X1800XT ist in diesem Spiel schneller als eine 7950 GT.

Hier ist die X1800XT sogar schneller als eine 7900GTX und sehr viel schneller als eine X1950Pro: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/15/#abschnitt_oblivion

aber nicht schneller als eine gtx mit gleichen taktraten, bei oblivion gabs das "gras-problem", sonst sieh dir noch bei der gleichen test-suite die tomb raider:legend benchmarks im "next-gen" modus an, da sieht ne 1800xt auch nur rauch und ne 1900xt ist deutlich schneller als diese.

mfg

LOD
2007-09-02, 12:57:09
Meine derzeitige 7900 GT 256 Mb @ 570 Mhz Chip - 800 Mhz Speicher also fast 7900 GTX Werte ist aber für den Preis den ich bezahlt habe (ca 110 Euro) immernoch eine gut performante Karte ....

Wofür immer das teuerste und neuste wenn man nicht mit 16x AA und 8x AF spielt oder eher seltener spielt ?

StefanV
2007-09-02, 13:21:57
@Bullz

Man muss sich nicht immer beim High End orientieren, Mid Range reicht ja locker!!

z.B. aktuell die Radeon HD2600 ist ein exzelentes Paket, jetzt ist sie einigermaßen leistungsfähig und sparsam, bald ists einfach nur eine richtig erstklassige 'Office Karte' -> sehr gute '2D' Features, sehr geringe Energieaufnahme, was will man mehr?!

High End loht sich nur JETZT und ist später nur schwer verkäuflich weil zu lahm und zu heiß...

Gast
2007-09-02, 13:36:23
z.B. aktuell die Radeon HD2600 ist ein exzelentes Paket, jetzt ist sie einigermaßen leistungsfähig und sparsam, bald ists einfach nur eine richtig erstklassige 'Office Karte' -> sehr gute '2D' Features, sehr geringe Energieaufnahme, was will man mehr?!

High End loht sich nur JETZT und ist später nur schwer verkäuflich weil zu lahm und zu heiß...
Nee, im Vergleich zur X1950 Pro ist sie einfach zu langsam.

Und als Office-Karten sind GF8400/HD2400 besser, da sparsamer und günstiger.

Gast
2007-09-02, 13:50:15
nach 1900xtx kam bei mir ne 7900gto@gtx (der größte fehler den ich in bezug auf hardware begangen habe)- jetzt 8800gts. und imo ja, die 7900gtx sieht in punkto performance und bq kein land gegen die ati! um mißverständlichkeiten auszuschließen: mit der 8800gts bin ich sehr zufrieden.

AYAlf
2007-09-02, 14:17:22
was soll das hin und hergerechne? spinnt ihr?

tatsache ist, dass jede ati karte im alter aufblueht (mit neuen spielen) und die nvidia nur kurzfristig oben auf ist. wuerde mich nicht wundern wenn atis 2900xt bei den neuen spielen gewaltig aufholen wuerde (siehe bioshock).
dies ist zweifellos mit in jedem aktuellen benchmark belegbar. ausserdem haben die nvidia karten gewaltige drop downs ... das ist bei ati anders.
es kommt also nicht nur auf den schwanzmark an, sondern auch auf die praxistauglichkeit. und da stinken die 7x karten von nvidia gewaltig ab.
habe die 7900gtx und die 1950xt gegen getestet. und da schaut die nvidia karte gaaaanz alt aus. ;)

Gast
2007-09-02, 14:21:37
was soll das hin und hergerechne? spinnt ihr?

60 vs. 43.

Hydrogen_Snake
2007-09-02, 16:26:53
Ahja... komischer Weiße hab ich mit meiner zu Staube zerfallenen GeForce 6800 Ultra immernoch kleine Performence Schübe bei (den meisten) neuen Treibern...

Tut mir Leid, auch wenn man ein ,,Gamer'' ist, sind die Geforce 7 Karten immernoch nicht tot. Ich wünschte ich könnt mir eine leisten, aber auch wenns nicht geht weiß ich das ich auch neuere Spiele immernoch spielen kann damit ( siehe Bioshock ).

Jetzt wird wieder einer sagen ,, aber die grafik '' bla bla bla... Klar gehts bei Pc Spielen oft nur um die Grafik, aber es gibt auch Menschen die Spiele spielen weil sie Spaß machen, und nicht weil sie nur gut ausschauen.

RECHT HAST DU. Ich habe hier 2 Maschinchen eine mit einer 8800 GTX und die andere mit einer GF6800 ULTRA @FX4000. Jedes Spiel bis auf BIOSHOCK lässt sich @high details 1280x1024 mehr als zufriedenstellend zocken (2GB RAM + C2D 4300). SO einfach ist das. Einige des Heutigen Games laufen aber auf einer X800 in verminderter Qualität, wenn überhaupt. Performance hin oder her...

man sollte vielleicht auch nicht ausen vor lassen das nvidia bereits 1 jahr länger auf dem markt war mit den 8x reihe.

Mr. Lolman
2007-09-02, 16:37:47
RECHT HAST DU. Ich habe hier 2 Maschinchen eine mit einer 8800 GTX und die andere mit einer GF6800 ULTRA @FX4000. Jedes Spiel bis auf BIOSHOCK lässt sich @high details 1280x1024 mehr als zufriedenstellend zocken (2GB RAM + C2D 4300). SO einfach ist das. Einige des Heutigen Games laufen aber auf einer X800 in verminderter Qualität, wenn überhaupt. Performance hin oder her...


Dann nenn doch mal ein paar Spiele, die auf ner X800 nicht mehr starten, aber auf ner 6800 Ultra mit 1280 und Highdetails laufen.


man sollte vielleicht auch nicht ausen vor lassen das nvidia bereits 1 jahr länger auf dem markt war mit den 8x reihe.

Eher ein halbes Jahr...

_DrillSarge]I[
2007-09-02, 16:40:37
das hier ist genauso sinnlos wie der andere fred um die x800. in einem jahr (oder noche früher) gibts dann haufenweise threads zu "das ende von GF8 und HD2x00". toll. ein paar spiele ruckeln/ laufen nicht auf der alten hw und schon schreien alle :rolleyes:

Gast
2007-09-02, 16:42:19
Das liegt daran, dasß ATI die Bildqualität mit neueren Treibern immer weiter reduziert (A.I. nennen sie das) um mehr Performance zu schinden. Bei gleicher BQ sind die GFs absolut konkurrenzfähig zu den ATIs.
Ähm das ist Blödsinn. Flame wo anders

Gast
2007-09-02, 17:34:14
ist mir nie aufgefallen also schlimm kanns nicht sein..
Und manchen Deutschen ist nie aufgefallen, dass Juden vergast wurden. Also schlimm kann es dann ja nicht gewesen sein...

Unglaublich, was hier manche von sich geben! :mad:

myopF
2007-09-02, 18:13:58
Und manchen Deutschen ist nie aufgefallen, dass Juden vergast wurden. Also schlimm kann es dann ja nicht gewesen sein...

Unglaublich, was hier manche von sich geben! :mad:

Godwins law!
selbstdisqualifiziert ;)

imho kann ich schon eine tendenz erkennen, dass ati karten etwas länger halten. meine 97pro wurde erst letztes jahr ersetzt ;)
und jetzt nervts mich schon ne 76gt statt einer 1950 oder 1650 geholt zu haben.

=Floi=
2007-09-03, 03:37:28
dafür haben die GF7 andere vorteile und leistung ist auch ausreichend da und es gibt bisher kein spiel wo die GF7 nicht reicht weil sie zu wenig features hat

papachrischi
2007-09-03, 05:42:02
dafür haben die GF7 andere vorteile und leistung ist auch ausreichend da und es gibt bisher kein spiel wo die GF7 nicht reicht weil sie zu wenig features hat

Solange du keine D3D10 Effekte brauchst, auf jeden Fall. Für Gelegenheitsspieler wie mich reichen die Dinger auf alle Fälle. Mit meiner 7800GS kann ich auch noch alles zocken, was momentan auf dem Markt ist. Ich kann mich also über Nvidia nicht beklagen.
Stalker zocke ich sogar auf dem Rechner meines Sohnes, wo eine 6800GT werkelt. In 1024x768 ohne AA und AF (das braucht sowieso keine Sau in Shootern) geht das noch richtig gut ab.

Gast
2007-09-03, 07:47:45
dafür haben die GF7 andere vorteile und leistung ist auch ausreichend da und es gibt bisher kein spiel wo die GF7 nicht reicht weil sie zu wenig features hat

Welche Vorteile bitte? Eine schlechtere Bildqualität? Im Verhältnis zur Leistung einen höheren Stromverbrauch? Kein HDR+AA? ???

LovesuckZ
2007-09-03, 09:52:59
Welche Vorteile bitte? Eine schlechtere Bildqualität? Im Verhältnis zur Leistung einen höheren Stromverbrauch? Kein HDR+AA? ???

Leise Kühlung, niedriger Stromverbrauch im Verhältnis zur Leistung, Hybride-AA Modie...

Gast
2007-09-03, 10:09:56
CB-benches sind eh nich zu gebrauchen

Gast
2007-09-03, 10:43:39
Leise Kühlung, niedriger Stromverbrauch im Verhältnis zur Leistung, Hybride-AA Modie...

Kommt natürlich darauf an, welche Modelle man beizieht. Vergleicht man X1950pro vs 7900GT, dann stimmt von deiner Aussage lediglich der Teil über die AA-Hybride, weil eine Pro zwar etwas mehr als die 7900 verheitzt (unter Last), dafür aber oft auch um einiges schneller rechnet.
Die Kühlung ist oft Sache der Hersteller und sollte daher eine eher untergeordnete Rolle spielen.

Ich bin auch der Ansicht, dass bei der letzten Generation der DX9.0 Karten, also X1xxx und 7ner, ATI das rundere Paket geliefert hat.
Bei DX10 Karten ist's derzeit andersrum.

LovesuckZ
2007-09-03, 10:47:34
Kommt natürlich darauf an, welche Modelle man beizieht. Vergleicht man X1950pro vs 7900GT, dann stimmt von deiner Aussage lediglich der Teil über die AA-Hybride, weil eine Pro zwar etwas mehr als die 7900 verheitzt (unter Last), dafür aber oft auch um einiges schneller rechnet.
Die Kühlung ist oft Sache der Hersteller und sollte daher eine eher untergeordnete Rolle spielen.

Wir können auch die 1600XT und die 7600GT vergleichen. Ich dachte nur, wir sind noch im High-End Bereich. Ansonsten sind die alternativen Kühlkonzepte der Hersteller nichtmal annährend sogut gewesen wie der Kühler der 7900GTX Karten.


Ich bin auch der Ansicht, dass bei der letzten Generation der DX9.0 Karten, also X1xxx und 7ner, ATI das rundere Paket geliefert hat.


Dieses "rundere Paket" wurde eben auch durch die große Wärmeabgabe erkauft. Und wenn man nicht mit Kopfhörern spielt, kann eine laute Kühlkonstruktion sehr nervig werden. Und diesen Faktor gleicht eine deutlich bessere Leistung nur unzureichend aus.

Das Auge
2007-09-03, 10:50:35
Also ich kann mich über die Leistung meiner GTO@GTX in den allermeisten Spielen nicht beklagen, im Prinzip reicht die noch für alles mit einem FX62 als Unterbau und XP als OS.

Da ich aber schon mal für Crysis vorsorgen möchte und auch andere Spiele so langsam anfangen nutzen aus DX10 zu ziehen bin ich gerade dabei einen zweiten Rechner für Vista zu basteln - mit einer 2900XT + C2D btw.

Nennt mich Fanboy.
.
.
.
.
.
.
.
Die Threads hier werden immer niveauloser und flamehaltiger. Erst dieser becheuerte "Ende der X800"-Thread, dann das hier vom "2900=Flop"-Thread ganz zu schweigen. Wirklich widerlich. Wenn nicht die handvoll Leute mit wirklich Ahnung ein paar Fakten selbst in diese Threads einstreuen würden, könnte man den Mist eigentlich gleich schließen.

iDiot
2007-09-03, 11:11:49
Meine 7800GTX lebt :) - bin mit der Karte eigentlich rundum zufrieden.

restl. System: C2D E6600@3,2, 2Gig Ram, Asus P5W DH Deluxe und Win Vista

Gast
2007-09-03, 11:24:45
Wir können auch die 1600XT und die 7600GT vergleichen. Ich dachte nur, wir sind noch im High-End Bereich. Ansonsten sind die alternativen Kühlkonzepte der Hersteller nichtmal annährend sogut gewesen wie der Kühler der 7900GTX Karten.



Dieses "rundere Paket" wurde eben auch durch die große Wärmeabgabe erkauft. Und wenn man nicht mit Kopfhörern spielt, kann eine laute Kühlkonstruktion sehr nervig werden. Und diesen Faktor gleicht eine deutlich bessere Leistung nur unzureichend aus.


Was ist denn z.B. am Accelero 2 nicht gut? Er ist leiste und die Karte bleibt sehr kühl- Bei X1950pros wurde der oft verbaut.

Rebell
2007-09-03, 11:34:28
Meine 7800GTX lebt :) - bin mit der Karte eigentlich rundum zufrieden.

restl. System: C2D E6600@3,2, 2Gig Ram, Asus P5W DH Deluxe und Win Vista

Seh ich ähnlich. Meine 7900GT geht noch lange nicht in Rente. Bin da bester Hoffnung dass Crysis in 1024x768 noch sehr gut laufen wird.

Nakai
2007-09-03, 11:43:34
Dieses "rundere Paket" wurde eben auch durch die große Wärmeabgabe erkauft. Und wenn man nicht mit Kopfhörern spielt, kann eine laute Kühlkonstruktion sehr nervig werden. Und diesen Faktor gleicht eine deutlich bessere Leistung nur unzureichend aus.

Sobald Qualitätsmodi aktiviert werden, kann sich die X1000-Serie vor der Geforce7-Serie schon ziemlich absetzen. Ach ab diesem Zeitpunkt würde ich sagen, ist der Stromverbrauch gerechtfertigt.

Ansonsten kann ich nichts mehr zu diesem Thread sagen, er ist wirklich ziemlich niveaulos...;D

mfg Nakai

Hydrogen_Snake
2007-09-03, 11:47:43
Dann nenn doch mal ein paar Spiele, die auf ner X800 nicht mehr starten, aber auf ner 6800 Ultra mit 1280 und Highdetails laufen.



Eher ein halbes Jahr...

netter versuch, echt lollig.

Gast
2007-09-03, 11:53:35
Dann nenn doch mal ein paar Spiele, die auf ner X800 nicht mehr starten, aber auf ner 6800 Ultra mit 1280 und Highdetails laufen.
Es reicht, wenn sie überhaupt laufen, denn unter den Blinden ist der Einäugige König. :)

Wenn dann noch Auflösung und Details stimmen - bingo.

Beispiel: Bioshock. Schau in den BS-Demo-Benchmark-Thread - da ist ein User mit 'ner 6800u der BS mit fast 30 Fps avg zocken kann während ein X800-User erstmal auf Community-Arbeit angewiesen ist und dann das ganze auch nicht richtig läuft.

Mr. Lolman
2007-09-03, 12:01:08
netter versuch, echt lollig.

Es reicht, wenn sie überhaupt laufen, denn unter den Blinden ist der Einäugige König. :)

Wenn dann noch Auflösung und Details stimmen - bingo.

Beispiel: Bioshock. Schau in den BS-Demo-Benchmark-Thread - da ist ein User mit 'ner 6800u der BS mit fast 30 Fps avg zocken kann während ein X800-User erstmal auf Community-Arbeit angewiesen ist und dann das ganze auch nicht richtig läuft.

Ich wollte nur ein paar Spiele genannt, haben, die auf ner X800 nicht mehr laufen, aber auf ner 6800 dafür in 1280 mit high details gut performen. Darum gings doch, oder? Dass Bioshock nicht SM2 kompatibel ist, ist schade. Dass es anscheinend aber die Community doch hinbekommt, umso interessanter.

Wie gut die 6800er rennt, sieht man übrigens hier: http://www.firingsquad.com/hardware/bioshock_mainstream_gpu_performance/page8.asp

Gast
2007-09-03, 12:03:14
und am ende kauft intel alle auf...das ende von amd/ati und nv

kmf
2007-09-03, 12:21:10
Ich bin mit meiner Ende Mai/Anfang Juni erworbenen 7950 GX2 auch sehr zufrieden unter WinXP. Und nachdem sie vor ein paar Tagen von mir einen Biosmod verpasst bekam, der etwas mehr Leistung freisetzt, noch mehr.

Ich hab auf dem Zweitrechner Vista 64 auch noch ein 1900er CF drin. DX10 ist für mich derweil überhaupt noch kein Thema. Reden wir da in einem Jahr mal drüber.

Und so lange sind die DX9-Karten für mich allemal noch gut.

mapel110
2007-09-03, 12:31:58
Wie gut die 6800er rennt, sieht man übrigens hier: http://www.firingsquad.com/hardware/bioshock_mainstream_gpu_performance/page8.asp
Schon erstaunlich, wie viel mehr Shaderpower die 7x00 Serie bei nvidia haben muss gegenüber der 6x00. 6800 GT und 7900 GS sollten ja von der reinen Texturleistung her ja etwa gleich sein. Aber da erreicht die 7er Serie ja doppelt so hohe Werte. Irgendwie merkwürdig.

Gast
2007-09-03, 12:33:29
CB-benches sind eh nich zu gebrauchen
Wieso?

AnarchX
2007-09-03, 12:36:44
6800 GT und 7900 GS sollten ja von der reinen Texturleistung her ja etwa gleich sein.
Bitte vorher informieren (http://www.beyond3d.com/resources/), bevor man soetwas schreibt. ;)

6800GT: 16TMUs*350MHz = 5.6GTex/s
7900GS: 20TMUs*450MHz = 9GTex/s -> ~60% mehr


Und auch so hat G7x deutlich mehr MADD-Power(Dual-MADD vs MADD_MUL) auf die es hauptsächlich ankommt.

6800GT: 45GFLOPs MADD
7900GS: 144GFLOPs MADD

Gast
2007-09-03, 12:44:16
Ich muss leider sagen, das ich seid Oblivion mit meiner 7800GT nicht mehr zu frieden bin.
Hab mich damals für die 7800GT entschieden, weil sie günstig verfügbar war (für 333€) und die X1800XL noch nicht lieferbar war bzw. noch zu teuer war.
Andersrum bin ich sehr zu frieden mit der Karte. BF2 läuft super, es wollte mit meiner alte GF2TI nicht mehr gehen :-).

Irgendwie baut ATI in deren Karten Leistungsbackups rein, denn sie gehen nie so schnell in die Knie bei neueren Spiele wie NV.

Es hätte auch anders ausgehen können.

Gruß

ein neutraler GAST

der_roadrunner
2007-09-03, 13:04:20
Was ist das für ein blödsinniger Thread?

Ich hatte mir Anfang des Jahres noch meine 7600GT geholt und bin voll zufrieden damit. Bis jetzt laufen noch alle Spiele, auch neue. Bin überhaupt überrascht, wie gut zb. Bioshock noch performt.

der roadrunner

mapel110
2007-09-03, 13:05:39
Bitte vorher informieren (http://www.beyond3d.com/resources/), bevor man soetwas schreibt. ;)

6800GT: 16TMUs*350MHz = 5.6GTex/s
7900GS: 20TMUs*450MHz = 9GTex/s -> ~60% mehr


Und auch so hat G7x deutlich mehr MADD-Power(Dual-MADD vs MADD_MUL) auf die es hauptsächlich ankommt.

6800GT: 45GFLOPs MADD
7900GS: 144GFLOPs MADD
ups, ich dachte, das liegt deutlich näher beisammen. ging eher von 400Mhz Taktrate aus bei der GS. Dann wären es etwa 40 % mehr. Dennoch erstaunlich, der Unterschied. Soviel wurde bei Release des G70 nicht gemessen.

Vielleicht sollte man das mal mit aktuellen Treibern genauer untersuchen.
Was ist das für ein blödsinniger Thread?

Ich hatte mir Anfang des Jahres noch meine 7600GT geholt und bin voll zufrieden damit. Bis jetzt laufen noch alle Spiele, auch neue. Bin überhaupt überrascht, wie gut zb. Bioshock noch performt.

der roadrunner
Dann hast du halt Ansprüche, die der Karte entsprechen. Aber es gibt genug Leute, denen reicht "laufen" nicht aus.

Gast
2007-09-03, 13:19:12
Wie gut die 6800er rennt, sieht man übrigens hier: http://www.firingsquad.com/hardware/bioshock_mainstream_gpu_performance/page8.asp
Oder hier:
http://forum-3dcenter.de/vbulletin/showthread.php?p=5777210#post5777210
:)

Gast
2007-09-03, 14:32:28
Ein bisschen verschaukelt wurde ich mir schon vorkommen wenn ich ein G71 gekauft hätte.Aber jeder wusste ja das der R580 Technisch besser ist,jeder wusste auch das der R580 stärker wird.

Deswegen hab ich mir damals auch eine R580 geholt.Jeder der sich trotz der Daten ein G71 gekauft hat,hat selber schuld wenn er sich über mangelnde performance heute beklagt.:)

viking
2007-09-03, 19:45:25
Ohh Gott - ohh Gott (ich bin kein Christ, nein!)
Dennoch ist das hier mehr als Senseless.


Die Zeiten ändern sich halt, und momentan sieht es doch für nVidia gar nicht sooo schlecht aus oder? ;)

Sterem
2007-09-03, 20:09:27
Ohh Gott - ohh Gott (ich bin kein Christ, nein!)
Dennoch ist das hier mehr als Senseless.


Die Zeiten ändern sich halt, und momentan sieht es doch für nVidia gar nicht sooo schlecht aus oder? ;)

Jo aber nicht für den G71.

Hvoralek
2007-09-03, 21:40:40
Ein Game, dass auf G7 unspielbar ist, ist auch auf RX unspielbar. Mehr gibts dazu nicht zu sagen.
Wegen den 30 % mehr fps, kann man vielleicht hier und da mal 2xAA hinzuschalten, wo es bei der G7 nicht mehr geht, aber sonst ...Gerade AA wäre bei der Bandbreite des RSX als letztes zu empfehlen :wink:

Und wenn dann noch neue nV-Karten auf den Markt kamen wurden die alten Karten durch mangelnde Treiberunterstützung oft langsamer.Gibt es dafür irgendwelche belegten Beispiele? Der m.W. immer noch aktuellste umfangreichere Test älterer Nvidia- Karten mit neueren Treibern sagt nämlich das genaue Gegenteil (http://www.3dcenter.org/artikel/geforce4_treibervergleich/).

Das kann ich nicht bestätigen. Ich habe eine 7950 GT und X1800 XT. In neueren Spielen war meine X1800 XT immer schneller, sei es Stalker oder Bioshock. In Oblivion war die X1800 XT teilweise doppelt so schnell wie die 7950 GT.In Oblivion- Außengebieten ist das natürlich so. Wahrscheinlich hat Bethesda über ihre 9800er und Xenos irgendwie vergessen, dass es auch Karten ohne hiercharchischen Z- Puffer gibt. Auch ist dort Arithmetikleistung in keiner Weise gefragt. Dass R520 da gut geht und G7x schlecht, ist klar.

tatsache ist, dass jede ati karte im alter aufblueht (mit neuen spielen) und die nvidia nur kurzfristig oben auf ist. wuerde mich nicht wundern wenn atis 2900xt bei den neuen spielen gewaltig aufholen wuerde (siehe bioshock).Es gibt ein paar Dinge, die R600 langfristig helfen können. Davon zeigt sich bei Bioshock aber wohl nichts. Das ist eine 360- Portierung und damit auf Xenos zugeschnitten. Wundert es da irgendjemanden, dass das auf R600 gut läuft?

Umgekehrt kann man wohl damit rechnen, dass G7x mit PS3- Portierungen gut zurechtkommen wird.

The_Invisible
2007-09-03, 21:59:59
Gerade AA wäre bei der Bandbreite des RSX als letztes zu empfehlen :wink:

glaube kaum das er den rsx der ps3 gemeint hat sondern eher r5xx.

aber siehe colin mcrae dirt: auf der ps3 ist das in 720p flüssigst spielbar, sogar besser wie mit der xbox.

mfg

Mr.Soapdown
2007-09-04, 09:37:18
[QUOTE=StefanV;5807783
z.B. aktuell die Radeon HD2600 ist ein exzelentes Paket, jetzt ist sie einigermaßen leistungsfähig und sparsam, bald ists einfach nur eine richtig erstklassige 'Office Karte' -> sehr gute '2D' Features, sehr geringe Energieaufnahme, was will man mehr?!
...[/QUOTE]

Für eine Officekarte doch wohl zu "dicke". Für eine Officekarte zuviel Verbrauch, 0der? Welche sind die sehr guten 2D-Features?

Ich halte die großen 7xxx nicht für am Ende, genauso wie AGP schon seit 2 Jahren stirbt (den konnte ich mir nicht verkneifen, wenn auch unpassend)

mfg

AYAlf
2007-09-04, 20:58:52
Für eine Officekarte doch wohl zu "dicke". Für eine Officekarte zuviel Verbrauch, 0der? Welche sind die sehr guten 2D-Features?

Ich halte die großen 7xxx nicht für am Ende, genauso wie AGP schon seit 2 Jahren stirbt (den konnte ich mir nicht verkneifen, wenn auch unpassend)

mfg

agp stirbt auch noch nicht ... dass sehen aber hier einige gurus und ein gewisser stefanv etwas anders. zumindest ist noch niemand so langsam gestorben wie die agp schnittschtelle ;D

Gast
2007-09-04, 21:15:44
schon merkwürdig...

demnach würde ATI quasi, laut Aussage einiger User, ja in jeder Beziehung nur langfristig denken und die Karten nur mit Blick auf die Leistung in der Zukunft releasen.

Dumm nur das sie letzten beiden Generationen bei Release gegen die Konkurrenz z.T. richtig abstinken und sich deshalb weniger gut verkaufen.

Das nenn ich mal einen guten Geschäftssinn.

Mr. Lolman
2007-09-04, 21:36:50
Dumm nur das sie letzten beiden Generationen bei Release gegen die Konkurrenz z.T. richtig abstinken und sich deshalb weniger gut verkaufen.

Das nenn ich mal einen guten Geschäftssinn.

Wovon sprichst du?

R580, R600? Die stinken doch nicht ab, oder vergleichst du jew. mit ner GX2/GTX?

Hvoralek
2007-09-04, 21:41:06
Wovon sprichst du?

R580, R600? Die stinken doch nicht ab, oder vergleichst du jew. mit ner GX2/GTX?Wahrscheinlich R520 (zum Relesase mit AA/AF etwas schneller als eine 7800, ohne deutlich langsamer) und R600 (ohne Worte).

Tigerchen
2007-09-05, 10:10:44
agp stirbt auch noch nicht ... dass sehen aber hier einige gurus und ein gewisser stefanv etwas anders. zumindest ist noch niemand so langsam gestorben wie die agp schnittschtelle ;D


Doch. Sicher. PCI stirbt noch länger. Vom Parallelport,RS-232 oder PS/2 ganz zu schweigen. Nur die ISA-Slots und den Gameport hat es wohl endgültig dahingerafft. R.I.P.

HotSalsa
2007-09-06, 06:02:46
Bin mit meiner gForce 7950 GT immer noch zufrieden. Auf 1280x1024 läuft noch alles und meistens auch noch mit 4xAA nd 8xAF.
Wenn es mir mal zu eng wird, schalte ich von HQ auf Q runter und es sieht für mich immer noch gut aus. Was will ich also mehr?

Wenn zB Crysis richtig gut wird und nicht mehr vernünftig laufen sollte oder irgend ein anderes DX10 game ein must have wird, DANN überlege ich mir upzugraden. (dafür müsste jetzt nur noch Vista64 etwas ausgereifter werden ;D )

Bis jetzt ist also noch alles in Butter - und neee - tot is meine GF7 nicht - sie verrichtet weiterhin gute Dienste ;)

Nakai
2007-09-06, 10:26:08
Bin mit meiner gForce 7950 GT immer noch zufrieden. Auf 1280x1024 läuft noch alles und meistens auch noch mit 4xAA nd 8xAF.
Wenn es mir mal zu eng wird, schalte ich von HQ auf Q runter und es sieht für mich immer noch gut aus. Was will ich also mehr?

Ich wär glücklich, wenn ich eine 7950GT hätte, mit meiner X800XT.;D

Ich versteh den Hype manchmal nicht. Eine Highendgraka hat ein schlechtes PreisLeistungsverhältnis und alles darunter soll dan schlecht sein?

Ich hab für meine X800XT 299€ gezahlt und mehr werd ich für meine neue Graka ,die ich irgendwann kaufe, auch nicht hinlegen.

Also was soll der Hype?

mfg Nakai

bedunet
2007-09-06, 13:40:29
Was ist denn das für ein Thread bitteschön? Ich bin mit meiner 7900GT sehr zufrieden und tausche die nicht so schnell aus (überspringe sowieso meist 3-4 Grakagenerationen ehe ich mir eine neue kaufe).

HOT
2007-09-06, 13:42:38
Das die X1000 Serie ein wesentlich grösseres Optimierungspotenzial als die Geforce7 Serie bot, war von Anfang an klar. Dafür verbraucht sie aber auch 1/3 mehr Strom als die Geforce7 und war damals "nur" ebenbürtig. Jetzt von Blödheit zu sprechen, sich eine G7 geholt zu haben ist aber purer Blödsinn, denn das konnte niemand wirklich voraussehen. Das die Serie hinterher so abgeht, damit hab ich aber auch nicht gerechnet und freue mich darüber. Meine X1900XTX ist nahe an der 8800GTS 320, das ist ein guter Kurs für eine ehemals 500€ teure ehemalige HighEnd Karte finde ich. Bei der HD2900 wird das meiner Meinung nach auch nicht anders ablaufen. Nur inwieweit sich das Optimierungspotenzial noch auszahlen wird, kann heute noch keiner sagen, von daher verstehe ich, warum jemand lieber zur GTX greift. Ich würde es nicht tun, sondern die ATI Karte kaufen - schon mit jetzigen neuen Treibern und DX10 Benches ist ein eindeutiger Trend erkennbar.

Gast
2007-09-06, 13:46:54
Das die X1000 Serie ein wesentlich grösseres Optimierungspotenzial als die Geforce7 Serie bot, war von Anfang an klar.


eher umgekehrt, die X1000-serie ist "automatisch" schnell, die Geforce7 wesentlich mehr auf optimierungen angewiesen.


Jetzt von Blödheit zu sprechen, sich eine G7 geholt zu haben ist aber purer Blödsinn, denn das konnte niemand wirklich voraussehen.

als blödheit würde ich es auf keinen fall bezeichnen, aber dass insbesondere die X19yy-serie ordentlich abgehen wird war vorherzusehen, nur nicht wie lange es brauchen wird.

HOT
2007-09-06, 13:56:52
eher umgekehrt, die X1000-serie ist "automatisch" schnell, die Geforce7 wesentlich mehr auf optimierungen angewiesen.

Die Geforce7 ist eine aufgebohrte Geforce6 - NV hatte sein Pulver damals schon verschossen. Eine solch flexible Architektur, wie sie erstmals in der x1000 Serie zum Einsatz kam, ist zudem schwerer zu optimieren als eine relativ feste. ATI hat durch Optimierungen deutlich mehr Leistung herausgeholt, also gabs auch mehr zu optimieren.

als blödheit würde ich es auf keinen fall bezeichnen, aber dass insbesondere die X19yy-serie ordentlich abgehen wird war vorherzusehen, nur nicht wie lange es brauchen wird.
Es war definitiv nicht vorauszusehen, dass sie verhältnismässig so nah an der G8 Generation dran ist.

Gast
2007-09-06, 14:04:59
Es war definitiv nicht vorauszusehen, dass sie verhältnismässig so nah an der G8 Generation dran ist.

es war nicht vorherzusehen wie die schnell die G8-serie wird, aber dass sich die 3-fache arithmetikpower gegenüber dem eigenen vorgänger in zukunft deutlich zeigen wird war klar.

LovesuckZ
2007-09-06, 14:17:14
Das die Serie hinterher so abgeht, damit hab ich aber auch nicht gerechnet und freue mich darüber.

Die einzige Serie, die so "abgeht", ist die X19xx. Alles darunter ist genauso gut oder schlecht wie die G7x Karten.

Meine X1900XTX ist nahe an der 8800GTS 320, das ist ein guter Kurs für eine ehemals 500€ teure ehemalige HighEnd Karte finde ich.

Du weißt schon, dass die 8800GTS Karte für 250€ verkauft wird? :rolleyes:


Ich würde es nicht tun, sondern die ATI Karte kaufen - schon mit jetzigen neuen Treibern und DX10 Benches ist ein eindeutiger Trend erkennbar.

Ja, dass die Karte eben nicht so zukunftssicher ist.

Coda
2007-09-06, 14:34:46
Die Geforce7 ist eine aufgebohrte Geforce6 - NV hatte sein Pulver damals schon verschossen. Eine solch flexible Architektur, wie sie erstmals in der x1000 Serie zum Einsatz kam, ist zudem schwerer zu optimieren als eine relativ feste. ATI hat durch Optimierungen deutlich mehr Leistung herausgeholt, also gabs auch mehr zu optimieren.
Er hat wirklich recht. Die ATis sind aus technischen Gründen bei neueren Spielen so schnell und nicht durch Treiberoptimierungen.

Man kann einen Shader höchstens so schreiben, dass er auf GeForce 7 und Radeon X1xxx gleich schnell ist, aber niemals dass er auf der Radeon langsamer wäre. Das ist dann "GeForce 7 optimiert".

Die einzige Serie, die so "abgeht", ist die X19xx. Alles darunter ist genauso gut oder schlecht wie die G7x Karten.
Das stimmt nicht, auch die X1800 hat heute deutliche Vorteile.

HOT
2007-09-06, 15:02:53
Die einzige Serie, die so "abgeht", ist die X19xx. Alles darunter ist genauso gut oder schlecht wie die G7x Karten.

Wieso das? Ein x1650XT schlägt eine 7600GT auch mehr als deutlich. Die x1650Pro/X1600 Versionen stehen mit 7600GS Leistungen dar. Die gesamte X Serie ist besser als die gesamte G7 Serie.

Du weißt schon, dass die 8800GTS Karte für 250€ verkauft wird? :rolleyes:

Damit ist sie jetzt auch deutlich teurer als X19x0XT Versionen.

Ja, dass die Karte eben nicht so zukunftssicher ist.
Was ist das für ein wirrer Schluß? Die X Serie hat ihre Zukunftstauglichkeit auch bewiesen.

HOT
2007-09-06, 15:06:04
Er hat wirklich recht. Die ATis sind aus technischen Gründen bei neueren Spielen so schnell und nicht durch Treiberoptimierungen.

Man kann einen Shader höchstens so schreiben, dass er auf GeForce 7 und Radeon X1xxx gleich schnell ist, aber niemals dass er auf der Radeon langsamer wäre. Das ist dann "GeForce 7 optimiert".

Das ist mir schon klar. Damals hat die Serie aber die Leistung nicht "auf die Strasse bringen können" und die Leute waren damals nicht zuunrecht skeptisch. Dennoch hat es sich jetzt so bewahrheitet. Treiberoptimierung bedeutet doch sowieso, das Optimum aus der Architektur rauszuholen. Und genau das wollte ich sagen: die 7er Serie war architektonisch ausgereizt, man kann da nichts besser machen, um eine x1000 Serie Karte zu überflügeln. Dass die Abstände aber so immens werden würden, damit hat damals niemand gerechnet.
[...]

The_Invisible
2007-09-06, 15:27:24
Das stimmt nicht, auch die X1800 hat heute deutliche Vorteile.

komisch das man dann noch die x1900 nach so kurzer zeit releast hat wenn die x1800 ja so überlegen war

mfg

Gast
2007-09-06, 15:30:42
Wir können auch die 1600XT und die 7600GT vergleichen. Ich dachte nur, wir sind noch im High-End Bereich. Ansonsten sind die alternativen Kühlkonzepte der Hersteller nichtmal annährend sogut gewesen wie der Kühler der 7900GTX Karten.


achwas o.O

http://www.technic3d.com/article/pics/360/ge_967.jpg

nicht hörbar und schön kühl... :P

darkcrawler
2007-09-06, 15:33:13
Wieso das? Ein x1650XT schlägt eine 7600GT auch mehr als deutlich. Die x1650Pro/X1600 Versionen stehen mit 7600GS Leistungen dar. Die gesamte X Serie ist besser als die gesamte G7 Serie.


was zu beweisen wäre (und bitte keine CB-benches)

AnarchX
2007-09-06, 15:35:43
komisch das man dann noch die x1900 nach so kurzer zeit releast hat wenn die x1800 ja so überlegen war


Dass R520 eigentlich für das Frühjahr 2005 geplant war und sich aber auf Grund von Problemen mit dem 90nm Prozess um einiges verspätet hat, während R580 planmässig fertig war, sollte man doch ansatzweise als 3DC-Leser wissen. ;)

Arithmetisch war der R520 zwar nicht ganz so stark, aber ansonsten hat er einige Dinge, die ihm auch heute noch deutlich Vorteile gegenüber G70/G71 bringen, wie z.B. das HW-HSR (wichtig in Oblivion-Outdoor).

Aber der verspätete Release, ATis Unfähigkeit hier einen vernünftigen Kühler als Referenz festzulegen und die bei neuen Generationen üblichen Treiberprobleme, die NV auf Grund der nahen Verwandschaft von G7x zu NV4x nicht hatte, schädigten das Bild dieser Karte.

The_Invisible
2007-09-06, 15:36:35
achwas o.O

http://www.technic3d.com/article/pics/360/ge_967.jpg

nicht hörbar und schön kühl... :P

sieht nicht so ergonomisch aus, wo soll den die luft her und wieder raus, vor allem wenn man sie einbaut?

mfg

Gast
2007-09-06, 15:46:37
wie wo soll die luft rein und wieder raus? o.O sie wird lüfterseitig angesaugt und richtung PCB "ausgestoßen" das kunststoffgehäuse ist geschlossen und dient als luftkanal :)

ist auch irrelevant das die "abluft" nicht aus dem gehäuse geblasen wird!
das ding hat schließlich keine verlustleistung wie nen G80 oder R600...und ist immernoch ne midrange lösung...da :P

fakt ist die kühllösung funktioniert hervorragend und ist nicht hörbar! :D was kümmert mich da wohin was wie abgeblasen wird

AnarchX
2007-09-06, 15:48:23
Fragt sich nur wie manches Mainboard langfristig auf die Warmluftbehandlung reagiert. ;)

Coda
2007-09-06, 15:48:39
komisch das man dann noch die x1900 nach so kurzer zeit releast hat wenn die x1800 ja so überlegen war
Die X1800 ist heute überlegen. Damals war sie es nicht.

Gast
2007-09-06, 16:05:21
Fragt sich nur wie manches Mainboard langfristig auf die Warmluftbehandlung reagiert. ;)

klar...die GPU gibt ca 70Watt ab und wird unter last vielleicht 55°C warm

dieselbe "warmluft" behandlung hast du auch um den CPU Slot. hast du sie nicht ist es sogar noch ungünstiger aufgrund mangelnder konvektion was zu einer stärkeren erwärmung führt als es anders der fall wäre!

...die spannungswandler und der chipsatz werden das PCB an der jeweiligen stelle übrigends wohl deutlich mehr erwärmen als die vielleicht 40°C warme abluft aus dem kühler :D

zumal an der stelle ja nun keine relevanten komponenten verbaut sind. ob der PCIe X1 slot da nun etwas wärmer wird als normal ist denke ich...ziemlich uninteressant ;)

HOT
2007-09-06, 16:12:14
was zu beweisen wäre (und bitte keine CB-benches)
Bei THG z.B. sind sie gleichauf. Das Prob dabei ist aber, dass keine aktuellen Catalyst Treiber dafür verwendet werden. Das ist bei CB anders. Zu Zeiten des Cata7.1 war der RV570 quasi noch taufrisch. Außerdem testen die meisten die G7 Karten nur auf Quality, nicht HQ. Bei aktellen Treibern mit vergleichbaren Qualitätseinstellungen ist die x1650XT in den meisten Fällen deutlich schneller.

Mal OT aber lustig: Es wurde ja oft behauptet, HT4U würde die HD2900XT mit A.I. off benchen: http://www.hardtecs4u.de/reviews/2007/amd_radeon_hd2000/index13.php
dem ist nicht so ;).

Gast
2007-09-06, 17:04:19
Er hat wirklich recht. Die ATis sind aus technischen Gründen bei neueren Spielen so schnell und nicht durch Treiberoptimierungen.



Schalt mal A.I. ab, dann siehst du, wie "schnell" die Radeons wirklich sind.

reunion
2007-09-06, 17:06:57
Schalt mal A.I. ab, dann siehst du, wie "schnell" die Radeons wirklich sind.

Ja, nV macht das wesentlich eleganter, da hat man auf HQ bei G7x noch immer Optimierungen und keiner regt sich über den Leistungsverlust auf. Nicht umsonst haben mit der Zeit immer mehr Tester bei genauerer Betrachtung auf HQ vs. AI_low gewechselt.

Coda
2007-09-06, 17:11:38
Schalt mal A.I. ab, dann siehst du, wie "schnell" die Radeons wirklich sind.
Da werden auch Dinge deaktiviert die bei nVIDIA immer an sind. Damit sind keine Rückschlüsse auf die Hardware möglich.

Ja, nV macht das wesentlich eleganter, da hat man auf HQ bei G7x noch immer Optimierungen und keiner regt sich über den Leistungsverlust auf. Nicht umsonst haben mit der Zeit immer mehr Tester bei genauerer Betrachtung auf HQ vs. AI_low gewechselt.
AI low auf R5xx ist nur leider schlimmer als G7x HQ.

Gut dass bei der neuen Generation die Vergleichbarkeit viel besser gegeben ist.

The_Invisible
2007-09-06, 17:15:32
Gut dass bei der neuen Generation die Vergleichbarkeit viel besser gegeben ist.

meinst du da HQ vs AI off oder Q vs AI low?

mfg

Coda
2007-09-06, 17:17:31
G80 Q vs. R600 AI low ist halbwegs fair von der Bildqualität, wobei Q G80 weniger bringt weil die Füllrate einfach viel höher ist.

Ich würde aber grundsätzlich G80 HQ vs. R600 AI off benchen nur um ATi dazu zu zwingen die Bildqualität unabhängig von echten Optimierungen zu behandeln. Macht nur leider keiner.

Wie die Bildqualitätsverhältnisse bei D3D10 sind ist gerade eh nicht absehbar. Da kümmert sich noch keiner drum.

HOT
2007-09-06, 17:18:07
Na ja, wer sagt, dass NV HQ nicht auch eine Art A.I. Low ist - die Grenzen sind da fließend - das sind schließlich auch nur Text-Strings ;). Dafür kann die G7 Serie kein HQ AF (WU-AF), was ja auch oft aktiviert wird bei Radeon Karten (z.B. bei CB) - ausgleichende Gerechtigkeit würde ich sagen ;).

Coda
2007-09-06, 17:22:35
R5xx AI Low war nur leider schlimmer als G7x HQ. Ich sag's gerne immer wieder.

Gast
2007-09-06, 18:25:01
meinst du da HQ vs AI off oder Q vs AI low?



im high-end auf jeden fall HQ vs AI-off.

HOT
2007-09-06, 22:39:34
R5xx AI Low war nur leider schlimmer als G7x HQ. Ich sag's gerne immer wieder.
Dafür keine Winkelabhängigkeit...

Coda
2007-09-06, 23:01:35
Das mag zwar stimmen, die Benchmarks wurden aber mit deaktivertem Area-AF gemacht.

desert
2007-09-06, 23:12:12
http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index14.php

http://www.hardtecs4u.de/reviews/2007/nvidia_g80_roundup/index17.php


wo ist denn hier die so überlegene power der ati, fällt hier weit hinter die gf 7900 gtx zurück, sobald man a.i off testet. die geforce wurde mit hq getestet, und jeder der die pcgh liest, kann sich selbst ein bild davon machen wie überlegen die bq des 580 auf a.i low ist.

Und leider hat sich bis heute niemand getraut die hd2900xt mit a.i. off zu benchen, nicht einer, noch nicht mal hier im forum.

Ich persönlich würde gerne benches, von vertrauenswürdigen personen, sehen.
Nur komischerweise gibt es nicht einen davon.

Coda
2007-09-06, 23:15:31
Mit AI Off werden eben auch Applikationsgebundene sinnvolle Optimierungen deaktiviert. Das kritisiere ich ja schon lange.

Wie gesagt würde ich ATI aus Prinzip nur mit A.I. Off benchen nur damit sie mit dem Quatsch aufhören.

Gast
2007-09-07, 04:38:17
Mit AI Off werden eben auch Applikationsgebundene sinnvolle Optimierungen deaktiviert. Das kritisiere ich ja schon lange.

Wie gesagt würde ich ATI aus Prinzip nur mit A.I. Off benchen nur damit sie mit dem Quatsch aufhören.

die botschaft mit der kompletten deaktivierung treiberseitiger optimierungen auch wirklich alle optimierungen auszuschalten ist also quatsch?

naja aber auch höchstens nur weil es der konkurrent sehr locker sieht und "ausschalten" etwas freizügiger interpretiert ;)

wenn man mal rein die aussage "A.I. off" interpretiert tut es doch genau das was es tun soll...da kann man der firma es wohl kaum zum vorwurf machen das sie in dieser beziehung etwas transparenter vorgeht als nV! :D

PCGH_Carsten
2007-09-07, 08:02:07
wenn man mal rein die aussage "A.I. off" interpretiert tut es doch genau das was es tun soll...da kann man der firma es wohl kaum zum vorwurf machen das sie in dieser beziehung etwas transparenter vorgeht als nV! :D

Nein, aber für praktische, userfreundliche Anwendung wäre es eben sinnvoll, maximale Bildqualität bei gleichzeitig guter Performance oder inkl. Crossfire zu haben. Das geht aktuell leider nicht immer (Crossfire: Gar nicht, als ich's das letzte Mal probierte).

Mr. Lolman
2007-09-07, 08:12:22
Dann verwendet doch einfach AI High. Flimmert bei bösen Texturen weniger, als Low. :naughty:


EDIT: Oder hat das bis jetzt sonst noch niemand (!) bemerkt, weil sich die Unterschiede doch auf Niveau abspielen, das vll. zwar Flamepotential birgt, sich aber oft genug der menschlichen Wahrnehmung entzieht?

und jeder der die pcgh liest, kann sich selbst ein bild davon machen wie überlegen die bq des 580 auf a.i low ist.


Was schreibt denn die PCGH?

PCGH_Carsten abgemeldet.
2007-09-07, 08:22:34
Dann verwendet doch einfach AI High. Flimmert bei bösen Texturen weniger, als Low. :naughty:
Texturflimmern ist aber nicht das einzige Kriterium für Bildqualität.

Mr. Lolman
2007-09-07, 08:27:50
Texturflimmern ist aber nicht das einzige Kriterium für Bildqualität.

Jaja. Die Bruteforcekompression zählt da auch mit. Aber wenn eh quasi alle Texturen komprimiert sind, ists ja eigentlich wurscht, oder?

Andererseits hat das ATI-AF immernoch den 'Rennspielbonus'. Man braucht kein LOD-Clamp/Supersampling: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5753121&postcount=795

Gast
2007-09-07, 08:45:10
Jaja. Die Bruteforcekompression zählt da auch mit. Aber wenn eh quasi alle Texturen komprimiert sind, ists ja eigentlich wurscht, oder?

Andererseits hat das ATI-AF immernoch den 'Rennspielbonus'. Man braucht kein LOD-Clamp/Supersampling: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5753121&postcount=795
Wenn ich Postings lese, die "jaja" beginnen, schalte ich gleich ab.

Mr. Lolman
2007-09-07, 08:51:24
Wie du meinst.

Gast
2007-09-07, 09:00:49
Ja, ein kleines bißchen "Benimm" sollte drin sein - egal wer wem gegenüber.

Die gelbe Eule
2007-09-07, 09:04:03
Wohl den einzigen Bonus, der nirgendwo als Benchmark gebraucht wird. Balken sind das wichtigste, nicht das jeder beste BQ bekommt, sonst hätten wir längst A.I. off. Das hatten wir aber schon so oft diskutiert und hat nie was gebracht. A.I. off ist fps Killer, habe ich schon 4-5 mal beobachten dürfen, das Flimmern der G7X stört wohl keinen (da unter HQ nicht vorhanden und unter Q nur geübten Augen ersichtlich), deswegen werden immernoch GTX/GTO und ähnliche gut gehandelt. Manche müsse sich Ihre R5XX halt immer gutreden, egal womit, nur wenn es um bestmögliche BQ geht, werden alle still, da unspielbar.

desert
2007-09-07, 09:10:00
Jaja. Die Bruteforcekompression zählt da auch mit. Aber wenn eh quasi alle Texturen komprimiert sind, ists ja eigentlich wurscht, oder?

Andererseits hat das ATI-AF immernoch den 'Rennspielbonus'. Man braucht kein LOD-Clamp/Supersampling: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5753121&postcount=795

lolli,

es wurde doch jetzt bestimmt schon tausendmal gesagt, das das am negativen lod liegt. Und auch das das auch auf ati hardware flimmert, aussser wieder bei mr. ati himself, der hat immer perfekte bildqualität, weil er ist powered by ati. Da merkt das spiel schon, oh oh jetzt kommt die ati, da schaltet ich in den mr. lolmann perfekt modus und alle optimierungen sind vergessen.

Wenn ich mir alleine die bilder in der pcgh anschaue, wo ich bei hl2 ein schönes moire muster bei ati sehe, selbst bei a.i. off und nv hq nicht. Aber hey es flimmert doch bestimmt auf der nvidia. das muss flimmern ist ja halt nvidia. Woher kommt eigentlich dein hass auf diese firma?

Bei ati sind sämtliche optimierungen von dir aprroved, weil sie niemanden auffallen. Komisch meinen bekannten mit gf7 ist das nie aufgefallen, das die am anfang stärker geflimmert hat. So gesehen dürften die dann ja auch nicht schlecht sein, weil es der mehrheit garnicht auffällt.

Die gelbe Eule
2007-09-07, 09:13:49
Ich kann das gut bei meinem MMO beobachten, wo die Bodentextur flimmert, wenn man auf High Performance geht und gar nicht flimmert wenn man HQ anwirft. Selbiges ist bei ATi zu beobachten, aber halt mit A.I. low oder high, mit off ist es weg. Dafür habe ich aber auch dann 20% weniger fps.
Also, wer weiß was er da sieht, kann es mit gegebenen Mitteln eliminieren, weil möglich. Nur ist bei ATi der framedrop größer als bei NV und das wäre natürlich marketingtechnisch kaum von Vorteil ;)

Mr. Lolman
2007-09-07, 09:24:09
Ja, ein kleines bißchen "Benimm" sollte drin sein - egal wer wem gegenüber.

Gut, dann sind wir uns ja einig. Ich wusste bisher bloß nicht, dass du auf ein saloppes jaja, so allergisch reagierst. Deswegen ersuche ich dich hiermit künftig diese scheinbar kontroverse Form der Zustimmung eher als positive Bestätigung deiner Ausführungen zu betrachten, anstatt als Bruch der Netiquette, gesetzt des Falles mir sollte ein weiteres entweichen. k?

und unter Q nur geübten Augen ersichtlich), deswegen werden immernoch GTX/GTO und ähnliche gut gehandelt. Manche müsse sich Ihre R5XX halt immer gutreden, egal womit, nur wenn es um bestmögliche BQ geht, werden alle still, da unspielbar.

Wo doch G80Q mit Ailow vergleichbar sein soll. :|

Wenn ich mir alleine die bilder in der pcgh anschaue, wo ich bei hl2 ein schönes moire muster bei ati sehe, selbst bei a.i. off und nv hq nicht. Aber hey es flimmert doch bestimmt auf der nvidia. das muss flimmern ist ja halt nvidia. Woher kommt eigentlich dein hass auf diese firma?

Komisch, dass ihr alle nicht gegen G70-Q+Opts gewettert habt. Wo doch lt. PCGH selbst G70-HQ in Riddick mehr geflimmert hat, als AIlow.


Bei ati sind sämtliche optimierungen von dir aprroved, weil sie niemanden auffallen. Komisch meinen bekannten mit gf7 ist das nie aufgefallen, das die am anfang stärker geflimmert hat. So gesehen dürften die dann ja auch nicht schlecht sein, weil es der mehrheit garnicht auffällt.

Nö. Hast du eigentlich auf den Link geklickt? Da meinte Madkiller, dass er mit seiner GTS in GTR2 nicht die gleiche BQ erreicht, wie mit ner ATi. Ist er nun auch vom ATi-Wahn befallen?


Aber klar. Es ist wohl wiedermal Zeit, für ATi-Basherei und wenn der Lolli da versucht was geradezurücken, dann wohl nur wegen seiner Fanboyambitionen.

Mal ehrlich: In Wahrheit sind die Unterschiede dermaßen gering, dass selbst renommierten Seiten sich mit Extremsituationen abmühen müssen, das Flimmern sichtbar zu machen (8xAF bei NFS-Carbon Demo Startsequenz in 1024x768 -> wers nicht kennt -> ekelhaft hat nix zu tun mit der Ingamegrafik mit AppAF/16xTreiberAF und brauchbarer Auflösung aber zeigt nunmal, dass es tatsächlich noch Unterschiede gibt)

Und solangs Spiele wie Just Cause gibt, wo man bei keinen sichtbaren BQ-Unterschieden ohne AI 16 fps hat, mit AI 25 (8xAF gar 30), finde ich AI ehrlich gesagt nicht sooo übel. NFS-Carbon ist halt das Gegenbeispiel - mies programmiert, flimmert in der einen Startsquenz immer. Selbst mit SSAA.

Ich kann das gut bei meinem MMO beobachten, wo die Bodentextur flimmert, wenn man auf High Performance geht und gar nicht flimmert wenn man HQ anwirft. Selbiges ist bei ATi zu beobachten, aber halt mit A.I. low oder high, mit off ist es weg. Dafür habe ich aber auch dann 20% weniger fps.
Also, wer weiß was er da sieht, kann es mit gegebenen Mitteln eliminieren, weil möglich. Nur ist bei ATi der framedrop größer als bei NV und das wäre natürlich marketingtechnisch kaum von Vorteil ;)

Screenshots/Savegames bitte, sonst kann man mit so ner Aussage nicht viel anfangen.

Raff
2007-09-07, 09:51:40
Die X1800 ist heute überlegen. Damals war sie es nicht.

Damals war die X1800 XT/512 der GeForce 7800 GTX/512 meist ebenbürtig.

Ich würde aber grundsätzlich G80 HQ vs. R600 AI off benchen nur um ATi dazu zu zwingen die Bildqualität unabhängig von echten Optimierungen zu behandeln. Macht nur leider keiner.

Dumm dabei ist, dass A.I. Off auf einem R600 noch immer "optimiert" ist. R5x0-Qualität wird schlicht niemals erreicht. Wobei das mal einen Nachtest mit neuen Treibern erfordert.

MfG,
Raff

Die gelbe Eule
2007-09-07, 10:28:57
Wo doch G80Q mit Ailow vergleichbar sein soll. :|


Soll und Ist sollte ein Begriff sein oder? NV zeigt im Treiber was optimiert wird, ATi bis dato nicht.

Komisch, dass ihr alle nicht gegen G70-Q+Opts gewettert habt. Wo doch lt. PCGH selbst G70-HQ in Riddick mehr geflimmert hat, als AIlow.

Aha, nun flimmert es also doch bei ATi. Dachte es würde dort nie flimmern. Kommt wohl aufs rote oder grüne Auge an wie man es sieht ...

Screenshots/Savegames bitte, sonst kann man mit so ner Aussage nicht viel anfangen.

Savegames von MMOs? Screenshots gibts wenn dann nur von einer 7600GS, hatte damals schon X1800XL und 7950GT Screens geliefert, da wurde ich müde belächelt es wäre eine bestimmte Textur die komisch aufgelöst wäre und ähnliches.


Ich habe Augen im Kopf, Geld für sämtliche Karten ausgegeben, ich war immer mit jeder auf einer Art zufrieden, nur verschweige ich mich dann nicht vor Dingen, nur um sie anderweitig schönzureden. Fakt ist, A.I. Low sieht bescheiden aus, wenn man es drauf anlegt und A.I. off ist zu lahm um es gegen HQ von NV antreten zu lassen. Erst müsste man mir in jeder Anwendung genauestes erzählen, was A.I. low dort verbessert, als das ich mir das Geflimmer geben würde. Aber genau dort verschweigt sich ATi seit Einführung und auch jeder andere der es meint zu wissen.

Hatte auch damals mal einen OGL Treiebrvergleich gemacht mit ATi Karten (findet sich bestimmt noch unter CS 1.6 im ATi Forum). Dort war auch einer dabei der die Performance brachial einbrechen ließ und erst Monate später war man wieder in diesem Bereich angekommen. Ganz easy zu erklären, man bringt eine neue Generation und kann dann jedes mal ein paar mehr % als Gewinn durch den Treiber anpreisen, ohne das sich eine Sau noch um alte Karten schert. Weil wenn Karte X nur mit Treiber Y startet, kann man kaum einen Vergleich ziehen, wie es denn vorher ausgesehen hätte.
Nicht umsonst hat man auch in NGO oder DNA alte OGL dlls verwendet, weil man sich dessen bewusst war.

Also schön auf dem Teppich bleiben und immer rekapitulieren was passiert ist, bevor man den G7X totredet.

*edit*

Und wenn Raff schon sagt, das A.I. off beim R600 sogar mit Optimierungen läuft, dann gute Nacht. Hier mogelt man sich wohl Leistung dazu, welche aufgrund der Rohpower nicht da ist.

PCGH_Raffael
2007-09-07, 10:38:10
Der Raff ;) bezieht sich auf diese Beobachtungen: http://www.pcgameshardware.de/?article_id=603118

Oft verlinkt, oft ignoriert. Genutzt wurde der Catalyst 7.5, der ja mittlerweile nicht mehr taufrisch ist.

Topic, aus gegebenem Anlass: Werft mal einen Blick auf Stalker. Einige Texturen flimmern durch ihre Shader zwar auf jeder Grafikkarte, bei einer Geforce 7 aber mit Abstand am deutlichsten. HQ ohne "Optimierungen" flimmert, die Default-Einstellung des Treibers ist unzumutbar.

MfG,
Raff

Die gelbe Eule
2007-09-07, 10:42:05
Naja was Stalker angeht wundert ja nichts mehr. Das Spiel wurde so oft verschoben, da man bestimmt auf Shaderprobleme nicht mehr achten wollte, hauptsache das Ding kommt raus. Mit dem NV Logo im Rücken ist sowas peinlich für die Devs von Stalker.

Gast
2007-09-07, 10:47:55
Naja was Stalker angeht wundert ja nichts mehr. Das Spiel wurde so oft verschoben, da man bestimmt auf Shaderprobleme nicht mehr achten wollte, hauptsache das Ding kommt raus. Mit dem NV Logo im Rücken ist sowas peinlich für die Devs von Stalker.

Bitte was? Was können die Devs von Stalker dafür, dass nV bei der GF7-Serie mit Q eine unzumutbare Bildqualität bietet und mit HQ noch immer optimiert? Also manchmal.

reunion

Die gelbe Eule
2007-09-07, 10:53:47
Das sie vielleicht im Spiel selbst prüfen können welche Optimierungen funktionieren oder nicht? Würde es immer und überall flimmern mit HQ, wäre es ein generelles NV Problem. Tut es aber nicht. Nur Stalker ist dort so extrem, liegt also am unfertigen Spiel. Lenkt trotzdem nicht vom A.I. geflimmer ab und tötet die G7X ...

Achja, was ist unzumutbar?
Ich kann auch mit High Performance spielen, da konzentriere ich mich nicht ständig auf den mittigen AF Bereich, um mich zu ärgen. Eher freue ich mich das ein paar mehr fps möglich sind, um spielbar zu bleiben. Es ist doch eher umzumutbar das es kein R600 gibt, der die Qualität einer GTX erreicht in puncto BQ und Performance und die MidRange Karten von X1950pro bei gleichem Preis versägt werden.

Mr. Lolman
2007-09-07, 11:13:53
Aha, nun flimmert es also doch bei ATi. Dachte es würde dort nie flimmern. Kommt wohl aufs rote oder grüne Auge an wie man es sieht ...

Versuch mal durch beide Augen zu sehen: Ich hab nie behauptet, dass AIlow nicht flimmert. (Wobei der Begriff wohl noch um einiges dehnbarer ist, als meine Geduld)


Und wenn Raff schon sagt, das A.I. off beim R600 sogar mit Optimierungen läuft, dann gute Nacht. Hier mogelt man sich wohl Leistung dazu, welche aufgrund der Rohpower nicht da ist.

Auch HQ läuft mit Optimierungen. ATi-AF wird/wurde optimiert, seit ATi AF anbietet. NV-AF wird spätetens seit der GF4 (!) optimiert.

Das sie vielleicht im Spiel selbst prüfen können welche Optimierungen funktionieren oder nicht? Würde es immer und überall flimmern mit HQ, wäre es ein generelles NV Problem. Tut es aber nicht. Nur Stalker ist dort so extrem, liegt also am unfertigen Spiel. Lenkt trotzdem nicht vom A.I. geflimmer ab und tötet die G7X ...

Der Flimmergrad sollte immer von den Texturen und deren LOD, abhängig sein. AFAIK hat das bisher nur NV gemacht, dass die gesamte AF-Qualität appspezifisch varieren kann. Nichtsdestotrotz: Verwendet man viele scharfe Texturen flimmerts mehr als bei unscharfen. Das hat mit Unfertigkeit nix zu tun, sondern mit Designentscheidungen.

PCGH_Raffael
2007-09-07, 11:16:46
NV-AF wird spätetens seit der GF4 (!) optimiert.

Welche sichtbaren "Optimierungen" laufen denn auf einem NV25? Dass etwa UT2004 mit neueren Treibern deutlich schneller wurde (http://3dcenter.de/artikel/geforce4_treibervergleich/index9.php), kam ohne den kleinsten Qualitätsunterschied. Jedenfalls spart erst ein NV30 mit den ersten Forcewares am trilinearen Filter, womit auch die Optik leidet. Immerhin kann man diese Einsparungen komplett deaktivieren, um wieder NV2x-Niveau zu erhalten.

MfG,
Raff

Winter[Raven]
2007-09-07, 11:16:55
Auch HQ läuft mit Optimierungen. ATi-AF wird/wurde optimiert, seit ATi AF anbietet. NV-AF wird spätetens seit der GF4 (!) optimiert.

Bitte um einen Beweis, dass unter HQ was optimiert wird... bzw. dass dort irgendwelche Optimierungen mitlaufen.

Die gelbe Eule
2007-09-07, 11:29:16
Versuch mal durch beide Augen zu sehen: Ich hab nie behauptet, dass AIlow nicht flimmert. (Wobei der Begriff wohl noch um einiges dehnbarer ist, als meine Geduld)

Wieviele ATi/NV Karten hast Du in Deinem eigenen Rechner gehabt die letzten 3 Jahre und wieviele ich? Meine Aussage stütze ich auf ca. 15 verschiedene Karten und da hält sich grün sowie rot die Waage. Also beweise mir erstmal wie und was optimiert wird und zwar so verständlich, daß der Normaluser der sich diese Karten seit Monaten gekauft hat, auch merkt wo der Unterschied ist mit vorhandenen Adleraugen. Kannst es nicht, dann halte Abstand von den Aussagen, weil sie sind dann haltlos. Vermutungen und Verschwörungen bringen keinen weiter, also Fakten Herr Lolman!

Mr. Lolman
2007-09-07, 11:29:42
Welche sichtbaren "Optimierungen" laufen denn auf einem NV25? Dass etwa UT2004 mit neueren Treibern deutlich schneller wurde, kam ohne den kleinsten Qualitätsunterschied. Jedenfalls spart erst ein NV30 mit den ersten Forcewares am trilinearen Filter, womit auch die Optik leidet. Immerhin kann man diese Einsparungen komplett deaktivieren, um wieder NV2x-Niveau zu erhalten.

MfG,
Raff

Nönö. Sichtbar ist sehr subjektiv. Dass optimiert wird, zeigen allein schon die Möglichkeiten der Steuerung von AF-Graden auf den einzelnen TS.


;5822217']Bitte um einen Beweis, dass unter HQ was optimiert wird... bzw. dass dort irgendwelche Optimierungen mitlaufen.

Es gibt kein wissenschaftlich definitive Aussage, wie Lehrbuch-AF auszusehen hat. Stattdessen wird Hr. Nyquists Idee der doppelten Abtastfrequenz von analogen Signalen, als theoretische Definition eines fehlerfreien AF herangezogen.

Das würde aber bedeuten, dass ein solche AF in keiner Situation flimmern dürfte und ein derartiges Optimum böte, dass selbst mit aktivem SSAA keine Verbesserung mehr zu erzielen wär (geht man davon aus, dass der max. sichtbare Fluchtpunkt der Testszenerie auf der Höhe von LOD-4 bzw. 16xAF wär ;))

Dass das aber nicht der Fall ist, kann jeder leicht in den mokierten "Flimmerspielen" nachvollziehen, ergo: AF wird aktuell immer optimiert

Zu sagen, es wird nicht optimiert, bloß weil man persönlich mit der BQ zufrieden ist, ist eine viel zu subjektive Aussage, deren Qualität zu stark von Erfahrungswerten und Vorlieben abhängt.



BTW: Interessant eigentlich, wie sich durch das BQ-Thema die Semantik des Wortes "Optimierung" geändert hat, oder?

Wieviele ATi/NV Karten hast Du in Deinem eigenen Rechner gehabt die letzten 3 Jahre und wieviele ich?

Dass du nen höheren HW-Verschleiss hast als ich, lässt doch keine brauchbaren Rückschlüsse auf die Qualität deiner Beobachtungen zu.

Raff
2007-09-07, 11:40:22
Nönö. Sichtbar ist sehr subjektiv. Dass optimiert wird, zeigen allein schon die Möglichkeiten der Steuerung von AF-Graden auf den einzelnen TS.

Klar ist das subjektiv. Aber wenn auch Sensibelchen keine Unterschiede sehen, dann spielt es im Grunde keine Rolle, was da im Hintergrund läuft. Du sagst ja (richtigerweise) selbst, dass der riesige Geschwindigkeitsgewinn so mancher "Optimierung" die relativ kleinen BQ-Einbußen wert ist.

Dass das aber nicht der Fall ist, kann jeder leicht in den mokierten "Flimmerspielen" nachvollziehen, ergo: AF wird aktuell immer optimiert

Ja, aber man muss schon ziemlich fiese Texturgeschütze auffahren, um einen G8x in HQ und einen R5x0 ohne A.I. zum Flimmern zu bringen. Die berühmt-berüchtigten "Flimmerspiele" (WoW, Stalker, HL2 & Co.) bringen primär die Sparfilter an ihre Grenzen.

MfG,
Raff

Die gelbe Eule
2007-09-07, 11:40:23
Verschleiß? Bisher funktionieren alle Karten die ich gekauft habe in anderen Rechnern. Ich kaufte um zu testen, nicht weil es Schrott war. Mir macht es Spaß die VGA Karte mehrmals im Jahr zu wechseln, einfach um zu wissen ob etwas gut oder schlecht ist. Du kannst Deine Beobachtung nur auf ATi stützen, wie lange hast die X1900XT schon im Rechner? Meine flog vor genau einem Jahr aus dem PC und danach kamen ca. 8 andere Karten.

Mr. Lolman
2007-09-07, 12:07:56
Klar ist das subjektiv. Aber wenn auch Sensibelchen keine Unterschiede sehen, dann spielt es im Grunde keine Rolle, was da im Hintergrund läuft. Du sagst ja (richtigerweise) selbst, dass der riesige Geschwindigkeitsgewinn so mancher "Optimierung" die relativ kleinen BQ-Einbußen wert ist.

MfG,
Raff


Das Problem ist ja die Vielfalt der ganzen Apps. Wenn AF viel schneller wird, ohne dass man BQ sieht, ist das ja mal prinzipiell gut. Die Trennung zw. sichtbaren und unsichtbaren Optimierungen ist ja deswegen schwierig, weil man nie alle Apps in allen Situationen durchtesten kann um eine 100% gültige Aussage zu bekommen. Soll heissen: Bloß weil du bei deinen Tests keine Unterschiede gesehen hast, bedeutet das nicht, dass tatsächlich nirgendwo Unterschiede zu sehen sind. Es zeigt allenfalls eine Tendenz an, was reicht um qualitative Aussagen zu tätigen aber nicht ausreicht um ein pauschales Urteil zu fällen.

zB Just Cause: In meiner Testszene gibts mit 16xAF und Aioff 16fps mit 8xAF und Ailow 30fps. Man sieht keinen Unterschied und freut sich gleichzeitig über massig Mehrperformance. In ner anderen Szene ist der fps Unterschied geringer (mehr Shaderstress) dafür ein BQ-Unterschied sichtbar.


Verschleiß? Bisher funktionieren alle Karten die ich gekauft habe in anderen Rechnern. Ich kaufte um zu testen, nicht weil es Schrott war. Mir macht es Spaß die VGA Karte mehrmals im Jahr zu wechseln, einfach um zu wissen ob etwas gut oder schlecht ist. Du kannst Deine Beobachtung nur auf ATi stützen, wie lange hast die X1900XT schon im Rechner? Meine flog vor genau einem Jahr aus dem PC und danach kamen ca. 8 andere Karten.

Ich hab G80 BQ-Videos gesehen und vertrau auf Aussagen von Raff und anderen Testern. Meine XTX hab ich seit ~1.5 Jahren im Rechner und davor hatte ich nen NV40. Dass der G70 mehr sichtbare Optimierungen haben soll als der NV40 (auch unter HQ), konnte ich nie persönlich feststellen und deswegen argumentier ich auch nie damit. Allerdings weiss ich, wielang der Unterschied zw. NV40 Q+Opts und AI kleingeredet wurde und wie gering der Unterschied zw NV40 HQ und AI ist (und jeder der bewhardware liest, die Videos von Damien Triolet kennt, oder sich gar meine gifs zu Gemüte geführt hat, weiss das auch)

Wär ich bei NV angestellt würd ich einfach mit der Retourkutsche kommen: Standardmässig könnte HQ im Treiber aktiv sein und man mit nem Marketingpaper + praktischen Beispielen die großen Testseiten mit ner Qualitätsoffensive überzeugen. Dass das NV noch nicht gemacht hat, kann mehrere Ursachen haben. u.a.:

.) Sie sind von ihrer Überlegenheit so überzeugt, dass sies garnicht notwendig haben ATi mit besseren AF in die Pfanne zu hauen.
.) Sie sehen kein marketingtechnisches Potential ein paar fps für ein paar schönere Textursamples zu opfern.


Ja, aber man muss schon ziemlich fiese Texturgeschütze auffahren, um einen G8x in HQ und einen R5x0 ohne A.I. zum Flimmern zu bringen. Die berühmt-berüchtigten "Flimmerspiele" (WoW, Stalker, HL2 & Co.) bringen primär die Sparfilter an ihre Grenzen.

MfG,
Raff

Dummerweisse sind die Grenzen fliessend. Warum freut man sich denn trotz HQ/Aioff über die schöne Texturruhe bei SSAA?
Man bräuchte einfach mal ne App, die Texturqualität in eindeutige Zahlen pressen kann. Ein BQ-Wert von zB 100% ist halt eindeutiger als ein Video, oder gar ein Screenshot.

HOT
2007-09-07, 12:08:17
;5822217']Bitte um einen Beweis, dass unter HQ was optimiert wird... bzw. dass dort irgendwelche Optimierungen mitlaufen.
AF wird immer optimiert, um brauchbare Ergebnisse zu erhalten. Ansonsten wäre es wirklich sehr sehr sehr langsam (zumindest in 16 bzw. 8 fach). Man sieht ja, wie die G4 bzw. G5 einbrechen "ohne" Optimierungen. Ob da jetzt was gemacht wurde oder nicht, ist schwer zu erraten. Wahrscheinlich ist, dass die Hersteller schon seit anbeginn von AF damit herumexperimentieren, da es leider (zumindest als Treiberfeature) eine ressourcenfressende Bruteforcemethode ist, die auch viele Teturen filtert, die nicht sichtbar sind, also bei denen AF sinnlos wäre.

Und wer ernsthaft denkt, dass das AF auf HQ im NV Treiber auf Geforce 6/7 dem AF der Geforce4/5 entspricht, der ist sowieso schief gewickelt. Mehr oder weniger intelligente Algorithmen um Texturen zu beurteilen, ob und wieviel jetzt gefiltert werden soll haben beide Hersteller. ATI nennt es nunmal A.I. Low und NV HQ. Was jetzt die "ehrlichere" Aussage ist, lass ich mal im Raum stehen :D.

The_Invisible
2007-09-07, 12:09:17
Welche sichtbaren "Optimierungen" laufen denn auf einem NV25? Dass etwa UT2004 mit neueren Treibern deutlich schneller wurde (http://3dcenter.de/artikel/geforce4_treibervergleich/index9.php), kam ohne den kleinsten Qualitätsunterschied. Jedenfalls spart erst ein NV30 mit den ersten Forcewares am trilinearen Filter, womit auch die Optik leidet. Immerhin kann man diese Einsparungen komplett deaktivieren, um wieder NV2x-Niveau zu erhalten.

MfG,
Raff

hat AF damals wirklich so viel gekostet? :eek:

hatte auch ne ti4600 aber ist mir nie aufgefallen bzw vielleicht habe ich es damals auch fast nie aktiviert.

mfg

Die gelbe Eule
2007-09-07, 12:17:14
Ich hab G80 BQ-Videos gesehen und vertrau auf Aussagen von Raff und anderen Testern. Meine XTX hab ich seit ~1.5 Jahren im Rechner und davor hatte ich nen NV40. Dass der G70 mehr sichtbare Optimierungen haben soll als der NV40 (auch unter HQ), konnte ich nie persönlich feststellen und deswegen argumentier ich auch nie damit. Allerdings weiss ich, wielang der Unterschied zw. NV40 Q+Opts und AI kleingeredet wurde und wie gering der Unterschied zw NV40 HQ und AI ist (und jeder der bewhardware liest, die Videos von Damien Triolet kennt, oder sich gar meine gifs zu Gemüte geführt hat, weiss das auch)

Wär ich bei NV angestellt würd ich einfach mit der Retourkutsche kommen: Standardmässig sollte HQ im Treiber aktiv sein und mit nem Marketingpaper + praktischen Beispielen großen Testseiten mit ner Qualitätsoffensive überzeugen. Dass das NV noch nicht gemacht hat, kann mehrere Ursachen haben. u.a.:

.) Sie sind von ihrer Überlegenheit so überzeugt, dass sies garnicht notwendig haben ATi mit besseren AF in die Pfanne zu hauen.
.) Sie sehen kein marketingtechnisches Potential ein paar fps für ein paar schönere Textursamples zu opfern.

Merkst was? Du verläßt Dich auf andere, aber selbst weißt nicht was richtig oder falsch sein könnte. Ich könnte mich auch auf andere Seiten verlassen, mache ich aber nicht, ich kaufe selbst und gehe dem Problem genauestens nach. Hätte eher was anderes von dir nach den 9/11er Posts erwartet, daß Dich nicht mit vorgegeben "Fakten" abspeisen läßt.
Du argumentierst mit Argumenten von anderen, wie läßt das persönliche Schlüsse zu? Eben gar nicht.
Von NV40 muss keiner reden, weil das war GF6 und Thema ist hier GF7.



Dummerweisse sind die Grenzen fliessend. Warum freut man sich denn trotz HQ/Aioff über die schöne Texturruhe bei SSAA?

Mit welcher Performance? Standbilder sehen immer toll aus, sind aber unspielbar.

Sonyfreak
2007-09-07, 12:26:42
Mit welcher Performance? Standbilder sehen immer toll aus, sind aber unspielbar.Je nach Spiel und Höhe des Supersamplinganteils kann man mit der Performance durchaus leben. Ich spiele zum Beispiel Civ4 mit 3x3SSAA. Damit erreiche ich eine Qualität, die mit normalen Mitteln unerreichbar ist.

mfg.

Sonyfreak

Mr. Lolman
2007-09-07, 12:29:55
Du argumentierst mit Argumenten von anderen, wie läßt das persönliche Schlüsse zu? Eben gar nicht.
Von NV40 muss keiner reden, weil das war GF6 und Thema ist hier GF7.

Mit nem Wissen, dass sich aus Erfahrung (NV40HQ vs AIlow) und bestimmten Fakten zusammensetzt (NV40HQ>=G70HQ) lässt es sich doch durchaus vernünftig argumentieren, meinst du nicht?


Mit welcher Performance? Standbilder sehen immer toll aus, sind aber unspielbar.

Siehst du, dass gleiche Problem hat man auch mit den Optimierungen. Nur im kleineren Rahmen. Die Frage ist, wo zieht man die Grenze? Was ist das optimale BQ/fps-Verhältnis? Solange ein Wert Interpretationsspielraum zulässt, kann man leider keine 100%igen Aussagen treffen.

Die gelbe Eule
2007-09-07, 12:49:28
Ne bestimmt nicht, weil NV40 != G7X, hatte auch 6800, und 2 x 6800GT. War ne ganz andere Kiste und ganz andere Treiber.

Die Grenze ist einfach zu ziehen, beste BQ NV = HQ, alles aus, beste BQ ATi = A.I. off, alles aus. Dort ist das optimale Verhältnis zwischen bezahlter BQ und Performance. Nur wenn der Regler ganz oben ist, bleibt kein Spielraum mehr für Interpretationen. Man könnte und dies oder jenes, interessiert den 500€ Kunden nicht, er möchte das bestmögliche serviert bekommen.

Raff
2007-09-07, 12:57:07
hat AF damals wirklich so viel gekostet? :eek:

hatte auch ne ti4600 aber ist mir nie aufgefallen bzw vielleicht habe ich es damals auch fast nie aktiviert.

mfg

Damals war (8x)AF wirklich unglaublich teuer. Die Benchmarks sind ja auch komplett ohne CPU-Limitierung und UT2004 ist nebenbei bemerkt ein Killertest, weil es fast nur nach Füllrate schreit.

MfG,
Raff

Mr. Lolman
2007-09-07, 13:09:20
Ne bestimmt nicht, weil NV40 != G7X, hatte auch 6800, und 2 x 6800GT. War ne ganz andere Kiste und ganz andere Treiber.
G70-AF ist bestenfalls so gut wie NV40-AF, aber nicht besser. Bis jetzt kenn ich auch keine gegenteiligen Beweise.



Die Grenze ist einfach zu ziehen, beste BQ NV = HQ, alles aus, beste BQ ATi = A.I. off, alles aus. Dort ist das optimale Verhältnis zwischen bezahlter BQ und Performance. Nur wenn der Regler ganz oben ist, bleibt kein Spielraum mehr für Interpretationen.

Nö.

1. Weil letztenendes nicht der Regler die BQ bestimmt, sondern der Treiberprogger.
2. Sollte bei IHV-übergreifenden HW-Tests die BQ primär erst möglichst vergleichbar sein, und dann erst möglichst gut. Mit AIoff sollte man allein schon deswegen nicht testen, da R600-AIoff anscheinend auch mehr auf Kosten der BQ optimiert, als G80-HQ, und das NV ggü. unfair wäre.



Man könnte und dies oder jenes, interessiert den 500€ Kunden nicht, er möchte das bestmögliche serviert bekommen.

Das hat er sich immer selbst einzustellen. AA/AF ist nunmal nicht automatisch aktiv. Wenn jemand 500€ für seine GraKas ausgibt, sollte er sich auch dementsprechend informiert haben.

LovesuckZ
2007-09-07, 13:09:22
ATI nennt es nunmal A.I. Low und NV HQ. Was jetzt die "ehrlichere" Aussage ist, lass ich mal im Raum stehen :D.

Nein, beide nennen es "adaptives Filtern".
Und das, was man bei nVidia einstellen kann, bezieht sich auf die offensichtlichen Einstellungen (Stageoptimierung, Trilinearoptimierung...).

2. Sollte die BQ primär erst vergleichbar sein, und dann erst möglich gut. Mit AIoff sollte man allein schon deswegen nicht testen, da R600 AIoff anscheinend auch mehr auf Kosten der BQ optimiert als NV HQ und das NV ggü unfair wäre.
.

:uclap:
Du sagst also, dass nVdia's "Quality" Modus vergleichbar mit dem A.I Off Modus sei? Dann haben wir doch jetzt einen fairen Vergleichszustand.

HOT
2007-09-07, 13:53:47
Ne bestimmt nicht, weil NV40 != G7X, hatte auch 6800, und 2 x 6800GT. War ne ganz andere Kiste und ganz andere Treiber.

Die Grenze ist einfach zu ziehen, beste BQ NV = HQ, alles aus, beste BQ ATi = A.I. off, alles aus. Dort ist das optimale Verhältnis zwischen bezahlter BQ und Performance. Nur wenn der Regler ganz oben ist, bleibt kein Spielraum mehr für Interpretationen. Man könnte und dies oder jenes, interessiert den 500€ Kunden nicht, er möchte das bestmögliche serviert bekommen.
Beim Release hat der G70 deutlich mehr geflimmert als der NV40. Bei heutigen Treiber wird sich da kein Unterschied mehr ergeben - die Chips sind sich zu ähnlich.

Die gelbe Eule
2007-09-07, 13:54:31
G70-AF ist bestenfalls so gut wie NV40-AF, aber nicht besser. Bis jetzt kenn ich auch keine gegenteiligen Beweise.


Kann letztendlich egal sein, weil schon Jahre her.

Nö.

1. Weil letztenendes nicht der Regler die BQ bestimmt, sondern der Treiberprogger.
2. Sollte bei IHV-übergreifenden HW-Tests die BQ primär erst möglichst vergleichbar sein, und dann erst möglichst gut. Mit AIoff sollte man allein schon deswegen nicht testen, da R600-AIoff anscheinend auch mehr auf Kosten der BQ optimiert, als G80-HQ, und das NV ggü. unfair wäre.

Unfair ist den Regeler bei ATi auf Stellung 2 zu lassen, anstatt auf 1. Für wen ist also A.I. off gedacht, könnte man doch gleich sagen A.I. low ist das beste was für können und A.I. off ganz weglaassen.

Das hat er sich immer selbst einzustellen. AA/AF ist nunmal nicht automatisch aktiv. Wenn jemand 500€ für seine GraKas ausgibt, sollte er sich auch dementsprechend informiert haben.

Dann müsste man das auch in Benchmarks deutlich machen, wird es aber nicht. Wer sich einen Ferrari kauft, möchte auch wissen was er im letzten Gang an Performance hergibt und nicht im vorletzten.

Beim Release hat der G70 deutlich mehr geflimmert als der NV40. Bei heutigen Treiber wird sich da kein Unterschied mehr ergeben - die Chips sind sich zu ähnlich.

Beim Release vielleicht, doch heutige Treiber bringen auch das Antiflimmern mit sich, es kommt ja nicht zurück. Warum also auf etwas rumreiten, daß nicht mehr existiert?

HOT
2007-09-07, 13:55:56
Nein, beide nennen es "adaptives Filtern".
Und das, was man bei nVidia einstellen kann, bezieht sich auf die offensichtlichen Einstellungen (Stageoptimierung, Trilinearoptimierung...).
[...]
Woher weisst du das so genau, was NV in welcher Situation auf HQ macht?

LovesuckZ
2007-09-07, 14:01:30
Woher weisst du das so genau, was NV in welcher Situation auf HQ macht? HQ ist definitiv nicht vergleichbar mit A.I. Off, wo pure bruteforce-AF genutzt wird (was keiner eigentlich braucht oder will, weils zu langsam ist).

Was ist "bruteforce-AF"? Beide Hersteller nennen ihre Filterung "adaptiv". Als nVidia die NV30 Karten eingeführt haben, haben sie über ihre "adaptive Filterung" gesprochen.
Und ich verstehe hier dein Problem nicht. Einerseits wird sich darüber beschwert, dass man nur doch bitte nur über die Optik gehen solle, andererseits möchte man die selben Vorraussetzungen schaffen? Es ist nunmal fakt, dass die ansiotrope Filterung auf HQ bei den G8x Karten nur noch in sehr wenigen Fällen zum Flimmern neigt. Dabei ist es egal, ob dies durch Voodoo, Erpressung von armen Menschen oder einen sehr guten Algorhytmus erfolgt.

HOT
2007-09-07, 14:03:28
[...]
Unfair ist den Regeler bei ATi auf Stellung 2 zu lassen, anstatt auf 1. Für wen ist also A.I. off gedacht, könnte man doch gleich sagen A.I. low ist das beste was für können und A.I. off ganz weglaassen.

Was genau hat die Reglerposition mit vergleichbarer BQ zu tun? Die Reglersettings und Schalterchen die der Treiber bietet bewirken das, was der Entwickler dafür vorgesehen hat. Du hast nur einige Profile für die gesamte BQ, die sich ein Entwickler ausgedacht hat. Bennennung der Regler, zusätzliche Einstellmöglichkeiten - im Prinzip gibt das dem Nutzer eine gewisse Kontrolle, die aber Dinge bewirkt, von denen der Nutzer nichts mitbekommt.

[...]

HOT
2007-09-07, 14:08:16
Was ist "bruteforce-AF"? Beide Hersteller nennen ihre Filterung "adaptiv". Als nVidia die NV30 Karten eingeführt haben, haben sie über ihre "adaptive Filterung" gesprochen.
Und ich verstehe hier dein Problem nicht. Einerseits wird sich darüber beschwert, dass man nur doch bitte nur über die Optik gehen solle, andererseits möchte man die selben Vorraussetzungen schaffen? Es ist nunmal fakt, dass die ansiotrope Filterung auf HQ bei den G8x Karten nur noch in sehr wenigen Fällen zum Flimmern neigt. Dabei ist es egal, ob dies durch Voodoo, Erpressung von armen Menschen oder einen sehr guten Algorhytmus erfolgt.
Der Filteralgorithmus in der G80 ist dennoch adaptiv, die du so schön sagst. Bei A.I. Off unterscheidet der Treiber nicht mehr, er ist eben nicht mehr adaptiv. Bei A.I. Off wird jede Textur gleichbehandelt und es gibt eine Menge Overhead beim Filtern, der nicht notwendig wäre. Flimmern kann das aber trotzdem noch, weil die Hardwareimplementierung und die generelle AF Implementierung im Treiber auch noch eine Rolle spielen können.
Das Problem bei der Geschichte ist einfach, dass BQ einfach zu subjektiv ist und auch jeder ATI bzw. NV Besitzer die Schalterchen seines Herstellers toller findet. Um was anderes gehts hier doch garnicht.
Das N40/G70 AF hat genauso Fehler wie das R580AF - in manchen Situationen ist die eine Implementation besser, an anderen die andere. Vergleichbarkeit kann man nur erreichen, wenn man beide auf maximale adaptive Qualität stellt (also HQ vs. A.I. Low) und dabei schreibt, welche Scene jetzt auf welchem Chip flimmert...

Gast
2007-09-07, 14:28:07
Was ist "bruteforce-AF"? Beide Hersteller nennen ihre Filterung "adaptiv".

AF ist per definition adaptiv und es wird immer nur soviel in die entsprechende richtung überfiltert wie es durch die texturverzerrung notwendig ist.

Gast
2007-09-07, 14:30:11
2. Sollte bei IHV-übergreifenden HW-Tests die BQ primär erst möglichst vergleichbar sein, und dann erst möglichst gut. Mit AIoff sollte man allein schon deswegen nicht testen, da R600-AIoff anscheinend auch mehr auf Kosten der BQ optimiert, als G80-HQ, und das NV ggü. unfair wäre.


wow geniale argumentation, weil hardware X sowieso nicht die BQ von vergleichshardware Y erreichen kann testen wir X gleich in einer qualitätsstufe die noch schlechter ist.

Mr. Lolman
2007-09-07, 15:26:17
AF ist per definition adaptiv und es wird immer nur soviel in die entsprechende richtung überfiltert wie es durch die texturverzerrung notwendig ist.

Nicht "wird" sondern "sollte [...] werden". Der Grad zw. "ist" und "soll" wird auch adaptiv festgelegt. Und genau auf diese Art der Adaption hat sich HOT bezogen.

wow geniale argumentation, weil hardware X sowieso nicht die BQ von vergleichshardware Y erreichen kann testen wir X gleich in einer qualitätsstufe die noch schlechter ist.

Ja natürlich. Das ist die einzige Möglichkeit, wie man halbwegs vergleichbare, IHV-übergreifende Benchmarks tätigen kann.

Gast
2007-09-07, 15:39:08
Ja natürlich. Das ist die einzige Möglichkeit, wie man halbwegs vergleichbare, IHV-übergreifende Benchmarks tätigen kann.

dann sollten wir aber am besten gleich AI-off gegen Q antreten lassen.

Mr. Lolman
2007-09-07, 15:40:12
dann sollten wir aber am besten gleich AI-off gegen Q antreten lassen.

Wieso, wenn low und Q miteinander vergleichbar sind?

Raff
2007-09-07, 15:43:04
Im Falle von R600 vs. G80 ist Off gegen Q durchaus vergleichbar ... qualitativ. Eben weil der R600 stets mit Flimmern läuft, auch bei A.I. Off.

MfG,
Raff

Mr. Lolman
2007-09-07, 15:51:57
Im Falle von R600 vs. G80 ist Off gegen Q durchaus vergleichbar ... qualitativ. Eben weil der R600 stets mit Flimmern läuft, auch bei A.I. Off.

MfG,
Raff

Ja, warum aber extra für R600 auf off schalten, wenn mit on praktisch kein Unterschied zu sehen ist und R580/600 AIlow genauso vergleichbar mit G80Q ist?

Die gelbe Eule
2007-09-07, 15:52:33
Wird das dann in Zukunft auf PCGH einfließen oder hält man sich ans übliche Prozedere Raff?

Ja, warum aber extra für R600 auf off schalten, wenn mit on praktisch kein Unterschied zu sehen ist und R580/600 AIlow genauso vergleichbar mit G80Q ist?

Unterschied vielleicht, aber es geht darum unverfälscht das Bild darzustellen. Wenn man bei einem geringen Unterschied trotzdem 10% Verlust hat, sollte man sich Gedanken machen, wo die herkommen. Viele sagen auch das G80 Q/HQ kaum Unterschiede hat, nur muss man hier die Optimierungen ausschalten, bei ATi bleiben sie immer an.

Mr. Lolman
2007-09-07, 15:55:19
Wird das dann in Zukunft auf PCGH einfließen oder hält man sich ans übliche Prozedere Raff?

Was soll einfliessen. Dass man jetzt mit off testen soll, nur weils ATi kaputtgecheatet hat? Wo soll da der Sinn dahinter sein?

Raff
2007-09-07, 15:55:21
Ja, warum aber extra für R600 auf off schalten, wenn mit on praktisch kein Unterschied zu sehen ist und R580/600 AIlow genauso vergleichbar mit G80Q ist?

Gar nicht, hier ergibt A.I. Low Sinn. Es bleibt aber qualitativ unfair, wenn man einen G80 nicht mit Quality (Treiberdefault) bencht. Die beiden haben's wieder mal geschafft, dass die maximal erreichbare BQ nicht vergleichbar ist.

MfG,
Raff

Die gelbe Eule
2007-09-07, 15:56:12
Was soll einfliessen. Dass man jetzt mit off testen soll, nur weils ATi kaputtgecheatet hat? Wo soll da der Sinn dahinter sein?

Das man es jedem verklickert das dort nicht mehr beste BQ hinter steckt.

Mr. Lolman
2007-09-07, 15:57:38
Unterschied vielleicht, aber es geht darum unverfälscht das Bild darzustellen. Wenn man bei einem geringen Unterschied trotzdem 10% Verlust hat, sollte man sich Gedanken machen, wo die herkommen. Viele sagen auch das G80 Q/HQ kaum Unterschiede hat, nur muss man hier die Optimierungen ausschalten, bei ATi bleiben sie immer an.

Sag mal kapierst du es echt nicht? Nur weil dir NV die Möglichkeit gibt an mehr Buttons und Schiebereglern herumzudrücken, heisst das nicht, dass da im Hintergrund nix mehr rennt. Nochmal: Egal wie stark der G80 ist, ein komplett 'unoptimiertes' AF wär VIEL langsamer, als das was NV aktuell mit HQ anbietet.

Gar nicht, hier ergibt A.I. Low Sinn. Es bleibt aber qualitativ unfair, wenn man einen G80 nicht mit Quality (Treiberdefault) bencht.


Das ist aber auch hinlänglich bekannt, denk ich.

Das man es jedem verklickert das dort nicht mehr beste BQ hinter steckt.

Wie willst du das machen? Zuerst Benchmarks mit AIoff anbieten, dann erklären, dass das im Gegensatz zu NVQ nichtmal die defaulteinstellung ist und gleichzeitig einräumen, dass die Benchmarks ohnehin nicht vergleichbar sind, weil man gleichzeitig auch die 'guten' Optimierungen deaktiviert hat.

Außerdem hat ATis AIlow auch ggü G80 HQ seine Vorteile: Negatives Texture-LOD funzt besser => Vorteil bei div. Autorennspielen.


Imo ist low vs Q am transparentesten (defaulteinstellung), fairsten und ehesten vergleichbar.

Die gelbe Eule
2007-09-07, 16:03:31
Das R600 AF bei ATi ist schlechter als das G80 AF, was meinst Du wie echtes AF bei ATi laufen würde? Ich nehme lieber 2 extra Schalter zur Hand, wo ich die Wirkung sehe, anstatt mir vorschreiben zu lassen, A.I. low ist das beste, vergiss was die anderen Eisntellungen machen. Könnte man gleich den ganzen Mist wieder abschaffen und es A.I. nennen, dann kann man da rumoptimieren wie man Bock hat. Rückschritt für den Kunden, vielleicht kapierst es auch mal. aber halt, Deine X1900XT muss ja nur toll aussehen, weil was anderes befeuert Deinen PC eh nicht, sonst wäre der X2900XT längst drin.

desert
2007-09-07, 16:13:48
machen wir uns nichts vor lolli.

Wenn die situation verdreht wäre, würdest du dagegen sturm laufen, das nvidia dann nur mit low gebencht wird und nicht mit off, weil du ja nur die beste bq willst.

Raff
2007-09-07, 16:14:20
Imo ist low vs Q am transparentesten (defaulteinstellung), fairsten und ehesten vergleichbar.

Da ACKe ich zähneknirschend. Stimmt, mir wär's aber lieber, wenn Ati/AMD die "Cheats" beim R600-A.I.-Off rausflexen würden und damit wieder das hohe R5x0-Niveau brächten. Das werden wir aber wohl nur sehen, wenn die nächste GPU 32 TMUs hat ...

Mal abgesehen von der Tatsache, dass kein 8800-Nutzer, der sich auskennt, die BQ auf Quality lässt ... wie man's auch macht, irgendwo beißt sich was.

MfG,
Raff

Gast
2007-09-07, 16:17:51
machen wir uns nichts vor lolli.

Wenn die situation verdreht wäre, würdest du dagegen sturm laufen, das nvidia dann nur mit low gebencht wird und nicht mit off, weil du ja nur die beste bq willst.

was für eine situation?

die diskussion geht um vergleichbarkeit (die ist bei AI low und Q ca. gegeben!) und nicht um irgendwelche benchmark ergebnisse! o.O

wäre es bei HQ und AI off ebenfalls noch gegeben wäre doch alles in butter...ist es beim G80 und R600 momentan aber leider nicht.
davon kann man halten was man will...es ist dennoch kein grund settings gegeinenander zu benchen die optisch schlicht nicht vergleichbar sind! egal wie die ergebnisse dabei ausfallen...

Gast
2007-09-07, 16:22:48
anmerkung...mir schmeckt das umschwenken ATIs bezüglich AI off auch überhaupt nicht!
der modus war auf dem r5xx genau das was er sein sollte....hoffentlich wirds mit dem refresh wieder besser.

in dem zusammenhang muss ich sagen das mir eine vergleichbare option bei NV einfach fehlt. etwas auszuschalten bedeutet für mich das es auch ausnahmslos aus zu sein hat...so wie es bei den X19xx geschieht...und nicht die etwas freizügigere interpretation ala HQ

HOT
2007-09-07, 16:35:34
Gar nicht, hier ergibt A.I. Low Sinn. Es bleibt aber qualitativ unfair, wenn man einen G80 nicht mit Quality (Treiberdefault) bencht. Die beiden haben's wieder mal geschafft, dass die maximal erreichbare BQ nicht vergleichbar ist.

MfG,
Raff
Da gebe ich dir absolut recht. Aber die G7 Generation gehört HQ gebencht.

Mr. Lolman
2007-09-07, 16:36:17
Das R600 AF bei ATi ist schlechter als das G80 AF, was meinst Du wie echtes AF bei ATi laufen würde?
Sicher nicht besser als bei NV. ;)
Deine X1900XT muss ja nur toll aussehen, weil was anderes befeuert Deinen PC eh nicht, sonst wäre der X2900XT längst drin.
Hä? Muss man das verstehen? BTW: Ich hab ne XTX.

machen wir uns nichts vor lolli.

Wenn die situation verdreht wäre, würdest du dagegen sturm laufen, das nvidia dann nur mit low gebencht wird und nicht mit off, weil du ja nur die beste bq willst.

Mach dir bitte nix vor und such erstmal die Post raus, wo ich das behaupte. Ich will primär vergleichbare BQ und nicht die krampfhaft Beste. Imo ists sinnfrei als Redakteur gegen AF-Optimierungen zu wettern und privat dann trotzdem optimiert zu spielen, weils praktisch eh nicht stört und die fps eigentlich ja auch wichtig sind.


Da ACKe ich zähneknirschend. Stimmt, mir wär's aber lieber, wenn Ati/AMD die "Cheats" beim R600-A.I.-Off rausflexen würden und damit wieder das hohe R5x0-Niveau brächten. Das werden wir aber wohl nur sehen, wenn die nächste GPU 32 TMUs hat ...

Mal abgesehen von der Tatsache, dass kein 8800-Nutzer, der sich auskennt, die BQ auf Quality lässt ... wie man's auch macht, irgendwo beißt sich was.

MfG,
Raff

Beim R580 was die AI-BQ auch noch ok. Warum wird immernoch mit 4xAA gebencht, aber das 16xdefaultAF reicht plötzlich nicht mehr. Gutes AF ist fucking teuer, deswegen hängen wir auch immernoch bei 16xAF und haben bei Rennspielen LOD-Trixereien (wie schön, dass er imo eindeutig vorhandene Vorteil des ATI-AF von allen so konsquent ignoriert wird ;))

Warum bietet denn kaum ein TWIMTIBP-Spiel Ingame-Hybridmodisettings. Warum wird bei Spielen Ingame nur ein ungefähres 4xAF Äquivalent angeboten. Wohl nicht weil man uns quälen will, sondern weil einfach das Verhältnis zw. BQ und Performance irgendwann ungünstig wird. Und der Markt besteht halt nicht allein aus GTX-Usern sondern auch zu nem großen Teil aus Leuten die gerne gute BQ bei brauchbaren fps haben.

Würdest DU Just Cause mit AIoff zocken? Wohl kaum. Ist ATi wegen ihrer Filtertrixereien zu verdammen oder sollte man sich eher freuen, dass die BQ (zumindest in den Defaultsettings) mit der Konkurrenz vergleichbar ist und man halt 25 (bis 30) optimierte statt 16 unoptimierten fps hat.

EDIT: Außerdem gehts MIR wie gesagt primär darum, dass die BQ möglichst vergleichbar getestet wird. Dass sich die Defaultsettings so mittlerweile ähneln ist ne gute Entwicklung. Soll die Standard-BQ insgesamt ne Stufe angehoben werden, muss ein IHV halt den Sprung wagen und per default ne bessere BQ anbieten. Dann wär der andere IHV im Zugzwang. NV könnte das imo ruhig machen, dank der Füllratenvorteile die sie im Moment haben. Hinsichtlich dessen würden mit auch NVs aktuell Benchguides interesssieren. ;)




@die ganzen Kontraschreier: Fasst euch mal an die Nase und überlegt euch, wie wurscht euch das AreaAF war, als es NV noch nicht gehabt hat. Von euch hätte damals eigentlich niemand nen G70 betreiben dürfen, so wie ihr euch aktuell alle aufführt. Aber nö, da gabs ja ganz andere Prioritäten. ;)

BTW: Jede Seite die mit LOD-Clamp bencht, bevorteilt NV eigentlich, da ein negatives LOD sich auf die Texellast auswirkt. Betrachtet es mal von der Seite.

BTW2: Viel interessanter als die ewige BQ-Diskussion find ich Dinge, wie, dass es möglich ist, am Bildschirm Grafikfehler (Polygonflackern) zu haben, während der Screenshot ein einwandfreies Bild zeigt. Das riecht imo noch viel übler und war vor kurzem ein Problem eines Users im Forum.

HOT
2007-09-07, 16:43:00
machen wir uns nichts vor lolli.

Wenn die situation verdreht wäre, würdest du dagegen sturm laufen, das nvidia dann nur mit low gebencht wird und nicht mit off, weil du ja nur die beste bq willst.
Tolles Posting ;) gehört eigentlich sofort getrasht... Es scheint echt schwer zu verstehen zu sein, dass sich im Prinzip doch fast alle einig über den besten Kompromiss sind (A.I. Low ist ein Muss (A.I. off ist ein Experimentierschalter ohne brauchbare Funktion), G8 muss auf Quality stehen, G7 auf HQ). Aber es muss noch schwerer zu verstehen sein, dass die Schalterbezeichnungen im Prinzip total irrelevant sind - entscheidend ist, was hinter diesen Einstellungen passiert. A.I. Off schaltet alle Optimierungen bezüglich der Texturbehandlung ab. Das ist ungefähr so, als komprimierte man eine MP3 mit allen Tönen. Dann ist die MP3 16MB statt 3MB gross aber man hört dennoch dasselbe. Tolle Lösung. Die R600 neigt in gewissen Situationen einfach zum Flimmern, genau die die R5xx Chips und die G70 Chips. Mit der G80 hat sich die Situation deutlich verbessert - aber nicht weil man weniger optimiert und genau das ist der spüringende Punkt bei der Sache.

Coda
2007-09-07, 16:43:41
Warum bietet denn kaum ein TWIMTIBP-Spiel Ingame-Hybridmodisettings.
Weil man das aus der Applikation raus nicht anfordern kann.

Imo ist low vs Q am transparentesten (defaulteinstellung), fairsten und ehesten vergleichbar.
Nein. Am fairesten wäre G80 HQ gegen R600 A.I. off mit applikationsspezifischen Optimierungen. Dazu sollte man ATI nötigen.

Das ist einfach ein Unding. Man kauft sich nicht eine 330€-Karte um dann Kompromisse bei der Bildqualität eingehen zu müssen.

Gast
2007-09-07, 16:45:05
@die ganzen Kontraschreier: Fasst euch mal an die Nase und überlegt euch, wie wurscht euch das AreaAF war, als es NV noch nicht gehabt hat. Von euch hätte damals eigentlich niemand nen G70 betreiben dürfen, so wie ihr euch aktuell alle aufführt. Aber nö, da gabs ja ganz andere Prioritäten. ;)


nein war es nicht im geringsten, alleine deshalb hätte ich keine geforce mehr gekauft sobald der R5xx im handel war. das blöde war halt dass ich damals noch ne 6800GT drinnen hatte (und ati damals nix wirklich besseres hatte) und ich nur alle 2 generationen aufrüste. alle meine bekannten und verwanden die sich allerdings seitdem eine grafikkarte gekauft haben, haben das mit diversen radeonmodellen gemacht (auf mein anraten)


BTW: Jede Seite die mit LOD-Clamp bencht, bevorteilt NV eigentlich, da ein negatives LOD sich auf die Texellast auswirkt. Betrachtet es mal von der Seite.

nein, die texellast ist identisch, lediglich die hitrate im texturcache sinkt. damit sich das nennenswert auf die performance auswirkt brauchst du aber schon ein LOD von -3, ich glaub das tut uns kein spieleentwickler an ;)

es wäre außerdem trotzdem gut mit Clamp zu testen, da dann ATI einen anreiz hat diesen äußerst nützlichen schalter ebenfalls im treiber zu integrieren.

Mr. Lolman
2007-09-07, 16:45:45
Weil man das aus der Applikation raus nicht anfordern kann.

Schade eigentlich.

HOT
2007-09-07, 16:47:04
Weil man das aus der Applikation raus nicht anfordern kann.
Außerdem hat das Werbe-Programm (des IHV), mit dem das Spiel vermarktet wird, rein garnichts mit der Technik zu tun, die im Spiel verwendet wird. Optimiert wird sowieso auf beide Hersteller. Die Marke TWIMTIBP ist nichts wert - rein garnichts. Das ist ein Stück nutzlose Werbung beim Spielstart, das wars.

Coda
2007-09-07, 16:48:15
Natürlich hat TWIMTBP nichts mit dem Programm zu tun. Das ist nur das Totschlagargument schlechthin, wenn einem nichts besseres mehr einfällt.

Gast
2007-09-07, 16:48:24
Beim R580 was die AI-BQ auch noch ok.

nein war sie nicht, AI-off war allerdings ok, was beim R600 anscheinend nicht mehr der fall ist.

zur ATI-verteidigung muss man allerdings sagen dass NV vor dem G80 auch nicht wirklich besser war.

es kann auch nur so laufen dass man bei dem IHV der die schlechtere BQ bringt diese auf das maximal erreichbare stellt und bei den konkurrenten danach ein möglichst vergleichbares ergebnis zu finden versucht, und nicht umgekehrt, dass man bei dem IHV der eh schon die schlechtere BQ hat diese noch weiter verschlechtert.

HOT
2007-09-07, 16:48:25
Weil man das aus der Applikation raus nicht anfordern kann.


Nein. Am fairesten wäre G80 HQ gegen R600 A.I. off mit applikationsspezifischen Optimierungen. [...]
Ich glaub, es ist zeit es aufzugeben - es scheint einfach zu schwer zu vermitteln zu sein oder man redet mit Mauern... Vielleicht sollte ATI den A.I. off schalter einfach wieder aus dem Catalyst herausnehmen - dann würd auch nicht dauernd so eine Dummschwätzerei darüber abgehalten werden und wir hätten einen Status Quo.

HOT
2007-09-07, 16:49:11
Natürlich hat TWIMTBP nichts mit dem Programm zu tun. Das ist nur das Totschlagargument schlechthin, wenn einem nichts besseres mehr einfällt.
Ich habs ergänzt... Lesen - Verstehen...

Gast
2007-09-07, 16:50:46
Weil man das aus der Applikation raus nicht anfordern kann.



zumindest unter OGL war es bis G7x möglich, dass die applikation 8xS und 16xS anfordert.

Mr. Lolman
2007-09-07, 16:51:18
Weil man das aus der Applikation raus nicht anfordern kann.

Schade eigentlich. Andererseits könnte man das Downsampling auch manuell machen.

die hitrate im texturcache sinkt. damit sich das nennenswert auf die performance auswirkt brauchst du aber schon ein LOD von -3

Hab ich bei SS2 anders in Erinnerung. Werds mir aber nochmal ansehen.


es wäre außerdem trotzdem gut mit Clamp zu testen, da dann ATI einen anreiz hat diesen äußerst nützlichen schalter ebenfalls im treiber zu integrieren.

Der Schalter bringt kaum was. Ich hatte auf ner ATi Karte nie das Bedürfnis alle Texturen auf 0.0 zu clampen, sondern hab mich eher gefreut, dass in den paar Spielesituationen wo negaitves LOD sinn macht und deswegen auch eingesetzt wird, sich das Flimmern in Grenzen hält.

Natürlich hat TWIMTBP nichts mit dem Programm zu tun. Das ist nur das Totschlagargument schlechthin, wenn einem nichts besseres mehr einfällt.

Blödsinn. TWIMTBP hab ich nur Stellvertretend für Spiele erwähnt, deren Progger in engem Kontakt mit nem IHV stehen. (auch wenns vll nicht ganz korrekt war. sry)

Die gelbe Eule
2007-09-07, 16:52:43
Das ist einfach ein Unding. Man kauft sich nicht eine 330€-Karte um dann Kompromisse bei der Bildqualität eingehen zu müssen.

Die Kunden haben den Kompromiss gemacht und die 2900er verschmäht. Warum auch etwas kaufen, das es schon seit Monaten von NV gibt und besser läuft fürs gleiche Geld?

Gast
2007-09-07, 16:54:50
Der Schalter bringt kaum was. Ich hatte auf ner ATi Karte nie das Bedürfnis alle Texturen auf 0.0 zu clampen, sondern hab mich eher gefreut, dass in den paar Spielesituationen wo negaitves LOD sinn macht und deswegen auch eingesetzt wird, sich das Flimmern in Grenzen hält.
Das ist ja das gute an einem Schalter ggü. einer Bevormundung. Du hast die Wahl und niemand braucht sich zu streiten, wessen Meinung maßgeblich ist, da jeder nach seinem Geschmack entscheiden kann.

Coda
2007-09-07, 16:55:14
zumindest unter OGL war es bis G7x möglich, dass die applikation 8xS und 16xS anfordert.
Ja ist korrekt, ich ging von Direct3D 9 und 10 aus. Und soweit ich weiß gibt's auch kein OpenGL-Spiel dass das täte.

HOT
2007-09-07, 16:55:27
Die Kunden haben den Kompromiss gemacht und die 2900er verschmäht. Warum auch etwas kaufen, das es schon seit Monaten von NV gibt und besser läuft fürs gleiche Geld?
Wer sagt, dass die Karte schlecht geht?

Coda
2007-09-07, 16:57:15
Die Steam-Statistik zeigt 50.000 GeForce 8800 und 1.000 Radeon HD2900.

50:1 ist schon relativ eindeutig, selbst wenn die Statistik irgendwie verfälscht wäre.

Gast
2007-09-07, 16:58:07
(...)

Nein. Am fairesten wäre G80 HQ gegen R600 A.I. off mit applikationsspezifischen Optimierungen. Dazu sollte man ATI nötigen.
(...)

fairness folgt eigentlich dem prinzip der gleichbehandlung!
es wäre nicht am fairsten HQ gegen einen ominösen noch zu programmierenden AI modus zu benchen der bis auf "sinnvolle" optimierungen die BQ unangetastet lässt...es wäre lediglich wünschenswert wenn ATi in zukunft einen derartigen modus anbietet...

und ja ich würde mir auch wünschen wenn AI low das wird was HQ auf dem G80 ist...und off einfach das macht was es auf dem R5xx tut...nämlich alle treiberseitigen tweaks ausschzuschalten.

Raff
2007-09-07, 16:59:20
Ich glaub, es ist zeit es aufzugeben - es scheint einfach zu schwer zu vermitteln zu sein oder man redet mit Mauern... Vielleicht sollte ATI den A.I. off schalter einfach wieder aus dem Catalyst herausnehmen - dann würd auch nicht dauernd so eine Dummschwätzerei darüber abgehalten werden und wir hätten einen Status Quo.

Der A.I.-Schalter wird beim R600 sowieso ad absurdum geführt. Alle drei Einstellungen sehen mehr oder minder scheiße aus und unterscheiden sich Fps-technisch konsequenterweise kaum ...

MfG,
Raff

Coda
2007-09-07, 17:01:28
fairness folgt eigentlich dem prinzip der gleichbehandlung!
es wäre nicht am fairsten HQ gegen einen ominösen noch zu programmierenden AI modus zu benchen der bis auf "sinnvolle" optimierungen die BQ unangetastet lässt...es wäre lediglich wünschenswert wenn ATi in zukunft einen derartigen modus anbietet...
Exakt das wollte ich damit ausdrücken, deshalb das "mit applikationsspezifischen Optimierungen". War das so undeutlich?

mapel110
2007-09-07, 17:02:13
Der A.I.-Schalter wird beim R600 sowieso ad absurdum geführt. Alle drei Einstellungen sehen mehr oder minder scheiße aus und unterscheiden sich Fps-technisch konsequenterweise kaum ...

MfG,
Raff
Es dürfte wohl auch so sein, dass ATI derzeit einfach jede Optimierung braucht. Und da können sie nicht noch diese sortiert im Treiber ablegen.
195 Mio Umsatz nur bei der Grafiksparte von AMD im letzten Quartal ist ja sehr dürftig. Kein Wunder, dass da die Köpfe rollen.

Mr. Lolman
2007-09-07, 17:07:18
Das ist ja das gute an einem Schalter ggü. einer Bevormundung. Du hast die Wahl und niemand braucht sich zu streiten, wessen Meinung maßgeblich ist, da jeder nach seinem Geschmack entscheiden kann.

Ja, da hat NV halt mal wieder aus der Not ne Tugend gemacht.

Gast
2007-09-07, 17:14:20
Ja ist korrekt, ich ging von Direct3D 9 und 10 aus. Und soweit ich weiß gibt's auch kein OpenGL-Spiel dass das täte.

doom3 auf jeden fall, wahrscheinlich auch andere spiele mit der engine.

Gast
2007-09-07, 17:14:33
Ja, da hat NV halt mal wieder aus der Not ne Tugend gemacht.
Musst du zwanghaft alles schlechtreden, nur weil's von NV kommt?

Mr. Lolman
2007-09-07, 17:18:08
Musst du zwanghaft alles schlechtreden, nur weil's von NV kommt?

Tu ich das? Tugenden zu haben ist doch positiv.

Gast
2007-09-07, 17:21:10
Tu ich das? Tugenden zu haben ist doch positiv.
Ey, komm. Weiß doch jeder, wie's gemeint war.

Mr. Lolman
2007-09-07, 17:24:30
Ey, komm. Weiß doch jeder, wie's gemeint war.

Ich sag nur, wie es ist. Aber drücken wirs halt anders aus: Was war vorher, LOD-Clamp, oder unzufriedene User?

aths
2007-09-07, 17:56:19
Das hat etwas mit beiden zu tun.

ATI entwickelt nur zukunftssichere Technik und pflegt diese mit neuen Treibern.
TruForm?

NVIDIA entwickelt nur Techniken, die aktuell "gut" (von BQ und Stromverbracuh abgesehen) sind, und vernachlässigt und lässt diese verdrecken.?? Seit NV40 ist der Stromverbrauch bezogen auf die Performance sehr niedrig, die BQ ist seit der GF8-Serie besser als was ATI aktuell im Angebot hat.

aths
2007-09-07, 17:59:05
Nein hat es nicht. Die GeForce-6-Treiber verwenden den selben Shadercompiler wie den der GeForce 7. Es gibt nichts was da vernachlässigt wurde.

Ich hab's im anderen Thread schon geschrieben. CineFX hat einfach das grundlegende Problem nur eine Pipeline für Tex und ALU zu haben.Das ist nicht das grundlegende Problem. Sondern dass es zu wenig Temp-Register gibt. GF6 und 7 nehmen kaum denselben Shader-Optimizer wenn es bei der 7 noch ein zusätzliches ADD gibt.

Blaire
2007-09-07, 18:53:21
@die ganzen Kontraschreier: Fasst euch mal an die Nase und überlegt euch, wie wurscht euch das AreaAF war, als es NV noch nicht gehabt hat. Von euch hätte damals eigentlich niemand nen G70 betreiben dürfen, so wie ihr euch aktuell alle aufführt. Aber nö, da gabs ja ganz andere Prioritäten. ;)

Ich hab damals schon gesagt das Hybriden einen höheren Stellenwert hatten als wuAF. Eben weil es auf Ati X1900 trotzdem flimmerte, während man bei NV wenigstens die Möglichkeit bekam es zu bekämpfen und dadurch oft ein besseres Bild-Ergebnis geliefert bekam als auf Ati Karten. Auch ohne wuAF!
Mit dem G80 wurde nun alles richtig gemacht nun hat man die Wahl zwischen Beidem aber das ist immer noch nicht gut genug für dich eben weil es nicht von Ati kommt!?!

Coda
2007-09-07, 18:55:10
Das ist nicht das grundlegende Problem. Sondern dass es zu wenig Temp-Register gibt. GF6 und 7 nehmen kaum denselben Shader-Optimizer wenn es bei der 7 noch ein zusätzliches ADD gibt.
Das ist sehr wohl das grundlegende Problem. Die wenigen Temp-Register verschlimmern das ganze nur noch.

Das MADD bei GeForce 7 ist primär dazu da, dass der Compiler es etwas einfacher hat. Beide auszunützen ist kaum möglich durch den enormen Registerdruck.

Gast
2007-09-07, 19:50:41
Ich hab damals schon gesagt das Hybriden einen höheren Stellenwert hatten als wuAF. Eben weil es auf Ati X1900 trotzdem flimmerte, während man bei NV wenigstens die Möglichkeit bekam es zu bekämpfen und dadurch oft ein besseres Bild-Ergebnis geliefert bekam als auf Ati Karten. Auch ohne wuAF!
Mit dem G80 wurde nun alles richtig gemacht nun hat man die Wahl zwischen Beidem aber das ist immer noch nicht gut genug für dich eben weil es nicht von Ati kommt!?!
Naja, man hat die Wahl vielleicht mit Sli. Schon SSAA auf einer Achse halbiert ja (fast) die Framerate auf einen Schlag. Das wär schon für meine GTS bei einigen neuen Games zuviel. Soviel Power hat die auch wieder nicht. Ne Ultra oder GTX, am besten 2 sind da die bessere Wahl, aber für ne GTS ist das in aktuellen Spielen nix.

Valixul Gast
2007-09-07, 20:16:22
Hätte nicht gedacht das ich hier so eine Diskussion starte.

Blaire
2007-09-07, 20:39:39
Naja, man hat die Wahl vielleicht mit Sli. Schon SSAA auf einer Achse halbiert ja (fast) die Framerate auf einen Schlag. Das wär schon für meine GTS bei einigen neuen Games zuviel. Soviel Power hat die auch wieder nicht. Ne Ultra oder GTX, am besten 2 sind da die bessere Wahl, aber für ne GTS ist das in aktuellen Spielen nix.

Ich gehe natürlich von aktuellen HighEnd Karten aus.
Damalige Games ala Battlefield2, GTA:SA,GTR/GTL,HL2,Doom3,Quake4,NFS:Most Wanted hatten bei 7900GTX@SLI Reserven die man sinnvoll in bildverschönernde Hybriden stecken konnte. Für neuere Games braucht es natürlich wieder GTS/GTX/Ultra Karten, aber lieber so als würde man sich mit reinen Multisampling Verfahren abfinden müssen.
Ein aktuelles Beispiel Medal of Honor Airborne Demo mit 8xS schaut extrem nice aus, während 8xMSAA grausam aussieht und flimmert und letztlich die selbe Leistung frisst.

Schrotti
2007-09-07, 21:23:16
Nach den ersten Postings, verstehe ich sowieso nicht warum der Thread noch offen ist.

Es ist doch mehr als offensichtlich das Valixul nur ein ATI Fanboy ist.

aths
2007-09-07, 21:52:50
Das ist sehr wohl das grundlegende Problem. Die wenigen Temp-Register verschlimmern das ganze nur noch.Die wenigen Temp-Register sind das Hauptproblem, da die ALU-Leistung (bei FP32) zwar auf dem Papier steht aber nur selten ausgenutzt werden kann. Mit genügend Registern hätte man auch die Textursample-Latenz besser verstecken können.

Das MADD bei GeForce 7 ist primär dazu da, dass der Compiler es etwas einfacher hat. Beide auszunützen ist kaum möglich durch den enormen Registerdruck.Dazu muss der Compiler trotzdem modifiziert werden.



Nach den ersten Postings, verstehe ich sowieso nicht warum der Thread noch offen ist.

Es ist doch mehr als offensichtlich das Valixul nur ein ATI Fanboy ist.Ganz so krass sehe ich das nicht. Es ist doch fakt, dass bei modernen Spielen die Highend-SM3-Serie von ATI der von NV leistungsmäßig oft überlegen ist. Als die Ur-Radeon (mit DDR-Speicher) gegen die GeForce 2 antrat, wurde auch zunächst meistens die GeForce als bessere Wahl bezeichnet, erst später wurde der Allgemeinheit klar, dass die Radeon bei moderneren Spielen bzw. beim 32-Bit-Rendering der GeForce 2 überlegen ist.

_DrillSarge]I[
2007-09-07, 21:58:18
Ganz so krass sehe ich das nicht. Es ist doch fakt, dass bei modernen Spielen die Highend-SM3-Serie von ATI der von NV leistungsmäßig oft überlegen ist. Als die Ur-Radeon (mit DDR-Speicher) gegen die GeForce 2 antrat, wurde auch zunächst meistens die GeForce als bessere Wahl bezeichnet, erst später wurde der Allgemeinheit klar, dass die Radeon bei moderneren Spielen bzw. beim 32-Bit-Rendering der GeForce 2 überlegen ist.

fanboy-futter ;). hoffe momentan, dass es bei der hd2900xt genauso wird. sonst wird dies mein erster ati-fehlkauf.
aber ati hatte ja immer schon mit den treibern zu kämpfen und erst sehr spät mehr rausgeholt. meine 8500 (leicht oc)hat in manchen spielen auch ne gf4 überholt.

Demirug
2007-09-07, 22:01:59
Die wenigen Temp-Register sind das Hauptproblem, da die ALU-Leistung (bei FP32) zwar auf dem Papier steht aber nur selten ausgenutzt werden kann. Mit genügend Registern hätte man auch die Textursample-Latenz besser verstecken können.

Die Sample (eigentlich die Filter) Latenz kann nicht versteckt werden weil die gesamte Pipeline synchron arbeiten muss. Das ist ein Grundüble des Rampage design. Reichen die Register nicht müssen zusätzlich Leertakte eingefügt werden.

Gast
2007-09-07, 22:13:23
Achtung flamebait: Ich frage mich grad, wie sich Treiberoptimierungen und Bildqualität entwickelt hätten, wenn Rampage von 3dfx verkauft worden wäre. Und vor allem: Wer dann heute wie darüber urteilen würde.

aths
2007-09-07, 22:24:05
Der Filteralgorithmus in der G80 ist dennoch adaptiv, die du so schön sagst.Jeder implementierte anisotrope Filter ist adaptiv.


Weil man das aus der Applikation raus nicht anfordern kann.Wenn ich mich recht entsinne stellt Doom 3 auch bei GF6/7 8x AA zur Auswahl.

aths
2007-09-07, 22:27:43
I[;5824266']fanboy-futter ;). hoffe momentan, dass es bei der hd2900xt genauso wird. sonst wird dies mein erster ati-fehlkauf.
aber ati hatte ja immer schon mit den treibern zu kämpfen und erst sehr spät mehr rausgeholt. meine 8500 (leicht oc)hat in manchen spielen auch ne gf4 überholt.Mir sieht es nicht danach aus als würde die 2900 die 8800 in der Mehrzeit zukünftiger Spiele schlagen können. Aber wen interessiert das – wenn die Masse der verkauften D3D10-er Karten wie immer aus der zweiten Generation stammen. Die eigentliche Schlacht tragen meiner Einschätzung nach 2900- und 8800-er Nachfolger aus.

Die Sample (eigentlich die Filter) Latenz kann nicht versteckt werden weil die gesamte Pipeline synchron arbeiten muss. Das ist ein Grundüble des Rampage design. Reichen die Register nicht müssen zusätzlich Leertakte eingefügt werden.Kirk stritt mir gegenüber ab, dass hier ein Rampage-Design zum tragen komme. TMU und ALU seien nicht "interlocked". Auch wenn die Batch-Abarbeitung synchron läuft, kann die TMU doch im Hintergrund filtern, und später ihre Daten wieder an derselben Stelle einspeisen. Das wird nach meiner Vermutung wegen dem knappen Registerspeicher nicht gemacht. Soweit ich weiß ist das Filtern eines bilinearen Samples vollständig versteckt. Wenn die Register nicht reichen, kommen "Blasen" in die Pipe, ja.

mapel110
2007-09-07, 22:27:56
Wenn ich mich recht entsinne stellt Doom 3 auch bei GF6/7 8x AA zur Auswahl.
iirc nennt sichs da aber wie bei ATI auch 6xAA ^^
Also so richtig implementiert isses nicht.

Gast
2007-09-07, 22:32:50
Toll jetzt geht es hier schon um die Bildqualität?Ich bitte euch bleibt bitte bei den tatsachen und fangt jetzt nicht wie so oft an über andere Sachen zu dikutieren.Das die Balkenlänge bei der 7900 nicht mehr ganz so toll ist sollte jeden klar sein.Wieder ein Thread der von eientlichen thema sowas von abweicht das man wieder nur denn Kopf schüteln kann....

Man sollte sich einfach aktuelle Benchmarks angucken,da schneidet die 7900 einfach nicht gut ab auch nicht mit Q...Die Bildqualität Geschichte ist total irrelvant,bei heutigen Spielen wird sowieso nur auf Q gezockt wegen der Performance.Also gleichstand für die meisten.

_DrillSarge]I[
2007-09-07, 22:33:56
Mir sieht es nicht so aus als würde die 2900 die 8800 in der Mehrzeit zukünftiger Spiele schlagen können. Aber wen interessiert das – wenn die Masse der verkauften D3D10-er Karten wie immer aus der zweiten Generation stammen. Die eigentliche Schlacht tragen meiner Einschätzung nach 2900- und 8800-er Nachfolger aus.
mag schon sein.hoffentlich. jetzt brauch nur noch die hd-dvd gegen die bd gewinnen und ich schmeiß meine ps3 weg :rolleyes:

aths
2007-09-07, 22:39:30
AF wird immer optimiert, um brauchbare Ergebnisse zu erhalten. Ansonsten wäre es wirklich sehr sehr sehr langsam (zumindest in 16 bzw. 8 fach).Nein, da 16x und 8x dank des adaptiven Algos nur dann zum Einsatz kommen, wenn es auch eine BQ-Steigerung bringt. Bei GeForces gibt es auch noch eine interne 12x-Zwischenstufe, S3-Karten können gar jeden Modus von 1x bis 16x.

Und wer ernsthaft denkt, dass das AF auf HQ im NV Treiber auf Geforce 6/7 dem AF der Geforce4/5 entspricht, der ist sowieso schief gewickelt. Mehr oder weniger intelligente Algorithmen um Texturen zu beurteilen, ob und wieviel jetzt gefiltert werden soll haben beide Hersteller. ATI nennt es nunmal A.I. Low und NV HQ. Was jetzt die "ehrlichere" Aussage ist, lass ich mal im Raum stehen :D.Diese Algorithmen sind weniger intelligent als die Hersteller Glauben machen. Wären sie intelligent genug, wäre deutlich sichbares Flimmern vermeidbar.



iirc nennt sichs da aber wie bei ATI auch 6xAA ^^
Also so richtig implementiert isses nicht.8x bei GF.

aths
2007-09-07, 22:42:44
Toll jetzt geht es hier schon um die Bildqualität?Ich bitte euch bleibt bitte bei den tatsachen und fangt jetzt nicht wie so oft an über andere Sachen zu dikutieren.Das die Balkenlänge bei der 7900 nicht mehr ganz so toll ist sollte jeden klar sein.Wieder ein Thread der von eientlichen thema sowas von abweicht das man wieder nur denn Kopf schüteln kann....

Man sollte sich einfach aktuelle Benchmarks angucken,da schneidet die 7900 einfach nicht gut ab auch nicht mit Q...Die Bildqualität Geschichte ist total irrelvant,bei heutigen Spielen wird sowieso nur auf Q gezockt wegen der Performance.Also gleichstand für die meisten.Würde man die BQ für irrelevant erklären, warum dann nicht auch die Auflösung? Bringt ja letztlich auch nur Bildqualität ...

Natürlich ist die BQ relevant. Die Radeon 19xx ist aufgrund ihrer Architektur der GF7 in den moderneren Spielen überlegen.


I[;5824373']mag schon sein.hoffentlich. jetzt brauch nur noch die hd-dvd gegen die bd gewinnen und ich schmeiß meine ps3 weg :rolleyes:Davon kann ich nur abraten.

Demirug
2007-09-07, 22:47:32
Kirk stritt mir gegenüber ab, dass hier ein Rampage-Design zum tragen komme. TMU und ALU seien nicht "interlocked". Auch wenn die Batch-Abarbeitung synchron läuft, kann die TMU doch im Hintergrund filtern, und später ihre Daten wieder an derselben Stelle einspeisen. Das wird nach meiner Vermutung wegen dem knappen Registerspeicher nicht gemacht. Soweit ich weiß ist das Filtern eines bilinearen Samples vollständig versteckt. Wenn die Register nicht reichen, kommen "Blasen" in die Pipe, ja.

Natürlich ist es nicht das exakte Rampage Design. Das war ja nur für einfachere Form des pixel shadings vorgesehen. Das ganze bezog sich auf das Grunddesgin einer „In-Line Pipeline mit vollständigem Loopback“ Das NV2X Design hatte das ja nicht.
Da die TMU ein bilineares Sample pro Takt liefern kann müssen die nachfolgenden ALUs in dem Fall natürlich nicht warten. Wenn man nun aber ein trilineares sample braucht kann die TMU nur alle zwei Takte liefern. Entsprechend führen die ALUs auch nur noch alle 2 Takte einen Befehl aus. Das Registerlimit hat damit gar nichts zu tun weil das selbst bei shadern die nur ein Register brauchen passiert.

Gast
2007-09-07, 22:49:21
Wenn ich mich recht entsinne stellt Doom 3 auch bei GF6/7 8x AA zur Auswahl.


16x auch.

Schrotti
2007-09-07, 22:59:13
Meine erste ATI (9700Pro dann 9800Pro von Hercules) hatte gleich den aaahhhh Effekt.

Ich war total begeistert und habe meine damalige 5950Ultra in die Ecke verbannt.

Es war aber nicht alles schön und Eierkuchen, sondern die ATI Treiber sorgten des öfteren für Ärger.

aths
2007-09-07, 23:00:02
Natürlich ist es nicht das exakte Rampage Design. Das war ja nur für einfachere Form des pixel shadings vorgesehen. Das ganze bezog sich auf das Grunddesgin einer „In-Line Pipeline mit vollständigem Loopback“ Das NV2X Design hatte das ja nicht.
Da die TMU ein bilineares Sample pro Takt liefern kann müssen die nachfolgenden ALUs in dem Fall natürlich nicht warten. Wenn man nun aber ein trilineares sample braucht kann die TMU nur alle zwei Takte liefern. Entsprechend führen die ALUs auch nur noch alle 2 Takte einen Befehl aus. Das Registerlimit hat damit gar nichts zu tun weil das selbst bei shadern die nur ein Register brauchen passiert.Es ist in der Praxis ja belanglos, ob besseres Filtern als trilinear aufgrund der Pipeline oder aufgrund des Compilers zusätzliche Takte kostet. Soweit ich weiß schloss Damien aufgrund einiger Tests beim FP32-Texturzugriff darauf, dass die TMUs durch den Compiler wie festgebunden wirken.

Insofern verstehe ich auch nicht die Aktivierung "brilinearer" Filterung, da ja das alle Quads im Batch warten auch wenn nur ein einziges Sample wirklich trilinear gefiltert wird.

Demirug
2007-09-07, 23:17:54
Insofern verstehe ich auch nicht die Aktivierung "brilinearer" Filterung, da ja das alle Quads im Batch warten auch wenn nur ein einziges Sample wirklich trilinear gefiltert wird.

Die Quads warten aber nur diesen einen zusätzlichen Takt oder anders gesagt der Rest der Pipeline wird einfach für einen Takt angehalten. Sobald dieses eine trilineare Sample aus der TMU kommt läuft der Rest wieder im 1 Takt Zyklus weiter.

aths
2007-09-07, 23:28:29
Die Quads warten aber nur diesen einen zusätzlichen Takt oder anders gesagt der Rest der Pipeline wird einfach für einen Takt angehalten. Sobald dieses eine trilineare Sample aus der TMU kommt läuft der Rest wieder im 1 Takt Zyklus weiter.Jopp. Aber "brilineare" Filterung spart soweit ich das sehe fast immer nur Bandbreite, praktisch nie Füllrate.

AMC
2007-09-08, 00:51:46
I[;5824266']fanboy-futter ;). hoffe momentan, dass es bei der hd2900xt genauso wird. sonst wird dies mein erster ati-fehlkauf.
aber ati hatte ja immer schon mit den treibern zu kämpfen und erst sehr spät mehr rausgeholt. meine 8500 (leicht oc)hat in manchen spielen auch ne gf4 überholt.

In damals schon irrelevanten Settings ohne AA. ;) Ansonsten war die 8500 doch eher zwischen G3 Ti200 und G3 einzuordnen, wollen mal nicht im nachhinein die Geschichte anpassen, aber an eine G4 kam sie nicht ran. :wink:

AMC

mapel110
2007-09-08, 00:59:00
aber an eine G4 kam sie nicht ran. :wink:

AMC
hm, also bei 8xAF teils schon. ^^

Also ich muss sagen, ich bin noch beeindruckt, was meine 7800 GT bei COJ leisten kann. Wenn ich entsprechend resourcenfressende Details abstelle, ist auch 1680x1050 noch drin, bei Q und TriOpt only. Zumindest ist sie dann nicht langsamer als aktuelle MidRange Karten. :)

Mr. Lolman
2007-09-08, 10:15:51
aber an eine G4 kam sie nicht ran. :wink:

AMC
Naja. Manchmal schon: http://www.ixbt.com/video2/images/any-r200-5/w.png

Mit AA/AF: http://www.anandtech.com/showdoc.aspx?i=1558&p=8

_DrillSarge]I[
2007-09-08, 10:21:19
mit aa (ss) war die 8500 eigentlich immer hinten, aber sonst (vor allem mit neueren treibern) gleich oder vorn.

Gast
2007-09-08, 10:32:09
Jopp. Aber "brilineare" Filterung spart soweit ich das sehe fast immer nur Bandbreite, praktisch nie Füllrate.
Daraus folgt aber auch, dass du häufiger aus dem Cache bedient wirst, was die Latenzen drastisch senkt.

Gast
2007-09-08, 10:33:17
Naja. Manchmal schon: http://www.ixbt.com/video2/images/any-r200-5/w.png[/url]
Manchmal gegen eine TI-4200, das kleinste Modell - ja.

Raff
2007-09-08, 10:37:55
Naja. Manchmal schon: http://www.ixbt.com/video2/images/any-r200-5/w.png

Mit AA/AF: http://www.anandtech.com/showdoc.aspx?i=1558&p=8

http://3dcenter.de/artikel/voodoo5-6000/index8.php ;)

CPU-Limit adé, Treiberoptimierungen auch adé?

MfG,
Raff

Mr. Lolman
2007-09-08, 11:34:15
http://3dcenter.de/artikel/voodoo5-6000/index8.php ;)

CPU-Limit adé, Treiberoptimierungen auch adé?

MfG,
Raff

Möglich. Oder besser optimierte Treiber seitens NV.

Gast
2007-09-08, 12:09:22
Mit AA/AF: http://www.anandtech.com/showdoc.aspx?i=1558&p=8

von dem komischen filter, was ati bei er 8500 als "anisotroper filter" bezeichnet hat wollen wir aber nicht reden ;)

und auch das AA war in 99% der fälle nur OG, wo die GF3 bei 2x schon RG hatte.

Raff
2007-09-08, 12:13:34
Damals war nichts außer Kein-AA/AF-Benchmarks wirklich vergleichbar. Das AF des R200 ist zum Heulen, das AA für die damalige Zeit immerhin akzeptabel (den RGSSAA-Mythos mal außen vor). Das gegenübergestellt, gleicht die BQ der GF7 mit aktuellen Karten wie ein Ei dem anderen. ;)

MfG,
Raff

Gast
2007-09-08, 12:21:00
Mit AA/AF: http://www.anandtech.com/showdoc.aspx?i=1558&p=8

Für das AF der R8500 gibt es nur eine optimale Einstellung und die ist, es erst gar nicht zu benutzen. Ich habe nie zuvor oder danach wieder eine so grässliche Bildqualität gesehen wie das R8500-AF sie liefert.

Gast
2007-09-08, 12:24:28
Das AF des R200 ist zum Heulen, das AA für die damalige Zeit immerhin akzeptabel (den RGSSAA-Mythos mal außen vor).

Wieso RGSSAA-Mythos? Der R200 kann das doch.