Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: HighEnd-Chip G70: Nur noch mit flimmernder Grafik?


Seiten : 1 2 [3] 4 5 6 7

Gast
2005-08-16, 17:59:57
Damien hat mehr drauf, als 3 Tombmänner und 5 Ulukays zusammen.


das tut jetzt aber echt weh aths und passt überhaupt nicht zu dir...

ich kenne damien nicht also ist er für mich nicht einschätzbar. weiter denke ich nicht das damien 16augen hat im vergleich mit uns und auch er wird wohl oder übel ein mensch sein der fehler machen kann. du willst es einfach nicht verstehen:

Dein artikel ist berechtigt, dein artikel macht sinn! NV muss es erfahren, NV muss etwas ändern. Die G70 flimmert aber in der Realität nicht wie auf dem Video und flimmert nicht mehr als eine 6800Ultra mit HQ. Das ist ein fakt für uns auch wenn wir nur je zwei augen haben! die ersten verunsicherten user werden nun schon um eine hammerkarte betrogen nur weil hier unrealistische movies zum download bereit stehen.

solange du nicht persönlich eine GTX siehst und eingestehen musst das das video nicht real ist (ich würde ganz viel wetten, dass auch das originale Bildmaterial bei richtigen einstellungen nicht so geflimmert hat) ist dieser artikel mit den videos genauso falsch wie die aussagen von Nvidia über die qualität ihrer karten.

ist das ein richtiger ansatz für dich oder 3DC? für tombman, ulukay und mich (und etliche 100 andere user die sich hier nicht melden) verliert 3DC mit dem momentanen Artikel massiv an vertrauen. wenn dir das nichts wert ist sind wir hier eh fehl am platz und du wirst niemals eine GTX real testen. wäre echt schade...

MikBach
2005-08-16, 18:00:11
Wenn man nicht irgendwo "STOP, so nicht" ruft wirds nie anders. Warum auch, so langs genug gibt die ihr Geld für die "schnellste" Karte opfern wollen könnens so weitermachen.

Von daher find ich nicht das übertrieben wurde. Im Gegenteil, jetzt wars an der Zeit.

Ein "ist doch nicht so schlimm", "Merkt man doch kaum", "Geht schon noch" ist genau die Reaktion auf die NV hofft damit sie weitermachen können. Bei der nächsten "Optimierungsstufe" dürfen dann wieder alle sagen "Ach merkt man doch kaum", "Geht schon noch".... :rolleyes:

Full Ack.

...und irgenwann sind wir alle an Augekrebs erblindet... :frown:

Gast
2005-08-16, 18:03:56
weiter möchte ich auch mal betonen das normale 3D Grafik massiv andere Probleme hat die mich 100mal mehr stören als ein kleines grieseln am boden...

der ganze vsynch mist z.B. mit den TFT's, BF2 das ich mit einer GTX mit derart viel FPS spielen kann aber trotzdem ein hundsmiserables LOD in Kauf nehmen muss das mir fast die birne wegploppt, rennstrecken die in jeder kurve aus ein paar wenigen eckigen polygonen bestehen obwohl mehr als genug leistung vorhanden wäre usw.

das perfekte produkte wird es nie geben...

MikBach
2005-08-16, 18:05:01
Die G70 flimmert aber in der Realität nicht wie auf dem Video und flimmert nicht mehr als eine 6800Ultra mit HQ. Das ist ein fakt für uns auch wenn wir nur je zwei augen haben!
Sorry, aber dann musst du blind sein, oder zumindest halbblind.
Oder du spielst die "falschen" Spiele.
Es flimmert ja nicht in jedem Spiel. Ist halt von den Texturen abhängig...
Ich habe mir das bei einigen Spielen angesehen und es definitiv ein Unterschied zwischen HQ@6800 und HQ@7800GTX zu sehen

Gast
2005-08-16, 18:05:44
Full Ack.

...und irgenwann sind wir alle an Augekrebs erblindet... :frown:


und weider zwei die noch nie eine GTX gesehen haben... wir wären längst alle blind von unseren GT's und Ultras... das flimmerzeug muss weg ABER bei ALLEN Karten! wer das leichte flimmern mit pointsampling oder augenkrebs in verbindung bringt ist schlicht ein basher imo...

Gast
2005-08-16, 18:07:25
Sorry, aber dann musst du blind sein, oder zumindest halbblind.
Oder du spielst die "falschen" Spiele.
Es flimmert ja nicht in jedem Spiel. Ist halt von den Texturen abhängig...
Ich habe mir das bei einigen Spielen angesehen und es definitiv ein Unterschied zwischen HQ@6800 und HQ@7800GTX zu sehen


sorry aber ab 77.76 stimmt deine aussage beim besten willen überhaupt nicht. wenn man die optimierungen manuell abstellt und auf HQ stellt sieht kein normaler mensch einen unterschied ausser er will etwas sehen und dann kommt wohl eher die imagination zum einsatz...

MikBach
2005-08-16, 18:10:17
das perfekte produkte wird es nie geben...
Wir reden hier aber nicht von perfekten Produkten, sondern vom perfektem AF.
Und...das ist möglich. :P

Quasar
2005-08-16, 18:10:36
@gast über MikBach:
Es hängt halt vom Spiel ab und davon, wie kritisch der Texturkontent ist.

mbee
2005-08-16, 18:11:22
weiter möchte ich auch mal betonen das normale 3D Grafik massiv andere Probleme hat die mich 100mal mehr stören als ein kleines grieseln am boden...

der ganze vsynch mist z.B. mit den TFT's, BF2 das ich mit einer GTX mit derart viel FPS spielen kann aber trotzdem ein hundsmiserables LOD in Kauf nehmen muss das mir fast die birne wegploppt, rennstrecken die in jeder kurve aus ein paar wenigen eckigen polygonen bestehen obwohl mehr als genug leistung vorhanden wäre usw.

das perfekte produkte wird es nie geben...

Sorry, aber ich glaube, Du hast die Intention des Artikels überhaupt nicht verstanden: Es geht nicht darum, was schlimmer ist bzw. mehr stört, sondern den Herstellern bei dieser "Abwärtsspirale" ein "so nicht weiter" zu signalisieren bzw. die schleichende Verschlechterung anzuprangern. Wie wird es wohl sonst mit den neuen Next-Gen-Chips weitergehen? Jedes mal ein bischen mehr Optimierung bis wir dann komplett auf anisotrope Filterung verzichten können, weil man gar keinen Unterschied mehr sieht? ;)

Gast
2005-08-16, 18:12:32
Wir reden hier aber nicht von perfekten Produkten, sondern vom perfektem AF.
Und...das ist möglich. :P


ja dann machen wir für dich doch eine karte mit perfektem AF die aber kein anständiges AA bietet und bei Quake3 mit 10fps läuft damit du zufrieden bist... oder schraub dir doch gleich den haarfön FX5700ultra wieder rein... meine güte, lass es doch gut sein.

Gast
2005-08-16, 18:13:23
@gast über MikBach:
Es hängt halt vom Spiel ab und davon, wie kritisch der Texturkontent ist.

was denkst du wieviele karten und spiele ich hier im shop habe? es stimmt nicht was er sagt...

MikBach
2005-08-16, 18:13:54
und weider zwei die noch nie eine GTX gesehen haben... wir wären längst alle blind von unseren GT's und Ultras... das flimmerzeug muss weg ABER bei ALLEN Karten! wer das leichte flimmern mit pointsampling oder augenkrebs in verbindung bringt ist schlicht ein basher imo...
Man, man, man
Schau doch erstmal, was ich gequotet habe..OK?
Das mit dem Erblinden war nicht auf die 7800GTX bezogen, sondern darauf, dass wenn es so weiter geht, es irgendwann so sein würde.

Gast
2005-08-16, 18:14:57
Sorry, aber ich glaube, Du hast die Intention des Artikels überhaupt nicht verstanden: Es geht nicht darum, was schlimmer ist bzw. mehr stört, sondern den Herstellern bei dieser "Abwärtsspirale" ein "so nicht weiter" zu signalisieren bzw. die schleichende Verschlechterung anzuprangern. Wie wird es wohl sonst mit den neuen Nex-Gen-Chips weitergehen? Jedes mal ein bischen mehr Optimierung bis wir dann komplett auf anisotrope Filterung verzichten können, weil man gar keinen Unterschied mehr sieht? ;)

wie ich schon 100ertmal sagte: ich begrüsse die diskussion, sie ist berechtigt und das AF von NV ist shice!

mir geht es nur um die falschinformation mit unrealen movies die eine GTX (noch) schlechter machen als sie ist.

btw. ich bin der ominöseGast der mal wieder das Login vergessen hat ;-)

Gast
2005-08-16, 18:16:04
Man, man, man
Schau doch erstmal, was ich gequotet habe..OK?
Das mit dem Erblinden war nicht auf die 7800GTX bezogen, sondern darauf, dass wenn es so weiter geht, es irgendwann so sein würde.


selbst wenn du das so meinst: ändert das was an der total danebenen aussage? bist du blind weil du 20jahre mit einer PAL 50hz röhre TV gucken musstest? nicht oder?

MikBach
2005-08-16, 18:16:31
sorry aber ab 77.76 stimmt deine aussage beim besten willen überhaupt nicht. wenn man die optimierungen manuell abstellt und auf HQ stellt sieht kein normaler mensch einen unterschied ausser er will etwas sehen und dann kommt wohl eher die imagination zum einsatz...
Ich habe mit dem 77.76 getestet!!! ist nämlich noch nicht so lange her.
Ups, dann bin ich wohl kein Mensch... :frown:
Was denn sonst? Echsenmensch? ;D

(del676)
2005-08-16, 18:17:42
Von welchem Posting du jetzt konkret sprichst, weiß ich nicht. Aber in der Tat macht es mir selten Freude, deine Postings zu lesen. Der Stil ist mir in der Regel zu grob. Wir sind hier nicht in irgendeinem Thread, wo man sich auch kappeln kann, sondern im offiziellen Thread zu einem 3dc-Artikel. Da erwarte ich einen bestimmten Umgang miteinander.
Innere IL ist damit aktiv. Spart mir Zeit, danke.

1. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3375951&postcount=222

2. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3376138&postcount=257

3. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3376144&postcount=260

3x kann man eindeutig erkennen dass ich die AF Qualität auch nicht zufriedenstellend finde, und damit mit dir einer Meinung bin.
ebenso habe ich schon aktiv dazu beigetragen (oder zumindest versucht) damit sich die af qualität vielleicht verbessert, und trotzdem muss ich mir hier gefallen lassen dass ich nur meine Fanboyhardware verteidige.

aber schön zu sehen dass du wieder unangenehmen fragen ausweichst und einfach nicht beantworten oder kommentieren willst.

Gast
2005-08-16, 18:17:55
Ich habe mit dem 77.76 getestet!!! ist nämlich noch nicht so lange her.
Ups, dann bin ich wohl kein Mensch... :frown:
Was denn sonst? Echsenmensch? ;D

ich mit dem 77.77 der z.B. bei BF2 viel schärfere texturen bringt mit TSAA (beim 77.76 war alles verwaschen).

mbee
2005-08-16, 18:19:27
wie ich schon 100ertmal sagte: ich begrüsse die diskussion, sie ist berechtigt und das AF von NV ist shice!

mir geht es nur um die falschinformation mit unrealen movies die eine GTX (noch) schlechter machen als sie ist.

btw. ich bin der ominöseGast der mal wieder das Login vergessen hat ;-)


Das sind keine "Falschinformationen" bzw. steht da auch nirgends, dass es INGAME in diesem oder jenem Spiel genau so aussieht. Allerdings wird hier ein Vergleich mit dem AF anderer Karten ermöglicht.
Ich habe mir auch ne GTX bestellt, die morgen eintreffen dürfte und werde selbst entscheiden, ob ich das Teil dann wieder los werde bzw. gegen einen R520 tausche:
Ich will das mit eigenen Augen sehen und dieser Artikel hat mir das Problem erst so richtig bewußt gemacht.

Anprangern kann man diese "Verschlechterung" bei NVIDIA jedoch nur durch solche Artikel und genügend Aufmerksamkeit. Ohne Druck wird NV hier niemals etwas ändern (anscheinend ist das ja doch treibermässig durch einen Trick möglich, wie hier jemand schon gespostet hat und scheint nicht unbedingt hardware-bedingt zu sein).

Marodeur
2005-08-16, 18:21:57
und weider zwei die noch nie eine GTX gesehen haben... wir wären längst alle blind von unseren GT's und Ultras... das flimmerzeug muss weg ABER bei ALLEN Karten! wer das leichte flimmern mit pointsampling oder augenkrebs in verbindung bringt ist schlicht ein basher imo...

1. Nein hab ich auch nicht, kein Geld für sowas

2. Natürlich muss es bei ALLEN Karten weg.

3. Das mit Pointsampling und Augenkrebs mag überzogen sein, sowas in der Richtung steht aber am Ende der Linie wenn man diese von den letzten Grafikkartengeneration zu weiteren zukünftigen verfolgt. Statt besser wirds immer nur "annähernd so gut wie vorher"

Es ist ein Bergabtrend der sich langsam aber stetig fortsetzt und der Artikel soll (imo) helfen hier mal ein Stop-Signal an die Hersteller zu senden. Dazu brauch ich nicht erst eine GTX kaufen um dies zu unterstützen.

MikBach
2005-08-16, 18:22:10
was denkst du wieviele karten und spiele ich hier im shop habe? es stimmt nicht was er sagt...
McErono@Gamestar, (denk ich doch mal, nachdem ich mir deine Postings durchgelesen habe) ;)

Doch es stimmt. =)

Gast
2005-08-16, 18:22:33
Das sind keine "Falschinformationen" bzw. steht da auch nirgends, dass es INGAME in diesem oder jenem Spiel genau so aussieht. Allerdings wird hier ein Vergleich mit dem AF anderer Karten ermöglicht.
Ich habe mir auch ne GTX bestellt, die morgen eintreffen dürfte und werde selbst entscheiden, ob ich das Teil dann wieder los werde bzw. gegen einen R520 tausche:
Ich will das mit eigenen Augen sehen und dieser Artikel hat mir das Problem erst so richtig bewußt gemacht.

Anprangern kann man diese "Verschlechterung" bei NVIDIA jedoch nur durch solche Artikel und genügend Aufmerksamkeit. Ohne Druck wird NV hier niemals etwas ändern (anscheinend ist das ja doch treibermässig durch einen Trick möglich, wie hier jemand schon gespostet hat und scheint nicht unbedingt hardware-bedingt zu sein).

wie ich schon früher mal sagte: die GTX ist zum zocken! ich teste nicht wie ich Spiegeleier braten kann auf den Vram...

aber es stimmt! Es braucht artikel wie diesen sonst geht nie was! der traffic stimmt aber sehr zuversichtlich... mir geht es echt nur um die "arme" GTX die hier total versaut wird obwohl sie eine wirklich gelungene Karte ist die mir mit den neuen features die beste IQ insgesamt bietet.

MikBach
2005-08-16, 18:24:08
ich mit dem 77.77 der z.B. bei BF2 viel schärfere texturen bringt mit TSAA (beim 77.76 war alles verwaschen).
Verdammt, wir reden hier über das AF und nicht über TSAA!
Werd ich mal testen, wenn ich wieder eine 7800 im Rechner habe.

mbee
2005-08-16, 18:25:04
obwohl sie eine wirklich gelungene Karte ist die mir mit den neuen features die beste IQ insgesamt bietet.

Worüber man sich sicher streiten kann (ich werd's sehen, da ich momentan ja noch eine XT800 PE zum Vergleich habe) bzw. wäre die Bildqualität wohl noch um einiges besser, wenn ein HQ-Modus wirklich "HQ" bieten würde. Dass er das momentan nicht tut, das schreiben hier selbst die meisten Besitzer.

Gast
2005-08-16, 18:26:11
um noch ein wenig konkreter zu werden falls einer mal ne GTX in die Finger bekommt, folgende Spiele habe ich mit einer 6800GT verglichen bei 4aa und 8af:

HL2, Guildwars, GTR, Farcry, Doom3, LFS, MotoGP3, BF2

mit zwei Screens nebeneinander auf HQ. tja, ich konnte keinen unterschied sehen und mit TSAA bzw. spielbarem 8Saa und Gamma cor. hängt die GTX die GT imo bei weitem ab.

Gast
2005-08-16, 18:28:07
Worüber man sich sicher streiten kann (ich werd's sehen, da ich momentan ja noch eine XT800 PE zum Vergleich habe) bzw. wäre die Bildqualität wohl noch um einiges besser, wenn ein HQ-Modus wirklich "HQ" bieten würde. Dass er das momentan nicht tut, das schreiben hier selbst die meisten Besitzer.

ich rede nicht vom vergleich mit ATI! ATI ist besser in AF bzw. IQ ohne GTX features! es geht nur um 6800 vs. 7800!

Gast
2005-08-16, 18:29:17
ich war ja selber geschockt als ich von einer x800xtpe auf die 6800gt kam!

mbee
2005-08-16, 18:30:50
Dann kannst Du allerdings auch nicht von "bester Bildqualität" sprechen, da mind. das AF schlechter ist. Wenn Dir TSAA bzw. SSAA das ganze Wett macht, ist das Geschmackssache. (Die Mehrleistung/SM3/etc. lassen wir hier mal außer acht, das ist zwar ein Argument, hat aber nichts mit der vergleichbaren BQ zu tun).

MikBach
2005-08-16, 18:31:02
um noch ein wenig konkreter zu werden falls einer mal ne GTX in die Finger bekommt, folgende Spiele habe ich mit einer 6800GT verglichen bei 4aa und 8af:

HL2, Guildwars, GTR, Farcry, Doom3, LFS, MotoGP3, BF2

Vielleicht Monitor kaputt?

Bei HL2, BF2 und GTR sieht man einen Unterschied, bei GTR ist es schon ziemlich deutlich.

Gast
2005-08-16, 18:34:50
Vielleicht Monitor kaputt?

Bei HL2, BF2 und GTR sieht man einen Unterschied, bei GTR ist es schon ziemlich deutlich.

mein F500R kaputt? ne du... ich muss anfügen das ich nur 1600x1200 vergleiche da alles andere auf dem 21" keinen praktischen sinn für mich macht.

GTR flimmert auf einer 6800GT derb, flimmert auf einer GTX derb. hast du GTR schon mal auf einer X800 gesehen? bei GTR kann man bei Barcelona aus der Box fahren, dann kommt so ein roter bereich links mit weissen streiffen. bei ATI ist der wunderbar bei NV bei beiden karten der reinste ameisenhaufen. auch die gridlines sind extrem schlecht bei NV.

ich merke einfach das für euch AF das wichtigste für die IQ ist. für mich muss das Gesamtbild stimmen und das tut es mit der GTX.

Gast
2005-08-16, 18:37:08
Dann kannst Du allerdings auch nicht von "bester Bildqualität" sprechen, da mind. das AF schlechter ist. Wenn Dir TSAA bzw. SSAA das ganze Wett macht, ist das Geschmackssache. (Die Mehrleistung/SM3/etc. lassen wir hier mal außer acht, das ist zwar ein Argument, hat aber nichts mit der vergleichbaren BQ zu tun).

doch kann ich "für mich die beste IQ" und du sagst ja selbst es ist Geschmacksache. SM3 hab ich und werd ich nie brauchen... marketing gag bzw. evtl. bei künftigen spielen sinnvoll.

Gast
2005-08-16, 18:39:27
Vielleicht Monitor kaputt?

Bei HL2, BF2 und GTR sieht man einen Unterschied, bei GTR ist es schon ziemlich deutlich.

das verstehe ich echt überhaupt nicht: BF2

du bist nicht der erste der darüber lästert aber bei mir ist BF2 das beste beispiel wie gut die GTX aussehen kann! kein anderes spiel flimmert so wenig bis gar nicht wie dieses und die vegetation mit TSAA sieht sowas um längen von besser aus als auf anderen karten (77.77)...

Gast
2005-08-16, 18:42:55
zu HL2 fällt mir noch was ein;

im videostresstest von CSS kommt nach den shadertafeln ein raum bevor man zum "wassermann" kommt. da ist das flimmern an der wandtextur rechts durchaus verschieden, jedoch nicht stärker sondern verlagert, sprich nicht am selben ort wie mit der GT.

MikBach
2005-08-16, 18:43:29
mein F500R kaputt?
Yeah!
Hab ich doch richtig geraten. =) *freu*
http://forum.gamestar.de/gspinboard/showpost.php?p=2957283&postcount=8

GTR flimmert auf einer 6800GT derb, flimmert auf einer GTX derb. hast du GTR schon mal auf einer X800 gesehen?
Auf der 7800GTX flimmert es mehr als auf der 6800GT, glaubs mir.

ich merke einfach das für euch AF das wichtigste für die IQ ist. für mich muss das Gesamtbild stimmen und das tut es mit der GTX.
Das Gesamtbild beinhaltet aber nur AF und AA.
Wenn das AF den anderen Karten gnadenlos unterlegen ist, kann das Gesamtbild nicht das beste sein. :wink:

Gast
2005-08-16, 18:45:26
Yeah!
Hab ich doch richtig geraten. =) *freu*
http://forum.gamestar.de/gspinboard/showpost.php?p=2957283&postcount=8



hä? nix blick! soll ich der einzige sein der den besten kaufbaren crt 4:3 monitor auf der welt hat?

Gast
2005-08-16, 18:48:11
Auf der 7800GTX flimmert es mehr als auf der 6800GT, glaubs mir.

Das Gesamtbild beinhaltet aber nur AF und AA.
Wenn das AF den anderen Karten gnadenlos unterlegen ist, kann das Gesamtbild nicht das beste sein. :wink:

kann ich dir nicht glauben weil ich ja selbst augen habe...

gnadenlos unterlegen ist einfach wieder der falsche ausdruck... uhhh virtuelle 5meter vor mir grieselt was am boden wei bei einer 6800 IIIHHHH *shockangstdavonrenn*

MikBach
2005-08-16, 18:53:17
zu HL2 fällt mir noch was ein;

im videostresstest von CSS kommt nach den shadertafeln ein raum bevor man zum "wassermann" kommt. da ist das flimmern an der wandtextur rechts durchaus verschieden, jedoch nicht stärker sondern verlagert, sprich nicht am selben ort wie mit der GT.
Videostresstest ist unwichtig, weil auf Benchmarks oft "extra" optimiert wird.
Hab mir das auch nicht angesehen, aber ich denke, es ist dann ein Beweis, dass der Ort, denn du ansprichst sich verschiebt.
Ich denke bei der 7800GTX ist der "Ort" "näher"...wo man das Flimmern sieht.

PS McErono, der Schreibstill eines Menschen verrät sehr viel.
Ich war mir zu 95% sicher. Der Monitor war für mich der Beweis.
Tut aber nicht zur Sache und ist hier OT, deswegen EOD. :)

MikBach
2005-08-16, 19:01:37
kann ich dir nicht glauben weil ich ja selbst augen habe...
Man muss ein geschultes Auge haben und auch die Informationen im Gehirn exakt verarbeiten, sonst sieht man das Flimmern nicht.
Ich kenne welche, die mit einer BQ spielen, dass ich da echt schon nach 5 Minuten entnervt aufgeben würde.
Sollte man auf solche "Daus" hören, wenn es um BQ geht?
Nein,
wenn man nichts sieht, Glück gehabt! Freut euch doch, dass eure Wahrnehmungsfähigkeit nicht optimal ist. Das spart Geld.


gnadenlos unterlegen ist einfach wieder der falsche ausdruck... uhhh virtuelle 5meter vor mir grieselt was am boden wei bei einer 6800 IIIHHHH *shockangstdavonrenn*
Die 7800GTX bietet aber das mieseste AF seit Zeiten, das ist einfach untragbar.

aths
2005-08-16, 19:08:26
das tut jetzt aber echt weh aths und passt überhaupt nicht zu dir...

ich kenne damien nicht also ist er für mich nicht einschätzbar. weiter denke ich nicht das damien 16augen hat im vergleich mit uns und auch er wird wohl oder übel ein mensch sein der fehler machen kann. du willst es einfach nicht verstehen:

Dein artikel ist berechtigt, dein artikel macht sinn! NV muss es erfahren, NV muss etwas ändern. Die G70 flimmert aber in der Realität nicht wie auf dem Video und flimmert nicht mehr als eine 6800Ultra mit HQ. Das ist ein fakt für uns auch wenn wir nur je zwei augen haben! die ersten verunsicherten user werden nun schon um eine hammerkarte betrogen nur weil hier unrealistische movies zum download bereit stehen.Die Videos geben das wieder, was sie zeigen: Einige Karten können flimmerfrei filtern, andere nicht. Das zeigen nicht nur Damiens Videos, das zeigen auch Standbild-Vergleiche, die mir von zwei unterschiedlichen 3dc-Forenusern vorliegen. Das zeigen Tests von Daniel Waadt. Darauf will der Artikel aufmerksam machen: Mit dem G70 bietet Nvidia kein flimmerfreies AF mehr.

Wenn der Artikel berechtigt ist, muss NV Einhalt geboten werden. Das heißt, man kann vom Kauf eines G70 nur abraten. Wird der G70 weiterhin verkauft, als wäre nichts gewesen, ist das eine Bestätigung für Nvidias Kurs.

solange du nicht persönlich eine GTX siehstMir reicht, dass Damien die Videos gemacht hat.

und eingestehen musst das das video nicht real ist (ich würde ganz viel wetten, dass auch das originale Bildmaterial bei richtigen einstellungen nicht so geflimmert hat) ist dieser artikel mit den videos genauso falsch wie die aussagen von Nvidia über die qualität ihrer karten.Das Video ist real. Welche Aussage ist falsch? Behauptet der Artikel, dass man in Spielen das Flimmern so deutlich sehen muss wie auf den Videos?

ist das ein richtiger ansatz für dich oder 3DC? für tombman, ulukay und mich (und etliche 100 andere user die sich hier nicht melden) verliert 3DC mit dem momentanen Artikel massiv an vertrauen. wenn dir das nichts wert ist sind wir hier eh fehl am platz und du wirst niemals eine GTX real testen. wäre echt schade...Immer dann, wenn ein Artikel dem Leser nicht passt, wird davor gewarnt wir würden an Seriösität oder Vertrauen verlieren, oder uns unglaubwürdig machen.

Als ich auf das winkelabhängig stark reduzierte AF beim R300 aufmerksam machte, interessierte es mich nicht, wie viele Spieler das in ihren Spielen sahen (es waren die wenigsten.) Das gleiche Spiel als ich bei Nvidia zwischenzeitlich den Zwang zum brilinearen Filter verurteilte oder ATIs ungenaue Filterpräzision beschrieb. Wenn ich jetzt das Flimmer-AF beklage ist es für den Artikel ebenfalls unwichtig, wie viele G70-User hier und jetzt wie viel Flimmern in ihren Spielen wahrnehmen. Das Zuschalten von AF darf nicht zum Texturflimmern führen, tut es beim G70 aber. Das ist prinzipiell indiskutabel, auch wenn viele G70-User in ihren Spielen nur leichtes Flimmern wahrnehmen, und auf G70-Vorteile wie TAA nicht verzichten wollen.

aths
2005-08-16, 19:10:35
wie ich schon 100ertmal sagte: ich begrüsse die diskussion, sie ist berechtigt und das AF von NV ist shice!

mir geht es nur um die falschinformation mit unrealen movies die eine GTX (noch) schlechter machen als sie ist.Dass die Videos so grauenhaft sind ist die Schuld von Nvidia und niemandem sonst.

moeb1us
2005-08-16, 19:11:16
faszinierend wie hier im kreis argumentiert wird, und wie emotional aufgeladen die sache ist...warum nimmt denn keiner den artikel von aths als das was er ist: als klarstellung, dass 1) filter mies arbeitet 2) leistungsdaten so nicht verglichen werden dürfen 3) nvidia kunden belügt

da brauch eigentlich gar nich rumkrakeelt werden das die karten aber doch so toll schnell sind und man es gar nicht sieht usw. ergänzungen im text dass die nvidia doch fleissig gekauft werden kann, das die videos unrealistisch sind etc pp gehen völlig am thema vorbei, es interessiert in dem zusammenhang nicht. aths tippt sich seit etlichen seiten die finger wund mit immer den selben antworten, und ihr benutzt formulierungen wie "gegen eine wand reden" seid aber selber sturer als sonstwas und so kritikfähig wie stoiber.

ich habe nun alle posts verteilt auf 2 tage gelesen und ich hätte mich an aths stelle schon deutlich eher aus dem thread zurückgezogen. hut ab von mir für den längst nötigen fingerzeig, nochmal: ja es war ein konstruiertes beispiel und es mag sein das fps und tsaa sonstwas kaschieren, aber es geht ums prinzip, nicht mehr nicht weniger.

ps: und spart euch bitte einen kommentar wie "und wieder einer der keine gtx hat" denn die karte mag ja tolle features haben und massiv texelpower, aber ich trenne ungern geschäftsgebarden von den produkten, sonst könnt ich auch monsanto und phizer krempel kaufen...erwerb oder nicht-erwerb ist nunmal eine der wenigen waffen die kunden gegenüber unternehmen haben.
so, flame on

Gast
2005-08-16, 19:27:39
faszinierend wie hier im kreis argumentiert wird, und wie emotional aufgeladen die sache ist...warum nimmt denn keiner den artikel von aths als das was er ist: als klarstellung, dass 1) filter mies arbeitet 2) leistungsdaten so nicht verglichen werden dürfen 3) nvidia kunden belügt

da brauch eigentlich gar nich rumkrakeelt werden das die karten aber doch so toll schnell sind und man es gar nicht sieht usw. ergänzungen im text dass die nvidia doch fleissig gekauft werden kann, das die videos unrealistisch sind etc pp gehen völlig am thema vorbei, es interessiert in dem zusammenhang nicht. aths tippt sich seit etlichen seiten die finger wund mit immer den selben antworten, und ihr benutzt formulierungen wie "gegen eine wand reden" seid aber selber sturer als sonstwas und so kritikfähig wie stoiber.

ich habe nun alle posts verteilt auf 2 tage gelesen und ich hätte mich an aths stelle schon deutlich eher aus dem thread zurückgezogen. hut ab von mir für den längst nötigen fingerzeig, nochmal: ja es war ein konstruiertes beispiel und es mag sein das fps und tsaa sonstwas kaschieren, aber es geht ums prinzip, nicht mehr nicht weniger.

ps: und spart euch bitte einen kommentar wie "und wieder einer der keine gtx hat" denn die karte mag ja tolle features haben und massiv texelpower, aber ich trenne ungern geschäftsgebarden von den produkten, sonst könnt ich auch monsanto und phizer krempel kaufen...erwerb oder nicht-erwerb ist nunmal eine der wenigen waffen die kunden gegenüber unternehmen haben.
so, flame on

Komplett zustimm. Das Problem ist: Alle die 500 oder mehr für ihre Karte(n) hingelegt haben, die bilden sich auch ein, da nichts zu sehen. Oder würdest du dir eingestehen wollen, dass deine Investition von mehreren Hundert Euro nicht so Glanzhaft ist, wie erhofft.
Aber die Fakten zählen und Fakt ist: nVidia ist zwar schneller, aber nicht schöner. Jetzt soll jeder selbst entscheiden was er bevorzugt: Schnelligkeit (nVidia 7xxx) oder Schönheit (ATI oder nVidia 6xxx & früher).
Ich würde im Zweifel Schönheit nehmen, denn schneller wird Hardware doch eh.

MikBach
2005-08-16, 19:31:40
Wenn der Artikel berechtigt ist, muss NV Einhalt geboten werden. Das heißt, man kann vom Kauf eines G70 nur abraten. Wird der G70 weiterhin verkauft, als wäre nichts gewesen, ist das eine Bestätigung für Nvidias Kurs.
Das ist DER Punkt.
Deswegen finde ich die Videos passend, auch wenn sie vielleicht leicht übertrieben sind, was die Realität angeht.
Dann können es um so mehr Leute sehen.

PS aths, in einigen Posts wirkst du sehr überheblich und arrogant (bezogen auf Ulukay, aber nicht nur).
Ich finde es zwar sehr gut, dass du dich für eine gute BQ einsetzt, das kann man aber auch weniger agressiv machen.
Nur so ein Tip von mir. :)

aths
2005-08-16, 19:42:46
PS aths, in einigen Posts wirkst du sehr überheblich und arrogant (bezogen auf Ulukay, aber nicht nur).
Ich finde es zwar sehr gut, dass du dich für eine gute BQ einsetzt, das kann man aber auch weniger agressiv machen.
Nur so ein Tip von mir. :)Jojo, jetzt wo U. auf meiner inneren IL ist, gibts auch weniger Grund von mir zurückzukeulen. Die Videos sprechen eine Sprache, deutlich genug. Wer das kleinreden will mit seinen Beobachtungen in seinen Spielen, bestätigt NVs Kurs auch dann, wenn er sagt, NV solle das ändern. Wir können hier tagein, tagsaus schreiben was wir wollen. Es geht nur darum, ob NV den G70 trotzdem gut verkaufen kann oder sich genügend unzufriedene Kunden beschweren und Enthaltung üben, anstatt auch diese Pille zu schlucken.

Ich habe mit NV vorher ausführlich gesprochen und bin zum Schluss gekommen, dass ein Unternehmen keine andere Sprache versteht als Verkaufszahlen. Ich kann einen Artikel nach dem anderen raushauen und mich über das AF beschweren. Das nimmt NV einfach hin. Und wenn es die User bei NV durchgehen lasse, beflügelt das wohl auch die Fantasie von ATI. ATI schrieb was von "full trilinear" wo längst ihr brilinearer Filter aktiv war – die Kanadier sind da keinen Deut ehrlicher oder moralischer. Ich habe schon vor Augen, wie sie NV bashen – und selbst wieder betrügen.

aths
2005-08-16, 19:53:19
Damien hat übrigens ein 20-fps-Video aufgenommen (UT mit einem Slowdown) um Framedrops zu vermeiden und dann den Playback auf 30 fps gesetzt.

MikBach
2005-08-16, 19:58:22
Jojo, jetzt wo U. auf meiner inneren IL ist, gibts auch weniger Grund von mir zurückzukeulen. Die Videos sprechen eine Sprache, deutlich genug. Wer das kleinreden will mit seinen Beobachtungen in seinen Spielen, bestätigt NVs Kurs auch dann, wenn er sagt, NV solle das ändern. Wir können hier tagein, tagsaus schreiben was wir wollen. Es geht nur darum, ob NV den G70 trotzdem gut verkaufen kann oder sich genügend unzufriedene Kunden beschweren und Enthaltung üben, anstatt auch diese Pille zu schlucken.
Ja, da hast du Recht.
Das sehe ich ja genauso. Du kommst aber echt zu arrogant gegenüber anderen Usern rüber.
Naja, egal.
Ist halt dein Still, ich wollte dich nur darauf aufmerksam machen. :)

Ich habe mit NV vorher ausführlich gesprochen und bin zum Schluss gekommen, dass ein Unternehmen keine andere Sprache versteht als Verkaufszahlen.
Das ist natürlich auch korrekt.
Das wäre echt nicht schlecht, wenn viele den Kauf verweigern.
Dann würde NV daraus vielleicht lernen.
Da müssten aber noch viel mehr Sites mitmachen, sonst kann man es vergessen.

Ich kann einen Artikel nach dem anderen raushauen und mich über das AF beschweren. Das nimmt NV einfach hin.Und wenn es die User bei NV durchgehen lasse, beflügelt das wohl auch die Fantasie von ATI.
Ist auch ein sehr wichtiger Punkt.
Eigentlich die Essenz.

ATI schreib was von "full trilinear" wo längst ihr brilinearer Filter aktiv war – die Kanadier sind da keinen Deut ehrlicher oder moralischer.
Naja, ich denke doch, dass NV mehr "verarscht".

Knötchen
2005-08-16, 21:04:14
das tut jetzt aber echt weh aths und passt überhaupt nicht zu dir...

ich kenne damien nicht also ist er für mich nicht einschätzbar. weiter denke ich nicht das damien 16augen hat im vergleich mit uns und auch er wird wohl oder übel ein mensch sein der fehler machen kann. du willst es einfach nicht verstehen:

Dein artikel ist berechtigt, dein artikel macht sinn! NV muss es erfahren, NV muss etwas ändern. Die G70 flimmert aber in der Realität nicht wie auf dem Video und flimmert nicht mehr als eine 6800Ultra mit HQ. Das ist ein fakt für uns auch wenn wir nur je zwei augen haben! die ersten verunsicherten user werden nun schon um eine hammerkarte betrogen nur weil hier unrealistische movies zum download bereit stehen.
Dass klingt so, als wenn hier wieder der ominöse Gast spricht, der vom Verkauf der GTX seine Brötchen verdient. Ich vermute, es fällt schwer in so einer Position objektiv zu bleiben. Wer sich eine GTX kauft oder nicht, entscheidet werder du noch der Artikel noch Nvidia sondern der Konsument.
solange du nicht persönlich eine GTX siehst und eingestehen musst das das video nicht real ist (ich würde ganz viel wetten, dass auch das originale Bildmaterial bei richtigen einstellungen nicht so geflimmert hat) ist dieser artikel mit den videos genauso falsch wie die aussagen von Nvidia über die qualität ihrer karten.
Zur Erinnerung: Was du in deinen Spielen mit deiner GTX auf deinem Monitor/TFT unter deiner framerate siehst, darfst du auch gerne zum 1000. mal in diesem Thread gundtun. Zu fordern, dass dies der Massstab für die Gültigkeit der Videos sein soll, halte ich für verfehlt. Die Videos sind korrekt, auch wenn du das - verständlicherweise - gerne anders sehen würdest.
ist das ein richtiger ansatz für dich oder 3DC? für tombman, ulukay und mich (und etliche 100 andere user die sich hier nicht melden) verliert 3DC mit dem momentanen Artikel massiv an vertrauen. wenn dir das nichts wert ist sind wir hier eh fehl am platz und du wirst niemals eine GTX real testen. wäre echt schade...
Das sehe ich genau anders herum. Das 3DC gewinnt zZ. massiv an Vertrauen, da es den Mut hat, die realen Misstände anzuprangern. Ob du hier fehl am Platze bist, musst du natürlich entscheiden. Ich kann mit der Entscheidung leben, egal wie sie aussieht. Bin mir nicht sicher, ob es so schade wäre eine GTX nicht zu testen, bei dem Texturflimmern.

Knötchen
2005-08-16, 21:14:56
wie ich schon früher mal sagte: die GTX ist zum zocken! ich teste nicht wie ich Spiegeleier braten kann auf den Vram...
Wie ich schon sagte: Was du in deinen Spielen mit deiner GTX auf deinem Monitor/TFT unter deiner framerate siehst, darfst du auch gerne zum 1000. mal in diesem Thread gundtun. Und ob du das Flimmern in Spielen wahrnimmst oder nicht, sagt evtl. etwas über deinen Monitor, dein Spiel, oder dein Empfinden aus, nicht jedoch über die Qualität des kaputten anisotropen Filters der GTX.
aber es stimmt! Es braucht artikel wie diesen sonst geht nie was! der traffic stimmt aber sehr zuversichtlich... mir geht es echt nur um die "arme" GTX die hier total versaut wird obwohl sie eine wirklich gelungene Karte ist die mir mit den neuen features die beste IQ insgesamt bietet.
Die GTX wird hier weniger versaut, sie ist es aufgrund des miesen AF imho. Schön, dass du dich mit der Bildqualität zufrieden geben kannst.

Knötchen
2005-08-16, 21:15:54
um noch ein wenig konkreter zu werden falls einer mal ne GTX in die Finger bekommt, folgende Spiele habe ich mit einer 6800GT verglichen bei 4aa und 8af:

HL2, Guildwars, GTR, Farcry, Doom3, LFS, MotoGP3, BF2

mit zwei Screens nebeneinander auf HQ. tja, ich konnte keinen unterschied sehen und mit TSAA bzw. spielbarem 8Saa und Gamma cor. hängt die GTX die GT imo bei weitem ab.
Ist zwar interessant, tut aber nichts zur Sache.

Knötchen
2005-08-16, 21:21:23
hä? nix blick! soll ich der einzige sein der den besten kaufbaren crt 4:3 monitor auf der welt hat?
Sicher dass der so gut ist wenn er dir das Texturflimmern der GTX "erspart"? ;)

btw: Warum loggst du dich nicht einfach ein? Kleiner Tipp: speicher dein login doch in ein *.txt file und das packste dann in dein Documentsfolder zu den anderen logins der 30 Foren in denen du Mitgleid bist.

Edit: Komma weg wo es definitiv nicht hingeghört. ;)

aths
2005-08-16, 21:29:02
Ja, da hast du Recht.
Das sehe ich ja genauso. Du kommst aber echt zu arrogant gegenüber anderen Usern rüber.
Naja, egal.
Ist halt dein Still, ich wollte dich nur darauf aufmerksam machen. :) Japp, solche Bemerkungen bleiben auch nicht ohne Wirkung.

Naja, ich denke doch, dass NV mehr "verarscht".Ich sehe bei beiden Aktionen, die auf bewusster Lüge aufbauen. Worüber sich viele Leute schon aufregen, sehe ich inzwischen gelassen. Es gibt aber auch eine Schmerzgrenze. ATI hat gezeigt, dass sie mit einem Pokerface den Reviewer verarschen können, warum sollte es bei der nächsten Hardware-Generation anders sein? Selbst wenn das AF in den ersten Tests ganz gut aussieht, werde ich dennoch warnen müssen, dass dies eine Momentaufnahme ist.

NV hat vielleicht noch irgendwas in petto, um beim Erscheinen des R520 wundersame "Leistungssteigerungen" zu bieten.

Mr. Lolman
2005-08-16, 21:34:38
Eben. Der Artikel sollte sofort auf allen Partnerseiten verlinkt werden und ne englische Übersetzung muss her...

MikBach
2005-08-16, 21:35:16
Japp, solche Bemerkungen bleiben auch nicht ohne Wirkung.
Psychologisch gesehen richtig, aber der Forumskultur ist es nicht zuträglich.

Ich sehe bei beiden Aktionen, die auf bewusster Lüge aufbauen. Worüber sich viele Leute schon aufregen, sehe ich inzwischen gelassen. Es gibt aber auch eine Schmerzgrenze. ATI hat gezeigt, dass sie mit einem Pokerface den Reviewer verarschen können, warum sollte es bei der nächsten Hardware-Generation anders sein? Selbst wenn das AF in den ersten Tests ganz gut aussieht, werde ich dennoch warnen müssen, dass dies eine Momentaufnahme ist.
Das ist dein gutes Recht und das begrüsse ich auch sehr.
Ist mir eigentlich scheiss egal welche Firma mich verarscht...
Das AF soll wieder (fast) perfekt werden.

Gast
2005-08-16, 21:40:43
Eben. Der Artikel sollte sofort auf allen Partnerseiten verlinkt werden und ne englische Übersetzung muss her...
Ja da sollte sich wirklich was tun :( Wäre nicht schlecht, wenn der Artikel in Englisch noch vor dem Launch des R5x0 erscheinen würde... :uup: Aber selbst auf den deutschsprachigen "Partnerseiten" hör ich nichts davon :mad:

Gast
2005-08-16, 21:57:38
Ja, da hast du Recht.
Das sehe ich ja genauso. Du kommst aber echt zu arrogant gegenüber anderen Usern rüber.
Naja, egal.
Ist halt dein Still, ich wollte dich nur darauf aufmerksam machen. :)
Ja, Netzkultur :) Es ist nicht so einfach. Du schreibst irgendwas vom Herzen ehrlich und weißt schon im Vorfeld sie kommen und werden Dich anknabbern wollen. Und sie kommen und wollen Dich fressen. Es ist an sich also schon eine Art Kampf. Vor allem um hinterher doch ruhig einschlafen zu können. Stell DICH in seiner Situation vor. Es ist kein Gott, es ist nur aths :wink: Ein Mensch das genauso Pipi un Aa macht wie jeder andere hier und genauso seine Charakterschwächen kennt und ausmerzt wie... einige hier ;)

MikBach
2005-08-16, 22:09:44
Ja, Netzkultur :) Es ist nicht so einfach. Du schreibst irgendwas vom Herzen ehrlich und weißt schon im Vorfeld sie kommen und werden Dich anknabbern wollen. Und sie kommen und wollen Dich fressen. Es ist an sich also schon eine Art Kampf. Vor allem um hinterher doch ruhig einschlafen zu können. Stell DICH in seiner Situation vor. Es ist kein Gott, es ist nur aths :wink: Ein Mensch das genauso Pipi un Aa macht wie jeder andere hier und genauso seine Charakterschwächen kennt und ausmerzt wie... einige hier ;)
Man sollte es vermeiden bei einer Diskussion Drogen zu nehmen....
Verglichen mit dir "Gast" ist aths Gott Nr.1 :D

Gast
2005-08-16, 22:14:40
"15.8. 75775 MB"

Wenn ihr noch mehr Traffic wollt, solltet ihr ne englische Übersetzung hosten. :)

Maschinelle Übersetzung:
http://www.online-translator.com/url/tran_url.asp?lang=en&url=http%3A%2F%2Fwww.3dcenter.de%2Fartikel%2Fg70_flimmern%2F&direction=ge&template=General&cp1=NO&cp2=NO&autotranslate=on&transliterate=on&psubmit2.x=48&psubmit2.y=16

Gast
2005-08-16, 22:25:54
Das AF soll wieder (fast) perfekt werden.
Es soll fast perfekt werden KÖNNEN. Das ist eigentlich das was mich persönlich aufregt. Alles imho: Sie setzen für den GTX die Stufen im Panel quasi um eins runter und belassen die alten "Beschriftungen". Genauso wie wenn sich andere fest eingestellte Einstelungen wundersamerweise bei manchen Anwendungen verändern. Die Hardware ist nach den SM2.0 Krücken (sorry) wieder SEHR atraktiv, aber der Forceware ist im gleichen Masse SEHR übel geworden.

Geschweige von der Tatsache, daß sie offensichtlich nicht möchten Treiber zu releasen, die mit allen Chips die in der .inf-Datei vermerkt sind, die optimale Leistung bringen. Daß es quasi normal ist nach dem "besten Treiber" für seine NV-Graka zu fragen find ich selbst keineswegs normal :mad:

Das zieh ich mir schon seit der TNT2pro rein. Wenn sich da auch diesjahr nichts rührt, dann schau ich mir ab Weihnachten nichtmal Reviews zur NV Hardware an :nono::ass2:

Gast
2005-08-16, 22:33:20
Man sollte es vermeiden bei einer Diskussion Drogen zu nehmen....
Warum hab ich nur geahnt, daß... öhmm.. rechtwinklich gestrickte Naturen (uff) den Post nicht im Ansatz peilen werden?

Verglichen mit dir "Gast" ist aths Gott Nr.1 :D
Ich halt mein Ego klein. Gott Nr.2 reicht :ass:

Guest
2005-08-16, 23:01:18
" HighEnd chip G70: Only with shimmering graphic arts?

August, 2005 / from aths / page 1 of 2

With the GeForce 7800 GTX Nvidia showed that the already strong GeForce-6800-Ultra-Leistung is not the end of the flag seaweeds in the SM3 generation. The G70 chip offers more pipelines which were improved, besides, and more tact. In addition, there are useful new Antialiasing modes.

However, Nvidia seems to estimate the texture quality-claims of his HighEnd customers as unusually low. Differently we cannot explain ourselves nowadays, why the new HighEnd chip G70 (GeForce 7800 GT/GTX) inclines by activated anisotropen filter to texture flicker. In memory: This is with the NV40 (GeForce 6800 series) normally likewise in such a way, however, can be switched off with the activation of the HighQuality mode in the drivers.

With the G70 chip the activation of "HighQuality" in the drivers brings against it not the desired effect - the map inclines furthermore to the texture flicker. Has it created Nvidia with the NV40 standard to accustom the user to texture flicker AF - so that there is immediately no option on AF textures free of cilium for the G70 chip?

Besides, is intended of the anisotrope filters (AF) by definition, actually, for the high-class improvement of textures - however if the textures generated by a 500-euro-hardware shimmer at the end, one can barely probably talk from a "high-class improvement". Good quality costs of course speed. Nevertheless, "achievement" is " a work per time ". With the "optimized" AF it is worked less - the achievement does not rise with it.

Who wants to spend some 100 euros on a new map, presumably does not act to play then without anisotrope filtering. On this occasion, it is quite noteworthy that the G70 chip, as well as the NV40 chip, with activated 16xAF some areas with maximum 2xAF treats. This was maybe still satisfactory at times of the R300 (Radeon 9500/9700 series), today, however, is no more contemporary (also the R420 chip suffers from this restriction). With a SM3 product like the NV40 or G70 we do not understand such compromises in the AF, however, now immediately at all.

What concerns the G70 flicker, this was described to the Launch the GeForce 7800 GTX merely by one single side: In the article on Hardware.fr of Tridam. Also we of 3DCenter offered to the Launch beside Benchmarks in the Quality mode (at this point we counted careless-wise on Nvidias Reviewer's guide) merely descriptions to the improved pixel quarrel-technology. As long as the problem with the textures is not solved with the G70, nevertheless, we see no occasion to write closer to the Shader technology: First of all the Multitexturing must function satisfyingly, then one can also deal with other things.

In an older news we called than cause for the G70-AF flicker simply unterfiltering. We have to owe Demirugs investigations now the knowledge that the cause could be also stored differently: Indeed, the required data from the texture are read, namely all data, however, them are wrong settled. Nvidias attempt to generate the same quality with less work was a good idea, unfortunately, she missed. This can be a hardware bug or a driver's mistake.

Nevertheless, in the end, this plays no role: The fact that the G70 chip which offers a Texelleistung of more than 10 Gigatexeln is of use with opposed 16xAF dependent on corner partially only 2xAF, and, in addition, inclines to the texture flicker, is simply a poverty report. In the same train we must criticize Nvidias assertion in the Review Guidelines. There stands (the boldface we have taken over from the original) the following:


"Quality" mode offers users the highest image quality while quietly delivering exceptional performance. We recommend all benchmarking be done in this mode.


This setting shimmers on the NV40 like on the G70, but Nvidia calls "the highest image quality". A picture which even claims the name "Quality" (also without "High") may incline to our opinion not to the texture flicker. On the subject High Quality is to be read:


" High Quality High Quality " mode is recommended for benchmarking.


Nevertheless, we cannot confirm this: Of the anisotrope filters of the G70 chip also shimmers under High Quality, the topical Radeon maps do not do this. To us would really interest according to which criteria Nvidias " quantitative image quality analysis " examines the image quality.

MouseOver 16xAF a la GeForce 6/7 versus 8xAF a la GeForce 3 / 4 / FX


(for alternative variation Loose of Javascript click on the picture)

The picture shows a tunnel from 200 sides (which is why the picture looks on the edge thus "fanned out"). The colors stand for a new MIP level in each case. The later, thus the further inside the new colors begin, the more detailed (with higher AF levels) the texture is filtered. With some corners as for example 22.5 ° start the MIPs with GeForce 6/7 very early because there only 2xAF is offered. The GeForce 3 / 4 / FX has with 45 ° a corner weakness, nevertheless, points already with only 8xAF the picture much more detailed all together - because the dyed MIPs come only later, more in the middle.

Actually the GeForce 3 / 4 / offers FX opposed 8xAF about the biggest part of the picture, only low shares are treated with 4xAF. However, the GeForce 6/7 offers opposed 16xAF about the least part of the picture, only they (of course important) 45-degree corner receive 16xAF. Nevertheless, most other corners are filtered much more undetailed than opposed 16xAF. Besides, big parts of the picture are filtered only with 2x and 4xAF, the insgesamte texture improvement is even bad as the 8xAF of the GeForce 3 / 4 / FX.

Besides, the heterogeneity of the filtering for GeForce 6/7 brings an additional "restlessness" in the picture: According to corner gefiltere textures (with 16xAF filtered) lie in the extreme case very well directly beside only carelessly filtered textures (with 2xAF filtered) what strikes even the unskilled eye unpleasantly. "World of Warcraft" would be called exemplary.

Indeed, this AF tunnel still permits no statement with regard to unterfiltering, he registers merely, when which MIP step is used. From it one should be able to derive a certain AF degree, however, with unterfiltering less samples are settled than, actually, inevitably. Example: Unterfiltertes 8xAF is nobody real 8xAF. Indeed, the right MIP-Map is taken here, but the wrong sample number. This tunnel points only, when which MIP is taken and not whether the AF was implemented correctly. "
http://www.online-translator.com/url/tran_url.asp?lang=en&url=http%3A%2F%2Fwww.3dcenter.de%2Fartikel%2Fg70_flimmern%2F&direction=ge&template=General&cp1=NO&cp2=NO&autotranslate=on&transliterate=on&psubmit2.x=48&psubmit2.y=16


"HighEnd chip G70: Only with shimmering graphic arts?

August, 2005 / from aths / page 2 of 2

Videos to the demonstration of the unterfiltering for GeForce 6/7

Remarks to the videos: If these jerk with the reproduction, one can try to lower arrow under it " the Abspielgeschwindigkeit in the Mediaplayer Classic with the keyboard combination " Strg +. The required Codec is enclosed to the newest version of Fraps which must be installed if necessary. The Mediaplayer Classic is to be configured best of all so that the video is automatically repeated. Then allow to go through the video once (it will probably jerk hard), however, then in the following flows it should run - a good system provided - liquidly.

The videos are provided by Damien Triolet. We have from Damien the permission to publish them here. For his efforts we would like to thank at this point warmly. They were taken up in Unreal Tournament in 2003. For UT2003 is "optimized" by the Forceware driver especially, without the user can switch off this. Nevertheless, the videos were taken up not with the Standard-LOD-Bias by UT2003, but correct-wise with the LOD-Bias of 0. That is specifically: Provided that of the texture filters works properly, it does not come to the flicker. It was used everywhere 8xAF.

Please load at first a video test-half and test whether it can be played on own calculator satisfyingly. The high video-resolution and the Codec free of loss load the system very strongly. Therefore, we also offer for the single videos in each case a description what is to be seen in it.



"Quality" on a GeForce 6800 already leads to the flicker. In addition, the only partially applied trilineare filter is to be recognized, one sees cilium tapes followed from mush tapes. For our concepts one should call this mode not "Quality".




" High Quality " for the GeForce 6800 is grenzwertig: The textures incline to the flicker, without the flicker breaks out much too clearly. As with all maps of the NV40 and G70 series one sees in the tunnel vault sharpness differences dependent on corner, caused by the AF pattern clearly made worse compared with the GeForceFX.




Indeed, the new map of Nvidia brings clearly more texture-raw achievement than the GeForce 6800, shows here, however, also much worse textures: The flicker is incalculable. Nevertheless, according to Nvidias Reviewer's guide it concerns "the highest image quality while still delivering exceptional performance". We mean, one can offer this quality to nobody.




Indeed, in the " High Quality " mode of the GeForce 7800 the flicker is reduced, and now it better sees from than with (however, bad) standard mode of the GeForce 6800. Nevertheless, the HQ mode just so still free of cilium of the GeForce 6800 is not reached: The GeForce 7800 cannot be persuaded to renounce with the AF with such textures the flicker.




The Radeon X800 appears in the default settings of every GeForce 6800 and only surely of a GeForce 7800 according to quality clearly consider. There are areas which incline quite weakly to the flicker, however, all together only the AF reduction dependent on corner interferes, actually, in the tunnel vault. Even the HQ quality of the GeForce 7800 is excelled playing.




If one switches off A.I. on the Radeon X800, no clear differences are to be perceived to the activated A.I.




The reference, on a GeForceFX in the " High Quality " mode shows provided two things: First it must not shimmer on a GeForce map, one follows the ground or the wall textures: Absolutely "stable" textures. To the fact comes that the whole tunnel vault so sharply texturiert is as hears for 8xAF.


Result

ATI shows with the Radeon X800 that it itself speak by activated "optimization" (: High-class deteriorations) must not immediately shimmer. Also it is not filtered completely trilinear, however, this is barely to be recognized. Although texture filter-hardware ATIs works much more inexactly than which is offered of a GeForce, the better picture, because one has renounced much too questionable so-called "optimization". Nevertheless, the corner dependence with the AF is no more contemporary, we see advertisement ATIs of " High definition " Gaming as an unfull promise of the marketing department.

Nvidia delivers with the topical 7800th series maps which one cannot recommend to lovers of texture quality - and this, although the Texelleistung was increased towards the GeForceFX 5800 extremist on the meanwhile 2.5 field. Now beside the corner dependence assumed by ATI there is also the susceptibility to the texture flicker anew. The GeForce 6800 (or GeForce 6600) must be put absolutely on " High Quality ", around the texture flicker so far it goes of avoiding - nevertheless, with the GeForce 7800 this functions no more, also under " High Quality " the new chip inclines to texture flicker.

The quoted passages from the Reviewer's guide already do not stand firm of the first examination. Nvidia maintains there things which are disproved by the above videos clearly. All Benchmarks which test in each case the default settings no matter whether GeForce 7800 versus GeForce 6800 or one of both GeForce maps against a Radeon, are wrong therefore: Nvidia offers nowadays the much worse AF quality, the Radeon standard is better than 6800th standard, and the 7800th standard is worse once again. Therefore the respective achievement data are not comparable.

If with new driver's versions something changes, we will try to hold the reader up-to-date. "
http://www.online-translator.com/url/tran_url.asp?lang=en&direction=ge&template=General&cp1=NO&cp2=NO&autotranslate=on&transliterate=on&url=http%3A%2F%2Fwww.3dcenter.de%2Fartikel%2Fg70_flimmern%2Findex2.php

moeb1us
2005-08-16, 23:21:32
ehm was soll das helfen das ist ja grauenhaft ^^

übrigens gibt es studien die belegen, dass die hilfsbereitschaft im sinne der wahrscheinlichkeit das geholfen wird stark korreliert mit der anzahl an die situation wahrnehmenden personen. es greift wohl ein mechanismus im sinne "es wird schon einer was unternehmen/schon getan haben.", den ich hier mal abfragen möchte:

gibt es schon ansätze, den text zu übersetzen? wie geht 3dc da vor? gibt es einen festen pool an leuten der das macht oder nur per anfrage? wird jedesmal ein neuer "freier" mitarbeiter dafür aktiviert nach meldung? soo schwer is das doch nicht, aber bevor ich mich ransetze, frag ich lieber ob die arbeit obsolet wäre weil schon erledigt. (paar leute und jeder absatzweise übersetzen, nach dem prinzip wurde harry potter in 45std übersetzt ;) )

derominöseGast
2005-08-17, 00:00:06
1. Nein hab ich auch nicht, kein Geld für sowas

2. Natürlich muss es bei ALLEN Karten weg.

3. Das mit Pointsampling und Augenkrebs mag überzogen sein, sowas in der Richtung steht aber am Ende der Linie wenn man diese von den letzten Grafikkartengeneration zu weiteren zukünftigen verfolgt. Statt besser wirds immer nur "annähernd so gut wie vorher"

Es ist ein Bergabtrend der sich langsam aber stetig fortsetzt und der Artikel soll (imo) helfen hier mal ein Stop-Signal an die Hersteller zu senden. Dazu brauch ich nicht erst eine GTX kaufen um dies zu unterstützen.

ok sehe ich ein und akzeptiere ich. ich werde beim erscheinen einen R520 einbauen und die GTX als Defekt an den Hersteller zurücksenden ;-)

@Knötchen: du wir waren uns doch gestern einig! Jetzt liest du plötzlich wieder total an meiner msg vorbei. ES FLIMMERT und ich werde mit 20Jahren PC Geschichte, dem 5. HDTV... ach was red ich... ich sehe sehr genau hin und ES FLIMMERT mit NV! Sag ich doch schon die ganze Zeit! ATI hat besseres AF und es flimmert weniger (!) ABER ich empfinde das flimmern der GTX genau so störend oder eben nicht wie das flimmern der 6800!

derominöseGast
2005-08-17, 00:19:43
http://downloads.guru3d.com/download.php?det=1152

und diesen

http://downloads.guru3d.com/download.php?det=1155

werde ich noch testen. besonders auf den ngo bin ich gespannt.

turboschlumpf
2005-08-17, 00:31:17
[...] ABER ich empfinde das flimmern der GTX genau so störend oder eben nicht wie das flimmern der 6800!Und genau das ist in diesem Fall vollkommen irrelevant. Du hast den Sinn des Artikels immer noch nicht verstanden, oder?


@ aths

Daumen hoch für den Artikel. Lass dir von den Kritikern, die - aus welchen Gründen auch immer - die aktuellen Probleme im Bezug auf den anisotropen Filter kleinreden wollen nicht reinreden. Der Artikel war in genau dieser Deutlichkeit nötig, denn sonst kapieren es die User und vor allem Grafikchip-Hersteller nie. Schade nur, dass allein 3DC den Mumm hat, so gegen die Verarsche von ATi und nVidia zu feuern.

aths
2005-08-17, 01:59:07
ehm was soll das helfen das ist ja grauenhaft ^^

übrigens gibt es studien die belegen, dass die hilfsbereitschaft im sinne der wahrscheinlichkeit das geholfen wird stark korreliert mit der anzahl an die situation wahrnehmenden personen. es greift wohl ein mechanismus im sinne "es wird schon einer was unternehmen/schon getan haben.", den ich hier mal abfragen möchte:

gibt es schon ansätze, den text zu übersetzen? wie geht 3dc da vor? gibt es einen festen pool an leuten der das macht oder nur per anfrage? wird jedesmal ein neuer "freier" mitarbeiter dafür aktiviert nach meldung? soo schwer is das doch nicht, aber bevor ich mich ransetze, frag ich lieber ob die arbeit obsolet wäre weil schon erledigt. (paar leute und jeder absatzweise übersetzen, nach dem prinzip wurde harry potter in 45std übersetzt ;) )Schreib hier rein http://www.forum-3dcenter.org/vbulletin/showthread.php?t=242441 was du machen willst und poste dort auch die übersetzten Absätze.

Ailuros
2005-08-17, 03:28:12
Ich wuerde mich an Eurer Stelle weniger Sorgen machen ueber eine englische Version des Artikels. Ich kann mir schwer vorstellen dass die hauptsaechlichen Interessenten die Botschaft bis jetzt noch nicht bekommen haben.

betasilie
2005-08-17, 03:36:06
Ich wuerde mich an Eurer Stelle weniger Sorgen machen ueber eine englische Version des Artikels. Ich kann mir schwer vorstellen dass die hauptsaechlichen Interessenten die Botschaft bis jetzt noch nicht bekommen haben.
Wer sind die?

MadManniMan
2005-08-17, 03:40:44
Wer sind die?

Drei Varianten:

a) "das Volk" - also die Kundschaft, die es aufzuklären gilt

b) nV, weil sie das erste mal einen öffentlich Arschtritt bekamen

c) die Echsenmenschen, die über eine GPU mit flimmerfreien AF langfristig noch(!) mehr Macht bekommen

...btw: AW auf PN kommt noch, hab erstma Bock, noch nen Film zu gucken ;)

betasilie
2005-08-17, 03:42:52
Drei Varianten:

a) "das Volk" - also die Kundschaft, die es aufzuklären gilt

b) nV, weil sie das erste mal einen öffentlich Arschtritt bekamen

c) die Echsenmenschen, die über eine GPU mit flimmerfreien AF langfristig noch(!) mehr Macht bekommen

...btw: AW auf PN kommt noch, hab erstma Bock, noch nen Film zu gucken ;)
Die Varianten kenne ich. :tongue:


HF beim Western. ... Knallen und Reiten guck ich jetzt auch noch. ;)

Wolfi
2005-08-17, 04:05:24
Da die 7800 momentan auf HQ wohl fast so stark flimmert wie die 6800 auf Q kann man doch nur jedem dringend davon abraten sich eine 7800 zu kaufen. (Hab die Videos aber nich gesehn da Modem)
Denn sich seh hier mit meiner 6800GT in jedem Game Flimmern auf Q (zb Gothic 1 und 2)
Nur mit HQ ist soweit alles in Butter, wobei es wie gesagt schon grenzwertig ist, bisher dacht ich auch das dort alles in Ordnung ist, sehe aber mitlerweile auch dort nachdem ich mich damit beschäftigt habe bzw gehört bei manchen Texturen ein winzigstes Flimmern.
Kann jetzt aber nich sagen ob es auf der GF4 nicht auch wär.

Zuerst dacht ich das das 7800 Flimmern ein Bug ist, den das kann doch nicht allen ernstes NVidia gewollt haben.
Da es aber jetzt schon länger im Umlauf ist muß es wohl volle absicht gewesen sein, wohl um die Benches zu gewinnen.

Wie gesagt kann man nur dringend abraten sobald das Flimmern nicht gelöst ist sich eine 7800 zu kaufen.
Den wer das nicht sieht der brauch auch kein AF oder AA bzw sieht es nicht, und somit im grunde auch keine 7800

Ich habe jetzt nur noch die Hoffnung das mit der Flimmergeschichte das Optimierungsfaß jetzt endlich mal überläuft und die breite masse wachgerüttelt wird.
Denn so geht es nicht weiter, momentan brauch keiner wirklich die Leistung einer 7800, aber sollte das zum standard werden dann gute nacht.
Dann wird man dem Flimmern in zukunft wohl nicht mehr ausweichen können, genau wie der Winkelabhängigkeit.



Und zur Overlayunschärfe ein paar seiten vorher.
Es ist eine Tatsache das die 6800GT (NV40) bei Treibern unter 71.84 ein Unscharfes Overlay mit Datailverlust (kleine Pixel) hatt.
Also völlig ungeeigent für die Videos hier ist.
Es gibt auch einen Thread dazu von mir wo es auch viele nicht sehn wollen.
Auch aths, wobei ich da noch denke das er sich sowas nicht genau/exakt ansieht. (wobei mir das bereits nach ein paar Minuten aufgefallen ist wohlob ich damit überhaupt nicht gerechnet hätte)
Mit dem Treiber 71.84 und 71.89 wurde das nach langer (sehr sehr langer zeit) geändert und das Overlay ist wieder GF4 Like bzw 99% dem VMR entprechend. (Natürlich sind noch einstellungen im Overlay notwendig, da das Default nicht der VMR Standard Bildqualität entspricht)
Ob es bei höheren Treibern auch noch in Ordnung ist kann nicht sagen, da ich das nicht getestet hab.
Möchte nur zu bedenken geben das 1 ganzes Jahr lang nach erscheinen des NV40 das Overlay auf dem NV40 Unscharf war. (Meiner ansicht nach fast so ein Skandal wie das Flimmern)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=199738



Zur Fraps Geschichte.
Kann dazu keine Einschätzung geben.
Aber derominöseGast meint ja das zb AA nicht aufgezeichnet wird.
Daher vermute ich stark das dies auch bei normalen Screenshots mit Fraps auftritt, den ich hab hier noch die letzte freie version 1.9D
Und kann bestätigen das sie bei meiner 6800GT das AA auch nicht mit aufzeichnet in Shots bzw die sind dann ohne, die viel ältere version 1.7A tut dies aber.
Bisher dacht ich ja eine neuere version hatt das nicht mehr, dem scheint laut der derominöseGast aber nicht zu sein.

Das AA spielt zwar in dem Fall keine Rolle, habt die Videos warscheinlich auch ohne gemacht oder?
Aber vieleicht ist ja speziell bei der Kombi neuere Grakageneration/Fraps wirklich nicht alles ganz koscher?

Quasar
2005-08-17, 09:47:58
was denkst du wieviele karten und spiele ich hier im shop habe? es stimmt nicht was er sagt...
Ich habe zwar vermutlich weniger Augen im Kopf, als du Spiele im Shop, aber Flimmern ist definitiv bei einigen Spielen da. Und es ist auch mit HQ bei einigen Spielen stärker als das der Radeons.

Nicky
2005-08-17, 09:55:55
@ aths
daumen fuer den Artikel, ist genauso gerechtfertigt wie der damalige Ati Filtertrick Artikel
@ alle die die Glaubwuerdigkeit der Videos bezweifeln, da es ingame nicht so stark flimmert: ihr kennt sicher den Unterschied zwischen absolut und relatif?

EL_Mariachi
2005-08-17, 10:05:59
Ich habe jetzt nur noch die Hoffnung das mit der Flimmergeschichte das Optimierungsfaß jetzt endlich mal überläuft und die breite masse wachgerüttelt wird.



die Breite Masse lässt sich nicht wachrütteln ... HL2 hat sich doch auch jeder Sepp gekauft ... Bild Leser gibts auch wie Sand am Meer :(


Denn so geht es nicht weiter, momentan brauch keiner wirklich die Leistung einer 7800, aber sollte das zum standard werden dann gute nacht.


schon mal die F.E.A.R. Demo angezockt?

(del676)
2005-08-17, 10:08:13
Als ob sich die breite Masse eine 7800 GTX leisten könnte (wollte).

Majestic
2005-08-17, 10:22:11
Als ob sich die breite Masse eine 7800 GTX leisten könnte (wollte).
Bin mal gespannt ob ATI auch so einen Weg... Immerhin kochen beiden Hersteller nur mit Wasser und ATI steht im moment eh ganz schön unter Druck mit dem Lauch-Desaster des R5x0....

(del676)
2005-08-17, 10:26:58
Der "Flimmer"treiber bleibt schon mal 100%ig sicher bis nach dem R520 Launch.

Gohan
2005-08-17, 10:27:34
Draf ich als armer Mac User die Videos jetzt nicht gucken, weil es den Codec nicht für den MAC gibt? mich würden diese Optimierung echt mal interessieren :)

(del676)
2005-08-17, 10:31:59
das hab ich mich als armer Linux User auch gefragt.
man wird praktisch zu windepp gezwungen :(

robbitop
2005-08-17, 11:33:26
Naja man informiert NV im vorhinein und freut sich, dass sie hinsichtlich Testkarten keine Konsquenzen aus dem Artikel ziehen = NV kompatibel
Sowas ist im Journalismus üblich. Man informiert den betreffenden. Frag' mal den guten Carsten Spille, der die ATI AF Lüge aufgedeckt hat. Vorher wurde ATI informiert.Testkarten bekommt 3DC sowieso soziemlich gar nicht direkt von ATI/NV. (ich errinnere an den G70 und X800 Launch, wo man uns schlicht beinahe vergaß. ATI gab uns kein Sample und bei NV erst ganz kurz vor dem Launch. Und haben tun wir bis auf 2 Tage Stress auch nichts von diesen Samples, da die umgehend zurückgehen)
Woher kommen solche anscheinend aus der Luft gegriffenen Gedanken?

tombman
2005-08-17, 11:40:22
Es sei denn man spielt zum beispiel die FEAR demo in künstlerisch wertvollen grafikeinstellungen:)

Falsch, und zwar gleich mehrfach. Erstens hat fear keine Texturen wo das Problem auftreten könnte und zweitens rennt fear selbst im benchmark, der um einiges fordernder als das Spiel selbst ist, mit 70fps auf höchsten Einstellungen.


Ich finds aber lustig wie du in deinen "fetten news" und vorher allen möglichen posts vorher sämtlichen beteiligten die kompetenz abgestritten hast

Hab ich nicht, zweifeln ist nicht gleich abstreiten.


und unterstellt hast sie seien net nur zu dämlich mit fraps gescheite und fehlerlose vids aufzunehmen sondern auch noch ziemlich grosskotzig hingestellt hast das DU der einzige seist der überhaupt eine hardware besitzt mit der es möglich wäre. Sowas nennt man glaubbich den satten tritt in den eigenen arsch... aber mit anlauf:9

Blub, wie du zu sagen pflegst. An meiner Korrektur kannst du sehen wie ICH für die Wahrheit kämpfe und nicht wie du nur daran interessiert bin die eigenen rhetorische und fachliche "Überlegenheit" ins Licht zu stellen. Dein ganzer post, auf den ich hier antworte zeugt davon, getarnt mit einer, aus deinem Mund kommend nicht glaubhaften Respektsbezeugung...

Und wenn du schon ein Bild von meiner Korrektur willst, dann kann ich dir auch eines geben: ein Borg-Kubus, der sich selbst optimiert und korrigiert :cool:

tombman
2005-08-17, 11:59:04
Und dann erwartest du, dass NV sich bewegt?

Wir, die 7800 GTX (SLI) Besitzer, werden aber sicherlich nicht gegen unsere Überzeugung sprechen, nur damit Nvidia sich bewegt und dir einen Gefallen tut.

Wir verstehen, daß es für einen AF-Fanatiker wie du es offensichtlich bist, absolut unverständlich zu sein scheint, wieso 7800 GTX (SLI) user sich den Spaß an ihrem System nicht verderben lassen wollen, nur weil ein paar Pixel, die noch dazu auf höheren fps Werten eh nicht mehr so deutlich aus der Reihe tanzen, nicht das tun was sie laut AF-Bibel tun sollten.

Wir verstehen aber nicht, warum du allen 7800 GTX (SLI) usern unterstellst, sie bereuen ihren Kauf zutiefst und trauen sich das öffentlich nicht sagen um das Gesicht nicht zu verlieren., denn das ist schlicht FALSCH

Wir LIEBEN unsere 7800 GTX Karten, weil sie performance ohne Ende bringen (vorallem in SLI), Kanten glätten die keine andere Karte glätten kann und weil sie erlauben bildverbessernde Maßnahmen zu aktivieren ohne dabei die fps Werte in unspielbare Bereiche kommen zu lassen!

Wir sind auch nicht so blöd und behaupten alle anderen Karten hätten einen AA-"Fehler", weil sie gewisse transparante Texturen nicht filtern können, weil wir wissen, daß hardware nicht perfekt sein muß um GUT zu sein oder BESSER als die jeweiligen Vorgänger.

Wir haben nichts dagegen die "Flimmerproblematik" aufzeigen zu lassen und bestätigen das sogar meist, aber wir haben was dagegen die 7800 GTX als unkaufbar und unmöglich und überhaupt Schrott darstellen zu lassen, und dabei noch deren Besitzer als unaufrichtige Feiglinge zu beschreiben!

Laß(t) dir(euch) das mal durch den Kopf gehen, ATHS und Konsorten.

p.s.: sorry @ 7800 GTX Besitzer, daß ich mir herausgenommen habe für alle zu sprechen...

Gast
2005-08-17, 12:15:57
ich habe ne 6800 @ GT (hat zum Glück nur 150 € gekostet). Ich spiele zur Zeit hauptsächlich Word of Warcraft mit 4xAA und 8xAF. Wenn ich da auf einer Strasse unterwegs bin oder allgemein irgendwo, wo die Sichtweite ziemlich hoch ist, dann ist das Flimmern unter bestimmten Kamerawinkeln einfach nur wiederlich! Ja ich benutze den HQ Modus.
Da die GT hier und da mit der Einstellung etwas überfordert ist, hab' ich mal testweise von HQ auf Q runtergestellt, da hab ich nur gedacht, dass das nicht NVs Ernst sein kann, soetwas anzubieten, dann auch noch als Quality Modus.
Wenn jetzt eine 7800 IMMER so aussieht (oder leicht besser, für mich war das Flimmern bei der 7800 praktisch immer so wie bei einer 6800 auf Q), dann wird halt als nächstes eine ATI gekauft, wenn es bei R5x0 auch so ist.... hmm da muß ich mir was einfallen lassen, kaufen kann man sowas jedenfalls nicht!


Achja: Jemand mit etwas Zeit und guten Willen könnte mal eine Guide zu möglichst flimmerfreien Treibersettings machen (z.B. im Forum) ;)
Kann man vielleicht noch mehr machen als auf HQ stellen? Helfen gemoddete Treiber?...

robbitop
2005-08-17, 13:09:42
Das Problem ist die verfälschte Leitung der Karten. Was hast du von nem G70 der stellenweise kaum flotter als ne XTPE ist. Ati könnte das AF ja genauso runterschrauben, und sich damit Speed erschummeln. Um dem vorzubeugen sollte man schleunigst mit HQ benchen und bei etwaig auftretenden BQ Unterschieden darauf ausgiebigst drauf hinweisen.
ATI hat sich auf gleiche Art und Weise seit dem R420 den Speed "erschummelt". Schau dir mal Carstens Vergleiche zw R300 Filterung und R420 Filterung an. Letztere ist deutlich performanter aufgrund sehr ausgeklügelter Optimierungen. NV optimierte genauso, nur eben ungeschickter, so dass die BQ leidet. Ich wage aber mal zu behaupten, dass beide Karten beim Samplen sehr ähnliche Arbeit pro Zeit zu erledigen haben. Nur haben die ATI Ingeneure die Optimierungen besser hinbekommen und bekommen pro Arbeit mehr BQ.
Wie man das zu vergleichen hat (BQ oder Arbeit), das sieht jeder anders. Ich persönlich vergleiche lieber Arbeit und weise auf BQ Unterschiede hin. Besser als (radikales Bsp) SSAA mit MSAA zu vergleichen wie es bis zur GF FX oftmals geschah.

robbitop
2005-08-17, 13:11:50
nvidia profitiert mind seit der geforce6 stärker von weniger texturlast als ati, da die ALUs nicht parallel zu den TMUs arbeiten, wie bei den kanadiern.

man sollte das wirklich mal brauchbar untersuchen - möglichst nicht mit der UT-Engine, sondern mit irgendwas, was noch nicht zu tode gecheatet wurde.

AFAIK wird pro Texel nur einmal ein Wert durch die ALU durchgeschliffen. Je länger das Sampling für einen Texel dauert, desto unbedeutender müsste dies werden. Vieleicht liegt die Ursache also woanders?

robbitop
2005-08-17, 13:18:22
nur ein kleiner Hinweis: fraps braucht eine sauschnelle Festplatte (am besten raid 0) um 1024x768 überhaupt in 30fps capturen zu können, und ich weiß nicht, ob triolet das beachtet hat...
ist es nicht sinnvoller, das gecapturte ersteinmal in den Hauptspeicher zu cachen und danach auf die HDD zu bursten? Bei der Datenmenge sollte das kP sein. Wenn das der Fall wäre (Murks) sollte das doch deutlich auffallen oder nicht?

Quasar
2005-08-17, 13:24:13
AFAIK wird pro Texel nur einmal ein Wert durch die ALU durchgeschliffen. Je länger das Sampling für einen Texel dauert, desto unbedeutender müsste dies werden. Vieleicht liegt die Ursache also woanders?
Je länger das Sampling dauert, desto länger ist die ALU blockiert, während ATis ALUs unterdess fröhlich weiterrechnen können. Auch ein nicht zu unterschätzendes "Effizienzfeature".

35712
2005-08-17, 13:34:40
Ich fühle mich durch diesen Artikel und der Tatsache, dass ich auch die Tage eine 7800 GTX bekomme, dazu verpflichtet mich hier anzumelden.

Ich habe nun lange überlegt, ob ich mir wirklich die neue Generation zulegen soll und dieser Artikel hat mir die meisten Zweifel bereitet. Nur sagen fast alle 7800 GTX User, dass das Flimmern entweder subjektiv nicht vorhanden sei, oder eben nur schwach. WoW ausgeschlossen, aber das spiele ich ja sowieso nicht.
nVidia und ATI haben auch beim letzten Launch schon gecheatet, sie haben sichtbare BQ-Schäden für mehr Performance in Kauf genommen.

Die generelle Tatsache dass nVidia auf das Flimmerschlimmerpferd setzt finde ich zum Kotzen. Diese Karte hat so enorm viel Rohleistung, dass eine BQ-Verbesserung an der Tagesordnung wäre. Aber man will ja lieber mehr Benchmarkpunkte sammeln.
Hierzu muss man dann allerdings gestehen, dass die Tester (Onlinemagazine wie CB, HWL, P3D,... und Printmagazine) auch die Benchmarks fast immer in den Vordergrund stellen. Ich habe selten wirkliche Tests zur Bildqualität gesehen, solange damit nicht ein neues Feature unter die Lupe genommen wurde. Würde alle Tester das AA und AF penibelst untersuchen, den Test eine Woche später rausbringen, dann wären die User informiert, die BQ würde in ihr Bewusstsein Einzug halten, folglich würden sich die Hersteller auch mehr um die BQ bemühen.

Was 3D Center hier gebracht hat ist richtig, ist wichtig und muss unbedingt weitergegeben werden. Dass Geizhals.at/de auf diesen Artikel verweist ist lobenswert, aber nicht genug. Hätte ich eine Website, würde ich es auch tun. Und das sollten die großen Websitebetreiber wie CD, HWL, Heise, Anandtech, Inquirer, Computer Bild, PC Games Hardware auch machen. Dafür würde ich erstmal werben.


Meine Meinung: Die 7800 GTX bietet extrem viel Power für die jetzige Zeit, genug um die Unterfilterung nachzulassen. Aber dieser Bug ist garantiert nicht hardwareseitig, sonst würden alle WoW Spieler auf nVidia umsteigen und das sind verdammt viele...
Dieses Flimmern wird durch Treiber beseitigt, aber wann die kommen weiß ich nicht. Bis dahin hoffe ich einfach, dass entweder ATI nen guten R520 bringt und ich umsteigen kann, oder aber ich kein flimmerndes Spiel spiele.


Edit: Ich habe mal ein hohes Tier von Computerbase auf die Problematik hin angemailt. Mal schauen was dabei rauskommt.

"Hallo Thomas!


Ich richte mich mit einer speziellen Sache an Dich, die mir persönlich sehr wichtig erscheint. Du hast sicherlich schon von dem Flimmern der 7800er Generation beim Einsetzen von AF gehört. Leider ist es momentan so, dass hierzu die großen und namhaften Computerwebsites nichts sagen, was meiner Meinung nach der falsche Weg ist.
Die Bildqualität hat bisher mit jeder neuen Grafikkartengeneration leiden müssen, was uns auch dieses Mal nicht erspart bleibt. Und da geht es auch weniger um den eigenen subjektiven Eindruck, sondern mehr um das Faktum, dass so versucht wird zu punkten. Denn darum geht es ja im Endeffekt: Benchmarks. Viele User sind schon durch das Flimmern der letzten nVidia Generation geplagt, die neue wird da nicht die Ausnahme sein.

3 Ideen:

Wie wäre es, wenn Ihr:

1. (zumindest in den News) auf diesen Artikel verweist und auf das Problem hinweist.

2. Eventuell selbst nochmal nachhakt und einen ähnlichen Artikel schreibt.

3. In Zukunft bei Reviews mehr auf die Bildqualität achtet und diese etwas stärker gewichtet als bisher, damit die Benchmarkpunkte etwas an Wichtigkeit verlieren.



Ich möchte hiermit eine Politikänderung anregen und vor allem darauf aufmerksam machen, dass Ihr die Möglichkeit habt Meinungen zu bilden und davon auch zum Vorteil eurer User Gebrauch machen solltet.

Mit freundlichen Grüßen"


Leider habe ich vergessen explizit auf diesen Artikel hier hinzuweisen, aber der wird derm Herrn sicherlich nicht entgangen sein.

Marodeur
2005-08-17, 14:01:58
Dass Geizhals.at/de auf diesen Artikel verweist ist lobenswert, aber nicht genug.


Oh, jetzt erst mitbekommen. Die haben tatsächlich in der Beschreibung jeder Karte mit G70-Chip einen Link auf den Artikel gesetzt. :eek:

Manche Webseiten schaffens doch immer noch mich zu überraschen...

Majestic
2005-08-17, 14:06:32
Oh, jetzt erst mitbekommen. Die haben tatsächlich in der Beschreibung jeder Karte mit G70-Chip einen Link auf den Artikel gesetzt. :eek:

Manche Webseiten schaffens doch immer noch mich zu überraschen...

Hmm das verbreitert den Wirkungskreis des Artikel bestimmt ziemlich schnell... :tongue: Hoffetlich wird das auch bis NV Deutschland durchdringen, und sie zu einer Reaktion bringen.... :D

mbee
2005-08-17, 14:13:15
Geile Sache, geizhals.at agiert hier wirklich vorbildlich! :up:

robbitop
2005-08-17, 14:47:11
Je länger das Sampling dauert, desto länger ist die ALU blockiert, während ATis ALUs unterdess fröhlich weiterrechnen können. Auch ein nicht zu unterschätzendes "Effizienzfeature".
Sicher? Ich habe das anders verstanden: Die Texturkoordinaten werden nur 1x pro Texel durchgeschliffen. Sprich 1 Takt pro Texel wird die ALU blockiert und nicht so viele takte, wie die Filterung benötigt. Ich kann mich da aber auch schwer irren...(würde zumindist so Einiges erklären) aths, Demi??

Riptor
2005-08-17, 15:19:52
Geile Sache, geizhals.at agiert hier wirklich vorbildlich! :up:

Hätte ich jetzt nicht gedacht...

Zum Artikel: Ein Grund, warum ich immer wieder gern auf 3dcenter.de vorbeischaue! :) Kompetent aufbereitet und ehrlich!

derominöseGast
2005-08-17, 15:35:16
Da die 7800 momentan auf HQ wohl fast so stark flimmert wie die 6800 auf Q kann man doch nur jedem dringend davon abraten sich eine 7800 zu kaufen. (Hab die Videos aber nich gesehn da Modem)
Denn sich seh hier mit meiner 6800GT in jedem Game Flimmern auf Q (zb Gothic 1 und 2)

ich glaube ich spinne und mir hauts gleich den sockel über den schreibtisch... schreib doch gleich das sie stinkt, komisch raucht und in der nacht schnarcht. :crazy2: unverantwortlich sowas... der rest deines posts macht aber durchaus sinn.

ich stimme 100% tombman zu und danke ihm für sein statement!

an alle die sich wirklich informieren wollen und nicht einfach hier sind zum GTX runtermachen: ihr könnt euch nicht vorstellen wie klein das problem in wirklichkeit ist und wie gross es hier gemacht wird. was man hier lesen muss.. man denkt die GTX sei die schlechteste karte die es je gab und das ist sowas von total daneben. die GTX hat die BESSERE IQ als eine 6800 dank TSAA und gamma cor. aber das AF ist grenzwertig wie es auf der 6800 der Fall ist.

das ändert nichts an der tatsache das NV und ATI mit den optimierungen auf dem holzweg sind, der artikel nötig ist und hoffentlich was bringt. lügen und BS zu erzählen trägt jedoch nicht zur lösung bei und wird keinem das flimmern wegbringen oder den R520 besser machen.

derominöseGast
2005-08-17, 15:58:42
Ich habe zwar vermutlich weniger Augen im Kopf, als du Spiele im Shop, aber Flimmern ist definitiv bei einigen Spielen da. Und es ist auch mit HQ bei einigen Spielen stärker als das der Radeons.

es bringt zwar nichts aber ich probiere es halt nochmal: lesen, lesen, lesen

ich behaupte nicht das es nicht flimmert. es flimmert und es flimmert um einiges mehr als bei ATI. ich vergleiche in meinen aussagen nur die 6800gt und die GTX und bin nicht einverstanden mit dem HQ GTX movie auf 3DC (mit dem rest des Artikels bin ich einverstanden und begrüsse ihn!)

MikBach@w
2005-08-17, 16:07:32
Oh, jetzt erst mitbekommen. Die haben tatsächlich in der Beschreibung jeder Karte mit G70-Chip einen Link auf den Artikel gesetzt. :eek:

Manche Webseiten schaffens doch immer noch mich zu überraschen...
:eek:
Das hätte ich echt nicht gedacht!

:up: @ Geizhals

Quasar
2005-08-17, 16:09:49
Es flimmert in mehr als einer Situation auch mehr, als mit einer GF6-Karte. *shrugs*

derominöseGast
2005-08-17, 16:11:14
:eek:
Das hätte ich echt nicht gedacht!

:up: @ Geizhals

das verdient respekt aber ich befürchte langsam aber sicher wirklich konsequenzen für 3DC...

ich denke nicht das nochmal ein Sample hierher gesandt wird in zukunft aber auch 3DC verdient somit grössten respekt. der einsatz ist grundsätzlich für uns user auch wenn wir nicht alle mit allem im artikel einverstanden sind.

(y)

derominöseGast
2005-08-17, 16:13:41
Es flimmert in mehr als einer Situation auch mehr, als mit einer GF6-Karte. *shrugs*

nenn mir deine tests und ich werde es nachvollziehen. ich bin nicht verblendet oder voreingenommen und lasse mich gerne überzeugen das die GTX wirklich ein grösseres Problem als die 6800 hat.

bisher habe ich nichts derartiges finden können. (wohlgemerkt ich habe screen to screen tests mit meiner 6800GT und einer GTX gemacht und nicht videos im netz angesehen oder mich sonst beeinflussen lassen)

MikBach@w
2005-08-17, 16:14:22
es bringt zwar nichts aber ich probiere es halt nochmal: lesen, lesen, lesen

ich behaupte nicht das es nicht flimmert. es flimmert und es flimmert um einiges mehr als bei ATI. ich vergleiche in meinen aussagen nur die 6800gt und die GTX und bin nicht einverstanden mit dem HQ GTX movie auf 3DC (mit dem rest des Artikels bin ich einverstanden und begrüsse ihn!)
Auch wenn du dich auf den Kopf stellst und mit den Ohren klatschst, wird deine (falsche) Aussage auch nicht richtiger.
Es ist definitiv so, dass das HQ bei der 7800GTX schlechter ist als das der 6800.
Das sieht man auch sehr gut daran, dass eine 6800 zwischen Q und HQ teilweise massiv Leistung verliert, die 7800GTX aber kaum.
Wie soll das gehen?
Magie?

MadManniMan
2005-08-17, 16:18:37
nenn mir deine tests und ich werde es nachvollziehen. ich bin nicht verblendet oder voreingenommen und lasse mich gerne überzeugen das die GTX wirklich ein grösseres Problem als die 6800 hat.

bisher habe ich nichts derartiges finden können. (wohlgemerkt ich habe screen to screen tests mit meiner 6800GT und einer GTX gemacht und nicht videos im netz angesehen oder mich sonst beeinflussen lassen)

Hm, meiner Einer ist verglichen mit den meisten hier absolut überempfindlich(...geworden, nachdem ich die FX5800 erworb) und vermag auch beim 6600er HQ leichtes Undersampling zu vernehmen, sodaß es ihn durchaus noch ein wenig stört.
Wenn hier diverse Leute(die m.E. eine nicht ganz so krasse Wahrnehmung wie ich besitzen) berichten, daß sie beim G70 und HQ Flimmern wahrnehmen, dazu die Videos und diverse Standbildvergleiche sehe, so wüßte ich nicht, was mich davon überzeugen sollte anzunehmen, daß die G70 Filterung genauso "gut" wäre, wie das der nV4X-Familie.

derominöseGast
2005-08-17, 16:27:55
Auch wenn du dich auf den Kopf stellst und mit den Ohren klatschst, wird deine (falsche) Aussage auch nicht richtiger.
Es ist definitiv so, dass das HQ bei der 7800GTX schlechter ist als das der 6800.
Das sieht man auch sehr gut daran, dass eine 6800 zwischen Q und HQ teilweise massiv Leistung verliert, die 7800GTX aber kaum.
Wie soll das gehen?
Magie?

auch wenn du das noch hundertmal sagst: ulukay, tombman und ich die eine GTX haben sehen das anders.

weshalb sollte man dir als non GTX-user mehr beachtung oder glauben schenken als uns? ich denke die anderen beiden sind ähnlich wie ich und wollen eh immer die neuste, schnellste, beste hardware und keiner von uns ist ein fanman. dazu gesellt sich natürlich dann auch eine relativ grosse "vergleichsdatenbank" in unseren hirnen. Somit sind wir dir ganz bestimmt überlegen wenn es darum geht die IQ von Karten zu vergleichen.

ich glaube das die GTX änderungen im AF hat im vergleich mit der 6800 (siehe grossen artikel in der pcgh) aber sichtbar ist es nicht bzw. auf keinen fall so offensichtlich wie man denken könnte wenn man hier liest.

Quasar
2005-08-17, 16:28:06
nenn mir deine tests und ich werde es nachvollziehen. ich bin nicht verblendet oder voreingenommen und lasse mich gerne überzeugen das die GTX wirklich ein grösseres Problem als die 6800 hat.

bisher habe ich nichts derartiges finden können. (wohlgemerkt ich habe screen to screen tests mit meiner 6800GT und einer GTX gemacht und nicht videos im netz angesehen oder mich sonst beeinflussen lassen)
GTA: SA und Battlefield 2 sind an einigen Stellen deutlich flimmriger.

derominöseGast
2005-08-17, 16:30:42
Hm, meiner Einer ist verglichen mit den meisten hier absolut überempfindlich(...geworden, nachdem ich die FX5800 erworb) und vermag auch beim 6600er HQ leichtes Undersampling zu vernehmen, sodaß es ihn durchaus noch ein wenig stört.
Wenn hier diverse Leute(die m.E. eine nicht ganz so krasse Wahrnehmung wie ich besitzen) berichten, daß sie beim G70 und HQ Flimmern wahrnehmen, dazu die Videos und diverse Standbildvergleiche sehe, so wüßte ich nicht, was mich davon überzeugen sollte anzunehmen, daß die G70 Filterung genauso "gut" wäre, wie das der nV4X-Familie.

ich finde hier keinen der glaubhaft beweisen kann das er GTX und GT ernsthaft verglichen hat und zu deinem genannten ergebniss gekommen ist.

Ein X800 User der zur GTX stösst wird sich wenn er nicht blind ist ganz bestimmt über das flimmern aufregen.

derominöseGast
2005-08-17, 16:33:09
GTA: SA und Battlefield 2 sind an einigen Stellen deutlich flimmriger.

ich kann nur für mich sprechen: SA hab ich nicht und BF flimmert keinen deut mehr als mit der 6800 (das habe ich am meisten überhaupt verglichen) und durch TSSAA sieht es eh besser als auf jeder 6800 aus.

was genau flimmert deiner meinung nach bei BF2 mehr bzw. wie? das grieseln am boden bei mir definitiv nicht und Wandtexturen z.B. sind ruhiger als bei anderen spielen bei mir. (77.76/77.77)

MikBach@w
2005-08-17, 16:40:55
auch wenn du das noch hundertmal sagst: ulukay, tombman und ich die eine GTX haben sehen das anders.
Glückwunsch! :up:

weshalb sollte man dir als non GTX-user mehr beachtung oder glauben schenken als uns?
Du hast mitbekommen, dass ich eine 7800GTX 3 Tage zum Testen hatte. Ich habe etwa 10 Stunden am Tag getestet. Reicht dir das?

ich denke die anderen beiden sind ähnlich wie ich und wollen eh immer die neuste, schnellste, beste hardware und keiner von uns ist ein fanman. dazu gesellt sich natürlich dann auch eine relativ grosse "vergleichsdatenbank" in unseren hirnen. Somit sind wir dir ganz bestimmt überlegen wenn es darum geht die IQ von Karten zu vergleichen.
LOL.
Wenn du kein Unterschied siehst, dann bist du eben die falsche Person um über so etwas zu urteilen.
Über die BQ sollten gerade die Personen urteilen, die da Unterschiede sehen, weil sie eine bessere Wahrnehmungsfähigkeit haben.
Logisch, oder?
Hast du dich überhaupt schon mal mit Grafik befasst?
Ich habe Informatik studiert und mein Diplomarbeitsthema war "Kompression von bewegten Bildern"
Seit dem ist meine Wahrnehmungsfähigkeit so extrem, dass es manchmal weh tut. ;)

ich glaube das die GTX änderungen im AF hat im vergleich mit der 6800 (siehe grossen artikel in der pcgh) aber sichtbar ist es nicht bzw. auf keinen fall so offensichtlich wie man denken könnte wenn man hier liest.
Manchmal grieselt selbst die 6800@HQ.
Und manchal auch die ATI-Karten, aber das dürften echt nicht viele wahrnehmen.

aths
2005-08-17, 16:42:57
Wir, die 7800 GTX (SLI) Besitzer, werden aber sicherlich nicht gegen unsere Überzeugung sprechen, nur damit Nvidia sich bewegt und dir einen Gefallen tut.Du tust dir keinen Gefallen, wenn du NV das durchgehen lässt.

Wir verstehen, daß es für einen AF-Fanatiker wie du es offensichtlich bist, absolut unverständlich zu sein scheint, wieso 7800 GTX (SLI) user sich den Spaß an ihrem System nicht verderben lassen wollen, nur weil ein paar Pixel, die noch dazu auf höheren fps Werten eh nicht mehr so deutlich aus der Reihe tanzen, nicht das tun was sie laut AF-Bibel tun sollten.

Wir verstehen aber nicht, warum du allen 7800 GTX (SLI) usern unterstellst, sie bereuen ihren Kauf zutiefst und trauen sich das öffentlich nicht sagen um das Gesicht nicht zu verlieren., denn das ist schlicht FALSCH Warum regst du dich dann so auf?

Wir LIEBEN unsere 7800 GTX Karten,Ach so.

Laß(t) dir(euch) das mal durch den Kopf gehen, ATHS und Konsorten.Über Texturfilterung, ob nun bi- oder trilinear, oder anisotrop, habe ich wochen- und monatelang nachgedacht.

aths
2005-08-17, 16:44:58
Je länger das Sampling dauert, desto länger ist die ALU blockiert, Das hängt davon ab, wann das Sample gebraucht wird. Unabhängige Berechnungen können durchaus in die ALU geschoben werden, wenn ich mich nicht sehr irre.

derominöseGast
2005-08-17, 16:46:06
Ich habe Informatik studiert und mein Diplomarbeitsthema war "Kompression von bewegten Bildern"

Manchmal grieselt selbst die 6800@HQ.
Und manchal auch die ATI-Karten, aber das dürften echt nicht viele wahrnehmen.

boah da darfst du aber stolz auf dich sein... lass es dir aber nicht zu kopf steigen mein lieber theoretiker ;)

ich muss jetzt echt lachen... "manchmal grieselt selbst die 6800@HQ" da hast du dich jetzt irgendwie verschrieben oder? ansonsten zweifle ich an deiner ach so besseren wahrnehmung gegenüber meiner.

Eine 6800 grieselt auf HQ genau wie eine GTX IMMER! oder willst du behaupten das 3DC movie der HQ 6800 sei auch noch falsch? ich sehe auch bei ATI immer ein leichtes grieseln. für mich gibt es keinen 3D Beschleuniger der nicht grieselt... ich seh selbst bei Starwars3 ein grieseln bei den CGI Szenen ;D

tombman
2005-08-17, 16:49:44
Du tust dir keinen Gefallen, wenn du NV das durchgehen lässt.
Das tue ich nicht. Aber ich reagiere ANGEMESSEN und nicht hysterisch wie du.

Warum regst du dich dann so auf?

Ich reg mich nicht auf, ich stelle klar und reagiere auf dich, der du 7800 GTX user difamierst.

Über Texturfilterung, ob nun bi- oder trilinear, oder anisotrop, habe ich wochen- und monatelang nachgedacht.
Du sollst aber ned über das nachdenken wo du wenig Defizite hast, sondern über das wo du viele hast ;)

Noch was zum Nachdenken für dich: Man stuft einen Golf nicht höher als einen Ferrari ein, nur weil jener ein paar Kratzer im Lack hat.

aths
2005-08-17, 16:52:02
Was 3D Center hier gebracht hat ist richtig, ist wichtig und muss unbedingt weitergegeben werden. Dass Geizhals.at/de auf diesen Artikel verweist ist lobenswert, aber nicht genug. Hätte ich eine Website, würde ich es auch tun. Und das sollten die großen Websitebetreiber wie CD, HWL, Heise, Anandtech, Inquirer, Computer Bild, PC Games Hardware auch machen. Dafür würde ich erstmal werben.Da mache ich mir keine großen Hoffnungen – wir sind denen entweder unbekannt oder werden als Konkurrenz gesehen. Ich persönlich habe für den Artikel noch überhaupt nicht geworben. Wenn er den Usern gefällt, und die auch in anderen Foren zuhause sind, und dort das Thema ansprechen fällt das vielleicht einem mitlesenden Redakteur jener Site auf. Das gute ist, dass wir Tridams Videos haben, was die Wahrscheinlichkeit erhöht dass 3DC dann doch verlinkt wird :)

derominöseGast
2005-08-17, 16:55:49
Du tust dir
Über Texturfilterung, ob nun bi- oder trilinear, oder anisotrop, habe ich wochen- und monatelang nachgedacht.

nachdenken über das AF einer Graka die man selbst nicht hat zum testen ist irgendwie zeitverschwendung :biggrin: als hysterisch empfinde ich dich aber auch nicht. du machst einen guten job und hast massiv geduld... bist du pädagoisch ausgebildet?

PCGH hat das Problem in der neuen Ausgabe drinn und das ist gut so! Sie stellen den Chefentwickler von Nvidia als ziemlichen spacko dar...

Marodeur
2005-08-17, 16:56:43
Am besten trefft ihr euch alle auf der GC und ermittelt an den verschiedenen Ständen den "Grieselerkennungsmeister". Den Orden dürft ihr euch selbst gestalten und ausdrucken... :rolleyes:

Kommt mir leicht übertrieben vor wie sich einige hier gegenseitig beharken wer nun besser das grieseln hier oder dort erkennen kann... :rolleyes:

MikBach@w
2005-08-17, 16:57:08
boah da darfst du aber stolz auf dich sein... lass es dir aber nicht zu kopf steigen mein lieber theoretiker ;)
Damit wollte ich nur andeuten, dass man seine Wahrnehmungsfähigkeit trainieren kann.

ich muss jetzt echt lachen... "manchmal grieselt selbst die 6800@HQ" da hast du dich jetzt irgendwie verschrieben oder? ansonsten zweifle ich an deiner ach so besseren wahrnehmung gegenüber meiner.
Nö, nix verschreiben. Ist so, und wenn du es nicht glauben willst, dann muss ich über deine miese Wahrnehmungsfähigkeit lachen.

Eine 6800 grieselt auf HQ genau wie eine GTX IMMER! oder willst du behaupten das 3DC movie der HQ 6800 sei auch noch falsch?
Du schreibst Bullshit.
Es flimmert eben nicht immer, sondern nur bei bestimmten Texturen, und das ist bei den Movies so.
Wenn man keinen kritischen Kontent hat, flimmert da nichts.

derominöseGast
2005-08-17, 17:01:03
Nö, nix verschreiben. Ist so, und wenn du es nicht glauben willst, dann muss ich über deine miese Wahrnehmungsfähigkeit lachen.

Du schreibst Bullshit.
Es flimmert eben nicht immer, sondern nur bei bestimmten Texturen, und das ist bei den Movies so.
Wenn man keinen kritischen Kontent hat, flimmert da nichts.

also du willst mir ernsthaft als erstes klarmachen das die GTX mehr (!) flimmert, grieselt als eine 6800 und nun das die 6800 fast nie flimmert? :confused:

dann brauchen wir beide nicht mehr zu diskutieren da zu plötzlich über sehschwund klagen müsstest.

mbee
2005-08-17, 17:03:54
Ein X800 User der zur GTX stösst wird sich wenn er nicht blind ist ganz bestimmt über das flimmern aufregen.

Da zähle ich soeben dazu. Bislang habe ich lediglich BF2&UT2004 getestet und zwar unter 1600*1200@8xAF,4XMSAA um mit meiner alten X800 XT PE vergleichen zu können. Die anderen AA-Modi habe ich noch nicht ausprobiert.
Mein erstes Fazit dazu (Forceware 77.77):

Q-Modus: Das Flimmern ist bei beiden Titeln schlichtweg inaktzeptabel bzw. weiß ich gar nicht wozu dieser überhaupt gut sein soll, hätte sich NV IMO sparen können.

HQ-Modus: Kein Vergleich zu ATIs AF (mit AI auf default). Das ist bei mir bei beiden Titeln gefährlich nahe an der Toleranz-Schwelle: Ich kann damit leben, aber es stört bzw. ärgert es mich ungemein, wenn ich an die nicht genutzte Rohpower der Karte denke und dass dieser Modus mit HQ betitelt ist. Unter High Quality verstehe ich was anderes...
Auf SLI bzw. eine zweite Karte werde ich jetzt auch erst mal verzichten, bis der R520 erscheint.

Fazit: Ich werde die Karte erst mal behalten und natürlich nur unter HQ spielen, da ich gerade so damit leben kann. Gigabyte (als Hersteller) wird allerdings von mir auch erst mal eine Beschwerdemail erhalten und bei NV werde ich das auch mal versuchen bzw. auch auf den Artikel verweisen. Beim Launch des R520 werden dann die Karten buchstäblich "neu gemischt", falls dieser eine bessere IQ bei vergleichbarer Leistung bieten sollte bzw. NVIDIA sich nicht besinnt und diesen Mist wieder gerade biegt.

35712
2005-08-17, 17:04:47
Da mache ich mir keine großen Hoffnungen – wir sind denen entweder unbekannt oder werden als Konkurrenz gesehen. Ich persönlich habe für den Artikel noch überhaupt nicht geworben. Wenn er den Usern gefällt, und die auch in anderen Foren zuhause sind, und dort das Thema ansprechen fällt das vielleicht einem mitlesenden Redakteur jener Site auf. Das gute ist, dass wir Tridams Videos haben, was die Wahrscheinlichkeit erhöht dass 3DC dann doch verlinkt wird :)


Damit habe ich ja schonmal den Anfang gemacht, indem ich diese Info an CB weitergegeben habe. HWL wird die nächste Adresse sein an die ich schreibe. Vielleicht heute noch...

MikBach@w
2005-08-17, 17:05:08
dann brauchen wir beide nicht mehr zu diskutieren
Das denke ich auch.
EOD mit dir.

aths
2005-08-17, 17:05:36
Sicher? Ich habe das anders verstanden: Die Texturkoordinaten werden nur 1x pro Texel durchgeschliffen. Sprich 1 Takt pro Texel wird die ALU blockiert und nicht so viele takte, wie die Filterung benötigt. Ich kann mich da aber auch schwer irren...(würde zumindist so Einiges erklären) aths, Demi??Nah. Wir haben SU1 und SU2. Um die Tex-Unit, die dazwischen sitzt, zu nutzen, wird SU1 einen Takt lang blockiert. Die Erzeugung eines bi-Samples wird in der Pipe versteckt, aber kommt trilinear oder AF zum Zuge, ist das Textur-Sample noch nicht fertig, sofern es beim nächsten Befehl gebraucht wird. Dann wartet der gesamte Shader.

derominöseGast
2005-08-17, 17:06:45
Da zähle ich soeben dazu. Bislang habe ich lediglich BF2&UT2004 getestet und zwar unter 1600*1200@8xAF,4XMSAA um mit meiner alten X800 XT PE vergleichen zu können. Die anderen Modi habe ich noch nicht ausprobiert.
Mein erstes Fazit dazu (Forceware 77.77):

Q-Modus: Das Flimmern ist bei beiden Titeln Schlichtweg inaktzeptabel bzw. weiß ich gar nicht wozu dieser überhaupt gut sein soll, hätte sich NV IMO sparen können.

HQ-Modus: Kein Vergleich zu ATIs AF (mit AI auf default). Das ist bei mir bei beiden Titeln gefährlich nahe an der Toleranz-Schwelle: Ich kann damit leben, aber es stört bzw. ärgert es mich ungemein, wenn ich an die nicht genutzte Rohpower der Karte denke und dass dieser Modus mit HQ betitelt ist. Unter High Quality verstehe ich was anderes...
Auf SLI bzw. eine zweite Karte werde ich jetzt auch erst mal verzichten, bis der R520 erscheint.

Fazit: Ich werde die Karte erst mal behalten und natürlich nur unter HQ spielen, da ich gerade so damit leben kann. Gigabyte (als Hersteller) wird allerdings von mir auch erst mal eine Beschwerdemail erhalten und bei NV werde ich das auch mal versuchen bzw. auch auf den Artikel verweisen. Beim Launch des R520 werden dann die Karten buchstäblich "neu gemischt", falls dieser eine bessere IQ bei vergleichbarer Leistung bieten sollte bzw. NVIDIA sich nicht besinnt und diesen Mist wieder gerade biegt.

so isses und nicht anders... schade das du noch keine 6800 sehen konntest, seit 15monaten der gleiche mist und kein hahn hat danach gekräht. Q ist total unbrauchbar und eine frechheit! erinnert mich an eine xbox1...

aths
2005-08-17, 17:10:37
die GTX hat die BESSERE IQ als eine 6800 dank TSAA und gamma cor. aber das AF ist grenzwertig wie es auf der 6800 der Fall ist.Das AF ist nicht "wie auf der 6800", sondern schlechter. Die 6800 kann noch (gerade so) flimmerfrei filtern, die 7800 tut das mit aktuellen Treibern nicht mehr. Das ist ein Faktum.

das ändert nichts an der tatsache das NV und ATI mit den optimierungen auf dem holzweg sind, der artikel nötig ist und hoffentlich was bringt. lügen und BS zu erzählen trägt jedoch nicht zur lösung bei und wird keinem das flimmern wegbringen oder den R520 besser machen.Erzählt der Artikel Lügen und BS? Ich bitte dich.

Trägt es zur Lösung bei, die BQ der 7800 zu akzeptieren? Ändert man dann Nvidias Verhalten oder bestätigt man sie damit nicht noch?

Marc-
2005-08-17, 17:13:30
Das tue ich nicht. Aber ich reagiere ANGEMESSEN und nicht hysterisch wie du.

Ich reg mich nicht auf, ich stelle klar und reagiere auf dich, der du 7800 GTX user difamierst.

Du sollst aber ned über das nachdenken wo du wenig Defizite hast, sondern über das wo du viele hast ;)

Noch was zum Nachdenken für dich: Man stuft einen Golf nicht höher als einen Ferrari ein, nur weil jener ein paar Kratzer im Lack hat.

Ich denk du hast ein problem mit dem selbstbewusstsein.
Inwiefern und aus welchem unerfindlichen grunde fühlst DU dich diffamiert, wenn jemand defizite einer hardware aufzeigt die DU nun grad mal unglückseligerweise oder glücklicherweise dein eigen nennst. Wenn du mit gebotenem zufrieden ist, dann kanns dich doch kaum kratzen. Was kümmert dich dann obs andere für nicht akzektabel halten und fühlst dich deshalb persönlich diffamiert? Ich hab hier keine ausserung gesehen wo jemand persönlich angegriffen wird weil er denn eine solche karte verwendet bzw damit zufrieden ist. Das manch anderer unverständnis dafür aeussert weil er andere anspüche stellt musst du wohl hinnehmen. Die aggression geht eher von denjenigen aus die wenig argumentativ alle die den fehler als solchen sehen angreifen und als atijünger oder neider bezeichnen bzw jedwede kompetenz absprechen. das findet naemlich umgekehrt nicht statt.
Zum ferrari/Golf vergleich: Ich denke es passt nicht ganz... wenn man sagen wuerde das der ferarri motor bisweilen aussetzt bzw stottert, dann kaeme der vergleich wohl eher hin, und ich denke das wuerde man dann schon herabstufen. Zumal die ueberlegenheit der 7800er gegenüber der ati serie wohl weniger gross ist als der leistungsunterschied eines ferarris ggüber einem golf.

derominöseGast
2005-08-17, 17:15:22
Das AF ist nicht "wie auf der 6800", sondern schlechter. Die 6800 kann noch (gerade so) flimmerfrei filtern, die 7800 tut das mit aktuellen Treibern nicht mehr. Das ist ein Faktum.

Erzählt der Artikel Lügen und BS? Ich bitte dich.

Trägt es zur Lösung bei, die BQ der 7800 zu akzeptieren? Ändert man dann Nvidias Verhalten oder bestätigt man sie damit nicht noch?

kann an mir liegen oder an euch das ihr mich immer falsch versteht! bei der grossen überzahl von euch liegt es bestimmt an mir. aber ich hab zeit und erkläre gerne :biggrin:

eine 6800 kann imo keineswegs flimmerfrei filtern... bitte sieh dir doch dein eigenes movie mal an... ist das für dich das AF das gerade so nicht flimmert? :|

die BQ der 7800GTX akzeptiere ich nicht aber mangels anderer Performancekarten um mit oder über 1600x1200 zu spielen kann ich noch nichts anderes einbauen.

Ich starte bald einen Thread warum ATI so lahmarschig den R520 released bzw. über ATI's unfähigkeit TSMC dazu zu bringen ordentliche yields zu feuern.

lügen und Bullshit stehen nicht im artikel sondern einer hat geschrieben das die GTX auf HQ fast wie Q auf 6800 aussehe und wer das befürwortet ist ein basher.

aths
2005-08-17, 17:15:50
das verdient respekt aber ich befürchte langsam aber sicher wirklich konsequenzen für 3DC...

ich denke nicht das nochmal ein Sample hierher gesandt wird in zukunft aber auch 3DC verdient somit grössten respekt. der einsatz ist grundsätzlich für uns user auch wenn wir nicht alle mit allem im artikel einverstanden sind.Wenn Nvidia daraus Konsequenzen ziehen würde, dass wir schlicht die Fakten benennen, wäre das ein Schnitt ins eigene Fleisch. Und so die User es wollen, wird Nvidia auch in Dingen AF dereinst auf den Pfad der Tugend zurückkehren. Nvidia hat mit dem G70 eine Spitzenleistung vollbracht und jedenfalls meine Erwartungen deutlich übertroffen – und das alles mit dem AF versaut. Wenn ihnen aufgeht, dass das ein Fehler war, lernen sie für das nächste mal. Gewinner ist der User, der dann wieder festlegen kann, ob er seine teuer bezahlte Leistung nicht doch lieber in maximale Qualität stecken möchte.

auch wenn du das noch hundertmal sagst: ulukay, tombman und ich die eine GTX haben sehen das anders.Es gibt auch GTX-User, die durch das neue Flimmern gründlich abgenervt sind.

aths
2005-08-17, 17:17:28
Das tue ich nicht. Aber ich reagiere ANGEMESSEN und nicht hysterisch wie du.Wer schreibt hier in Großbuchstaben?

Noch was zum Nachdenken für dich: Man stuft einen Golf nicht höher als einen Ferrari ein, nur weil jener ein paar Kratzer im Lack hat.Wenn ich schon einen Ferrari kaufen würde, dürfte dieser keine Krater im Lack haben.

35712
2005-08-17, 17:18:47
Wenn Nvidia daraus Konsequenzen ziehen würde, dass wir schlicht die Fakten benennen, wäre das ein Schnitt ins eigene Fleisch. Und so die User es wollen, wird Nvidia auch in Dingen AF dereinst auf den Pfad der Tugend zurückkehren. Nvidia hat mit dem G70 eine Spitzenleistung vollbracht und jedenfalls meine Erwartungen deutlich übertroffen – und das alles mit dem AF versaut. Wenn ihnen aufgeht, dass das ein Fehler war, lernen sie für das nächste mal. Gewinner ist der User, der dann wieder festlegen kann, ob er seine teuer bezahlte Leistung nicht doch lieber in maximale Qualität stecken möchte.

Dazu sei gesagt, dass nVidia sich durch die Entscheidung keine Testsample mehr an 3DC zu vershicken beim User nicht beliebter machen würde.

Und wenn schon: Dann kommen die Artikel eben später und die Karte wird von dem Artikelschreibenden gekauft und nach den Tests wieder zurückgegeben. Oder von einem Shop ausgeliehen. Irgendwie geht das immer.

derominöseGast
2005-08-17, 17:19:06
Ich denk du hast ein problem mit dem selbstbewusstsein.
Inwiefern und aus welchem unerfindlichen grunde fühlst DU dich diffamiert, wenn jemand defizite einer hardware aufzeigt die DU nun grad mal unglückseligerweise oder glücklicherweise dein eigen nennst. Wenn du mit gebotenem zufrieden ist, dann kanns dich doch kaum kratzen. Was kümmert dich dann obs andere für nicht akzektabel halten und fühlst dich deshalb persönlich diffamiert? Ich hab hier keine ausserung gesehen wo jemand persönlich angegriffen wird weil er denn eine solche karte verwendet bzw damit zufrieden ist. Das manch anderer unverständnis dafür aeussert weil er andere anspüche stellt musst du wohl hinnehmen. Die aggression geht eher von denjenigen aus die wenig argumentativ alle die den fehler als solchen sehen angreifen und als atijünger oder neider bezeichnen bzw jedwede kompetenz absprechen. das findet naemlich umgekehrt nicht statt.
Zum ferrari/Golf vergleich: Ich denke es passt nicht ganz... wenn man sagen wuerde das der ferarri motor bisweilen aussetzt bzw stottert, dann kaeme der vergleich wohl eher hin, und ich denke das wuerde man dann schon herabstufen. Zumal die ueberlegenheit der 7800er gegenüber der ati serie wohl weniger gross ist als der leistungsunterschied eines ferarris ggüber einem golf.

ach bitte, warum wirst du den jetzt persönlich mein guter...

es gibt sowas wie soziales verhalten... wir sehen es nicht gerne wenn man leute verarscht. momentan sehen wir es am wenigsten gerne wenn NV uns verarscht oder? einige wie ich empfinden halt das HQ movie auch als verarschung...

hat einer mit der GTX slowdowns auf 1fps oder warum stottert der ferrari motor? wohl eher "ich hab getönte scheiben bestellt und keine erhalten.."

Piffan
2005-08-17, 17:19:28
so isses und nicht anders... schade das du noch keine 6800 sehen konntest, seit 15monaten der gleiche mist und kein hahn hat danach gekräht. Q ist total unbrauchbar und eine frechheit! erinnert mich an eine xbox1...

Stimmt nicht! Diejenigen, die das bemängelten, wurden nicht ausreichend gehört. Lolmann mal als Beispiel hat kurz nach ERscheinen von HL2 "Verwunderung" zum Besten gegeben.

HQ ist auch nicht das Gelbe vom Ei.......mit anderen Worten: Wer von Ati auf NV umsteigt, verschlechtert sich in Punkto Texturqualität. Das Dumme ist, dass man die Karte schon persönlich testen muss, um seine Toleranz ausloten zu können.
Vielleicht sind die Videos mit der "bösartigen" Situation doch als Anhaltspunkt zu brauchen.....Klar, in einem Spiel wird man eher selten von flimmernden Texturen umzingelt sein, aber es recht ja schon aus, wenn der Boden oder die Fahrbahn innerhalb eines Spieles vor sich hingrieseln.....
Ist in etwa so wie eine excellent klingende Audioanlage mit mächtig guten Features, die nur einen einzigen, glitzekleinen Nachteil hat: Sie produziert in vielen Stücken ein hörbares Störsignal wie etwa ein Grundrauschen, dass die leisen Passagen untermalt....

derominöseGast
2005-08-17, 17:22:33
Wenn Nvidia daraus Konsequenzen ziehen würde, dass wir schlicht die Fakten benennen, wäre das ein Schnitt ins eigene Fleisch. Und so die User es wollen, wird Nvidia auch in Dingen AF dereinst auf den Pfad der Tugend zurückkehren. Nvidia hat mit dem G70 eine Spitzenleistung vollbracht und jedenfalls meine Erwartungen deutlich übertroffen – und das alles mit dem AF versaut. Wenn ihnen aufgeht, dass das ein Fehler war, lernen sie für das nächste mal. Gewinner ist der User, der dann wieder festlegen kann, ob er seine teuer bezahlte Leistung nicht doch lieber in maximale Qualität stecken möchte.

Es gibt auch GTX-User, die durch das neue Flimmern gründlich abgenervt sind.

hast meine volle zustimmung ausser das ich die GTX ganz bestimmt nicht als total versaut erachte.

die GTX user die von einer 6800 kommen und sich über das anscheinende mehr an flimmern aufregen (relativ eher selten da man dort eher auf den R520 wartet bzw. die nächste NV Generation) sind ganz bestimmt in der minderheit.

derominöseGast
2005-08-17, 17:24:08
Stimmt nicht! Diejenigen, die das bemängelten, wurden nicht ausreichend gehört. Lolmann mal als Beispiel hat kurz nach ERscheinen von HL2 "Verwunderung" zum Besten gegeben.



ich meine natürlich schon im ausmass wie jetzt dieser artikel hier öffentlich wird. bei aller sympathie zu lolman aber so bekannt ist er jetzt auch nicht... ;D

aths
2005-08-17, 17:26:10
Dazu sei gesagt, dass nVidia sich durch die Entscheidung keine Testsample mehr an 3DC zu vershicken beim User nicht beliebter machen würde.

Und wenn schon: Dann kommen die Artikel eben später und die Karte wird von dem Artikelschreibenden gekauft und nach den Tests wieder zurückgegeben. Oder von einem Shop ausgeliehen. Irgendwie geht das immer.Nvidia ist sich, denke ich, darüber im Klaren dass es nicht so geht: Wir kriegen die Karte, sie bekommen ihr Review welches die Karte feiert. Sondern so: Wir kriegen die Karte, sie bekommen ihr Review welches wir nach bestem Wissen und Gewissen erstellen. So oder so bekommen sie Aufmerksamkeit.

derominöseGast
2005-08-17, 17:28:59
Nvidia ist sich, denke ich, darüber im Klaren dass es nicht so geht: Wir kriegen die Karte, sie bekommen ihr Review welches die Karte feiert. Sondern so: Wir kriegen die Karte, sie bekommen ihr Review welches wir nach bestem Wissen und Gewissen erstellen. So oder so bekommen sie Aufmerksamkeit.

das wär natürlich schön aber wird wohl nicht der fall sein... warum sollte NV da plötzlich tugenden an den tag legen die sie nicht haben? die mags gut behandeln und die kunden verarschen?

ob ich in der zeitung stehe und es heisst ich hätte den papst erschossen oder ob ich der neue friedensnobelpreisträger bin ist ein unterschied ;) *nedernstnehmen*

tombman
2005-08-17, 17:36:00
Ich denk du hast ein problem mit dem selbstbewusstsein.
Inwiefern und aus welchem unerfindlichen grunde fühlst DU dich diffamiert, wenn jemand defizite einer hardware aufzeigt die DU nun grad mal unglückseligerweise oder glücklicherweise dein eigen nennst. Wenn du mit gebotenem zufrieden ist, dann kanns dich doch kaum kratzen. Was kümmert dich dann obs andere für nicht akzektabel halten und fühlst dich deshalb persönlich diffamiert? Ich hab hier keine ausserung gesehen wo jemand persönlich angegriffen wird weil er denn eine solche karte verwendet bzw damit zufrieden ist. Das manch anderer unverständnis dafür aeussert weil er andere anspüche stellt musst du wohl hinnehmen. Die aggression geht eher von denjenigen aus die wenig argumentativ alle die den fehler als solchen sehen angreifen und als atijünger oder neider bezeichnen bzw jedwede kompetenz absprechen. das findet naemlich umgekehrt nicht statt.
Zum ferrari/Golf vergleich: Ich denke es passt nicht ganz... wenn man sagen wuerde das der ferarri motor bisweilen aussetzt bzw stottert, dann kaeme der vergleich wohl eher hin, und ich denke das wuerde man dann schon herabstufen. Zumal die ueberlegenheit der 7800er gegenüber der ati serie wohl weniger gross ist als der leistungsunterschied eines ferarris ggüber einem golf.


Es wurde behauptet 7800 GTX Besitzer würden ihre Karten sehr wohl als Fehlkauf sehen, würden das aber auf Grund von Feigheit nicht öffentlich zugeben. DAS hab ich angeprangert. Und das überproportionale Runtermachen der 7800 GTX bis hin zur Kaufwarnung GEHT mich was an, denn ich wünsche mir soviele extreme high end user wie möglich, vorzugsweise mit SLI. Je mehr Leute absolutes highend haben, desto mehr werden die developer Schmankerln einbauen in künftige games. Dabei geht es mir nicht direkt um die 7800 GTX, sondern um ihre Funktion als EINZIGE Vertreterin ihrer Art ZUR ZEIT. Das soll aber bitte nicht als "pushen um jeden Preis" angesehen werden, aber die Flimmerproblematik ist ein sehr kleiner Preis, und kein großer.
Deshalb auch das Bild mit Lackschaden.

aths
2005-08-17, 17:37:50
nachdenken über das AF einer Graka die man selbst nicht hat zum testen ist irgendwie zeitverschwendung :biggrin: als hysterisch empfinde ich dich aber auch nicht. du machst einen guten job und hast massiv geduld... bist du pädagoisch ausgebildet?Nein. Aber mit 28 sollte man ruhig genug sein.

PCGH hat das Problem in der neuen Ausgabe drinn und das ist gut so! Sie stellen den Chefentwickler von Nvidia als ziemlichen spacko dar...D. Kirk, PhD, hat auch mich enttäuscht, aber wenn man aus ihm keine Informationen herausbekommt muss man es eben woanders versuchen. Man muss sich darüber im Klaren sein, was seine Aufgabe ist, dann versteht man auch wie er handelt.

Meine Diplomarbeit hat das Thema "Komprimierungsmöglichkeiten für Foto-Texturen". Nach dem Kommentar zu HL2 dachte ich, warum das nicht mal etwas länger ausführen. Große neue Ideen habe ich zwar nicht anzubieten (immerhin wird hier viel geforscht) aber es macht auch Spaß, sich in sowas mal richtig reinzuknien. Jedenfalls wird diese Arbeit durch Flimmer-Filter und durch winkelabhängige AF-Maximalgrad-Senkung konterkariert. Ich fordere, damit die Speicherung möglichst effizient ist, so viel Informationen in jedes einzelne Texel zu packen, wie möglich, ohne dabei den Bogen zu überspannen. Es bedarf aber eines guten Filters, um diese Informationsdichte noch vernünftig auf den Bildschirm zu bringen.

Unterfilterung sorgt dafür, dass man unscharfe Texturen und eine höhere Auflösung nehmen muss. Mehr Texel sind für den gleichen Detailgrad zu speichern (kostet Platz und Bandbreite), mehr Pixel sind zu berechnen (kostet Füllrate.) Unterfilterung bzw. ein Effekt der so aussieht ist absolut kontraproduktiv und darf nicht mal in Ansätzen da sein.

tombman
2005-08-17, 17:40:22
Wer schreibt hier in Großbuchstaben?

Wer mich kennt weiß, daß ich Großbuchstaben als Betonung verwende, nicht als Schreien, auch wenn das abseits der "Konvention" ist. Bin eben viel zu faul jedes mal die tags zu setzen. Btw, du konzentrierst dich schon wieder auf das WIE und nicht auf das WAS- sowas tut man meistens wenn man keine Argumente mehr hat ;)


Wenn ich schon einen Ferrari kaufen würde, dürfte dieser keine Krater im Lack haben.

Naja, was ein Krater und was ein Katzer ist liegt im Auge des Betrachters. Für Marc- ist es sogar ein Motorschaden ;D;D

derominöseGast
2005-08-17, 17:42:04
Es wurde behauptet 7800 GTX Besitzer würden ihre Karten sehr wohl als Fehlkauf sehen, würden das aber auf Grund von Feigheit nicht öffentlich zugeben. DAS hab ich angeprangert. Und das überproportionale Runtermachen der 7800 GTX bis hin zur Kaufwarnung GEHT mich was an, denn ich wünsche mir soviele extreme high end user wie möglich, vorzugsweise mit SLI. Je mehr Leute absolutes highend haben, desto mehr werden die developer Schmankerln einbauen in künftige games. Dabei geht es mir nicht direkt um die 7800 GTX, sondern um ihre Funktion als EINZIGE Vertreterin ihrer Art ZUR ZEIT. Das soll aber bitte nicht als "pushen um jeden Preis" angesehen werden, aber die Flimmerproblematik ist ein sehr kleiner Preis, und kein großer.
Deshalb auch das Bild mit Lackschaden.

also ich verstehe dich sehr gut weil mir hier auf diesen 32seiten nun auch schon x-mal vorgeworfen wurde ich sei nur daran interessiert mehr GTX'en zu verkaufen bzw. eben ich könne meinen Fehlkauf (wenn dann wars ein Fehlgriff ins Regal und nicht -kauf) nicht eingestehen.

wer zum teufel der jetzt ein 7800SLI hat (ulukay), seinen FX55 verkauft (tombman) oder gar händler wie ich ist, hat es nötig eine Karte die er max. 6Monate benutzt so zu verteidigen wenn er nicht wirklich hinter dem steht was er mit eigenen augen sieht?

wir könnten auch 10mal pro threadseite behaupten das die armen anderen user mit älteren ATI oder NV Karten schlicht neidig sind... bringt aber nix.

aths
2005-08-17, 17:43:21
Fazit: Ich werde die Karte erst mal behalten und natürlich nur unter HQ spielen, da ich gerade so damit leben kann. Gigabyte (als Hersteller) wird allerdings von mir auch erst mal eine Beschwerdemail erhalten und bei NV werde ich das auch mal versuchen bzw. auch auf den Artikel verweisen. Beim Launch des R520 werden dann die Karten buchstäblich "neu gemischt", falls dieser eine bessere IQ bei vergleichbarer Leistung bieten sollte bzw. NVIDIA sich nicht besinnt und diesen Mist wieder gerade biegt.Warum muss die BQ besser bei vergleichbarer Leistung sein? Angenommen, es würde vom AF her die Qualität á la GeForce3-FX geboten, dafür wäre die Framerate 30-40% niedriger (sofern GPU-limitiert.) Wäre das wirklich ein Beinbruch? Imo nein. Wenn's wirklich nicht reicht – Crossfire.

Zur Performance gehört für mich weitaus mehr als nur die Framerate und Kantenglättung.

MikBach
2005-08-17, 17:47:00
Es wurde behauptet 7800 GTX Besitzer würden ihre Karten sehr wohl als Fehlkauf sehen, würden das aber auf Grund von Feigheit nicht öffentlich zugeben. DAS hab ich angeprangert. Und das überproportionale Runtermachen der 7800 GTX bis hin zur Kaufwarnung GEHT mich was an,
Einige geben es zu, dass es ein Fehlkauf war:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3271533#post3271533

tombman
2005-08-17, 17:47:18
wir könnten auch 10mal pro threadseite behaupten das die armen anderen user mit älteren ATI oder NV Karten schlicht neidig sind... bringt aber nix.

Bei aths ist es sicher kein Neid, aber es konterkariert (wie ich dieses Wort hasse) laut seinen Aussagen seine Diplomarbeit ;)

WIe kann Nvidia es wagen ihm in die lebenswichtige Suppe zu spucken? ;D

derominöseGast
2005-08-17, 17:47:49
Warum muss die BQ besser bei vergleichbarer Leistung sein? Angenommen, es würde vom AF her die Qualität á la GeForce3-FX geboten, dafür wäre die Framerate 30-40% niedriger (sofern GPU-limitiert.) Wäre das wirklich ein Beinbruch? Imo nein. Wenn's wirklich nicht reicht – Crossfire.

Zur Performance gehört für mich weitaus mehr als nur die Framerate und Kantenglättung.

wie soll man mit 40% weniger fps einen 1080i HDTV befeuern? ne du... ich erwarte vom R520 min. die gleiche Leistung und eine absolut geniale BQ mit TSSAA. erfüllt werden meine ansprüche eher nicht aber erwarten tu ich es.


und crossfire will ich erst auf dem markt sehen bevor man was dazu sagt. ich empfinde crossfire ehrlich gesagt genau so als pervers wie SLI. da warte ich lieber ein halbes Jahr und kaufe ne neue Generation mit neuen features als noch mehr stromverbrauch und lärm zu ertragen.

tombman
2005-08-17, 17:49:02
Einige geben es zu, dass es ein Fehlkauf war:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3271533#post3271533

Und? Darum gehts nicht in meiner Aussage.

derominöseGast
2005-08-17, 17:50:28
Einige geben es zu, dass es ein Fehlkauf war:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3271533#post3271533

der will es nicht raffen... schade.

der gute da hätte auch eine 6800ultra zurückgebracht. ein ATI user hat ganz andere ansprüche als ein ehemaliger 6800 user und jedem ATI user bei dem das AF die höchste prio hat akzeptiert niemals HQ einer GTX oder 6800.

MikBach
2005-08-17, 17:50:50
Das AF ist nicht "wie auf der 6800", sondern schlechter. Die 6800 kann noch (gerade so) flimmerfrei filtern, die 7800 tut das mit aktuellen Treibern nicht mehr. Das ist ein Faktum.

Erzählt der Artikel Lügen und BS? Ich bitte dich.

So ist es.
Würde der Artikel Lügen oder Bullshit verbreiten, hätte sich Nvidia wohl schon gemeldet. :wink:

MikBach
2005-08-17, 17:52:21
Und? Darum gehts nicht in meiner Aussage.
Sondern?

DrumDub
2005-08-17, 17:53:10
hast meine volle zustimmung ausser das ich die GTX ganz bestimmt nicht als total versaut erachte.
DAS hat aths auch nicht geschrieben, sondern lediglich, dass er das AF der gtx für versaut hält, die karte aber ansonsten für eine spitzenleistung von nvidia. also bitte aussagen inhaltlich korrekt wiedergeben.

aths
2005-08-17, 17:53:54
kann an mir liegen oder an euch das ihr mich immer falsch versteht! bei der grossen überzahl von euch liegt es bestimmt an mir. aber ich hab zeit und erkläre gerne :biggrin:

eine 6800 kann imo keineswegs flimmerfrei filtern... bitte sieh dir doch dein eigenes movie mal an... ist das für dich das AF das gerade so nicht flimmert? :| Ja. 6800 HQ ist grenzwertig, es neigt zum Flimmern ohne tatsächlich zu flimmern.

Filterung ist ein Kompromiss aus Schärfe und Aliasing-Freiheit. Die 6800 HQ geht bis an die Grenze. ATI und die FX tendieren mehr in Richtung Aliasing-Freiheit.

die BQ der 7800GTX akzeptiere ich nicht aber mangels anderer Performancekarten um mit oder über 1600x1200 zu spielen kann ich noch nichts anderes einbauen.

Ich starte bald einen Thread warum ATI so lahmarschig den R520 released bzw. über ATI's unfähigkeit TSMC dazu zu bringen ordentliche yields zu feuern.

lügen und Bullshit stehen nicht im artikel sondern einer hat geschrieben das die GTX auf HQ fast wie Q auf 6800 aussehe und wer das befürwortet ist ein basher.Nah. Das ist eine Frage der Wahrnehmung.

Wenn du die BQ der 7800 nicht akzeptieren würdest, hättest du sie nicht eingebaut gelassen. Selbst wenn du dich darüber ärgerst – Nvidia hat es geschafft, dir die Karte zu verkaufen (über den Umweg eines Boardherstellers, klar.) Vermutlich wirst du auch wieder von NV kaufen, auch wenn sich am AF nichts zum Guten getan hat. Damit bekräftigst du Nvidias Handeln.

derominöseGast
2005-08-17, 17:54:23
So ist es.
Würde der Artikel Lügen oder Bullshit verbreiten, hätte sich Nvidia wohl schon gemeldet. :wink:


meine güte... derjenige der immer den aufwand betreibt und diesen thread von müll posts erleichtert möge meinen und diesen entfernen.

derominöseGast
2005-08-17, 17:55:53
DAS hat aths auch nicht geschrieben, sondern lediglich, dass er das AF der gtx für versaut hält, die karte aber ansonsten für eine spitzenleistung von nvidia. also bitte aussagen inhaltlich korrekt wiedergeben.

bevor man sinnfreie posts wie ich teilweise macht, darf man aber durchaus richtig lesen

Zitat Aths:

"Nvidia hat mit dem G70 eine Spitzenleistung vollbracht und jedenfalls meine Erwartungen deutlich übertroffen – und DAS ALLES mit dem AF versaut."

aths
2005-08-17, 17:58:07
Stimmt nicht! Diejenigen, die das bemängelten, wurden nicht ausreichend gehört. Lolmann mal als Beispiel hat kurz nach ERscheinen von HL2 "Verwunderung" zum Besten gegeben.Ich für mein Teil habe aus der Sache gelernt. Wenn wer sowas zeigen kann, soll er das mit Screenshots oder Videos belegen und es besteht eine gute Chance dass es 3dc in einem Artikel bringt. Auf solche Dinge sollte man immer zeitnah reagieren. NV monatelang mit dem Flimmern bei Q durchkommen zu lassen – wahrscheinlich haben sie sich nur deshalb getraut, das G70-AF entsprechend zu gestalten.

MikBach
2005-08-17, 17:59:30
meine güte... derjenige der immer den aufwand betreibt und diesen thread von müll posts erleichtert möge meinen und diesen entfernen.
Das ist hier doch ein Forum, wo man diskutiert.
BQ ist dabei sehr subjektiv, deswegen können in diesem Fall auch unterschiedliche Aussagen für die einzelnen Personen durchaus korrekt sein.

derominöseGast
2005-08-17, 18:00:12
Ja. 6800 HQ ist grenzwertig, es neigt zum Flimmern ohne tatsächlich zu flimmern.

Filterung ist ein Kompromiss aus Schärfe und Aliasing-Freiheit. Die 6800 HQ geht bis an die Grenze. ATI und die FX tendieren mehr in Richtung Aliasing-Freiheit.

Nah. Das ist eine Frage der Wahrnehmung.

Wenn du die BQ der 7800 nicht akzeptieren würdest, hättest du sie nicht eingebaut. Selbst wenn du dich darüber ärgerst – Nvidia hat es geschafft, dir die Karte zu verkaufen (über den Umweg eines Boardherstellers, klar.) Vermutlich wirst du auch wieder von NV kaufen, auch wenn sich am AF nichts zum Guten getan hat. Damit bekräftigst du Nvidias Handeln.

zum flimmern neigen ohne zu flimmern gib es bei mir nicht. meine 6800 flimmert auf HQ.

Moment... ein Hardwaretester der eine GTX einbaut akzeptiert die Qualität derjenigen? Ich bin kein tester aber es ist vergleichbar... ich teste einfach für mich selbst. Wenn eine grosses Packet mit GTX'en kommt nachdem man lange darauf gewartet hat darf man keine bei sich einbauen um zu sehen was die Babys machen? wie gesagt wenn der R520 lieferbar ist, wird die GTX abtreten ob der R520 besser oder schlechter ist...

MikBach
2005-08-17, 18:01:19
"Nvidia hat mit dem G70 eine Spitzenleistung vollbracht und jedenfalls meine Erwartungen deutlich übertroffen – und DAS ALLES mit dem AF versaut."
Und? Wo ist der Wiederspruch zu DrumDub?

MikBach
2005-08-17, 18:03:43
zum flimmern neigen ohne zu flimmern gib es bei mir nicht. meine 6800 flimmert auf HQ.

Aber nicht bei allen Spielen.
Oder du machst was falsch.

derominöseGast
2005-08-17, 18:04:09
Und? Wo ist der Wiederspruch zu DrumDub?

sag mal jetzt nervst du mich aber langsam... du bist doch deutscher oder? was heisst DAS ALLES? ist das für dich DAS ALLES AF oder ist es grundsätzlich ALLES.... meine güte... :|

ja klar, ich bin so verliebt in meine GTX das ich meiner GT nun schon flimmern andichte... du hast eine GT nehm ich an... gähn...

aths
2005-08-17, 18:06:37
Bei aths ist es sicher kein Neid, aber es konterkariert (wie ich dieses Wort hasse) laut seinen Aussagen seine Diplomarbeit ;)

WIe kann Nvidia es wagen ihm in die lebenswichtige Suppe zu spucken? ;DIch bemühe mich um eine wissenschaftlich basierte Grundlage. Dass diese Flimmer-Sache bei Einstellungen, die annehmbare Grafik erzeugt, mehr Leistung kostet als sie Geschwindigkeit bringt, ist ein Faktum an dem sich nicht rütteln lässt. AF zu haben, was flimmert, ist nicht sinnvoll.

Das AF von ATI anno 2002, verschlechtert im R420 mittels A. I. (und auch ohne A. I. deutlich schlechter als das AF einer GeForce3) ist inzwischen besser als das bestmögliche AF deines teuren G70-SLI-Systems. Das AF des G70 verletzt Kriterien, die durch einen Texturfilter nicht verletzt werden dürfen. Der größte Teil einer 3D-Szene besteht aus resampelten Texturen. Praktisch jedes Pixel profitiert von vernünftigem AF. Selbst wenn es in den meisten Spielen bei hohen fps-Zahlen erträglich ist – mit vernünftigem AF sähe es dennoch entsprechend besser aus. Wenn schon AF, soll es die Texturen doch auch umfassend verbessern. Das darf (muss sogar) auch richtig Leistung kosten – die Leistung hast du immerhin bezahlt.

Mit dem SLI-System hast du die etwa 5-fache Texelleistung einer 5800 Ultra, aber deutlich schlechtere Texturen. Dir steht keine Option offen, Texturen in GeForce-FX-Qualität zu erzeugen, du wirst von NV dazu gezwungen mit Zeug zu leben was selbst ATIs fragwürdiges AF deutlich unterbietet.

Klingt hart? Ist aber so. Wenn du es nicht so stark wahrnimmst, kannst du dich glücklich schätzen.

MikBach
2005-08-17, 18:07:30
sag mal jetzt nervst du mich aber langsam...
Du auch. :)

du bist doch deutscher oder?
Nein, tut hier aber nichts zur Sache.

was heisst DAS ALLES? ist das für dich DAS ALLES AF oder ist es grundsätzlich ALLES.... meine güte... :|
Mit Alles wird aths das Gesamtbild gemeint haben.
Du interpretierst da heftig was rein, was nicht da steht.

aths
2005-08-17, 18:10:44
wie soll man mit 40% weniger fps einen 1080i HDTV befeuern? ne du... ich erwarte vom R520 min. die gleiche Leistung und eine absolut geniale BQ mit TSSAA. erfüllt werden meine ansprüche eher nicht aber erwarten tu ich es.

und crossfire will ich erst auf dem markt sehen bevor man was dazu sagt. ich empfinde crossfire ehrlich gesagt genau so als pervers wie SLI. da warte ich lieber ein halbes Jahr und kaufe ne neue Generation mit neuen features als noch mehr stromverbrauch und lärm zu ertragen.Gute Qualität kostet zwangsläufig entsprechende Leistung. ATI kann sich auch nichts aus den Rippen schneiden. Ich denke nicht, dass der R520 die G70-Leistung entscheidend überbieten wird. Wichtig ist, dass der User festlegen kann, wohin die Leistung gehen soll: In Qualität zulasten der Framerate oder in die Framerate zulasten der Qualität.

derominöseGast
2005-08-17, 18:11:31
Du auch. :)

Nein, tut hier aber nichts zur Sache.

Mit Alles wird aths das Gesamtbild gemeint haben.
Du interpretierst da heftig was rein, was nicht da steht.

wer ist den für das gesamtbild zuständig? nicht die GTX als Produkt? ;D

von wo bist du? wenn du schweizer bist, lade ich dich ein mein guter :smile:

moeb1us
2005-08-17, 18:13:49
@ominöserG: nicht gleich an den karren gefahren fühlen, aber könntest du eventuell bitte erst nochmal überlegen vorm send oder edit benutzen, jedenfalls lesen sich deine 1-satz-posts übel :)

ich wollte nochmal daraufhinweisen, wie sehr ich hoffe, dass allgemeiner druck in der richtung nvidia mal über die darstellung in produktbeschreibungen reflektieren lässt (stichwort quality/high quality). an "normale" user die sich nicht maven-like lange vor einem kauf in die materie diggen dringt die thematik ja gar nicht, und nicht jeder weiss aus einem direkten vergleich um die tatsächlich vorhandenen unterschiede in der bildqualität zwischen ati und nvidia.

ich jedenfalls habe mich erst durch unzufriedenheit mit der qualität in gtr (habe eine 66gt) in die materie gefuchst (leider) und bin auch auf hq mit clamp etc pp unzufrieden, denn es flimmert, gridlines und so extrem. ich hatte bisher immer eine nvidia und war auch bis zum 66gt eigentlich zufrieden damit, aber tja, da geht der schritt schon in die falsche richtung, sowas hätte nicht sein müssen, für mich eine klare fehlentscheidung seitens nvidia sich auf sowas einzulassen. und nun führen sie es noch fort, schade. (und ich hab sogar nV aktien, welch ironie des schicksals oO)

derominöseGast
2005-08-17, 18:14:46
Gute Qualität kostet zwangsläufig entsprechende Leistung. ATI kann sich auch nichts aus den Rippen schneiden. Ich denke nicht, dass der R520 die G70-Leistung entscheidend überbieten wird. Wichtig ist, dass der User festlegen kann, wohin die Leistung gehen soll: In Qualität zulasten der Framerate oder in die Framerate zulasten der Qualität.

hmm... die X850XTPE ist mit 16pipes und 540mhz (etc.) nicht enorm viel langsamer als eine GTX uns sieht im AF weit besser aus. Wenn ich mir einen R520 (was nicht ist weiss man nicht, das ist schon klar) mit 620mhz und 24pipes oder gar ne XTPE Version mit 32Pipes vorstelle... dann würde die G70 ziemlich alt aussehen nicht?

ich bin schon die längste zeit am HIS beschiessen... ich will insider info über den R520.

aths
2005-08-17, 18:16:52
Wer mich kennt weiß, daß ich Großbuchstaben als Betonung verwende, nicht als Schreien, auch wenn das abseits der "Konvention" ist. Bin eben viel zu faul jedes mal die tags zu setzen. Btw, du konzentrierst dich schon wieder auf das WIE und nicht auf das WAS- sowas tut man meistens wenn man keine Argumente mehr hat ;)

Naja, was ein Krater und was ein Katzer ist liegt im Auge des Betrachters. Für Marc- ist es sogar ein Motorschaden ;D;DFür mich auch.

An Argumenten habe ich einen zweiseitigen Artikel mit Damiens Videos anzubieten, nebst weiterführenden Erklärungen in diesem Thread. Du pickst dir nur das raus, worauf du eine Erwiderung zu haben meinen scheinst, oder versuchst die Konklusion generell anzugreifen in dem du deine persönlichen Erfahrungswerte anführt. So mit persönlichen Eindrücken kommen wir in der Sache nicht weiter.

Nvidia hat beim G70 eine Grenze überschritten, die nicht überschritten werden darf. Was sie bisher auf dem Kerbholz haben, z. B. den Flimmer-Quality-Modus, ist schlimm genug. Dem User generell flimmerfreies AF zu verwehren ist ein Unding. Auch wenn man in heutigen Spielen den G70 so konfiguriert bekommt, dass das Flimmern nicht allzusehr stört, kann man einem Liebhaber von Texturqualität den G70 dennoch nicht empfehlen. Denn beim G70 muss er da Kompromisse eingehen. Dir mag der G70 als Gesamtpaket betrachtet ja gefallen. Dass diese Meinung irgendwie ungültig wäre, behauptet weder der Artikel noch drücke ich das im Forum aus. Wer auf Texturqualität wert legt, ist mit dem G70 aber schlecht beraten, weil er nicht die Fähigkeit zeigt, flimmerfreies AF zu erzeugen.

MikBach
2005-08-17, 18:16:53
wer ist den für das gesamtbild zuständig? nicht die GTX als Produkt? ;D
Doch, und eben dieses, durchaus überragende Gesamtbild der 7800GTX wurde unnötig durch das miese AF zerstört.

von wo bist du? wenn du schweizer bist, lade ich dich ein mein guter :smile:
Ne, ich wohne schon in BRD, nur bin ich nicht hier geboren. :)

tombman
2005-08-17, 18:20:18
kann man einem Liebhaber von Texturqualität den G70 dennoch nicht empfehlen.

JETZT hast du es gesagt, vorher waren die Töne noch ganz anders ;)

aths
2005-08-17, 18:21:17
zum flimmern neigen ohne zu flimmern gib es bei mir nicht. Aber bei mir. Mit Verlaub – in solchen Dingen habe ich eine gewisse Grundlagen-Ausbildung.

meine 6800 flimmert auf HQ.Meine 6600 GT nicht.

Moment... ein Hardwaretester der eine GTX einbaut akzeptiert die Qualität derjenigen? Ich bin kein tester aber es ist vergleichbar... ich teste einfach für mich selbst. Wenn eine grosses Packet mit GTX'en kommt nachdem man lange darauf gewartet hat darf man keine bei sich einbauen um zu sehen was die Babys machen? wie gesagt wenn der R520 lieferbar ist, wird die GTX abtreten ob der R520 besser oder schlechter ist...Ich hab mein Posting editiert auf "eingebaut gelassen". Würdest du die AF-Qualität nicht akzeptieren, hättest du die Karte zugunsten einer besseren AF-Implementierung wieder ausgebaut.

MikBach
2005-08-17, 18:24:04
JETZT hast du es gesagt, vorher waren die Töne noch ganz anders ;)
Das steht doch sogar so im Artikel. :rolleyes:

Nvidia liefert mit der aktuellen 7800er-Serie Karten aus, die man Liebhabern von Texturqualität nicht empfehlen kann

aths
2005-08-17, 18:25:21
Mit Alles wird aths das Gesamtbild gemeint haben.Ich meinte damit, dass AF einfach zu den grundlegenden Dingen gehört und die ganze Shader-Technik und das TAA-SS Asche ist, wenn das AF flimmert. Die Winkelabhängigkeit ist schlimm genug, WoW mag ich auf der 6600 GT nicht mit 16x oder 8x AF spielen. Lieber unschärfere, dafür gleichmäßiger unscharfe Texturen.

tombman
2005-08-17, 18:25:22
Praktisch jedes Pixel profitiert von vernünftigem AF.

Mag ja stimmen, aber wenn du die Videos genau anschaust siehst du, daß es nur zwei kleine "Flimmerbänder" gibt- in mittelgroßer Entfernung. Alle anderen Pixel flimmern NICHT, also genauso wie bei der FX Karte. Dh,

nur ein kleiner Teil aller dargestellten Pixel sind betroffen, und nicht das ganze Bild IN DER PRAXIS.

(Und das auch vorwiegend bei entsprechenden Texturen.)
Wenn man jetzt jene Pixel dazurechnet die die 7800 GTX aufgrund ihrer überlegenen Leistung BESSER als die anderen Karten darstellt gewinnt in der Gesamtbildqualität immer noch die 7800 GTX- und deshalb liegt sie immer noch auf Platz 1 :cool:

p.s.: falls der R520 gleiche oder bessere Leistung hat, DANN hat die 7800 GTX ein ECHTES Problem ...

aths
2005-08-17, 18:30:45
hmm... die X850XTPE ist mit 16pipes und 540mhz (etc.) nicht enorm viel langsamer als eine GTX uns sieht im AF weit besser aus. Wenn ich mir einen R520 (was nicht ist weiss man nicht, das ist schon klar) mit 620mhz und 24pipes oder gar ne XTPE Version mit 32Pipes vorstelle... dann würde die G70 ziemlich alt aussehen nicht?Ein Chip mit 24 oder 32 Pipes bei 620 MHz, wo NV bei 24 Pipes nur 430 MHz Werktakt schafft?

Was sagt der Begriff "Pipe"? Wenn der R520 32 Pipes hat, die pro Takt aber nur halb so viel tun können wie eine G70-Pipeline?

ATI kann sich die Leistung auch nicht aus den Rippen schneiden. Wichtig ist dass der User entscheiden darf, wohin die Leistung gehen soll.

MikBach
2005-08-17, 18:32:17
Ich meinte damit, dass AF einfach zu den grundlegenden Dingen gehört und die ganze Shader-Technik und das TAA-SS Asche ist, wenn das AF flimmert. Die Winkelabhängigkeit ist schlimm genug,
Was soll ich sagen, ich stimme voll mit dir überein, nur sehen es hier ein paar Personen anders.

WoW mag ich auf der 6600 GT nicht mit 16x oder 8x AF spielen. Lieber unschärfere, dafür gleichmäßiger unscharfe Texturen.
Ich zocke auch meistens mit 4xAF.

aths
2005-08-17, 18:34:17
Mag ja stimmen, aber wenn du die Videos genau anschaust siehst du, daß es nur zwei kleine "Flimmerbänder" gibt- in mittelgroßer Entfernung. Alle anderen Pixel flimmern NICHT, also genauso wie bei der FX Karte. Dh,

nur ein kleiner Teil aller dargestellten Pixel sind betroffen, und nicht das ganze Bild IN DER PRAXIS. Alle Pixel sind schlechter, aber nur bei einigen heißt das, dass es flimmert. Wenn es irgendwo im Bild flimmert versaut dies das ganze Bild. Sonst hätte sich Kantenantialiasing nie durchgesetzt – es sind ja nur wenige Prozent aller Pixel betroffen.

(Und das auch vorwiegend bei entsprechenden Texturen.)
Wenn man jetzt jene Pixel dazurechnet die die 7800 GTX aufgrund ihrer überlegenen Leistung BESSER als die anderen Karten darstellt gewinnt in der Gesamtbildqualität immer noch die 7800 GTX- und deshalb liegt sie immer noch auf Platz 1 :cool:So kann man es sich zurechtbasteln.

Doch um das Flimmern wirklich wegzukriegen braucht man Supersampling (und LOD-Biasing). Supersampling für das gesamte Bild kostet extrem Leistung. Das Verhältnis von aufgebrachter Leistung zur Qualitätsverbesserung stimmt nicht. Deshalb ist die "effektive" Leistung, auf Texturqualität bezogen, ziemlich gering. Damit der G70 seine wahre Leistung entfalten kann, darf er nicht auf Sperenzchen wie Supersampling angewiesen sein, wenn die Qualität stimmen soll.

Mr. Lolman
2005-08-17, 18:41:15
Das AF von ATI anno 2002, verschlechtert im R420 mittels A. I. (und auch ohne A. I. deutlich schlechter als das AF einer GeForce3) ist inzwischen besser als das bestmögliche AF deines teuren G70-SLI-Systems.

Mach ATis AI nicht schlecht. Ati bot schon vor AI keine perfekte AF Qualität. Mit AI kommt Performance ohne dass man eine BQ Vereschlechterung feststellen könnte => AI ist gut.

MikBach
2005-08-17, 18:45:08
Die Winkelabhängigkeit ist schlimm genug,
Um wieder auf die Winkelabhängigkeit zu kommen...

Ein Chip, welcher winkelunabhängig filtert, braucht einfach mehr Transistoren.
Kann man in etwa sagen, wie viele es bei NV40/R420 und G70, prozentual gesehen, mehr wären?

Marc-
2005-08-17, 18:45:58
Mag ja stimmen, aber wenn du die Videos genau anschaust siehst du, daß es nur zwei kleine "Flimmerbänder" gibt- in mittelgroßer Entfernung. Alle anderen Pixel flimmern NICHT, also genauso wie bei der FX Karte. Dh,

nur ein kleiner Teil aller dargestellten Pixel sind betroffen, und nicht das ganze Bild IN DER PRAXIS.
..

Aeh. LOL?
Wie definierst du den begriff "bild" im bezug auf eine anzeige an einem monitor?
Also für ist das BILD die SUMME der PIXEL. Diese ergeben dann eben ein bild.
Wenn nun sichtbare pixelfehler vorhanden sind, ist wohl zwangsläufig auch das das bild fehlerhaft. Denn woraus sonst besteht das bild als aus pixeln?
Wieviel prozent genau nun fehlerhaft sind spielt imho net eine gravierende rolle. Wenns genug ist das es ständig oder sehr haeufig sichtbar ist, störts das bild.
Ein fernseher der in der mitte einen schwarzen fleck hat der vielleicht nur 1-2% der gesamtbildschirmfläche ausmacht wuerdest du wohl auch kaum als einen mit einem fehlerfreien bild akzeptieren, obwohl die zahl der fehlerfreien bildpunkte ueberwaeltigend ist.
Ich denk net das man so argumentieren kann.

MikBach
2005-08-17, 18:53:15
=> AI ist gut.
Ja.
Konnte bisher keine Unterschiede zwische AI-off und AI-low erkennen.
Wenn jemand Unterschiede bei irgendeinem Spiel festgestellt hat, bitte Melden. :D

tEd
2005-08-17, 19:28:10
Ja.
Konnte bisher keine Unterschiede zwische AI-off und AI-low erkennen.
Wenn jemand Unterschiede bei irgendeinem Spiel festgestellt hat, bitte Melden. :D

ja die gibts , mal hier mal da.

ein paar beispiele. MP2,HL2,fear,halo,ut2003(4) es gibt sicher mehr aber die kenn aus meinr eigenen erfahrung. Ich denke AI low ist generell in ordung aber ich spiele meistens mit ai off, kostet meisten nicht allzu viel performance.

MikBach
2005-08-17, 19:35:29
ja die gibts , mal hier mal da.

ein paar beispiele. MP2,HL2,fear,halo,ut2003(4) es gibt sicher mehr aber die kenn aus meinr eigenen erfahrung. Ich denke AI low ist generell in ordung aber ich spiele meistens mit ai off, kostet meisten nicht allzu viel performance.
Bitte Level und Szene angeben. :)
Am besten ein Save. :)

tEd
2005-08-17, 19:40:54
in ut2003 kannst du es in der antalus map sehen. In antalus flimmern teilweise die bodentexturen es mit AI low mit off nicht.

HL2 die kiesen texturen bei den geleisen flimmert klar mit AI low mit off is es deutlich besser.

Halo vorallem sieht bei den strand texturen ein ehöhtes rieseln

in mp2 gibt es 1 -2 texturen die mit ai low mehr rieseln resp. moire zeigen. z.b in dem level7 im ersten abschnitt ist glaub ich der letzte levem indem abschnitt.

bei der fear demo ist recht offensichtlich das schon ganz am anfang sieht wie die texturen flimmern mit ai low mit off aber nicht

meistens ist es natürlich so das man nicht überall eine verschlechterug sieht was halt einfach auffällt das man hier und da texture aliasing sieht was mit ai off nicht ist

MikBach
2005-08-17, 19:50:33
in ut2003 kannst du es in der antalus map sehen. In antalus flimmert es mit AI low mit off nicht.

HL2 die kiesen texturen bei den geleisen flimmert klar mit AI low mit off is es deutlich besser.

Halo vorallem sieht bei den strand texturen ein ehöhtes rieseln

in mp2 gibt es 1 -2 texturen die mit ai low mehr rieseln resp. moire zeigen. z.b in dem level7 im ersten abschnitt ist glaub ich der letzte levem indem abschnitt.

bei der fear dmo ist recht offensichtlich das schon ganz am anmfang sieht wie die texturen flimmern mit ai low mit off aber nicht

meistens ist es natürlich so das man nicht überall eine verchelchterug sieht was halt einfach auffällt das man hier und da texture aliasing sieht
OK, danke. Werde ich mir mal ansehen.
Ist schon etwas her, dass ich diese Spiele gespielt habe, damals noch ohne AI. ;)
Halo habe ich nie gespielt und habe es auch nicht vor...
HL2 werde ich mir ausleihen müssen, weil ich Steam ätzend finde und mir deswegen das Spiel nicht gekauft habe.
UT2003 habe ich. MP2 auch.
Was fehlt, ist eine R4x0-Karte, die ich mir ausleihen müsste. Das sollte aber kein Problem sein.
Denn bei meiner 9800PRO dürfte es keine Unterschiede geben. :rolleyes:
Oder ist bei AI-low die TS-Optimierung aktiv?

tEd
2005-08-17, 19:55:47
OK, danke. Werde ich mir mal ansehen.
Ist schon etwas her, dass ich diese Spiele gespielt habe, damals noch ohne AI. ;)
Halo habe ich nie gespielt und habe es auch nicht vor...
HL2 werde ich mir ausleihen müssen, weil ich Steam ätzend finde und mir deswegen das Spiel nicht gekauft habe.
UT2003 habe ich. MP2 auch.
Was fehlt, ist eine R4x0-Karte, die ich mir ausleihen müsste. Das sollte aber kein Problem sein.
Denn bei meiner 9800PRO dürfte es keine Unterschiede geben. :rolleyes:
Oder ist bei AI-low die TS-Optimierung aktiv?

nichts :redface:

Quasar
2005-08-17, 20:30:55
nur ein kleiner Teil aller dargestellten Pixel sind betroffen, und nicht das ganze Bild IN DER PRAXIS.
Da schlägt aber dasselbe Problem zu, wie bei einem Pixelfehler im TFT. Zuerst sieht man ihn vielleicht gar nicht. Wenn man mal ein passendes Bild hat, und ein Pixel statt grün auf einmal blau leuchtet, sieht man ihn. Und dann ist es ein wenig ein psychologische Sache: Wenn man einmal weiß, wo er ist, guckt man automatisch immer wieder hin und er nervt.

Ist dir ein 1280x1024er-Display mit einem dauerleuchtenden, weißen Pixel halbrechts oben lieber, als ein 1024x768er-Display mit 100% intakten Pixeln? Ersteres müsste ja auch durch die größere Zahl an Pixeln, die es korrekt darstellt gewinnen.

Mir wäre es das jedenfalls nicht - wenn ich etwas kaufe, dann will ich auch, daß es so funktioniert, wie ich das erwarte. Dabei erwarte ich bei einer Grafikkarte keine Verschlechterung (schon meine 6800 war in der Hinsicht ein Fehler und kommt auch bald wieder weg, aber ich wollte mir einfach mal ein paar mehr Shader ansehen), sondern eine Verbesserung.

Wenn du das anders siehst, und meinst eine Verbesserung in einem Bereich wöge eine Verschlechterung im anderen Bereich auf, ist das dein gutes Recht. Allerdings solltest du deine Erwartungshaltung nicht ungefragt verallgemeinern - wer dir zustimmen will, wird das schon tun. Wer nicht, der eben nicht.

MikBach
2005-08-17, 20:39:12
Da schlägt aber dasselbe Problem zu, wie bei einem Pixelfehler im TFT. Zuerst sieht man ihn vielleicht gar nicht. Wenn man mal ein passendes Bild hat, und ein Pixel statt grün auf einmal blau leuchtet, sieht man ihn. Und dann ist es ein wenig ein psychologische Sache: Wenn man einmal weiß, wo er ist, guckt man automatisch immer wieder hin und er nervt.

Ist dir ein 1280x1024er-Display mit einem dauerleuchtenden, weißen Pixel halbrechts oben lieber, als ein 1024x768er-Display mit 100% intakten Pixeln? Ersteres müsste ja auch durch die größere Zahl an Pixeln, die es korrekt darstellt gewinnen.

Mir wäre es das jedenfalls nicht - wenn ich etwas kaufe, dann will ich auch, daß es so funktioniert, wie ich das erwarte. Dabei erwarte ich bei einer Grafikkarte keine Verschlechterung (schon meine 6800 war in der Hinsicht ein Fehler und kommt auch bald wieder weg, aber ich wollte mir einfach mal ein paar mehr Shader ansehen), sondern eine Verbesserung.

Wenn du das anders siehst, und meinst eine Verbesserung in einem Bereich wöge eine Verschlechterung im anderen Bereich auf, ist das dein gutes Recht. Allerdings solltest du deine Erwartungshaltung nicht ungefragt verallgemeinern - wer dir zustimmen will, wird das schon tun. Wer nicht, der eben nicht.

Klasse Post. :up:

(schon meine 6800 war in der Hinsicht ein Fehler und kommt auch bald wieder weg...aber ich wollte mir einfach mal ein paar mehr Shader ansehen)
Same here.

Gast
2005-08-17, 20:53:14
Hallo

Ich bin auch Besitzer einer 7800GTX(von Leadtek),ich hatte vorher eine 9800pro von Sapphire und war mit dieser auch knapp 2 Jahre zufrieden,leider ist die für die meisten heutigen Spiele zu langsam,deswegen habe ich aufgerüstet und ich kann dieses Flimmern nur bestätigen,ich bin bei solchen sachen sehr empfindlich,ich habe jetzt noch 3 Tage Rückgaberecht daher meine Frage,soll ich sie zurückgeben,oder besteht noch Hoffnung durch einen Treiber der dieses unakzeptable Problem beseitigt?
Wenn ich jetzt genau wüsste das es ein Hardwarebug ist,hätte ich sie schon längst zurückgegeben,aber wenn es einen bessern Treiber geben sollte würde mir das besser gefallen,weil sie schon sehr schnell ist,leider mit diesem blöden Problem.
Für sachlich korrekte Antworten bin ich sehr dankbar.

MikBach
2005-08-17, 21:07:17
Hallo

Ich bin auch Besitzer einer 7800GTX(von Leadtek),ich hatte vorher eine 9800pro von Sapphire und war mit dieser auch knapp 2 Jahre zufrieden,leider ist die für die meisten heutigen Spiele zu langsam,deswegen habe ich aufgerüstet und ich kann dieses Flimmern nur bestätigen,ich bin bei solchen sachen sehr empfindlich,ich habe jetzt noch 3 Tage Rückgaberecht daher meine Frage,soll ich sie zurückgeben,oder besteht noch Hoffnung durch einen Treiber der dieses unakzeptable Problem beseitigt?
Wenn ich jetzt genau wüsste das es ein Hardwarebug ist,hätte ich sie schon längst zurückgegeben,aber wenn es einen bessern Treiber geben sollte würde mir das besser gefallen,weil sie schon sehr schnell ist,leider mit diesem blöden Problem.
Für sachlich korrekte Antworten bin ich sehr dankbar.
Kannst auch so zurückgeben.
Du kaufst ein Produkt.
Grakas bestehen nun mal aus Hardware und Software.
Wenn du mit einer dieser Komponenten nicht zufiueden bist, ist dein Umtauschrecht berechtigt.

godess
2005-08-17, 21:13:04
ich weiß nich ob es schon gesagt wurde, aber: leistung ist nicht gleich arbeit/zeit. leistung ist jenach anwendungsbereich energie/zeit oder elektische spannung/elektrische stromstärke (und noch mehr sachen).
außerdem is die arbeit definiert: leistung * zeit oder kraft * weg

also, aths, deine rechnung haut einfach nich hin...ich mag jetz aber nich überlegen wie das ergebnis nu richtig sein muss

greetz godess

Marc-
2005-08-17, 21:15:27
Kannst auch so zurückgeben.
Du kaufst ein Produkt.
Grakas bestehen nun mal aus Hardware und Software.
Wenn du mit einer dieser Komponenten nicht zufiueden bist, ist dein Umtauschrecht berechtigt.

So nicht ganz richtig.
Hat er die karte online erworben kann er die karte innerhalb von 14 tagen ohne angaben von gründen zurueckschicken.
Hat er sie im laden gekauft, kann er sie zurueckgeben wenn er beispielsweise arglistig getäuscht worden ist (hier wohl net zu unterstellen) oder das produkt eine zugesagte eigenschaft nicht erfüllt. Das wäre wohl zu klären was und wie genau nvidia irgendeine bildqualitätseigenschaft explizit zugesichert hat.
Kaeme in dem fall wohl auf einen versuch an.

Piffan
2005-08-17, 21:19:35
ich weiß nich ob es schon gesagt wurde, aber: leistung ist nicht gleich arbeit/zeit. leistung ist jenach anwendungsbereich energie/zeit oder elektische spannung/elektrische stromstärke (und noch mehr sachen).
außerdem is die arbeit definiert: leistung * zeit

also, aths, deine rechnung haut einfach nich hin...ich mag jetz aber nich überlegen wie das ergebnis nu richtig sein muss

greetz godess

Na wenn du es sagst....... :|


Ne, wie aths das sagte, ist es völlig korrekt im physikalischen Sinne. Außerdem ist es nur ein Gleichnis. Wenn ich meine Karte auf 640x480 runterwürge, dann nimmt die Leistung ja auch nicht zu, nur weil ich jetzt neue FPS- Höhenflüge antrete.....Aths meint halt, dass man die FPS- Zahl in Relation zur Qualität sehen muss, denn Qualität erfordert zusätzliche Rechenabeit.....

Nv veräppelt ja den Kunden, indem sie ihm nominell mehr anbietet als er real bekommt. Wenn Sie es denn so schlau wie Ati machen würden. Aths ist schließlich Kronzeuge: Das AI verschlechtert das Bild so gut wie nicht. Ergo liefert Ati mehr Leistung ab. :biggrin:

Tom Servo
2005-08-17, 21:19:58
@godess Hat mich auch zuerst verwirrt, aber aths hat m.E. schon recht damit:

Leistung = Spannung * Stromstärke (1W = 1V * 1A)

Arbeit = Leistung * Zeit (1Wh = 1W * 1h)

Das wäre dann umgestellt:

Leistung = Arbeit / Zeit (1W = 1Wh / 1h)


Die Analogie ist aber irgendwie eher verwirrend statt hilfreich für mich, weil ja Arbeit aus Leistung und Zeit entsteht und nicht umgekehrt. Kann aber auch an mir liegen.

godess
2005-08-17, 21:23:16
So nicht ganz richtig.
Hat er die karte online erworben kann er die karte innerhalb von 14 tagen ohne angaben von gründen zurueckschicken.
Hat er sie im laden gekauft, kann er sie zurueckgeben wenn er beispielsweise arglistig getäuscht worden ist (hier wohl net zu unterstellen) oder das produkt eine zugesagte eigenschaft nicht erfüllt. Das wäre wohl zu klären was und wie genau nvidia irgendeine bildqualitätseigenschaft explizit zugesichert hat.
Kaeme in dem fall wohl auf einen versuch an.

falsch, auch im laden gilt das 14-tage rückgaberecht. es geht nämlich nich darum wo/wie du es kaufst. der gestetzgeber gewährt dem verbraucher auf jeden kauf den er macht, ein 14-tage-rückgaberecht und eine 2-jährige garantie(die garantie gilt bei lebensmitteln natürlich nich^^). denn es ist ein gültiger kaufvertrag von beiden parteien eingegangen worden, der is aber immer gleich vor dem gestetz, ob nu inet oder laden.

Piffan
2005-08-17, 21:25:04
@godess Hat mich auch zuerst verwirrt, aber aths hat m.E. schon recht damit:

Leistung = Spannung * Stromstärke (1W = 1V * 1A)

Arbeit = Leistung * Zeit (1Wh = 1W * 1h)

Das wäre dann umgestellt:

Leistung = Arbeit / Zeit (1W = 1Wh / 1h)


Die Analogie ist aber irgendwie eher verwirrend statt hilfreich für mich, weil ja Arbeit aus Leistung und Zeit entsteht und nicht umgekehrt. Kann aber auch an mir liegen.


Es ist eine Metapher. Man kann die logischen Operationen der Chips beim besten Willen nicht als "Arbeit" im Physikalischen Sinnen auffassen. Oder ist ein hochgefiltertes Bild energiereicher als ein Flimmerbild?

Die einzige echte Leistung ist die Heizleistung der Chips. Immerhin spart man so an den Heizkosten in der Wohnung. Allerdings ist Strom teuer im Vergleich zu primären Energien...

Piffan
2005-08-17, 21:29:20
falsch, auch im laden gilt das 14-tage rückgaberecht. es geht nämlich nich darum wo/wie du es kaufst. der gestetzgeber gewährt dem verbraucher auf jeden kauf den er macht, ein 14-tage-rückgaberecht und eine 2-jährige garantie(die garantie gilt bei lebensmitteln natürlich nich^^). denn es ist ein gültiger kaufvertrag von beiden parteien eingegangen worden, der is aber immer gleich vor dem gestetz, ob nu inet oder laden.

Nö. Das Umtauschrecht besteht nur beim Fernabsatz......
Wenn Händler kulant sind, dann auf freiwilliger Basis. Aldi zum Bleistift hat mich schon öfter zu Probekäufen verleitet. Beispiele: PC mit Northwood und 9800 XXL: Nach Umbau behalten. Digicam: Von den Probefotos Augenkrebs bekommen, zurückgebracht. T-DVB- Box: GAanz schlechter Empfang, zurückgebracht.....usw.

Bei Mutter rede ich vorher mit dem Verkäufer, ob im Problemfall eine Rückgabe eingeräumt wird. Bisher immer grünes Licht bekommen, allerdings bisher keinen Ramsch dort gekauft...

Marc-
2005-08-17, 21:29:21
falsch, auch im laden gilt das 14-tage rückgaberecht. es geht nämlich nich darum wo/wie du es kaufst. der gestetzgeber gewährt dem verbraucher auf jeden kauf den er macht, ein 14-tage-rückgaberecht und eine 2-jährige garantie(die garantie gilt bei lebensmitteln natürlich nich^^). denn es ist ein gültiger kaufvertrag von beiden parteien eingegangen worden, der is aber immer gleich vor dem gestetz, ob nu inet oder laden.

Zeigst du mir die entsprechende gesetzespassage bitte?
die wuerd mich interessieren. Wozu wurde denn dann extra die sonderregelung im FAG gemacht? Aber ich lass mich gerne eines besseren belehren. Muesste ja dann im BGB stehen nehm ich an... zeigst mir das bitte?

Übrigens darf ich dich trotzdem korrigieren... bei den 2 jahren handelt es sich um gewährleistung und nicht um garantie. Gewaehrleistung ist eine gesetzliche vorgeschriebene leistung, die garantie eine erweiterte freiwillige leistung.
Ausserdem, nur der vollstaendigkeit halber findet bei der gewährleistung nach 6 monaten eine beweislastumkehr statt, das heisst, das der kaeufer nachweisen muss, das der mangel der letztlich zur funktionsstörung oder ausfall des artikels geführt hat zum zeitpunkt des kaufs bestanden hat und nicht nachtraeglich zugeführt wurde. Vorher gilt eine art augenscheinsbeweis.
Ums komplett zu machen, hat auch bei der gewährleistung der verkaeufer ein dreimaliges nachbesserungsrecht, erst danach kann wandlung verlangt werden, das heisst der vertrag rueckabgewickelt werden. Also mit einfach zurueckgeben ist es selbst in der gewaehrleistung nicht getan.

godess
2005-08-17, 21:36:51
1. qualität is KEINE physikalische größe, da sie jeder anders empfindet. also eine relation (=eine division) aus leistung und qualität zu bilden ist grundsätzlich falsch.
2. @Tom Servo. stimmt. aber ich lass mich gerne belehren.

ich wollte zu dem sagen. beim benchmarken geht es nicht darum festzustellen, welche leistung die graka hat (im volksmund fälschlicher weise so ausgedrückt) die leistung der graka is sozusagen durch architektur, takt etc. vordefiniert.

eigentlich geht es darum festzustellen wie die graka ihre vorhandene leistung umsetzt, d.h. wie viel ARBEIT sie verrichtet. wir wollen durch benschmarks also nich die leistung sondern die verrichtete arbeit untersuchen. arbeit ist in dem sinne die sogenannte einheit fps. ich weiß nich ob diese einheit physikalisch daneben is oder nich. feststeht dass die leistung einer graka die "menge"(lapidal ausgedrückt) an strom (nochma lapidal ausgedrückt) sie erbraucht/benötigt/umsetzt in arbeit. arbeit einer graka is das was wir auf dem monitor sehen.

3. @Marc- sry, dass ich garantie geschrieben hab, ich meinte natürlich gewährleistung. aber wenn jeder herrsteller garantie sagt, kann mann da schon durhceinander kommen. außerdem hab ich grad leider nich das bgb oder das GG zur hand, hab ich gestern fix mein kumpel ausgeliehen :wink:
es bleibt trotzdem kaufvertrag = kaufvertrag. im inet wird nur explizit auf das rückgabe recht hingewiesen, da kunden eine sicherheit haben wollen, wenn sie das produckt schon nur per bild sehen können.

aths
2005-08-17, 21:45:04
ich weiß nich ob es schon gesagt wurde, aber: leistung ist nicht gleich arbeit/zeit. leistung ist jenach anwendungsbereich energie/zeit oder elektische spannung/elektrische stromstärke (und noch mehr sachen).
außerdem is die arbeit definiert: leistung * zeit oder kraft * weg

also, aths, deine rechnung haut einfach nich hin...ich mag jetz aber nich überlegen wie das ergebnis nu richtig sein muss

greetz godessIn der Mechanik ist Leistung Arbeit pro Zeit. Es gibt auch andere Leistungsangaben. Arbeit ist Kraft mal Weg, ja. Beim Undersampling wird sozusagen nicht genügend Weg zurückgelegt.

Energie ist gespeichertes Arbeitsvermögen, deshalb kann man auch von Energie pro Zeit sprechen.

Marc-
2005-08-17, 21:45:07
3. @Marc- sry, dass ich garantie geschrieben hab, ich meinte natürlich gewährleistung. aber wenn jeder herrsteller garantie sagt, kann mann da schon durhceinander kommen. außerdem hab ich grad leider nich das bgb oder das GG zur hand, hab ich gestern fix mein kumpel ausgeliehen :wink:
es bleibt trotzdem kaufvertrag = kaufvertrag. im inet wird nur explizit auf das rückgabe recht hingewiesen, da kunden eine sicherheit haben wollen, wenn sie das produckt schon nur per bild sehen können.

Sorry. aber das ist definitiv falsch.
Genau für diese sicherheit ist den kunden BEIM ONLINEKAUF exklusiv das umtausch/rückgaberecht im FAG eingeräumt worden, weil es sie sonst unverhältnismässig benachteiligen wuerde.
Im Ladenverkauf gibts diese regelung nicht.
Und ein Kaufvertrag ist nicht wirklich gleich kaufvertrag. Beim grundstückskauf zum beispiel gelten ganz andere regelungen in vielerlei hinsicht als bei dem gemeinen alltäglichen kaufvertrag.

Da dus mir ja eh net glaubst... http://www.garantiezeit.de/html/umtausch___gewahrleistung.html

Matt
2005-08-17, 21:45:26
Nachdem schon einiges über das Flimmern diskutiert wurde:

Was haltet ihr davon?

Eine eigene HP einrichten, mit einer möglichkeit zur Unterschriftenaktion, in allen sprachen. Domain zum Beispiel nooptimations.net, natürlich dann auch nvidia.nooptimations.net, ati.nooptimations.net usw. Bin schon mal auf der Suche nach Webhost :D

aths
2005-08-17, 21:48:27
Na wenn du es sagst....... :|


Ne, wie aths das sagte, ist es völlig korrekt im physikalischen Sinne. Außerdem ist es nur ein Gleichnis. Wenn ich meine Karte auf 640x480 runterwürge, dann nimmt die Leistung ja auch nicht zu, nur weil ich jetzt neue FPS- Höhenflüge antrete.....Aths meint halt, dass man die FPS- Zahl in Relation zur Qualität sehen muss, denn Qualität erfordert zusätzliche Rechenabeit.....

Nv veräppelt ja den Kunden, indem sie ihm nominell mehr anbietet als er real bekommt. Wenn Sie es denn so schlau wie Ati machen würden. Aths ist schließlich Kronzeuge: Das AI verschlechtert das Bild so gut wie nicht. Ergo liefert Ati mehr Leistung ab. :biggrin: Nur weil ich in dieser Szene nach einer kurzen Begutachtung keine großen Unterschiede sehe, heißt das nicht, dass A. I. prinzipiell unsichtbar "optimieren" würde.

aths
2005-08-17, 21:50:43
Hallo

Ich bin auch Besitzer einer 7800GTX(von Leadtek),ich hatte vorher eine 9800pro von Sapphire und war mit dieser auch knapp 2 Jahre zufrieden,leider ist die für die meisten heutigen Spiele zu langsam,deswegen habe ich aufgerüstet und ich kann dieses Flimmern nur bestätigen,ich bin bei solchen sachen sehr empfindlich,ich habe jetzt noch 3 Tage Rückgaberecht daher meine Frage,soll ich sie zurückgeben,oder besteht noch Hoffnung durch einen Treiber der dieses unakzeptable Problem beseitigt?Die Hoffnung stirbt zuletzt.

Mir liegen ziemlich verwirrende Hinweise vor, die sich in die eine oder in die andere Richtung interpretieren lassen. Ob du die Karte zurückgeben willst oder nicht solltest du anhand deiner persönlichen, subjektiven Beurteilung entscheiden. Siehst du das Flimmern? Kannst du damit leben oder willst du für den Preis bessere Texturen?

aths
2005-08-17, 21:52:14
1. qualität is KEINE physikalische größe, da sie jeder anders empfindet. also eine relation (=eine division) aus leistung und qualität zu bilden ist grundsätzlich falsch.Qualität definiere ich in diesem Zusammenhang als Nähe zum perfekten Bild.

Piffan
2005-08-17, 21:54:18
Nur weil ich in dieser Szene nach einer kurzen Begutachtung keine großen Unterschiede sehe, heißt das nicht, dass A. I. prinzipiell unsichtbar "optimieren" würde.

Och Mönsch, war doch nur leises Sticheln. Ist schon klar, dass AI wohl auch kaum der Stein der Weisen ist, aber immerhin bietet Ati einen Ausschalter. Damit zeigt Ati, dass man vor dem Kunden noch einen gewissen Respekt hat.....

NV wird die Kunden auch noch fürchten, wenn der Artikel nur genug Verbreitung findet. :devil:

godess
2005-08-17, 21:56:20
In der Mechanik ist Leistung Arbeit pro Zeit. Es gibt auch andere Leistungsangaben. Arbeit ist Kraft mal Weg, ja. Beim Undersampling wird sozusagen nicht genügend Weg zurückgelegt.

Energie ist gespeichertes Arbeitsvermögen, deshalb kann man auch von Energie pro Zeit sprechen.

eine grafikkarte übt weder eine kraft aus (außer vielleicht die auf das mb) noch legt sie einen weg zurück, also is dieser verlgeich völlig ausm blauen gegriffen.

derominöseGast
2005-08-17, 22:06:11
Da schlägt aber dasselbe Problem zu, wie bei einem Pixelfehler im TFT. Zuerst sieht man ihn vielleicht gar nicht. Wenn man mal ein passendes Bild hat, und ein Pixel statt grün auf einmal blau leuchtet, sieht man ihn. Und dann ist es ein wenig ein psychologische Sache: Wenn man einmal weiß, wo er ist, guckt man automatisch immer wieder hin und er nervt.

Ist dir ein 1280x1024er-Display mit einem dauerleuchtenden, weißen Pixel halbrechts oben lieber, als ein 1024x768er-Display mit 100% intakten Pixeln? Ersteres müsste ja auch durch die größere Zahl an Pixeln, die es korrekt darstellt gewinnen.

Mir wäre es das jedenfalls nicht - wenn ich etwas kaufe, dann will ich auch, daß es so funktioniert, wie ich das erwarte. Dabei erwarte ich bei einer Grafikkarte keine Verschlechterung (schon meine 6800 war in der Hinsicht ein Fehler und kommt auch bald wieder weg, aber ich wollte mir einfach mal ein paar mehr Shader ansehen), sondern eine Verbesserung.

Wenn du das anders siehst, und meinst eine Verbesserung in einem Bereich wöge eine Verschlechterung im anderen Bereich auf, ist das dein gutes Recht. Allerdings solltest du deine Erwartungshaltung nicht ungefragt verallgemeinern - wer dir zustimmen will, wird das schon tun. Wer nicht, der eben nicht.


deine meinung. fehlendes TSSAA wäre demnach eine katastrophe den für mich ist dies inzwischen bereits ein "must have". ich empfinde einen streifen der grieselt am boden nicht als schlimmer als fehlendes TSSAA...

http://www.nvnews.net/reviews/bfg_geforce_7800_gtx_oc/fear_fence_aa_comparison.shtml

http://www.nvnews.net/reviews/bfg_geforce_7800_gtx_oc/fear_floor_aa_comparison.shtml

http://www.nvnews.net/reviews/bfg_geforce_7800_gtx_oc/ds2_aa_comparison.shtml

ich habs schon mal gesagt und ich sage es wieder: AF ist nicht alles für die meisten (natürlich in diesem thread schon) das ändert aber nicht die tatsache das NV hier eine grosse gelegenheit verpasst hat die "momentan perfekte Karte" zu produzieren... denn eben perfekt ist sie leider nicht.


und könnte man das Fernabsatzgesetzt und die Energien weglassen? hat nicht wirklich viel hier verloren oder?

Thowe
2005-08-17, 22:08:19
...

Mir wäre es das jedenfalls nicht - wenn ich etwas kaufe, dann will ich auch, daß es so funktioniert, wie ich das erwarte. Dabei erwarte ich bei einer Grafikkarte keine Verschlechterung (schon meine 6800 war in der Hinsicht ein Fehler und kommt auch bald wieder weg, aber ich wollte mir einfach mal ein paar mehr Shader ansehen), sondern eine Verbesserung.

...


Oh ja, darüber kann ich auch ein Liedchen singen. Ich hatte von meiner Radeon 9800 auf die 6600GT als SLi gewechselt (Neugier), die Karten segneten nur zu schnell das Zeitliche, weswegen ich zwischendurch eine 6800GT hatte, danach wieder eine 6600GT, die irgendwann auch abrauchte und dann war ich es nur zu sehr leid mit NVIDIA. BQ im Vergleich zur 9800 schlechter, da nützt es mir gar nichts, das sie einen Tacken schneller war. Da kam mir die X800XL nur zu recht, seit dem geht es mir wieder besser. Aus meiner Sicht muss NV nun gerade bei der BQ deutlich besser sein als ATI, damit sie mich als Kunden wieder gewinnen können. Auf die letzen paar FPS mehr, um es direkt zu sagen, scheiss ich einen großen Haufen. Wenn ich schon Geld für Grafikkarten ausgeben aus dem HighEnd-Bereich, dann erwarte ich verdammt noch mal auch HighEnd-Grafik und nicht > 100FPS bei 1600x1280 Auflösung, das kann mein TFT eh nicht, aber dafür seh ich jeden "Performance-Mist" und vielleicht sollte man einfach den Leute die Qualität erwarten, auch mal Qualität bieten und wenn jemand an einem Schalter Qualität schreibt, dann erwarte ich die eben auch, alles andere ist aus meiner Sicht ein Mangel und somit gar Grund für eine Reklamation.

godess
2005-08-17, 22:10:51
aths, im atikel steht ja auch, dass die leistung durch verminderte qualiät nich zu nimmt. stimmt. die leistung kann nur durch z.b. übertakten erhöht werden. die arbeit kann allerdings durch optimierungen erhöht werden

Piffan
2005-08-17, 22:17:37
Das Problem ist leider, dass "Qualität" ein schwammiger Begriff ist.
Würde man vom Idealen AF nach wissenschaftlichen Grundsätzen ausgehen, bietet derzeit keiner die höchste Qualität.
Nv ist jedoch eindeutig zu weit gegangen, wenn sie einen Müllmodus mit "Q" bezeichnet und einen mittelmäßigen, für viele auch schon schlechten Modus als das "HQ" beschreibt. Es ist geradezu Beschiss, wenn die Hardware vom Preis her High- End ist und dann keine besseren Modi ermöglicht.
Die neueste und teuerste Hardware sollte eigentlich beim Filtern state of the art bieten. Mit einer Verschlechterung KANN ein Kunde eigentlich nicht rechnen.

godess
2005-08-17, 22:19:09
richtisch, in beiden belangen. naja, aths hat wohl die lust verloren sich zu verteidigen.

Piffan
2005-08-17, 22:22:47
aths, im atikel steht ja auch, dass die leistung durch verminderte qualiät nich zu nimmt. stimmt. die leistung kann nur durch z.b. übertakten erhöht werden. die arbeit kann allerdings durch optimierungen erhöht werden

Na wenn Du es sagst....

Nun zum letzten Mal zu diesem Off- topic: Es ist ein GLEICHNIS. In einem PC werden logische Operationen durchgeführt. Dieses hat NICHTS mit Arbeit im physikalischen Sinne zu tun. Lediglich die verheizte Energie erhöht die Entropie und darf als Arbeit bezeichnet werden......Oder hat ein gerendertes Bild einen Energieinhalt?

Piffan
2005-08-17, 22:23:49
richtisch, in beiden belangen. naja, aths hat wohl die lust verloren sich zu verteidigen.

So wird es wohl sein. :|

Könnte mal ein Mod zum Besen greifen? Leider ist der Thread etwas zerfusselt. :redface:

derominöseGast
2005-08-17, 22:29:14
könnte es auch sein das aths auch noch ein anderes leben hat als das 3DC?

der gute ist schon seit dem frühen nachmittag unaufhörlich am schreiben in diesem thread und hat sich eine pause mehr als verdient ;)

godess
2005-08-17, 22:31:07
das gerenderte bild besteht aus elektrischen signalen, also hat es einen energiegehalt. außerdem gibt es auch elektrische arbeit, und die verrichtet die graka(sie wandelt nämlich elektrische signale um). würde die graka keine arbeit verichten, wäre sie nichts weiter als eine elektroheizung, und selbst das is arbeit.

Piffan
2005-08-17, 22:33:54
könnte es auch sein das aths auch noch ein anderes leben hat als das 3DC?

der gute ist schon seit dem frühen nachmittag unaufhörlich am schreiben in diesem thread und hat sich eine pause mehr als verdient ;)

Ach was, unsere Gallionsfigur schwächelt nie!

Manchmal frage ich mich wirklich, woher er diese Geduld hat.

godess
2005-08-17, 22:36:04
er is einfach nur etwas eingebildet und rechthaberisch, und muss/will solange streiten bis er recht hat.

Piffan
2005-08-17, 22:36:37
das gerenderte bild besteht aus elektrischen signalen, also hat es einen energiegehalt. außerdem gibt es auch elektrische arbeit, und die verrichtet die graka(sie wandelt nämlich elektrische signale um)

GEnau, und wenn ich mal meine Festplatte nach Bildern durchsehe, dann haben die inzwischen einen Energieinhalt von mehreren Kilowattstunden. Da muss ich beim Löschen verdammt aufpassen, dass die nicht durchglühen.......

Mit der Hand vor die Stirn klatsch: Jetzt weiß ich, warum meine Video- Platte abgeraucht ist: Zu viele Bilder. :redface:

edit: Bis mal einer mit dem Besen gekommen ist, sage ich vorerst: Tschau! ;)

derominöseGast
2005-08-17, 22:38:57
er is einfach nur etwas eingebildet und rechthaberisch, und muss/will solange streiten bis er recht hat.

ich kenne ihn nur aus diesem thread (meine güte meine ganzen posts sind nur von diesem einen thread :| ) und der gute aths ist mir verdammt sympathisch. nicht perfekt aber zu 90% hat er recht und mit seinem wissen kommt es schnell vor das er dem einen oder anderen eingebildet vorkommt.

das sage ich, der nicht mal wirklich mit ihm einverstanden ist... könnte am alter liegen :redface:

ps: der besenmann verdient auch ein lob, der macht seine arbeit bisher sehr gut... könnte es aths sein? :biggrin:

Gast
2005-08-17, 22:42:41
Die Hoffnung stirbt zuletzt.

Mir liegen ziemlich verwirrende Hinweise vor, die sich in die eine oder in die andere Richtung interpretieren lassen. Ob du die Karte zurückgeben willst oder nicht solltest du anhand deiner persönlichen, subjektiven Beurteilung entscheiden. Siehst du das Flimmern? Kannst du damit leben oder willst du für den Preis bessere Texturen?


Das ist wirklich verwirrend,natürlich sehe ich das Flimmern,und es stört mich auch, wenn ich schon 485€ dafür hinlege möchte ich neben der Geschwindigkeit auch eine dem Preis angemessene BQ haben!
Aber meine Frage wurde damit nicht beantworte,ich bin hier keiner von den Usern die sich alle 6 Monate eine neue Karte leisten können,ich habe für diese sehr lange gespart und sie sollte wieder 1 1/2 - 2 Jahre reichen.
Wenn ich sie jetzt zurück gebe und es kommt eine Woche später oder so ein Treiber raus der den MIST behebt,dann habe ich keinen Bock sie mir nochmal zukaufen,warum muss das alles so kompliziert sein...
Schade das ich den Artikel so spät entdeckt habe,aber ich hatte einige Test im Internet durchgeschaut und da wurde das nirgends erwähnt!
Der Highend Bereich der Grafikkarten sollte gute Geschwindigkeit bei bester BQ sein,so war es jedenfalls vor ein paar Jahren noch!

derominöseGast
2005-08-17, 22:45:53
Das ist wirklich verwirrend,natürlich sehe ich das Flimmern,und es stört mich auch, wenn ich schon 485€ dafür hinlege möchte ich neben der Geschwindigkeit auch eine dem Preis angemessene BQ haben!
Aber meine Frage wurde damit nicht beantworte,ich bin hier keiner von den Usern die sich alle 6 Monate eine neue Karte leisten können,ich habe für diese sehr lange gespart und sie sollte wieder 1 1/2 - 2 Jahre reichen.
Wenn ich sie jetzt zurück gebe und es kommt eine Woche später oder so ein Treiber raus der den MIST behebt,dann habe ich keinen Bock sie mir nochmal zukaufen,warum muss das alles so kompliziert sein...
Schade das ich den Artikel so spät entdeckt habe,aber ich hatte einige Test im Internet durchgeschaut und da wurde das nirgends erwähnt!
Der Highend Bereich der Grafikkarten sollte gute Geschwindigkeit bei bester BQ sein,so war es jedenfalls vor ein paar Jahren noch!

du bist unsicher, nicht zufrieden... mehr gründe braucht man nicht um das teil retour zu senden! weg damit... PCGH geht davon aus das dieses Problem nicht per Treiber lösbar ist und es am design liegt. das muss nicht stimmen aber ich habe persönlich noch absolut nichts gefunden was nach einer lösung aussieht im net.

warten bis der R520 ende september kommt und dann entscheiden wofür du dein hart verdientes geld ausgeben willst.

PS: ich gehe davon aus das du weisst wie du das flimmern am besten eindämmen kannst mit der gtx und das du nicht mit normalem Default Quality die sache ansiehst oder?

Gast
2005-08-17, 23:02:58
du bist unsicher, nicht zufrieden... mehr gründe braucht man nicht um das teil retour zu senden! weg damit... PCGH geht davon aus das dieses Problem nicht per Treiber lösbar ist und es am design liegt. das muss nicht stimmen aber ich habe persönlich noch absolut nichts gefunden was nach einer lösung aussieht im net.

warten bis der R520 ende september kommt und dann entscheiden wofür du dein hart verdientes geld ausgeben willst.

PS: ich gehe davon aus das du weisst wie du das flimmern am besten eindämmen kannst mit der gtx und das du nicht mit normalem Default Quality die sache ansiehst oder?

Natürlich weiss ich das ,ist alles auf High Q ,AA Supersampling usw...

Und wieder warten na toll,mir ist meine 9800pro schon seit ein paar Monaten zu langsam,ich habe mir nur keine neue Leisten können,dann kommt angeblich eine tolle Karte rauss,man verlässt sich auf die Test(die ja auch von dem Tempo der Karte stimmen),aber dann muss man kurze Zeit später erfahren das sie ein Filterproblem hat.

Gast
2005-08-17, 23:13:16
Und ich hatte noch vergessen zu sagen das ich zwar meine 9800pro noch habe,aber mein Mainboard schon verkauft ist...
Soll ich mir jetzt etwa wieder ein AGP Board kaufen?

derominöseGast
2005-08-17, 23:20:44
Und ich hatte noch vergessen zu sagen das ich zwar meine 9800pro noch habe,aber mein Mainboard schon verkauft ist...
Soll ich mir jetzt etwa wieder ein AGP Board kaufen?

das ist übel... :confused:

Gast
2005-08-17, 23:53:36
GEnau, und wenn ich mal meine Festplatte nach Bildern durchsehe, dann haben die inzwischen einen Energieinhalt von mehreren Kilowattstunden. Da muss ich beim Löschen verdammt aufpassen, dass die nicht durchglühen.......

Mit der Hand vor die Stirn klatsch: Jetzt weiß ich, warum meine Video- Platte abgeraucht ist: Zu viele Bilder. :redface:

edit: Bis mal einer mit dem Besen gekommen ist, sage ich vorerst: Tschau! ;)

bis du irgendwie blöde? ne festplatte is was ganz anderes, das hat was mit magnetismus. jedes ELEKTRISCHE signal hat einen energiegehalt, denn elektrizität is eine for von energie, ob es dir nu passt oder nich. und warum wird die graka heiß, wenn das nix mit energie zu tun hat? überleg ma kurz vorher, bevor du ein schwachsinn erzählen willst. kennst du den satz? ENERGIE IST ÜBERALL? sogar ein stück stulle hat einen energiegehalt. das is physik, von der du anscheinend nix verstehst.

MadManniMan
2005-08-18, 00:09:12
das is physik, von der du anscheinend nix verstehst.

Und du verstehst nichts von vernünftigen Umgangsformen und Metaphorik - ersterer bedient man sich eigentlich immer, wenn man nicht gerade als Misanthrop dastehen will, letzterer zum Beispiel aths und auch Piffan, wenn sie derartig über Bildqualität sprechen.

*kopfschüttel*

Gast
2005-08-18, 00:56:35
Das ist wirklich verwirrend,natürlich sehe ich das Flimmern,und es stört mich auch, wenn ich schon 485? dafür hinlege möchte ich neben der Geschwindigkeit auch eine dem Preis angemessene BQ haben!
Aber meine Frage wurde damit nicht beantworte,ich bin hier keiner von den Usern die sich alle 6 Monate eine neue Karte leisten können,ich habe für diese sehr lange gespart und sie sollte wieder 1 1/2 - 2 Jahre reichen.
Wenn ich sie jetzt zurück gebe und es kommt eine Woche später oder so ein Treiber raus der den MIST behebt,dann habe ich keinen Bock sie mir nochmal zukaufen,warum muss das alles so kompliziert sein...
Schade das ich den Artikel so spät entdeckt habe,aber ich hatte einige Test im Internet durchgeschaut und da wurde das nirgends erwähnt!
Der Highend Bereich der Grafikkarten sollte gute Geschwindigkeit bei bester BQ sein,so war es jedenfalls vor ein paar Jahren noch!

Wolfi
2005-08-18, 00:58:26
Das ist wirklich verwirrend,natürlich sehe ich das Flimmern,und es stört mich auch, wenn ich schon 485? dafür hinlege möchte ich neben der Geschwindigkeit auch eine dem Preis angemessene BQ haben!
Aber meine Frage wurde damit nicht beantworte,ich bin hier keiner von den Usern die sich alle 6 Monate eine neue Karte leisten können,ich habe für diese sehr lange gespart und sie sollte wieder 1 1/2 - 2 Jahre reichen.
Wenn ich sie jetzt zurück gebe und es kommt eine Woche später oder so ein Treiber raus der den MIST behebt,dann habe ich keinen Bock sie mir nochmal zukaufen,warum muss das alles so kompliziert sein...
Schade das ich den Artikel so spät entdeckt habe,aber ich hatte einige Test im Internet durchgeschaut und da wurde das nirgends erwähnt!
Der Highend Bereich der Grafikkarten sollte gute Geschwindigkeit bei bester BQ sein,so war es jedenfalls vor ein paar Jahren noch!

Wenn man einen alten und neuen Treiber selbst zusammenfrickelt schreibt einer ist das Flimmern auf der 7800 wieder so gering wie bei der 6800.
Also Hardwaremäßig gehts wohl auf jedenfall.
Nur die Karte ist schon eine weile draußen, ein Flimmerfreier Treiber längst überfällig, er kommt aber nicht.
Ob er mal kommt ist reine Spekulation, ich rechne nicht in nächster zeit damit, selbst nach ATIs neuem Chip hab ich wenig hoffnung, den die 7800 wird selbst mit dem Flimmer mit der ATI zu kämpfen haben.
Da wird NV doch nicht das Flimmern abschaffen und damit die Leistung senken...

Wolfi
2005-08-18, 01:02:28
die Breite Masse lässt sich nicht wachrütteln ... HL2 hat sich doch auch jeder Sepp gekauft ... Bild Leser gibts auch wie Sand am Meer :(



schon mal die F.E.A.R. Demo angezockt?
Ja, das befürchte ich, wie aths schon sagt, den Teufelskreis wird nur schlechte Presse + Mieser verkauf der 7800 aufhalten.
Aber die 7800 wird sich wohl super verkaufen, und das gerade eben wegen dem Flimmern und dadurch erzieltem Leistungsgewinn, das ist ja das Perverse.
NV wär schön blöd was zu ändern, läuft doch alles blendent, 5 % der Freaks interesiern doch nicht.

Gut, mit dem Flimmern habens sie wohl wirklich übertrieben, das wird sich vieleicht wieder bessern ,aber die Winkelabhängigkeit, ohje.

Derzeit gibt es eine Alternative, 6800 oder ATI.
Auf den marginalen Leitungsgewinn kann man noch verzichten, in zukunft aber nicht mehr.
Zur Winkelabhängigkeit gibt es momentan keine Alternative, das ist das schlimme, soll es mit dem Flimmern auch so kommen?


Wenn jemand wegen höchstens 50% Leistungsgwinn (der Speicher hatt sich ja fast garnicht erhöht) zu einem hohen Preis aufrüsten will, bitte.
Das sind bei der Geschwindichkeit mit der sich Grafikkarten entwickeln aber Peanuts.
Vor eine verdoppelung der Rohleistung würde ich nichtmal dran denken aufzurüsten, ich selber tue das erst bei einer vervierfachung.
imho spielen 6800GT und 7800 in einer ähnlichen Liga, wenn die 6800GT ins straucheln kommt (was sie durchaus tut) dann wirds bei der 7800 auch nich mehr lange dauern.

dafür bekommt man aber bei der 7800 ein nicht zumutbares Flimmern, was ja zu einem leistungsgewinn führt, und damit ihre mehrleistung auch nochmal relativiert



Ich versteh auch nicht das AF für viele so ein Beiwerk 2ter klasse ist, für mich ist das der Qualibringer Nummer 1 schlechthin.
Es bringt doch soviel mehr dem Bild als AA, dadurch erzielte scharfe Texturen nehmen einen großteil des Bildes ein, die Kanten beim AA nur einen Bruchteil.
AA ist ja ganz nett als schmankerl (bei 1600x1200 und darüber), kann darauf aber auch verzichten, dagegen ein verzicht auf AF ist wirklich unangenehm.


Ich möchte auch mal sagen, die Balken sind auch für mich das wichtigste und finde das auch OK das sie es überall sind.
Aber die Balken sollten unter max Bildquali ala GF4 gemessen werden.
Das dies nicht mehr geht sind sie nur ans absurdum geführt wurden.

aths
2005-08-18, 01:51:31
eine grafikkarte übt weder eine kraft aus (außer vielleicht die auf das mb) noch legt sie einen weg zurück, also is dieser verlgeich völlig ausm blauen gegriffen.Es ist eine Methapher.

robbitop
2005-08-18, 01:55:27
Meine 6600 GT nicht.

Dann schau' mal in die Hausflure bei Max Payne 2 nochmal genauer hin. Erst mit +0,375 ist das Flimmern weg (HQ / 77.76 / NV40).

aths
2005-08-18, 01:59:35
Das ist wirklich verwirrend,natürlich sehe ich das Flimmern,und es stört mich auch, wenn ich schon 485€ dafür hinlege möchte ich neben der Geschwindigkeit auch eine dem Preis angemessene BQ haben!
Aber meine Frage wurde damit nicht beantworte,ich bin hier keiner von den Usern die sich alle 6 Monate eine neue Karte leisten können,ich habe für diese sehr lange gespart und sie sollte wieder 1 1/2 - 2 Jahre reichen.
Wenn ich sie jetzt zurück gebe und es kommt eine Woche später oder so ein Treiber raus der den MIST behebt,dann habe ich keinen Bock sie mir nochmal zukaufen,warum muss das alles so kompliziert sein...
Schade das ich den Artikel so spät entdeckt habe,aber ich hatte einige Test im Internet durchgeschaut und da wurde das nirgends erwähnt!
Der Highend Bereich der Grafikkarten sollte gute Geschwindigkeit bei bester BQ sein,so war es jedenfalls vor ein paar Jahren noch!So war es mal.

Ich habe keine Beweise dafür dass es eine Treibersache ist, noch Beweise dass die Hardware verbuggst ist. Meiner Einschätzung nach ließe sich das Flimmern per Treiber abstellen. Ob es dabei zwingend langsamer werden muss, weiß ich nicht, vielleicht, vielleicht auch nicht. Aber meine Einschätzung beruht nicht auf Beweisen oder starken Indizien. Ich denke mir lediglich, dass der G70 mindestens zu NV40-HQ-Qualität fähig ist. Ohne Beweis.

Selbst wenn man das zeigen könnte, dass die Hardware NV40-HQ-Qualität schafft, sagt das noch lange nicht, dass NV gewillt ist, das jemals für den Kunden verfügbar zu machen.

robbitop
2005-08-18, 02:00:06
eine grafikkarte übt weder eine kraft aus (außer vielleicht die auf das mb) noch legt sie einen weg zurück, also is dieser verlgeich völlig ausm blauen gegriffen.
Es geht um Analogien. Das ist in wissenschaftlichen Betrachtungen nunmal so. Aths hat damit IMO (meine Meinung als angehender Ingenieur) völlig Recht.

aths
2005-08-18, 02:04:16
Dann schau' mal in die Hausflure bei Max Payne 2 nochmal genauer hin. Erst mit +0,375 ist das Flimmern weg (HQ / 77.76 / NV40).Maile mir mal einen Spielstand, dann seh ich mir das ganz genau an – wenn ich die 6600 GT je wieder einbaue.

robbitop
2005-08-18, 02:05:47
das gerenderte bild besteht aus elektrischen signalen, also hat es einen energiegehalt. außerdem gibt es auch elektrische arbeit, und die verrichtet die graka(sie wandelt nämlich elektrische signale um). würde die graka keine arbeit verichten, wäre sie nichts weiter als eine elektroheizung, und selbst das is arbeit.
Hm hier scheitert es wohl an den Grundlagen, was?
Soziemlich jeder ASIC verrichtet keine Arbeit. Die Aufgenommene elektrische Energie wird fast zu 100% in thermische umgewandelt. Ein ganz kleines Bisschen geht in Form von elektrischen Feldern weg.
Arbeit im physikalischem Sinne wird hier natürlich nicht verrichtet, denn es wird keine Energie verbraucht, sondern nur gewandelt und es wird kein Weg zurückgelegt.
Arbeit ist b.s.w. Sampling und Zeit eben Takte. Analog natürlich.
Ein trilinear gefiltertes Texel braucht beispielsweise pro Bi TMU 2 Takte.
Mit 2 in Reihe gepipeten TMUs ginge das in einem Takt. Es wird die gleiche Arbeit in der Hälfte der Zeit erbracht. Senkt man die Qualität, muss weniger Arbeit pro Zeit erledigt werden. Die Arbeit ist zwar schneller verrichtet (FPS steigen) aber die Qualität ist geringer, da weniger gearbeitet wurde. Die Leistung bleibt gleich.
Ist doch nicht schwer zu verstehen.

robbitop
2005-08-18, 02:08:03
Maile mir mal einen Spielstand, dann seh ich mir das ganz genau an – wenn ich die 6600 GT je wieder einbaue.
Ui, da musst du dich aber bis zum 13.9. gedulden, eher komme ich nicht an den Rechner. Laufe einfach mal nachdem Mona dich besucht hat im Flur herum und schaue auf den Boden in der Ferne bei Bewegung. Das shimmert. Bei Q sieht man es sehr gut und weiss dann wo man hinschauen muss. Dann wird es mit HQ weniger, aber da man weiß wo es ist, sticht einem selbst das noch in die Augen. Und dank danach LOD +0,375 flimmert zwar nichts mehr, aber es ist schön matschig.
Am Texturschärferegler im Optionsmenu habe ich übrigens nichts verändert.

Blaire
2005-08-18, 02:14:46
Bei Max Payne 2 haste einen Texturschärferegler im Menu. Auf Default Settings sollte da eigentlich nix flimmern.

Sorry hab deinen Text nicht zu Ende gelesen. :)

MadManniMan
2005-08-18, 02:23:33
Ich habe keine Beweise dafür dass es eine Treibersache ist, noch Beweise dass die Hardware verbuggst ist.

Äh, ich korrigiere Dich nur ungern, aber es kommen dauernd Kommentare a la "einfach alten Treiber nehmen, 7800 irgendwie einbinden, dann klappts auch mit dem (fast) flimmerfreien HQ!" :|

Marodeur
2005-08-18, 03:09:35
Jo, irgendwer wartet doch schon länger drauf das dies wer testet aber irgendwie wird er dauernd ignoriert, trotz mehrmaligen fragens... :rolleyes:

MadManniMan
2005-08-18, 03:13:19
Jo, irgendwer wartet doch schon länger drauf das dies wer testet aber irgendwie wird er dauernd ignoriert, trotz mehrmaligen fragens... :rolleyes:

AFAIK findet das Gerücht, daß es sich um eine reine Treiberei handelt immer mehr Handfestes ;) Aber lassen wir uns überraschen...

aths
2005-08-18, 03:13:19
Äh, ich korrigiere Dich nur ungern, aber es kommen dauernd Kommentare a la "einfach alten Treiber nehmen, 7800 irgendwie einbinden, dann klappts auch mit dem (fast) flimmerfreien HQ!" :|Davon habe ich auch gehört. Aber mir liegen Bilder vor die zeigen, dass es im AF-Tester auch mit alten Treibern nicht korrekt aussieht, sondern genau so wie mit den aktuellen 77-ern. Das, und eine kryptische Aussage aus dem Mailverkehr mit NV sehe ich als Indiz dass das G70-AF von der Hardware nicht identisch mit dem NV40-AF ist.

Zumindest wenn 4x AA aktiviert ist, verliert der G70 mit HQ ggü. Q gar nicht mal so viel Geschwindigkeit. Das heißt, HQ kann nicht so viel besser sein. Da auch HQ noch flimmert heißt das auch, dass man nicht gegen eine Radeon benchen darf. Die flimmert bekanntlich nicht. Man kann alle Vergleiche, egal ob vs. Radeon oder vs. 6800, vergessen. (Man kann auch alle Vergleiche GeForce FX vs Radeon, und FX vs. NV40 vergessen.)

In HQ zeigt der AF-Tester auf jeder Stages volles trilinear. In UT hat man das nur auf der primären Textur-Stage, alle weiteren sind heftig brilinear (mehr bi- denn trilinear.) Hat da wer "Cheat" gerufen?

Seraf
2005-08-18, 08:45:33
Äh, ich korrigiere Dich nur ungern, aber es kommen dauernd Kommentare a la "einfach alten Treiber nehmen, 7800 irgendwie einbinden, dann klappts auch mit dem (fast) flimmerfreien HQ!" :|

Solange es niemand testet bleibt es ein Gerücht. Wir werden wohl nie erfahren ob Blaires Behauptung stimmt. Die Herren GTX Besitzer (komischerGast, Ulukay, Tombman, Grestorn) sind sich ja anscheinend zu fein hier noch etwas konstruktives beizutragen. :down:

derominöseGast
2005-08-18, 09:28:23
Solange es niemand testet bleibt es ein Gerücht. Wir werden wohl nie erfahren ob Blaires Behauptung stimmt. Die Herren GTX Besitzer (komischerGast, Ulukay, Tombman, Grestorn) sind sich ja anscheinend zu fein hier noch etwas konstruktives beizutragen. :down:

ja du super type dann gib mir doch einen link! ich suche seit zwei tagen wie ich den treiber basteln soll aber ich finde nix :biggrin:

Seraf
2005-08-18, 09:32:17
ja du super type dann gib mir doch einen link! ich suche seit zwei tagen wie ich den treiber basteln soll aber ich finde nix :biggrin:

Ich hab den Link schon oft genug gepostet.
Für dich aber nochmal:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3378761&postcount=414

Da steht...
-such dir einen 71.xx Treiber
-kopiere die nv4disp.inf des 77.77 ins Treiberverzeichnis des 71.xx
-installiere den Mist
(-wenn die Installationsroutine fehlschlägt benutze den Gerätemanager)

derominöseGast
2005-08-18, 09:36:27
Ja, das befürchte ich, wie aths schon sagt, den Teufelskreis wird nur schlechte Presse + Mieser verkauf der 7800 aufhalten.
Aber die 7800 wird sich wohl super verkaufen, und das gerade eben wegen dem Flimmern und dadurch erzieltem Leistungsgewinn, das ist ja das Perverse.
NV wär schön blöd was zu ändern, läuft doch alles blendent, 5 % der Freaks interesiern doch nicht.

Gut, mit dem Flimmern habens sie wohl wirklich übertrieben, das wird sich vieleicht wieder bessern ,aber die Winkelabhängigkeit, ohje.

ja die winkelabhängigkeit stört mich viel mehr als das grieseln das ich seit 15monaten kenne...


Derzeit gibt es eine Alternative, 6800 oder ATI.
Auf den marginalen Leitungsgewinn kann man noch verzichten, in zukunft aber nicht mehr.
Zur Winkelabhängigkeit gibt es momentan keine Alternative, das ist das schlimme, soll es mit dem Flimmern auch so kommen?

leider sind das keine alternativen. ATI hat kein TSSAA und die 6800 ist zu langsam für die Auflösungen die ich brauche.


Wenn jemand wegen höchstens 50% Leistungsgwinn (der Speicher hatt sich ja fast garnicht erhöht) zu einem hohen Preis aufrüsten will, bitte.
Das sind bei der Geschwindichkeit mit der sich Grafikkarten entwickeln aber Peanuts.
Vor eine verdoppelung der Rohleistung würde ich nichtmal dran denken aufzurüsten, ich selber tue das erst bei einer vervierfachung.
imho spielen 6800GT und 7800 in einer ähnlichen Liga, wenn die 6800GT ins straucheln kommt (was sie durchaus tut) dann wirds bei der 7800 auch nich mehr lange dauern.

lol keine ahnung was du meinst... einen sprung wie von der FX zur 6800 oder der 9800 zur X800 wird nicht mehr so schnell eintreten. ich bin schon erstaunt das die GTX überhaupt so schnell wurde...

dafür bekommt man aber bei der 7800 ein nicht zumutbares Flimmern, was ja zu einem leistungsgewinn führt, und damit ihre mehrleistung auch nochmal relativiert

wie du oben selbst sagst sind es leider nur 5% der freaks die es als unzumutbar empfinden...

99% der reviews loben und preisen die GTX in höchsten tönen... das wird nix bringen wenn wir nicht noch gröbere geschütze auffahren.


Ich versteh auch nicht das AF für viele so ein Beiwerk 2ter klasse ist, für mich ist das der Qualibringer Nummer 1 schlechthin.
Es bringt doch soviel mehr dem Bild als AA, dadurch erzielte scharfe Texturen nehmen einen großteil des Bildes ein, die Kanten beim AA nur einen Bruchteil.
AA ist ja ganz nett als schmankerl (bei 1600x1200 und darüber), kann darauf aber auch verzichten, dagegen ein verzicht auf AF ist wirklich unangenehm.

für mich ist AA das wichtigste gefolgt von AF und dann der Performance. AA nettes schmankerl über 1600x1200? du verstehst den sinn von AA aber schon oder? das macht eher sinn in tiefen auflösungen... mir geht sicher mal gar nichts vor die augen ohne aa. dies ist auch der hauptgrund warum ich so mühe mit der aktuellen konsolengeneration habe... TSSAA ist wieder eine andere Geschichte und hat mir der Auflösung eh nichts zu tun.

klar ohne AF geht natürlich auch gar nichts...


Ich möchte auch mal sagen, die Balken sind auch für mich das wichtigste und finde das auch OK das sie es überall sind.
Aber die Balken sollten unter max Bildquali ala GF4 gemessen werden.
Das dies nicht mehr geht sind sie nur ans absurdum geführt wurden.

yep

derominöseGast
2005-08-18, 09:39:44
Ich hab den Link schon oft genug gepostet.
Für dich aber nochmal:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3378761&postcount=414

Da steht...
-such dir einen 71.xx Treiber
-kopiere die nv4disp.inf des 77.77 ins Treiberverzeichnis des 71.xx
-installiere den Mist
(-wenn die Installationsroutine fehlschlägt benutze den Gerätemanager)

ok sorry... hab dich noch nie bemerkt in diesem thread. werde heute abend berichten was das bringt... ich erwarte nix. ;(

der 77.76 NGO Treiber hat den Vermerk "anti shimmering solution" oder sowas... flimmert aber genau gleich wie der original 77.76

es wäre wunderschön wenn es ein treiber-"problem" wäre aber ich glaube eher nicht. es wird die hardware sein die höchstens mit treiber zurechtgebogen werden könnte, wenn überhaupt dann mit wohl massivem performanceverlust.

was ich überhaupt nicht verstehe: die 6800 flimmert seit dem 77.72 weniger, warum soll eine GTX mit einem uralt treiber dann weniger flimmern? naja NV versteht eh keiner also teste ich...

dazu werde ich die GT Legends Demo hernehmen. wenn das so flimmert wie GTR wäre es perfekt für einen Test...

edit: blaire hat SLI also wird er es selbst nicht getestet haben. weiss keiner woher dieser "lösungsvorschlag" ursprünglich kommt? da würde man sicher auf ein feedback stossen...

Seraf
2005-08-18, 09:43:23
ok sorry... hab dich noch nie bemerkt in diesem thread. werde heute abend berichten was das bringt... ich erwarte nix. ;(

der 77.76 NGO Treiber hat den Vermerk "anti shimmering solution" oder sowas... flimmert aber genau gleich wie der original 77.76

es wäre wunderschön wenn es ein treiber-"problem" wäre aber ich glaube eher nicht. es wird die hardware sein die höchstens mit treiber zurechtgebogen werden könnte, wenn überhaupt dann mit wohl massiven performance verlust.

Ich weiß auch nicht ob du den Unterschied siehst.
Du hast ja schon geschrieben das du keinen Unterschied zwischen 6800HQ vs 7800GTX HQ siehst.
Wenn es funktioniert sieht es auf der 7800GTX auf HQ so aus wie auf der 6800.

derominöseGast
2005-08-18, 09:46:15
Ich weiß auch nicht ob du den Unterschied siehst.
Du hast ja schon geschrieben das du keinen Unterschied zwischen 6800HQ vs 7800GTX HQ siehst.
Wenn es funktioniert sieht es auf der 7800GTX auf HQ so aus wie auf der 6800.

es flimmert imo nicht mehr aber anders. das werde ich schon sehen... komisch nur das aths behauptet es flimmere auf HQ mit einer 6800 fast nie. bei mir flimmert alles von NV was eine 6 oder 7 im titel hat auf HQ :confused:

Mr. Lolman
2005-08-18, 10:05:25
*doppelpost*

Mr. Lolman
2005-08-18, 10:08:55
Davon habe ich auch gehört. Aber mir liegen Bilder vor die zeigen, dass es im AF-Tester auch mit alten Treibern nicht korrekt aussieht, sondern genau so wie mit den aktuellen 77-ern. Das, und eine kryptische Aussage aus dem Mailverkehr mit NV sehe ich als Indiz dass das G70-AF von der Hardware nicht identisch mit dem NV40-AF ist.


Ein Teil aus der Konversation die ich mit Blaire per PN geführt hab:


7800gtx@SLI
BF2 1600x1200 4xAA/16xAF

70.41 (G70 moddet) 45 fps (Sauberes Bild weder grieseln noch sichtbares Flimmern!)
71.84 (G70 moddet) 30 fps (selbe wie beim 70.41 sauberes Bild , aber hier funzt SLI nicht)

76.10 (hier wird der G70 vom Treiber erkannt sozusagen ab der 75.xx Serie) 55 fps! (minimales Grieseln aber wirklich minimal! kein Flimmern)
76.50 (G70 wird erkannt..) 75 fps (sichtbares Grieseln, kein Flimmern)
76.80-77.77 (G70 wird erkannt) 90 fps (starkes Grieseln zu sehen, links und rechts sieht man grieselbildung in bildmitte nicht! deutlich mehr Grieseln als in den vorherigen Treibern.)

Marc-
2005-08-18, 10:21:01
Ein Teil aus der Konversation die ich mit Blaire per PN geführt hab:

Hmm. das is natürlich ein hoffnungsschimmer, relativiert allerdings die leistung des G70 chips doch beträchtlich, schaut man sich die massiven einbrüche in den frames in relation zu besserer qualität an. Also so extrem haette ich das nicht erwartet.
Allerdings erklärts auch warum nv so handelt, handeln musste um auch ein echtes kaufargument zu bieten. Denn so relativiert sich die mehrleistung ggüber der 6800er imho doch deutlich.
Man muesste jetzt mal einen echten vergleichsttest mit den alten treibern in HQ zwischen der 6800er und der 7800er machen um den realen performancegewinn zu ermitteln bei gleich GUTER bildqualität

(del676)
2005-08-18, 10:27:09
Solange es niemand testet bleibt es ein Gerücht. Wir werden wohl nie erfahren ob Blaires Behauptung stimmt. Die Herren GTX Besitzer (komischerGast, Ulukay, Tombman, Grestorn) sind sich ja anscheinend zu fein hier noch etwas konstruktives beizutragen. :down:

warum auch?
wir werden hier sowieso nur angeschissen und als deppen verkauft.
sieht man ja sogar in deinem post.

Seraf
2005-08-18, 10:27:35
Hmm. das is natürlich ein hoffnungsschimmer, relativiert allerdings die leistung des G70 chips doch beträchtlich, schaut man sich die massiven einbrüche in den frames in relation zu besserer qualität an. Also so extrem haette ich das nicht erwartet.
Allerdings erklärts auch warum nv so handelt, handeln musste um auch ein echtes kaufargument zu bieten. Denn so relativiert sich die mehrleistung ggüber der 6800er imho doch deutlich.
Man muesste jetzt mal einen echten vergleichsttest mit den alten treibern in HQ zwischen der 6800er und der 7800er machen um den realen performancegewinn zu ermitteln bei gleich GUTER bildqualität


Das sind ganz alte Treiber...
Damals war der G70 noch "halb" in der Entwicklung.
Vielleicht läuft der G70 damit nur mit 16 Pipes. Andere Dinge waren damals bestimmt auch noch nicht auf die neue Architektur angepasst.

Deshalb gebe ich auf die Werte nicht so viel.

Seraf
2005-08-18, 10:35:29
warum auch?
wir werden hier sowieso nur angeschissen und als deppen verkauft.
sieht man ja sogar in deinem post.

Das hab ich nur geschrieben weil ich euch bestimmt schon dreimal darum gebeten habe und trotzdem keine Reaktion kam.
Was soll ich den darüber denken das mich vier G70 Besitzer die ganze Zeit ignorieren?

Wenn du die Treiberspielerei aber antesten würdest wüßten diejenigen die am G70 interesiert sind, aber vom AF abgeschreckt wurden, ob es ein Treiberproblem ist oder nicht. Mußt es ja nicht für aths machen. Gibt hier auch einige User die euch nicht angeschissen haben ...

derominöseGast
2005-08-18, 10:36:31
Das sind ganz alte Treiber...
Damals war der G70 noch "halb" in der Entwicklung.
Vielleicht läuft der G70 damit nur mit 16 Pipes. Andere Dinge waren damals bestimmt auch noch nicht auf die neue Architektur angepasst.

Deshalb gebe ich auf die Werte nicht so viel.

also wenn der gute blaire da keinen mist verzapft ist es eine frage der zeit bis ein gemoddeter treiber für die GTX kommt bzw. erstaunlich das NGO und die anderen Treibermodder noch nichts passendes zusammengebastelt haben.

leider kann ich heute erst ab ca. 21.00 darüber berichten aber wenns vorher keiner macht werde ich diese aufgabe gerne übernehmen.

selbst wenn die performance einbricht, wäre dies trotzdem ned übel für die Leute die Qualität wollen und bereits eine GTX haben. Daneben hätte man immernoch die neuen Features der GTX als Vorteil (Was aber sicherlich nicht als Kaufgrund reichen würde). die performanceeinbrüche werden mit einem neuen treiber der auf die GTX angepasst ABER keine zusätzlichen optimierungen hat sicher nicht derart gross ausfallen.

PCGH hat übrigens eine GTX auf 16pipes und den takt einer 6800 gefahren und kam auf 10% mehr performance mit der GTX. dies erklären sie mit dem zusätzlichen Vertexshader der anscheinend neu noch zusätzliche aufgaben übernehme und dem Design des G70 (darunter verstehe ich die schummelei)
verstehe aber davon viel zuwenig...

derominöseGast
2005-08-18, 10:38:56
Das hab ich nur geschrieben weil ich euch bestimmt schon dreimal darum gebeten habe und trotzdem keine Reaktion kam.
Was soll ich den darüber denken das mich vier G70 Besitzer die ganze Zeit ignorieren?

Wenn du die Treiberspielerei aber antesten würdest wüßten diejenigen die am G70 interesiert sind, aber vom AF abgeschreckt wurden, ob es ein Treiberproblem ist oder nicht. Mußt es ja nicht für aths machen. Gibt hier auch einige User die euch nicht angeschissen haben ...

ich machs für mich und alles anderen... tut doch ned so kompliziert, meine güte. jeder GTX besitzer sollte 3DC hin oder her daran interessiert sein die beste quali mit der karte zu erreichen.

das argument ist sehr gut. durch diese methode lässt sich definitiv ermitteln ob das flimmern mit treiber zu beseitigen ist (ob nun die hardware anders ist oder nicht)

Marc-
2005-08-18, 10:40:47
Das sind ganz alte Treiber...
Damals war der G70 noch "halb" in der Entwicklung.
Vielleicht läuft der G70 damit nur mit 16 Pipes. Andere Dinge waren damals bestimmt auch noch nicht auf die neue Architektur angepasst.

Deshalb gebe ich auf die Werte nicht so viel.

Das wäre dann zu prüfen bzw mittels rivatuner festzustellen vielleicht, dann wird man sehen was genau an was liegt. Ansonsten, wären die treiber ja auch nicht wirklich zu verwenden bzw es flimmert vielleicht deshalb net weil der chip eh hardwaremässig net richtig erkannt wird.
Ich glaube wenns am treiber liegt dürfen wir in nächster zeit wohl noch nicht auf eine korrektur hoffen.
Vieles bleibt wohl erstmal spekulation

derominöseGast
2005-08-18, 10:42:37
Das wäre dann zu prüfen bzw mittels rivatuner festzustellen vielleicht, dann wird man sehen was genau an was liegt. Ansonsten, wären die treiber ja auch nicht wirklich zu verwenden bzw es flimmert vielleicht deshalb net weil der chip eh hardwaremässig net richtig erkannt wird.
Ich glaube wenns am treiber liegt dürfen wir in nächster zeit wohl noch nicht auf eine korrektur hoffen.
Vieles bleibt wohl erstmal spekulation

du meinst wir dürften nicht mit einer korrektur seitens NV rechen oder? da würde ich zustimmen da die ganz bestimmt abwarten würden was der R520 für IQ hat und dann mal horchen was die User meinen... bei entrüstung dann ruck zuck nen full quality button einbauen... ach diese grafikchip hersteller :P

wenns aber nicht am treiber liegt werden wir nie eine korrektur sehen weils keine lösung geben würde...