PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV vs. Ati, AA, AF, Grieseln -> die aktuelle Filterdiskussion


Seiten : 1 [2] 3 4 5 6 7

LovesuckZ
2009-05-09, 22:27:35
Ich finde das Thema für die Masse der Käufer völlig irrelevant. Die wenigsten verstehen überhaupt was Texturfilterung und AF ist, geschweige denn wie es optimal aussehen sollte. Und die Leute kriegen bei ATI viel Leistung für wenig Geld. Und das ist gut so - für uns alle.

Wissen die selben Leute eigentlich, "was dann [Kantenglättung] und [AA] ist, geschweige denn wie es optimal aussehen sollte"?
Also neben Mr.Lolman und reunion bist du nun schon der dritte, der dann auch seinem Spaß an einem 16xMSAA gegen 8xMSAA Vergleichen haben dürfte.
Das freut mich, findet doch meine Meinung immer mehr Anhänger. =)

Mr. Lolman
2009-05-09, 22:32:48
Also neben Mr.Lolman und reunion bist du nun schon der dritte, der dann auch seinem Spaß an einem 16xMSAA gegen 8xMSAA Vergleichen haben dürfte. )

Hm? Welches 16xMSAA?

reunion
2009-05-09, 22:33:10
Wenn AMD 50% Samples spart bezeichnest du es als "Tick schlechter".


Wenn AMD 50% Samples spart dann bleibt vom Bild nicht mehr viel über.

Gast
2009-05-09, 22:41:39
Wieso kommen dauernd falsche Schlussfolgerungen? Sind das Computerbase.de Generation User?
Wer AMD kauft, kauft Bevormundung. Wem das gefällt, der macht keinen schlechten Kauf.


muuhhhaaaaa
Bevormundung...aber im Jahr 500€ für Securum DRM ausgeben, immer wieder schön wie sich hier im Lande in die Tasche gelogen wird, wie es gerade in den Kram paßt.

Gast
2009-05-09, 22:51:45
Hm? Welches 16xMSAA?16xCSAA natürlich. Gut, nach der Logik könnte auch die halbfiktive Samplezahl der verschiedenen CFAA-Modi als Vergleichbarkeitsmerkmal herangezogen werden.
Und was sagt uns das? Dass Zahlen und Balken nichts bedeuten, nur tatsächlich erreichte Ergebnisse zählen.
Weshalb ich auch eher für Vergleiche der maximal möglichen Bildqualität bei einer vorgegebenen Framerate bin, vermittelt durch Videoclips. Dadurch wird dann auch niemand mehr gezwungen, sich in der Bewertung auf die mehr oder weniger objektiven Bewertungen anderer zu verlassen.

LovesuckZ
2009-05-09, 22:58:34
Hm? Welches 16xMSAA?

16xCSAA. Da ist mir ein C entruscht.

aths
2009-05-09, 23:25:01
Ich finde das Thema für die Masse der Käufer völlig irrelevant. Die wenigsten verstehen überhaupt was Texturfilterung und AF ist, geschweige denn wie es optimal aussehen sollte. Und die Leute kriegen bei ATI viel Leistung für wenig Geld. Und das ist gut so - für uns alle.Die Leute kriegen viel Geschwindigkeit, aber die ist irrelevant für die Masse der Käufer. Da reicht fast eine integrierte Intel-Grafik aus.

Gast
2009-05-09, 23:34:18
Genau. Wegen den einem Kriterium ATi abwerten und zusätzlich NV gleich auch ein bisschen aufwerten. Und dann sind wieder wieder bei dem Punkt wo eine 9600GT eine bessere Bewertung als eine HD4870 bekommt. ;D

Hach, das warn noch Zeiten! :ulol:



Jetzt gehts uns allen besser. :biggrin:
Schade, dass Fakefactory hier seine Mirrorliste für die CM10-Beta gepostet hat, ansonsten würde ich das 3DCenter aufgrund solcher schadenfrohen, unkollegialen Äußerungen, die einfach nur den andern schlecht machen sollen, gern komplett ignorieren.

Der Nforce-Bug war nicht unsere Schuld, wir haben alles zu dessen Klärung getan und sobald wir ihn entdeckt haben, unser Testsystem selbstverständlich umgestellt. Nur Mr. Lolman im 3DCenter wird sich wohl noch in 20 Jahren daran hochziehen und aus dem Untergrund herumflamen.

Carsten.

IC3M@N FX
2009-05-10, 00:21:12
Ich weiß gar nicht worüber sich die Leute hier aufregen. Wer die volle kontrolle über seine Grafikkarte haben will soll eine Nvidia Grafikkarte kaufen. Wem das scheiß egal ist kauft eine ATI bzw. Nvidia. Das der AF der Roten Fraktion schlechter ist weiß jeder, aber ich bezweifele das die Leute davon Augenkrebs bekommen. Der Unterschied ist erkennbar aber es bewegt sich meiner meinung nicht in einen Wert das es inakzeptabel wird, viel schlimmer wäre es wenn der AF schlechter wird von Treiber zu Treiber um mehr FPS rauszuholen.

Gast
2009-05-10, 00:46:14
Und wer liest solche Threads?
Nur die, die die Information sowieso schon kennen -> daher sinnlos

Stimmt, der Rest der Welt kauf die Katze im Sack, ärgert sich hinterher das neue Karte schlechter als die alte filtert.

Ich weiß gar nicht worüber sich die Leute hier aufregen. Wer die volle kontrolle über seine Grafikkarte haben will soll eine Nvidia Grafikkarte kaufen.
Schlechte Ausrede.
Es kann nicht sein, das ich wegen der Banalität der Auswahl der Filterqualität einen IHV meiden muss.

Darüber hinaus wollen auch BQ Schreier Auswahl haben.

ich bezweifele das die Leute davon Augenkrebs bekommen. Dann mangelt es dir an Vorstellungskraft.

InsaneDruid
2009-05-10, 01:00:26
Es kann einem eben NICHT egal sein. Wenn ATI durch immer mehr eingesparten Sachen die BQ immer weiter absenkt, dafür keine Schelte bekommt und ihre Balken präsentieren kann könnte es sein das NV dann auch wieder auf die Sparschiene umschwenkt. Und damit ist keinem geholfen. Bei NV hat die Schelte was bewirkt.


Ist schon ne komische Welt. Die Jungs mit ATI Flagge predigen 10.1 weils "besseres FSAA" bringt, fighten aber bis aufs Messer das ihre mit knapp der Hälfte der TMUs herbeioptimierte Flimmerorgie nicht auffällt.


Ich habs immer schon so gehabt das ich immer das kaufe was momentan besser ist. Das war auch mal ATI, aber momentan eben nicht. Warum nicht auch die ATIler sich mehr BQ für ihre karten wünschen ist mir schleierhaft.

y33H@
2009-05-10, 01:24:28
bei was geht es in cod4?Es kam damals der lustige Vorwurf, die CoD4-Szene sei extra so gewählt, dass die HD4k abkacken. Was genauso Schwachsinn ist wie die Aussage, der Furmark sei extra gemacht worden um die HD4k ans Limit zu treiben [hab ich auch schon gelesen]. Wie man an CoD WaW sieht, liegt die Engine den Radeons eben nicht. Und nach wie vor sieht CoD4 Geforces vorne (http://www.pcgameshardware.de/aid,682832/Call-of-Duty-4-Modern-Warfare-Grafikkarten-Test-mit-maximaler-Bildqualitaet/Action-Spiel/Test/).

Gast
2009-05-10, 01:25:33
@InsaneDruid

Nagel, Kopf, Treffer:)

DrFreaK666
2009-05-10, 01:45:18
Es kann einem eben NICHT egal sein. Wenn ATI durch immer mehr eingesparten Sachen die BQ immer weiter absenkt, dafür keine Schelte bekommt und ihre Balken präsentieren kann könnte es sein das NV dann auch wieder auf die Sparschiene umschwenkt. Und damit ist keinem geholfen. Bei NV hat die Schelte was bewirkt.


Ist schon ne komische Welt. Die Jungs mit ATI Flagge predigen 10.1 weils "besseres FSAA" bringt, fighten aber bis aufs Messer das ihre mit knapp der Hälfte der TMUs herbeioptimierte Flimmerorgie nicht auffällt.


Ich habs immer schon so gehabt das ich immer das kaufe was momentan besser ist. Das war auch mal ATI, aber momentan eben nicht. Warum nicht auch die ATIler sich mehr BQ für ihre karten wünschen ist mir schleierhaft.

Ich bin AMDler und wünsche mir eine bessere bildqualitat. Ich wollte schönes AA und bin wegen 24CFAA zu her Radeon gewechselt. Habe deshalb irgendwie schon eine bessere BQ im Vergleich zu her geforce.
Schöneres AF wäre aber schon noch ganz nett...

san.salvador
2009-05-10, 01:50:24
Also wenn das viele so sehen wirds nix mit einer eine Quali-Offensive seitens AMD/ATI...

desert
2009-05-10, 02:00:05
Ich bin AMDler und wünsche mir eine bessere bildqualitat. Ich wollte schönes AA und bin wegen 24CFAA zu her Radeon gewechselt. Habe deshalb irgendwie schon eine bessere BQ im Vergleich zu her geforce.
Schöneres AF wäre aber schon noch ganz nett...


Und dann wechselt man von ssaa und den hybridmodis, die bessere bildqualität bieten als der cfaa modus und gleich noch das bild ungemein beruhigen. Das verstehe ich nicht.

IC3M@N FX
2009-05-10, 02:59:36
Stimmt, der Rest der Welt kauf die Katze im Sack, ärgert sich hinterher das neue Karte schlechter als die alte filtert.

Es wird immer einen geben der etwas gegen ein Produkt hat, egal wie dubios auch der Grund sein mag und egal wie gut das Produkt ist. Es liegt in der Natur des Menschen

Schlechte Ausrede.
Es kann nicht sein, das ich wegen der Banalität der Auswahl der Filterqualität einen IHV meiden muss.

Wieso kannst du Opel vorschreiben wie das Auto aussehen soll?
Wenn dir das Auto nicht gefällt kaufst du dir halt ein anderes.
Oder schreibste dann auch es kann nicht sein, das ich wegen der Banalität der Auswahl von bestimmten Designs ein Auto Hersteller meiden muß.

Zuletzt geht es immer um das eine Freedom of Choice wenn die Grafikkarte X IHV nicht zusagt dann holst du dir Grafikarte Y vom anderen IHV.

Jede Firma hat nun mal andere Prioritäten


Darüber hinaus wollen auch BQ Schreier Auswahl haben.

Dann mangelt es dir an Vorstellungskraft.

Wieso müssen alle so Adleraugen wie du haben?
Die kein Spiel geniessen sondern mit der Lupe unterschiede suchen?
Die Schuldigen sind nicht die IHV´s sondern Microsoft der nicht vorschreibt also eine feste Norm rausbringt, wie was zu filtern ist alles in High Quality zum beispiel. Wenn das nicht erfüllt ist gibs keine Lizenz das Hardware X auf Windows X läuft also ein Riegel.

Mr. Lolman
2009-05-10, 09:17:19
Schade, dass Fakefactory hier seine Mirrorliste für die CM10-Beta gepostet hat, ansonsten würde ich das 3DCenter aufgrund solcher schadenfrohen, unkollegialen Äußerungen, die einfach nur den andern schlecht machen sollen, gern komplett ignorieren.

Da stand anfangs eine viel giftigere Antwort², aber wegen dem kleinen Seitenhieb will ich nicht wieder einen mittleren Streit anfachen. Deswegen mein Vorschlag - stehen wir doch alle zu unseren vergangenen Untaten so sehr, dass wir, wenn der andere mal drüber lacht, versuchen einfach mitzulachen - anstatt gleich den Kopf in den Sand zu stecken und die beleidigte Leberwurst zu spielen.

²PCGH ist ja mit 3DC viel mehr verbandelt als du darstellst und ich war schon kurz davor div. alte Kamellen wieder aufzuwärmen)
Ich hab auch viel Pfusch in dem Forum schon verzapft. Ich steh auch dazu, dass Coda mir schon min 3x gesagt hat, ich soll mich aus Diskussionen raushalten weil ich keinen Schimmer hab - ist halt Codas Art mich darauf hinzuweisen, dass ich ihm auf die Nerven geh, wenn ich mit meinen Vermutungen mal falsch lieg.


Und jetzt sind wir wieder lieb zueinander und geben uns die Hände. :smile:

LovesuckZ
2009-05-10, 09:18:06
Wieso müssen alle so Adleraugen wie du haben?
Die kein Spiel geniessen sondern mit der Lupe unterschiede suchen?

Interessant - aus welchen grund sollte man sich dann eigentlich noch eine AMD Karte kaufen, wenn weder 8xMSAA gegenüber 4xMSAA bzw. 16xCSAA einen Vorteil bietet noch man im Grunde die paar % Mehrleistung nicht benötigen würde?
Billiger sind sie auch nicht mehr - und BQ spielt anscheinend auch keine Rolle. Gibt es noch einen objektiven Grund, sich für AMD statt für nVidia zu entscheiden unter der Prämisse, dass man Spiele spielen und nicht mit Adleraugen nach nicht geglätteten Kanten suchen soll?


Die Schuldigen sind nicht die IHV´s sondern Microsoft der nicht vorschreibt also eine feste Norm rausbringt, wie was zu filtern ist alles in High Quality zum beispiel. Wenn das nicht erfüllt ist gibs keine Lizenz das Hardware X auf Windows X läuft also ein Riegel.

Schuld sind alleinig die Käufer und Reviewer von AMD Grafikkarten. AMD kann anbieten was sie wollen - wenn es keine Käufer findet, dann müssen sie ihre Strategie ändern. Da aber viele AMD Käufer mit Gängelung und fehlender Wahlfreiheit zufrieden sind, kann man AMD keinen Vorwurf machen.

Mr. Lolman
2009-05-10, 09:22:27
Interessant - aus welchen grund sollte man sich dann eigentlich noch eine AMD Karte kaufen, wenn weder 8xMSAA gegenüber 4xMSAA bzw. 16xCSAA einen Vorteil bietet noch man im Grunde die paar % Mehrleistung nicht benötigen würde?
Billiger sind sie auch nicht mehr - und BQ spielt anscheinend auch keine Rolle. Gibt es noch einen objektiven Grund, sich für AMD statt für nVidia zu entscheiden unter der Prämisse, dass man Spiele spielen und nicht mit Adleraugen nach nicht geglätteten Kanten suchen soll?

Geschmackssache. Anfangs wars der Preis, aber da ist ja NV mittlerweile ordentlich mitgezogen.


Schuld sind alleinig die Käufer und Reviewer von AMD Grafikkarten. AMD kann anbieten was sie wollen - wenn es keine Käufer findet, dann müssen sie ihre Strategie ändern. Da aber viele AMD Käufer mit Gängelung und fehlender Wahlfreiheit zufrieden sind, kann man AMD keinen Vorwurf machen.

Eben. Jeder kauft das was ihm gefällt. Meine Wunschliste an AMD werde ich ihnen mal schicken (bezweifle aber, dass es was bringt) - vll. mach ich auch mal ne Kolumne draus. (wird wohl auch nix bringen). ATi großflächig wegen tw.schlechter BQ abzustrafen wird auch nix bringen. Damit die mit HQ mithalten könnten, bräuchten sie ein anderes Chipdesign - ob die das wegen uns ändern werden?

_DrillSarge]I[
2009-05-10, 09:31:18
Interessant - aus welchen grund sollte man sich dann eigentlich noch eine AMD Karte kaufen, wenn weder 8xMSAA gegenüber 4xMSAA bzw. 16xCSAA einen Vorteil bietet noch man im Grunde die paar % Mehrleistung nicht benötigen würde?
das ist einfach eine unwahre aussage. selbst 4xmsaa mit ed sieht deutlich besser als normales 4xmsaa aus. von 8x bzw 24xcf ganz zu schweigen.

InsaneDruid
2009-05-10, 11:12:09
Es wird immer einen geben der etwas gegen ein Produkt hat, egal wie dubios auch der Grund sein mag und egal wie gut das Produkt ist. Es liegt in der Natur des Menschen



Wieso kannst du Opel vorschreiben wie das Auto aussehen soll?
Wenn dir das Auto nicht gefällt kaufst du dir halt ein anderes.
Oder schreibste dann auch es kann nicht sein, das ich wegen der Banalität der Auswahl von bestimmten Designs ein Auto Hersteller meiden muß.

Zuletzt geht es immer um das eine Freedom of Choice wenn die Grafikkarte X IHV nicht zusagt dann holst du dir Grafikarte Y vom anderen IHV.

Jede Firma hat nun mal andere Prioritäten


Normalerweise schon richtig, aber der Grafikkartenmarkt ist nunmal nicht der Automarkt. Bei den Grakas gibt es ganze 3 mehr oder minder wichtige Hersteller, und für den Gamer und Retail Markt nur derer 2.

Der Automarkt ist wesentlich vielschichtigerer, hat wesentlich mehr Konkurrenten und hat vor allem Konkurrenten in jeder Preisklasse. Es juckt Ferrari und Porsche nicht, wenn sich am unteren Ende Opel mit einem abgespeckten Corsa und zb Dacia eine Preisschlacht liefern, die sie prinzipiell durch immer weniger Features und Qualität erreichen. Außerdem ist es so das die Presse diese Qualitätsabstriche auch bemäkelt.

Die aktuellen NV und Nvidias sind mehr oder minder auch immer wieder das gleiche Produkt, nur in verschiedenen Geschwindigkeitsklassen. Und was da passiert (und schon mal mit verdrehten Vorzeichen passierte) ist nun mal am Ende schlecht für alle. Wenn einer der beiden Hersteller, um billiger produzieren zu können TMUs einspart (oder an anderer Stelle) und dafür einfach deutlich weniger schlecht filtert, die Presse dies aber als nicht sichtbar abtut, gleichzeitig aber den Preis und die Scheinleistung preist so kann NV auf die Dauer nicht umhin auch wieder an der BQ Schraube zu drehen. Woraufhin, wenn auch dies als Lapalie abgetan wird auch AMD weiter absenken wird. Und das kann NICHT im Sinne der Spieler sein.

Wie vorab schon irgendjemand hier sagte: wir leben in 2009, reden über DX 10.1 und DX11 und ob ein Schatten eine 10 KM entfernten Kerze die Flügel einer Flige noch korrekt beleuchtet und nichtmal die Basics von anno pre 2001 (2001 kam schon der legendäre Filterartikel hier im 2dcenter) sind erfüllt. Da stimmt doch etwas überhaupt nicht.

Jake Dunn
2009-05-10, 11:19:23
Interessant - aus welchen grund sollte man sich dann eigentlich noch eine AMD Karte kaufen, wenn weder 8xMSAA gegenüber 4xMSAA bzw. 16xCSAA einen Vorteil bietet noch man im Grunde die paar % Mehrleistung nicht benötigen würde?
Billiger sind sie auch nicht mehr - und BQ spielt anscheinend auch keine Rolle. Gibt es noch einen objektiven Grund, sich für AMD statt für nVidia zu entscheiden unter der Prämisse, dass man Spiele spielen und nicht mit Adleraugen nach nicht geglätteten Kanten suchen soll?





Die Frage kann man dannn genauso stellen "Warum NV kaufen?"

Gast
2009-05-10, 11:25:30
Ich spiele aktuell The Witcher und bin mit der Bildqualität meiner 4850 sehr zufrieden. 16xAF und 4xAA sind aktiv, und ich habe ein Bild vor mir, das wie in Stein gemeißelt wirkt. Es ist durchaus möglich, dass es noch besser ginge, aber das ist für mich nicht nötig. Es wird (vor allem von Nutzern der Fremdmarke, deren Meinung vermutlich nicht selten auf drittklassigen Forenvideos beruht) nur auf den Negativseiten herumgehackt, anstatt dass man sich freut, dass es Konkurrenz gibt, die dank moderner Fertigung tolle & preislich sehr attraktive Karten à la 4770 für unter 100€ anbieten kann.

Vor 2-3 Jahren mussten wir uns in diesem Segment mit Gurken wie 7600GT und HD2600 herumschlagen; leistungsfähigere Karten waren erheblich teurer und haben wohl so manchen direkt zur Konsole getrieben, was dem PC den Boden gleich doppelt abgegraben hat.

Wie dem auch sei, ich habe mir die Mühe gemacht und ein h.264 Kurzvideo aus The Witcher erstellt, mit den oben genannten Einstellungen. Man muss das Video natürlich in seiner nativen Auflösung von 1680*1050 anschauen; skaliert sieht es schlechter aus. Am liebsten hätte ich das Originalfile angeboten, aber das ist 150MB groß und scheidet somit aus.

http://www.file-upload.net/download-1631180/witcher-2009-05-10-10-26-09-64.avi.MP4.html

Hand aufs Herz: Wer hier mit Floskeln wie "Augenkrebs" argumentiert, der provoziert mit purer Absicht und zeigt sich höchst intolerant gegenüber jenen, die mit dem gebotenen einverstanden sind. Da Intoleranz fast immer auf Neid und Eifersucht hervorgeht, wäre manch einem mit einer Pause zu diesem Thema sicher geholfen.

Gast
2009-05-10, 11:32:46
Ich spiele aktuell The Witcher und bin mit der Bildqualität meiner 4850 sehr zufrieden. 16xAF und 4xAA sind aktiv, und ich habe ein Bild vor mir, das wie in Stein gemeißelt wirkt. Es ist durchaus möglich, dass es noch besser ginge, aber das ist für mich nicht nötig.

Also ohne AAA/TAA von einem Bild "wie in Stein gemeißelt" zu sprechen ist gewagt, vielleicht wie in Sandstein? Nicht bewegen, dann beißt es nicht! :)

Okay, Alpha-Tests springen einen in dem Video nicht an. aber allein die Holzverkleidung links am Haus. Sagen wir mal, das entsteht durch die Kompression? :)

Gast
2009-05-10, 11:33:13
Ist schon ne komische Welt. Die Jungs mit ATI Flagge predigen 10.1 weils "besseres FSAA" bringt


Falsch, AA interessiert mich nicht, sehr wohl aber der zusätzliche Speed, den das Feature in meinem aktuell gespielten Strategie-Spiel Battleforge bringt.

Verallgemeinerungen sind übrigens reichlich einfältig, daher lass es das nächste Mal bitte besser gleich sein.

Gast
2009-05-10, 11:37:40
Falsch, AA interessiert mich nicht, sehr wohl aber der zusätzliche Speed, den das Feature in meinem aktuell gespielten Strategie-Spiel Battleforge bringt.

Es bringt keinen zusätzlichen Speed, weil es das Vergleichsobjekt ohne D3D10.1 nicht gibt. Alle aktuellen ATI-Karten können das und dank D3D10.1 schneiden sie im Vergleich zu ihrem Nvidia-Widerpart eben etwas besser ab, wenn das Spiel es erlaubt. Unterm Strich zäglt performanceseitig das Ergebnis, nicht auf welchem Pfad dieses erreicht wird, die Stärken von D3D10.1 liegen tatsächlich da, wo es Vorteile in der Darstellung bietet.

Schlammsau
2009-05-10, 11:38:43
Und nochmal.....fast keiner sieht das Flimmern! Ich kenne viele Casual Gamer mit einer HD3000 oder HD4000 Karte, und keinem ist ein Flimmern jemals aufgefallen. Liegt mitunter auch daran, dass AF generell deaktiviert ist, weil sie gar nicht wissen wie man es im CCC einschaltet.
Merkt ihr worauf ich hinaus will!? Die Gamer wollen einfach nur zocken und sitzen nicht wie manche hier, mit ner Lupe vorm Moni und vergleichen die BQ zwischen AI Default und HQ.
Die paar Hanseln die nach besserer BQ schreien sind aber sowas von in der Minderheit, dass es fast schon lächerlich ist diesen Zwergenaufstand hier zu verfolgen.
Ihr solltet mal eure Scheuklappen ablegen und euch Gedanken darüber machen, warum es nie auf irgendwelchen Review Seiten angesprochen wird!?

Gast
2009-05-10, 11:44:00
Okay, Alpha-Tests springen einen in dem Video nicht an. aber allein die Holzverkleidung links am Haus. Sagen wir mal, das entsteht durch die Kompression? :)

Wenn ich spiele, dann fällt mir das nicht auf. Habe ich das Spiel aber nur zum Benchen/Filtertesten gekauft, dann mag das stören, geht aber in einen Bereich, der für mich nicht entscheidend ist.

Ich lade gerade den Spielstand hoch. Gerne darf einer mit NV-Karte die Szene mit identischen Einstellungen nachdrehen und die Welt mit Brillianz erfüllen.

So: http://www.file-upload.net/download-1631250/000890---H-ndlerviertel-890.rar.html

Gast
2009-05-10, 11:45:43
Es bringt keinen zusätzlichen Speed, weil es das Vergleichsobjekt ohne D3D10.1 nicht gibt. Alle aktuellen ATI-Karten können das und dank D3D10.1 schneiden sie im Vergleich zu ihrem Nvidia-Widerpart eben etwas besser ab, wenn das Spiel es erlaubt. Unterm Strich zäglt performanceseitig das Ergebnis, nicht auf welchem Pfad dieses erreicht wird, die Stärken von D3D10.1 liegen tatsächlich da, wo es Vorteile in der Darstellung bietet.

Doch, der Gegenpart heißt DX10 auf ATI.

InsaneDruid
2009-05-10, 11:48:29
Ich hatte selber jahrelang AMD CPUs und ATI Grafikkarten. Sogar länger und mehr als NVidias. Genaugenommen hatte ich bisher nur 2 Nvidias, die 4400 und die 8800. Dafür dann aber 9700np, 9800pro X800XL, X850GT, X1900XT, X1950XTX. Ich bin absolut kein Nvidiot, noch bin ich Fanatiker. Eigentlich gehörte ich sogar mal eher stark zu den Fanatikern, da mit nVidia aus früheren 3dfx Zeiten noch so ein wenig wie der Erzfeind war. Der lustigerweise damals eigentlich genau das war wie ATI heute. Statt 22Bit + schönes FSAA Quincunx und mieses 16Bit. Aber schneller.


Aber zurück auf die "aber die meisten sehen es doch nicht". Die meisten stört auf einer Röhre auch kein 60Hz. Die meisten fahren komplett ohne FSAA und AF. Die meisten lassen ihren TFT nichtmal auf nativer Auflösung fahren. Nach dieser Argumentation bräuchte man weder DVD, noch Blu Ray, noch HD Monitore oder Fernseher. 60Hz CRTs würden vollauf genügen. Und auf FSAA AF könnte man ganz verzichten, bringt ja auch Speed. TRilinear dann auch, die TMUs sind ja idR bilinear, bringt auch wieder was.

Gast
2009-05-10, 11:49:04
Und nochmal.....fast keiner sieht das Flimmern! Ich kenne viele Casual Gamer mit einer HD3000 oder HD4000 Karte, und keinem ist ein Flimmern jemals aufgefallen. Liegt mitunter auch daran, dass AF generell deaktiviert ist, weil sie gar nicht wissen wie man es im CCC einschaltet.
Himmel, Arsch und Zwirn, dann steht es mit der Massenaufklärung eben noch schlimmer als vermutet und die sogenannte Fachpresse sollte sich erneut schämen. Das ändert aber nichts daran, dass das Problem existiert und den PC als Spieleplattform unter seinen Möglichkeiten hält, ebenso wie ein PC-Spieler unter seinen Möglichkeiten bleibt, wenn er dumm bleibt und dumm gehalten wird.

Ich weiß nicht, was die Kids heutzutage an Spielemagazinen lesen, aber dann braucht es eben Artikel wie "Was ist der Anisotrope Filter", "Expertenecke: So aktivieren Sie AF! Was es bringt, was es kostet!" und natürlich auch "Ausgeträumt, bei ATI enden Bildqualitätswünsche in der A.I.-Falle!". Mit was füllen die ihre Heftchen eigentlich, nur mit Produktvorstellungen?

LovesuckZ
2009-05-10, 11:51:22
Und nochmal.....fast keiner sieht das Flimmern! Ich kenne viele Casual Gamer mit einer HD3000 oder HD4000 Karte, und keinem ist ein Flimmern jemals aufgefallen. Liegt mitunter auch daran, dass AF generell deaktiviert ist, weil sie gar nicht wissen wie man es im CCC einschaltet.
Merkt ihr worauf ich hinaus will!? Die Gamer wollen einfach nur zocken und sitzen nicht wie manche hier, mit ner Lupe vorm Moni und vergleichen die BQ zwischen AI Default und HQ.
Die paar Hanseln die nach besserer BQ schreien sind aber sowas von in der Minderheit, dass es fast schon lächerlich ist diesen Zwergenaufstand hier zu verfolgen.
Ihr solltet mal eure Scheuklappen ablegen und euch Gedanken darüber machen, warum es nie auf irgendwelchen Review Seiten angesprochen wird!?

Dann verlasse doch dieses Forum. Wirklich, wenn dir die Thematik nicht passt - was machst du dann hier?
Lege du erstmal deine AMD Scheuklappen ab und realisiere, dass deine Welt vielleicht die größere ist, aber in diesem Forum nicht gefragt ist. Geh in andere Foren - da kannst du dich mit deiner stromfressenden Grafikkarte über tolle Spieleerlebnisse ohne AA, AF und sonstigen unnötigen Kram unterhalten. :rolleyes:

Die Frage kann man dannn genauso stellen "Warum NV kaufen?"

Nein.
Es geht darum, dass AMD Käufer Bildqualität nicht wirklich interessiert - somit auch nicht 8xMSAA oder die höhreren Modi.
Es bleibt also jetzt die Frage zu klären, warum man bei gleichem Preis sich für AMD entscheiden sollte, wenn man im Grunde keinen Wert auf bestmögliche Qualität lege und generell sie garnicht erkennen würde bzw. könnte.

Schlammsau
2009-05-10, 11:54:45
Dann verlasse doch dieses Forum. Wirklich, wenn dir die Thematik nicht passt - was machst du dann hier?
Lege du erstmal deine AMD Scheuklappen ab und realisiere, dass deine Welt vielleicht die größere ist, aber in diesem Forum nicht gefragt ist. Geh in andere Foren - da kannst du dich mit deiner stromfressenden Grafikkarte über tolle Spieleerlebnisse ohne AA, AF und sonstigen unnötigen Kram unterhalten. :rolleyes:

Um mir eine menge Ärger zu ersparen, denke ich mir jetzt nur meinen Teil und ziehe mich ganz dezent zurück.

LovesuckZ
2009-05-10, 11:58:27
Um mir eine menge Ärger zu ersparen, denke ich mir jetzt nur meinen Teil und ziehe mich ganz dezent zurück.

Wieso? Meinst du, nur weil denkst, dass du mit deiner "ich-brauche-keine-Bildqualität" Mentalität der Mehrheit entsprichst, bist du der Nabel der Welt?
Andere Foren bilden daher eher deine Meinung ab als dieses. Wenn es dir nicht passt, dass dieses Forum eben nicht so ist wie deine Meinung, solltest du wirklich darüber nachdenken, ob du hier richtig bist.

Schlammsau
2009-05-10, 12:01:34
Wieso? Meinst du, nur weil denkst, dass du mit deiner "ich-brauche-keine-Bildqualität" Mentalität der Mehrheit entsprichst, bist du der Nabel der Welt?
Andere Foren bilden daher eher deine Meinung ab als dieses. Wenn es dir nicht passt, dass dieses Forum eben nicht so ist wie deine Meinung, solltest du wirklich darüber nachdenken, ob du hier richtig bist.

Denk mal lieber drüber nach ob du hier richtig bist! :wink:

Jake Dunn
2009-05-10, 12:03:55
Nein.
Es geht darum, dass AMD Käufer Bildqualität nicht wirklich interessiert - somit auch nicht 8xMSAA oder die höhreren Modi.
Es bleibt also jetzt die Frage zu klären, warum man bei gleichem Preis sich für AMD entscheiden sollte, wenn man im Grunde keinen Wert auf bestmögliche Qualität lege und generell sie garnicht erkennen würde bzw. könnte.

Die Leute die ATI Graka kaufen sind zufrieden damit, nimm es einfach hin :D

Gast
2009-05-10, 12:06:43
Die Leute die ATI Graka kaufen sind zufrieden damit, nimm es einfach hin :D
Denn sie wissen nicht, was sie tun! :D

LovesuckZ
2009-05-10, 12:07:05
Die Leute die ATI Graka kaufen sind zufrieden damit, nimm es einfach hin :D

Wir müssen sagen: Sie sind zufrieden, weil sie billiger war. ;)

InsaneDruid
2009-05-10, 12:09:11
Komisch nur das jemand mit
"Crysis - Very High HQ Performance Config
Crysis WARHEAD - Enthusiast HQ Performance Config
Performance & Enthusiast: aktuelle Grafikkartenpreise" in der Sig meint um knapp die Hälfte eingeoptimiertes Txturfiltern ist absolut ok und vollkommen akzeptabel.

Jake Dunn
2009-05-10, 12:13:40
Denn sie wissen nicht, was sie tun! :D
Wir müssen sagen: Sie sind zufrieden, weil sie billiger war. ;)

Stimmt beides nicht :)

Gast
2009-05-10, 12:16:38
Komisch nur das jemand mit
"Crysis - Very High HQ Performance Config
Crysis WARHEAD - Enthusiast HQ Performance Config
Performance & Enthusiast: aktuelle Grafikkartenpreise" in der Sig meint um knapp die Hälfte eingeoptimiertes Txturfiltern ist absolut ok und vollkommen akzeptabel.
LOL ;D

Im Moment leugnet er ja AF als Ganzes, womit die Qualitätsfrage sich erübrigt. Allerdings muss man sagen, bei Crysis kommt man leider nicht ganz um AF herum. Oder gibt es eine "Enthusiast *hust* / Extreme Performance Config"?

InsaneDruid
2009-05-10, 12:17:34
Sagen wir es mal andersherum: würde sich keiner der hier anwesenden ATI Nutzer für die Zukunft mehr echte Füllrate, und dafür weniger "Optimierungen" wünschen?

Schlammsau
2009-05-10, 12:24:12
Komisch nur das jemand mit
"Crysis - Very High HQ Performance Config
Crysis WARHEAD - Enthusiast HQ Performance Config
Performance & Enthusiast: aktuelle Grafikkartenpreise" in der Sig meint um knapp die Hälfte eingeoptimiertes Txturfiltern ist absolut ok und vollkommen akzeptabel.

Ähm ja, weil mir bisher noch kein Flimmern aufgefallen ist! ;)

y33H@
2009-05-10, 12:28:30
Ihr solltet mal eure Scheuklappen ablegen und euch Gedanken darüber machen, warum es nie auf irgendwelchen Review Seiten angesprochen wird!?Selbst die Gamestar sagt, das AF der Radeons flimmert [behaupten aber dafür, das "AA" sei besser]. CB und PCGH benennen auch ein stärkeres Flimmern der Radeons gegenüber den Geforces, AI wird von PCGH schon seit längerem kritisiert ["Kaufen Sie eine Radeon, wenn Sie ... die Kontrolle über "Optimierungen" dem Treiber überlassen können."].

Gast
2009-05-10, 12:32:44
Normalerweise schon richtig, aber der Grafikkartenmarkt ist nunmal nicht der Automarkt. Bei den Grakas gibt es ganze 3 mehr oder minder wichtige Hersteller, und für den Gamer und Retail Markt nur derer 2.

Der Automarkt ist wesentlich vielschichtigerer, hat wesentlich mehr Konkurrenten und hat vor allem Konkurrenten in jeder Preisklasse. Es juckt Ferrari und Porsche nicht, wenn sich am unteren Ende Opel mit einem abgespeckten Corsa und zb Dacia eine Preisschlacht liefern, die sie prinzipiell durch immer weniger Features und Qualität erreichen. Außerdem ist es so das die Presse diese Qualitätsabstriche auch bemäkelt.

Die aktuellen NV und Nvidias sind mehr oder minder auch immer wieder das gleiche Produkt, nur in verschiedenen Geschwindigkeitsklassen. Und was da passiert (und schon mal mit verdrehten Vorzeichen passierte) ist nun mal am Ende schlecht für alle. Wenn einer der beiden Hersteller, um billiger produzieren zu können TMUs einspart (oder an anderer Stelle) und dafür einfach deutlich weniger schlecht filtert, die Presse dies aber als nicht sichtbar abtut, gleichzeitig aber den Preis und die Scheinleistung preist so kann NV auf die Dauer nicht umhin auch wieder an der BQ Schraube zu drehen. Woraufhin, wenn auch dies als Lapalie abgetan wird auch AMD weiter absenken wird. Und das kann NICHT im Sinne der Spieler sein.

Wie vorab schon irgendjemand hier sagte: wir leben in 2009, reden über DX 10.1 und DX11 und ob ein Schatten eine 10 KM entfernten Kerze die Flügel einer Flige noch korrekt beleuchtet und nichtmal die Basics von anno pre 2001 (2001 kam schon der legendäre Filterartikel hier im 2dcenter) sind erfüllt. Da stimmt doch etwas überhaupt nicht.

Was bringt es dir wenn du dich darüber aufregst ich weiß ATI Karten shice Filtern, aber es ist nicht in einen Punkt angelangt wo ich sage man sieht es sofort wie die Faust aufs Auge. Den sei mal ehrlich interessiert das den Causal Gamer?
Die wissen nicht mal was AA und AF ist geschweige den von den Modi´s von AA und AF

Geld wird immer von den Leuten gewonnen die nicht viel ahnung haben. Ich kenne sogar Leute die haben eine Geforce GTX 260 drinne und spielen 1024x768 obwohl die ein 22 Zoll TFT haben und locker 1650x1050 zoggen könnten. Den interessiert dieser schnickschnack nicht hauptsache das Spiel XY sieht besser aus als auf Xbox 360 bzw. PS3. Die stellen alle Balken auf High/Very High ein im Spiel und das wars.

Schlammsau
2009-05-10, 12:36:15
Selbst die Gamestar sagt, das AF der Radeons flimmert [behaupten aber dafür, das "AA" sei besser]. CB und PCGH benennen auch ein stärkeres Flimmern der Radeons gegenüber den Geforces, AI wird von PCGH schon seit längerem kritisiert ["Kaufen Sie eine Radeon, wenn Sie ... die Kontrolle über "Optimierungen" dem Treiber überlassen können."].

War vielleicht falsch formuliert.....ich meinte, warum wird es nicht so dramatisch wie hier im Forum dargestellt?
Ich meine von wegen Augenkrebs, Zumutung, die User für dumm zu verkaufen und und und?
Warum schreiben alle, aber auch wirklich alle Seiten nur was von "A.I. On ist in etwa mit Q zu vergleichen"?

Alle von AMD/ATi gekauft?

Pirx
2009-05-10, 12:40:24
Irgendwie wären doch mal ein paar Vergleiche oder Beispiele angebacht, wie von dem Gast begonnen, sonst behauptet doch hier eh wieder jeder, was ihm in den Kram passt.

y33H@
2009-05-10, 12:45:24
Warum schreiben alle, aber auch wirklich alle Seiten nur was von "A.I. On ist in etwa mit Q zu vergleichen"?
Ohne einen Artikel in der Hinterhand, der zu 100% schwarz auf weiß belegt, dass das AF unterlegen ist und AMD so an Samples/TMUs spart, wird die jeweilige Redaktion mit Garantie tot geflamt - selbst mit Artikel wird es imo schwer bei den Hardcore-Fanboys [bla subjektiv trotzdem besser bla]. Und hinsichtlich der AI-Bevormundung: Der normale Menschenverstand sagt, dass dies nicht gut ist - Fanboys aber finden es klasse [bla AMD macht alles unter einem Hut bla viel komfortabler/übersichtlicher bla]. Ich denke, wer vernünftig ist und sich ein bisschen mit beschäftigt, sieht, dass AI ein Zwang ist, der AMD mehr als dem User Nutzen bringt, und das AF [im direkten Vergleich] nur ein Sparfilter ist. Dies aber der Masse nahe zu bringen, so dass diese es akzeptieren muss und es kapiert, ist eine schwierige Sache. Ich bin da mal auf Codas Artikel gespannt ...

Im Übrigen ist "A.I. On ist in etwa mit Q zu vergleichen" recht passend formuliert. AI ist etwas schlechter, aber das kann man schlecht in einen Fps-Balken mit einrechnen. Und wie viel Fps AMD bei gleicher Filterung verlieren würde, tja ... AMD dürfte es wissen.

Mr. Lolman
2009-05-10, 12:54:08
Sagen wir es mal andersherum: würde sich keiner der hier anwesenden ATI Nutzer für die Zukunft mehr echte Füllrate, und dafür weniger "Optimierungen" wünschen?

Wünschen würden wir uns viel. Aber so ein Chip, wäre bei vglbarer Leistung komplexer, teurer und NV müsste dementsprechend ihre Karten nicht so günstig platzieren. Was hat ne damals konkurrenzlose 512MB 7800GTX gekostet? 700€? Ne konkurrenzlose GF2 Ultra? ~1000€?

Solangs Konkurrenz gibt, hat der Anwender auf jeden Fall was davon. Egal welcher IHV die GPu im Rechner produziert hat. Für meine 4870 hab ich damals 216€ bezahlt. Ne 260GTX hat damals iirc 280€ gekostet. Nun hat NV ihre Preise an die von Ati angepasst - mit dem Erfolg, dass man insgesamt sehr gute GraKas sehr günstig kaufen kann.

Außerdem ist es ist ja wirklich nicht so, dass die default-BQ mies wär. Nur die Bevormundung ärgert mich zuweilen etwas (meistens dann, wenn ich nicht einfach spiel, sondern wiedermal ewig lang herumprobier um die optimalsten Settings für meinen Rechner zu finden). Jeder der ATi kauft, weiß das aber -hoffentlich. PCGH weist auch jedes Monat bei den Kaufberatungsartikeln darauf hin - und wenn man sich informiert, kauft man auch nicht die Katze im Sack. Andersrum ists auch eher unrealistisch, dass jemand ein ähnlicher BQ-fetischist ist, wie wir hier - und aber keine Ahnung davon hat, was ATi und NV bieten.

Letztenendes ists wohl eher schwer abzuwiegen, ob ATi daraus einen Vorteil ziehen würde, div. BQ-Optionen per Regkey anzubieten. Und einbauen würden dies klarerweise nur, wenn sie auch einen Vorteil darin erkennen würden. (Blöd wären sie, wenn sie plötzlich superduper-HQ-AF anbieten würden und keiner würds aktivieren, weil die Performance um 30-50% sinkt, aber die Benchmarks fortan alle nur mehr mit HQ-AF gemacht werden würden.)

Natürlich könnte man auch eine große Kampagne starten und ATI mehr oder weniger dazu zwingen, dass sie perfekt gefilterte Texturen zulassen. Nur im nächsten Chip werden wir das wohl nicht sehen. Im Übernächsten wohl auch nicht. (wegen TEX:ALU Verhältnis). Oder wir würdens doch sehen und ATi wär NV ggü. schwächer positioniert - und NV könnte mehr Kohle für ihre Karten verlangen. Wer will das schon - außer NV selbst und Lovesuckz vll?



Momentan ists die default-BQ halt relativ vergleichbar und die Benchmarks dementsprechend fair. Würde NV nun standardmäßig nun HQ anbieten, oder ATi ihre BQ noch weiter absenken, müsste man auf jeden Fall intervenieren. Aber jetzt? Wenn die Standardqualität der IHVs übel aufstoßen sollte, kauft man halt NV und aktiviert HQ. Wo ist da das Problem bitteschön?

Selbst die Gamestar sagt, das AF der Radeons flimmert [behaupten aber dafür, das "AA" sei besser]. CB und PCGH benennen auch ein stärkeres Flimmern der Radeons gegenüber den Geforces, AI wird von PCGH schon seit längerem kritisiert ["Kaufen Sie eine Radeon, wenn Sie ... die Kontrolle über "Optimierungen" dem Treiber überlassen können."].

Tatsächlich kauft ohnehin auch jeder, der nicht besonders viel Ahnung hat NV-Karten und Intel-CPUs. Bei den meisten hat sich einfach eingebrannt, dass NV und Intel die beste HW haben. Mit ner NV-Karte und ner Intel-CPU kann man nix falsch machen, oder so. A - Tiii? Die sind ja instabil und stürzen dauernd ab, oder? ;)

Schlammsau
2009-05-10, 13:01:17
Ohne einen Artikel in der Hinterhand, der zu 100% schwarz auf weiß belegt, dass das AF unterlegen ist und AMD so an Samples/TMUs spart,

Warum wird das den dann nicht gemacht? Hier im 3DC ist dieser Artikel schon seit einer gefühlten Ewigkeit geplant. Und warum haben sich noch keine andren Websites daran gewagt? Ist es vielleicht doch nicht so einfach? Ist der Unterschied doch sehr gering und nur durch eine Lupe zu erkennen?
Wo liegt das Problem?

y33H@
2009-05-10, 13:06:03
Das Problem ist, das Ganze so aufzuzeigen, dass es jeder kapiert.

Tatsächlich kauf ohnehin auch jeder, der nicht besonders viel Ahnung hat NV-Karten und Intel-CPUs.Weil das die Standard-Kombi im Blödmarkt ist oder es der Händler um die Ecke nur sowas verkauft? "Glaubt" man den Foren, übernehmen Phenom II X4 und die HD4k bald die Weltherrschaft, der i7 taugt nicht zum Spielen und nur die GTX200 haben Spulenfiepen. Ach ja, Intel+nV sind gaaanz gaaanz pöhse und geldgierig und überhaupt und AMD der liebe brave zu verhätschelnde Underdog, der nur auf das Wohl der Fanboys Kunden bedacht ist und keinerlei Profit zu machen braucht ...

Wer Ironie findet, darf sich an ihr erfreuen.

Schlammsau
2009-05-10, 13:07:25
Das Problem ist, das Ganze so aufzuzeigen, dass es jeder kapiert.

Hat doch damals bei dem Artikel über die Geforce 7 Serie auch geklappt.

Mr. Lolman
2009-05-10, 13:07:57
Warum wird das den dann nicht gemacht? Hier im 3DC ist dieser Artikel schon seit einer gefühlten Ewigkeit geplant. Und warum haben sich noch keine andren Websites daran gewagt? Ist es vielleicht doch nicht so einfach? Ist der Unterschied doch sehr gering und nur durch eine Lupe zu erkennen?
Wo liegt das Problem?

Wenn man darauf sensibilisiert ist, sieht man den Unterschied sofort. Nur Noobs zu sensibilisieren kann auch nach hinten losgehen. Wie aktuell in einem bekannten Forum zB gegen den kommenden ENB-Series MOD für GTA4 (http://boris-vorontsov.narod.ru/ss_gta4_01_en.htm) geflamed wird, geht ja auch auf keine Kuhhaut mehr. :rolleyes:


Das Problem ist, das Ganze so aufzuzeigen, dass es jeder kapiert.

Achwas. Raff könnte das schon. Nur manche sehens einfach nicht. Anderen ists wurscht. Manche fragen sich, was das herumreiten auf ein paar Pixel soll, andere fühlen sich mit ihrem Kauf einer NV-Karte bestätigt und nur die Minderzahl ist froh darüber aufgeklärt geworden zu sein und gezeigt bekommen zu haben, dass sie die falsche GraKa im Rechner haben.

Ist doch so. Man kauft sich irgendwas. Und selbst wenn alle meinen, dass das ein Mist ist, sucht man verzweifelt nach Argumenten und Bestätigungen, dass der Kauf doch richtig war.

Die Frage die man sich dabei stellen sollte, ist, was das Ziel davon ist. Unbedarfte Anwender zu sensibilisieren? Leuten die rote Pille zu verabreichen? Das geht nach hinten los. Niemand will aus seiner Traumwelt rausgeholt werden. Will man tatsächlich nur ATi dazu bewegen die BQ zu erhöhen, kann das auch für potentielle NV-Anwender, wie in Post#300 beschrieben, nach hinten losgehen.

LovesuckZ
2009-05-10, 13:08:41
Momentan ists die default-BQ halt relativ vergleichbar und die Benchmarks dementsprechend fair. Würde NV nun standardmäßig nun HQ anbieten, oder ATi ihre BQ noch weiter absenken, müsste man auf jeden Fall intervenieren. Aber jetzt? Wenn die Standardqualität der IHVs übel aufstoßen sollte, kauft man halt NV und aktiviert HQ. Wo ist da das Problem bitteschön?


Die Default-BQ beinhaltet kein AA und kein AF.
Das Problem liegt in der Unfähigkeit der Reviewer, 8xMSAA mit HQ/Q und A.I Off zu vergleichen oder aber auf andere Modi auszuweichen. "Ähnliche sinnvolle Einstellungen" gibt es nur bis Q/A.I Low sowie 4xMSAA.

Schlammsau
2009-05-10, 13:13:05
Die Default-BQ beinhaltet kein AA und kein AF.
Das Problem liegt in der Unfähigkeit der Reviewer, 8xMSAA mit HQ/Q und A.I Off zu vergleichen oder aber auf andere Modi auszuweichen. "Ähnliche sinnvolle Einstellungen" gibt es nur bis Q/A.I Low sowie 4xMSAA.

Dann werd du doch Reviewer, die warten nur auf so jemanden wie dich.:tongue:

Mr. Lolman
2009-05-10, 13:17:15
Die Default-BQ beinhaltet kein AA und kein AF.
Das Problem liegt in der Unfähigkeit der Reviewer, 8xMSAA mit HQ/Q und A.I Off zu vergleichen oder aber auf andere Modi auszuweichen. "Ähnliche sinnvolle Einstellungen" gibt es nur bis Q/A.I Low sowie 4xMSAA.

Default-BQ mit 4xAA/16xAF war gemeint. So wie die meisten HW-Seiten halt testen. Aber Schlammsau hat recht. Schreib du doch einen Gastartikel fürs 3DC. Jeder ist übrigens dazu eingeladen, das niederzuschreiben, was ihm unter den Nägeln brennt.

Weil das die Standard-Kombi im Blödmarkt ist oder es der Händler um die Ecke nur sowas verkauft? "Glaubt" man den Foren, übernehmen Phenom II X4 und die HD4k bald die Weltherrschaft, der i7 taugt nicht zum Spielen und nur die GTX200 haben Spulenfiepen. Ach ja, Intel+nV sind gaaanz gaaanz pöhse und geldgierig und überhaupt und AMD der liebe brave zu verhätschelnde Underdog, der nur auf das Wohl der Fanboys Kunden bedacht ist und keinerlei Profit zu machen braucht ...

Wer Ironie findet, darf sich an ihr erfreuen.

Achwas den Foren braucht man nicht glauben. Zumindest nicht dann, wenn so ein Bullshit verzapft wird. ;)

y33H@
2009-05-10, 13:18:00
Hat doch damals bei dem Artikel über die Geforce 7 Serie auch geklappt.Bezweifel ich bis heute, dass deswegen die Verkäufe wirklich derbe eingebrochen sind - im Nachhinein hat NV aber gelernt. Bei AMD müsste man hier wohl bis nach dem RV870 warten, ergo wohl noch ein Jahr :usad:

@ LovesuckZ

8x MSAA ist zumindest optisch "fair". Imo aber nur ein Bench-Setting ...

Gast
2009-05-10, 13:21:03
Wünschen würden wir uns viel. Aber so ein Chip, wäre bei vglbarer Leistung komplexer, teurer und NV müsste dementsprechend ihre Karten nicht so günstig platzieren. Was hat ne damals konkurrenzlose 512MB 7800GTX gekostet? 700€? Ne konkurrenzlose GF2 Ultra? ~1000€?

Bis auf das die 7800 GTX 512 nach der X1800 XT released wurde und unter anderem wegen der Knappheit an gutem GDDR3/G70 so teuer war.


(Blöd wären sie, wenn sie plötzlich superduper-HQ-AF anbieten würden und keiner würds aktivieren, weil die Performance um 30-50% sinkt, aber die Benchmarks fortan alle nur mehr mit HQ-AF gemacht werden würden.)
Zumindest beim 8xMSAA störts keinen, wenn NV um 30-50% abkackt.
Ja, ja, Nvidia hat keine spielespezifischen Optimierungen an 8xMSAA gekoppelt, deshalb ist das auf einmal legitim.


Natürlich könnte man auch eine große Kampagne starten und ATI mehr oder weniger dazu zwingen, dass sie perfekt gefilterte Texturen zulassen. Nur im nächsten Chip werden wir das wohl nicht sehen. Im Übernächsten wohl auch nicht. (wegen TEX:ALU Verhältnis).
Schade, du meinst der Zug der HD5 und HD6 ist bereits abgefahren, die BQ wird noch etwas schlechter.

Da sehen wir was es gebracht hat, AMD seit 3 Generationen nicht zu kritisieren.
Hoffentlich wirds mit der HD7 etwas.

Hat doch damals bei dem Artikel über die Geforce 7 Serie auch geklappt.Und was sprach dagegen, das soetwas nicht schon längst bei AMD geschehen ist, auch in Zukunft nicht geschehen soll?

Mr. Lolman
2009-05-10, 13:24:02
Zumindest beim 8xMSAA störts keinen, wenn NV um 30-50% abkackt.
Ja, ja, Nvidia hat keine spielespezifischen Optimierungen an 8xMSAA gekoppelt, deshalb ist das auf einmal legitim.

Imo ists eh ein Unding, dass 8xMSAA gebencht wird. 4xAA/16xAF mit default BQ und Max.AA/AF mit max BQ sollte gebencht werden.


Schade, du meinst der Zug der HD5 und HD6 ist bereits abgefahren, die BQ wird noch etwas schlechter.

Ich hab nicht gemeint, dass sie noch schlechter wird, sondern bloß bezweifelt, dass sie besser wird.

Gast
2009-05-10, 13:24:51
8x MSAA ist zumindest optisch "fair". Imo aber nur ein Bench-Setting ...
Aus dem Grund wird AMD 3 mal besser gestellt:
- optisch ungleiches Q vs AI-on
- performancemäßig schlechteres 8xMSAA vs 8xMSAA
- Unterm Strich die Behauptung "24"xCFAA sei das Beste auf Erden und die Performance/€ sei göttlich

Gast
2009-05-10, 13:25:33
Ich hab nicht gemeint, dass sie noch schlechter wird, sondern bloß bezweifelt, dass sie besser wird.
Die Behauptung kommt auch von mir. ;)

y33H@
2009-05-10, 13:32:10
@ Gast

Ist doch eine geile Kombi: Nahezu perfekte Geomtrieglättung [24x ED-CFAA], dafür flimmert der Rest des Bildes [extrem] vor sich hin. Jetzt verstehe ich auch, warum manche User schreiben, sie fänden die BQ auf ihrer Radeon so toll ... vor allem den "Kontrast" :ulol:

Und bevor mir jemand auf die Hütte steigt - ist nicht ernst gemeint.

Mr. Lolman
2009-05-10, 13:38:02
Die Behauptung kommt auch von mir. ;)

Hm, die Absenkung der einwandfreien R580 auf R600 ist mir schon negativ ausgestossen. Sollten sies aber tatsächlich wagen, die BQ noch weiter abzusenken, dann brennt der Hut.

Denn das würden dann auch unbedarftere Anwender sehen (nicht so wie jetzt), und die HW-Seiten würdens dementsprechend wohl auch alle bemerken. Mit so einer Aktion würd ATi wohl nicht mehr mit bloß einem blauen Auge davon kommen, sondern ihnen würde wohl mehrfach der Kopf gewaschen werden.

Deswegen meine Prognose: Die AF-BQ bleibt höchstwahrscheinlich gleich.

@ Gast

Ist doch eine geile Kombi: Nahezu perfekte Geomtrieglättung [24x ED-CFAA], dafür flimmert der Rest des Bildes [extrem] vor sich hin. Jetzt verstehe ich auch, warum manche User schreiben, sie fänden die BQ auf ihrer Radeon so toll ... vor allem den "Kontrast" :ulol:

Und bevor mir jemand auf die Hütte steigt - ist nicht ernst gemeint.

Das menschliche Auge ist nunmal sensibler für scharfe Kanten, als für homogene Flächen. Deswegen schauen nachgeschärfte Fotos/Videos auch besser aus (solang mans nicht übertreibt) - ganz ohne dass sich der tatsächliche Informationsgehalt dabei erhöht hätte. Beispielbilder im Spoiler: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7272829&postcount=356

Jake Dunn
2009-05-10, 13:55:56
Warum wird das den dann nicht gemacht? Hier im 3DC ist dieser Artikel schon seit einer gefühlten Ewigkeit geplant. Und warum haben sich noch keine andren Websites daran gewagt? Ist es vielleicht doch nicht so einfach? Ist der Unterschied doch sehr gering und nur durch eine Lupe zu erkennen?
Wo liegt das Problem?

Daran wird es liegen und ein "Bericht" mit loligem AF Blumen kann man gleich in die Tonne kloppen. :D



Weil das die Standard-Kombi im Blödmarkt ist oder es der Händler um die Ecke nur sowas verkauft? "Glaubt" man den Foren, übernehmen Phenom II X4 und die HD4k bald die Weltherrschaft, der i7 taugt nicht zum Spielen und nur die GTX200 haben Spulenfiepen. Ach ja, Intel+nV sind gaaanz gaaanz pöhse und geldgierig und überhaupt und AMD der liebe brave zu verhätschelnde Underdog, der nur auf das Wohl der Fanboys Kunden bedacht ist und keinerlei Profit zu machen braucht ...

Wer Ironie findet, darf sich an ihr erfreuen.

Warum ist es wohl die Standadkombi im Blödmarkt :rolleyes:

Naja INTEL bekommt schon sein Fett weg ^^

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1241857646

Gast
2009-05-10, 14:06:08
Naja INTEL bekommt schon sein Fett weg ^^

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1241857646
Die EU hat nicht genug Anwälte um Microsoft und Intel gleichzeitig zu verklagen.
Die paar Anwälte, die die haben dürfen auch nicht zu hohe Forderungen stellen, sonst scheiterts gleich.

Für einen ordentlichen Wettbewerb wollen die eh nicht sorgen, sonst wären unsere Energiekartelle längst dran.
Oder man hätte nicht sämtliche Banken mit Milliarden vollgeblasen, vor allem die die noch nie Gewinn gemacht haben. *hust HSH Nordbank hust*


Ops, OT.

uweskw
2009-05-10, 14:27:15
......

Wie dem auch sei, ich habe mir die Mühe gemacht und ein h.264 Kurzvideo aus The Witcher erstellt, mit den oben genannten Einstellungen. Man muss das Video natürlich in seiner nativen Auflösung von 1680*1050 anschauen; skaliert sieht es schlechter aus. Am liebsten hätte ich das Originalfile angeboten, aber das ist 150MB groß und scheidet somit aus.

http://www.file-upload.net/download-1631180/witcher-2009-05-10-10-26-09-64.avi.MP4.html

Hand aufs Herz: Wer hier mit Floskeln wie "Augenkrebs" argumentiert, der provoziert mit purer Absicht und zeigt sich höchst intolerant gegenüber jenen, die mit dem gebotenen einverstanden sind. Da Intoleranz fast immer auf Neid und Eifersucht hervorgeht, wäre manch einem mit einer Pause zu diesem Thema sicher geholfen.


Könnte mal einer mit ner NV Karte uns den EXTREMEN Qualitätsunterschied zeigen?
Oder ist der garnicht so extrem?

y33H@
2009-05-10, 14:27:20
@ Jake Dunn

Für dargos Sonyfreaks Videos [AI-def vs. HQ] braucht man keine Lupe :rolleyes: Und wer oft genug bencht und das Spiel kennt, sieht oft auf Anhieb, ob eine HD4k (AI-def) oder eine GTX200 rendert (Q).Warum ist es wohl die Standadkombi im BlödmarktEtwa weil Intel böse ist und NV böse ist? :eek:

Jake Dunn
2009-05-10, 14:34:37
@ Jake Dunn

Für dargos Videos [AI-def vs. HQ] braucht man keine Lupe :rolleyes: Und wer oft genug bencht und das Spiel kennt, sieht oft auf Anhieb, ob eine HD4k (AI-def) oder eine GTX200 rendert (Q).Etwa weil Intel böse ist und NV böse ist? :eek:

Dargos Videos :confused:

y33H@
2009-05-10, 14:43:13
Damned ... es war Sonyfreak (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6187566&postcount=414) :(

PulsarS
2009-05-10, 14:49:25
Zumindest beim 8xMSAA störts keinen, wenn NV um 30-50% abkackt.
Ja, ja, Nvidia hat keine spielespezifischen Optimierungen an 8xMSAA gekoppelt, deshalb ist das auf einmal legitim.

Das ist doch ein Äpfel-Birnen Vergleich :|
8xMSAA ist von der technischen Umsetzung und (das ist vor allem wichtig) von der Optik her vergleichbar, also kann man es doch vergleichen.
Warum sollte man das nicht tun, wenn man absolut gesehen vergleichbare (optisch) Resultate erhält?
Erklär das mal, bitte :)

Bei AF ist es halt eben ein wenig anders, da die IHVs hier ein wenig andere Wege gehen und DIE wirklich vergleichbare Lösung gibt es einfach nicht.
Deswegen ist es die Aufgabe der Reviewer eine möglichst vergleichbare Einstellung zu finden.
Und meiner Meinung nach muss man auch gar nicht lange suchen, denn die Defaulteinstellungen sind DIE am besten vergleichbare Einstellung.

Gast
2009-05-10, 15:33:21
Könnte mal einer mit ner NV Karte uns den EXTREMEN Qualitätsunterschied zeigen?
Oder ist der garnicht so extrem?

Witcher

NV GTX260 - 216
1680x1050, 4xAA+TMSAA, 16xAF
http://www.file-upload.net/download-1631690/witcher-2009-05-10-15-09-11-28b.avi.html

Ist das deutlich genug.

Jake Dunn
2009-05-10, 15:43:52
Witcher

NV GTX260 - 216
1680x1050, 4xAA+TMSAA, 16xAF
http://www.file-upload.net/download-1631690/witcher-2009-05-10-15-09-11-28b.avi.html

Ist das deutlich genug.

Äppel vs. Birnen :| (TMSAA)


Und Nein ;)

Gast
2009-05-10, 15:47:32
Deswegen ist es die Aufgabe der Reviewer eine möglichst vergleichbare Einstellung zu finden.
Also AI-off vs Q? Bzw. um es noch vergleichbarer zu machen 8xAF oder 4xAF.

Gast
2009-05-10, 15:53:27
Äppel vs. Birnen :| (TMSAA)


Und Nein ;)

Das TMSAA macht keinen Unterschied und das Ingame ist das Bild ganz ruhig, durch das komprimieren ist es etwas unruhig geworden, aber im Vergleich zu ATI ist das nicht dieses Grieseln, auch am Haus ist kein Flimmer Mist...

Gast
2009-05-10, 16:02:58
Witcher

NV GTX260 - 216
1680x1050, 4xAA+TMSAA, 16xAF
http://www.file-upload.net/download-1631690/witcher-2009-05-10-15-09-11-28b.avi.html

Ist das deutlich genug.

Es sind nicht ganz die gleichen Voraussetzungen (Gast 1 hatte den Mauszeiger exakt auf dem Radmittelpunkt platziert. Aber dennoch danke für deinen Einsatz. Der Boden scheint bei NV aber flimmriger.

Gast
2009-05-10, 16:06:15
Es sind nicht ganz die gleichen Voraussetzungen (Gast 1 hatte den Mauszeiger exakt auf dem Radmittelpunkt platziert. Aber dennoch danke für deinen Einsatz. Der Boden scheint bei NV aber flimmriger.

Ich habe versucht so gut wie möglich nach zu stellen, wenn man das Savegame ladet, dann steht die Figur anders da, aber das kenne ich von Witcher, nach dem Speichern schaut man immer in eine andere Richtung.

Gast
2009-05-10, 16:07:12
Krass bei Nvidia grieselt ja garnix, bei Ati sehr deutlich

Gast
2009-05-10, 16:14:29
Selbst das Haus links flimmert bei Nvidia nicht auf Ati hingegen schon,das sind schon deutliche Unterschiede wie ich finde.

InsaneDruid
2009-05-10, 16:27:32
Das menschliche Auge ist nunmal sensibler für scharfe Kanten, als für homogene Flächen. Deswegen schauen nachgeschärfte Fotos/Videos auch besser aus (solang mans nicht übertreibt) - ganz ohne dass sich der tatsächliche Informationsgehalt dabei erhöht hätte. Beispielbilder im Spoiler: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7272829&postcount=356

Vor allem ist das Auge extrem sensibel auf Bewegungen, auch in der Peripherie, die sowieso garnicht mehr scharf sieht. Und schlechtes AF ist ja nicht im Standbild mies (da kann es eben auch mal "schärfer" aussehen, vor allem bei negativ Lod Freaks wie dir), sondern in der Bewegung. Genau das war der Grund meine damals noch relativ neue 1900XT (hatte eigentlich ne 1950XTX geholt, die war aber defekt (wie auch meine 9700np, zeigte sich aber NUR in Il2 Sturmovik) gegen eine 8800 getauscht. Nach Jahren bei ATI. Nur wegen der BQ. Die Realität grisselt auch nicht.

LovesuckZ
2009-05-10, 17:34:31
Das ist doch ein Äpfel-Birnen Vergleich :|
8xMSAA ist von der technischen Umsetzung und (das ist vor allem wichtig) von der Optik her vergleichbar, also kann man es doch vergleichen.
Warum sollte man das nicht tun, wenn man absolut gesehen vergleichbare (optisch) Resultate erhält?
Erklär das mal, bitte :)

Man darf 8xMSAA vergleichen - in einem Vergleich von AA Modi ohne AF. Wenn man aber aber "spielrelevante" Einstellungen nachstellen will, dann ist es falsch 8xMSAA mit Q in Verbindung zu setzen.


Bei AF ist es halt eben ein wenig anders, da die IHVs hier ein wenig andere Wege gehen und DIE wirklich vergleichbare Lösung gibt es einfach nicht.
Deswegen ist es die Aufgabe der Reviewer eine möglichst vergleichbare Einstellung zu finden.
Und meiner Meinung nach muss man auch gar nicht lange suchen, denn die Defaulteinstellungen sind DIE am besten vergleichbare Einstellung.

Wie etwas zu stande kommt, spielt am Ende keine Rolle. AMD bietet A.I Off an, dass die Qualität nochmal verbessert und irgendwo zwischen HQ und Q liegt. Somit ist A.I Off natürlich auch vergleichbar - in einem AF Vergleich. Aber für AMD User - und vorallen X-Fire Besitzer - natürlich in einem "spielesetting" nicht relevant.
Der Reviewer muss sich also entscheiden, ob er die Modi der Verfahren einzeln vergleichen will oder aber "spielerelevante" Einstellung sucht. Und das ist bestimmt nicht 8xMSAA mit Q.

pest
2009-05-10, 18:49:47
Damned ... es war Sonyfreak (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6187566&postcount=414) :(

wow, bei einer extrem flimmeranfälligen textur sieht man ein leichtes banding

ah, augenkrebsalarm...betrug am kunden...:eek:

y33H@
2009-05-10, 18:56:24
Betrug am Kunde ist das nicht. Das AF aber ist schlechter bzw. spart.

pest
2009-05-10, 19:01:11
Das AF aber ist schlechter bzw. spart.

ja, hat auch Niemand das Gegenteil behauptet,
der Witz ist, es wird zu 90% sowas wie HL ausgepackt wenn es um die Beweislast geht

und wenn der Worst-Case so aussieht...dann...naja...was soll der Quatsch, ehrlich?

y33H@
2009-05-10, 19:05:20
Bei den Witcher-Videos sieht man auch deutlich die Unterschiede, bei Raffs Cryis-Videos auch ... es muss nicht zwingend HL2 sein.

Triskaine
2009-05-10, 19:20:26
Würd ich so nicht pauschal sagen. Bei Witcher flimmert der Boden im nVidia Video subjektiv mehr, das Haus dafür weniger als beim Ati Video. Aber mal ehrlich, jemand der sowas als "Augenkrebs erzeugend"
bezeichnet leidet eindeutig unter Realitätsverlust.

Ersteller Witcher-Videos
2009-05-10, 19:32:23
Bei den Witcher-Videos sieht man auch deutlich die Unterschiede, bei Raffs Cryis-Videos auch ... es muss nicht zwingend HL2 sein.


Naja, wenn das deutlich sein soll, dann tangiert mich dieses Problem in der Tat nicht. So gesehen finde ich diese Optimierung sogar ganz gut gelungen.

Aber ATI sollte eventuell für die Bildqualitätserotiker einen HQ-Schalter einbauen. Die Karten würden zwar um - sagen wir - 30 bis 50% einbrechen, aber man hätte (vermutlich) zu 100% vergleichbare Bildqualität. Und die Nvidia-Nutzer könnten sich damit brüsten, die schnelleren Karten zu haben, womit auch gleich noch der wahre Grund dieses Themas entlarvt wäre.

y33H@
2009-05-10, 19:33:29
@ Triskaine

Auf der Radeon flimmert das Haus und der Boden rechts im Bild deutlich mehr ... wenn diese deutlichen Unterschiede schon nicht gesehen werden ... traurig.womit auch gleich noch der wahre Grund dieses Themas entlarvt wäreAha. Die BQ muss gleich sein, sonst kann man nicht vergleichen. Wenn nV nun die BQ senkt, werden sie auch schneller. Gibt sich also nicht viel :rolleyes:

Schlammsau
2009-05-10, 19:36:01
Gesehen wird es, aber (zurecht) nicht als schlimm oder "Augenkrebs" erzeugend empfunden. Das ist ein Unterschied.
Mich persönlich würde der gleiche Vergleich mit Q und AI On interessieren.

mapel110
2009-05-10, 19:37:59
Gesehen wird es, aber (zurecht) nicht als schlimm oder "Augenkrebs" erzeugend empfunden. Das ist ein Unterschied.
Mich persönlich würde der gleiche Vergleich mit Q und AI On interessieren.
Dann hätte auch keiner beim NV40 und G70 meckern dürfen. Auch dort sah diese tolle Optimierung nicht anders aus!

y33H@
2009-05-10, 19:38:50
Das eigentlich schlimme ist auch nicht die Optik, sondern die Einsparung mit der diese erreicht wird. Und die zieht einen Rattenschwanz hinter sich her, auf dem möglicherweise das ganze R600-Design bis heute basiert: Bei den TMUs sparen, dies durch den Treiber mehr oder weniger auf Kosten der BQ ausgleichen, günstiger fertigen usw.

Schlammsau
2009-05-10, 19:40:27
Dann hätte auch keiner beim NV40 und G70 meckern dürfen. Auch dort sah diese tolle Optimierung nicht anders aus!

Ich hatte eine 7600GT zu der Zeit. Kannst du auch belegen, dass die Filterqualität der 7xxx gleich der HD Serie ist?

Mr.Magic
2009-05-10, 19:42:54
Würd ich so nicht pauschal sagen. Bei Witcher flimmert der Boden im nVidia Video subjektiv mehr, das Haus dafür weniger als beim Ati Video. Aber mal ehrlich, jemand der sowas als "Augenkrebs erzeugend"
bezeichnet leidet eindeutig unter Realitätsverlust.

Würde das jeder so empfinden, würden alle auf Konsole zocken - am 20" Fernseher mit eingebauten Stereolautsprechern.

Um das mal in einen anderen Bereich zu übertragen:
Nur weil du (und ich) kein Surroundsystem für 100.000€ brauchst, sind Leute, die sowas kaufen nicht Realitätsfremd. Die wollen halt einfach den "perfekten" Klang.
Als nächstes verbieten wir dann Ferraris... :rolleyes:

Gast
2009-05-10, 19:44:03
Würd ich so nicht pauschal sagen. Bei Witcher flimmert der Boden im nVidia Video subjektiv mehr, das Haus dafür weniger als beim Ati Video. Aber mal ehrlich, jemand der sowas als "Augenkrebs erzeugend"
bezeichnet leidet eindeutig unter Realitätsverlust.

LOL da flimmert garnix bei Nvidia, bei Ati flimmerts und das sogar deutlich. Schau nur mal auf das Haus ansonsten empfehle ich dir mal deine Augen untersuchen zu lassen.

Gast
2009-05-10, 19:50:48
Bei den TMUs sparen, dies durch den Treiber mehr oder weniger auf Kosten der BQ ausgleichen, günstiger fertigen usw.

ATI/AMD kann gar nicht anders. Denen geht's nach wie vor dreckig, sind finanziell stark unter Druck. Man kann sich nun über solche Dinge aufregen, aus dem Tatbestand ein schweres Delikt zusammenschustern und dem Hersteller den Untergang wünschen. Diese Gefahr ist übrigens nach wie vor latent vorhanden.

Wenn Ihr meint, die Bildqualität aktuell nicht vergleichen zu können, dann lasst es doch einfach sein. Oder macht eine PCGH NV ("The One And Only") und eine PCGH ATI ("The Flicker Tales").

Schlammsau
2009-05-10, 19:51:30
LOL da flimmert garnix bei Nvidia, bei Ati flimmerts und das sogar deutlich. Schau nur mal auf das Haus ansonsten empfehle ich dir mal deine Augen untersuchen zu lassen.

Er hat doch doch geschrieben das das Haus bei ATi mehr aber dafür der Boden weniger flimmert. Oder nicht? :|

Gast
2009-05-10, 19:52:16
Er hat doch doch geschrieben das das Haus bei ATi mehr aber dafür der Boden weniger flimmert. Oder nicht? :|

Am Boden doch auch und sogar doppelt man sieht 2 Moirelinien die deutlich grieseln.

y33H@
2009-05-10, 19:55:32
und dem Hersteller den Untergang wünschenDas wäre schei0e für alle und ich denke, das will keiner. Außer so einigen hirnverbrannten Idioten vielleicht ... aber die merken dann, dass AMD auch nur Kohle machen will.

Gast
2009-05-10, 20:17:30
Am Boden doch auch und sogar doppelt man sieht 2 Moirelinien die deutlich grieseln.
Griselts auch mit 1xAF?

DrFreaK666
2009-05-10, 20:32:06
Wäre Spielern perfekte BQ wichtig dann wären die Next-Gen-Konsolen (ich meine hiermit die PS3 und Xbox360) nicht so erfolgreich geworden

y33H@
2009-05-10, 20:36:20
Viele halten die Next-Gen-Grafik für ub0r ... der Erfolg kommt imo durch das vergleichsweie einfache Handling einer Konsole und das Pseudo-Argument des Preises [wie viele PS3/360-User haben einen 1.080p-Bildschirm?].

Gast
2009-05-10, 20:36:40
Wäre Spielern perfekte BQ wichtig dann wären die Next-Gen-Konsolen (ich meine hiermit die PS3 und Xbox360) nicht so erfolgreich geworden
Nicht ganz.
Auch Effekt Shadereffekt4711 gehört zur BQ.

DrFreaK666
2009-05-10, 20:50:30
Nicht ganz.
Auch Effekt Shadereffekt4711 gehört zur BQ.

Wir reden hier über AA und AF.
AA bieten wenig Next-Gen-Games, AF flimmert leicht (zumindest bei meiner 360)

Mr. Lolman
2009-05-10, 21:06:38
Dann hätte auch keiner beim NV40 und G70 meckern dürfen. Auch dort sah diese tolle Optimierung nicht anders aus!

Ein bisschen schon.

Q3a vlnr: NV40@default, NV40@Q, NV40@HQ, RV770@default.

http://www.abload.de/thumb/default77767vqy.gif (http://www.abload.de/image.php?img=default77767vqy.gif) http://www.abload.de/thumb/q77764r3i.gif (http://www.abload.de/image.php?img=q77764r3i.gif) http://www.abload.de/thumb/hq7776xt5q.gif (http://www.abload.de/image.php?img=hq7776xt5q.gif) http://www.abload.de/thumb/rv770default9wu6.gif (http://www.abload.de/image.php?img=rv770default9wu6.gif)

EDIT: G70HQ war damals eine zeitlang schlechter als NV40Q. Da wurde dann eben gemeckert. Und gemeckert wurde auch, weil NV default mit ATi default verglichen wurde.

mapel110
2009-05-10, 21:10:33
Ich hatte eine 7600GT zu der Zeit. Kannst du auch belegen, dass die Filterqualität der 7xxx gleich der HD Serie ist?
Ich hatte ne 6800 GT und habe noch eine 7800 GT. Mr Lolman kann sicher nochmal die GIFs auspacken, auf denen nichts anderes zu sehen ist, als das was ATI heute abzieht. Wer das Grieseln in HL2 oder The Witcher verniedlicht, verniedlicht auch das Grieseln des G70 auf Q.

Mr. Lolman
2009-05-10, 21:17:14
Ich hatte ne 6800 GT und habe noch eine 7800 GT. Mr Lolman kann sicher nochmal die GIFs auspacken, auf denen nichts anderes zu sehen ist, als das was ATI heute abzieht. Wer das Grieseln in HL2 oder The Witcher verniedlicht, verniedlicht auch das Grieseln des G70 auf Q.


Schon geschehen. Und man sieht auch, dass da Welten zwischen dem damaligen Default und dem Heutigen liegen (Stichwort TS-Optimierung). Leider hab ich meine originalen Q3a Settings nicht mehr, deswegen ist das ATi-gif minimal kontrastreicher. Bei genau gleichen Settings würde das ATi-gif vermutlich noch etwas weniger grieselig wirken.

puntarenas
2009-05-10, 21:23:04
Ist ein wenig unübersichtlich geworden, beim Lesen des Threads musste ich die Videos erst zusammensuchen. Ich fasse die Links zu den Vergleichsvideos mal zusammen.


Bei The Witcher sieht man den Unterschied besonders an der Holzverkleidung des Hauses links:


http://www.file-upload.net/download-1631690/witcher-2009-05-10-15-09-11-28b.avi.html

The Witcher, Nvidia GTX 260 1680x1040, 4x AA + TMSAA, 16xAF


http://www.file-upload.net/download-1631180/witcher-2009-05-10-10-26-09-64.avi.MP4.html

The Witcher, ATI Radeon HD 4850, 4xAA, 16xAF

Abschließend auch noch der Link zu Sonyfreaks HL2-Vergleichsvideos (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6187566&postcount=414) aus einem anderen Thread, hier sieht man den Unterschied zwischen G80 @ HQ (alle Optimierungen aus, 8xTSSAA, 16xAF) und RV630 @ AI Standard (4xAA + QTSSAA, 16xAF) sehr deutlich vorn am Boden:


KLICK MICH (http://www.megaupload.com/?d=J5QWVLYU)

Gast
2009-05-10, 21:31:00
Interessant - aus welchen grund sollte man sich dann eigentlich noch eine AMD Karte kaufen, wenn weder 8xMSAA gegenüber 4xMSAA bzw. 16xCSAA einen Vorteil bietet noch man im Grunde die paar % Mehrleistung nicht benötigen würde?
.


Aus dem gleichem grund warum du keinen porsche fährst!

Oder warum ein auto kaufen welches schlechter als ein porsche aussieht, langsamer ist, schlechter beschleunigt, weniger prestige bittet, kleinere räder hat, schlechter auf der strasse liegt... usw.

Um dich nicht dumm sterben zu lassen: weil ich die FREIE wahl habe!
Weil ich preisbewust einkaufe, weil ich mit manchen unternehmen symathisiere, weil ich beim spielen keinen unterschied sehe, weil ......das konnte man ewig fortsestzen!

Die kritik wäre NUR DANN angebracht wenn DU KEINE FREIE WAHL bei den kauf eine grafikkarte hättest.
Die hast du aber! Kauf also Nvidia und ergotze dein gemüt an (manchen, wenigen)gestochen scharfen texturen, in der zeit werden wir, die "spieler", zocken und das game auf uns wirken lassen.



ps. war grade im wald und habe die wunderschönnen blumen bewundert, ein jugendlicher den ich aus eine entfernung beobachten konnte , hat sich auch für die natur interessiert, er riss die pflanzen raus und fluchte:
"welch ein idiot muss die etworfen haben, die halten nix aus".


gruss

mapel110
2009-05-10, 21:42:53
Unter Opengl war doch sowieso immer eine Optimierung aktiv, die sich gar nicht abschalten ließ. Ich weiß nur nicht mehr, welche von den dreien das war.

aths
2009-05-10, 21:46:07
Warum wird ständig das Wort "Optimierung" genutzt obwohl es keine Optimierung ist, sondern eine im Vergleich zum Geschwindigkeitsgewinn übermäßiger Qualitätsverlust?

san.salvador
2009-05-10, 21:50:29
Weil sich "Verschlechterung" schwer vermakten lässt... :rolleyes:

reunion
2009-05-10, 22:09:36
Warum wird ständig das Wort "Optimierung" genutzt obwohl es keine Optimierung ist, sondern eine im Vergleich zum Geschwindigkeitsgewinn übermäßiger Qualitätsverlust?

Mach doch mal dein NV-CP auf.

Gast
2009-05-10, 22:17:58
es ist de fakto ein scheiß tradeoff!
wenn man mehr leistung will, stellt man den af grad niedriger

y33H@
2009-05-10, 22:26:20
Mach doch mal dein NV-CP auf.Die spielen immerhin mit (fast) offenen Karten ;) AMD versteckt alles hinter AI.

_DrillSarge]I[
2009-05-10, 22:31:38
Warum wird ständig das Wort "Optimierung" genutzt obwohl es keine Optimierung ist, sondern eine im Vergleich zum Geschwindigkeitsgewinn übermäßiger Qualitätsverlust?
mmmm...hier gabs doch mal nen artikel "wieviel optimierung ist optimal" oder so (sogar von dir?). daher frage=;D;D;D

nenn es doch einfach geschwindigkeitsoptimierung.

Gast
2009-05-10, 22:35:03
ATI/AMD kann gar nicht anders. Denen geht's nach wie vor dreckig, sind finanziell stark unter Druck.
Stimmt, HD3 und HD4 waren kein bisschen erfolgreich.
Na dann hat AMD einen Freifahrtschein für die nächsten 2 Generationen.

Ops, Nvidia hat auch Probleme, dürfen die jetzt auch wieder cheaten?

Wir reden hier über AA und AF.
AA bieten wenig Next-Gen-Games, AF flimmert leicht (zumindest bei meiner 360)Beides zählt zu BQ.
Next-Gen-Konsolenkunden sind demnach an BQ interessiert, bekommen jedoch nur einseitige BQ präsentiert.

Gast
2009-05-10, 22:35:37
I[;7290781']mmmm...hier gabs doch mal nen artikel "wieviel optimierung ist optimal" oder so (sogar von dir?). daher frage=;D;D;D

nenn es doch einfach geschwindigkeitsoptimierung.
Beim AF ist null Optimierung am idealsten. Alles andere ist murks, es bringt nichts.

Gast
2009-05-10, 22:50:20
Dank der Videos habe ich das erste Mal überhaupt gesehen, worum es sich bei dieser ganzen Diskussion dreht. Hab zwar ca. 5 Anläufe gebraucht, aber mittlerweile sehe ich den Unterschied.

Nun habe ich eine Frage:
Ich spiele normalerweise nur mit schwachem AA/AF, also meist 4x/4x. Ist da immer noch so ein Flackern erkennbar?

Wäre genial wenn da auch mal jemand vergleichen könnte.

Gast
2009-05-10, 23:00:16
Unter Opengl war doch sowieso immer eine Optimierung aktiv, die sich gar nicht abschalten ließ. Ich weiß nur nicht mehr, welche von den dreien das war.
Trilinear optimization. RivaTuner schafft Abhilfe.

Gast
2009-05-10, 23:19:36
Ein bisschen schon.

Q3a vlnr: NV40@default, NV40@Q, NV40@HQ, RV770@default.

http://www.abload.de/thumb/default77767vqy.gif (http://www.abload.de/image.php?img=default77767vqy.gif) http://www.abload.de/thumb/q77764r3i.gif (http://www.abload.de/image.php?img=q77764r3i.gif) http://www.abload.de/thumb/hq7776xt5q.gif (http://www.abload.de/image.php?img=hq7776xt5q.gif) http://www.abload.de/thumb/rv770default9wu6.gif (http://www.abload.de/image.php?img=rv770default9wu6.gif)
Hübsche gifs. :)

Jedenfalls sieht NV40 HQ definitiv hübscher als RV770 default aus.
Ersteres hat lediglich Performance gekostet, letzteres ist AMDs bester Modus, weil AI-off von vielen nicht aktzepiert wird.

Gast
2009-05-10, 23:21:55
Dank der Videos habe ich das erste Mal überhaupt gesehen, worum es sich bei dieser ganzen Diskussion dreht. Hab zwar ca. 5 Anläufe gebraucht, aber mittlerweile sehe ich den Unterschied.

Nun habe ich eine Frage:
Ich spiele normalerweise nur mit schwachem AA/AF, also meist 4x/4x. Ist da immer noch so ein Flackern erkennbar?

Wäre genial wenn da auch mal jemand vergleichen könnte.

Ich werde morgen noch welche machen.

DrFreaK666
2009-05-10, 23:32:05
...Beides zählt zu BQ.
Next-Gen-Konsolenkunden sind demnach an BQ interessiert, bekommen jedoch nur einseitige BQ präsentiert.

Ja von mir aus.
Was ich aber sagen wollte war: Wenn Gamer AA und AF für wichtig halten würden dann wären die Next-Gen-Konsolen nicht erfolgreich geworden.

Gast
2009-05-10, 23:39:27
Ich werde morgen noch welche machen.

Ich konnte es nicht sein lassen: Das Video mit AI=OFF für die Nachtschwärmer (ansonsten identische Settings).
Good N8.

http://www.file-upload.net/download-1632655/witcher-2009-05-10-23-25-03-82.avi.MP4.html

Gast
2009-05-10, 23:55:52
Ich konnte es nicht sein lassen: Das Video mit AI=OFF für die Nachtschwärmer (ansonsten identische Settings).
Good N8.

http://www.file-upload.net/download-1632655/witcher-2009-05-10-23-25-03-82.avi.MP4.html

Besser als AI on, aber kommt immer noch nicht an flimmert doch noch so einiges. Man sollte wirklich nur noch mit AI off benchen

Mr. Lolman
2009-05-11, 08:21:14
Nun habe ich eine Frage:
Ich spiele normalerweise nur mit schwachem AA/AF, also meist 4x/4x. Ist da immer noch so ein Flackern erkennbar?

Ja, erkennst du eins oder nicht?

Besser als AI on, aber kommt immer noch nicht an flimmert doch noch so einiges. Man sollte wirklich nur noch mit AI off benchen
Naja. Wir haben immernoch kein einziges Vergleichsvideo von NV-default (Q+trilinear) gesehen. Dass AIlow schlechter als HQ ist bestreitet auch niemand. Dass NV40 HQ auch über jeden Zweifel erhaben war (Winkelabhängigkeit und negativesLOD-Problem, mal ausgenommen), ist auch nix neues.

Die Videos zeigen aber auch sehr gut, dass das heutige ATi default eben nicht mit dem damaligen NV default vergleichbar ist.

(Die 'Optimierung' die mapel angesprochen hat, nennt sich 'Texturstageoptimierung' und filtert alle TS>0 bilinear. OpenGL kennt keine TS in dem Sinne, deswegen wurde da unter default generell bilinear gefiltert. Wenn man die Settings im CP in der falschen Reihenfolge umstellte, konnte es auch passieren, dass man mit HQ nur bilinear bekam. Ursprünglich kam die TS-Optimierung von ATi. Jedoch hatten die in OpenGL defaultmäßig einfach über alle 'TS' trilinear gefiltert, anstatt bilinear wie bei NV - und deswegen kams dann zu solchen Unterschieden -> die natürlich keiner gesehen haben will, bis ich eben diese gifs - vor mittlerweile knapp 4 Jahren - gebastelt hab.)

PulsarS
2009-05-11, 10:32:31
Besser als AI on, aber kommt immer noch nicht an flimmert doch noch so einiges. Man sollte wirklich nur noch mit AI off benchen
Na dann viel Spass beim Benchen eines Crossfire-Gespanns...:rolleyes:

Da die Default-Einstellung für die meisten von der Optik eh ausreichend ist, benchen auch alle damit, weil es einfach Sinn macht.
Außerdem sind es eher Ausnahmen und nicht die Mehrheit der Spiele, wo AI-low flimmert.
Warum sollte man für ein paar Ausnahmen benchen?
Die Logik erschließt sich mir nicht wirklich. :|

Was das Benchen angeht, kann man es ruhig so lassen wie es ist.
Default gegen Default, alles andere wäre realitätsfremd.

Man sollte aber schon im Text darauf hinweisen, das das AF vom AMD eher zum Flimmern neigt als das von NV, keine Frage.
Wird die meisten aber eh nicht interessieren, wobei ich mich mit meiner NV nicht dazu zähle. :tongue:

LovesuckZ
2009-05-11, 10:39:12
Na dann viel Spass beim Benchen eines Crossfire-Gespanns...:rolleyes:

Da die Default-Einstellung für die meisten von der Optik eh ausreichend ist, benchen auch alle damit, weil es einfach Sinn macht.


Default-Einstellungen ist App. beim AA und AF. Also sollen wir in Zukunft nur noch ohne AA und ohne AF vergleichen? :rolleyes:

Savay
2009-05-11, 10:55:23
das AF und AA mittlerweile größtenteils auch ingame einstellbar und zu bevorzugen ist ist bei dir aber schon angekommen?

PulsarS
2009-05-11, 10:56:39
Default-Einstellungen ist App. beim AA und AF. Also sollen wir in Zukunft nur noch ohne AA und ohne AF vergleichen? :rolleyes:
Sehr geistreicher Beitrag... :rolleyes:

Mit einer durchschnittlichen Intelligenz müßte man es eigentlich schaffen, den Zusammenhang zu verstehen, dass ich bei den Defaulteinstellungen die Eintellungen des AF meine.
Dies geht eindeutig aus dem Kontext hervor.

Falls du es nicht nachvollziehen kannst, dann kann ich da leider auch nichts für. :|
Falls du nur provozieren wolltest... ist dir sicherlich nicht gelungen.
Zumindest bei mir nicht :tongue:

Gast
2009-05-11, 11:04:35
das AF und AA mittlerweile größtenteils auch ingame einstellbar und zu bevorzugen ist ist bei dir aber schon angekommen?
Die Erfahrung kann ich nicht teilen, In-Game AF überrascht oft mit sehr unschönen Ergebnissen und ruft leider nicht zuverlässig höchste Qualität ab. Bis auf seltene Einzelfälle wo es zu Fehlern kommt, ist man mit "Nvidia HQ" im Treiber forciert am Besten bedient.

LovesuckZ
2009-05-11, 11:06:54
das AF und AA mittlerweile größtenteils auch ingame einstellbar und zu bevorzugen ist ist bei dir aber schon angekommen?

Wer nicht in der Lage ist, HQ im treiber einzustellen, der ist auch nicht in der Lage ingame Einstellungen zu ändern.

Sehr geistreicher Beitrag... :rolleyes:

Mit einer durchschnittlichen Intelligenz müßte man es eigentlich schaffen, den Zusammenhang zu verstehen, dass ich bei den Defaulteinstellungen die Eintellungen des AF meine.
Dies geht eindeutig aus dem Kontext hervor.

Falls du es nicht nachvollziehen kannst, dann kann ich da leider auch nichts für. :|
Falls du nur provozieren wolltest... ist dir sicherlich nicht gelungen.
Zumindest bei mir nicht :tongue:

Was willst du? Default ist das, was voreingestellt ist. Genauso auch in Spielen. Alles andere ist nicht mehr "default". Wenn du das nicht checkst, geh wieder in deine Computerbase.de und Konsorten Foren.

Gast
2009-05-11, 11:07:34
Bis auf seltene Einzelfälle wo es zu Fehlern kommt, ist man mit "Nvidia HQ" im Treiber forciert am Besten bedient.
Sollte natürlich "16xHQAF im Treiber forciert" heißen.

IVN
2009-05-11, 11:11:42
Wenn man High-End GraKas bencht, wieso sollte man kaputt-optimierte Einstellungen verwenden? 1680 x 1050 bzw. 1900x 1200 + 4AA + 16AF, dann aber ausgerechnet an der FilterQuali sparen? DAS ist einfach Unsinn. AI-Off vs. HQ (obwohl es ggü. NV nicht fair ist, da sie immer noch bessere Quali bieten). Und so lange machen, bis ATI zu Vernunft kommt, und die Filtertcheats von den echten Optimierungen entkoppelt.

Andre
2009-05-11, 12:05:06
Unabhängig von der ganzen Filterqualität empfinde ich es als ziemlich dreist, dass AMD nicht alle Optionen/"Optimierungen" wählbar lässt. Und ich frage mich ernsthaft, wie man dafür einen plausiblen Grund finden kann. Es muss jedem User freistehen, auch mit 5 FPS mit dem Maximum an Qualität spielen zu können. Und diese Wahlfreiheit fehlt eben. Und da habe ich auch noch kein Argument gehört, warum das richtig sein sollte.

Gast
2009-05-11, 12:23:27
Es muss jedem User freistehen, auch mit 5 FPS mit dem Maximum an Qualität spielen zu können. Und diese Wahlfreiheit fehlt eben.

Naja, bei 5 Fps. isses natürlich sinnfrei auf Qualität zu setzen. Vor der maximalen Darstellungsqualität steht natürlich die Spielbarkeit auf akzeptablen Niveau.

Außerdem wird die BQ hier von vielen vielen Usern sehr stark überschätzt. Selbst heute gibs noch ein haufen Leute die Starcraft, Warcraft, Diablo spielen, nicht wegen der BQ, sondern weil das Spiel einfach gut ist.

Savay
2009-05-11, 12:25:06
tja pikant ist nur das ein optischer unterschied zwischen AI off und AI low in 99,99% der fälle nicht auszumachen ist...das fehlen der fixes aber sofort an der performance und bildfehlern feststellbar ist.

ICH sehe rein von der filterqualität nichtmal in WoW einen unterschied zwischen AI off und low. :rolleyes: das flimmert immer latent wobei es zu einem absolutem großteil nichtmal aufs konto des AF geht sondern content spezifisch ist (die flimmernden schatten und alphatests sind deutlich auffälliger) nebenbei wird das geflimmere nichtmal auf den ach so guten nVidias wirklich deutlich besser ;)

IVN
2009-05-11, 12:31:09
tja pikant ist nur das ein optischer unterschied zwischen AI off und AI low in 99,99% der fälle nicht auszumachen ist...das fehlen der fixes aber sofort an der performance und bildfehlern feststellbar ist.

ICH sehe rein von der filterqualität nichtmal in WoW einen unterschied zwischen AI off und low. :rolleyes:
Das ist nicht von Bedeutung. Punkt. Es gibt keinen plausiblen Grund wieso ATI die max Quali an die echten/nützlichen Optimierungen koppelt. Das ist etwas was man auch als ATIaner anprangern sollte.

Raff
2009-05-11, 12:33:55
ICH sehe rein von der filterqualität nichtmal in WoW einen unterschied zwischen AI off und low. :rolleyes:

Das liegt daran, dass es bei diesem Spiel Wurstsalat ist, welche A.I.-Stufe an ist – Filterpfusch gibt's immer.

das flimmert immer latent wobei es zu einem absolutem großteil nichtmal aufs konto des AF geht sondern content spezifisch ist (die flimmernden schatten und alphatests sind deutlich auffälliger) nebenbei wird das geflimmere nichtmal auf den ach so guten nVidias wirklich deutlich besser ;)

Es sind Welten. Es besteht ein deutlicher Unterschied darin, ob Texturen "homogen" flimmern, weil sie hochfrequente Inhalte aufweisen, oder ob sich zu diesem Flimmern das typische Flimmerbanding eines Hartz-IV-Filters hinzugesellt.

MfG,
Raff

Gast
2009-05-11, 12:50:10
Und so lange machen, bis ATI zu Vernunft kommt, und die Filtertcheats von den echten Optimierungen entkoppelt.

Der Sinn dahinter erschließt sich mir nicht. Die Radeons verfolgen eine andere Strategie als die Geforces. Die Texelfüllrate ist geringer als bei den Geforces, dafür ist die Shaderleistung höher.
Man könnte AI OFF gegen NV Q testen; die ATIs fielen dann erheblich zurück. Bloß weiß das jeder Technikfreak und alle anderen interessiert die Angelegenheit ohnehin nicht.

Oder was hättest Du als NV-User davon, wenn ATI das machen würde? Etwa eine Alternative? Eben.

Mr. Lolman
2009-05-11, 12:50:25
Das liegt daran, dass es bei diesem Spiel Wurstsalat ist, welche A.I.-Stufe an ist – Filterpfusch gibt's immer.



Es sind Welten. Es besteht ein deutlicher Unterschied darin, ob Texturen "homogen" flimmern, weil sie hochfrequente Inhalte aufweisen, oder ob sich zu diesem Flimmern das typische Flimmerbanding eines Hartz-IV-Filters hinzugesellt.

MfG,
Raff

Ja, stimmt. Es ist inhomogen. Aber fällt dir was an meinen Q3a gifs auf? Trotz höheren Kontrasten (woher auch immer die kommen mögen) ist AIlow eindeutig besser als NV40Q. G70HQ war damals (bis zum gefixten Treiber) eindeutig schlechter als NV40Q. Gebencht wurde damals üblicherweise Default gegen Default....

AIlow ist bei weitem nicht optimal, da sind wir uns alle einig - aber insgsamt ists - vgl. mit den damaligen Untaten - doch eher Jammern auf hohem Niveau, stimmts?

Gast
2009-05-11, 12:58:42
[...]
AIlow eindeutig besser als NV40Q. G70HQ war damals eindeutig schlechter als NV40Q. Gebencht wurde damals üblicherweise Default gegen Default....

AIlow ist bei weitem nicht optimal, da sind wir uns alle einig - aber insgsamt ists - vlg mit den damaligen Untaten - doch eher Jammern auf hohem Niveau, stimmts?

Diese Ausflüge in die Gründerzeiten bringen einem bei einer heutigen Kaufentscheidung überhaupt nichts. ATI stagniert bestenfalls auf dem Filterniveau von Ende 2005 (r520), während Nvidia die Latte ein Jahr später deutlich nach oben gelegt hat.

Gast
2009-05-11, 13:11:04
Wollte nicht Coda oder so einen Artikel darüber schreiben?
Ich brauch nen Link für Geizhals und Co.

reunion
2009-05-11, 13:13:50
Ich brauch nen Link für Geizhals und Co.

Und das bringt dir was?

Gast
2009-05-11, 13:18:19
Und das bringt dir was?

Das könnte AMD/ATI dazu bewegen das endlich zu ändern.

Gast
2009-05-11, 13:20:57
Das könnte AMD/ATI dazu bewegen das endlich zu ändern.

Lies den Thread (besonders diese Seite) nochmals und überlege.

Gast
2009-05-11, 13:24:52
Lies den Thread (besonders diese Seite) nochmals und überlege.

Da gibt es für mich nichts mehr zu überlegen entweder sie ändern das oder sie haben einen Käufer weniger. Da können sie mir noch so sympatisch sein.

IVN
2009-05-11, 13:26:07
Der Sinn dahinter erschließt sich mir nicht.
Du verstehst also nicht wieso die Fixes und echte Optimierungen nicht an die Quali des AF gekoppelt gehören?

Bsp: Sagen wir mal du gehst zu Mercedes, willst dir ein neues Auto kaufen (Abwrackprämie und so). Dort sagt man dir das die geilen Metalliclack-Modelle nur 50PS haben, und wenn man mehr als das haben möchte, muss man die Non-Metallic nehmen bzw. wenn man >150PS haben will, gibt es nur die mit der gelblich-grünen Farbe, die nach Kotze aussieht. Nun, gäbe es irgendeinen Grund, wieso man dieses hypothetische Verhalten, Seitens Mercedes, verteidigen sollte?


Oder was hättest Du als NV-User davon, wenn ATI das machen würde? Etwa eine Alternative? Eben.

Im NB habe ich eine 6600, im Office-Rechner eine Radeon 9600pro. So weit zu NV-User.

Gast
2009-05-11, 13:38:22
Du verstehst also nicht wieso die Fixes und echte Optimierungen nicht an die Quali des AF gekoppelt gehören?

Bsp: Sagen wir mal du gehst zu Mercedes, willst dir ein neues Auto kaufen (Abwrackprämie und so). Dort sagt man dir das die geilen Metalliclack-Modelle nur 50PS haben, und wenn man mehr als das haben möchte, muss man die Non-Metallic nehmen bzw. wenn man >150PS haben will, gibt es nur die mit der gelblich-grünen Farbe, die nach Kotze aussieht. Nun, gäbe es irgendeinen Grund, wieso man dieses hypothetische Verhalten, Seitens Mercedes, verteidigen sollte?



Mein Gott, er hat ja geschrieben, warum deine Theorie fürn Arsch ist. Dein Superbeispiel braucht er nicht.

Gast
2009-05-11, 13:40:23
Da gibt es für mich nichts mehr zu überlegen entweder sie ändern das oder sie haben einen Käufer weniger. Da können sie mir noch so sympatisch sein.

Doch. Sie können gar nicht anders. Ach, was mach ich mir überhaupt die Mühe...Steht alles schon da.

IVN
2009-05-11, 13:45:16
Doch. Sie können gar nicht anders. Ach, was mach ich mir überhaupt die Mühe...Steht alles schon da.
Ohhh, wie traurig. Ich überweis ganz schnell €50 als Spende. :rolleyes:


Ohne Sarkasmus: ATI kann es sehr wohl, will aber nicht.

Savay
2009-05-11, 13:53:55
Es sind Welten.

höchstens welten im mikrokosmos format...ich finde um mal WoW als typisches flimmerspiel weiter zu strapazieren das flimmern des AF nur dann auffällig wenn ich wirklich drauf achte.

ja bestimmte texturen sind sehr anfällig für flimmern insbesondere auf den radeons und die ganze geschichte ist sicher verbesserungswürdig...ABER solange selbst high end spiele derart beschissenen content verwenden das dieser nur mit dem holzhammer ala SSAA glatt zu bügeln ist können wir uns die filterdiskussion sparen! zumindest auf dem niveau auf dem es geführt wird...

die schattenkanten in wow werden weder per MSAA noch per AF erfasst und flimmern 10mal auffälliger als die meisten texturen da die kontraste einfach deutlich auffälliger sind als in einer doch sehr homogenen textur...dazu kommt der unselige alphatest spam der nichtmal vor krachern wie crysis halt macht...

haha ich lach mich tot...wenn dann noch shaderflimmern ala UT3 und Fallout3 dazukommt hörts ja wohl gänzlich auf... :rolleyes:
warum beschwert sich eigentlich keiner das die spielehersteller so offensichtlich dämlichen content verwenden? warum alphatest statt alphablending texturen? wieso unnötig hochfrequente texturen unnötig klein gekachelt auf 100km sichtweite? usw...warum funktioniert in aktuellen spielen oft kein FSAA

sry die diskussion über sparfilter und deren optionale abschaltbarkeit ist wichtig aber gegenüber dem bockmist den so mancher spieleentwickler da verzapft nimmt sich das doch eher unwichtig aus wenn ich so meine spielerealität betrachte...

Deinorius
2009-05-11, 14:00:24
Das ist ein gutes Argument. Was bringt mir gute Grafik, wenn das Spiel beschissen ist?

Zumal, würde AMD nicht diesen Billigweg gehen, wären nicht nur die AMD Grafikkarten so billig, sondern auch die nvidia Karten wären deutlich teurer als sie heute sind. Ich weiß, welche Priorität ich habe. Eine GTS 250 kostet ja nicht viel, wenn ATI nicht akzeptabel ist.

Rumsuderei auf höchstem Niveau, mehr nicht.

Nakai
2009-05-11, 14:01:38
Ohne Sarkasmus: ATI kann es sehr wohl, will aber nicht.

Wirklich? Oder konnte es sehr wohl.


mfg Nakai

h'lore
2009-05-11, 15:37:09
A - Tiii? Die sind ja instabil und stürzen dauernd ab, oder? ;)Ganz ehrlich und kein Trollversuch: Es ist noch gar nicht so lange her, da war das tatsächlich so. Zumindest für Leute, deren OS nicht Win32 war.
es ist de fakto ein scheiß tradeoff!
wenn man mehr leistung will, stellt man den af grad niedrigerExakt. Es könnte so einfach sein...

Schlammsau
2009-05-11, 15:56:32
Ganz ehrlich und kein Trollversuch: Es ist noch gar nicht so lange her, da war das tatsächlich so. Zumindest für Leute, deren OS nicht Win32 war.
Exakt. Es könnte so einfach sein...

Bitte? :|
Ich glaube du verwechselst da was.

http://extreme.pcgameshardware.de/pcghx-news/13679-geforce-treiber-schuld-vista-abstuerzen.html
Die jetzt bekannt gewordenen Daten von Microsoft bestätigen, dass die Probleme Nvidias groß gewesen sind. Nvidia-Treiber waren die Ursache für knapp 29% aller aufgezeichneten Abstürze von Vista. Microsofts eigene Treiber folgen darauf mit immerhin 17,9% und den dritten Platz belegen die sogenannten "unbekannten" Absturzursachen. ATI belegt mit 9,3% den vierten Platz und Intel mit 8,83% den fünften Platz.

oder:
http://www.os-informer.de/aid,637714/NVIDIA-Treiber-angeblich-fuer-knapp-30-Prozent-aller-Windows-Vista-Abstuerze-verantwortlich/News/

http://www.windowsvistamagazin.de/screenshots/418x627/2008/03/vista-crash.jpg

Als Vista neu war, war so wie es ausieht nVidia´s Treiber noch nicht wirklich ausgereift.

Jake Dunn
2009-05-11, 16:04:28
B

Als Vista neu war, war so wie es ausieht nVidia´s Treiber noch nicht wirklich ausgereift.

Ist doch bei Win7 genauso jetzt, man brauch nur in die Treiberthreads zu den ersten WHQLs schaun.

mapel110
2009-05-11, 16:13:03
Als Vista neu war, war so wie es ausieht nVidia´s Treiber noch nicht wirklich ausgereift.
Naja, es gibt mehr nvidia-User und von nvidia gibts auch deutlich mehr Treiber als von ATI, die nur einmal im Monat einen WHQL rauslassen, den sie logischerweise etwas gründlicher testen bevor sie ihn auf die Menschheit loslassen. Ergo traue keiner Statistik, die du ....

IC3M@N FX
2009-05-11, 16:23:12
Leute ihr müßt auch mal überlegen das ATI 2 verkorkste Serien rausgebraucht hat. HD 2XXX und HD 3XXX mehr oder weniger obwohl die noch halbwegs konkurrenzfähig war. Erst mit der HD 4XXX hat man die fehler der HD 2XXX bereinigt. Das die keinen fetten Monster Chip rausbringen werden war schon vorher klar dazu fehlen die Ressourcen. Die haben einfach das gemacht was am besten für die Firma ist. Die haben einen schlanken Chip rausgebracht der konkurrenzfähig und günstig ist auf kosten der Bildqualität. Hätten die vorher oder jetzt einen Schalter für HQ eingebaut würden von den 100% der Käufern die eine ATI gekauft haben 20-30% keine ATI gekauft. Es ist keine entscheidung des machbaren einen HQ Schalter einzubauen sondern eine strategische entscheidung das nicht zu tun. Ob man das zuletzt als Kundenverarsche zuletzt sieht ist eine andere Geschichte.

LovesuckZ
2009-05-11, 16:26:17
Naja, es gibt mehr nvidia-User und von nvidia gibts auch deutlich mehr Treiber als von ATI, die nur einmal im Monat einen WHQL rauslassen, den sie logischerweise etwas gründlicher testen bevor sie ihn auf die Menschheit loslassen. Ergo traue keiner Statistik, die du ....

Vorallen sollte man bei Vista auch beachten, dass zum damaligen Release es auch nur D3D10 fähige Karten von nVidia gab und somit schon der Prozentsatz von Usern mit nVidia Karten wesentlich höher lag.

Gast
2009-05-11, 16:30:01
Leute ihr müßt auch mal überlegen das ATI 2 verkorkste Serien rausgebraucht hat. HD 2XXX und HD 3XXX mehr oder weniger obwohl die noch halbwegs konkurrenzfähig war. Erst mit der HD 4XXX hat man die fehler der HD 2XXX bereinigt. Das die keinen fetten Monster Chip rausbringen werden war schon vorher klar dazu fehlen die Ressourcen. Die haben einfach das gemacht was am besten für die Firma ist. Die haben einen schlanken Chip rausgebracht der konkurrenzfähig und günstig ist auf kosten der Bildqualität. Hätten die vorher oder jetzt einen Schalter für HQ eingebaut würden von den 100% der Käufern die eine ATI gekauft haben 20-30% keine ATI gekauft. Es ist keine entscheidung des machbaren einen HQ Schalter einzubauen sondern eine strategische entscheidung das nicht zu tun. Ob man das zuletzt als Kundenverarsche zuletzt sieht ist eine andere Geschichte.
Nur vergisst du das 98 % der Leute die schlechtere bildquali garnicht sehen.Ok ist das falsche forum dafür.:D

Schlammsau
2009-05-11, 16:30:01
Vorallen sollte man bei Vista auch beachten, dass zum damaligen Release es auch nur D3D10 fähige Karten von nVidia gab und somit schon der Prozentsatz von Usern mit nVidia Karten wesentlich höher lag.

Ende 2007, Anfang 2008 sicherlich noch nicht!

IC3M@N FX
2009-05-11, 16:44:07
Nur vergisst du das 98 % der Leute die schlechtere bildquali garnicht sehen.Ok ist das falsche forum dafür.:D

jo weil 98 Prozent entweder Causal Gamer sind haben wir mehrmals besprochen hier im Thread die nicht mal wissen was AA und AF ist, oder es sind Fanboys. Im Nvidia lager siehts nicht anders aus außer das diese Grafikkarten Generation kaum mängel hat außer Spulenpfeifen usw. wo ich nichts hören kann entweder hab ich eine leise erwischt oder ich bin schwerhörig.

h'lore
2009-05-11, 17:03:02
Bitte? :|
Ich glaube du verwechselst da was.Es wäre schön, wenn du mal damit anfangen würdest, die Texte deiner Diskussionspartner auch wirklich zu lesen, anstatt lediglich einzelne Schlagwörter hinauszufiltern, um daraufhin eine Nvidia-Bash- oder ATI-Lobpreisungs-Aktion zu starten.

Meine Aussage hatte rein gar nichts mit Nvidia zu tun und war auch nicht auf Microsoft-Betriebssysteme bezogen, was mehr als deutlich zu erkennen war. Dennoch postest du hier irgendwelchen Quatsch über Vista-Treiber für Nvidia-Chips. Was bitte soll das?

Black-Scorpion
2009-05-11, 17:13:23
Dann schreib doch gleich das du Linux meinst.
Apple kannst du ja nicht gemeint haben, da waren die ATI Treiber deutlich besser.

Andre
2009-05-11, 17:17:32
Naja, bei 5 Fps. isses natürlich sinnfrei auf Qualität zu setzen. Vor der maximalen Darstellungsqualität steht natürlich die Spielbarkeit auf akzeptablen Niveau.

Das soll doch bitte meine Entscheidung sein und nicht die des IHVs.
Es gibt durchaus Gründe mal das maximale zu versuchen, um zu sehen, ob es sich nicht lohnt eine stärkere Graka zu kaufen.
Und noch schlimmer finde ich eigentlich, dass AMD mir bei alten Spielen, bei denen ich 100 FPS+ habe, keine maximale Möglichkeiten lässt. Das ist dann nur noch bräsig.

h'lore
2009-05-11, 17:35:26
Dann schreib doch gleich das du Linux meinst.
Apple kannst du ja nicht gemeint haben, da waren die ATI Treiber deutlich besser.Treiber für andere Betriebssysteme als Windows, OS X und GNU/Linux bietet ATI selbst ja erst gar nicht an. Aber wenn es doch nur das wäre. Das von Schlammsau praktizierte völlig themenfremde Bashen von Nvidia-Produkten nervt einfach nur. Wenn irgendwo ein Manko bei ATI kritisiert wird, wirft er gleich Google an und sucht nach irgendwelchen Schwachstellen bei NV-Produkten. Was soll das? Es hat einfach überhaupt nichts mit dem Thema zu tun. Eine Schwachstelle eines ATI-Produkts wird doch nicht besser, wenn man auf eine ganz andere Schwäche seitens NV hinweist. Ich versteh's einfach nicht. Ist wohl Fanboy-Logik. Das Posten völlig themenfremder Bashbeiträge über den jeweils anderen IHV halte ich einfach nur für hochgradig schwachsinnig.

Wenn dir jemand in den Hintern treten will, weil du mit seiner Alten in der Kiste warst, sagst du dann auch: "Aber der X hatte doch genauso was mit ihr, dem musst du auf die Nuss geben."? Derartiges Verhalten ist für mich einfach verabscheuungswürdig.

Schlammsau
2009-05-11, 17:39:35
Was willst du?
Bevor du andere anfährst, denke erstmal darüber nach, was dein Post überhaupt in diesem Thread zu suchen hat.

Hier gehts um die Filter!

Gast
2009-05-11, 18:25:00
Ja, stimmt. Es ist inhomogen. Aber fällt dir was an meinen Q3a gifs auf? Trotz höheren Kontrasten (woher auch immer die kommen mögen) ist AIlow eindeutig besser als NV40Q. G70HQ war damals (bis zum gefixten Treiber) eindeutig schlechter als NV40Q. Gebencht wurde damals üblicherweise Default gegen Default....

OpenGL lässt sich nun garnicht zu einem Vergleich heranziehen da greifen ganz andere "Optimierungen" als es unter Direct3D der Fall ist.

Gast
2009-05-11, 19:58:21
Ja, erkennst du eins oder nicht?[/i]

Ich kann derzeit nicht selbst testen, da meine eigentliche Gamer-Karte (eine 8800GT) im A***** ist. Habe zZ nur eine IGP (HD3300) zur Verfügung und mit der bekomme ich nur alte Spiele zum Laufen.

Habe aber mal L4D mit niedrigen Einstellungen und Bildoptimierungen getestet und sehe gar nichts flackern.

_DrillSarge]I[
2009-05-12, 07:15:03
Und noch schlimmer finde ich eigentlich, dass AMD mir bei alten Spielen, bei denen ich 100 FPS+ habe, keine maximale Möglichkeiten lässt. Das ist dann nur noch bräsig.
jupp. wenn ich schon bei alten spielen 500+ fps habe, will ich auch einen schalter "enable super-duper-hq-AF" und beim aa will ich neben den jetzigen filtern dazu noch "super-sampling" stehen haben.
die treiberdefaults können sie gerne so "optimiert" lassen, damit man jaaaa nicht in 3dmark hinten liegt.

btw: dieses grücht, ati stürzt immer ab und die treiber produzieren nur blue-screens, gibts schon ewig.
genauso wie amd-cpus instabil sind und man lieber intel kauft.
;D
aus solchen gesichtspunkten ist es scheissegal was man kauft.

man könnte sich ja hier anmelden und dort entsprechende...öööhmm...feature request threads aufmachen :D
http://forums.amd.com/game/

PulsarS
2009-05-12, 21:55:59
höchstens welten im mikrokosmos format...ich finde um mal WoW als typisches flimmerspiel weiter zu strapazieren das flimmern des AF nur dann auffällig wenn ich wirklich drauf achte.

ja bestimmte texturen sind sehr anfällig für flimmern insbesondere auf den radeons und die ganze geschichte ist sicher verbesserungswürdig...ABER solange selbst high end spiele derart beschissenen content verwenden das dieser nur mit dem holzhammer ala SSAA glatt zu bügeln ist können wir uns die filterdiskussion sparen! zumindest auf dem niveau auf dem es geführt wird...

die schattenkanten in wow werden weder per MSAA noch per AF erfasst und flimmern 10mal auffälliger als die meisten texturen da die kontraste einfach deutlich auffälliger sind als in einer doch sehr homogenen textur...dazu kommt der unselige alphatest spam der nichtmal vor krachern wie crysis halt macht...

haha ich lach mich tot...wenn dann noch shaderflimmern ala UT3 und Fallout3 dazukommt hörts ja wohl gänzlich auf... :rolleyes:
warum beschwert sich eigentlich keiner das die spielehersteller so offensichtlich dämlichen content verwenden? warum alphatest statt alphablending texturen? wieso unnötig hochfrequente texturen unnötig klein gekachelt auf 100km sichtweite? usw...warum funktioniert in aktuellen spielen oft kein FSAA

sry die diskussion über sparfilter und deren optionale abschaltbarkeit ist wichtig aber gegenüber dem bockmist den so mancher spieleentwickler da verzapft nimmt sich das doch eher unwichtig aus wenn ich so meine spielerealität betrachte...
Volle Zustimmung.
Ich gehöre zwar auch zu der BQ-Fraktion, aber meiner Meinung nach wird hier von einigen gnadenlos übertrieben was die "schlechte" BQ beim AF bei AMD betrifft.
Wenn ich hier Ausdrücke wie Augenkrebs lese, dann frage ich mich ernsthaft, ob einige Member nicht vielleicht den Bezug zur Realität verloren haben... :(
Um so mehr verwundert mich diese Einstellung, da dieses AF-Flimmern eher Sonderfälle betrifft, Shaderflimmern dürfte bei den modernen Games öfter vorkommen als AF-Flimmern, welches nur AMD betrifft.

Auch das fehlende AA in einigen Spielen wiegt deutlich mehr, als der "Sparfilter" der AMD-Grakas.

Ich bin aber auch dafür, dass AMD die Optimierungen trennt und der User darüber entscheiden kann, welche Qualität er generell haben will.
Das gefällt mir z.B. bei meiner NV sehr gut, da ich damit ältere Spiele aufwärten kann, weil ich die Freiheit habe das zu wählen, was ich gerade für wichtig halte. :)

Um auf den Punkt zu kommen, ;)
Die Diskussion halte ich für wichtig, von einigen hier aber zu sehr auf Fanboy-Niveau :)

y33H@
2009-05-12, 22:11:00
Fehlendes AA ist an sich Sache der Entwickler - man schaue sich nur die ganzen UE3-Titel an, die ohne AA-Support auf den PC geportet werden. Ähnliches gilt für flimmernde Shader oder hochfrequente Texturen. AMDs Sparfilter aber ist immer allgegenwärtig und kann nur von AMD behoben werden. Ein klarer Unterschied wie ich finde.

PulsarS
2009-05-12, 22:20:15
Fehlendes AA ist an sich Sache der Entwickler - man schaue sich nur die ganzen UE3-Titel an, die ohne AA-Support auf den PC geportet werden. Ähnliches gilt für flimmernde Shader oder hochfrequente Texturen.
AMDs Sparfilter aber ist immer allgegenwärtig und kann nur von AMD behoben werden. Ein klarer Unterschied wie ich finde.
Ähm...:|
Der Sparfilter ist eben nicht allgegenwärtig...
Es gibt deutlich weniger Spiele, wo man einen Unterschied zu einer NV-Karte sieht, als wo man sie sieht.
Wenn es andersrum wäre, hätte ich mir mein Geschreibsel auch sparen können...:rolleyes:

Noch mal, es gibt deutlich weniger Spiele, die von dem "schlechten" Filter betrofen sind, als es uns hier einige weissmachen wollen.

Ich habe bis jetzt nur ein paar Beispiele gelesen.
Spiele gibt es Hunderte, wenn nicht Tausende... also... :|

y33H@
2009-05-12, 22:28:19
Der Sparfilter ist eben nicht allgegenwärtig...Natürlich ist er das: Jedes Spiel, indem ich per Treiber AF erzwinge, ist "betroffen" - logischerweise. Nur wie stark es flimmert, ist unterschiedlich.Es gibt deutlich weniger Spiele, wo man einen Unterschied zu einer NV-Karte sieht, als wo man sie sieht.Gegenüber Q trifft dies bedingt zu, gegen HQ ohne Optimierungen nicht. Hier ist in jedem aktuellen Spiel ein klarer Unterschied zu erkennen.

Gast
2009-05-12, 22:36:06
Natürlich ist er das: Jedes Spiel, indem ich per Treiber AF erzwinge, ist "betroffen" - logischerweise. Nur wie stark es flimmert, ist unterschiedlich.Gegenüber Q trifft dies bedingt zu, gegen HQ ohne Optimierungen nicht. Hier ist in jedem aktuellen Spiel ein klarer Unterschied zu erkennen.
In jedem?
Ich habe jetzt zwar keine AMD zum testen, aber dass es in jeden Spiel auftreten soll, halte ich eher für unwahrscheinlich.
Es sein denn die Spieleprogger strapazieren den Content zu sehr.
Ist dann aber eine Sache der Spieleprogrammierer.

Ich finde hier packt man die Wurzel des Übels an der falschen Stelle an.
Wäre der Content ok, dann würde werde AMD noch NV flimmern.
HIER sollten wir uns beschweren, bei den Spieleherstellern.

y33H@
2009-05-12, 22:37:13
Content hin oder her, daran, dass AMD Samples spart, ändert sich da ja wohl nichts.

PulsarS
2009-05-12, 22:38:22
In jedem?
Ich habe jetzt zwar keine AMD zum Testen, aber dass es in jeden Spiel auftreten soll, halte ich eher für unwahrscheinlich.
Es sein denn die Spieleprogger strapazieren den Content zu sehr.
Ist dann aber eine Sache der Spieleprogrammierer.

Ich finde hier packt man die Wurzel des Übels an der falschen Stelle an.
Wäre der Content ok, dann würde weder AMD noch NV flimmern.
HIER sollten wir uns beschweren, bei den Spieleherstellern.
Sorry, das war ich, ausgeloggt gewesen.. ;)

BTW noch Fehler korregiert ;)

PulsarS
2009-05-12, 22:42:54
Content hin oder her, daran, dass AMD Samples spart, ändert sich da ja wohl nichts.
Wenn die Optimierungen größtenteils im unsichtbaren Bereich stattfinden, dann ist es ok.
Wenn ein paar Ausnahmen nicht mehr in den Rahmen passen, dann ist es zu verschmerzen.

Gast
2009-05-12, 22:43:01
Schon erstaunlich wie wieder versucht wird, das Problem zu verharmlosen.

PulsarS
2009-05-12, 22:48:20
Schon erstaunlich wie wieder versucht wird, das Problem zu verharmlosen.
Niemand versucht es zu verharmlosen, nur ich finde die logische Grundlage nicht, anhand ein paar Beispielen etwas bewerten zu können, wenn der Großteil der Spiele diese Auswirkungen nicht zeigt.
Wir können doch nicht bei der Beurteilung auf Ausnahmen basieren...:|

Gast
2009-05-12, 22:55:30
Wenn die Optimierungen größtenteils im unsichtbaren Bereich stattfinden, dann ist es ok.Es ist ein Traum, das Optimierungen dieser Art sparen.

Es ist und bleibt eine Krücke, einzig und allein dazu da, Transistoren zu sparen.

PulsarS
2009-05-12, 22:59:03
Es ist ein Traum, das Optimierungen dieser Art sparen.

Es ist und bleibt eine Krücke, einzig und allein dazu da, Transistoren zu sparen.
Nun liegt es an dir zu beweisen, dass diese "Einsparungen" allgemein im sichtbareben Bereich passieren...
Viel Spass... :D

Gast
2009-05-12, 23:00:18
Nun liegt es an dir zu beweisen, dass diese "Einsparungen" allgemein im sichtbareben Bereich passieren...
Viel Spass... :D

Nein du musst beweisen das dem nicht so ist, denn es gibt genug Beispiele die das Gegenteil zeigen. ;)

PulsarS
2009-05-12, 23:04:08
Nein du musst beweisen das dem nicht so ist, denn es gibt genug Beispiele die das Gegenteil zeigen. ;)
Ich habe nur ein paar Beispiele hier mitbekommenm wo es bewiesen wurde, kenne aber zig Spiele, wo es nicht so ist...

Du darfst anfangen, mal sehen wer mehr Spiele für seine Argumentation hinbekommt... :D
Viel Spass... :tongue:

Gast
2009-05-12, 23:35:14
ati hat es geschafft nach der pleite mit 2900xt, performance-mäßig mit nv gleichzuziehen und nur deshalb , kosten die nvkarten nicht mehr so viel.
in sachen BQ werden sie bald ebenfalls nachlegen wette ich.
außerdem muss ati nicht alles haargenau wie nvidia machen.
seit jetzt über 2jahren meckern immer die selben personen über die BQ der ati karten. auch wenn zurecht gemeckert wird , finde ich , dass es langsamm übertrieben wird - ich mein sachen wie augenkrebs , hallo ???
wieso bemeckert niemand das shaderflimmern ? , weils auf beiden karten scheisse ist !? .
wenn schon , dann auch alle schwächen der heutigen graka-generation aufzählen und nicht nur die der ati-karten , weil sonst ist das nichts außer gebashe von fanboys .
früher oder später wird ati schon selbst was machen müssen , weil irgendwann ruiniert das geflame in foren deren ruf und ihr lang erarbeitetes ansehen sinkt wieder in nullkommanix.
rv870 wird bestimmt ne bombenkarte von ati und das brauchen sie auch , um gt300 die stirn zu bieten .

Banshee18
2009-05-13, 00:02:30
wieso bemeckert niemand das shaderflimmern ?
Meinst du das ernst? :|
Gegen Shaderflimmern kann der beste anisotrope Filter nichts ausrichten, da musst du die Spieleentwickler "bemeckern".

Und alle, die gute Bildqualität wollen, als Fanboys zu bezeichnen, ist die Härte. Wetten, dass viele von denen einen R5x0 hatten? Und jetzt rate mal, warum. *hust Area-AF hust AA+HDRR hust*

Savay
2009-05-13, 00:23:50
ja nur selbst im flimmerigen wow mit den hochfrequenten texturen ist der anteil des AF flimmerns am gesamtbild kleiner als der anteil des flimmerns durch alphatests, geometrie (foliage) und projezierten texturen bzw. schatten :)

DAS scheint dann keiner der BQ fetischisten mehr bemerken zu wollen oder wie?! es geht ja nicht darum das die filter nicht verbesserungswürdig sind aber um die verhältnissmäßigkeit der argumentation...

hier wird echt teilweise so getan als wäre die BQ absolut unterirdisch und unwürdig...dabei ist die faktische BQ der HDs NICHT unter der der R5x0 einzuordnen die seinerzeit ja angeblich sogar die GPU der wahl für BQ fans war.

ergo ist vor garnicht allzulanger zeit als "gut" bewertete qualität jetzt nicht mehr tragbar oder wie? ;D
wenn schon BQ um jeden preis dann bitte auch konsequent...und das hört nicht beim IHV auf sondern fängt bei den spieleentwicklern erst richtig an. :rolleyes:

warum crysis mit massig eyecatchern glänzt aber gleichzeitig eine flimmerorgie sondergleichen ist bei der nichtmal FSAA und AAA richtig greift und einzig und allein massiv SSAA abhelfen könnte erschließt sich mir nicht...warum dieser unnötige alphatest spam wo es auch alphablending texturen täten?!

y33H@
2009-05-13, 00:41:25
Wetten, dass viele von denen einen R5x0 hatten? Und jetzt rate mal, warum. *hust Area-AF hust AA+HDRR hust**meld* X1900XT/512. Gescheites AF und HDR samt MSAA in Oblivion =)

Banshee18
2009-05-13, 00:58:32
*meld* X1900XT/512. Gescheites AF und HDR samt MSAA in Oblivion =)
Same here. :smile:
War R5x0 nicht auch der erste Chip, bei dem Transparenz-AA angeboten wurde?

y33H@
2009-05-13, 01:02:21
EATM per Registery-Hack meine ich *grübel*

Gast
2009-05-13, 06:23:01
jdabei ist die faktische BQ der HDs NICHT unter der der R5x0 einzuordnen
Doch, wurde oft genug erläutert, das AMD BQ mäßig ein gutes Stück nachgelassen hat, besonders weil AI-off massiv beschnitten wurde.

Nakai
2009-05-13, 08:48:31
AMD und ATI bevormunden die Nutzer. Der Grund reicht doch vollkommen aus.
Ich finde, dass die BQ nicht so schlecht ist, im Vergleich zu NV und R520, aber sie ist schlechter.

Hier muss was getan werden...


mfg Nakai

Gast
2009-05-13, 08:53:58
Ich finde, dass die BQ nicht so schlecht ist, wie im Vergleich zu NV, aber sie ist schlechter.

Im Vergleich wozu denn sonst? Verstehe ich nicht. :confused:

Nakai
2009-05-13, 08:57:34
Im Vergleich wozu denn sonst? Verstehe ich nicht. :confused:

Damals R520. Ich schreibs dazu.


mfg Nakai

LovesuckZ
2009-05-13, 09:00:38
Same here. :smile:
War R5x0 nicht auch der erste Chip, bei dem Transparenz-AA angeboten wurde?

Nein, das war der g70.

Savay
2009-05-13, 10:07:56
Doch, wurde oft genug erläutert, das AMD BQ mäßig ein gutes Stück nachgelassen hat, besonders weil AI-off massiv beschnitten wurde.

nicht besonders weil AI off beschnitten wurde sondern nur weil AI off beschnitten ist... :rolleyes:

AI low ist absolut auf gleichem niveau...die bilder die meine RV770 und meine RV570 liefern gleichen sich da nahezu wie ein ei dem anderen sofern beim RV570 HQ AF an ist

wer aber gerne in diversen spielen mit bildfehlern, nicht funktionierendem FSAA und einer grauenhafte performance spielt für den mag AI off natürlich relevant sein...der modus ist auf den ATIs aber defakto einfach bullshit wegen der kopplung der bugfixes und optimierungen

DA muss die kritik ansetzen und dort stehe ich auch voll dahinter! nur von augenkrebs zu lesen von leuten die sich seinerzeit ne R5x0 wegen der BQ gekauft haben ist meiner ansicht nach bald leicht schizophren sry :rolleyes:

N0Thing
2009-05-13, 12:20:34
Ich habe nur ein paar Beispiele hier mitbekommenm wo es bewiesen wurde, kenne aber zig Spiele, wo es nicht so ist...

Du darfst anfangen, mal sehen wer mehr Spiele für seine Argumentation hinbekommt... :D
Viel Spass... :tongue:


Es wurden Beispiele für den Unterschied bei der Filterung gebracht, aber kein Beispiel, bei dem man keinen Unterschied sieht.
Bei dieser Lage zu verlangen, daß man für jedes Spiel auf der Welt Vergleichsmaterial erstellt ist doch einfach blödsinnig.
Ich mein, wenn du mir die Hardware und Spiele kaufst und mir Geld gibst, damit ich nicht arbeiten muß, spiele ich gerne alle Spiele mit Karten von Nvidia und ATI durch und stelle Videos hoch. :D
Aber generell wären weitere Videos mit Vergleichsequenzen prima, damit man mehr Material hat, über das man reden kann.

Die beiden Videos von The Witcher, die weiter vorne im Thread verlinkt wurden, sind ja gut geeignet, wenn man sich selber ein Bild machen will. Daran kann jeder für sich entscheiden, ob die unterschiedliche Filterqualität für einen persönlich entscheidend ist, oder nicht. Von Augenkrebs würde ich z.B. definitiv nicht reden, aber dennoch stört mich das Flimmern so sehr, daß ich deshalb zur Zeit keine ATI kaufen würde. Über den persönlichen Geschmack zu streiten macht aber keinen Sinn, in meinem Freundeskreis bin ich der Einzige, der diese Einstellung hat, alle anderen hätten kein Problem mit dem Flimmern und ich erzähle ihnen auch nicht bei jede Gelegenheit was für Vollpfosten sie doch seien, weil ihnen das nicht auffällt, oder egal ist. ;)

In der Sache sind die beiden Lager doch auch nicht so weit auseinander, wenn man mal die Sticheleien, Provokationen und Verteidigungsreden außen vor läßt. Keiner würde sich beschweren, wenn man bei ATI AF auf dem Niveau von Nvidia bekommen würde und im Treiber Optimierungen und Qualitätseinstellungen getrennt und transparent vom Anwender einstellbar wären. Notwendig ist das offensichtlich nicht, aber wünschenswert.

IC3M@N FX
2009-05-13, 12:53:57
Keiner würde sich beschweren, wenn man bei ATI AF auf dem Niveau von Nvidia bekommen würde und im Treiber Optimierungen und Qualitätseinstellungen getrennt und transparent vom Anwender einstellbar wären. Notwendig ist das offensichtlich nicht, aber wünschenswert.

ATI will das nicht wenn man alle Optimierungen Manuell ausschalten könnte und dazu einen HQ Schalter einbauen würde. Könnte es sein das die HD Serie 3XXX/4XXX sehr stark an Performance verliert. Das 2 problem wäre das die Hardware Review´s Computerbase, PCGH, Tom´s Hardware usw. in default und diese HQ einstellung testen würden nur noch. Die ATI Karte würde dann nicht besonders gut dastehen.

Jake Dunn
2009-05-13, 13:07:15
ATI will das nicht wenn man alle Optimierungen Manuell ausschalten könnte und dazu einen HQ Schalter einbauen würde. Könnte es sein das die HD Serie 3XXX/4XXX sehr stark an Performance verliert. Das 2 problem wäre das die Hardware Review´s Computerbase, PCGH, Tom´s Hardware usw. in default und diese HQ einstellung testen würden nur noch. Die ATI Karte würde dann nicht besonders gut dastehen.

Könnte/würde(n) :rolleyes: bring Beweise :D

N0Thing
2009-05-13, 13:15:07
Ich würde gar nicht erwarten, daß ATI für die aktuelle Generation solche Schalter anbietet. Aber bei zukünftigen Karten könnte das Konzept dafür angepaßt werden.

Gast
2009-05-13, 14:07:30
Das würde ich nicht erwarten, weil das Problem zu sehr totgeschwiegen wird.

Pirx
2009-05-13, 14:28:11
Nein, das war der g70.
war es nicht der R300:confused:

Gast
2009-05-13, 14:44:41
war es nicht der R300:confused:

Der konnte das nachträglich auch, ebenso die NV4x, ist ja auch nur eine Treibersache.

InsaneDruid
2009-05-13, 15:34:58
Ich würde gar nicht erwarten, daß ATI für die aktuelle Generation solche Schalter anbietet. Aber bei zukünftigen Karten könnte das Konzept dafür angepaßt werden.


Dinge wie SSFSAA werden seit Jahren gefordert, sind auch machbar, da sie zb auf dem Mac freigeschaltet werden. Für Win gibts das aber nicht. Da kann man peditionen machen noch und nöcher. Sieht man ja auch wieder perfekt an der Microruckelgeschichte. Da kommt einfach ein klares "leckt uns, Balken rulen" und das wars.

Gast
2009-05-13, 16:39:37
Ich denke mal hier gehts nicht darum ATI schlecht zu machen sondern darum ATI besser zu machen. Und mit dem neuen Chip wird sich bei der BQ hinsichtlich AF auch nix tun da zu wenige Textureinheiten an Bord sind. Gut, sie haben diesen Weg gewählt, es gibt Leute die ziehen (kaufen) da mit. Andere werden wieder zum G300 greifen. Ich finds aber Schade das die AF Problematik nicht großflächig breitgetreten wird denn so wird ATI nie was ändern.

Savay
2009-05-13, 16:44:03
Und mit dem neuen Chip wird sich bei der BQ hinsichtlich AF auch nix tun da zu wenige Textureinheiten an Bord sind.

ist die quelle dafür ne glaskugel oder hast du insiderwissen das du unbedingt mit uns teilen möchtest?:rolleyes:

Gast
2009-05-13, 16:49:33
Die Quelle wird bei jeder Spekulation im Internet gezeigt. Gepaart mit der Aussage der ATI-Leute (AI ist das was wir und der User wollen) passt das wie die Faust aufs Auge. Klar Speku, aber es sieht wirklich so aus.

aths
2009-05-13, 18:35:50
Könnte/würde(n) :rolleyes: bring Beweise :DDa ATI applikationsspezifische Optimierungen daran gekoppelt hat, lässt sich der Beweis prinzipbedingt nicht bringen. Warum ATI das macht, liegt nahe.

Gummikuh
2009-05-13, 18:54:20
Balkenlänge?!

nagus
2009-05-13, 19:40:26
Wenn ich spiele, dann fällt mir das nicht auf. Habe ich das Spiel aber nur zum Benchen/Filtertesten gekauft, dann mag das stören, geht aber in einen Bereich, der für mich nicht entscheidend ist.

Ich lade gerade den Spielstand hoch. Gerne darf einer mit NV-Karte die Szene mit identischen Einstellungen nachdrehen und die Welt mit Brillianz erfüllen.

So: http://www.file-upload.net/download-1631250/000890---H-ndlerviertel-890.rar.html

ich hab eben dieses savegame getestet.... AI ON flimmert deutlich, bei AF OFF ist es IMHO fast vernachlässigbar wenig aber wahrnehmbar.

Gast
2009-05-13, 20:36:42
ich hab eben dieses savegame getestet.... AI ON flimmert deutlich, bei AF OFF ist es IMHO fast vernachlässigbar wenig aber wahrnehmbar.

Das hast der Gast doch schon mit seinen Videos bewiesen. Das war ohnehin der Einzige, der konstruktiv an die Sache herangegangen ist. Vorher nur Geflame und nun nur noch Wiederholungen.

IC3M@N FX
2009-05-14, 10:25:35
Ich denke mal hier gehts nicht darum ATI schlecht zu machen sondern darum ATI besser zu machen. Und mit dem neuen Chip wird sich bei der BQ hinsichtlich AF auch nix tun da zu wenige Textureinheiten an Bord sind. Gut, sie haben diesen Weg gewählt, es gibt Leute die ziehen (kaufen) da mit. Andere werden wieder zum G300 greifen. Ich finds aber Schade das die AF Problematik nicht großflächig breitgetreten wird denn so wird ATI nie was ändern.

Wie sollen die das den machen die haben nicht die ressourcen für einen großen Chip. Selbst wenn die das hätten würden die das nicht machen, der Chip würde wieder um einiges teuerer werden. ATI hat sich das grab selbst geschaufelt mit den AI konzept, und ich glaube nicht das da eine veränderung in sicht ist.

InsaneDruid
2009-05-14, 10:38:27
Wieso eigentlich immer "Underdog". NV und ATI waren als eigenständige Firmen doch soooo unterschiedlich (wie zB Intel<>AMD) doch auch nicht. Und selbst AMD hat ne Zeitlang bessere Produkte als Riese Intel gebaut.

reunion
2009-05-14, 10:52:47
Wieso eigentlich immer "Underdog". NV und ATI waren als eigenständige Firmen doch soooo unterschiedlich (wie zB Intel<>AMD) doch auch nicht. Und selbst AMD hat ne Zeitlang bessere Produkte als Riese Intel gebaut.

Bis vor der AMD-Übernahme hatte ATI dank des mobilen Bereiches sogar deutlich mehr Marktanteile als NV. Allerdings war NV schon immer die, welche mehr Geld verdienen konnten.

Gast
2009-05-14, 17:09:26
Eben. ATI war bereits eine Größe im OEM-Geschäft, als Nvidia-Karten noch nicht unter der Geforce-Marke verkauft wurden. Die 3D-Leistung jener Karten war allerdings überhaupt nicht konkurrenzfähig und der Rest wurde doch gänzlich untaugliche Treiber zunichte gemacht. Dennoch waren ATI-Chips in Fertigrechnern relativ weit verbreitet. Für 3D-Anwendungen wurde halt eine Voodoo dazu gesteckt.

Lawmachine79
2009-05-14, 17:21:35
Wieso eigentlich immer "Underdog". NV und ATI waren als eigenständige Firmen doch soooo unterschiedlich (wie zB Intel<>AMD) doch auch nicht. Und selbst AMD hat ne Zeitlang bessere Produkte als Riese Intel gebaut.
Naja, seit dem Untergang von 3dfx hat NV halt auf dem Grakamarkt die Rolle, die Intel auf dem CPU-Markt hat. Und ATI ist, wie auch immer, in die Rolle von 3dfx geschlüpft, dem innovativen, peppigen Mitbewerber der aus viel weniger viel mehr macht und wo die Leute einen Flipper im Büro stehen haben und so...ATI verzeiht man auch deutlich mehr als NV.

Jake Dunn
2009-05-14, 17:31:30
ATI verzeiht man auch deutlich mehr als NV.
Ist doch Blödsinn, bei ATI wird immer was rausgekramt einmal zu langsam (wenn das nicht ist) ist die BQ "Augenkrebsfördernd" :eek: oder die Treiber total unstabil :O oder das PCB ist Rot :tongue:

Gast
2009-05-14, 17:34:03
Innovationen habe ich bei ATI schon lange nicht mehr gesehen. Eigentlich übernehmen sie doch seit Jahren schon nur noch Features von NV und zwar dann, wenn der Markt es verlangt und es sich nicht mehr vermeiden lässt und keine Sekunde früher. Die Qualität des Vorbilds erreicht man jedoch nie (wer will schon allen Ernstes Crossfire haben?) und ist daher mittlerweile ins Billigheimer-Segments abgerutscht. Damit man die Karten wenigstens noch an Daus verkaufen kann, senkt man die Bildqualität ab, dreht alles auf Balkenlänge und nimmt dem Benutzer die Möglichkeiten dies zu ändern.

Ich wünsche mir für ATI, dass sie endlich mal wieder an frühere Zeiten anschließen und nicht dauernd nur stümperhaft umgesetzten Kram für Billig-Hardware bringen. Einen R300 oder R580 konnte man zurecht teuer verkaufen, die aktuellen Karten würde ich nichtmal umsonst in meinen Rechner stecken.

Gast
2009-05-14, 17:39:59
Die miese und halbherzige Umsetzung der bei NV abgeguckten Produktmerkmalen verwundert mich wenig, müssen die durchaus fähigen Ingenieure ihre eigenen Ideen doch hinten anstellen, weil das Management der Meinung ist, dass man auch unbedingt einen Balkenlängenverdoppler ala Crossfire benötigt.

Grestorn
2009-05-14, 17:42:00
Ist doch Blödsinn, bei ATI wird immer was rausgekramt einmal zu langsam (wenn das nicht ist) ist die BQ "Augenkrebsfördernd" :eek: oder die Treiber total unstabil :O oder das PCB ist Rot :tongue:

Es gibt Leute die sehen das genau andersrum. Die "allgemeine" Forumslandschaft ist doch eher ATI freundlich und lässt selten ein gutes Haar an nVidia. So kommt es mit jedenfalls vor.

Das 3DC nimmt da eine Ausnahmerolle ein.

Jake Dunn
2009-05-14, 17:44:31
Meld Dich mal an "Gast" dann brauchste nicht Doppelpostings erstellen :rolleyes:

Innovationen gibts nicht stimmt ;D

Wer hat DX10.1? Oder 7.1 HD Sound? Oder DP zuerst? Oder schon lange richtigen 2D Mode?


Sehe ich jetzt nicht so Grestorn, hält sich grob die Waage, ist aber wie von Dir angesprochen auch vom jeweiligen Forum abhängig ;)

Lawmachine79
2009-05-14, 18:02:40
Es gibt Leute die sehen das genau andersrum. Die "allgemeine" Forumslandschaft ist doch eher ATI freundlich und lässt selten ein gutes Haar an nVidia. So kommt es mit jedenfalls vor.

Das 3DC nimmt da eine Ausnahmerolle ein.
Ich habe auch den Eindruck, das NV in Reviews grundsätzlich härter angepackt wird. Viel zu wohlwollend wird über das ganze Konzept des Catalyst ( ich meine 1) .Net und 2) die Bevormundung) hinweggesehen. Wie gesagt, die Performance der aktuellen ATI-Karten ist über jeden Zweifel erhaben zu dem Preis, aber eigentlich stimmt fast nichts was drumherum ist.

y33H@
2009-05-14, 18:11:01
Die "allgemeine" Forumslandschaft ist doch eher ATI freundlich und lässt selten ein gutes Haar an nVidia.Leider gibt die Masse einen Schei0 auf BQ, sondern ist nur €/Fps-geil. Treiber, die viele Optionen bietet sind pööhse und Features wie AO sind blöd, sieht ja eh keiner. Traurig.Oder schon lange richtigen 2D Mode?Zu dumm, dass der "falsche" effektiver ist [zumindest im Falle der GTX200 und GTS200].

Jake Dunn
2009-05-14, 18:15:08
Ich habe auch den Eindruck, das NV in Reviews grundsätzlich härter angepackt wird. Viel zu wohlwollend wird über das ganze Konzept des Catalyst ( ich meine 1) .Net und 2) die Bevormundung) hinweggesehen. Wie gesagt, die Performance der aktuellen ATI-Karten ist über jeden Zweifel erhaben zu dem Preis, aber eigentlich stimmt fast nichts was drumherum ist.


Genau das meine ich oben, jetzt wird z.b. wieder NET rausgekramt (ist in VISTA/Win7 Standardmässig drin, sogar 3.5) :ueye:

Bevormundung, aber klar DX10 läst ja auch soviel zu beim AA (AAA) :ucoffee:


Zu dumm, dass der "falsche" effektiver ist [zumindest im Falle der GTX200 und GTS200].

Wo hab ich gesagt das der falsch ist bei den von Dir genannten Karten? (du verwechselst mich) ;)

y33H@
2009-05-14, 18:23:49
Klang halt so ;)

Jake Dunn
2009-05-14, 18:33:36
Klang halt so ;)

Nee, ging um das "Gastposting" und ATI bot 2005 schon ein 2D Mode an deshalb.

Die Diskussuion mit reunion um den richtigen/falschen 2D Mode bei der GT200er Reihe kenn ich aber :)

y33H@
2009-05-14, 18:50:23
Die X1k hatten einen guten 2D-Mode. Per Tool konnte man zudem die Voltages und Clocks on the fly ändern ... war sehr sehr geil. Die GF7 waren aber sehr sparsam.

reunion
2009-05-14, 18:54:12
Genau das meine ich oben, jetzt wird z.b. wieder NET rausgekramt (ist in VISTA/Win7 Standardmässig drin, sogar 3.5) :ueye:


.Net 2.0 (mehr wird nicht benötigt) als Argument gegen ATi aufzuführen ist ohnehin hochgradig lächerlich. Das wird mittlerweile wahrlich von unzähligen Programmen verwendet, ist ab Vista fester Bestandteil von Windows und auch der von NV-Usern immer wieder ins Feld geführte nHancer kommt nicht ohne .Net 3.5 aus.

Jake Dunn
2009-05-14, 18:54:39
Die X1k hatten einen guten 2D-Mode. Per Tool konnte man zudem die Voltages und Clocks on the fly ändern ... war sehr sehr geil. Die GF7 waren aber sehr sparsam.

Stimmt :)

Das mit den Voltages klingt gut, ich hol vom Kumpel demnächst eine X1900XT (soll für HW-Bot vom i7 befeuert zeigen was sie kann :biggrin:)

Konnten die X8xx auch schon 2D ich denke nicht :confused: (ist schon so lange her ^^)

LovesuckZ
2009-05-14, 18:55:03
Nee, ging um das "Gastposting" und ATI bot 2005 schon ein 2D Mode an deshalb.


2D Modus hat auch schon nVidia mindesten seit 2005.

InsaneDruid
2009-05-14, 18:59:32
Meld Dich mal an "Gast" dann brauchste nicht Doppelpostings erstellen :rolleyes:

Innovationen gibts nicht stimmt ;D

Wer hat DX10.1? Oder 7.1 HD Sound? Oder DP zuerst? Oder schon lange richtigen 2D Mode?



Naja wer hatte SM3? DX10? Ambient Occlusion, Cuda (oder ähnliches), Lehrbuch-AF?


Was meinst du mit "DP"? SLI/Cfire? Das hatte dann wohl 3dfx.

Wenn man schon den Featurevergleich rausholt.

reunion
2009-05-14, 19:01:48
Was meinst du mit "DP"?


DoublePrecision hatte ATi schon seit der HD3xxx-Serie, NV erst ab GT200. Ist aber für Spieler belanglos.

uweskw
2009-05-14, 19:04:55
.... Traurig.Zu dumm, dass der "falsche" effektiver ist [zumindest im Falle der GTX200 und GTS200].

Nur dass NV schon beim surfen ständig hochtaktet und so der Verbrauch doch höher ist.

Warum wird ständig auf ATI eingeprügelt?
NV verkauft Karten der vorletzten Generation als Neuheit und der Mediamarktkäufer meint er hat das neueste und beste. Das ist Verarsche!

Ohne eine gewisse Marktmacht von ATI würden wir für eine GTX260 wohl 500€ zahlen, denkt mal dran wie die sich die 8800Serie haben vergolden lassen, weil ATIs 3000 überall schlechter gemacht wurden als sie wirklich waren. Ist noch garnicht solange her...

Jake Dunn
2009-05-14, 19:14:26
Wenn man schon den Featurevergleich rausholt.

Ja da würden wir noch morgen Früh hier sitzen und gegenseitig Argumente auftischen, daher führ ich das nicht weiter an der Stelle ;)

Wollte/habe damit nur die Aussage vom Gast entkräftet das es keine "Innovation" bei ATI gab/gibt und sie alles nur "abkucken" und "halbherzig" umsetzen ;D:rolleyes:

Gast
2009-05-14, 19:26:39
Wer hat HD Sound?
Um was gehts hier, um Grafikkarten?

Nee, ging um das "Gastposting" und ATI bot 2005 schon ein 2D Mode an deshalb.
Las mich überlegen.
- 7800 GTX, 1/2 Jahr älter als X1800 XT und dazu sparsamer.
- Dannach gabs noch 7900 GTX und X1900 XT, ok alles klar.
- Dann der Idle Hänger der 8800 GTX und der 2900 XT.
- AMDs Idlewiederentdeckung mit der HD3.
- AMDs Idleabschaffung mit der HD48xx, gleichzeitig Nvidias Idlewiederentdeckung.


-> Yeah, klarer Punktsieg für AMD. :rolleyes:

Gast
2009-05-14, 19:28:35
NV verkauft Karten der vorletzten Generation als Neuheit und der Mediamarktkäufer meint er hat das neueste und beste. Das ist Verarsche!

Oh und diese alten Karten sind dennoch teils besser als ihre Konkurrenten.

Hm, dann habe ich die Wahl, AMDs neue Generation, die nicht mehr bietet oder alte Nvidia Generation. :eek:

btw, welche Nvidia Karten sind aus der vorletzten Generation? Ich kenne keine.

Gast
2009-05-14, 19:30:05
Gehts hier um umgelabelte Karten, Idlemodus? Ich denke hier gehts um BQ also würde ich mal wieder zum Topic kommen...

Gast
2009-05-14, 19:31:15
Nur dass NV schon beim surfen ständig hochtaktet und so der Verbrauch doch höher ist.
Stimmt, konstante 60W sind einfach viel sparsamer als 35W die nicht konstant sind.

uweskw
2009-05-14, 19:32:56
8800GTS , 9800GTX und daraus wurde die 250GTX

reunion
2009-05-14, 19:33:47
Stimmt, konstante 60W sind einfach viel sparsamer als 35W die nicht konstant sind.

Takte den Speicher herunter und du hast konstante <30W. Wobei der Stromverbrauch IMO ohnehin eine Alibiargument ist.

Jake Dunn
2009-05-14, 19:38:19
- AMDs Idleabschaffung mit der HD48xx, gleichzeitig Nvidias Idlewiederentdeckung.



Mit Lügen kommst Du hier nicht weit ;)

Und nochwas:

Meld Dich mal an "Gast" dann brauchste nicht Doppelpostings erstellen :rolleyes:

Lawmachine79
2009-05-14, 19:39:42
.Net 2.0 (mehr wird nicht benötigt) als Argument gegen ATi aufzuführen ist ohnehin hochgradig lächerlich. Das wird mittlerweile wahrlich von unzähligen Programmen verwendet, ist ab Vista fester Bestandteil von Windows und auch der von NV-Usern immer wieder ins Feld geführte nHancer kommt nicht ohne .Net 3.5 aus.
Beim NHancer spielt es aber keine Rolle, was man wie oft in welcher Reihenfolge installiert. Ich musste noch nie im Abgesicherten Modus alle .NET Pakete deinstallieren (zwischen jedem Paket ein Reboot) und dann alle wieder installieren, damit der NHancer läfut. Ich musste auch noch nie mein OS neu aufsetzen, damit der NHancer läuft. Da Du ja auf alle ATI-Probleme eine Antwort hast, guck mal ins Hilfeforum, mich beglückt gerade wieder eine 4850, ich habe aber endlich mal wieder eine völlig neue Fehlermeldung, der Tag ist voller Überraschungen.
Meinentwegen kann ATI ja auf .NET aufsetzen - aber das darf NICHT SO beim Endkunden ankommen. ATI hat sicherzustellen, daß das tadellos funktioniert. Und ich bin defintiv nicht der Einzige der Probleme mit dem Catalyst hat, also komm mir nicht wieder mit Kompetenz, ich hatte noch nie Probleme mit NV-Treibern noch mit anderen Treibern. Auf 3 von 4 PCs hat der Catalyst Ärger gemacht, auf dem PC wo es funzte habe ich NICHTS anders gemacht. Und selbst WENN ich "inkompetent" WÄRE, muss ATI sein Produkt so gestalten, daß Otto-Normalverbraucher damit zurechtkommt.
Mich kotzt .NET nicht an, weil es .NET ist, sondern mich kotzt es an, weil es damit nicht tadellos funktioniert und die meisten Fehlermeldungen, die man bekommt beim CCC mit .NET zusammenhängen.

Black-Scorpion
2009-05-14, 19:40:55
Immer die selbe Diskussion.
Nur wird dabei immer ganz gerne übersehen das andere Features anbieten können wie sie wollen. Nvidia hat davon nichts übernommen oder erst dann wenn sie nicht anders konnten und dazu gezwungen waren.
Im Gegenzug sollen andere vor Freude Luftsprünge machen und am besten gestern alles übernehmen was von ihnen kommt.
Sind schon seltsame Vorstellungen die einige haben.

*Edit*
Was kann ATI für deinen vermurksten Rechner?
Ich habe einmal .Net installiert und seitdem noch nicht ein Problem beim installieren vom CCC gehabt.

Gast
2009-05-14, 19:55:35
Takte den Speicher herunter und du hast konstante <30W.
Nvs Reserven verschweigen wir.


Wobei der Stromverbrauch IMO ohnehin eine Alibiargument ist.
Natürlich, so wie vor einem Jahr 60W im Idle für dich indiskutabel viel waren.
Ich habe eben nur auf Jake Dunns Unwahrheit geantwortet.

Mit Lügen kommst Du hier nicht weit ;)

Oh, du leugnest, das die HD48xx keinen wirklichen Idlemodus hat?
Mach sachen oder was willst du?


Und nochwas:
Du verwechselst mich.
Übrigens, wegen Hechten wie dir verzichte ich gerne mich einzulogen.

Jake Dunn
2009-05-14, 19:58:19
Beim NHancer spielt es aber keine Rolle, was man wie oft in welcher Reihenfolge installiert. Ich musste noch nie im Abgesicherten Modus alle .NET Pakete deinstallieren (zwischen jedem Paket ein Reboot) und dann alle wieder installieren, damit der NHancer läfut. Ich musste auch noch nie mein OS neu aufsetzen, damit der NHancer läuft. Da Du ja auf alle ATI-Probleme eine Antwort hast, guck mal ins Hilfeforum, mich beglückt gerade wieder eine 4850, ich habe aber endlich mal wieder eine völlig neue Fehlermeldung, der Tag ist voller Überraschungen.
Meinentwegen kann ATI ja auf .NET aufsetzen - aber das darf NICHT SO beim Endkunden ankommen. ATI hat sicherzustellen, daß das tadellos funktioniert. Und ich bin defintiv nicht der Einzige der Probleme mit dem Catalyst hat, also komm mir nicht wieder mit Kompetenz, ich hatte noch nie Probleme mit NV-Treibern noch mit anderen Treibern. Auf 3 von 4 PCs hat der Catalyst Ärger gemacht, auf dem PC wo es funzte habe ich NICHTS anders gemacht. Und selbst WENN ich "inkompetent" WÄRE, muss ATI sein Produkt so gestalten, daß Otto-Normalverbraucher damit zurechtkommt.
Mich kotzt .NET nicht an, weil es .NET ist, sondern mich kotzt es an, weil es damit nicht tadellos funktioniert und die meisten Fehlermeldungen, die man bekommt beim CCC mit .NET zusammenhängen.

Da ich um VISTA ein weiten Bogen gemacht habe und XP nutze/genutz haben mußte ich NET 2.0 auch immer installieren, ich hab das neuste Paket gezogen -> http://www.computerbase.de/downloads/software/betriebssysteme/microsoft_net_framework/ bevor ich den Treiber (inkl. CCC) installiert hab und damit wirklich NIE Probleme gehabt (unterschiedliche Karten und Rest-HW) :confused:;)

Ich schau mal ins Hilfeforum...

Gast
2009-05-14, 19:58:28
8800GTS , 9800GTX und daraus wurde die 250GTX
Fehler:
1. Karte 3 gibt es nicht.
2: 1,2 und GTS 250 sind verschiedene Karten.


btw. OT! Mods, splittet doch bitte.

reunion
2009-05-14, 20:00:44
Beim NHancer spielt es aber keine Rolle, was man wie oft in welcher Reihenfolge installiert.

Beim Catalyst für gewöhnlich auch nicht. Auch ich hatte .NET unter XP schon vergessen und hatte keinerlei Probleme damit es nachträglich zu installieren. Einmal konnte ich deswegen den Treiber neu installieren, das wars.


Ich musste noch nie im Abgesicherten Modus alle .NET Pakete deinstallieren (zwischen jedem Paket ein Reboot) und dann alle wieder installieren, damit der NHancer läfut. Ich musste auch noch nie mein OS neu aufsetzen, damit der NHancer läuft.

Auch wenn du es vielleicht nicht wahr haben willst: Auch beim Catalyst ist das nicht üblich.


Da Du ja auf alle ATI-Probleme eine Antwort hast, guck mal ins Hilfeforum, mich beglückt gerade wieder eine 4850, ich habe aber endlich mal wieder eine völlig neue Fehlermeldung, der Tag ist voller Überraschungen.

Die Meldung "Zero Device Service Error" findet man weltweit mittels Google genau 11 mal. Also entweder hast du wahrlich extremes Pech oder du hast ein ganz besonderes Talent und/oder Hardwarekonstellation für außergewöhnliche Fehler. Tut mir leid ich habe das auch noch nie gehört.


Meinentwegen kann ATI ja auf .NET aufsetzen - aber das darf NICHT SO beim Endkunden ankommen. ATI hat sicherzustellen, daß das tadellos funktioniert. Und ich bin defintiv nicht der Einzige der Probleme mit dem Catalyst hat, also komm mir nicht wieder mit Kompetenz, ich hatte noch nie Probleme mit NV-Treibern noch mit anderen Treibern. Auf 3 von 4 PCs hat der Catalyst Ärger gemacht, auf dem PC wo es funzte habe ich NICHTS anders gemacht. Und selbst WENN ich "inkompetent" WÄRE, muss ATI sein Produkt so gestalten, daß Otto-Normalverbraucher damit zurechtkommt.
Mich kotzt .NET nicht an, weil es .NET ist, sondern mich kotzt es an, weil es damit nicht tadellos funktioniert und die meisten Fehlermeldungen, die man bekommt beim CCC mit .NET zusammenhängen.

Ich habe keine Ahnung wie dein Rechner aussieht, was du damit genau angestellt hast oder was du richtig oder falsch gemacht haben könntest. Nur wenn du auf 3 von 4 PCs Probleme mit dem installieren des Catalyst hattest und dir dutzende Leute erzählen das sie damit keine Probleme hatten solltest du dir vielleicht mal die Frage stellen ob du nicht doch irgend etwas falsch gemacht haben könntest.

der boss
2009-05-14, 20:00:52
3dc ist nicht nvidia freundlich.
hier schreiben immer wieder die selben wie schön nvidia doch ist und ati besitzer halten ihre fresse , außer evlt. mr. lolman .
wenn man nach der beliebtheit in cbase oder hwluxx fragt , dann schneidet ati auf jedenfall besser ab als nvidia.
wundert mich allerdings nicht , dass leute lieber hinter nem underdog stehen als nem riesen konzern wie nvidia , sollte doch jedem klar sein .
trotzdem lassen sch eher sehr wenige von ihrer sympathie beeinflussen , wenn sie mal ne neue karte kaufen - was ich auch für richtig halte.
ich würde die 4870 auf jedenfall der gtx 260 216 vorziehen , weil sie mehr vram hat und ati einfach gleichgezogen ist im midrangebereich.
warum also nicht 4870 kaufen , wenn sie doch genau so schnell ist wie nvidias gegenprodukt? .
BQ fetischisten bauen sich lieber ne 8600 gts als ne 4870 ein , wurde hier ja schon oft genug erwähnt (was mich heute noch zum schmunzeln bringt die aussage).
bin mal gespannt , ob die gleichen ati-kritiker hier auch rumnörgeln , wenn nvidias gt 300 total daneben gehen sollte .
ich werde sie schon daran erinnern wenns so weit ist :D

Lawmachine79
2009-05-14, 20:01:58
*Edit*
Was kann ATI für deinen vermurksten Rechner?
Ich habe einmal .Net installiert und seitdem noch nicht ein Problem beim installieren vom CCC gehabt.
Tja, dann solltest Du wohl Lotto spielen.
Die "vermurksten" Rechner waren übrigens fast alle neu aufgesetzt.
Und selbst, wenn man davon ausgeht, daß meine Rechner vermurkst sind (damit Du Deinen inneren Frieden hast) : wieso kommen NV-Karten denn mit meinem vermurksten Rechner klar? Wie gesagt, wir reden von einer TREIBERINSTALLATION. Nichts weiter. Eine Treiberinstallation hat auch auf einem vermurksten Rechner (immer noch Deinen Seelenfrieden beachtend) zu funktionieren. Wir reden von 100MB Treiber. Nicht von einem fetten Officepaket oder AutoCad oder sonstwas. Ein schlichter, einfacher Treiber, der die Hardware zugänglich macht.

reunion
2009-05-14, 20:02:10
Nvs Reserven verschweigen wir.


Nenn' mir NVs Reserven. Weiter heruntertakten bringt bei NV praktisch nichts, nicht mal mehr die Spannung kann man bei den neuen 55nm Karten noch senken AFAIK.