PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommt NV wieder mit der BQ-Keule? (schlechte BQ --> FTW?)


=Floi=
2009-04-10, 22:30:17
Hallo
zz liefert sich nv und ati ja wieder ein kopf an kopf rennen und leider ist das ganze so knapp, dass nv wieder an der BQ drehen könnte. Ich meine, das ist doch die leichterste möglichkeit und bringt auch am meisten fps. (bei allen grafikkarten im portfolio)
Mich stört auch, dass nv bisher NIE ihre BQ beworben haben. Der WU AF Filter kam und es wurde nach dem release still um diesen. Es war doch schon einmal so und dann kam man mit der großen BQ-Keule und hat gedreht wo es nur ging um in benchmarks der schnellere zu sein. :rolleyes:

reunion
2009-04-10, 22:33:15
IMO nein da es für nV wenig Sinn machen würde. Die Chips haben haufenweise TMUs. Ev. bei den GT21X-Chip.

mapel110
2009-04-10, 22:35:29
Erstmal ist offenbar ATI dran, wie ein kommender 3DCenter-Artikel offen legen wird.

Allerdings lassen die jüngsten Geforce-Treiber auch schlechtes vermuten, wenns dort Zugewinne im zweistelligen Prozentbereich gibt und das XY-Monate nach Release der Hardware.

Ich hoffe, der 3DCenter-Artikel wird auch die aktuelle Situation bei nvidia mit beleuchten.

Gast
2009-04-10, 22:44:26
Erstmal ist offenbar ATI dran, wie ein kommender 3DCenter-Artikel offen legen wird.

Der ist schon seit Jahren im kommen. :(


Allerdings lassen die jüngsten Geforce-Treiber auch schlechtes vermuten, wenns dort Zugewinne im zweistelligen Prozentbereich gibt und das XY-Monate nach Release der Hardware.
Die "zweistelligen % sind wo?
Jedenfalls nicht der Durchschnitt und erst recht nicht bei jedem Treiber. Erst recht nicht resultieren sie aus den wenig limitierenden TMUs.

Die Chips haben haufenweise TMUs.
Das kann man mit GT3xx leicht ändern.


Mich stört auch, dass nv bisher NIE ihre BQ beworben haben.
Mich auch. Mich störts aber auch das dies nie von den Reviewern oder den Usern belobt wurde. Obwohl diese zuvor massiv darüber geschimpft haben und es ihnen heute bei AMD wurst ist.

Ja, Nvidia wird die BQ definitiv senken.
Aber es besteht noch ein Hoffnungsschimmer, das die HQ Option bleibt.

Gast
2009-04-10, 22:54:41
Denke nicht, das man nochmal an den Texture Filter Optimierungen Bastelt, bringt nix. Eher ist ja Shaderreplacement an der Tagesordnung.
Wer im nV Treiber auf HQ Schaltet und alle Optimierungen abschaltet, bekommt das was die GPU maximal kann.
Wer 32xAF brauch muss halt 2x2SSAA drauflegen.

mapel110
2009-04-10, 23:44:34
Der ist schon seit Jahren im kommen. :(

afaik ist Coda da erst seit ein paar Monaten dran, und das soweit ich beurteilen kann, mit sehr viel Eifer. Zeit ist bei ihm auch das Problem.

Die "zweistelligen % sind wo?
Jedenfalls nicht der Durchschnitt und erst recht nicht bei jedem Treiber. Erst recht nicht resultieren sie aus den wenig limitierenden TMUs.

Crysis Warhead, Farcry 2, Mirrors Edge, Race Driver Grid, da wo man eben Leistung braucht (vorallem Release 182 und 185 brachten Performance).

Ailuros
2009-04-11, 01:05:15
Das kann man mit GT3xx leicht ändern.

Oder es sind mehr als Du erwartest.

_DrillSarge]I[
2009-04-11, 01:07:29
Hallo
zz liefert sich nv und ati ja wieder ein kopf an kopf rennen und leider ist das ganze so knapp, dass nv wieder an der BQ drehen könnte.
warum sollten sie? sie sind vorn.
single-gpu -> gtx285
mgpu -> gtx295

das einzige woran sie drehen werden (müssen) ist weiterhin der preis, weil amd eben ziemlich stark mit dieser masche kommt.

Gast
2009-04-11, 01:18:00
I[;7228419']
single-gpu -> gtx285
mgpu -> gtx295


naja... nicht deutlich genug!

Gast
2009-04-11, 01:21:08
I[;7228419']
das einzige woran sie drehen werden (müssen) ist weiterhin der preis, weil amd eben ziemlich stark mit dieser masche kommt.
Kein Problem für GTS 250 und kleiner (zumindest nicht schlimmer als für AMD).

Die großen Karten könnens schon eher vertragen schneller zu werden, schließlich rechtfertigen sie somit einen höheren Aufpreis.

Lawmachine79
2009-04-18, 12:55:36
Naja, die Releases der letzten Chips liegen zu weit hinten, als daß man jetzt noch Betroffenheit erzeugen könnte. Meiner Meinung nach müßten ein paar richtig üble Artikel über A.I. kommen, das muss RICHTIG verrissen werden - nicht damit ATI weniger Karten verkauft, sondern damit sie es ABSCHAFFEN, der User nicht mehr bevormundet wird und wieder selbst bestimmen kann, wie er sein erworbenes Produkt einsetzt und vor allem damit spielspezifische Optimierungen nicht mehr zwangsläufig an eine schlechte BQ gebunden sind.

Stormscud
2009-04-18, 13:24:12
Das Problem dabei leider ist, dass Menschen, die sich über solche Geschichten Gedanken machen, einfach mal eine extrem kleine Minderheit sind.

Von allen Leuten die ich kenne, die am PC spielen, bin ich der Einzigste der sich ab und zu mal die Qualität von AA und AF näher ansieht. Ein Einziger nutzt AA und AF überhaupt, alle anderen starten ein Spiel und stellen max. noch die Details so hoch es geht...

Bevormundung ist das richtige Wort, nur will anscheinend die große Mehrheit bevormundet werden. Wer von den ganzen 08/15 Spielern kümmert sich denn um Bildqualität? So gut wie keiner. Und das nutzt AMD aus, sogar ganz legitim wie ich finde.

Es sollte also reichen, dass man im Treiber mehr oder weniger versteckt eine Option einbaut, die dem versierten Anwender die Möglichkeit bietet alles von Hand einzustellen. Sprich zwischen verschiedenen Optimierungen zu wählen oder gleich komplett ohne zu spielen.

Meine Meinung ;)

deekey777
2009-04-18, 13:25:30
Hallo
zz liefert sich nv und ati ja wieder ein kopf an kopf rennen und leider ist das ganze so knapp, dass nv wieder an der BQ drehen könnte. Ich meine, das ist doch die leichterste möglichkeit und bringt auch am meisten fps. (bei allen grafikkarten im portfolio)
Mich stört auch, dass nv bisher NIE ihre BQ beworben haben. Der WU AF Filter kam und es wurde nach dem release still um diesen. Es war doch schon einmal so und dann kam man mit der großen BQ-Keule und hat gedreht wo es nur ging um in benchmarks der schnellere zu sein. :rolleyes:
Gibt es einen bestimmten Anhaltspunkt für diesen Thread oder wolltest du nur etwas philosophieren?

Schlammsau
2009-04-18, 13:30:50
Leute, es sind einfach zuwenig Menschen, die irgendwelche Filtermethoden kennen.
Die Zocker wollen einfach "nur" zocken! Die paar Hanseln die nach besserer BQ bei ATi schreien, sind sowas von zu vernachlässigen.
Die breite, nein sehr breite Masse interessiert das "grottenschlechte" Bild einer Radeon nicht. Der Preis zählt! ;)
Ich habs schonmal irgendwo geschrieben...ich kenne viele Zocker und 95% von denen haben null Plan von AA und AF.
Zocken schon jahrelang CSS oder CoD und haben noch nie AA oder AF eingeschaltet.

Nakai
2009-04-18, 13:56:07
Die breite Masse lässt sich aber durch solche Veröffentlichung seitens 3DC sehr gut lenken. Wenn dieser Artikel wieder auf Geizhals veröffentlicht wird, was denkst du werden die meisten Leute denken?


mfg Nakai

Peilo
2009-04-18, 14:29:49
die werden denken: "oh, ati hat verschleierte filtertechniken eingebaut die nur versierte user abschalten können für max. bildquali. mhm, dann kauf ich lieber nv"

so und nicht anders reagieren DAU´s auf solche artikel, die der breiten masse zugänglich gemacht wurden und normalerweise verirren sich nur selten solche leute auf diese seite und setzen das gelesene dann auch noch um.
War genauso vor ein paar jehren als alle magazine und hardwareseiten nv für G70 treiber rumgemault haben und x800 auf einmal die besten karten der welt waren

InsaneDruid
2009-04-18, 14:37:47
Ja und was wäre schlimm daran das ati Aufgrund der BQ-Berichte Umsatzeinbußen hinnehmen muss? Anders würde/wird sich da auch nicht ein bisschen ändern. Grade bei "nein unter Windows schalten wir kein SSAA frei" ATI. War ja bei NV nicht anders. Erst als es ins Geld ging kam der Umschwung. ATI muss halt erfahren das es nicht mit wenig TMUs und viel Trickserei geht.

Mr.Magic
2009-04-18, 15:11:52
Kommt NV wieder mit der BQ-Keule? (schlechte BQ --> FTW?)

Ich bezweifle, dass man bei NV wieder ATI nacheifern wird.
Die haben ihre Lektion gelernt. Als sie das letzte mal dachten (GF6), sie könnten ihre BQ auf ATI-Niveau senken, wurde bei ATI die BQ ganz schnell temporär angehoben, damit man motzen konnte.

Mich auch. Mich störts aber auch das dies nie von den Reviewern oder den Usern belobt wurde. Obwohl diese zuvor massiv darüber geschimpft haben und es ihnen heute bei AMD wurst ist.

Eher im Gegenteil. Die Reviewer testeten z.B. die GF5 gegen die R9, und stellten begeistert fest, dass die ATIs mit 16xAF schneller sind als die GFs mit 8xAF (damaliges Maximum). Das ATIs 16xAF schlechter aussah als nVidias 4xAF interessierte keinen. Das Ganze übrigens bei DX8, wo die FXen durchaus leistungsfähig waren.

Es gab mal einen Artikel im 3DCenter (~2003), der die Rechenungenauigkeit der Radeons aufzeigte. Der wurde mehr oder weniger ignoriert. AFAIR.

AnarchX
2009-04-18, 15:23:10
Die fast 40% an Texelfüllrate/TMUs die sich ATi durch ihre Filteroptimierungen in HW und SW spart, könnte für Nvidia durchaus einen Anreiz setzen, ähnliches bei GT3xx wieder einzuführen. Somit könnte man sich Transitoren sparen, die man in die ALUs für das wichtige GPGPU investieren könnte.

So wäre eine 3-fache Filterleistung in der Praxis gegenüber GT200 eben schon mit 128 TMUs @~700MHz möglich.

y33H@
2009-04-18, 16:05:12
Wie kommst du auf die 40%?

AnarchX
2009-04-18, 16:10:34
Wie kommst du auf die 40%?

Eine 4870/90 mit ihren 30-34 GTex/s hält doch meist gut mit einer GTX 260-216 (41GTex/s) bis teilweise GTX 285 (51 GTex/s) mit, selbst wenn 16xAF aktiv ist.
Also scheint man da durchaus 30-40% sparen zu können.

Gast
2009-04-18, 16:12:38
4890 zu GTX 275 sind fast 50%.

y33H@
2009-04-18, 16:22:16
@ AnarchX

Und die unterschiedlichen Architekturen lässt du bei deiner Rechnung außen vor? Hmmm ... gespart wird so oder so, das ist klar ... man lässt TMUs weg und schei0t auf die BQ - dafür pumpt man die Transistoren in die ALUs und wirbt mit 1,2 GFLOPS, die man in der Praxis nie erreicht ;D

Gast
2009-04-18, 16:48:45
Zocken schon jahrelang CSS oder CoD und haben noch nie AA oder AF eingeschaltet.

Ist wohl nicht besonders aussagekräftig was die davon denken. Einerseits dürften die cs- und cod-Leute nicht gerade die hellsten Leuchten unter den Spielern sein, andererseits wird in multiplayer-fps-titeln doch eh auf alles gepfiffen was irgendwie ablenken könnte bzw. die fps runterziehen könnte. Wer im sp spielt bzw Strategie / Rollenspiele der gibt eher was auf bq.

Gast
2009-04-18, 16:55:04
andererseits wird in multiplayer-fps-titeln doch eh auf alles gepfiffen was irgendwie ablenken könnte
Gerade Flimmern lenkt gewaltig ab. ;)

vinacis_vivids
2009-04-18, 17:17:12
Die breite Masse lässt sich aber durch solche Veröffentlichung seitens 3DC sehr gut lenken. Wenn dieser Artikel wieder auf Geizhals veröffentlicht wird, was denkst du werden die meisten Leute denken?


mfg Nakai

Die Breite Masse ist bei HWluxx, PCGH und computerbase. 3dcenter ist dagegen ein kleiner Tropfen auf dem heißen Stein.

Außerdem brauchste bei der AI-Kritik auch englische und chinesische großseiten die es auseinandernehmen. Der Deutsche Markt ist dagegen gar nichts.

Gerade Flimmern lenkt gewaltig ab. ;)

Deswegen ist AF auch aus ;) bei den meisten CS zockern.
Desweiteren bräuchten die meisten auch noch einen neunen Monitor.

Eine 4870/90 mit ihren 30-34 GTex/s hält doch meist gut mit einer GTX 260-216 (41GTex/s) bis teilweise GTX 285 (51 GTex/s) mit, selbst wenn 16xAF aktiv ist.
Also scheint man da durchaus 30-40% sparen zu können.

Na das ist ja mal ein geiler effekt. Bissel am Filter sparen und 30-40% mehr Performance. Das ist ja eine Meisterleitung in Treiberarbeit von ATI/AMD. Davor hab ich großen respekt.

Nakai
2009-04-18, 17:22:13
Die Breite Masse ist bei HWluxx, PCGH und computerbase. 3dcenter ist dagegen ein kleiner Tropfen auf dem heißen Stein.

Außerdem brauchste bei der AI-Kritik auch englische und chinesische großseiten die es auseinandernehmen. Der Deutsche Markt ist dagegen gar nichts.

CB, PCGH und 3DC sollte man unter einem Hut bekommen.

die werden denken: "oh, ati hat verschleierte filtertechniken eingebaut die nur versierte user abschalten können für max. bildquali. mhm, dann kauf ich lieber nv"

so und nicht anders reagieren DAU´s auf solche artikel, die der breiten masse zugänglich gemacht wurden und normalerweise verirren sich nur selten solche leute auf diese seite und setzen das gelesene dann auch noch um.
War genauso vor ein paar jehren als alle magazine und hardwareseiten nv für G70 treiber rumgemault haben und x800 auf einmal die besten karten der welt waren

Ja so ist das. Was man nicht alles für bessere BQ tut.^^


mfg Nakai

vinacis_vivids
2009-04-18, 17:26:10
CB, PCGH und 3DC sollte man unter einem Hut bekommen.



Ja so ist das. Was man nicht alles für bessere BQ tut.^^


mfg Nakai

Eben nicht. Du kennst das HWluxx Forum zu schlecht nehme ich mal an.

Gast
2009-04-18, 17:36:11
Deswegen ist AF auch aus ;)
Ach und die Kanten und Shader flimmern nicht?


Na das ist ja mal ein geiler effekt. Bissel am Filter sparen und 30-40% mehr Performance. Das ist ja eine Meisterleitung in Treiberarbeit von ATI/AMD. Davor hab ich großen respekt.
Immer schön zu AMD positiv drehen.
AMD spart nicht nur ein "bisschen".

Gast
2009-04-18, 17:38:29
War genauso vor ein paar jehren als alle magazine und hardwareseiten nv für G70 treiber rumgemault haben und x800 auf einmal die besten karten der welt waren
Was auch daran lag, das R3xx, R4xx, R5xx und R6xx nie wirklich kritisiert wurden.

Dann machen wir doch genau so weiter, kritiseren immer nur schön Nvidia.

Fallen
2009-04-18, 18:01:44
Ich bin sicher kein DAU, lese das Forum hier schon seit Jahren und bezeichne mich durchaus als technikaffin. Allerdings kann ich, was Grafikkarten betrifft, bei weitem nicht auf dem Level einiger Member hier mitreden.

Gerade deshalb aber lasse ich mich auf 3DCenter inspirieren, wenn neue Käufe anstehen. Weil das hier so herrlich freakig ist und es vergleichsweise selten mal in Populismus abrutscht.

Von daher sind es sicher nicht nur Freaks und kleine Minderheiten, die sich vom 3DCenter Anregungen und Meinungen holen. Ich will natürlich Bildqualität haben, selber bestimmen was und wieviel ich einstelle. Auch wenn ich nicht immer durch die ganzen Filter durchsteige, so würde ich mich dann ganz genau belesen, was ich einstellen kann um das Optimum zu erzielen.

Von daher würde meine Wahl nur aufgrund dieser Tatsache derzeit klar grün ausfallen, da ich mich nur ungern eingeschränkt sehe. Das betrifft eine Neuanschaffung, derzeit ist eine 4850 im Rechner. Es wäre schon schön, wenn das Thema einmal richtig auf die Tagesordnung kommt, denn das letzte Interview mit ATI hat mich geärgert.

=Floi=
2009-04-18, 18:16:55
am R5xx gab es auch nichts bei der filterung zu kritisieren. Der R580 war für seine zeit ein spitzenchip. Einzig den stromverbrauch könnte man der karte ankreiden!

Es geht ja in diesem thread mehr um NV und ob sie den weg welchen ati eingeschlagen hat ebenfalls verfolgen könnten. ich kritisiere hier mal weniger ati.

Coda
2009-04-18, 19:27:05
am R5xx gab es auch nichts bei der filterung zu kritisieren.
Mit A.I. war die auch nicht gerade rosig.

Na das ist ja mal ein geiler effekt. Bissel am Filter sparen und 30-40% mehr Performance. Das ist ja eine Meisterleitung in Treiberarbeit von ATI/AMD. Davor hab ich großen respekt.
Es gibt keine wundersame Mehrleistung. Wenn gespart wird, dann immer mit Auswirkungen auf die BQ.

Davor braucht man keinen "Respekt" zu haben, das ist einfach nur Bescheiserei. Es ist kein Hexenwerk den Filter zu wenige Samples nehmen zu lassen.

V2.0
2009-04-18, 19:48:19
FPS > BQ

So ist es und so wird es immer bleiben. Es bringt nichts eine flimmerfreie Ruckelshow zu erleben. Daher hat ATI den richtigen Weg eingeschlagen und beitet einen ausgewogenen Kompromiss, der für die überwiegende Mehrheit der Käufer annehmbar ist.

NV wird sicher dauerhaft diesem Weg folgen.

Gast
2009-04-18, 19:59:44
So ist es und so wird es immer bleiben. Es bringt nichts eine flimmerfreie Ruckelshow zu erleben. Daher hat ATI den richtigen Weg eingeschlagen und beitet einen ausgewogenen Kompromiss, der für die überwiegende Mehrheit der Käufer annehmbar ist.
So ein Schwachsinn, das impliziert, dass grundsätzlich und in jeder Situation mehr und noch mehr FPS benötigt werden. Dies trifft aber nicht zu, oft genug ist man weit über der Zielvorgabe (meist wohl max. 60FPS) und spätestens dann macht eine potentere Grafikkarte nur Sinn, wenn man das mehr an Leistungsvermögen in Bildqualität investieren kann.

ATI hat aber tatsächlich einiges richtig gemacht und zwar an der Desinformationsfront. Anfangs dachte ich, das mit den AntiAliasing-Modi sei ein schlechter Scherz, aber tatsächlich liest man in Diskussionen immer wieder, wie die exzellente Qualität des Anisotropen Filters bei Nvidia vermeintlich mit der überragenden Performache ATIs bei 8xAA und dem edlen Edge Detect aufgewogen wird. Natürlich nützt es einen Scheiß, wenn die Polygonkanten bis zum Overkill gebügelt sind während die Texturen fröhlich flimmern, aber es geht um die öffentliche Meinung und da steht man auf einmal als AntiAliasing-König, statt als Flimmerbetrüger da. :uup:

Gast
2009-04-18, 20:01:53
Es bringt nichts eine flimmerfreie Ruckelshow zu erleben.
Blödsinn.
Wegen den albernen 30-50% solls ruckeln?

Ach die armen GTX 285 Besitzer, müssen sie alle ein ständiges Ruckeln ertragen, während es bei 4890 Besitzer rund läuft. :rolleyes:

NV wird sicher dauerhaft diesem Weg folgen. Welchen?

san.salvador
2009-04-18, 20:12:15
FPS > BQ

So ist es und so wird es immer bleiben. Es bringt nichts eine flimmerfreie Ruckelshow zu erleben. Daher hat ATI den richtigen Weg eingeschlagen und beitet einen ausgewogenen Kompromiss, der für die überwiegende Mehrheit der Käufer annehmbar ist.

NV wird sicher dauerhaft diesem Weg folgen.
Liest du den Krampf eigentlich bevor du ihn hier präsentierst?

V2.0
2009-04-18, 20:28:06
Seht euch die Verkäufe an. Wenn sich eine gravierende Menge an Käufern für ein Einschränkungen bei ATI interessieren würde, dann würde man nicht solche Verkaufszahlen gehabt haben.
Fakt ist, dass ATI momentan eine vergleichbare Anzahl an FPS für weniger Geld bietet. Das können sie tun weil Ihr Chip weniger groß ist und das PCB weniger komplex.

In einschlägigen foren mag es anders aussehen, an der Verkaufstheke sieht es aber ganz anders aus. Selbst die seltenen informierten Käufer kennen im besten Falle nur die ungefähre Leistungsfähigkeit der Karten (mit Glück mit AA+AF) und entscheiden dann nach dem Preis.

Daher kann man es nicht anders sagen, als dass ATI den richtigen Weg beschritten hat. Mit richtig meine ich keineswegs für den Endkunden vorteilhaft, sondern nur für den Hersteller ertragreich.

Und daran ändert sich nichts bis die BQ einen gravierenden Einfluss auf die Gesamtnote einer Grafikkarte in den großen Printmedien und Internetreviews hat.

=Floi=
2009-04-18, 20:38:09
um mal ganz ot zu werden. Auf den konsolen ist das ganze ja noch eine ecke schlimmer und die leute kommen ja von diesem bereich. Dort gibt es ja auch keine forderung nach gescheitem AA und AF... "HD Gaming" zielt ja nur auf die auflösung und nicht auf die wirkliche bildqualität. Eben auch deswegen kann ich da das stillhalten der nv marketingzentrale nicht verstehen.

Es könnte mal jemand (anarchx? ;) ) einen eigenen thread dazu aufmachen, was durch eine optimierung der filter und der treiber möglich ist und wäre. Das ganze auch gerne mit nv über NV Performance und High Performance.

Gast
2009-04-18, 21:57:21
In einschlägigen foren mag es anders aussehen, an der Verkaufstheke sieht es aber ganz anders aus. Selbst die seltenen informierten Käufer kennen im besten Falle nur die ungefähre Leistungsfähigkeit der Karten (mit Glück mit AA+AF) und entscheiden dann nach dem Preis.
Viele entscheiden nach den FPS bei 8xAA, 16x LQ AF

Demnach spielt BQ sehr wohl eine Rolle, nur eben wissen all die Käufer nicht, auf was für Schwachsinn sie ihre Verkaufsentscheidung stützen.

Der Gat weiter oben hat tatsächlich Recht, AMD gilt als BQ König, dank 8xAA, ab und an wird auch noch ED genannt.
Dann gibts noch die Fanboys die etwas über bessere Farben schreiben.
Unterm Strich wird natürlich die Sache mit AAA oder SSAA oder erst Recht AF unter den Teppich fallen gelassen. Wobei letzteres, da wirkt bis heute die GF7 Bashwelle, bei vielen hängt das für immer in den Köpfen, AMDs AF sei besser.

Gast
2009-04-18, 22:12:26
Und daran ändert sich nichts bis die BQ einen gravierenden Einfluss auf die Gesamtnote einer Grafikkarte in den großen Printmedien und Internetreviews hat.Eben das wird ja von einigen schon seit langer Zeit gefordert. Zu Anfang eben mit der Forderung ATI-Karten mit abgeschaltetem AI zu benchen. Wenn ATI den Kunden jetzt auch noch die Möglichkeit genommen hat, eine brauchbare BQ wenigstens mit einem dicken Leistungseinbruch zu erkaufen, muss dies meiner Meinung nach in jedem Test mit einer großen roten Warnung angemerkt werden.

Ein Statement würde mich da mal interessieren. Die PCGH sehe ich als ein großes und populäres Printmedium, die trotzdem noch die Qualität zu wahren versuchen. Zumindest auf der Onlinepräsenz wird die mangelnde Qualität der ATI-Produkte ja auch desöfteren angemahnt. Warum wird dort nicht auch bei Reviews deutlich vor dem Kauf von ATI-Karten gewarnt, möchte man denn gute BQ zu Gesicht bekommen? Auch auf den Umstand, dass die ATI-Karten nur deshalb schnell sind, weil sie massiv beim Texturfilter bescheißen, sollte unter jedem Balkendiagramm hingewiesen werden. Da hier ja auch ein paar PCGHler unterwegs sind: Ist sowas in irgendeiner Form geplant? Muss ja nicht gleich ganz meinen Vorschlägen entsprechen..;)

Nakai
2009-04-18, 23:21:55
Eben nicht. Du kennst das HWluxx Forum zu schlecht nehme ich mal an.


Doch, doch.;)

Eigentlich war das eher sarkastisch gemeint. Der NV-Flimmerartikel seitens 3DC hat doch auch Erfolg gefeiert.

HWLuxx hab ich aus der Auflistung nicht ohne Grund rausgenommen. Hier sind PCGHler und CBler unterwegs. Man sollte doch in der Lage sein, wenigstens im deutschen Raum mit dieses zwei größeren Hardwareseiten was zu erreichen.



mfg Nakai

Gast
2009-04-18, 23:32:55
Ist sowas in irgendeiner Form geplant?
Ganz sicher nicht.
PCGH lebt von seinen Lesern, sie können es sich nicht erlauben zu kritisch zu sein. ;)

Die Leser jaulen jetzt schon, teils auch aufgestachelt von AMD Fans, wenn irgend ein kritisches Wort in Richtung BQ fällt.

Gast
2009-04-18, 23:36:57
HWLuxx hab ich aus der Auflistung nicht ohne Grund rausgenommen.
Du meinst weil dort so viele AMD Fans unterwegs sind? ;)

Im Ernst, HWLuxx ist die letzte Seite, auf die man in der Beziehung zählen könnte. Da wird es einfacher Gamestar zu überzeugen, das die AMD Karten keine "perfekte anisotrope Filterung" (haben die tatsächlich geschrieben) bieten.

Nakai
2009-04-18, 23:51:29
Du meinst weil dort so viele AMD Fans unterwegs sind? ;)

Im Ernst, HWLuxx ist die letzte Seite, auf die man in der Beziehung zählen könnte. Da wird es einfacher Gamestar zu überzeugen, das die AMD Karten keine "perfekte anisotrope Filterung" (haben die tatsächlich geschrieben) bieten.

Nur so nebenbei. Ich mag ATI und ich mag AMD. Nur wenn man Kritik übt, kann man niemals beide Seiten zufriedenstellen. AMDler werden weinen und NVler machen sich nen Spaß drauß noch mehr Salz in die Wunde zu kippen. Jeder Mensch sympathisert mit einer Firma hier im Hardwarebereich.

Kaum ein normaler Mensch kommt aus dem Hardwareluxx-Jungle-Forum unbeschadet heraus. Das war ein Grund wieso ich dieses Forum seitdem meide. Wer denkt, dass hier Fanbois rumtorkeln, der war noch nie im Luxx...

Erstmal müssen die Reviewer umgestimmt werden, genauer auf die BQ zu achten. Dann müssen vor allem die Treiber deutlich genauer betrachtet werden, gibt es BQ-Einsparungen, wie viele Einstellungsmöglichkeiten gibt es?
Leider sind solche Tests sehr zeitaufwändig. Reviewer werden bestimmt schon an hre Grenzen gebracht.

PCGH lebt von seinen Lesern, sie können es sich nicht erlauben zu kritisch zu sein.

Zu kritisch müssen sie nicht sein, aber sehr objektiv und Probleme müssen angesprochen werden. Man muss kritisieren, aber nicht zu kritisch sein.


mfg Nakai

Thaquanwyn
2009-04-19, 00:11:57
FPS > BQ

So ist es und so wird es immer bleiben. Es bringt nichts eine flimmerfreie Ruckelshow zu erleben. Daher hat ATI den richtigen Weg eingeschlagen und beitet einen ausgewogenen Kompromiss, der für die überwiegende Mehrheit der Käufer annehmbar ist.
...

... was für ein Blödsinn - als ob man gute Bildqualität nur durch niedrige Frames erkaufen könnte! :eek:

Und sollte Nvidia tatsächlich wieder zu den elenden G70er-Zeiten zurückkehren, wird meine alte 8800GTS/640 eben noch länger durchhalten müssen ... :tongue: