PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie war das noch mal mit der X1xxx Reihe?


blackbox
2006-07-10, 15:59:52
Moin!
Wurde damals bei der Einführung der X1xxx Reihe nicht lautstark auch von den Reviewern darauf hingewiesen, dass diese Karten ihre Stärke vor allem bei zukünftigen Spielen ausspielen würden?
Und was ist nun? Nichts dergleichen ist eingetreten.
Wieder mal ein wundervoller Beleg dafür, wie wir den Herstellern blind vertrauen und manipulierbar sind.

Coda
2006-07-10, 16:05:39
Die "zukünftigen Spiele" gibts doch noch gar nicht.

Bei R520 kann sich das eh nur aufs dyn. branching beziehen und da werden wohl noch einige Tage ins Land gehen bevor das verwendet wird.

R580 könnte durch die höhere Shaderleistung aber auch so im Vorteil sein.

Neomi
2006-07-10, 16:07:17
Warum sollte sie ihre Stärken nicht ausspielen? Bei überzogenen Erwartungen in zu naher Zukunft ist Enttäuschung natürlich unabwendbar.

Gast
2006-07-10, 16:08:46
Bei der x1800 wurde schon damals bei Release ihre relativ niedrige arithmetische Leistung bemängelt. Das hat sich ja mit dem R580 nun geändert.

Was willst du mit diesem Thread überhaupt erreichen?

Gast
2006-07-10, 16:51:52
blackbox[/POST]']Wurde damals bei der Einführung der X1xxx Reihe nicht lautstark auch von den Reviewern darauf hingewiesen, dass diese Karten ihre Stärke vor allem bei zukünftigen Spielen ausspielen würden?

Tun sie doch?

Schau dir mal AoE3, Oblivon etc. an, da liegen die X1900 Karten meilenweit vorn...

Coda
2006-07-10, 16:55:06
Oblivion hat eher was mit der Hier-Z-Geschichte von ATi zu tun als mit überlegener Shaderleistung.

AnarchX
2006-07-10, 17:01:38
Gast[/POST]']Tun sie doch?

Schau dir mal AoE3, Oblivon etc. an, da liegen die X1900 Karten meilenweit vorn...

Nicht wirklich:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/15/#abschnitt_age_of_empires_3
Zudem rendern die X1-Karten nur im minderqualitativen INT10-HDR und die Geforces echtes FP16-HDR und dazu noch Supersampling in den Benches mit AA.

Gast
2006-07-10, 17:01:43
Naja, selbst wenn, ATI hat auch so schon noch Vorteile...

Zum einen verlieren die Karten auf X1800 und X1900 Basis sehr wenig Leistung, im Vergleich zur Konkurrenz, wenn die Auflösungen erhöht werden und noch 4xAA + 16xAF dazugeschaltet wird.

Das sehe ich schon als einen Vorteil an... denn die Auflösungen und Qualitätseinstellungen werden in "Zukunft" immer etwas höher gedreht und da erweist sich diese Karte schon als Vorteil.

Dazu kommt die Shaderpower, die momentan wohl noch kaum genutzt wird, jedenfalls nicht bei Spielen, die erst vor kurzem erschienen sind, sonst wäre der Unterschied zwischen X1800 und X1900 wohl deutlich größer.

Naja, aber das ganze ist eh sinnlos, weil wenn die Karten ihre Features voll ausspielen werden, dann ist schon D3D10 da. :)

Gast
2006-07-10, 17:04:35
AnarchX[/POST]']Nicht wirklich:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/15/#abschnitt_age_of_empires_3

Ähm...

1600x1200 4xAA/16xAF:
ATi Radeon X1900 XTX 36,4
ATi Radeon X1900 XT 35,0
nVidia GeForce 7900 GTX 27,8

Während nVidia in den kleinen auflösungen (sinnlos bei einer solchen High End Karte) noch mithalten kann, zieht ATI in den oberen weit davon.

Das ist doch genau das, was die damals gemeint haben.
Entweder werden die Spiele schneller, weil sie mehr Shader nutzen, oder aber, wegen der besseren Performance in höheren Auflösungen.

Da hat ATI momentan die Nase vorn.

AnarchX
2006-07-10, 17:06:58
Gast[/POST]']Ähm...

1600x1200 4xAA/16xAF:
ATi Radeon X1900 XTX 36,4
ATi Radeon X1900 XT 35,0
nVidia GeForce 7900 GTX 27,8

Während nVidia in den kleinen auflösungen (sinnlos bei einer solchen High End Karte) noch mithalten kann, zieht ATI in den oberen weit davon.

Das ist doch genau das, was die damals gemeint haben.
Entweder werden die Spiele schneller, weil sie mehr Shader nutzen, oder aber, wegen der besseren Performance in höheren Auflösungen.

Da hat ATI momentan die Nase vorn.

Den Rest auch von meinem Posting gelesen... ;)
Für die Vorteile die hier die ATI-Karten haben, sind sie eher lahm, bzw. sie kleben am CPU-Limit.

Gast
2006-07-10, 17:14:47
AnarchX[/POST]']Den Rest auch von meinem Posting gelesen... ;)

Habe ich, ist für mich belanglos, ich sehe da keinen Unterschied. :tongue:

Farcry, 1280x1024:
http://www.digit-life.com/articles2/digest3d/0506/itogi-video-fc1-wxp-1280-pcie.html

Da liegen X1900 und 7900 GTX noch gleichauf, doch wenn wir mal etwas an der Schraube von Auflösung und Qualität drehen, sieht es dann plötzlich so aus:

Farcry, 2048x1536, 4xAA + 16xAF
http://www.digit-life.com/articles2/digest3d/0506/itogi-video-fc1-wxp-aaa-2048-pcie.html

Da sieht man schon klare Vorteile, von der effizienteren Architektur, die bricht in den hohen Auflösungen nicht so stark ein.

Die Diskussion ist aber wie gesagt sinnlos, eben wegen D3D10. Da definiert sich sowieso alles neu, vorallem wenn dann die Shader nicht mehr getrennt voneinander sind.

Momentan haben wir eher das Problem, der zu teuren Displays. Die 24" TFTs müssten im Preis runter, denn erst damit sind auflösungen von 1920x1200 gut machbar und vorallem bezahlbar.

Gast
2006-07-10, 17:44:35
Gast[/POST]']Ähm...

1600x1200 4xAA/16xAF:
ATi Radeon X1900 XTX 36,4
ATi Radeon X1900 XT 35,0
nVidia GeForce 7900 GTX 27,8

Während nVidia in den kleinen auflösungen (sinnlos bei einer solchen High End Karte) noch mithalten kann, zieht ATI in den oberen weit davon.

Das ist doch genau das, was die damals gemeint haben.
Entweder werden die Spiele schneller, weil sie mehr Shader nutzen, oder aber, wegen der besseren Performance in höheren Auflösungen.

Da hat ATI momentan die Nase vorn.Nö. Die Testbedingungen sind nämlich nicht die gleichen, was du auch wüsstest, wenn du den Text gelesen hättest, anstatt nur auf die Balken zu glotzen.

Auf G7x-Karten kommt hier hochwertiges FP16-HDR-Rendering zum Einsatz, während auf den ATIs nur ein FX10-Modus geboten wird. Desweiteren wird bei den NV-Karten teures Supersampling-AA verwendet, während bei den ATIs schnelles MSAA genutzt wird.

Unter gleichen Einstellungen (die bei AoE3 leider nicht möglich sind), lägen die NV-Karten deutlich vorne. Leider erlaubt AoE3 bei ATI-Karten kein FP16-HDR-Rendering. Auch ist der G70/G71 nicht fähig MSAA auf ein FP16-Rendertarget anzuwenden.

Gast
2006-07-10, 17:54:29
Gast[/POST]']Habe ich, ist für mich belanglos, ich sehe da keinen Unterschied. :tongue:

Soll ich dir mal eine kleine Parabel erzählen?

Zwei Sackschlepper schleppen Säcke 100m weit. Der eine braucht 30 Sekunden, der andere 60 Sekunden. Der erste ist also doppelt so gut wie der zweite - solange man nicht berücksichtig, dass dessen Sack auch nur halb soviel gewogen hat, wie der des langsameren. :devil:



Und wenn du keinen Unterschied siehst, dann wohl eher, weil du keinen sehen willst. :P

Gast
2006-07-10, 17:55:51
Gast[/POST]']Auf G7x-Karten kommt hier hochwertiges FP16-HDR-Rendering zum Einsatz, während auf den ATIs nur ein FX10-Modus geboten wird. Desweiteren wird bei den NV-Karten teures Supersampling-AA verwendet, während bei den ATIs schnelles MSAA genutzt wird.

Es ist mir völlig schnuppe, wieviele unterschiedliche Verfahren zum Einsatz kommen, wenn das Ergebniss gleich ist und ich es nicht unterscheiden kann.

Der typischer Gamer interessiert sich solche Hintergründe nicht.

Ich gehe da sogar noch etwas weiter, denn vorallem bei Shootern wird immer so ein Hype um die Grafik gemacht, doch in wirklichkeit bekommt man gerade da noch weniger von mit, denn wer nur am Rennen, Schießen, Laufen, Springen ist, bekommt von dem Drumherum sowieso kaum was mit. Da zählen Frames mehr als ein paar glattere mikro pixel.

Aber das nur am Rande...

Gast
2006-07-10, 17:58:30
Gast[/POST]']Soll ich dir mal eine kleine Parabel erzählen?

[x] Hardware bleibt Hardware, Software bleibt Software, jeder andere vergleich ist völlig unangebracht.

Und wenn du keinen Unterschied siehst, dann wohl eher, weil du keinen sehen willst. :P

Mag vielleicht daran liegen, das ich mich wie viele andere eher um das Spiel kümmere, als um die Grafik, die ich sowieso nur genießen kann, wenn ich herumstehe oder ein paar Screenshots mache.
Doch gemessen an der weltweiten Masse, sind gerade diese Leute, in der Minderheit.

Frag mal einen typischen Gamer, was "FP16-HDR-Rendering" sein soll. :)

Gast
2006-07-10, 17:58:56
Gast[/POST]']
Da sieht man schon klare Vorteile, von der effizienteren Architektur, die bricht in den hohen Auflösungen nicht so stark ein.
Effizient? 384M Transistoren, 120 Watt gemessener Verbrauch? Effizient ist was anderes.
Gast[/POST]']
Entweder werden die Spiele schneller, weil sie mehr Shader nutzen, oder aber, wegen der besseren Performance in höheren Auflösungen.

Spiele werden nicht schneller, weil sie mehr Shader nutzen - meistens werden sie dadurch eher langsamer.
Die Performance in hohen Auflösungen liegt an.... einem Teil der 106M zusätzlichen Transistoren.

Gast
2006-07-10, 18:05:58
Gast[/POST]']Effizient? 384M Transistoren, 120 Watt gemessener Verbrauch? Effizient ist was anderes.

Du kannst in jedem Bereich eine Effizienz Rechnung aufstellen. Doch was nützt dir das? Jeder setzt die Prioritäten so, wie sie ihn am besten gefallen.

Effizienz gemessen an frames...
Effizienz gemessen an Stromverbrauch
Effizienz gemessen an Transistorenmenge
Effizienz gemessen an Preis
Effizienz gemessen an Performance in Shaderintensiven Applikationen
...

Meine persönliche Meinung: Mir ist es wurscht, wieviel Strom eine Grafikkarte frisst, so lange sie mit Luft kühlbar bleibt und bezahlbar ist.
Eben deshalb, weil ich es mir leisten kann...

Es steht dir frei, eine andere Meinung zu haben, doch das wird niemals etwas an meiner ändern.

deekey777
2006-07-10, 18:06:30
Gast[/POST]']Nö. Die Testbedingungen sind nämlich nicht die gleichen, was du auch wüsstest, wenn du den Text gelesen hättest, anstatt nur auf die Balken zu glotzen.

Auf G7x-Karten kommt hier hochwertiges FP16-HDR-Rendering zum Einsatz, während auf den ATIs nur ein FX10-Modus geboten wird. Desweiteren wird bei den NV-Karten teures Supersampling-AA verwendet, während bei den ATIs schnelles MSAA genutzt wird.

Unter gleichen Einstellungen (die bei AoE3 leider nicht möglich sind), lägen die NV-Karten deutlich vorne. Leider erlaubt AoE3 bei ATI-Karten kein FP16-HDR-Rendering. Auch ist der G70/G71 nicht fähig MSAA auf ein FP16-Rendertarget anzuwenden.
Vielleicht reicht das INT10 "HDRR" aus bzw. hochwertig genug? Nur so ein Gedanke.
Und während ATi 4xMSAA verwendet, wird bei nVidia 1,5xSSAA benutzt. Und jetzt stelle ich eine Frage: Welche Methode ist wirklich besser und dabei schneller - 4xMSAA&INT10 oder 1,5xSSAA&FP16?

Gast[/POST]']Es ist mir völlig schnuppe, wieviele unterschiedliche Verfahren zum Einsatz kommen, wenn das Ergebniss gleich ist und ich es nicht unterscheiden kann.

Der typischer Gamer interessiert sich solche Hintergründe nicht.

Ich gehe da sogar noch etwas weiter, denn vorallem bei Shootern wird immer so ein Hype um die Grafik gemacht, doch in wirklichkeit bekommt man gerade da noch weniger von mit, denn wer nur am Rennen, Schießen, Laufen, Springen ist, bekommt von dem Drumherum sowieso kaum was mit. Da zählen Frames mehr als ein paar glattere mikro pixel.

Aber das nur am Rande...
Dann bist du im falschen Forum.

Gast
2006-07-10, 18:11:53
Gast[/POST]']Spiele werden nicht schneller, weil sie mehr Shader nutzen - meistens werden sie dadurch eher langsamer.

Das hat niemand behauptet.

Es ging um den direkten Vergleich.
Die ATI Karten werden momentan umso *besser*, je höher du die Auflösung und Bildqualität schraubst, im vergleich zur direkten Konkurrenz.
Das bei Shaderintensiven Anwendungen die frames generell niedriger ist, ist für diesen Vergleich irrelevant.

Wie gesagt, momentan. Mit den nächsten Chips kann das schon wieder ganz anders aussehen, deshalb sind solche Aussagen nie langfristig zu treffen.

tokugawa
2006-07-10, 19:56:55
Ach, legt doch mal bitte die nichtige Aussage "das interessiert die Gamer nicht" ab.

Wir sind hier in einem technikaffinen Forum, hier kann man in Diskussionen schon tiefer in die Materie greifen als es der durchschnittliche E-Sportler könnte.


Vor allem wenn der Threadstarter gleich in die technische Materie eingreift, dann ist jede Aussage "aber die Technik ist ja egal, weil der Gamer das eh nicht versteht" sowieso off-topic.


Zum Threadstarter ist zu sagen: mit zukünftig war noch zukünftiger gemeint. Es gibt durchaus schon Algorithmen und Effekte, die von der höheren Shaderrechenleistung (relativ zur Texelleistung) profitieren, nur sind diese noch kaum in Spielen verbreitet.

The_Invisible
2006-07-10, 20:14:04
Gast[/POST]']Es ist mir völlig schnuppe, wieviele unterschiedliche Verfahren zum Einsatz kommen, wenn das Ergebniss gleich ist und ich es nicht unterscheiden kann.

Der typischer Gamer interessiert sich solche Hintergründe nicht.

Ich gehe da sogar noch etwas weiter, denn vorallem bei Shootern wird immer so ein Hype um die Grafik gemacht, doch in wirklichkeit bekommt man gerade da noch weniger von mit, denn wer nur am Rennen, Schießen, Laufen, Springen ist, bekommt von dem Drumherum sowieso kaum was mit. Da zählen Frames mehr als ein paar glattere mikro pixel.

Aber das nur am Rande...

den typischen gamer interessieren auch keine benchmarks, AA, AF, HDR, Auflösung oder sonstigen schnickschnack, man hat glück wenn er überhaupt ins optionsmenü schaut, gottseidank passen viele spielen die details eh schon an die hardware an. das control panel könnte sich nvidia und ati vielleicht auch noch schenken wenn es nach dem mehrheit der spieler gehen würde.

und benchmarks sind nun mal vergleichswerte, wenn da jede karte immer mit anderen einstellungen getestet werden würde wärs eh sinnlos. beim beispiel AoE3 kann man nur sehen das die x1800xt voll abloost (*auch mal die hier im forum üblichen sinnlosen übertreibungen gebrauch*)

mfg

Gast
2006-07-10, 20:18:31
tokugawa[/POST]']Wir sind hier in einem technikaffinen Forum, hier kann man in Diskussionen schon tiefer in die Materie greifen als es der durchschnittliche E-Sportler könnte.

Tiefer in die Materie greifen bedeutet auch, die Praxisrelevanz zu beleuchten.
Wenn kein Unterschied sichtbar für die Mehrheit, ist es dann nicht egal, wie dieses Ergebniss erreicht wird?

Vor allem wenn der Threadstarter gleich in die technische Materie eingreift, dann ist jede Aussage "aber die Technik ist ja egal, weil der Gamer das eh nicht versteht" sowieso off-topic.

Ganz im Gegenteil. Es passte sehr gut ins Topic.
Der Threadersteller fragte nach der versprochenen Performance, danach der Einwand (von einem Member), dieser und jener Benchmark sei nicht vergleichbar (gibts überhaupt einen? :)), Fakt ist doch eher, das die Karten bei relativ neuen Games schon starke Vorteile aufzeigen. Nur sind die halt noch in der Minderheit.

Und da stellt sich noch ein Problem: Wenn die Zukunftsvorhereinsage eintrifft, dann sind schon die Nachfolgechips da, welche es nochmal besser machen und womöglich in ähnlichen Preisregionen liegen... also von daher, fängt das Spiel immer wieder von vorne an und die Fragestellung ist somit eher theoretischer Natur.

Gast
2006-07-10, 20:24:00
The_Invisible[/POST]']beim beispiel AoE3 kann man nur sehen das die x1800xt voll abloost (*auch mal die hier im forum üblichen sinnlosen übertreibungen gebrauch*)

Das hat aber einen logischen Grund und kommt nicht von ungefähr...

"Interessanterweise scheint die Radeon-X1900-Serie „Age of Empires 3“ auf die Sprünge zu helfen, was mit aller Wahrscheinlichkeit die Vermutung bestätigt, dass die X1800-Reihe die Schatten aufwendig im Pixel-Shader berechnen muss: Der R580 kann dort Fetch4 benutzen, weswegen man in jenem Spiel gegen nVidias PCF-Implementierung – mit Ausnahme der nicht vorhandenen bilinearen Filterung in der TMU – keinerlei Nachteile mehr hat."

Nun wirst du aber kaum noch andere Games finden, bei denen das auch so ist. Ein Ausnahmefall sozusagen. Hier gilt dann wieder die Praxisrelevanz. Es gibt eben nicht nur ein Game, sondern auf den Markt mehrere tausende.

Gast
2006-07-11, 08:23:54
Gast[/POST]'][x] Hardware bleibt Hardware, Software bleibt Software, jeder andere vergleich ist völlig unangebracht.
Schade, dass du nichtmal willens bist, so eine kleine Transferleistung zu erbringen. Aber wenn du lieber die Keule willst, bitte.

Ati tut hier weniger, also sind sie schneller.

Was du siehst, nicht siehst oder sehen willst, ist eigentlich völlig irrelevant für diese Diskussion (natürlich aber nicht für deine eigene Meinung).



Gast[/POST]']Frag mal einen typischen Gamer, was "FP16-HDR-Rendering" sein soll. :)

Frag einen typischen Gamer, was FSAA und AF sind. :P

BTW, gerade in AoE3 sieht man es recht deutlich...

Ronin2k
2006-07-11, 08:43:16
na das will ich mal sehen bei aoe3 mit dem hdr unterscheid von nvidia und ati :) screens bitte :D

The_Invisible
2006-07-11, 12:39:19
Ronin2k[/POST]']na das will ich mal sehen bei aoe3 mit dem hdr unterscheid von nvidia und ati :) screens bitte :D

das hat mit unterschied nix zu tun sondern mit der vergleichbarkeit... zb man nehme oblivion einmal mit bloom und hdrr, selbst wenn es gleich aussieht kann man es NICHT vergleichen in benchmarks

mfg

Gast
2006-07-11, 16:36:09
also das ist doch irgendwie unsinn....
wer sagt nun denn was vergleichbar ist?
ich glaube jeder weiß nun mal dass die gpus der verschiedenen hersteller unterschiedlich arbeiten und natürlich auch unterschiedliche stärken und schwächen haben.

ich geh jetzt mal her und drück zwei leuten einen bleistift in die hand.
einer bekommt ausserdem noch ein lineal.
jetzt soll jeder mal so schnell wie möglich 100 gerade linien auf ein leeres blatt papier bringen.
so....
und was kann man nun vergleichen?
100 striche - so schnell wie möglich? egal wie sie aussehen?
100 gerade striche - absolut identisches aussehen bitte - egal wie man das anstellt?
was soll denn der unsinn?
wenn einer etwas nicht kann ist kann ers eben nicht!
und der andere kann eben etwas anderes nicht!

weil ati kein fp16-hdr kann sind sie schlechter? dafür aber schneller?
oder ist nvidia schlechter weil sie nicht wie ati das schnellere int10-hdr benutzen?
weil nvidia kein msaa bei hdr kann sind sie besser? dafür aber auch langsamer?
oder ist ati schlechter weil sie nicht das unnötige ssaa rendern?

ati kann sachen die nvidia nicht kann und nvidia kann sachen die ati nicht kann.
und?
wollen wir jetzt zu ihnen gehen uns sie dazu zwingen dass jeder alles kann?
hm.....
oder machen wir uns es einfach....
nur ati muss nachziehen und auch alles machbar machen was nvidia jetzt schon kann.
oder doch andersherum?
soll nvidia nachziehen und alles machbar machen was ati jetzt schon kann?

am besten gehen wir jetzt auch noch zu intel und zu amd und verlangen dass ihre cpus bei jedem takt genau das selbe machen.
so dass sie rein nur anhand der taktraten vergleichbar sind.
weg mit so unsinn wie mmx, sse, sse2, sse3, 3dnow und wie der ganze unsinnige firlefanz noch so heisst....
brauchen wir alles nicht!

wenn man am ende den unterschied nicht sehen kann ist es doch im prinzip egal wie das ergebniss zustande kam....
und wer dann schneller ist hat gewonnen....
oder doch nicht?
wenn man den unterschied sehen kann.....
ist dann der der gewinner der das bessere aber langsamere bild liefert?
oder der der das schnellere aber schlechtere bild liefert?
ab wann ist ein unterschied relevant?
beim ersten pixel das um ein bit von dem des anderen abweicht?
oder erst dann wen man selbst beim schnellen spielen mit bloßen auge es erkennen kann?

kann mal einer auf den alle hören hier ein machtwort sprechen und mal schnell so eben bestimmen was gut und was böse ist?
also auch gleich mal festlegen welches aa und welches af das bessere und vorallem das richtigere ist.
damit wir gleich mal wissen warum man auf wen schimpfen muss.....

denk mal alle nach über den unsinn den ihr da reihenweise von euch gebt!

Gast
2006-07-13, 13:26:48
Gast[/POST]']also das ist doch irgendwie unsinn....
wer sagt nun denn was vergleichbar ist?

...

Wieso schreibst du diesen Text nicht als Member? Denn genau das bringt es doch auf den Punkt.

AnarchX
2006-07-13, 14:30:06
@ Gast:
Wenn du deinen Text nochmal in einer vernünftigen Form niederschreiben könntest, würden wohl die meisten in Erwägung ziehen ihn auch zu lesen.

Gast
2006-07-13, 18:27:12
Gast[/POST]']Tiefer in die Materie greifen bedeutet auch, die Praxisrelevanz zu beleuchten.
Wenn kein Unterschied sichtbar für die Mehrheit, ist es dann nicht egal, wie dieses Ergebniss erreicht wird?


Nur weil Gamer keinen Unterschied wahrnehmen, heißt das nicht, dass keiner vorhanden ist.

Und gerade wenn man dann technikaffiner ist, und die Hintergründe kennt, bekommt man erst den Durchblick, dass man die Unterschiede auch bewußt wahrnimmt.

Kopf in den Sand stecken und zu sagen "ich weiß von nix" - solche Leute werden selbst für deutliche Unterschiede blind sein.

tokugawa
2006-07-13, 18:28:03
Gast[/POST]']Nur weil Gamer keinen Unterschied wahrnehmen, heißt das nicht, dass keiner vorhanden ist.

Und gerade wenn man dann technikaffiner ist, und die Hintergründe kennt, bekommt man erst den Durchblick, dass man die Unterschiede auch bewußt wahrnimmt.

Kopf in den Sand stecken und zu sagen "ich weiß von nix" - solche Leute werden selbst für deutliche Unterschiede blind sein.

Sorry, der Post stammt von mir - hatte grad meinen neuen Rechner aufgesetzt (mit eben einer X1900 XT...).

Gast
2006-07-16, 18:39:11
AnarchX[/POST]']und die Geforces echtes FP16-HDR und dazu noch Supersampling in den Benches mit AA.
Und dazu noch? Dachte die GeForces die irgendeinqualitatives HDR und AA können sind noch nicht verlötet worden...

Gast
2006-07-16, 19:13:26
Gast[/POST]']Nur weil Gamer keinen Unterschied wahrnehmen, heißt das nicht, dass keiner vorhanden ist.

Nur weil einer Unterschiede wahrnehmen kann, heißt das natürlich nicht, das alle anderen es ebenso können. Das hat nichts mit Blindsein zu tun.
Meine Augen sind noch sehr gut in Schuss und abgesehen von den AA und AF Effekten, finde ich die hier angesprochenen unterschiede mehr als nur marginal, wenn sie überhaupt mal sichtbar sind.

Dazu kommt die Praxisrelevanz: Ein typischer Gamer dominiert immer (noch) den großteil des Marktes. Dieser Gamer hat oftmals kaum Technikerfahrung, was aber nichts zur Sache tut. Er hat Augen.

Doch da fängt es an. Bei einem Shooter, einem Rennspiel oder irgendeinem anderen "schnellem" Spiel, sind solche Unterschied gar nicht wahrnehmbar. Bei einem Rennspiel konzentriere ich mich aufs fahren, bei einem Ballerspiel auf zielen...

Also selbst wenn ich wüsste, worauf ich zu achten hätte, würde ich sie hier spätestens gar nicht mehr wahrnehmen. Auf Screenshots vielleicht, als Rollenspieler vielleicht auch, doch da fängt es schon wieder an.
Diejenigen die Screenshots machen und meist noch irgendwo posten, wissen bereits mehr als der typische Gamer, sind in Foren unterwegs und wissen eventuell worauf sie zu achten haben. Doch selbst das sind noch Minderheiten gemessen an allen.

Manchmal ist Unwissenheiten auch ein Segen... wenn ich beispielweise wüsste, das in der Wohnung an einer nicht sichtbaren Stelle A, B, C Dreck liegen würde, könnte ich nicht mehr so ruhig schlafen, wie jetzt, bevor ich es nicht weg gemacht hätte... tja, wie sieht die Realität aus? ;)

The_Invisible
2006-07-16, 21:07:34
Gast[/POST]']Und dazu noch? Dachte die GeForces die irgendeinqualitatives HDR und AA können sind noch nicht verlötet worden...

stimmt schon, mit (teuren) SSAA ist auch mit Geforces >=6 HDR möglich wie AoE3 zeigt

mfg

Gast
2006-07-16, 21:10:12
Gast[/POST]']Und dazu noch? Dachte die GeForces die irgendeinqualitatives HDR und AA können sind noch nicht verlötet worden...Nur Multisampling-Antialiasing funktioniert nicht. SSAA ist kein Problem, sofern es der Spieleentwickler berücksichtigt hat.

Coda
2006-07-16, 21:41:14
Naja ordered grid Supersampling ist aber nun wirklich keine Lösung.

Raff
2006-07-16, 21:54:17
Wenn die Leistung da ist: doch. Das dürfte aber nicht oft der Fall sein.

MfG,
Raff