PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pro nVidia - aber warum eigentlich???


Seiten : [1] 2

Hübie
2012-08-17, 10:30:11
MadManniMan und einige andere aus unserem Forum interessiert mal warum ihr eigentlich eher zu einer nVidia-Karte greift als zu AMDs Pendant die ja sicher nicht (wesentlich) schlechter in der Leistung und Ausstattung sind.

Immerhin sind dieses Jahr zwei wichtiges nVidia-only-features flöten gegangen: Downsampling ist auf Radeons (bedingt) machbar und SSAA wird nativ per Treiberpanel mit automatischer LOD-Verschiebung in allen APIs angeboten. Auch die Filterung ist nun auf hohem Niveau angelangt. 3D ist zwar frickeliger als bei nVidia aber ebenfalls (problemlos?) möglich.

Ich z.B. habe mich damals für die GTX 580 entschieden weil die damals features wie DS, SGSSAA und HQAF für sich beanspruchte aber vor allem viel Leistung bot und teils immer noch bietet. Nach ein, zwei Wochen eingewöhnungsphase mit inspector&co war ich absolut überzeugt (seit R300! war ich FanAtiker).

robbitop
2012-08-17, 10:35:33
Ganz klar die Software! Die Treiber sind etwas ausgereifter und stabiler, SLI ist wesentlich nutzbarer als CF (auch Treiber - mehr Profile, schneller Profilupdates, NV tut mehr gegen µ-Ruckeln), PhysX (ok hat keine sooo große Bedeutung) und vor allem die Kompatibilitäts-Bits.
Man bekommt damit wesentlich mehr Spielen AA aufgezwungen. Das ist für mich persönlich das Wichtigste.

Raff
2012-08-17, 10:38:30
Ich schätze bei GeForce-Karten vor allem die Möglichkeiten am Rande.

AA geht nicht? Bits reinfrickeln, tada.
Leistung reicht nur für 4x SGSSAA? 16x CSAA + 4x SGSS, olé!
Physik ist lahm? GPU-Physx hilft in 5-6 Spielen.
Das Bild teart? Adaptive VSync hilft.
Open GL flimmert? SGSSAA läuft, Hybridmodi erledigen den Rest.

Solche Dinge. Dennoch habe ich gerade eine Radeon drin, weil die ebenfalls Exklusives beherrscht. Und zwar superschnell. ;)

MfG,
Raff

Sturmwind80
2012-08-17, 10:45:57
Ich kaufe lieber eine GeForce Karte wegen Physx. Gerade wenn ich mir den Borderlands 2 Trailer anschaue finde ich die Unterschiede mit und ohne Physx ziemlich extrem.

Außerdem gefallen mir die Treiber besser. Zumindest mit der ATI 4870 hatte ich wesentlich mehr Treiberprobleme. Diese sind mir bei der 560Ti noch nicht untergekommen.

MadManniMan
2012-08-17, 10:46:36
Ich verbuche die Kompatibilitätsbits jetzt mal unter den Einstellmöglichkeiten und mache da ein [x] und dann gibt es da noch dieses seltsame [x] 3D Vision.

Nettes Zeugs!



PS: Vielen Dank für die Credits :D

Iruwen
2012-08-17, 10:55:20
Kompatibilitätsbits + Inspector und demnächst hoffentlich manuelle LOD-Anpassung in allen APIs. Ich mag keine Automatiken wenn es nicht alternativ/optional manuelle Optionen gibt.

/e: scheint als hätte NV Orbmu2k einige verkaufte Karten zu verdanken :D

robbitop
2012-08-17, 11:06:31
Das ist das dumme an AMD (Graphics Dept): sie sind Softwareseitig einfach nicht aggressiv genug. NV denkt sich ständig was neues aus und vermarktet das auch gut. Software ist da die halbe Miete. AMD tut offenbar nur, was absolut nötig ist.
Wenn ich da CEO wäre, würde ich die SW Abteilung deutlich verstärken, um Ähnliches zu leisten.

Natürlich sind AMDs Treiber nicht schlecht und die Features sind auch gut. Aber wer möchte (in der Gesamtheit) schon das Zweitbeste?
Da bin ich persönlich auch bereit ein paar fps zu opfern und die leicht schlechtere HW zu kaufen wenn nötig.

boxleitnerb
2012-08-17, 11:10:23
Kompatibilitätsbits (SLI, AA). Toller Support hier im Forum (Dank an Blaire!)
Viele Einstellungsmöglichkeiten (ich kenne kein so gutes Tool wie den Inspector)
AA geht öfters zu erzwingen, glättet mitunter auch besser
Mit dem dauerhaften AF-Gefrickel 2006-2012, der Bindung von CF-Optimierungen an AF-Optimierungen, die Bevormundung beim Tessellierungsgrad (die dann nichtmal umgesetzt wurde, und seitdem wurden Null Information veröffentlicht, wie es denn damit weitergeht, was für mich dann ein noch größerer Fail ist) und dem Fehlen von Anwendungsprofilen bis 2011 hat AMD mein Vertrauen vorerst verspielt. Diese negativen Eindrücke haben sich erstmal festgesetzt. Ich will keine Karte von einer Firma kaufen, die meint, Dinge für mich entscheiden zu müssen. Da passt dann auch der erste Punkt in der Liste mit den Bits dazu - die waren bis vor einiger Zeit ja sogar verschlüsselt bei AMD, also die Profile soweit ich weiß.
Extra BQ-Features wie AA-Hacks (Batmangate, hust), PhysX (im Moment naja) und Treiber-AO. Sicher, das ist für Nvidia vorrangig Mittel, Karten zu verkaufen. Aber ich fühle mich hier als Kunde mehr geschätzt, mir wird mehr geboten.

Soul
2012-08-17, 11:13:30
Ich war dieses mal echt nah dran eine nV zu kaufen aber habe dann doch zur 7970 als Schnäppchen gegriffen und finde die Karte einfach gut. Fast lautlos und schnell.

Benedikt
2012-08-17, 11:13:33
Ein Wort: Linux.

Iruwen
2012-08-17, 11:26:59
Ich war dieses mal echt nah dran eine nV zu kaufen aber habe dann doch zur 7970 als Schnäppchen gegriffen und finde die Karte einfach gut. Fast lautlos und schnell.

Das würde noch annäherungsweise in den Thread passen wenn du wenigstens dazugeschrieben hättest warum du keine Nvidia Karte gekauft hast :rolleyes:

PS: schrieb sich das früher mal nVidia oder warum schreiben das viele so? Aktuell findet man nur Nvidia oder NVIDIA (offiziell).

Tesseract
2012-08-17, 11:29:18
mehr und bessere einstellungsmöglichkeiten und die konstantere treiberperformance die sich nicht nur an benchmarks sondern an der praxis orientiert.

schrieb sich das früher mal nVidia oder warum schreiben das viele so?
ja

Raff
2012-08-17, 11:29:31
Das ist das dumme an AMD (Graphics Dept): sie sind Softwareseitig einfach nicht aggressiv genug. NV denkt sich ständig was neues aus und vermarktet das auch gut. Software ist da die halbe Miete. AMD tut offenbar nur, was absolut nötig ist.
Wenn ich da CEO wäre, würde ich die SW Abteilung deutlich verstärken, um Ähnliches zu leisten.

Natürlich sind AMDs Treiber nicht schlecht und die Features sind auch gut. Aber wer möchte (in der Gesamtheit) schon das Zweitbeste?
Da bin ich persönlich auch bereit ein paar fps zu opfern und die leicht schlechtere HW zu kaufen wenn nötig.

Generell stimme ich dir da zu, aber es gibt auch Ausnahmen. AMD hat erst vor einiger Zeit SGSSAA für DX10+ eingeführt und bewirbt das in jedem PDF und auf der Website der HD-7000-Produkte. SGSSAA generell kommt auch von AMD/Ati (HD-5000-Killerfeature Anno 2009). Da müsste aber noch viel mehr kommen.

MfG,
Raff

Merawen
2012-08-17, 11:40:15
Die Treiber.

Ja, ja die Treiber von ATI sind genauso gut, laufen mit genauso vielen Spielen zusammen etc. etc. etc.

Das hört man immer wieder, und jedesmal wenn ich mir mal eine ATI Karte gekauft hatte (9700, 2800XT und 5850) machte der Treiber Probleme.
Mal musste man die Exe umbennen (für Everquest 2, sonst funzte dort gar kein AA, Transparenz AA funktionierte aber trotzdem nicht), mal ging keine Custom Auflösung für den Desktop bzw. nur mit Hilfe von Powerstrip, mal war die Schrift durch SSAA total vermatscht (EVE Online), mal gab es alle 20-30 Sekunden einen Minihänger (WoW). Mit NVIDIA lief das problemlos, bei WoW und der 5850 hab ich 4 oder 5 Treiberversionen (glaub von 10.1 bis 10.6) abgewartet, keine Besserung. Bin dann wieder zur NVIDIA zurück.

Vielleicht probier ichs dann so in 3-4 Jahren nochmal.

Mir ist klar dass jetzt jemand kommt und erklärt die von mir erwähnten Sachen funktionieren doch inzwischen.
JA JETZT vielleicht, aber zu dem Zeitpunkt als ich die Karten hatte und diese Spiele zu 90% gespielt habe nicht.

M4xw0lf
2012-08-17, 11:40:52
Der NV-Inspector reißts raus. Gratulation an Nvidia für die großartige Arbeit die sie mit diesem Tool geleistet haben. :freak:
Warum gibts sowas nicht auch auf AMD-Karten? Sind die Treiber nicht "offen" genug, oder gibts im Radeon-Lager einfach niemanden der genug Ahnung und Fan-Blut hat um sowas zu basteln?

schreiber
2012-08-17, 11:41:20
Allein schon wegen Treiberprofilen würde mir ein Wechsel zu AMD schwer fallen. Unfassbar, dass so etwas nicht angeboten wird.

M4xw0lf, nvidia hat eine API dafür eingeführt. Ich glaube, das gibt es bei AMD in der Form wirklich nicht und man muss in der Registry rumfummeln inkl. komplizierter Hardware-Erkennung.

Raff
2012-08-17, 11:44:29
Der NV-Inspector reißts raus. Gratulation an Nvidia für die großartige Arbeit die sie mit diesem Tool geleistet haben. :freak:
Warum gibts sowas nicht auch auf AMD-Karten? Sind die Treiber nicht "offen" genug, oder gibts im Radeon-Lager einfach niemanden der genug Ahnung und Fan-Blut hat um sowas zu basteln?

Mit den Ati Tray Tools (ATT) konnte man eine zeitlang alles machen, was das Herz begehrt. Von Bits abgesehen. Der Schöpfer des Tools hängt bei neuen GPU-Generationen aber immer hinterher.

MfG,
Raff

kruemelmonster
2012-08-17, 11:48:37
Das würde noch annäherungsweise in den Thread passen wenn du wenigstens dazugeschrieben hättest warum du keine Nvidia Karte gekauft hast :rolleyes:

Da meine GTX 470 so langsam ins Schleppen kommt brauch ich so langsam auch ne neue Karte. Die 7950 hat mich schon in Grübeln gebracht, denke aber das ich bei einer GTX 670, wahrscheinlich die dreifach belüftete von Gigabyte, landen werde. PhysX in Batman und Mirrors Edge ist schon ein nice-to-have und sieht in Borderlands 2 auch ganz gut aus, dazu kommen die AA-Bits und die Möglichkeit die Anzahl der MSAA & SSAA Samples getrennt voneinander einstellen zu können.
Radeons machen auf mich mehr den Eindruck einer Blackbox, das Spiel geht auf der einen Seite rein und der Monitor zeigt es auf der anderen Seite an, ohne das ich da groß Einfluß nehmen kann.


PS: schrieb sich das früher mal nVidia oder warum schreiben das viele so? Aktuell findet man nur Nvidia oder NVIDIA (offiziell).

Schrub sich früher offiziell nVidia, sieht man auch heute noch am kleinen n im Logo:

http://www.abload.de/img/nvkfxie.png (http://www.abload.de/image.php?img=nvkfxie.png)

Lightning
2012-08-17, 11:50:10
Ich habe damals meine GTX460 hauptsächlich wegen der besseren Filterung und mehr (AA-)Optionen gekauft (PhysX ist ein kleines Extra dazu, allerdings kaum nutzbar). Das Preis/Performanceverhältnis war natürlich auch in Ordnung.

Würde ich jetzt eine neue Karte kaufen, wäre die Wahl wahrscheinlich nicht mehr so eindeutig, da AMD bei der Filterung nachgebessert hat. Allerdings habe ich immer noch das Gefühl, dass man bei NV mehr Freiheiten bei den Optionen hat.

Was die Treiber angeht, hatte ich zumindest früher mit AMD (damals noch ATi; R3xx, R420..) eigentlich keine schlechten Erfahrungen gemacht.

SamLombardo
2012-08-17, 11:53:49
Auch wenn das jetzt recht plakativ klingen mag: NVIDIA tut was fürs PC Gaming, während es mir bei AMD so vor kommt, als sei denen alles scheiss egal. Auch wenn es nur Kleinigkeiten sind, aber die PhysX Effekte in Arkham City oder die Cuda Effekte in Just Cause 2 bringen eben einen schönen Mehrwert im technischen Konsolenumsetzungs Einheitsbrei. Wenigstens ein Hauch von Exclusivitaet, den ich als PC Gamer, der mehrere Hundert Euro für eine Grafikkarte ausgibt nur zu gern genieße. NVIDIA setzt Ressourcen (Manpower für die Entwicklung und vor allem Dev Support) ein und hebt die PC Grafik noch ein Stückchen mehr über Konsolenniveau.

Der Hauptgrund ist für mich allerdings 3D Vision. Ist schon ein fantastischer Mehrwert der einem da geboten wird. Die platte Variante will ich gar nicht mehr. Schon daher kommt bei mir bis auf Weiteres nur Nvidia in Frage.

Gruss Sam

Sturmwind80
2012-08-17, 11:59:22
Der Stromverbrauch ist auch nicht unerheblich finde ich...

Hübie
2012-08-17, 12:05:47
Ja aber das ist halt kein (generationsübergreifendes) feature ;D Es geht ja hier um features die eine Kaufentscheidung noch mal rumreißen können. :smile:

boxleitnerb
2012-08-17, 12:09:23
Framemetering hab ich vergessen. Ich konnte es selbst noch nicht live erleben und auch nicht im Vergleich zu AMDs CF, das muss ich fairerweise sagen. Aber allein, dass Nvidia öffentlich sagt, sie tun was dagegen, das find ich schon bemerkenswert. Sie könnten das Feature allerdings stärker bewerben bzw. mehr Informationen oder ein Messtool veröffentlichen.

(del676)
2012-08-17, 12:13:55
Wegen der besseren Treiber.
Aktuell hab ich 2x 7950 im Rechner, welche Probleme ich damit hatte/habe?

Bei Crossfire BSODs und Systemabstuerze. Muss ULPS in der Registry disablen damits stabil is.
Problem bekannt seit dem allerersten Treiber fuer die HD7xxx Reihe.

Grad vor 1-2 Tagen - uninstall vom AMD Treiber resultierte in einem BSOD.

Hatte ich bei nvidia NIE - zumindest nicht mehr seit Windows 2000.

Hübie
2012-08-17, 12:14:10
Framemetering hab ich vergessen. Ich konnte es selbst noch nicht live erleben und auch nicht im Vergleich zu AMDs CF, das muss ich fairerweise sagen. Aber allein, dass Nvidia öffentlich sagt, sie tun was dagegen, das find ich schon bemerkenswert. Sie könnten das Feature allerdings stärker bewerben bzw. mehr Informationen oder ein Messtool veröffentlichen.

Das funktioniert aber erst seit GeForce 600 merklich ;) Offiziell ists seit G80 implementiert. Vermute da eh nur eine Treibergeschichte hinter.

boxleitnerb
2012-08-17, 12:16:55
Das funktioniert aber erst seit GeForce 600 merklich ;) Offiziell ists seit G80 implementiert. Vermute da eh nur eine Treibergeschichte hinter.

Fermi hat reines Software-Framemetering soweit ich weiß, bei Kepler ist es (zusätzlich?) hardwarebasiert. Was davor ist, weiß ich nicht.
Man hört ja immer, dass SLI smoother ist als CF, nie andersherum. Also scheint es ja schon recht gut zu funktionieren, und das nicht erst seit Fermi.

Tesseract
2012-08-17, 12:23:04
Der NV-Inspector reißts raus. Gratulation an Nvidia für die großartige Arbeit die sie mit diesem Tool geleistet haben. :freak:
Warum gibts sowas nicht auch auf AMD-Karten? Sind die Treiber nicht "offen" genug, oder gibts im Radeon-Lager einfach niemanden der genug Ahnung und Fan-Blut hat um sowas zu basteln?

weil nvidia eine API geschrieben hat (und diese auch pflegt) um tools wie den inspector zu ermöglichen und amd nicht, weil es ihnen offenbar egal ist ob es solche tools gibt oder nicht.

Reaping_Ant
2012-08-17, 12:24:04
Einstellmöglichkeiten und 3D Vision.

Ersteres ist eigentlich eher orbmu2k als NV zu verdanken.

Bei 3D Vision war NV einfach als erstes mit einer vernünftigen Lösung am Markt; und jetzt, da ich den Emitter und die Brille schon habe, müsste AMD mir schon etwas besseres bieten um mich zum Umsteigen zu bewegen. Davon abgesehen sehe ich NV's 3D Umsetzung mit all ihren Features (Browserplugin, 3D Vision Player, schnelle Unterstützung neuer Spiele) nach wie vor in Führung.

Meine letzte ATI war übrigens eine HD4870 X2; seitem hatte NV zum jeweiligen Kaufzeitpunkt einfach immer das bessere Gesamtpaket, wofür ich dann auch meist bereit war etwas mehr (in Relation zur reinen FPS-Leistung) auszugeben.

kunibätt
2012-08-17, 12:31:59
1.) Custom Bits for great justice !
2.) Die meisten Offline-Renderer löppen besser ( oder nur ) auf NV. Schade, denn hier könnte AMD mit 6GB Consumer Karten so richtig trumpfen. Könnte ;)

Langenscheiss
2012-08-17, 12:44:57
Kompatibilitätsbits (SLI, AA). Toller Support hier im Forum (Dank an Blaire!)
Viele Einstellungsmöglichkeiten (ich kenne kein so gutes Tool wie den Inspector)
AA geht öfters zu erzwingen, glättet mitunter auch besser
Mit dem dauerhaften AF-Gefrickel 2006-2012, der Bindung von CF-Optimierungen an AF-Optimierungen, die Bevormundung beim Tessellierungsgrad (die dann nichtmal umgesetzt wurde, und seitdem wurden Null Information veröffentlicht, wie es denn damit weitergeht, was für mich dann ein noch größerer Fail ist) und dem Fehlen von Anwendungsprofilen bis 2011 hat AMD mein Vertrauen vorerst verspielt. Diese negativen Eindrücke haben sich erstmal festgesetzt. Ich will keine Karte von einer Firma kaufen, die meint, Dinge für mich entscheiden zu müssen. Da passt dann auch der erste Punkt in der Liste mit den Bits dazu - die waren bis vor einiger Zeit ja sogar verschlüsselt bei AMD, also die Profile soweit ich weiß.
Extra BQ-Features wie AA-Hacks (Batmangate, hust), PhysX (im Moment naja) und Treiber-AO. Sicher, das ist für Nvidia vorrangig Mittel, Karten zu verkaufen. Aber ich fühle mich hier als Kunde mehr geschätzt, mir wird mehr geboten.


Abgesehen von der mMn nicht vorhandenen Bevormundung bezüglich des Tess-Grades (wo wird mir hier etwas vorgeschrieben, man kann doch immer die Applikation entscheiden lassen???) kann ich dem nur zustimmen. Würde noch ergänzend erwähnen, dass der OGL support besser ist, wenn gleich das jetzt nicht das Non-Plus-Ultra-Argument ist. Und generell gibt es mit AMD/ATI Karten häufiger Probleme mit speziellen Spielen. Klar es gibt immer Spiele, die auf einer bestimmten Karte besonders gut laufen, aber im Schnitt ist dies häufiger bei NV der Fall. Und die Treiber sind seit langem besser bei NV. Ich kann das alles sagen, weil ich sowohl NV-Karten als auch AMD Karten hatte.

Betonen möchte ich von deiner Liste auch nochmal, dass z.B. das SGSSAA von den NV-Karten häufig besser glättet. Das relativiert auch die etwas schlechtere Performance im Vergleich zu den Radeons.

boxleitnerb
2012-08-17, 12:47:43
Die AMD-Optimized Einstellung ist aber im Treiberdefault aktiv. Gut ist, dass es (noch) keine Profile dafür gibt. Schlecht ist aber andererseits, dass das so nichts Halbes und nichts Ganzes ist. Hat AMD das aufgegeben? Kommen noch Profile (heimlich?) Nenn es von mir aus "geplante Bevormundung", keine Ahnung. Es ist halt wieder der AMD-typische Hickhack.

Langenscheiss
2012-08-17, 12:54:51
Die AMD-Optimized Einstellung ist aber im Treiberdefault aktiv. Gut ist, dass es (noch) keine Profile dafür gibt. Schlecht ist aber andererseits, dass das so nichts Halbes und nichts Ganzes ist. Hat AMD das aufgegeben? Kommen noch Profile (heimlich?) Nenn es von mir aus "geplante Bevormundung", keine Ahnung. Es ist halt wieder der AMD-typische Hickhack.

Okay, dass das ganze nur eine dumme PR-Aktion war, die seit eh und je nicht gepflegt wurde, muss man AMD ankreiden. Aber unter Bevormundung stell ich mir nicht den vielleicht fragwürdigen Treiberdefault vor, sondern eine softwaretechnische Beschränkung, und die gibt es nicht. Um den Treiberdefault kümmere ich mich nicht. Man wirft doch auch Nvidia nicht vor, dass man sich für jedes Spiel noch selbst die AA-Bits raussuchen muss, die schließlich auch nichts mit dem Treiberstandard zu tun haben.

Naja, für mich ist das einzige Pro-Argument der Radeons zurzeit die automatisch LOD-Anpassung unter SGSSAA. Aber dieser Punkt allein reicht nicht, bei meinen schlechten Erfahrungen.

Tesseract
2012-08-17, 13:02:44
Man wirft doch auch Nvidia nicht vor, dass man sich für jedes Spiel noch selbst die AA-Bits raussuchen muss, die schließlich auch nichts mit dem Treiberstandard zu tun haben.

doch, das werfe ich ihnen schon vor. ist aber immer noch besser als die alternative.

Hübie
2012-08-17, 13:08:35
Werfe das eher der Faulheit/Geldgeilheit der Entwickler vor.

N0Thing
2012-08-17, 13:11:25
Ich habe in den letzten Jahren immer wieder zu einer Karte von nvidia gegriffen, weil nur dort SSAA und HQ-AF zu bekommen war. Inzwischen erfreue ich mich vor allem an der Möglichkeit, in vielen Spielen AA erzwingen zu können. Hier darf sich nvidia bei Grestorn und Orbmu2k bedanken.
Einfaches Downsampling und PhysX nehme ich als Bonus mit.

Iruwen
2012-08-17, 13:29:08
Werfe das eher der Faulheit/Geldgeilheit der Entwickler vor.
In einer perfekten Welt gäbe es bei jedem Spiel alle nötigen Bildverbesserer im Optionsmenü um jegliches Aliasing/Flimmern zu unterdrücken.
In unserer komischen Konsolenportierungs-idon'tgiveafuckaboutquality-Welt muss man halt fummeln.

gnomi
2012-08-17, 13:35:54
Aus Gewohnheit. Warum wechseln?
Abgesehen von einer Voodoo 1/3 und einer Kyro 2 hatte ich immer nvidia Karten. (ATI sogar noch nie im Desktop, nur als GPU in Konsolen)
Ich kenne & mag die Treiber. Ich mag die exzellenten Softwaretools unserer 3D Experten (atuner von aths, nhancer von Grestorn und jetzt Inspector von Orbmu2k)
Features wie HQAF, PhysX, AA Kompatibilitätsbits & Downsampling und deren Community Support finde ich auch allesamt klasse.
An den Karten selbst gibt es auch so gut wie nie was auszusetzen.
Manchmal sind sie eben etwas teurer als ATI, und je nach Spiel naturgemäß auch mal etwas langsamer oder schneller.
I.d.R. optimiert nvidia aber zügig und holt zum Release raus was geht. (ist mir wichtig, weil ich neue Spiele gleich zocken will)

Hakim
2012-08-17, 13:51:43
Früher mal wegen besseren Treibern und Einstellmöglichkeiten, AF usw. Inzwischen einfach aus Gewohnheit und Bequemlichkeit, da keine Umstellung. Wobei ich mir seit Gestern den Kopf zerbreche ob ich jetzt eine GTX660ti oder HD7950 holen soll. Die GTX660ti hat mich nicht so richtig überzeugt.

aufkrawall
2012-08-17, 13:54:30
Besserer Support fehlt bei den Umfrageoptionen.
Wenn man Bugreports macht, ist die Chance nämlich häufig hoch, dass die Fehler in zukünftigen Treiberversionen gefixt sind und dann tauchen sie sogar in den Release Notes auf.
Auch die kommende LOD-Verschiebung für DX11 (und vielleicht auch OpenGL?) hat das wieder gezeigt. Bei Nvidia hat man im Gegensatz zu AMD da als Kunde ne Chance.
Dass man bei Nvidia die Prerendered Frames einstellen und so den Input Lag mit Vsync verringern kann, ist auch klasse.

Die dusselige Gammakorrektur bei AMD ist auch schon wieder so eine abschreckende Geschichte. Machen die eigentlich auch mal Vergleiche mit on/off?
Anscheinend nicht.

Ich hatte ja 3 7970s und Treiberbugs + extrem miese Glättung bei Treiber-AA waren einfach zu viel bzw. zu wenig.
Bei Nvidia ist SSAA zwar nur inoffiziell, aber man kann es viel häufiger nutzen und es sieht einfach viel besser aus, häufig 100% perfekte Glättung.
Mit der kommenden LOD-Verschiebung für DX11 geht für AMD auch noch das letzte Exklusivmerkmal verloren.

Ich hab für SSAA, Einstellmöglichkeiten und sonstiges abgestimmt.

Hübie
2012-08-17, 13:59:10
Das fällt dann wohl unter sonstiges ;)

wrdaniel
2012-08-17, 14:42:47
+ Ambient Occlusion

z3ck3
2012-08-17, 15:13:33
Sonstiges:

1. gefühlt sind die Treiber besser als das was mir immer mal wieder bei ATI/AMD unter die Finger kommt.

2. Support bei Adobe gibt es (leider) für die Beschleunigung von Premiere/Encore/Aftereffects nur mit einer nvidia GPU (Cuda beim PC, beim Mac geht das immerhin über OpenCL/AMD)

3. Gefühlt sind die Boards hochwertiger, wobei sich das je nach Hersteller und Referenz auch relativiert


Eigentlich mag ich beide gleich gerne bzw. gleich wenig. Von meinem Standpunkt aus ist das eher die Wahl des kleineren Übels.

Blediator16
2012-08-17, 16:19:44
Wenn ich vor einem Kauf stehen würde, würde ich bei nahezu gleichem Preis auf jeden Fall zu NV greifen. Da würden mehrere Punkte für eine NV aus der oben genannten Liste sprechen. In erster Liene aber wegen der Treiber.

Atma
2012-08-17, 16:35:00
[x] Downsampling - Seit dem ersten Tag des Wechsels von einer HD 5870 zur GTX 680 nutze ich es. Tolles Feature :)

[x] Einstellmöglichkeiten (nV-Inspector) - Ein absolut geniales und mächtiges Tool. Einer der Hauptgründe, warum ich mir wieder eine GeForce geholt habe.

[x] sonstiges Kaufargument - siehe Thread - Bessere Treiber und damit der andere Hauptgrund! Gerade bei dem, was in den letzten Monaten so für Probleme auftauchten, bin ich froh, gewechselt zu haben. In den letzten Wochen/Monaten kam mein Kumpel in regelmäßigen Abständen wegen Problemen mit seiner 7870 zu mir. Bei nVidia ist auch nicht alles Gold was glänzt, jedoch treten Probleme deutlich seltener auf.


Der größte Fail von nVidia seit langem ist in meinen Augen aber definitiv TXAA.

Iruwen
2012-08-17, 17:00:56
Gibts überhaupt schon ein Spiel mit TXAA? Und wie kann eine Option ein Fail sein? Für BF3 wäre das vermutlich eine bessere Option gewesen als FXKaka.

boxleitnerb
2012-08-17, 17:10:15
Weil es fürchterlich matscht. Ich glaub nicht, dass das bei gleicher Performance besser wird.

Atma
2012-08-17, 17:27:33
Gibts überhaupt schon ein Spiel mit TXAA? Und wie kann eine Option ein Fail sein? Für BF3 wäre das vermutlich eine bessere Option gewesen als FXKaka.
Ja, gibt es: The Secret World

http://www.pcgameshardware.de/aid,1015863/The-Secret-World-Test-Nvidia-TXAATemporal-Approximate-Anti-Aliasing/Grafikkarte/Test/

Bilder sind von mir.

klutob
2012-08-17, 17:54:43
[x]nvInspector dank an Orbu
[x]Linux Treiber
Bessere Kompatibilität mit Spielen/Anwendungen abseits des Mainstreams, weil bei Problemen häufig zeitnah ein Fix erstellt wird, während man bei AMD nach einem Bug Report meist im Regen steht.

Tesseract
2012-08-17, 18:09:39
Die dusselige Gammakorrektur bei AMD ist auch schon wieder so eine abschreckende Geschichte. Machen die eigentlich auch mal Vergleiche mit on/off?

die gammakorrektur ist bei hohen AA-graden und viel überlappender geometrie natürlich besser weil korrekter. ein problem habe ich damit nur bei langen, flachen kanten in zusammenhang mit geringen AA-graden (2x und 4x) aber da ist die möglichkeit zum ausschalten natürlich toll.

Langenscheiss
2012-08-17, 18:11:38
Weil es fürchterlich matscht. Ich glaub nicht, dass das bei gleicher Performance besser wird.

Jo, aber es ist eine Option. Wer auf Blur steht, und mögen es noch so wenige sein, bekommt eine Option, die er bei AMD nicht bekommt. Vielleicht hält sich der daraus entstehende Vorteil in Grenzen, aber eine Option/Möglichkeit ist per se immer zu begrüßen. Ist doch mit PhysX ähnlich. Kaum relevant, aber nette Zugabe (wobei der Nutzen von PhysX von vielen sicher höher bewertet wird, als der von Blur-AA).

aufkrawall
2012-08-17, 18:15:04
die gammakorrektur ist bei hohen AA-graden und viel überlappender geometrie natürlich besser weil korrekter. ein problem habe ich damit nur bei langen, flachen kanten in zusammenhang mit geringen AA-graden (2x und 4x) aber da ist die möglichkeit zum ausschalten natürlich toll.
Aber auch bei 8x ist eine deutlichere Treppenbildung damit erkennbar (siehe Beispiele mit Leo (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9420442&postcount=30) & Heaven #1 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9419109&postcount=16) #2 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9418441&postcount=11)).
Ich hab noch keine Bilder gesehen, die einen Vorteil durch die Korrektur erkennen ließen.

Maorga
2012-08-17, 18:16:16
Also ich tendiere auch mehr zu nVidia - dies liegt allerdings viel mehr an den Möglichkeiten die uns der nHancer bzw. nvinspector gaben/geben.

Es ist ja das schlimme eine kraftvolle Grafikkarte zu haben, aber eben nur viele FPS bringt statt Bildqualität. Ich möchte mein 'gefrickel' nicht vermissen den Hydrophobia mit AA ist einfach göttlich und so geht es mit vielen Spielen, es wäre für mich ein gewaltiger Rückschritt auf Ati zu wechseln.

Beide Karten sind natürlich prima sowohl AMD als auch nV allerdings hat man eben mehr Möglichkeiten bei nV und Mafia 2 mit PhysX ist doch auch ganz kuschelig.

Schaffe89
2012-08-17, 18:26:38
Ich tendiere derzeit was die Features angeht auch eher zu Nvidia, zumindest, wenn der Unterbau stimmt. (ergo GTX 680).
OGSSAA und GPU Physx geben den Ausschlag, auch wenn AMD auch schönes bietet.
Wie gut, dass ich gerne mal den HErsteller durchwechsel :)

So eine Umfrage könnte man auch bei AMD machen.

Dort währen wohl.

Optionaler Tesselationschalter
GPGPU ( Winrar)
Eyefinity
SGSSAA für alle Api´s
Zero Core
Crossfire
TReiberqualität

etc.. ein Thema

Langenscheiss
2012-08-17, 18:33:16
So eine Umfrage könnte man auch bei AMD machen.

Dort währen wohl.

...
SGSSAA für alle Api´s automatische LOD-Anpassung unter SGSSAA in DX10/11
...


Das gestrichene ist schlicht falsch! Aber solch eine Umfrage würde mich auch mal interessieren!

boxleitnerb
2012-08-17, 18:35:10
Bist du nicht sonst derjenige, der kräftig gegen GPU-Physx wettert? Ich könnte da ein paar Threads bei PCGH raussuchen...Klingt mir nicht grad glaubhaft, sondern eher nach Alibiargument. Dass da gleich eine Pro-AMD-Liste folgt, wundert mich irgendwie gar nicht.

Aber mach ruhig die Umfrage auf :)

Blediator16
2012-08-17, 19:01:39
Bist du nicht sonst derjenige, der kräftig gegen GPU-Physx wettert? Ich könnte da ein paar Threads bei PCGH raussuchen...Klingt mir nicht grad glaubhaft, sondern eher nach Alibiargument. Dass da gleich eine Pro-AMD-Liste folgt, wundert mich irgendwie gar nicht.

Aber mach ruhig die Umfrage auf :)

Dass ihm das NV Produkt besser gefällt lässt du aussen vor. Lass dich doch nicht so einfach an deinen Fanboyeiern kitzeln und konzentrier dich besser aufs Produkt selbst:P

boxleitnerb
2012-08-17, 19:05:24
Mich stört, wenn Leute unehrlich sind und versuchen, sich als was zu verkaufen, was sie nicht sind. Vielleicht irre ich mich hier, aber das glaube ich nicht. Dazu bin ich schon zu lange dabei und kenne die entsprechende Postinggeschichte.
Weitermachen...

Blediator16
2012-08-17, 19:11:24
Mich stört, wenn Leute unehrlich sind und versuchen, sich als was zu verkaufen, was sie nicht sind. Vielleicht irre ich mich hier, aber das glaube ich nicht. Dazu bin ich schon zu lange dabei und kenne die entsprechende Postinggeschichte.
Weitermachen...

Theoretisch bin ich AMD auch eher zugeneigt, weil ich einfach seit dem K6 mehr AMD/ATI Produkte hatte, aber zur Zeit einfach NV und Intel das rundere Produkt hat. Schaffe89 merkt man, wie du sagst, auch eher AMD Zuneigung an, aber plausibel sind seine Scheinargumente trotzdem:tongue:

Tesseract
2012-08-17, 19:32:24
Aber auch bei 8x ist eine deutlichere Treppenbildung damit erkennbar (siehe Beispiele mit Leo (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9420442&postcount=30) & Heaven #1 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9419109&postcount=16) #2 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9418441&postcount=11)).
Ich hab noch keine Bilder gesehen, die einen Vorteil durch die Korrektur erkennen ließen.

die korrektur spielt vor allem dann eine rolle, wenn die geometrie sehr fein ist. an einer langen, geraden kante fällt der fehler natürlich kaum auf, aber je feinmaschiger das ganze wird, umso sichtbarer wird der fehler. in der praxis könnte das z.B. auf üppige alpha-botanik zutreffen.

hier sieht man z.B. wie die kanten ohne korrektur anfangen "brüchig" zu werden wenn sie zusammenlaufen:
http://i.imgur.com/7eEsi.png
außerdem hängt der subjektive eindruck auch etwas davon ab, welche farben bzw. welche helligkeitsbereiche die beiden kantenseiten im beispiel genau haben.

aber eigentlich wollte ich hier keine offtopic-diskussion darüber starten.

Schnäppchenjäger
2012-08-17, 19:55:14
nvidia hat bessre treiber, bessere filter und mehr features, die was taugen imo.
man erinnere sich nur an das grottenschlechte AF von der 6000er serie, das man zwar auf softwarebasis eindämmen aber nicht beheben konnte.

Knuddelbearli
2012-08-17, 20:01:37
man kann ja NV Physikx mist finden und trotzdem nv bevorzugen

proprietärer mist ( der sich gott sei dank auch nach 5? Jahren noch nicht durchgesetzt hat ) ist einfach mist

Knuddelbearli
2012-08-17, 20:02:59
@ Schnäppchenjäger

Was war interessiert doch wenig

NV hatte auch mal Ewigkeiten lang deutlich schlechteres AF als ATI

und aktuell ist es recht gleichwertig

Marty98
2012-08-17, 20:12:01
In der Auswahl fehlt der wichtigste Punkt - bessere Windows Treiber.

Langenscheiss
2012-08-17, 20:16:09
man erinnere sich nur an das grottenschlechte AF von der 6000er serie, das man zwar auf softwarebasis eindämmen aber nicht beheben konnte.

Das AF der 7ner Reihe ist in der Praxis gleichwertig zur Nvidia-Lösung. Das theoretisch beste AF könnte vielleicht sogar im Intel HD4000 stecken ;D, wobei man sich das noch genauer anschauen müsste.

aufkrawall
2012-08-17, 20:23:41
Das AF der 7ner Reihe ist in der Praxis gleichwertig zur Nvidia-Lösung.
Aber nur das HQ und auch nicht ganz. ;)
Wobei es mit LOD-Verschiebung besser ist.

Tesseract
2012-08-17, 20:35:03
Aber nur das HQ und auch nicht ganz. ;)

was anderes als HQ ist auch vollkommen irrelevant wenn es um qualität geht.

NV hatte auch mal Ewigkeiten lang deutlich schlechteres AF als ATI
ewigkeiten? das war etwa 2 jahre lang, die anderen 10+ waren sie gleichwertig oder besser.

aufkrawall
2012-08-17, 20:41:11
was anderes als HQ ist auch vollkommen irrelevant wenn es um qualität geht.

HQ frisst auf den Radeons allerdings auch mehr, mit negativer LOD-Verschiebung mitunter spürbar.

Langenscheiss
2012-08-17, 20:42:46
HQ frisst auf den Radeons allerdings auch mehr, mit negativer LOD-Verschiebung mitunter spürbar.

Jo, es sampled etwas mehr. Das ist schon länger so, allerdings wurde das erst mit der hd7k auch in bq umgemünzt.

Blaire
2012-08-17, 21:23:02
Warum NV und nicht AMD?

Beschränke es mal auf das Nötigste.

NVIDIA
+ Qualität der Treiber (stimmiger und weniger Probleme, auch wenn nicht alles Gold was glänzt)
+ Optimierungen nicht auf Teufel komm raus, man hat seit G80 gelernt, weniger ist oft mehr!
+ SLI-Support (Die riesige Datenbank spricht für sich, oft gibt es bereits Monate vorher Profile, aktuell Crysis3 welches erst 2013 released wird) , aktives Vorgehen und Verbesserungen ggü. Microstuttering
+ offene SLI Values dank NV-API, da gibt es viele Beispiele dies es erfordern, anders kann es auch garnicht funktionieren
+ AA Optionen in Hülle und Fülle (MSAA,CSAA,TRSSAA,FXAA) inoffizielle Funktionen (SGSSAA,Hybriden,Downsampling,AA-Bits, LOD-Bias,Clamp, FPS-Limiter, Adapt.Vsync etc.)
+ gepflegte Extras (PhysX, Ambient Occlusion,3D Vision etc.)

AMD
- Treiber anfälliger
- AI Schummelein (Banding, Detailschwund, HQ oder doch nicht?)
- Crossfire Support mies, Lagging und Microstuttering deutlich mehr als SLI (eigentlich ein Witz das es über Jahre kaum jemanden auffiel...)
- Soll das wirklich SGSSAA sein? Diese Frage stellte ich mir oft.
- Kaum Kaufanreiz für mich, da zuviele schlechte Erfahrungen bei den Kernpunkten die mich interessieren.

dreas
2012-08-17, 21:26:40
Warum NV und nicht AMD?

Beschränke es mal auf das Nötigste.

NVIDIA
+ Qualität der Treiber (stimmiger und weniger Probleme, auch wenn nicht alles Gold was glänzt)
+ Optimierungen nicht auf Teufel komm raus, man hat seit G80 gelernt, weniger ist oft mehr!
+ SLI-Support (Die riesige Datenbank spricht für sich, oft gibt es bereits Monate vorher Profile, aktuell Crysis3 welches erst 2013 released wird) , aktives Vorgehen und Verbesserungen ggü. Microstuttering
+ offene SLI Values dank NV-API, da gibt es viele Beispiele dies es erfordern, anders kann es auch garnicht funktionieren
+ AA Optionen in Hülle und Fülle (MSAA,CSAA,TRSSAA,FXAA) inoffizielle Funktionen (SGSSAA,Hybriden,Downsampling,AA-Bits, LOD-Bias,Clamp, FPS-Limiter, Adapt.Vsync etc.)
+ gepflegte Extras (PhysX, Ambient Occlusion,3D Vision etc.)

AMD
- Treiber anfälliger
- AI Schummelein (Banding, Detailschwund, HQ oder doch nicht?)
- Crossfire Support mies, Lagging und Microstuttering deutlich mehr als SLI (eigentlich ein Witz das es über Jahre kaum jemanden auffiel...)
- Soll das wirklich SGSSAA sein? Diese Frage stellte ich mir oft.
- Kaum Kaufanreiz für mich, da zuviele schlechte Erfahrungen bei den Kernpunkten die mich interessieren.

kann ich so unterschreiben. als pronvidia möchte ich noch den treibersupport für sehr alte bzw. auch sehr seltene spiele benennen. ganz zu schweigen das die treiber auch für recht alte karten noch gepflegt werden.

Wildfoot
2012-08-17, 21:29:02
[X] SLi (Multi-GPU)

Ich habe zwar keine NVidia (mehr) im Einsatz. Meine letzte im Einsatz verbliebene NVidia, die GeForce 6200 AGP, wurde vor kurzem in Rente geschickt. Somit bin ich nun nurnoch auf AMD unterwegs (sogar mit dem Flaggschiff, der Sapphire Radeon HD7970 Toxic 6GB).

Aber für mich wären die sicherlich beseren SLI Treiber (im Gegensatz zu den grottenschlechten CF Treiber) ein eindeutiges NVidia-Kaufskriterium.
Somit wären Dual-GPU Karten von NVidia für mich durchaus eine Option, während mir diese von AMD ganz sicher nichtmehr ins Haus kommen. Und das, obschon die Hardware der AMD Duals eigentlich sehr gut ist, doch ohne funktionierende Treiber nutzt die beste Hardware nichts, leider.

Gruss Wildfoot

samm
2012-08-17, 22:37:23
Wenn ich eine Nvidia (hab ja gelesen, man schreibe das nun so ;)) hätte, würde ich sie wegen angeblich besser einsetzbarem forced-AA und dem Inspector bevorzugen.

Schlechter finde ich Pseudo-Alleinstellungsfeatures wie HW-Physx oder das (zumindest in den Videos) schreckliche TXAA - proprietäre Störfaktoren :P Von GT200 bis und exkl. GK104 hätte ich den Stromverbrauch angekreidet. Seit der GTX680 gibt es für mich wieder absolute Kaufkandidaten von Nvidia, doch so lange es meine HD7970 noch problemlos tut, wird die nicht ersetzt ;)

Lord Wotan
2012-08-17, 22:46:30
Ganz einfach ich kaufe immer Qualität.
Bei CPU eben immer Intel.
Bei Mainboards nur mit Intel Chipsatz.
Beim Sound immer Creative Labs.
Bei TV Karten immer Terratec
Und bei der Grafik, eben seit den ende von 3dfX immer NVidia. Ich finde es zwar schon das es AMD als Konkurrenten gibt.
Aber solange die keine Spitzen Produkte in meinen Sinne herstellen bleibt meine Aufzählung für mich wie sie ist.

Langenscheiss
2012-08-17, 23:02:20
Warum NV und nicht AMD?

Beschränke es mal auf das Nötigste.

AMD
- AI Schummelein (Banding, Detailschwund, HQ oder doch nicht?)


Das würde ich eher als Inkompetenz oder Mangel an Einsatz zur Beseitigung des Problems bezeichnen. Geschummelt wurde da nirgends (im Sinne von Leistung durch Reduzierung der Samples, höchstens bei Crysis). Dennoch sehr ärgerlich für den Endkunden. Generell hab ich jedenfalls das Gefühl, dass man AMD deutlich öfter in letzter Zeit auf die Füße treten musste, um was zu erreichen! Allein die Tatsache, dass Spielprofile über Jahre für überflüssig gehalten wurden ist für mich jenseits jeder Logik. Und es kann mir keiner erzählen, dass die nicht die nötigen Ressourcen hätten, um ein vernünftiges Team aufzustellen, das sich solcher Dinge zeitnah zu Nvidia bzw. vorher annimmt. Mag ja sein, dass das Core-Team schon ziemlich Skill braucht, aber für Spieleprofile muss man kein Programmiergenie sein, wie die zahlreichen 3rd Party Tools zeigten.

Benedikt
2012-08-17, 23:02:51
Ganz einfach ich kaufe immer Qualität.
Bei CPU eben immer Intel.
Bei Mainboards nur mit Intel Chipsatz.
Beim Sound immer Creative Labs.
Bei TV Karten immer Terratec
Und bei der Grafik, eben seit den ende von 3dfX immer NVidia. Ich finde es zwar schon das es AMD als Konkurrenten gibt.
Aber solange die keine Spitzen Produkte in meinen Sinne herstellen bleibt meine Aufzählung für mich wie sie ist.
Ich kaufe zwar auch NVIDIA, aus Gründen, die ich weiter oben in diesem Thread angeführt habe, aber das ist das vernageltste, engstirnigste und vorurteilsbehaftetste, was ich seit langem in diesem Forum gelesen habe.

Matrix316
2012-08-17, 23:08:07
Bei mir schwankt es immer. Ich versuche möglichst die schnellste Karte zu nehmen die am wenigsten verbraucht. Und im Moment isst das beste Speed/Stromverbrauch verhältnis bei der GTX 6xx Reihe.

Allerdings vor garnicht allzulanger Zeit wars auch mal bei AMD mit der 5870.

Godmode
2012-08-17, 23:14:11
- SLI
- 3DVision
- Inspector
- Software Support

Hatstick
2012-08-17, 23:31:04
* Tools ala nVidia Inspector
* sonstiges

Meine letzte ATI/AMD Grafikkarte war eine X800 Pro @ XT, seitdem nur noch nVidia.

Der Inspector ist natürlich sehr nett aber der Hauptgrund liegt für mich immer noch an den besseren Treibern gegenüber AMD.

Es ist nicht mehr wie zu X800 Pro Zeiten, wo die ATI Treiber teilweise deutlich schlechter als die nVidia waren.
Da ist AMD deutlich näher rangezogen aber wenn ich heutzutage irgendwas mit Treiberprobs usw. lese (was selten ist), dann sind das zu 99% immer Karten mit AMD Chip.

Man hört/liest einfach nix negatives über nVidiaTreiber und sie sind von meinen Erfahrungen her einfach immer noch ne Spur vor AMD und das ist mir einfach wichtiger, als schnellere HW zum selben Preis zu kaufen.

Die Karten von AMD sind absolut klasse und momentan in der Mittelklasse sogar besser aber die Treiber erreichen trotz allem nunmal nicht ganz nVidia Niveau.

Hübie
2012-08-18, 08:06:10
Ja, gibt es: The Secret World

http://www.pcgameshardware.de/aid,1015863/The-Secret-World-Test-Nvidia-TXAATemporal-Approximate-Anti-Aliasing/Grafikkarte/Test/

Bilder sind von mir.

OH...MEIN...GOTT!!! Ich musste eben meine Brille abnehmen und putzen als ich die Bilder sah, weil ich dachte die sei fettig. DAS ist seelische Grausamkeit!!! :mad: :cool:

Ich tendiere derzeit was die Features angeht auch eher zu Nvidia, zumindest, wenn der Unterbau stimmt. (ergo GTX 680).
OGSSAA und GPU Physx geben den Ausschlag, auch wenn AMD auch schönes bietet.
Wie gut, dass ich gerne mal den HErsteller durchwechsel :)

So eine Umfrage könnte man auch bei AMD machen.

Dort währen wohl.

Optionaler Tesselationschalter - mussten die ja einführen :biggrin:
GPGPU ( Winrar) - und das wars (fast)
Eyefinity - gibts nun auch bei nVidia
SGSSAA für alle Api´s - nicht ganz
Zero Core - macht immer noch viele Probleme
Crossfire - ääähm... lassen wir gelten ;D
TReiberqualität - Hahahaaa... der war gut

etc.. ein Thema

scnr :D

TobiWahnKenobi
2012-08-18, 09:54:14
[x] PRO NV,

weils mir haptisch von der useability einfach besser liegt und weil ich nicht so aufwendig mit treibern, hotfixen und workarounds rumeiern muss, wie beim mitbewerb. IGPs mal ausgeklammert, von denen fordere ich nichts. im grunde ist mein equipment auch auf shutter ausgelegt (beamer + TFT) und das ist bei NV bestandteil des treibers. bei AMD muss man tridef (fremdsoftware) dazukaufen (25-50€) und die lösung ist unendlich schlechter (haptisch, weil man apps per 3rd party launcher starten muss; usable mies, weil per schlechter profile von laien und fans gesteuert, die mannigfaltigen tridef-einstellmöglichkeiten überfordern hoffnungslos und sind schlecht bis gar nicht dokomentiert).

MadManniMan und einige andere aus unserem Forum interessiert mal warum ihr eigentlich eher zu einer nVidia-Karte greift als zu AMDs Pendant die ja sicher nicht (wesentlich) schlechter in der Leistung und Ausstattung sind.

ich kaufe auch hin und wieder beide spielerelevanten IHVs parellel (auf zwei rechner verteilt).



(..)

mfg
tobi

Botcruscher
2012-08-18, 10:09:21
Warum?
[x] Die freischaltbare 6950 war einen Monat zu spät dran.

Ansonsten immer am springen zwischen den beiden Herstellern. Bei _keinem_ je Treiberprobleme oder sonst was gehabt. PS: ATI hat mit ATT das um Lichtjahre bessere Tool. Physx ist von hinten bis vorne verpeilter Bockmist.

boxleitnerb
2012-08-18, 10:17:49
Was ist an ATT so toll?
PhysX ist eine nette Zugabe, warum auch nicht. Ich wünschte mir nur, es würde in 50x sovielen Spielen eingesetzt.

dllfreak2001
2012-08-18, 10:27:03
Nur wegen dem AF...

- PhysX ist eine Krüppelei die ich zwar mitnehme aber nicht als Kaufargument zähle
- CUDA probiert... wegen fehlender Anwendung selten ein sinnloseres Feature gesehen
- Systemschrotter wie NV-Inspector nutze ich nicht
- Für 3D-Vision und Surround-View passt der Monitor-Setup nicht
- Für Downsampling passt meine präferierte Leistungsklasse nicht
- SLI ist auch bei NVidia ein mieses Konzept
- Ich habe bisher alle meine ATI-Grafikkarten mit Linux in Betrieb nehmen können

Klingone mit Klampfe
2012-08-18, 10:31:14
Wird ATT überhaupt noch aktiv entwickelt? Als ich es zuletzt verwendet habe, war es hoffnungslos veraltet und völlig unbrauchbar.

Zur Grundfrage: Auch und gerade als AMD-Besitzer habe ich schon öfter gesagt, dass nVidia schlicht die bessere Kernsoftware und Treiber hat. Da muss sich fundamental etwas ändern.

drdope
2012-08-18, 10:34:00
Hab mir die nVidia-Karte eigentlich nur geholt, weil ich mit deren Linuxtreibern bisher sehr zufrieden war und sie weniger Strom zieht als eine ATI-Lösung.
:)

TobiWahnKenobi
2012-08-18, 11:28:17
Nur wegen dem AF...

- PhysX ist eine Krüppelei die ich zwar mitnehme aber nicht als Kaufargument zähle

lohnt auch selten, wenn nicht grad die zwei lieblingsspiele dieses schmankerl unterstützen. guckt man sich batman auf der PS3 an und dann full featured am PC mit NVidia, tun sich sich welten auf.

- CUDA probiert... wegen fehlender Anwendung selten ein sinnloseres Feature gesehen

kann man nur auf dich beziehen; ich nutze CUDA seit 2008 und ohne selbiges hätte ich damals nie HD-content auf meinem notebook abspielen können (coreAVC). videos für ipad transkodieren kann ebenfalls beschleunigt werden und ohne CUDA hätten wir wohl nie openCL bekommen. insofern ein gutes feature und wegbereiter für einen allg. standard -> innovativ und sinnvoll.

- Systemschrotter wie NV-Inspector nutze ich nicht
den schrotter kann ich nicht nachvollziehen; das ist seit grestorn verschwunden ist ein must-have für NV-user.


- Für 3D-Vision und Surround-View passt der Monitor-Setup nicht
wäre das anders, hättest du DAS kaufargument. ich komme ohne NV und 3DV nicht mehr klar.. das MUSS ich haben (habs seit 10+ jahren).

- Für Downsampling passt meine präferierte Leistungsklasse nicht
ich bin bisher auch nicht warm damit geworden; nice 2 have, selten benutzt und auch auf AMD möglich.

- SLI ist auch bei NVidia ein mieses Konzept
es wird immer besser und mit kepler haben wir das beste SLi, das es seit voodoo je gab. insofern muss AMD da noch viele tage jahre nachsitzen.

- Ich habe bisher alle meine ATI-Grafikkarten mit Linux in Betrieb nehmen können
ich auch - aber vorziehen würde ich die proprietären NV-treiber. eher macht der gewohnheit; beide IHVs sind da besser als unbeschleunigter desktop.


(..)

mfg
tobi

Iceman346
2012-08-18, 11:46:59
Wird ATT überhaupt noch aktiv entwickelt? Als ich es zuletzt verwendet habe, war es hoffnungslos veraltet und völlig unbrauchbar.

Geht mir genauso, hab das ATT seit Ewigkeiten nicht mehr verwendet, wirklich genutzt hab ichs damals auch nur für die Spieleprofile.

Seitdem es RadeonPro gab war das ATT eigentlich überflüssig, das nutze ich sogar immer noch, da es teilweise zuverlässiger ist was die Aktivierung von Profilen angeht als der AMD eigene Profilmanager.

Zur Grundfrage: Auch und gerade als AMD-Besitzer habe ich schon öfter gesagt, dass nVidia schlicht die bessere Kernsoftware und Treiber hat. Da muss sich fundamental etwas ändern.

Ack. Hätte ich nicht eine der 320€ 7970er abgegriffen wäre wohl mittlerweile ne 670 im PC.

Wolfram
2012-08-18, 12:03:56
[x] Sontstiges:

- Geringerer Stromverbrauch + damit Abwärme(habe ein 300W-Vollpassiv-Netzteil)
- stabilere Windows-Treiber. Meine letzte ATI war eine X1800XT 256MB, die hatte offenbar schwere Probleme mit der Speicherverwaltung, seitdem habe ich von denen die Nase voll.

M4xw0lf
2012-08-18, 12:25:56
PhysX ist eine nette Zugabe, warum auch nicht. Ich wünschte mir nur, es würde in 50x sovielen Spielen eingesetzt.

Aber bitte nicht als der proprietäre Mist, der es jetzt ist. Als offener Standard, als Alternative zu dem bei Intel verrottenden Havok, gerne.

TobiWahnKenobi
2012-08-18, 12:39:08
Aber bitte nicht als der proprietäre Mist, der es jetzt ist. Als offener Standard, als Alternative zu dem bei Intel verrottenden Havok, gerne.

AFAIR hat man mit NV doch die wahl ob man deren "proprietären" mist oder den "offenen" standard benutzen möchte. ich würde dann das hübschere respektive das performantere vorziehen.

aus AMD-sicht ist das offene natürlich besser als gar nichts - wenn es ausreichend performt. da wäre es dann wohl auch egal, wie es aussieht oder umgesetzt ist.


(..)

mfg
tobi

DraconiX
2012-08-18, 13:25:03
Hiho, ich hatte mich damals auf den nVidia Weg gemacht wegen Cuda und dem damit verbunden Quantenvorsprung beim Hardwarerendering in 3DS. Dazu gesellte sich dann noch die Hardware PhysX Unterstützung.

Alles dies konnte damals AMD/ATI nicht bieten... Nun, durch OpenCL, hat sich bei AMD wenigstens im ersten Punkt etwas getan. Aber dennoch ist dies noch Meilenweit entfernt vom nativen Cuda in 3DS.

schreiber
2012-08-18, 13:31:00
Proprietär interessiert mich nicht. Hat mich damals bei Glide von 3DFX auch nicht gestört. Langfristig wird das der Markt ohnehin regeln und solange hat man halt als nvidia-User ein Stück Zukunft mehr als AMD-User.

Langenscheiss
2012-08-18, 14:26:13
Proprietär interessiert mich nicht. Hat mich damals bei Glide von 3DFX auch nicht gestört. Langfristig wird das der Markt ohnehin regeln und solange hat man halt als nvidia-User ein Stück Zukunft mehr als AMD-User.

Das ist der Punkt. Ich fände einen offenen Standard auch besser, aber hier gehts ja um Argumente pro Nvidia.

Und wie man ATT als das bessere Tool im Vergleich zum Inspector bezeichnen kann, erschließt sich mir auch nicht so ganz. Das beste 3rd Party Tool für ATI-Grafikkarten ist bzw. war RadeonPro. Insbesondere, weil es einen schicken Profilmanager, exe renaming (quasi) und die individuelle Wahl von Treiberversionen unterstützt. Aber an die Funktionalität des Inspectors kommt das Tool doch auf Grund der Beschränkungen von ATI prinzipiell nicht ran.

@Iceman:
Das ist doch irgendwie auch der einzige Punkt, der neben LOD-Anpassung für AMD spricht, und das über mehrere Generationen hinweg. Sie decken die Preisbereiche einfach besser und früher ab. Meine Radeon HD5850 hab ich für knapp 200 geschossen. Für den Preis war die Leistung damals unschlagbar von Nvidia.

aufkrawall
2012-08-18, 14:37:13
Und wie man ATT als das bessere Tool im Vergleich zum Inspector bezeichnen kann, erschließt sich mir auch nicht so ganz. Das beste 3rd Party Tool für ATI-Grafikkarten ist bzw. war RadeonPro. Insbesondere, weil es einen schicken Profilmanager, exe renaming (quasi) und die individuelle Wahl von Treiberversionen unterstützt. Aber an die Funktionalität des Inspectors kommt das Tool doch auf Grund der Beschränkungen von ATI prinzipiell nicht ran.
Diese Tools wie ATT oder RadeonPro, die mit Hooks in allen Anwendungen rumwursten, sind auch nie nebenwirkungsfrei (einige Spiele crashen, inkompatibel mit anderen Programmen wie Afterburner oder Fraps, Anti-Cheat meckern etc.), im Gegensatz zum Inspector, der nichts anderes macht als in NVAPI zu lesen und zu schreiben.

exzentrik
2012-08-18, 14:50:21
Die Treiberquali und nvInspector sprechen meiner Meinung nach für NVIDIA. Von der Leistung meiner Radeon 7970 habe ich nicht viel, weil in vielen Spielen, die ich zocke, bisher keine ordentliche Bildverbesserungsmaßnahme griff. Alan Wake, Dead Space 2, Rage - um nur drei zu nennen.

OT: Bei RadeonPro tut sich einiges (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=484074). Auf jeden Fall mehr als ein Hoffnungsschimmer.

aufkrawall
2012-08-18, 14:52:35
Von der Leistung meiner Radeon 7970 habe ich nicht viel, weil in vielen Spielen, die ich zocke, bisher keine ordentliche Bildverbesserungsmaßnahme griff. Alan Wake, Dead Space 2, Rage - um nur drei zu nennen.

Bei Alan Wake kannst du auf beiden Plattformen nur DS + in-game AA etc. nutzen.
Bei den beiden anderen Spielen geht auf Nvidia aber etwa SGSSAA. :D

Schaffe89
2012-08-18, 14:54:36
Mich stört, wenn Leute unehrlich sind und versuchen, sich als was zu verkaufen, was sie nicht sind. Vielleicht irre ich mich hier, aber das glaube ich nicht. Dazu bin ich schon zu lange dabei und kenne die entsprechende Postinggeschichte.
Weitermachen...

Du hast vielleicht Probleme.
Ich war nie in Nvidia Threads und habe dort die Karten schlechtgeredet, sondern nur in AMD Threads und habe jene verteidigt, weil meine Ansicht, halt etwas weniger kritisch gegenüber AMD ist, siehe damals zum Bleistift die Tesselation Schalter Diskussion.

Ich finde an den Nvidia Karten wirklich nur diese zwei Punkte besser.: OGSSAA und GPU Physx, obwohl ich letzteres verteufel, weil wir mit einer breiteren Nutzung von GPU Physx, mit Sicherheit mehr Vorteile für den User hätten und nicht alle Jubeljahre mal ein Spiel kommt was das unterstützt und teils auch nicht gut impülementiert ist.

Trotzdem sehe ich es aus Vorteil, wenn ich in Batman oder Mafia 2 bessere Effekte habe.

Das gestrichene ist schlicht falsch!

Okay, Open Gl hab ich jetzt da nicht gemeint. Da hab ich nicht ein Spiel von daheim.

Blediator16
2012-08-18, 15:04:41
Die Treiberquali und nvInspector sprechen meiner Meinung nach für NVIDIA. Von der Leistung meiner Radeon 7970 habe ich nicht viel, weil in vielen Spielen, die ich zocke, bisher keine ordentliche Bildverbesserungsmaßnahme griff. Alan Wake, Dead Space 2, Rage - um nur drei zu nennen.

OT: Bei RadeonPro tut sich einiges (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=484074). Auf jeden Fall mehr als ein Hoffnungsschimmer.

Wäre schön, wenn man auch ein Team für stabilere Treiber abstellen würde:freak:

Der_Donnervogel
2012-08-18, 15:09:50
[x] sonstiges Kaufargument - siehe Thread

Der Hauptgrund ist, dass ich (mit einer einzigen Ausnahme) seit meiner TNT2 durchweg nVidia Grafikkarten hatte und die allesamt problemlos waren. Ich hatte keine Kompatibilitätsprobleme und in den ganz seltenen Fällen wo es Stabilitätsprobleme gab konnten die über ein Treiberupdate gelöst werden.

Ich sah deshalb bisher keine Veranlassung zu einem ATI/AMD-Experiment, da ich im nVidiaportfolio immer eine Grafikkarte gefunden habe, die meinen restlichen Anforderungen entsprochen hat.

Features wie Downsampling, Supersampling, 3D-Vision usw. sind mir völlig gleichgültig. Ich habe einfach keine Lust und Zeit mehr mich um sowas zu kümmern. Wenn es out-of-the Box innerhalb des Spiels einstellbar ist, dann ist gut, alles was mehr Arbeit macht interessiert mich nicht mehr. Die Zeit als ich noch auf meiner Kyro 2 für jedes Spiel ein optimiertes Profil zusammengestellt habe, sind lange vorbei.

Pixelmonk
2012-08-18, 15:18:58
Bisher hab ich Nvidia-karten wegen der besseren Treiber und AF-Qualität gekauft. Die anderen Nvidia-features hab ich bisher nicht genutzt.

Curunir
2012-08-18, 15:22:33
Der NV-Inspector reißts raus. Gratulation an Nvidia für die großartige Arbeit die sie mit diesem Tool geleistet haben. :freak:
Da ist bei meinem Ironie-Detektor ja fast die Nadel abgebrochen. :biggrin:

Es sind die Treiber und dazugehörige Software - und eben der Inspector, der alles ergänzt, was dort noch fehlt.
Ich erinnere mich noch an die ersten Detonator-Treiber anno 2000, auf dem damals frischen W2K. Die Qualität der nV-Treiber war lange Zeit eher durchschnittlich, aber eben nie wirklich schlecht. Das sah bei ATI eine Weile sehr mies aus und wurde nur allmählich besser. Und gewissermaßen sind sie immer noch Nachzügler, auch wenn sie die eine oder andere gute Funktion selbst erfunden haben. Ich hatte eine Reihe ATIs, und die meiste Zeit waren die auch brauchbar. Aber die Probleme und schlicht die Funktions-Leerstellen, die einzig durch die Software verursacht wurden, habe ich nicht vergessen. Es war ein Catalyst, der es ~2006 schaffte, mir den ganzen Graphik-Stack derart zu zerschießen, daß es weder vor noch zurück ging. System-Neuinstallation fällig wegen Treiber-Bug. Es war ein Catalyst, der es auf Teufel komm raus nicht schaffte, mein 1080p-Panel über HDMI richtig anzusteuern. Um nur zwei Beispiele zu nennen.

Aktuell habe ich keine besonderen Vorlieben mehr, aber der Stromverbrauch ist mir sehr wichtig (sowohl idle als auch Last). ATI hat mit der 7850 die fast perfekte Karte für mich, aber etwas mehr Rohleistung wäre mir eigentlich lieber, und da ist es dann eher die 670 oder 660Ti. Ich neige wegen dem nV Inspector eher zu letzterem. Bevor ich etwa eine 7950 kaufe, müßte die das Leistungs/Stromverbrauchs-Verhältnis der 670 erreichen und außerdem ein dem Inspector gleichwertiges Tool bekommen.

Verwende aktuell eine GTX460/1024MiB und habe derzeit keine Eile mit dem Neukauf, auch wegen der Preise. Mehr als 200€ will ich nicht ausgeben, ich warte dann halt so lange, bis die bei meinem Preispunkt angekommen sind.

aufkrawall
2012-08-18, 16:08:28
Hm, sobald die 660 Ti bei ca. 250€ ankommen, könnte man im Geiste noch ein Vote mehr für SLI dazu denken. :D

Hakim
2012-08-18, 16:39:44
Hm, sobald die 660 Ti bei ca. 250€ ankommen, könnte man im Geiste noch ein Vote mehr für SLI dazu denken. :D

Ich schlag bei 260 zu denk ich, gibt schon welche für 280.

Gonzo28
2012-08-19, 01:32:04
Ich habe damals nach der Ge-Force 3 (TI 200 ?!) glaube ich, fast jede Ati-Generation mitgemacht. Ich habe die 9700 pro für knappe 600€ gekauft. Der Hype um die 9700 Pro war damals gigantisch, die Leistung brachial. Ich hatte plötzlich Leistung für AA und AF übrig (damals nicht selbstverständlich).
Die 9800 pro folgten und ich war mit x800xtx, x1800, 2900HD, 3870x2, 4870x2 und 5970x2+Wakü dann bei jeder neuen High-End-Variante dabei.

Treiberprobleme hatte ich lediglich mit den TV-Deinterlace-Funktionen, welche über Monate hinweg nicht in DXVA verfügbar waren. Ich empfand das Treibermodell als super, jeden Monat ein neuer Treiber, damit kann man planen.

Ausschlaggebend dafür, dass ich jetzt auf GTX680SLI gewechselt bin waren adaptives Vsync und die Tatsache, dass Nvidia bei der neuesten Generation wohl aktiv gegen Mikroruckler vorgeht. Außerdem bin ich Simracer erster Stunde und rFactor 2, wo ich auch in engem Kontakt zu den Entwicklern stene, läuft auf meiner 5970 nicht so richtig rund.

Für sind Nvidia AntiaLiasing und die neuen Funktionen jetzt erst einmal total unübersichtlich und schwer zu verstehen. Von der Leistung bin ich aber vollends überzeugt.

TobiWahnKenobi
2012-08-19, 01:39:03
so'n GTX680-SLi (http://www.abload.de/img/sli_vs_sliw4fde.jpg) hatte ich auch mal *rolleyes*

war leistungstechnisch okay.. hat aber mächtig hitze im case verteilt und leise war der krempel auch nicht. ob die halbierung der lanes bei zwei oder mehr karten vorteilhaft ist, lasse ich auch mal dahingestellt.


(..)

mfg
tobi

aufkrawall
2012-08-19, 01:48:14
so'n GTX680-SLi (http://www.abload.de/img/sli_vs_sliw4fde.jpg) hatte ich auch mal *rolleyes*

war leistungstechnisch okay.. hat aber mächtig hitze im case verteilt und leise war der krempel auch nicht.

Da wär wohl das Referenzdesign besser gewesen.
Ist zwar auch nicht leise, wird aber nicht lauter, weil sich ja keine Wärme im Case anstaut.

Langenscheiss
2012-08-19, 03:31:19
hier stand blödsinn!

AYAlf
2012-08-19, 06:50:40
Nur 3D Vision!
Physix und Cuda sind für Zocker kein Kaufgrund. :rolleyes:

Der Multimonitorbetrieb bei nVidia und die dazugehörige Software ist übrigens unterste Schublade :freak: Die Treiber sind es also bestimmt NICHT!

SamLombardo
2012-08-19, 08:13:54
Nur 3D Vision!
Physix und Cuda sind für Zocker kein Kaufgrund.

Auch 3D infiziert?:)

Aber 3D Vision ist bei mir auch der NV Grund Nummer eins!

Wobei PhysX einfach eine nette Zugabe ist die man halt mitnimmt. Alleiniger Kaufgrund ist es sicher nicht. Trägt aber seinen Teil zum NV Gesamtpaket bei. In zwei, drei (meistens guten) Spielen pro Jahr wertet es die Grafik gegenüber AMD Usern teils deutlich auf. Ist wenig, keine Frage, aber warum nicht mitnehmen wenn man schon mehrere hundert Euro in eine Grafikkarte investiert...

Gruß Sam

MartinRiggs
2012-08-19, 12:06:03
Da kann NV sich wirklich Bedanken das jemand den NV Inspector gebaut hat.

Ich habe eine GTX480 weil ich günstig an die Karte kam, ansonsten ist es mir aber egal.
Ich brauche weder Physix noch Cuda noch 3D-Vision und den Inspector finde ich total unübersichtlich, mag das Tool absolut nicht.

Wären mir die Karten nicht zu teuer würde ich sogar gerne mal eine HD7950/7970 ausprobieren.

kruemelmonster
2012-08-19, 12:29:55
...den Inspector finde ich total unübersichtlich, mag das Tool absolut nicht.

Wenn du den Inspector mit dem Parameter -showOnlyCSN startest hast du eine wesentliche übersichtlichere Anzeige mit nur den gebräuchlichsten Einstellungen.

uweskw
2012-08-19, 13:58:30
Wenn du den Inspector mit dem Parameter -showOnlyCSN startest hast du eine wesentliche übersichtlichere Anzeige mit nur den gebräuchlichsten Einstellungen.

Sie an, hab den Inspector seit 1 Jahr, das hab ich aber noch nicht gewusst.

TobiWahnKenobi
2012-08-19, 14:10:16
Sie an, hab den Inspector seit 1 Jahr, das hab ich aber noch nicht gewusst.

ich auch nicht, aber ich finds jetzt schon gut :-) THX



(..)

mfg
tobi

Cubitus
2012-08-19, 14:19:15
Die Radeons waren schon auch innovativ, die 9600er war damals der 5950 Ultra überlegen.
Ich weiß auch noch das bei Oblivion oder FarCry AA+HDR anfangs nur auf den Radeons funktionierte. Der ChuckPatch machte es möglich^^
Aber ATI, später AMD lies nach.


SLI ist gegenüber Crossfire ausgereifter
3D Vision funktioniert sehr gut
Die Monitor-Übersteuerung klappt bei NV besser
SGSSAA iss ja auch nett, allerdings ist die fehlende LOD-Anpassung nicht optimal, aber das wißt ihr ja.
Power-User haben mehr Konfigurations-Möglichkeiten


Und allgemein fühle ich mich als Spieler und Enthusiast bei Nvidia besser aufgehoben, die Kommunikation zwischen Devs --> Treiberteam --> Power Usern aus Foren ist bei Nv einfach besser. Weshalb es bei vielen Titeln NV exclusive Goodies gibt.
Externe Tools, wie schon der legendäre nHancer, bzw jetzt der Inspector runden das Gesamtbild ab. Der Framelimitierer im Treiber/Inspector ist ebenfalls ein Beispiel von glücklicher Kommunikation zwischen der Community.
Eine Softskill-Eigenschaft, die Nvidia um Welten besser beherrscht als AMD.

Einen großen Kritikpunkt finde ich bei Nvidia, dass sie das High-End Segment dieses Jahr anders definierten.
Nicht nur wegen dem vermeintlich künstlichen Zurückhaltens der vollen Ausbaustufe von Kepler, nein auch ist die Referenz RAM-Bestückung zu knapp ausgefallen, 2 GB für 2580*1440+SGSSAA sind einfach zu wenig! Ein Enthusiast spielt nicht mit popligen 1080p und flimmernden Kanten! AMD hat in diesem Punkt seine Hausaufgaben erledigt, HW-Seitig ist die aktuelle Radeon-Gen topp. Leider bekommt AMD durch mangelnde Features, fehlender Goddies in Games und mangelhafte Kommunikation, die Leistung nicht so wirklich auf die Straße!

sys64738
2012-08-19, 14:40:17
Ja, gibt es: The Secret World

http://www.pcgameshardware.de/aid,1015863/The-Secret-World-Test-Nvidia-TXAATemporal-Approximate-Anti-Aliasing/Grafikkarte/Test/

Bilder sind von mir.
Also der Effekt ist tatsächlich bäh, aber ich denke, das könnte zu einem guten Teil an der 640er Lego-Auflösung liegen. Ist es denn bei einer vernünftigen Auflösung genauso widerlich? Und fällt das bei Bewegung genauso negativ aus, oder gibt es da gar eine Verbesserung?

TobiWahnKenobi
2012-08-19, 14:56:50
ich mags. ich mochte anno dunnemals auch quincunx und heute max-aa mit niedrigerer nicht nativer auflösung. ich mochte auch voodoos AA @800x600 lieber als jedes andere bei höheren auflösungen..

vllt hat der eine oder andere engineer bei NVidia einen mit meinem vergleichbaren geschmack.


(..)

mfg
tobi

Tesseract
2012-08-19, 15:13:03
Nicht nur wegen dem vermeintlich künstlichen Zurückhaltens der vollen Ausbaustufe von Kepler, nein auch ist die Referenz RAM-Bestückung zu knapp ausgefallen, 2 GB für 2580*1440+SGSSAA sind einfach zu wenig!
selbst in so einem extremfall hat der framebuffer doch kaum über 100MB wenn man nicht gerade mit 8xSGSSAA antanzt. in welcher situation limitiert da bitte der vram und nicht die rechenleistung des chips?

Langenscheiss
2012-08-19, 15:26:39
selbst in so einem extremfall hat der framebuffer doch kaum über 100MB wenn man nicht gerade mit 8xSGSSAA antanzt. in welcher situation limitiert da bitte der vram und nicht die rechenleistung des chips?

Man schaue sich nur die CB benches zur 3GB 660Ti an. Da wurden auch Triple-Monitor Auflösungen getestet, die auch keinen nennenswerten Vorteil für die 3GB Variante brachten. Mag ja sein, dass hier die Speicherinterface-Geschichte dazu kommt, aber in solchen Settings limitiert wohl fast immer die GPU.
Und mit Grafikmods wie die Maldo-Mod kommst du auch noch mit 2GB aus, sprich erst die Kombination aus Texturmods+extrem hohe Auflösungen+SGSSAA würde wohl spürbar mehr VRAM verlangen, und bei solchen Settings brauchst du sowieso mehrere GPUs, die jeweils mit VRAM kommen.

Cubitus
2012-08-19, 15:34:02
selbst in so einem extremfall hat der framebuffer doch kaum über 100MB wenn man nicht gerade mit 8xSGSSAA antanzt. in welcher situation limitiert da bitte der vram und nicht die rechenleistung des chips?

Skyrim füllt schon teilweise mit 2xSGSAA, Ugrids7 + ein paar Mods und eben der 2560*1440er Auflösung den Vram aus. 4xSGSSAA wären mit meiner 690er von der Leistung her ohne Probleme möglich! Leider stürzt das Spiel bei Gebietserkundungen des Öfteren ab. Sicherlich kann man das mitunter auch der Engine zuschreiben.

Man schaue sich nur die CB benches zur 3GB 660Ti an. Da wurden auch Triple-Monitor Auflösungen getestet, die auch keinen nennenswerten Vorteil für die 3GB Variante brachten. Mag ja sein, dass hier die Speicherinterface-Geschichte dazu kommt, aber in solchen Settings limitiert wohl fast immer die GPU.

Klare Augenwischerei, stimmt. Aber ich rede ja auch nicht von einer abgespeckten Mid-Range Karte.
Bei der 690er tönte Nvidia noch, We have built the best card, which we were able to build..:rolleyes:

Tesseract
2012-08-19, 15:37:10
den vram mit texturen oder vertices voll zu bekommen ist ein kinderspiel weil man die quasi beliebig aufblasen kann. das ist halt etwas anderes als die framebuffer, deren größe direkt mit dem screenmode zusammen hängen.

außerdem funzt skyrim sowieso nicht mit SGSSAA ohne blur.

boxleitnerb
2012-08-19, 15:48:36
Das stimmt doch gar nicht. Dafür gibts ja die AA-Bits. C1 und es ist knackig. Zur Not DOF ausschalten, damit kann das SGSSAA kollidieren.

krawall war schneller :)

Langenscheiss
2012-08-19, 15:53:02
DoF ausgeschaltet?

Skyrim für VRAM ist imho kein guter Vergleich.
Man sollte modernere Engines für solche Betrachtungen hernehmen.

Ich schätze, die CryEngine 3 in der Version, wie sie mit Crysis 3 geliefert werden wird, wird man gut verwenden können. Wir geben Maldo noch n paar Spenden, sodass er die Texturen auf Maldo-Mod Niveau hebt und dank bestätigter MSAA-Unterstützung wird mann dann auch SGSSAA samt 2xxx-Auflösungen testen können.

aufkrawall
2012-08-19, 16:00:52
Gut so ein Fall hat wie bei Skyrim hat nvidia wohl nicht bedacht. Aber Gegenfrage, warum verbaut AMD bei ihren High End Karten 3 GB?
Nur um besser dazustehen, ich glaube nicht!

GK104 war ja nicht als als vermarkteter Highend-Chip geplant, sonst hätte er vielleicht auch 3 GB gehabt.

Langenscheiss
2012-08-19, 16:06:33
Die CryEngine 3 wird unsere HW zum ja schmelzen bringen :freak:^^ Also ich erwarte mindestens eine spielbare 1280*1024er Auflösung mit sehr hohen Details..;D

Naja, die GPU vielleicht, durch tesselierte Frösche ;D
Bei den gezeigten Texturen braucht es für einen VRAM Test ne Texturmod und hohes AA, hohe Auflösungen. Es ging mir eher darum, dass die CryEngine sicher moderner und besser ist, als die Skyrim-Engine (sorry kenne den Namen nicht).

Coda
2012-08-19, 16:23:37
Bethesda verwendet eine stark modifzierte Gamebryo (Creation Engine).

Knuddelbearli
2012-08-19, 16:42:47
Und mit Grafikmods wie die Maldo-Mod kommst du auch noch mit 2GB aus, sprich erst die Kombination aus Texturmods+extrem hohe Auflösungen+SGSSAA würde wohl spürbar mehr VRAM verlangen, und bei solchen Settings brauchst du sowieso mehrere GPUs, die jeweils mit VRAM kommen.


Ram im SLI addiert sich NICHT!

TobiWahnKenobi
2012-08-19, 16:45:57
Ram im SLI addiert sich NICHT!

steht da auch nicht. und dass 2GiB ausreichen weiss ich seit ca. 8 wochen.. hatte anfangs auch zweifel, weil mein skyrim auf die HD7970 mit ihren 3GiB "optimiert" war. ich bin mir nichtmal sicher, ob man speicherverbrauch (zumindest das was irgendwelche tools anzeigen) IHV-übergreifend vergleichen kann. und speicher auf vorrat zu halten (frei) ist auch sinnlos. boah.. guck mal wie leer meine festplatte noch ist.. :-) *rumfreu* da hättest du auch ne kleinere kaufen können.. freier ungenutzter speicher ist überflüssiger speicher; egal wo.

btgrphics
du musst um vorteile aus dem ram zu ziehen natürlich situationen künstlich provozieren. und dann bist du in regionen wo die GPU eh nicht reicht. dazu kommt, dass das interface durch die menge auch nicht breiter wird. juhu.. noch längere autoschlange auf den 3 spuren der autobahn.. mir wäre ne kurze schlange auf 6 spuren lieber.


(..)

mfg
tobi

Tesseract
2012-08-19, 17:26:06
die skyrim-AA-diskussion geht hier weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867&page=156

fondness
2012-08-19, 17:42:43
Hm, das ultimative Argument für eine nV-Karte war für mich das AF und (mangels SG bei beiden Herstellern) das OGSSAA - wer will schon ein flimmriges, unterabgetastetes Bild? Deshalb hatte ich nach der X1950XT auch nur noch NV-Karten. Dazu kamen die besseren Einstellungsmöglichkeiten mit Profilen und das man im Zweifelsfall bei NV eher AA aktivieren konnte.

Mindestens ebenso wichtig ist für mich seit der Voodoo 5 allerdings SGSSAA. Wer ein ordentlicher Bild haben will kommt daran IMO nicht vorbei. Und hier hatte ich zu meinem Bedauern bei NV von beginn an nur ein sehr halbherziges vorgehen beobachten müssen. Erst deutlich nach dem AMD mit der Radeon 5800 offiziell SGSSAA anbot zog NV auf drängen der User mit einem kleinen, inoffiziellen Tool nach. Zwar gab es SGSSAA auch für DX10/11, allerdings führte es zu beginn sehr häufig zu Unschärfe. Bis heute lässt man die User leider mit dem Bit-gefrickel alleine, offiziellen Support gibt es nicht. Daran haben auch einige Anfragen meinerseits bei NV nichts geändert.

Nachdem AMD jetzt das AF gefixt hat und auch offizielles SGSSAA für DX10/11 inkl. LoD Anpassung anbot, habe ich mittlerweile mit der 7970 nach langer Zeit wieder mal eine AMD-Karte. Sollte NV endlich aus ihrem Dornröschenschlaf erwachen und ordentlichen SGSSAA-Support anbieten würde ich auch jederzeit wieder eine NV-Karte nehmen. Die ganzen hier aufgeführten Dinge sind zwar sicherlich "nice2have", aber für mich nicht ausschlaggebend, dazu habe ich zu selten etwas davon.

aufkrawall
2012-08-19, 18:29:49
Du kannst auf Nvidia deutlich häufiger SGSSAA nutzen und das sieht auch noch besser aus. Von daher kann ich deine Argumentation nicht ganz nachvollziehen.
Ob offiziell oder nicht ist doch wurst.

fondness
2012-08-19, 18:47:18
Du kannst auf Nvidia deutlich häufiger SGSSAA nutzen und das sieht auch noch besser aus. Von daher kann ich deine Argumentation nicht ganz nachvollziehen.
Ob offiziell oder nicht ist doch wurst.

Es spielt für mich eine große Rolle, denn bei AMD stelle ich es im Treiber ein und fertig, bei NV muss ich ein extra Tool anwerfen, das LoD justieren, testen ob es läuft, Bits ausprobieren oder suchen die zu keiner bzw. möglichst wenig Unschärfe führen. Ich habe mich bei meiner GTX460 gerade zu Anfangszeiten viel zu häufig ärgern müssen weil SSAA immer wieder zu Unschärfe führt. Jüngstes Bsp war Diablo 3. Deine Argumentation kann zudem ich wieder nicht nachvollziehen. Wo genau kann ich bei NV deutlich häufiger SGSSAA nutzen und warum genau soll es besser aussehen? Kann ich nicht nachvollziehen, eher das Gegenteil war mein Eindruck, nämlich sehr häufig Blur. Unter DX10/11 hat man ohne LoD-justierung jedenfalls definitiv das nachsehen.

TobiWahnKenobi
2012-08-19, 18:58:36
wo ist der unterschied. ob ich auf meinem AMD-rechner jetzt das CCC öffne und 6 mal klicke oder ob ich bei meinem NV-PC den NVI öffne und 6x klicke? sind beides manipulationen respektive änderungen an den treibereinstellungen. im NVi kann man sie mit nem weiteren klick dauerhaft im spielspezifischen profil speichern und muss dann nie wieder dran rumfingern.
wenn ich im CCC mit AA rumspiele und die änderung nicht mehr rückgängig mache (nachm spielen), zerhackt mir morphologische filterung die GUI im media center. also muss ich bei AMD immer wieder von spiel zu spiel das CCC öffnen und x-mal klicken.

wenn NVI ein tool ist, ist das CCC auch ein "tool"


(..)

mfg
tobi

Langenscheiss
2012-08-19, 19:00:33
Es spielt für mich eine große Rolle, denn bei AMD stelle ich es im Treiber ein und fertig, bei NV muss ich ein extra Tool anwerfen, das LoD justieren, testen ob es läuft, Bits ausprobieren oder suchen die zu keiner Unschärfe führen. Deine Argumentation kann zudem ich wieder nicht nachvollziehen. Wo genau kann ich bei NV deutlich häufiger SGSSAA nutzen und warum genau soll es besser aussehen? Kann ich nicht nachvollziehen. Unter DX10/11 hat man ohne LoD-justierung jedenfalls definitiv das nachsehen.

Das Bit-Gefummel brauchst du nur dann, wenn es regulär unter dx9 nicht geht, und wenn es regulär nicht geht, gehts bei AMD sowieso nicht, wohingegen man bei NV mit den Bits doch meistens ein halbwegs akzeptables AA aufzwingen kann. Regulär ist das also bei NV 0 Mehraufwand. Und was alle immer an dem Inspector zu meckern haben verstehe ich nicht. Der ist doch genauso übersichtlich und einfach, wie jedes andere Tool zur Modifikation der Treibereinstellungen. Die Bits liegen ja bei vielen Titeln auch schon vor, und ein Blick in den dazu passenden Thread ist doch auch kaum Aufwand.

Darüber hinaus liefert das NV-SGSSAA bei zugegeben etwas schlechterer Performance (was aber an den Karten liegen kann???) im Mittel eine bessere Glättung, zumindest unter Dx9/OGL (bei OGL versagt AMD bekanntlich völlig). Recht hast du bei der LOD-Anpassung, aber mir ist eine manuelle Anpassung lieber, als eine automatische, und ich gehe davon aus, dass NV das irgendwann auch für DX10/11 möglich machen wird.

aufkrawall
2012-08-19, 19:01:46
Wo genau kann ich bei NV deutlich häufiger SGSSAA nutzen und warum genau soll es besser aussehen?

Du kannst bei Nvidia bei wesentlich mehr Spielen SGSSAA erzwingen (siehe Liste) und bei AMD funktioniert erzwungenes AA nicht mit HDR (schlechtere Glättung).
Außerdem sieht bei AMD das AA ansich auch schlechter aus (siehe Gammakorrektur-Thread), die Farbübergänge sind nicht optimal.


Kann ich nicht nachvollziehen. Unter DX10/11 hat man ohne LoD-justierung jedenfalls definitiv das nachsehen.
Dieses Argument soll ja bald wegfallen.
Mal abgesehen davon, dass eine zwanghafte LOD-Verschiebung, die immer gleich ist, auch schlecht sein kann (etwa bei BF3).

Edit: @Langenscheiss: Ich glaub nicht, dass Kepler bei SGSSAA langsamer ist als Tahiti. Eher umgekehrt.

fondness
2012-08-19, 19:06:34
Das Bit-Gefummel brauchst du nur dann, wenn es regulär unter dx9 nicht geht, und wenn es regulär nicht geht, gehts bei AMD sowieso nicht, wohingegen man bei NV mit den Bits doch meistens ein halbwegs akzeptables AA aufzwingen kann. Regulär ist das also bei NV 0 Mehraufwand.

Das etwas "geht" ist ein sehr relativer Begriff. Es geht zwar sogut wie immer, aber immer oft nur mit Unschärfe.


Und was alle immer an dem Inspector zu meckern haben verstehe ich nicht. Der ist doch genauso übersichtlich und einfach, wie jedes andere Tool zur Modifikation der Treibereinstellungen. Die Bits liegen ja bei vielen Titeln auch schon vor, und ein Blick in den dazu passenden Thread ist doch auch kaum Aufwand.

Nenn es wie du willst, vielleicht werde ich eben alt. Den nHancer hatte ich noch voll im Griff, mit dem Inspector konnte ich mich nie wirklich anfreunden.


Darüber hinaus liefert das NV-SGSSAA bei zugegeben etwas schlechterer Performance (was aber an den Karten liegen kann???) im Mittel eine bessere Glättung, zumindest unter Dx9/OGL (bei OGL versagt AMD bekanntlich völlig). Recht hast du bei der LOD-Anpassung, aber mir ist eine manuelle Anpassung lieber, als eine automatische, und ich gehe davon aus, dass NV das irgendwann auch für DX10/11 möglich machen wird.

Hm, die bessere Glättung ist mir so nicht wirklich aufgefallen. Hast du ein Spiel wo das deutlich auffällt? Dann muss ich es mal genauer unter die Lupe nehmen.

Langenscheiss
2012-08-19, 19:07:41
Edit: @Langenscheiss: Ich glaub nicht, dass Kepler bei SGSSAA langsamer ist als Tahiti. Eher umgekehrt.

Okay, mag bei Kepler so sein.


Hm, die bessere Glättung ist mir so nicht wirklich aufgefallen. Hast du ein Spiel wo das deutlich auffällt? Dann muss ich es mal genauer unter die Lupe nehmen.

Siehe Gammakorrektur-Thread. Sonst fällt mir spontan Crysis Dx9 und UT3 ein. Da gabs hier und anderswo auch mal Vergleichsbilder zu, und vermutlich lässt sich das alles auf diese Gamma-Geschichte zurückführen.

Langenscheiss
2012-08-19, 19:09:38
Doppelpost, sorry!

fondness
2012-08-19, 19:12:37
Du kannst bei Nvidia bei wesentlich mehr Spielen SGSSAA erzwingen (siehe Liste)

Welche Liste? Wenn du die AA-Bit Liste im NV-Forum meinst: Viele dieser Spiele laufen auch bei AMD völlig problemlos mit AA, tw. sogar mit weniger Blur. Spiele die bei NV völlig problemlos mit AA laufen und bei AMD gar nicht kenne ich jedenfalls in meiner Spielesammlung keine.


Außerdem sieht bei AMD das AA ansich auch schlechter aus (siehe Gammakorrektur-Thread), die Farbübergänge sind nicht optimal.

Hast du einen Link? Das AA ohne Gammakorrektur besser aussehen soll halte ich für Blödsinn.


Mal abgesehen davon, dass eine zwanghafte LOD-Verschiebung, die immer gleich ist, auch schlecht sein kann (etwa bei BF3).

Warum sollte die optimale LoD-Verschiebung für die entsprechende Sample-Anzahl schlecht sein?

Blaire
2012-08-19, 19:16:39
Siehe Gammakorrektur-Thread. Sonst fällt mir spontan Crysis Dx9 und UT3 ein. Da gabs hier und anderswo auch mal Vergleichsbilder zu, und vermutlich lässt sich das alles auf diese Gamma-Geschichte zurückführen.

Nene, bei Crysis oder Unreal Engine Games via Bits hat es ganz sicher nichts mit der Gammakorrektur zu tun, da diese auch Shader und Texturen noch mitglätten, z.b. bei Crysis die Schatten die ohne AA-Bits regelrecht flackern, mit Bits wird alles gebügelt und die Bildruhe ist beeindruckend. Ärgerlich das dies derzeit nur bei DX9 funktioniert.

aufkrawall
2012-08-19, 19:17:42
Siehe Gammakorrektur-Thread. Sonst fällt mir spontan Crysis Dx9 und UT3 ein. Da gabs hier und anderswo auch mal Vergleichsbilder zu, und vermutlich lässt sich das alles auf diese Gamma-Geschichte zurückführen.
Ne, das sind zwei verschiedene Probleme.
Erzwing mit AMD etwa mal bei Mirror's Edge SGSSAA: Alles, was von HDR angeleuchtet wird, ist nicht richtig oder gar nicht geglättet.
Da gehts auch nicht mehr um Pixelfarben, sondern da ist ganz einfach gar keine Glättung mehr, einfach Aliasing.


Welche Liste?

Meine (ein bisschen Größenwahn muss sein :D ):
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867


Hast du einen Link? Das AA ohne Gammakorrektur besser aussehen soll halte ich für Blödsinn.

Hm, an was sonst?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9420442&postcount=30
An was es liegt, ist auch relativ egal.
Es sieht schlechter aus und ist wohl nicht als User fixbar.


Warum sollte die optimale LoD-Verschiebung für die entsprechende Sample-Anzahl schlecht sein?
Bei den bisherigen DX11-Spielen hat das AA eher schlecht gegriffen.
Unterfilterung ist dann eklig, besonders bei Alphatests. Anstatt das Bild zu beruhigen erreicht man dann genau das Gegenteil.
Bei BF3 muss man ja für jedes bisschen Bildberuhigung dankbar sein...

Langenscheiss
2012-08-19, 19:24:37
@Blaire, krawall:

Ups, jo, das hab ich durcheinander geworfen! Die Diskussion war bei mir schon etwas länger her. Das ging irgendwie um die Resolve-Prozedur.

PHuV
2012-08-19, 20:19:32
Deshalb Nvidia, weil die Software und die Treiber früher einfach besser waren. Bei ATI hatte ich so einige üble Probleme, während bei Nvidia ein GK-Wechsel kaum ein Problem war.

Beim Spielerechner ganz klar SLI und 3D-Vision. Bei den Anwendungsrechnern wegen CUDA.

Oliver_M.D
2012-08-19, 20:31:57
Habe in moment eine AMD aber jetz wo ich die treiber kenne wird meine nächste GPU auf jeden fall eine 600 oder neuer...warum?

Supersampling (OG-/SGSSAA)
Downsampling
Einstellmöglichkeiten (nV-Inspector)
aber vor allem wegen den neuen (für mich) killer feature "Target Frame Rate"

Knuddelbearli
2012-08-19, 21:58:56
ich weiss nicht was alle mit den aa bits haben. durch exe renaiming erreicht man bei amd ja mehr oder weniger das selbe.

im prinzip macht man ja durch das aa bit setzten ja nichts anderes, man zaubert ja keine neuen aa bits aus dem hut sondern nutzt einfach die a bits anderer spiele

bei amd fehlt dafür eigentlich nur ne nette gui ^^ wobei es das ja glaube ich sogar in irgend einem tool gibt

Langenscheiss
2012-08-19, 22:02:55
ich weiss nicht was alle mit den aa bits haben. durch exe renaiming erreicht man bei amd ja mehr oder weniger das selbe.


Nur, dass es bei Nvidia deutlich mehr gibt, die auch was bringen. Die paar AA-Profile bei AMD, naja...für mich kein Vergleich zu Nvidia.

aufkrawall
2012-08-19, 22:07:05
ich weiss nicht was alle mit den aa bits haben. durch exe renaiming erreicht man bei amd ja mehr oder weniger das selbe.

Wie oft denn noch: Nein, ist nicht vergleichbar. :rolleyes:


im prinzip macht man ja durch das aa bit setzten ja nichts anderes, man zaubert ja keine neuen aa bits aus dem hut sondern nutzt einfach die a bits anderer spiele

Stimmt auch nicht. Die meisten Custom Bits sind verschiedene Kombinationen. Man verwendet meist nicht einfach stur die bereits vorhandenen, gleichen Profile von anderen Anwendungen.


bei amd fehlt dafür eigentlich nur ne nette gui ^^
Bei AMD fehlt vor allem Personal.

M4xw0lf
2012-08-19, 22:16:02
Supersampling (OG-/SGSSAA)

Kann AMD auch.

Downsampling

=OGSSAA

aber vor allem wegen den neuen (für mich) killer feature "Target Frame Rate"

Kann der Afterburner auch, also auch mit Radeon nutzbar.

boxleitnerb
2012-08-19, 22:18:22
exe renaming mit den AA-Bits in einem Satz zu verwenden ist...erstaunlich. Das renaming ist Käse und ein Relikt aus alten Zeiten, was aussterben sollte. AA-Bits sind viel eleganter und mucken auch nicht mit dem Kopierschutz oder Anti-Cheattools rum.

aufkrawall
2012-08-19, 22:19:48
Kann AMD auch.

Nein, der AMD-Treiber kann kein echtes OGSSAA. ;)
Auf Nvidia kann man so für alten Kram 32xSSAA anschmeißen.
Kepler hat da auch genug Power für.

Blediator16
2012-08-19, 22:56:24
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9429393#post9429393

Vielleicht wird sich dieses Jahr etwas verändertn im Bezug auf Möglichkeiten.

Iruwen
2012-08-20, 00:46:01
Darüber hinaus liefert das NV-SGSSAA bei zugegeben etwas schlechterer Performance ... im Mittel eine bessere Glättung

Ist doch ein guter Deal.

PS: Ich kaufe zwar auch NVIDIA, aus Gründen, die ich weiter oben in diesem Thread angeführt habe, aber das ist das vernageltste, engstirnigste und vorurteilsbehaftetste, was ich seit langem in diesem Forum gelesen habe.

Er schrieb "solange die keine Spitzen Produkte in meinen Sinne herstellen", nicht dass sie generell keine Spitzenprodukte herstellen.

Hübie
2012-08-20, 01:43:30
Na was is denn in seinem Sinne? Sollte man ja dazu schreiben sonst kommts etwas fanboy-haftig rüber ;)

skanti
2012-08-20, 07:07:25
Bei mir war es damals mit der ersten TNT auch so der Fall. Damals lief alles noch etwas runder als bei Ati. Zwischendrin habe ich immer mal wieder Ati-Grafikkarten im PC gehabt, aber da gab es immer Kleinigkeiten, dass die eine oder andere Sache nicht so rund lief. Bei Nvidia fühle ich mich einfach mehr daheim.

im Grunde ist das wohl wie mit dem ersten Auto das man wirklich gern gefahren ist. Man bleibt dabei.
Heute bauen fast alle Asiaten bessere Autos als die Deutschen, aber der Ruf, der Ruf ...

ZipKaffee
2012-08-20, 07:30:08
Nach zwei Ati Grafikkarten mit denen ich sehr zufrieden bin und war wird die nächste mal wieder eine Nvidia. Einfach weil nvidia mehr Features (noch) hat.

Benedikt
2012-08-20, 09:16:17
Er schrieb "solange die keine Spitzen Produkte in meinen Sinne herstellen", nicht dass sie generell keine Spitzenprodukte herstellen.
Und wie wärs, wenn man dazuschreiben würde, warum genau nur Intel und Nvidia "Spitzenprodukte" darstellen? Mit Begründung, und so? :rolleyes:

Iruwen
2012-08-20, 09:42:19
Sollte er im Sinne des Threads tun, ja. Trotzdem würde ich sowas nicht als "vernagelt, engstirnig und vorurteilsbehaftet" bezeichnen.

sth
2012-08-20, 10:27:24
Für mich ganz klar Treiberqualität.

Unter Windows: So gut ATIs Treiber mittlerweile auch sein mögen, man muss sich trotzdem von Zeit zu Zeit mit den Treibern rumschlagen. Beispiel Rage letztes Jahr: Release-Treiber buggt rum, ATI veröffentlicht einen Hotfix-Treiber, der zwar mit Rage funktioniert, dafür mit anderen Anwendungen zickt. Wochen später erscheint der nächste Release-Treiber und in Rage ist das komplette Bild blau. Bis ein Treiber raus ist, mit dem Rage und alle anderen Games/Anwendungen funktionieren vergehen ~2 Monate. o_O
Bei nVidia habe ich in den letzten Jahren nicht erlebt, dass ein Game überhaupt nicht lief. Ich will aber natürlich nicht ausschließen, dass es dort auch solche Vorfälle gab.

Unter Linux: Geht mittlerweile, aber wirklich problemlos laufen eigentlich nur die Karten, für die es OpenSource-Treiber gibt. Mag sein, dass im letzten Jahr plötzlich das Wunder passiert ist und ATIs closed-source Treiber plötzlich reibungslos funktionieren, aber in den 8 Jahren davor waren sie noch weit davon entfernt. nVidia's closed-source Treiber habe ich seit 2001 im Einsatz und nie größere Probleme damit gehabt. Selbst beim Entwickeln von OpenGL-Kram waren sie immer stabil.

Unter OS X: Spielt hier im Endeffekt kaum eine Rolle – Beide Treiber sind sehr stabil, aber langsamer als die jeweiligen Windows-Treiber. Bis vor 1-2 Jahren waren die ATI-Treiber sogar noch einen Hauch besser.

Von daher ist für mich bei Selbstbau-Rechnern nVidia immernoch erste Wahl. Nicht weil ich der Meinung bin, dass ein Grafikchip besser ist als der andere, sondern einfach weil es erfahrungsgemäß in weniger Stress und Frickelei ausartet.
In den Genuss von ATI-Karten komme ich aber trotzdem in regelmäßigen Abständen (zum Beispiel der Rechner an dem ich gerade sitze). ;)


BTW: Wen's stört: Mit ATI ist natürlich AMD gemeint.

fondness
2012-08-20, 12:42:36
Meine (ein bisschen Größenwahn muss sein :D ):
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867


Siehe meinen Edit. Sehr viele dieser Spiele laufen auch bei AMD völlig problemlos mit SSAA, tw. sogar mit weniger Blur und ohne das ich mit dem Bits herumfummeln muss. Spiele die bei NV völlig problemlos mit SSAA laufen und bei AMD gar nicht kenne ich jedenfalls in meiner Spielesammlung keine. Aber du kannst mir ja gerne welche nennen.

Die riesen SSAA-Liste zeigt für mich nur wie wenig bei NV out-of-the-box mit SSAA läuft. Und genau das hat mich zunehmend genervt. Jüngstes Bsp war Diablo 3. Bei NV trotz vieler Bits die ich durchprobiert habe stets mit Blur, bei AMD kam ein CAP heraus und ich hatte in Diablo 3 feinstes SSAA ohne Blur.


Hm, an was sonst?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9420442&postcount=30
An was es liegt, ist auch relativ egal.
Es sieht schlechter aus und ist wohl nicht als User fixbar.

Wenn ich das richtig sehe ist nicht mal die Auflösung der beiden Bilder identisch, somit ist ein Vergleich ohnehin ziemlich fragwürdig. Die Samplemuster sind zwar gleichwertig aber nicht gleich. Je nach Winkel kann das NV oder das AMD 8xSG Muster im Vorteil sein. Die zwei Screens beweisen für mich nicht das NVs AA generell besser sein soll.


Bei den bisherigen DX11-Spielen hat das AA eher schlecht gegriffen.
Unterfilterung ist dann eklig, besonders bei Alphatests. Anstatt das Bild zu beruhigen erreicht man dann genau das Gegenteil.
Bei BF3 muss man ja für jedes bisschen Bildberuhigung dankbar sein...

SSAA tastet das gesamte Bild x-fach ab, daher sollte auch die entsprechende LoD-Verschiebung auf jeden Fall korrekt sein.

Iruwen
2012-08-20, 13:05:06
SSAA tastet das gesamte Bild x-fach ab

SSAA greift afaik nur da wo MSAA greift, in BF3 ist das aber sehr überschaubar deshalb bringt SSAA kaum was. Die LOD-Verschiebung greift dafür überall und das Ergebnis ist entsprechend eher schlimmer als vorher.
Die Diskussion hat sich sobald es einstellbares LOD unter DX11 gibt eh erledigt, bei NV kann man immerhin relativ zeitnah damit rechnen.

aufkrawall
2012-08-20, 14:32:22
Siehe meinen Edit. Sehr viele dieser Spiele laufen auch bei AMD völlig problemlos mit SSAA, tw. sogar mit weniger Blur und ohne das ich mit dem Bits herumfummeln muss. Spiele die bei NV völlig problemlos mit SSAA laufen und bei AMD gar nicht kenne ich jedenfalls in meiner Spielesammlung keine. Aber du kannst mir ja gerne welche nennen.

Wie schon gesagt: Wenn du bei AMD erzwingst, greift es nicht richtig.
Beispiele für den angeblichen "Blur" bei Nvidia hätte ich auch gerne mal gesehen (außer Diablo 3, wo es bei AMD natürlich auch wieder nicht zu 100% greift).
Durch die vollständige Glättung von HDR kann es unschärfer wirken, defakto hat das Bild aber mehr Informationen.
Wenn du keine Glättung des ganzen Bildes und damit teilweise mehr wahrgenommene Unschärfe willst, wirst du wohl bei MSAA oder DS bleiben müssen.


Die riesen SSAA-Liste zeigt für mich nur wie wenig bei NV out-of-the-box mit SSAA läuft.



Und genau das hat mich zunehmend genervt. Jüngstes Bsp war Diablo 3. Bei NV trotz vieler Bits die ich durchprobiert habe stets mit Blur

Der Blur geht noch (ist wohl mit neueren Treibern weniger geworden) und mit starker LOD-Verschiebung erhält man ein akzeptables Resultat.


bei AMD kam ein CAP heraus und ich hatte in Diablo 3 feinstes SSAA ohne Blur.

"feinstes"?
Geh mal mit dem Mauscursor über Eingäge, sodass dann da Licht rausscheint.
Dann verabschiedet sich die AMD-Glättung dort.



Wenn ich das richtig sehe ist nicht mal die Auflösung der beiden Bilder identisch, somit ist ein Vergleich ohnehin ziemlich fragwürdig.

Nein, das hat mit der Auflösung nichts zu tun. Bei Unigine Heaven hat man es auch so gesehen, bei völlig vergleichbaren Screens.


Die Samplemuster sind zwar gleichwertig aber nicht gleich. Je nach Winkel kann das NV oder das AMD 8xSG Muster im Vorteil sein.

Ich hab bisher nur noch nichts gesehen, wo AMD im Vorteil wäre...


SSAA greift afaik nur da wo MSAA greift, in BF3 ist das aber sehr überschaubar deshalb bringt SSAA kaum was. Die LOD-Verschiebung greift dafür überall und das Ergebnis ist entsprechend eher schlimmer als vorher.
Die Diskussion hat sich sobald es einstellbares LOD unter DX11 gibt eh erledigt, bei NV kann man immerhin relativ zeitnah damit rechnen.
Wenn man die Leistung übrig hat, ist es im MP mit SGSSAA schon eine Verbesserung, wenn man das LOD nicht verschiebt.
Gräser, Schatten etc. sind sichtbar weniger flimmerig.
Da DS bei dem Spiel ja nicht vernünftig geht, besser als nichts.

Mr. Lolman
2012-08-20, 14:32:28
SSAA greift afaik nur da wo MSAA greift, in BF3 ist das aber sehr überschaubar deshalb bringt SSAA kaum was. Die LOD-Verschiebung greift dafür überall und das Ergebnis ist entsprechend eher schlimmer als vorher.

Das müsste dann aber auch auf Screenshots erkennbar sein. Ich glaub eher, dass wiedermal MSAA eigtl. überall greift, aber aufgrund der Gammakorrektur die Zwischenstufen absaufen.

aufkrawall
2012-08-20, 14:33:52
Das müsste dann aber auch auf Screenshots erkennbar sein. Ich glaub eher, dass wiedermal MSAA eigtl. überall greift, aber aufgrund der Gammakorrektur die Zwischenstufen absaufen.
Ne, das MSAA von BF3 greift einfach ganz mies.

N0Thing
2012-08-20, 18:05:13
Wenn man die Leistung übrig hat, ist es im MP mit SGSSAA schon eine Verbesserung, wenn man das LOD nicht verschiebt.
Gräser, Schatten etc. sind sichtbar weniger flimmerig.
Da DS bei dem Spiel ja nicht vernünftig geht, besser als nichts.

Ist die Glättung bei TSSAA auch nicht optimal? Wäre sonst meine Wahl der Qual im Fall von BF3. Wenig Leistungseinbußen, keine Probleme durch evtl. LOD-Verschiebung und man erreicht eine bessere Glättung, als nur MSAA zu verwenden.

aufkrawall
2012-08-20, 18:31:05
Ist die Glättung bei TSSAA auch nicht optimal? Wäre sonst meine Wahl der Qual im Fall von BF3. Wenig Leistungseinbußen, keine Probleme durch evtl. LOD-Verschiebung und man erreicht eine bessere Glättung, als nur MSAA zu verwenden.
Puh, ich hab mit TrSSAA kaum einen Unterschied zu nur MSAA gesehen.
Die Gräser etwa haben immer noch ziemlich geflimmert, mit SGSSAA nicht mehr (sofern es greift).

dllfreak2001
2012-08-20, 18:39:40
Erstmal...

Warum nimmst du meinen Post auseinander?
In diesem Thread geht es doch um die eigenen Beweggründe!


lohnt auch selten, wenn nicht grad die zwei lieblingsspiele dieses schmankerl unterstützen. guckt man sich batman auf der PS3 an und dann full featured am PC mit NVidia, tun sich sich welten auf.

Tja, da pfeiff ich drauf. Das einzige echte PhysX-Spiel in meinem Besitz ist Mirrors Edge.


kann man nur auf dich beziehen; ich nutze CUDA seit 2008 und ohne selbiges hätte ich damals nie HD-content auf meinem notebook abspielen können (coreAVC). videos für ipad transkodieren kann ebenfalls beschleunigt werden und ohne CUDA hätten wir wohl nie openCL bekommen. insofern ein gutes feature und wegbereiter für einen allg. standard -> innovativ und sinnvoll.


Schnitt-Software, die CUDA unterstützt, günstig ist und in einfaches MPEG2-DVD-Format konvertiert, kamm zumindest damals seltener vor. Darüber hinaus hat es bei mir nicht den ultratollen Geschwindigkeitsvorteil gebracht. Häufig konnten die Konvertierten Datei nicht vom Abspielgerät gelesen werden oder die Qualität war schlecht oder die Fehlerkorrektur war Mist (DVB-T-Aufnahmen). Ich habe es letztendlich aufgegeben. CUDA ist für mich kein Kaufargument mehr.



den schrotter kann ich nicht nachvollziehen; das ist seit grestorn verschwunden ist ein must-have für NV-user.


Tja, für mich nicht. Nachdem mir genauso ein Tool den Start von Windows verwehrt hat weil der Treiber nicht installiert war, bleibt der Mist außen vor.


wäre das anders, hättest du DAS kaufargument. ich komme ohne NV und 3DV nicht mehr klar.. das MUSS ich haben (habs seit 10+ jahren).

3D wie es heute gemacht wird ist für mich ein unausgegorenes Konzept. Im Kino OK am PC aber OB. Wenn ich schon soviel Geld ausgeben müsste, wäre mir eine gute 2D-Qualität lieber.


ich bin bisher auch nicht warm damit geworden; nice 2 have, selten benutzt und auch auf AMD möglich.

Jo


es wird immer besser und mit kepler haben wir das beste SLi, das es seit voodoo je gab. insofern muss AMD da noch viele tage jahre nachsitzen.

Es lohnt sich nicht für Midrange-Karten also....


ich auch - aber vorziehen würde ich die proprietären NV-treiber. eher macht der gewohnheit; beide IHVs sind da besser als unbeschleunigter desktop.


Bei dem Scheiß den sie mit Optimus abziehen solltest du dir das genau überlegen. Ich habe damit gerade zu kämpfen...

aufkrawall
2012-08-20, 18:48:14
Tja, für mich nicht. Nachdem mir genauso ein Tool den Start von Windows verwehrt hat weil der Treiber nicht installiert war, bleibt der Mist außen vor.

Bezüglich des Inspectors ist das Unsinn.

boxleitnerb
2012-08-20, 18:53:50
Jo, da lag sicher was anderes im Argen. Sich deshalb einem so tollen Tools zu verschließen, naja...

SamLombardo
2012-08-20, 19:52:25
...

Hm. Da scheint sich aber jemand einiges schönzureden;).
Dass Mirrors Edge das einzige PhysX Spiel in deinem Besitz ist - ist ja interessant. Ich hab Mirrors Edge nie gespielt. dafür aber gerade vier andere physX Spiele auf der Platte (Alice 2, Mafia 2, Sacred 2, Arkham City)l Und in keinem möchte ich die PhysX Effekte - die die PC Version neben den ganzen Kantenglaettungen erst so richtig von den Konsolenfassungen abheben - missen. So what?

Und zu deiner Aussage bzgl 3D Vision: So was kann nur jemand sagen, der es noch nie live in Aktion gesehen hat. Genau das Gegenteil von dem was du schreibst ist (meiner Meinung nach) der Fall. Im Kino kann ich getrost drauf verzichten, in Games ist echtes 3D ein derartiger Gewinn an Immersion - es ist einfach die nächste Stufe. Selbst eingefleischte Ati Fans wie AyAlf haben das erkannt. Und das hat nichts mit Fanboytum zu tun. Hol Dir 3D Vision und wiederhole deine Aussage - wenn Du wiklich ehrlich bist wirst du es nicht;)

Gruss Sam

Skusi
2012-08-20, 20:18:18
Würde mich mal interessieren, wieviele Leute wirklich mit PhysX spielen und in welcher Auflösung.
Alle deinen genannten Spiele waren auf meiner 560ti nicht mehr wirklich schön mit PhysX. 10 Fps Pfefferkanone ahoi in Alice, ständiges Geruckel in Sacred 2, usw usw.
Auf mich wirken alle Spiele mit PhysX, wie aufgepropftes DX10 auf DX9 Titel. Kommt ganz nett, aber richtig flüssig ist mir dann doch lieber.

mfG

M4xw0lf
2012-08-20, 20:28:16
Ich habe aktuell genau gar kein Spiel mit GPU-Physx auf der Platte, und besitze mit Metro 2033 auch nur ein einziges. GPU-Physx als Kaufargument ist ziemlicher Käse... wenn man schon ne Geforce hat oder eh eine kaufen will, dann nimmt mans halt mit.

Raff
2012-08-20, 20:45:41
Puh, ich hab mit TrSSAA kaum einen Unterschied zu nur MSAA gesehen.
Die Gräser etwa haben immer noch ziemlich geflimmert, mit SGSSAA nicht mehr (sofern es greift).

Kann eigentlich nicht sein. 8x TSSAA beruhigt, sofern es denn geht, Alphatests besser als 8x SGSSAA mit LOD-Anpassung. Bei TSSAA wird das LOD nämlich nicht angepasst (auch nicht bei Ati), sodass die Alphatests bei LOD 0.0 oversampled werden – das ist vor allem bei Crysis & Warhead ein probates Mittel zur Flimmereduktion. :) Möglicherweise lief bei deinen Tests TSSAA nicht?

TMSAA hingegen ... nun, irgendwie geht das fast nie. Da kann man schon mal zu dem Schluss kommen, dass es nichts bringt.

Ich habe aktuell genau gar kein Spiel mit GPU-Physx auf der Platte, und besitze mit Metro 2033 auch nur ein einziges. GPU-Physx als Kaufargument ist ziemlicher Käse... wenn man schon ne Geforce hat oder eh eine kaufen will, dann nimmt mans halt mit.

Also Kaufargument allein ist's natürlich Bullshit, aber es ist ein Mehrwert. Mafia 2, Alice und demnächst Borderlands 2 sehen mit GPU-PhysX einfach cooler aus.

MfG,
Raff

aufkrawall
2012-08-20, 21:08:43
Kann eigentlich nicht sein.

Gerade noch mal getestet und stimmt, sieht kaum anders aus.
Keine Ahnung, was da früher vielleicht geklemmt haben kann...


8x TSSAA beruhigt, sofern es denn geht, Alphatests besser als 8x SGSSAA mit LOD-Anpassung. Bei TSSAA wird das LOD nämlich nicht angepasst (auch nicht bei Ati), sodass die Alphatests bei LOD 0.0 oversampled werden – das ist vor allem bei Crysis & Warhead ein probates Mittel zur Flimmereduktion. :)

Dafür bereinigt TrSSAA aber nur das Aliasing der Alphatests und deren Texturflimmern.
Wenn da wie bei Crysis etwa ständig Specular drauf ist, sieht TrSSAA deutlich schlechter aus als SGSSAA mit LOD-Verschiebung.
Die LOD-Verschiebung führt meiner Beobachtung nach eigentlich nicht zu deutlich mehr Flimmern bei Alphatests.
Die haben dann halt deutlich mehr Informationen und mehr Informationen führen automatisch zu mehr Aliasing/Rauschen etc.

N0Thing
2012-08-20, 21:13:50
Würde mich mal interessieren, wieviele Leute wirklich mit PhysX spielen und in welcher Auflösung.
Alle deinen genannten Spiele waren auf meiner 560ti nicht mehr wirklich schön mit PhysX. 10 Fps Pfefferkanone ahoi in Alice, ständiges Geruckel in Sacred 2, usw usw.
Auf mich wirken alle Spiele mit PhysX, wie aufgepropftes DX10 auf DX9 Titel. Kommt ganz nett, aber richtig flüssig ist mir dann doch lieber.

mfG


Ich habe die beiden Batman Spiele mit 1680x1050 mit 4xMSAA+TSSAA gespielt.
Beim ersten Teil kam eine GTX 275 + 8800GT zum Einsatz. Beim zweiten Teil eine GTX 470. Lief nicht immer rund, war aber immer spielbar. PhysX jeweils immer auf der höchsten Einstellung. Der GF1x0 war natürlich eher für PhysX geeignet als der GF1x4.

Simon
2012-08-20, 23:21:27
Für mich ganz klar Treiberqualität.
Das ist fuer mich der einzige Punkt, warum ich immer Nvidia kaufe. Oder Intel iGPUs. AMD-Treiber haben so tolle Features wie "Um diesen externen Monitor zu nutzen muessen Sie neustarten." und danach "Um diesen externen Monitor mit etwas anderem als 640x480 zu nutzen, muessen Sie neustarten." Und dann funktioniert es trotzdem nicht (Thinkpad X121, HP Elitebook 8560p).
Monitore mit Displayport flackern alle paar Minuten. Danke, da will ich den Rest der "Features" gar nicht erst sehen...

Da zahl ich dann gerne auch 25% mehr um funktionierende Treiber zu haben :eek:

urbi
2012-08-21, 01:14:53
Ich war ATI-Nutzer seit der Radeon (64MB DDR 183Mhz). Das war eine tolle Karte, erstmals gab es wirklich sowas wie eine Geforce von einem anderen Hersteller.
Auch mit den folgenden Karten war ich sehr zufrieden: Insbesondere die 9700 (Pro) war natürlich über Jahre toll, später hatte ich die X1950XTX und schließlich die HD3870 - jeweils damals relativ leise Karten mit relativ viel Leistung. Ich finde aber, dass sich die Situation mit den Radeons seit der Übernahme durch AMD verschlechterte. Mag sein, dass die G80 auch einfach zu krass war, aber ich fand es ging irgendwie mit den Treibern eher bergab als bergauf und die Karten zeichneten sich primär durch Preis/Leistungsverhältnis aus. Nervig fand ich irgendwann vorallem, dass immer mehr (AMD-)Features in die Treiber reingebuttert wurden (und Gratis WOW Demos), wichtige und sinnvolle Features aber nicht kamen. Bei NVIDIA hingegen hatte man inzwischen gelernt stromsparende, leise Karten zu bauen. Die Treiber hatten noch immer einen tollen Ruf. Daher griff ich schließlich zur Geforce GTX 460 von EVGA. Ich glaube ich war mit kaum einer Karte zufriedener. Es ist glaube ich die günstigste Grafikkarte die ich jemals hatte, aber es ist auch die leiseste und gleichzeitig die mit der ich am allerwenigsten Probleme hatte. EVGA ist äußerst gut was Support angeht. Die Treiberinstallation der NVIDIA-Treiber geht auch wenn man es sauber macht sehr viel schneller von der Hand als bei AMD und - wow - ich brauche oft gar nicht mit Einstellungen und den Treiberversionen rumdoktoren um ein gutes Ergebnis zu haben. Es ist das älteste Argument und mag sein dass es zwischenzeitig sogar mal nicht gestimmt hat, aber mit NVIDIA hat man wirklich ruckzuck die Spiele so wie sie sein sollten.

Inzwischen hat AMD auch wieder ein paar gute Karten, aber da ich nicht glaube dass AMD bei den Treibern so aufgeholt hat. Insbesondere habe ich gelesen, dass man jetzt keine monatlichen neuen Treiber rausbringt - das war IMO der einzige Vorteil bei AMD, wenn auch das Updaten oft eher Zwang als Luxus war.

dllfreak2001
2012-08-21, 08:09:45
Hm. Da scheint sich aber jemand einiges schönzureden;).
Dass Mirrors Edge das einzige PhysX Spiel in deinem Besitz ist - ist ja interessant. Ich hab Mirrors Edge nie gespielt. dafür aber gerade vier andere physX Spiele auf der Platte (Alice 2, Mafia 2, Sacred 2, Arkham City)l Und in keinem möchte ich die PhysX Effekte - die die PC Version neben den ganzen Kantenglaettungen erst so richtig von den Konsolenfassungen abheben - missen. So what?

Genau 1 Mio identisch zerquetschte Getränkedosen heben den Realismus, na klar. ;D
Die meisten Implementierungen von PhysX sind mehr schlecht als recht weil sie sich entweder nicht realistisch verhalten (Mafia2 würg!) oder trotz ordentlicher Graka kleine Ruckler auslösen (UE3-Spiele), die mich unglaublich stören. Außerdem kommt es zu selten vor, als dass ich es als Kaufargument gelten lassen würde.


Und zu deiner Aussage bzgl 3D Vision: So was kann nur jemand sagen, der es noch nie live in Aktion gesehen hat. Genau das Gegenteil von dem was du schreibst ist (meiner Meinung nach) der Fall. Im Kino kann ich getrost drauf verzichten, in Games ist echtes 3D ein derartiger Gewinn an Immersion - es ist einfach die nächste Stufe. Selbst eingefleischte Ati Fans wie AyAlf haben das erkannt. Und das hat nichts mit Fanboytum zu tun. Hol Dir 3D Vision und wiederhole deine Aussage - wenn Du wiklich ehrlich bist wirst du es nicht;)

Gruss Sam

Ich habe es schon live probiert und ich will es nicht. Während ich bei einem 2D-Bild keine echte Tiefe erwarte, ist es bei 3D anders. Dort wollen meine Augen ständig fokussieren, nach ausgedehnten Sessions schmerzen meine Augen.... Außerdem ist es etwas anderes wenn ich passiv dabei (Kino) bin oder im Egoshooter ständig das Bild nach Gegnern absuche. Außerdem ist die ganze Sache vom Spiel abhängig, kostet Performance, mindert die Bildqualität...

Dann nervt mich auch noch dieses Flimmern der Shutterbrillen... Ich habe keinen TFT gekauft um mir diesen Mist wieder antun zu müssen.

Ich werde doch nicht soviel Geld in eine Technik setzen um diese dann nicht zu nutzen.:freak:

Iceman346
2012-08-21, 08:20:22
Also Kaufargument allein ist's natürlich Bullshit, aber es ist ein Mehrwert. Mafia 2, Alice und demnächst Borderlands 2 sehen mit GPU-PhysX einfach cooler aus.

Cooler ist Geschmackssache. Die PhysX Implementationen die ich bisher gesehen hab haben in den seltensten Fällen wirklich Optik gebracht. Meist ist es reiner Partikeloverkill der wie gewollt und nicht gekonnt aussieht. Einfach viele viele Partikel weil man es kann. Mafia 2 ist dafür imo das perfekte Beispiel, so viel Putz wie da mit PhysX von den Wänden kommt wenn man draufschießt war da nie drauf ;) Auch das Borderlands 2 PhysX Video schlägt genau in die gleiche Kerbe. Genauso wie die zwanghaft immer wieder irgendwie untergebrachten zerstörbaren Banner.

Das sieht aus als würde Nvidia da eine Library aus nutzbaren Effekten liefern und dann wird eben das erstbeste/leichteste eingebaut um die Förderung abzugreifen.

Gut fand ich dagegen die Kleidungssimulation in Mafia 2 (aber das ist ja eigentlich nichts wofür man Hardware PhysX braucht) und die Nebeleffekte in Batman: AA.

MadManniMan
2012-08-21, 09:26:03
Ich habe es schon live probiert und ich will es nicht. Während ich bei einem 2D-Bild keine echte Tiefe erwarte, ist es bei 3D anders. Dort wollen meine Augen ständig fokussieren, nach ausgedehnten Sessions schmerzen meine Augen.... Außerdem ist es etwas anderes wenn ich passiv dabei (Kino) bin oder im Egoshooter ständig das Bild nach Gegnern absuche. Außerdem ist die ganze Sache vom Spiel abhängig, kostet Performance, mindert die Bildqualität...

Hui, sorry für Dich, aber:

1) wenn Du es nicht verträgst, ist nicht automatisch die Technik scheiße
2) jau, die Implementierung je nach Spiel nervt noch ziemlich
3) natürlich kostet es Performance, es wird ja schließlich auch doppelt so viel berechnet
4) die Bildqualität wird nur gemindert, wenn das Spiel nicht auf Stereo ausgerichtet ist, siehe 2)


Dann nervt mich auch noch dieses Flimmern der Shutterbrillen... Ich habe keinen TFT gekauft um mir diesen Mist wieder antun zu müssen.

Wann genau hast Du Shutterbrillen zuletzt probiert?

aufkrawall
2012-08-21, 11:20:34
oder trotz ordentlicher Graka kleine Ruckler auslösen (UE3-Spiele), die mich unglaublich stören.
Kann mich nicht erinnern, dass etwa bei Mirror's Edge es durch PhysX geruckelt hätte. Zumindest nicht ohne SGSSAA.

sth
2012-08-21, 11:45:22
Das ist fuer mich der einzige Punkt, warum ich immer Nvidia kaufe. Oder Intel iGPUs. AMD-Treiber haben so tolle Features wie "Um diesen externen Monitor zu nutzen muessen Sie neustarten." und danach "Um diesen externen Monitor mit etwas anderem als 640x480 zu nutzen, muessen Sie neustarten." Und dann funktioniert es trotzdem nicht (Thinkpad X121, HP Elitebook 8560p).
Monitore mit Displayport flackern alle paar Minuten. Danke, da will ich den Rest der "Features" gar nicht erst sehen...

Da zahl ich dann gerne auch 25% mehr um funktionierende Treiber zu haben :eek:
Gestern wieder so ein tolles "Feature" erlebt:

Ich wollte von Catalyst 12.6 auf 12.8 updaten (mobile).
Da man bei ATI keinen direkten Download-Link bekommt dachte ich: Probier' ich mal die dämliche Downloader-Anwendung aus (catalyst_mobility_64-bit_util.exe), die ich vom vorherigen Treiber noch auf der Platte liegen habe. Ergebnis: Lädt natürlich die alte Version runter. :rolleyes:

Also auf die ATI-Seite gegangen und die aktuelle Version des Downloaders gezogen. Ergebnis: Lädt gar nichts runter. Nach einer Sekunde "Der Download ist Fehlgeschlagen". Hab's mehrfach probiert, auch mit Neustart dazwischen. Kein Erfolg.

Das sind alles solche Dinge, die einfach nur unnötig nerven. Natürlich habe ich dann kurzerhand eine Internetseite finden können, die den eigentlichen Installer hostet, aber warum muss ich mich als Kunde überhaupt mit soetwas herumschlagen? Warum brauchen wir versionsspezifische Downloader-Anwendungen um eine 120mb-Datei herunterzuladen?

SamLombardo
2012-08-21, 13:36:44
...

Du pauschalisierst Dinge, die (aus welchen Gründen auch immer) deine persönliche Meinung sind, als allgemeingültig. Wie MMM schon geschrieben hat gehörst Du zu der kleinen Minderheit die 3D nicht vertragen. Dass es deshalb FÜR DICH nicht gut nutzbar ist versteh ich ja. Ich dagegen hatte noch nie tränende oder schmerzende Augen und mit mir 90 Prozent der 3D User auch nicht. Und mit 3DV 2 ist auch ghosting oder Flimmern kein Thema. Auch Shutter hat sich weiterentwickelt:wink:

Mit meiner GTX 670 ist mir noch kein Spiel untergekommen, dass in 3D ruckeln würde. Selbst „Hardware Killer“ wie BF3 oder Arkham City inkl DX11 und PhysX laufen ruckelfrei in feinstem S3D.

Und wie kommst Du denn auf die merkwürdige Idee, dass S3D die Bildqualität vermindern würde? Siehe MadManniMan ist es vielleicht bei Titeln der Fall wo man Effekte für 3D abschalten muss. Nicht aber in den mehr als 100 Titeln, die eine 3D Vision Einstufung „ausgezeichnet“ oder „3D Vision Ready“ bekommen haben. Da verringert sich keinerlei Bildqualität, eher das Gegenteil der Fall: Schau dir Trine 2 oder Skyrim in echtem 3D an. Kinnladenmomente sind garantiert – mit der „Nebenwirkung“, dass danach die platte Variante einfach nur unvollständig erscheint:)!

Es ist halt wie alles eine Frage des Blickwinkels

Gruß Sam

Iruwen
2012-08-21, 13:43:10
Wenn ich ein 120Hz Display hätte würde ich mir jetzt 'ne Brille kaufen :D

Hübie
2012-08-21, 15:19:47
Don´t feed the trolls my fanboys ;D

http://www.abload.de/img/amd_nvidia_logolas0o.png (http://www.abload.de/image.php?img=amd_nvidia_logolas0o.png)

PhysX ist eindeutig zu selten am Markt vertreten um es als relevantes Kauf- oder Verkaufsargument einzusetzen.
Das 3D-Erlebnis hängt auch stark von der Engine und eigener Hardware ab.

Mr.Magic
2012-08-21, 15:24:20
PS: schrieb sich das früher mal nVidia oder warum schreiben das viele so?

Firmenlogo. Ist n, nicht N.

http://www.google.com/search?q=nvidia+logo&hl=en&prmd=imvnsz&tbm=isch&tbo=u&source=univ&sa=X&ei=SYszUL-MN8bmtQbJ-IDYCw&sqi=2&ved=0CEkQsAQ&biw=1916&bih=963

@Topic
Profiler (nHancer, Inspector, wasauchimmerunsinzukunftbegleitet)
viele Einstellmöglichkeiten (Hybrid-AA, Bits, SSAO)
3D Vision - Wobei das alte, offene Stereo 3D besser war. Da wurde alles an Geräten unterstützt, und OpenGL ging auch.

akuji13
2012-08-21, 15:35:12
Open GL flimmert? SGSSAA läuft, Hybridmodi erledigen den Rest.


Gerade weil ich viele ältere Titel spiele, weiß ich nVs Modi zu schätzen.

[LIST]
Viele Einstellungsmöglichkeiten (ich kenne kein so gutes Tool wie den Inspector)

Ich hab ja zwei baugleiche Rechner, einen mit ner 680 und einen mit ner 7950...jedesmal vermisse ich den Inspector. :rolleyes:

HarryHirsch
2012-08-21, 15:43:13
Wo bleibt der "Pro AMD/ATI - aber warum eigentlich???" thread?

Mr.Magic
2012-08-21, 15:49:11
Den braucht es nicht. Nur NV wird für Fehler an den Pranger gestellt. Ist mir auch ganz recht so. Die beseitigen diese Unannehmlichkeiten nämlich relativ flott.
Wieviele Jahre musste bei AMD nach SSAA und Profil-Unterstützung gebettelt werden? :tongue:

aufkrawall
2012-08-21, 15:51:21
Wo bleibt der "Pro AMD/ATI - aber warum eigentlich???" thread?
Erstell doch einen. ;)
Bin mal gespannt, was außer "günstiger" sich darin noch so wiederfinden wird. :tongue:

Hübie
2012-08-21, 16:02:06
Sagt mal: Weiß eigentlich jemand was mit Grestorn passiert ist? Nach tombmans gehen war auch er plötzlich weg. Kein Lebenszeichen mehr. Oder hat er einfach nur einen neuen account?

sry for OT!

@krawall: ;D;D [x] "Wärmt das Zimmer mehr auf" fehlt da noch.

aufkrawall
2012-08-21, 16:04:38
Sagt mal: Weiß eigentlich jemand was mit Grestorn passiert ist? Nach tombmans gehen war auch er plötzlich weg. Kein Lebenszeichen mehr. Oder hat er einfach nur einen neuen account?

Er hat hier vor nicht allzu langer Zeit mit nem Gastaccount mal geschrieben (etwa im Inspector-Thread).


@krawall: ;D;D [x] "Wärmt das Zimmer mehr auf" fehlt da noch.
Och, wenn man aus den Geforces mit simplem OC auch bis zu 30% mehr Leistung rauskriegen könnte, würd ich das in Kauf nehmen. :redface:

M4xw0lf
2012-08-21, 16:10:29
@krawall: ;D;D [x] "Wärmt das Zimmer mehr auf" fehlt da noch.

Ja, jetzt wo nach zwei-drei Generationen NV bei Leistungsaufnahme/Effizienz/Abwärme mal wieder leicht (und nur in Teilen des Portfolios) vorne ist, sind das wieder großartige pro-Argumente. Aber Tatsache ist doch, dass im Moment auf diesem Gebiet bei beiden Herstellern so viel Gleichheit herrscht wie schon lange nicht mehr (die unglückliche 7970 "Gigawatt"-Edition mal ausgenommen).

Hakim
2012-08-21, 16:34:24
einige Argumente hätten die schon, z.B bricht nicht in höheren Auflösungen und AA so ein und ZeroCore. Will hier aber jetzt nichts los brennen lassen

Langenscheiss
2012-08-21, 16:54:37
Wo bleibt der "Pro AMD/ATI - aber warum eigentlich???" thread?

Die Vorteile, die sich über !mehrere Generationen! durchgesetzt haben, kannst du doch an 3 Fingern abzählen. Zurzeit wüsste ich genau 2 Argumente pro AMD:

- LoD Anpassung bei SGSSAA unter Dx11
- Bessere und frühere Abdeckung der relevanten Preisbereiche

Das erste gilt erst seit der 7ner Serie und !auschließlich! für die 7ner Serie. Letzteres ist auch nur dann ein Vorteil, wenn man sich ein Preislimit setzt und nicht abwarten kann. Gibts da sonst noch viel, was man als AMD exkluven Vorteil benennen könnte? Ich glaub nicht, dass man dafür n Thread braucht, aber meinswegen kann ja einer aufgemacht werden.

Klingone mit Klampfe
2012-08-21, 17:19:21
Ich verstehe bei diesen ganzen Debatten nie, warum sich viele scheinbar ein Monopol wünschen. Das momentane "Dualpol" führt ja jetzt schon zu technologischer und preislicher Stagnation. Im Grafikkartenmarkt gibt es keine relevante Bewegung mehr. Die beiden großen Hersteller sind mit ihrer aktuellen Marktposition jeweils zufrieden.

Was wir momentan brauchen ist nicht ein "Sieg" von nVidia oder AMD, sondern ein dritter Hersteller, der den Laden mal wieder ordentlich aufmischt und auch mal etwas riskiert, auch wenn er dabei auf die Fresse fliegt (vgl. PowerVR, S3). Stattdessen gibt's nur Experimental-Schrott wie Lucid Logix Hydra. Einzig die neuen Konsolen könnten wieder ein Innovationsfeuer entfachen -- AMD und nVidia geben sich derzeit auch mit rohem Fleisch zufrieden.

N0Thing
2012-08-21, 17:52:06
Noch mehr als weitere Wettbewerber (die ich jederzeit begrüßen würde) braucht der Markt ein Herstellungsverfahren das es den Herstellern ermöglicht, ihre Pläne auch umsetzen zu können.
Wenn man mal bedenkt, daß es ein Jahr brauchen wird (Ende 2011 bis Ende 2012), bis alle Kunden von TSMC auch so viele Chips bekommen, wie sie es sich wünschen, erscheint mir der momentane Bewegungsmangel nicht an den zwei Wettbewerbern zu liegen.

Nur sieht es da in der Zukunft nicht rosig aus, eher das Gegenteil. Daß ein Auftragsfertiger bald mit TSMC aufschließen kann ist unwahrscheinlich und die weiteren Fertigungsprozesse werden auch nicht einfacher zu handhaben sein.

Hübie
2012-08-21, 18:08:42
Ja, jetzt wo nach zwei-drei Generationen NV bei Leistungsaufnahme/Effizienz/Abwärme mal wieder leicht (und nur in Teilen des Portfolios) vorne ist, sind das wieder großartige pro-Argumente. Aber Tatsache ist doch, dass im Moment auf diesem Gebiet bei beiden Herstellern so viel Gleichheit herrscht wie schon lange nicht mehr (die unglückliche 7970 "Gigawatt"-Edition mal ausgenommen).

Ach was. Wollte nur mal etwas flamen :biggrin:
@Klingone mit Klampfe: Was willst du machen wenn das selbst geschaffene Dualpol schon existiert?
Ich habe damals ja S3 und PowerVR gekauft, aber die waren einfach kacke. 3dfx dann auch irgendwann. Dann kam ATi mit der großartigen R300-Serie und nVidia mit der GeForce 4. Die haben sich am Markt durchgesetzt weils damals das beste fürs Geld war.
Nun haben wir halt den Salat und müssen (als gamer) eben damit Leben nur zwei Parteien wählen zu "dürfen". :rolleyes: S-a-l-a-m-i-t-a-k-t-i-k gibts ja nun wirklich schon lang genug. :freak:

dllfreak2001
2012-08-21, 18:28:05
Hui, sorry für Dich, aber:

1) wenn Du es nicht verträgst, ist nicht automatisch die Technik scheiße
2) jau, die Implementierung je nach Spiel nervt noch ziemlich
3) natürlich kostet es Performance, es wird ja schließlich auch doppelt so viel berechnet
4) die Bildqualität wird nur gemindert, wenn das Spiel nicht auf Stereo ausgerichtet ist, siehe 2)


1) Die Technik ermöglicht auch dir nicht das fokussieren theoretisch weit entfernter Objekte. Bei Spielen ist das umso heftiger als bei schnödem Kino.
Außerdem stört mich die Brille als solches, denn ich bin kein Brillenträger.

2) Wozu soll ich Geld für eine Technik ausgeben die bei vielen Spielen die ich zocke sowieso nichts taugt.

3) Und weil es so ist habe ich einen weiteren Grund warum ich 3D nicht brauche!

4) nicht nur das... das Geflimmer zähle ich dazu. Zudem sind die 120-Hz-Monitore bei 2D-Bildqualität häufig nicht besser als die billigen TN-Dinger aus dem Supermarkt. Für den Aufschlag den man dafür zahlt ist das eindeutig zu wenig. Die ordentlichen sind dann wieder so teuer, dass sie aus meinem Interessenbereich heraus sind.



Wann genau hast Du Shutterbrillen zuletzt probiert?
Vor einer Woche beim Kumpel... Es flimmert zu stark.

5) DAAAAAAAAAAASSSSSS sind meine Kaufargumente mein Ansprüche, verdammte Sche....!!!!




...
Mit meiner GTX 670 ist mir noch kein Spiel untergekommen, dass in 3D ruckeln würde. Selbst „Hardware Killer“ wie BF3 oder Arkham City inkl DX11 und PhysX laufen ruckelfrei in feinstem S3D.
...


Eine GTX670 ist mir für mein Grafikkarten-Budget (150 €) auch noch nicht untergekommen -.-
Bis zur GTX260 erzeugte Mirrors Edge und UT3-PhysX ständig stotterer, erst mit meiner aktuellen GTX 560 ist das weg. Für PhysX spricht das trotzdem nicht.

Wildfoot
2012-08-21, 20:37:25
Ach was. Wollte nur mal etwas flamen :biggrin:
@Klingone mit Klampfe: Was willst du machen wenn das selbst geschaffene Dualpol schon existiert?
Ich habe damals ja S3 und PowerVR gekauft, aber die waren einfach kacke. 3dfx dann auch irgendwann. Dann kam ATi mit der großartigen R300-Serie und nVidia mit der GeForce 4. Die haben sich am Markt durchgesetzt weils damals das beste fürs Geld war.
Nun haben wir halt den Salat und müssen (als gamer) eben damit Leben nur zwei Parteien wählen zu "dürfen". :rolleyes: S-a-l-a-m-i-t-a-k-t-i-k gibts ja nun wirklich schon lang genug. :freak:

Hehe

Du kannst dir ja auch eine Intel HD4000 Graphics kaufen. ;)
Aber ob damit zocken kannst..... :rolleyes:

Gruss Wildfoot

Hübie
2012-08-21, 20:39:06
Deswegen setzte ich ja das "gamer" in die Klammer. Bei Intel haste aber auch bzgl. Treiber öfter mal die Brille auf.
Allerdings habe ich seit einiger Zeit keine Intelgrafik mehr genutzt... Also kann ich das auch nicht mehr in der aktuellen Lage beurteilen.

MadManniMan
2012-08-21, 21:35:15
1) Die Technik ermöglicht auch dir nicht das fokussieren theoretisch weit entfernter Objekte.[quote]

Völlig richtig. Manchen wird davon unwohl -- meinem Bruder, Dir, etc. pp. Die reine Stereoimplementierung ist nur ein Schritt in Richtung räumlicher Darstellung.


[quote]Bei Spielen ist das umso heftiger als bei schnödem Kino.

Findest Du? Ich habe bisher einzig festgestellt, dass mich bei im Vornherein festgelegten DoF anfangs bis zur Gewöhnungsschwelle jenes ein wenig stört. Später akzeptiert mein Kopf dann die Blickführung.


Außerdem stört mich die Brille als solches, denn ich bin kein Brillenträger.

Guter Punkt -- vielleicht gibt sich das mit besseren autostereoskopischen Displays in Zukunft.


2) Wozu soll ich Geld für eine Technik ausgeben die bei vielen Spielen die ich zocke sowieso nichts taugt.

Persönliche Kosten-Nutzen-Rechnung. Momentan spiele ich auch kein einziges Spiel, bei dem ich mit der Gesamtperformance meines Systems (Hardware + Spiel + Erlebnis) zufrieden bin. Trotzdem bereue ich den Kauf nicht, da für mich persönlich stereoskopisches 3D manche Spiele auf ein Level gehoben hat, das ich anders nicht hätte erleben können.

Um mal kurz von der neutralen Position weg zu gehen: Du bist schon aus Prinzip ziemlich anti, hm?


3) Und weil es so ist habe ich einen weiteren Grund warum ich 3D nicht brauche!

OK, das ist jetzt albern. Du hast bereits festgestellt, dass Stereo-3D für Dich scheiße ist, weil Du es nicht verträgst -- warum also über die anderen Argumente derartig nachdenken?


4) nicht nur das... das Geflimmer zähle ich dazu. Zudem sind die 120-Hz-Monitore bei 2D-Bildqualität häufig nicht besser als die billigen TN-Dinger aus dem Supermarkt. Für den Aufschlag den man dafür zahlt ist das eindeutig zu wenig. Die ordentlichen sind dann wieder so teuer, dass sie aus meinem Interessenbereich heraus sind.

(...)

Vor einer Woche beim Kumpel... Es flimmert zu stark.

Oookay? Welches System?


5) DAAAAAAAAAAASSSSSS sind meine Kaufargumente mein Ansprüche, verdammte Sche....!!!!

Jau, deswegen ist es ja auch fragwürdig, dass Du Deine Position so verallgmeinerst.

Langenscheiss
2012-08-22, 02:37:35
Hehe

Du kannst dir ja auch eine Intel HD4000 Graphics kaufen. ;)
Aber ob damit zocken kannst..... :rolleyes:

Gruss Wildfoot

Amnesia z.B. bleibt bei den Settings, bei denen meine HD5850 sehr flüssig läuft, gerade so spielbar, aber zoggn kann schon n paar Sachen ;)

Hübie
2012-08-22, 02:52:38
Amnseia hat ja nun wirklich keinen Anspruch an die Grafik. :freak: Die taugen einfach nix die iGPUs...

Mordred
2012-08-22, 04:06:00
Dungeon Siege 3 geht auch noch halbwegs auf hoher qualität. Diablo 3 rennt auch.

Hübie
2012-08-22, 06:01:45
Ja wir können jetzt hier noch 1000 Spiele herauskramen bei denen ich alles auf matsch hässlich stelle um auf einer HD 4000 zu laufen, aber das bringt uns nur noch weiter vom Thema weg. ;D

sei laut
2012-08-22, 07:40:30
In der Umfrage stehen nur Linuxtreiber, doch gerade die Windowstreiber haben mich wieder in die Hände von nVidia getrieben. Bei nVidia installiere ich einen als stable erschienenen Treiber und er funktioniert ohne Kinderkrankheiten. Bei den AMD Treibern war das (zuletzt festgestellt mit der 4870) ein Glücksspiel, einen guten zu erwischen.

Allerdings installiere ich auch nicht mehr jeden, der erscheint, vielleicht trügt daher meine Einschätzung.

Hübie
2012-08-22, 07:43:31
Ich kann da nur aus Erfahrung mit einer HD 6870 sprechen. Da gabs hin und wieder so nervige Stolperfallen und beschissenes CCC, aber dass etwas nicht lief kam nicht vor. Andererseits wird an dem Rechner auch nur sowas wie Dead Island, BF3 und Diablo III gezockt.

Mordred
2012-08-22, 12:54:59
Ja wir können jetzt hier noch 1000 Spiele herauskramen bei denen ich alles auf matsch hässlich stelle um auf einer HD 4000 zu laufen, aber das bringt uns nur noch weiter vom Thema weg. ;D

hohe qualität ist nicht matschhässllich ;)

Knuddelbearli
2012-08-22, 19:14:52
also ich habe ne zeitlang jeden neuen nv treiber bei meiner 580 installiert und da waren evrdammt viele stolperfallen dabei das mal das oder jene funktion nimemr ging oder auch mal ein psiel nimemr funktionierte das vorher noch ging
sei laut das scheint dich also zu täuschen

dllfreak2001
2012-08-22, 20:11:53
Völlig richtig. Manchen wird davon unwohl -- meinem Bruder, Dir, etc. pp. Die reine Stereoimplementierung ist nur ein Schritt in Richtung räumlicher Darstellung.

Mir wird nicht unwohl, es ist nur anstrengend für meine Augen. Ich habe sogar ausgezeichnete Augen, vielleicht stört mich diese ungewohnte Abweichung deshalb.




Findest Du? Ich habe bisher einzig festgestellt, dass mich bei im Vornherein festgelegten DoF anfangs bis zur Gewöhnungsschwelle jenes ein wenig stört. Später akzeptiert mein Kopf dann die Blickführung.

Ja finde ich.




Guter Punkt -- vielleicht gibt sich das mit besseren autostereoskopischen Displays in Zukunft.

Dieser Gameboy 3DS scheint nicht so extrem zu sein. Wahrscheinlich weil der nicht flimmert.




Persönliche Kosten-Nutzen-Rechnung. Momentan spiele ich auch kein einziges Spiel, bei dem ich mit der Gesamtperformance meines Systems (Hardware + Spiel + Erlebnis) zufrieden bin. Trotzdem bereue ich den Kauf nicht, da für mich persönlich stereoskopisches 3D manche Spiele auf ein Level gehoben hat, das ich anders nicht hätte erleben können.

Tja, ich sehe dann jeden Fehler bei der Implementierung. Das geht mir auf die Dauer dann so auf den Sack, dass mir dann die Lust am spielen vergeht. Meine Prioritäten sind eben anders gelagert.

Auch spiele ich nicht so viel Mainstream-Zeugs, dort greift 3D oft nicht richtig oder es werden grafische Elemente wie das HUD falsch dargestellt.


Um mal kurz von der neutralen Position weg zu gehen: Du bist schon aus Prinzip ziemlich anti, hm?

Nö Pro, habe seit drei Aufrüstgenerationen nur noch NVidia-Karten. Sicher nicht ohne Grund... aber eben nicht wegen dieser Punkte.





OK, das ist jetzt albern. Du hast bereits festgestellt, dass Stereo-3D für Dich scheiße ist, weil Du es nicht verträgst -- warum also über die anderen Argumente derartig nachdenken?

Weil sie auch relevante Gründe für mich sind.




Oookay? Welches System?


3D-Vision-Brille 1. Generation mit einer 570er Geforce
und einen Panasonic Plasma-TV. Bei beiden ist es das gleiche Spiel und er hat ähnliche Symptome, merkwürdigerweise ist er trotzdem ein 3D-Freak.



Jau, deswegen ist es ja auch fragwürdig, dass Du Deine Position so verallgmeinerst.

Du fragst uns was unsere Gründe Pro-Nvidia sind und ich antworte auch so.
Da kann ich nichts dafür wenn der Einzelne angepisst ist, weil sein Lieblingsfeature bei mir nicht zieht.

AffenJack
2012-09-05, 20:06:14
Vor der 7970 neutral, mittlerweile pro Nvidia aufgrund der Treiberqualität bei Amd. Ich hatte noch niemals soviele Treiberprobleme wie mit dieser Grafikkarte. Dabei waren früher die Atitreiber während ich ne 4850 hatte top und ich fandse noch besser als die Nvidiatreiber bei meiner GTX570, aber mittlerweile krieg ich die Krätze mit den.

rudl
2012-09-05, 20:15:01
pro nvidia weil:
[x] Linuxtreiber

fuck you nvidia weil:
[xxxxx] opencl arschlahm ist auf den neuen nvidias, doubleprecision fail :freak::freak::freak:

pro amd weil:
[x] opensource linuxtreiber in entwicklung

fuck you amd weil:

[x] want better driver

Raff
2012-09-05, 20:19:11
Vor der 7970 neutral, mittlerweile pro Nvidia aufgrund der Treiberqualität bei Amd. Ich hatte noch niemals soviele Treiberprobleme wie mit dieser Grafikkarte. Dabei waren früher die Atitreiber während ich ne 4850 hatte top und ich fandse noch besser als die Nvidiatreiber bei meiner GTX570, aber mittlerweile krieg ich die Krätze mit den.

Wo klemmt's denn überall? :confused:

MfG,
Raff

Knuddelbearli
2012-09-05, 20:31:39
also mir ging es genau umgekehrt ^^ vorher ne 5850 0 problem, meine 480 spackt aber immer mal wieder rum, mit jedem treiber ändert sich das problem / Problemspiel.

aber geld sitzt gerade nicht locker ( für so sachen die ich eigentlich gar nicht brauche ^^ ) die 480er muss noch bis uzur 20nm Generation halten ^^

AffenJack
2012-09-05, 20:32:54
Wo klemmt's denn überall? :confused:

MfG,
Raff

Eigentlich nur Kleinigkeiten, aber ich bin gerade genervt davon, dass mit jedem neuen Treiber nen Fehler verschwindet, aber nen neuer auftaucht.
Begann schon beim ersten installieren, irgendwie ist die Installation schiefgegangen und lief nicht richtig und ich musste es komplett runterhauen und neuinstallieren, da drüberklatschen nicht half. Aber das war nicht so schlimm.
Mit glaube 12.4 hatte ich dann das Problem, dass manchmal der Bildschirmtreiber zurückgesetzt wurde.
Mit 12.6 war das glaube weg, aber sobald die Graka in Zeropower ging, sie nicht mehr daraus kam ohne resetknopf.
Nun mit 12.8 war ich glücklich das auch das weg war, mache eben Dirt an und was ist? Ich kann 1 Rennen spielen und beim 2ten bleibt er beim Laden hängen, wenn er gerade den Bildschirm initialisiert. Zudem ruckelt es manchmal. Vorm 12.8 lief das wunderbar.
Man kann mir zwar vorwerfen, dass ich die treiber nur drüberhaue und nicht vorher deinstalliere, aber ich hatte früher weder bei Ati noch Nvidia Probleme damit.

V2.0
2012-09-05, 20:32:55
Adaptive VSync

und meine privaten AMD Karten gingen alle nach 24-28 Monaten (kurz nach Ablauf der Garantie kaputt) die Nvs leben alle noch bis zur TNT2 Ultra.

Raff
2012-09-05, 20:34:08
Ich frag mich dabei immer, was ihr so spielt, denn ich habe echt keine Probleme - also weder mit der GTX 280 noch mit der HD 5870, weder mit der GTX 580 noch mit der HD 7970 ... Also Kleinigkeiten wie "Spiel X spackt direkt beim Release" gibt's bei AMD definitiv öfter, aber sonst? Spacking Zero Core - aber das kann bei Nvidia nicht spacken, weil's das nicht gibt. :ugly:

MfG,
Raff

Langenscheiss
2012-09-05, 20:41:29
Adaptive VSync

und meine privaten AMD Karten gingen alle nach 24-28 Monaten (kurz nach Ablauf der Garantie kaputt) die Nvs leben alle noch bis zur TNT2 Ultra.

Das kenn ich irgendwo her ;)

Habe meine 8800GTX selbst wohl 3-4 Jahre drin gehabt, und dann an einen Kollegen verkauft, der sie jetzt immer noch im Rechner hat, ohne dass die Mucken machen würde. Insbesondere macht der Lüfter keine Probleme, ist das Referenz-Design. Meine Eltern haben noch ne uralte Geforce 3 in ihrem Rechner, die immer noch läuft! Ich hatte 2 ATI-Karten. Die erste, eine x800xt pe hatte kurz nach Garantie-Ablauf Speicher-Probleme, meine immer noch zu Testzwecken eingesetzte Radeon hat kurz nach Ablauf der Garantiezeit einen ratternden Lüfter bekommen. Um fair zu sein: Ich hatte mir auch schon mal eine Geforce 5600 (oder was auch immer, mir fällt der Name grad nicht mehr ein) geholt, die noch während der Garantiezeit einen Lüfterschaden bekommen hat. Das war aber auch ein Billigteil für eine gewisse Übergangszeit.

AffenJack
2012-09-05, 20:50:28
Ich frag mich dabei immer, was ihr so spielt, denn ich habe echt keine Probleme - also weder mit der GTX 280 noch mit der HD 5870, weder mit der GTX 580 noch mit der HD 7970 ... Also Kleinigkeiten wie "Spiel X spackt direkt beim Release" gibt's bei AMD definitiv öfter, aber sonst? Spacking Zero Core - aber das kann bei Nvidia nicht spacken, weil's das nicht gibt. :ugly:

MfG,
Raff

Viele Spiele die 2,3 Jahre und manchmal sogar noch älter sind und meiner Erfahrung nach sind das auch eher die Spiele die spinnen. Mit neuen hatte ich nie Probleme, da ich immer erst nach 6 Monaten oder so zuschlage, wennse billiger sind. Da sind die Treiber eigentlich schon immer gut optimiert. Aber bei den älteren gibts da schon öfter Probleme und es kann schonma ewig dauern, dass die gefixt werden, wenn es denn überhaupt passiert.

Hübie
2012-09-05, 22:49:04
Ich frag mich dabei immer, was ihr so spielt, denn ich habe echt keine Probleme - also weder mit der GTX 280 noch mit der HD 5870, weder mit der GTX 580 noch mit der HD 7970 ... Also Kleinigkeiten wie "Spiel X spackt direkt beim Release" gibt's bei AMD definitiv öfter, aber sonst? Spacking Zero Core - aber das kann bei Nvidia nicht spacken, weil's das nicht gibt. :ugly:

MfG,
Raff

Du guckst ja auch nur von morgens bis abends in den Foren herum :D :biggrin:

Ich habe mit dem Zweitrechner aber ähnliche Probleme wie AffenJack. Ganz ehrlich: War vor kurzem nicht mehr weit entfernt eine HD 7970 zu bestellen aber dann kam mir all das wieder in den Sinn - und das GK110 noch abgewartet werden muss - womit sich das Thema erledigte.
Bin kein nachtragender Mensch, aber 8 Jahre ATi/AMD reichten erst mal. Ein Jahr nVidia bescherte mir deutlich weniger Haareraufen. Dafür kotzen mich mittlerweile die 1.5 GB VRAM an.

LG Hübie

Iruwen
2012-09-06, 12:34:58
Das kenn ich irgendwo her ;)

Habe meine 8800GTX selbst wohl 3-4 Jahre drin gehabt, und dann an einen Kollegen verkauft, der sie jetzt immer noch im Rechner hat, ohne dass die Mucken machen würde. Insbesondere macht der Lüfter keine Probleme, ist das Referenz-Design. Meine Eltern haben noch ne uralte Geforce 3 in ihrem Rechner, die immer noch läuft! Ich hatte 2 ATI-Karten. Die erste, eine x800xt pe hatte kurz nach Garantie-Ablauf Speicher-Probleme, meine immer noch zu Testzwecken eingesetzte Radeon hat kurz nach Ablauf der Garantiezeit einen ratternden Lüfter bekommen. Um fair zu sein: Ich hatte mir auch schon mal eine Geforce 5600 (oder was auch immer, mir fällt der Name grad nicht mehr ein) geholt, die noch während der Garantiezeit einen Lüfterschaden bekommen hat. Das war aber auch ein Billigteil für eine gewisse Übergangszeit.

Meine Asus GTX 670 DC2 TOP war die erste Grafikkarte die mir überhaupt jemals richtig abgeraucht ist. Lüfterschäden zähl ich da nicht, jede Mechanik geht halt mal kaputt.

Blediator16
2012-09-06, 15:22:58
Adaptive VSync

und meine privaten AMD Karten gingen alle nach 24-28 Monaten (kurz nach Ablauf der Garantie kaputt) die Nvs leben alle noch bis zur TNT2 Ultra.

Das kann man bei AMDs auch mit dem neusten RadeonPro aktivieren.

Langenscheiss
2012-09-06, 15:26:40
Meine Asus GTX 670 DC2 TOP war die erste Grafikkarte die mir überhaupt jemals richtig abgeraucht ist. Lüfterschäden zähl ich da nicht, jede Mechanik geht halt mal kaputt.

Naja, selbst dann sind bei mir mehr ATIs kaputt gegangen. Der Lüfter der x800 war vollkommen in Ordnung. Aber bei 2 Karten ist das natürlich keine Statistik, da geb ich dir Recht. Nur seit wann hat der Eindruck was mit Statistik zu tun? ;)

G 80
2012-09-07, 06:38:50
pro Nvidia:

- Treiber laufen mit max kleineren Problemen
- ältere Sachen laufen (zT mit SLI!) und werden gepflegt / repariert wenns mal nicht so ist (Gothik 3 SLI zB)
- abgedrehte OGL Sachen laufen problemlos
- Inspector und Blaire/K-Bits - gut ersteres indirekt durch NV-API und letzteres sicher nicht NV Verdienst ;D + Hybride (ja ich setze sie immer noch ein)
- SLI/MGPU
- billiges HQ AF
- AA Geschichten Allgemein wie Batman, Civ 5 DX 10+, SC 2 gingen auf NV schneller, besser oder überhaupt.


con oder warum ich nicht längst Keppler habe wo die Karte an sich ja überzeugt:

- Diese 100-150 € craptastischen spar-Karten aka 660 und 670 Ref können sie behalten, sollang sie um den Preis angeboten werden. Selbst die abverkaufler Zotac 480 amp 220€ Karte wäre heute noch ein gutes Geschäft. :freak: und 400+ € geb ich für ner Performance GPU sowiso nicht aus.
- GTX 650, sicher darf ich vorstellen: GTX 8400 GS Ultra :ugly:
- Lineup execution und Stückzahlen mal wieder versagt (670 DC 2 TOP könnte auch Phantom heißen :ugly: )
- Karten wären schnell, sexy und sparsam wenn die GTX 680 so bei 200-250 € wäre wo sie hingehöhrt

pro ATI (inkomplett nur die wichtigsten Gründe):

- Preise langsam vernünftig. So eine 300 € 3 GB 7950 die evtl eine 680 mit OC schlägt hätte was und wäre sexy für MGPU.
- haben sich gebessert wie zB HQ AF

con ATI:
- hab ich im NB und der Treiber ist JEDESMAL ein Katastrophe. Wie alt ist das "neue" CCC? Ich habs noch nicht gesehn weil entweder gehts erst gar nicht auf oder ich hab das alte, aber die Register verdoppelt - yay. Diesesmal geht auch die Spannungsregelung UND Taktung nicht vernünftig/automatisch. 300/700 bei 1 oft 1,1 v muss nicht sein wenns früher und jetzt auch noch manuell 250/300 0,9 v auch tut.
- altes Spiel (zb C&C Red Alert, sind aber viele viele mehr) crash auf ATI, aufm SLI Rechner ( Stromvebrauch :freak: für son halbes C64 Game) problemlos
- ich kann sogar kranke Sachen wie Voodoo Game -> GlideWrapper/OGL -> Inspector machen und es läuft auf NV. OGL auf ATI wieder Totalausfall.
- kein Inspector oder Gleichwertiges
- Profilwerwaltung - siehe CCC
- will nicht bei jeder Treiberinstallation beten müssen
- Treiberunstützung, ich krieg heute noch für Karten von 2006 SLI Treiber während bei ATI die 1900 ganz schnell abgemeldet waren, eine Mobile 4650 ist heute schon Legacy was bei NV jetzt erst die GF 6 und 7 werden :ugly:
- CF/MGPU
- habe ich Treiber erwähnt? mit dem Letzten ging Game X noch und plötzlich wird andauernd der Anzeigetreiber zurückgesetzt?
- crap AF done :D


So wies jetzt ist können sie sich GF 600 und HD 7000 in die Haare schmieren. Da finde ich ja noch GK 107 GDDR 5 im NB am spannendsten ........ evtl. 7950 Kaufimpulse werden von der 4650 im NB abgetötet.

Pirx
2012-09-07, 08:59:35
...während bei ATI die 1900 ganz schnell abgemeldet waren, eine Mobile 4650 ist heute schon Legacy was bei NV jetzt erst die GF 6 und 7 werden :ugly:...
Und was ist z.B. daran so schlimm? Es gibt doch den Legacy-Treiber, der gut funktioniert.
Bei AMD wird hier aus jeder Kleinigkeit gleich ein ganz großes Drama gemacht, na, wenns euch Spaß macht.:rolleyes:

G 80
2012-09-07, 13:23:18
Und was ist z.B. daran so schlimm? Es gibt doch den Legacy-Treiber, der gut funktioniert.



:freak:;D:facepalm:

Genau das ist, was so schlimm daran ist.

Schaffe89
2012-09-07, 14:35:32
Es ist scheinbar wirklich stark davon abhängig, von welchem Grafikkarten Hersteller man gerade verbaut hat.
Es wird ja selbst über miniprobleme so stark vom Leder gezogen, dass man meint das Leder reißt.

Bei AMD wird hier aus jeder Kleinigkeit gleich ein ganz großes Drama gemacht, na, wenns euch Spaß macht.

Apropos Treiberunterstützung.

Nvidia lässt die alten Karten jetz auch "offiziell" nicht mehr unterstützen, wo bleibt bitte die polemische News dazu auf Computerbase, PCGH oder Hardwareluxx? :D

Raff
2012-09-07, 14:37:53
Ich kenne keine polemischen Treibernews auf PCGH.de. Aber sowas:

Geforce 306.02 Beta bringt Kantenglättung für Diablo 3, ab 310er-Reihe keine Unterstützung mehr für Geforce 6/7 (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Downloads/Geforce-30602-Beta-Kantenglaettung-Diablo-3-ab-310-Serie-keine-Unterstuetzung-fuer-Geforce-6-Geforce7-1020796/)

MfG,
Raff

Schrotti
2012-09-07, 16:40:28
Wegen der Treiber und der diversen anderen Einstellmöglichkeiten (Inspector).

Ich hatte mal AMD Karten und die letzte, eine 5850, nervte mich mit ständigem zurücksetzen des Treibers.
Ich habe keine Lust auf so einen Bockmist.

Nakai
2012-09-07, 17:04:49
Ich bevorzuge weder AMD noch NV. Hab derzeit eine GTS450 im PC und im Notebook eine HD6630m. Beide verrichten ihr Werk ausgesprochen gut.
Pro NV? Pro AMD? Ich bin kein Zocker, kein Enthusiast oder BQ-Fetischist, ergo ist es mir vollkommen egal. Wobei ich sagen muss, dass die NV-Treiber ein Tick besser sind. IMO bewegt sich beides(für meine Bedürfnisse) auf einem ziemlich gleichen Niveau. Stromverbrauch und Preis sind mein Hauptkriterium.

G 80
2012-09-13, 05:18:52
Nachtrag zu pro NV:

Adaptive VSync - hab jetzt vom uralten 296.10 WHQL (wollte 301 WHQL auslassen und den nächsten WHQL erst wieder installieren; der sich natürlich nicht blicken läßt :rolleyes: ) auf einen 300er Series Beta gewechselt (Spieltrieb und AVsync mal testen) und wills nach nur ein paar Tagen schon nichtmehr hergeben.

Thunder99
2012-09-13, 10:52:28
Wegen der Treiber und der diversen anderen Einstellmöglichkeiten (Inspector).

Ich hatte mal AMD Karten und die letzte, eine 5850, nervte mich mit ständigem zurücksetzen des Treibers.
Ich habe keine Lust auf so einen Bockmist.
Gibts aber derzeit noch auf nvidia genau so.

Der nvInspector ist/war für mich das Argument. Hab aber aus Neugier mal ne AMD Karte wieder verbaut. Ihre Treiber sind aber ein Stück schlechter, das sieht man.

Z.b. geht keine saubere Deinstallation (Treiber/Profile bleiben erhalten!) sowie die Profilverwaltung geht manchmal nicht.

Dafür ging eine Zeitlang x und y bei nvidia nicht... . Mal schauen was noch so alles kommt

V2.0
2012-09-13, 11:03:11
Und imho auch die besseren Exklusiv-Partner. EVGA gegen Sapphire ist leider momentan klar pro EVGA, so wie viele Sapphire Karten zripen.

Hübie
2012-09-13, 11:35:25
NVIDIA müsste unserem guten Orbmu2k Aktienanleihen geben ;D In der Umfrage erreicht er mit dem Inspector Top-Werte!

@V2.0: XFX ist auch AMD-exklusiv ;) Die würde ich eher gegen EVGA antreten lassen. Sapphire ist bewiesenermaßen Mist.

TobiWahnKenobi
2012-09-13, 11:38:47
Ich bevorzuge weder AMD noch NV. Hab derzeit eine GTS450 im PC und im Notebook eine HD6630m. Beide verrichten ihr Werk ausgesprochen gut.
Pro NV? Pro AMD? Ich bin kein Zocker, kein Enthusiast oder BQ-Fetischist, ergo ist es mir vollkommen egal. Wobei ich sagen muss, dass die NV-Treiber ein Tick besser sind. IMO bewegt sich beides(für meine Bedürfnisse) auf einem ziemlich gleichen Niveau. Stromverbrauch und Preis sind mein Hauptkriterium.

ich hab den eindruck, dass man bei AMD immer auf den nächsten respektive den wundertreiber wartet, wohingegen die treiber bei nvidia einfach funktionieren.


(..)

mfg
tobi

V2.0
2012-09-13, 12:01:07
@V2.0: XFX ist auch AMD-exklusiv ;) Die würde ich eher gegen EVGA antreten lassen. Sapphire ist bewiesenermaßen Mist.

Gut aber dann stelle ich XFX gegen KFA², Gainward oder Zotac. Viele AMD exklusiv Parter sind imho schlechter als die NV exklusiv Partner.

Radeonator
2012-09-13, 12:11:04
ich hab den eindruck, dass man bei AMD immer auf den nächsten respektive den wundertreiber wartet, wohingegen die treiber bei nvidia einfach funktionieren.


(..)

mfg
tobi

Das hat mich bei meiner letzten AMD Karte auch so genervt: Der Treiber. Ich meine, das war früher schon das Manko und jetzt ist der Seuchenvogel zurück. Vielleicht sollten die den ein oder anderen Entwickler von nVidia abwerben...
Ich hatte sogar BSOD und Freezes in BF3 , das geht mMn gar nicht!
Das mit dem deinstallieren nervt auch, erst durch manuelles entfernen bzw mit 3rd Party Toolz war die Deinstallation tatsächlich sauber gelaufen..

aufkrawall
2012-09-13, 14:59:13
Das Treiberteam ist echt ein Kandidat für den Darwin-Award.
Einfach peinlich, dass die nach all den Jahren immer noch kein vernünftiges AA geschissen kriegen...

AYAlf
2012-09-15, 22:15:02
Echt krass wie sich hier viele selbst täuschen. :rolleyes:
Fast alles was hier negativ über die andere Hardwareschmiede so "glaubwürdig" berichtet wurde gilt auch für das eigene Lager.

Ist ja fast wie bei Apple und PC. Es wird einfach was behauptet, egal ob es wahr ist oder nicht.

Ich bin Eintracht Fan... deshalb ist Offenbach scheiße... egal warum. Muss keinen Grund geben.

Allianz vs Imperium... wobei hier ATi die Allianz ist ... weil immer noch durch Verleumdungen unterlegen. :freak:

Wildfoot
2012-09-15, 23:13:56
Hehe, NVidia als Imperium anschauen; irgendwie schon witzig dieser Vergleich. :)
Vorallem, wenn man weiss, dass das Imperium aus den Seperatisten hervorgegangen ist. ;)

Gruss Wildfoot

HarryHirsch
2012-09-16, 00:32:16
Das Treiberteam ist echt ein Kandidat für den Darwin-Award.
Einfach peinlich, dass die nach all den Jahren immer noch kein vernünftiges AA geschissen kriegen...

Wurde dein Fazit zu dem Thema eigentlich schon auf der Hauptseite verlinkt?

aufkrawall
2012-09-16, 01:12:44
Ist nicht mein Fazit. ;)
Nein, wurde afaik noch nicht verlinkt, ich müsste es auch noch mal updaten (morgen).
Gipsel hat ja getestet, dass eine GK stattfindet, von daher stimmt das alte nicht mehr.
Beim Tonemapping geht wohl irgendwie was schief und eventuell ist die Sampleverteilung auch käse.

HarryHirsch
2012-09-16, 01:23:14
Also das die Sampleverteilung bei ATI Käse sein soll höre ich zum ersten mal aber ich lasse mich gern eines besseren belehren. ;)

aufkrawall
2012-09-16, 01:28:50
Deshalb das "eventuell". Schau dir die TF2-Bilder ohne HDR (also ohne Tonemapping) an, ist sehr merkwürdig.

HarryHirsch
2012-09-16, 01:39:56
ich verstehe trotzdem den zusammenhang mit aa nicht. ;(

aufkrawall
2012-09-16, 12:18:51
Wie sieht die Samplemaske denn mit AMD aus?
http://www.abload.de/thumb/nv7rkfb.png (http://www.abload.de/image.php?img=nv7rkfb.png)

Womöglich ist die so angeordnet, dass einige Winkel zu gut und andere zu schlecht abgetastet werden (siehe Tischrundung und -kante).

Hades11
2012-09-16, 14:56:08
...Immerhin sind dieses Jahr zwei wichtiges nVidia-only-features flöten gegangen: Downsampling ist auf Radeons (bedingt) machbar und SSAA wird nativ per Treiberpanel mit automatischer LOD-Verschiebung in allen APIs angeboten. Auch die Filterung ist nun auf hohem Niveau angelangt. 3D ist zwar frickeliger als bei nVidia aber ebenfalls (problemlos?) möglich.
Ich persönlich finde SSAA zwar auch nett aber einige Spiele vertragen einfach überhaupt keine AA (z.b. Two Worlds 2) - Probleme die man mit Downsampling nicht hat. Deshalb ist die automatische LOD anpassung der AMD´s bei SSAA eher unwichtig da ich auf Downsampling setze.
NV´s 3D hat (rein von den Tests) doch das bessere aussehen und unterstützt auch etwas mehr spiele. Dazu kommt dann noch PhysX zwar selten eingesetzt (leider) kann es aber richtig gut aussehen (z.b. Sacred2)
Nicht zu vergessen ist die Microrucklerbekämpfung (http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/8/) von NV - was den Crossfire Systemen gegenüber schon ein richtig großer vorteil ist.

Ich bin allerdings kein "Fanatiker" soll heißen wenn AMD die für mich persönlich wichtigen vorteile hätte würde ich AMD bevorzugen.

HarryHirsch
2012-09-16, 17:29:51
Wie sieht die Samplemaske denn mit AMD aus?
http://www.abload.de/thumb/nv7rkfb.png (http://www.abload.de/image.php?img=nv7rkfb.png)

Womöglich ist die so angeordnet, dass einige Winkel zu gut und andere zu schlecht abgetastet werden (siehe Tischrundung und -kante).

so:

http://www.abload.de/thumb/dx9fsaaviewer2012-09-gluke.jpg (http://www.abload.de/image.php?img=dx9fsaaviewer2012-09-gluke.jpg)

aufkrawall
2012-09-16, 17:32:24
An die Pros: Heißt das jetzt, die Sampleverteilung ist exakt gleich?

Tesseract
2012-09-16, 23:29:51
sieht so aus, aber AMD hat doch ein anderes 8x-muster - oder haben sie das in der neusten generation geändert? das alte war jedenfalls so ein zick-zack-ding.

Sir Integral Wingate Hellsing
2012-09-17, 08:17:40
Also die letzten nvidia-Treiber für eine Geforce 210 konnten weder manuell noch per uninstall unter Win 8 entfernt werden. Grauenhaft. Die letzten Treiber von ATi, die bei mir Bugs hatten, waren die, für die Radeon 8500 LE ;)