PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ati vs Nvidia - Ati nichts für Enthusiasten?


IMEAN
2010-09-29, 09:22:48
Wie ich in dem anderen Topic lesen konnte gibt es doch erheblich Unterschiede zwischen Nvidia und Ati. Ich wollte mir demnächst ne xxxx holen, allerdings musste ich in dem anderen Topic lesen, dass Ati AKrten anscheinendd Nachteile beim AF haben und kein SGSSAA möglich ist.

Da die Nvidia vs Ati Diskussion immer anderen Topic nicht Thema relevant oder off-topic war, wollte ich dort nicht nachfragen was es nun genau damit auf sich hat.

Ich selber würde mich schon als Enthusiast bezeichnen, ich spiele ziemlich jedes Spiel das rauskommt, daher bin ich auch flimmerempfindlich, weil es mir einfach eher auffällt als einem Normalen User und ich bin EXTREM Aliasing empfindlich, mir ist es egal wie schön die Belichtung und die Effekte sind, sehe ich aliasing in der Szene, kann ich meine Augen von dem Schandpunkt kaum abwenden :freak:
Leider musste ich das in letzter Zeit ertragen, weil ich kein Geld für einen neuen PC hatte.

Daher nun meine Fragen:
1) Es wurde in dem anderen Topic erwähnt, dass Ati Karten Nachteile beim AF haben. Welche? Flimmern?
(ich werde auch noch das AF Vergleichs Thema lesen.)
2) Es wurde gesagt Ati Karten können kein SGSSAA.
Kann man denn nicht auf andere AA Modi "umsteigen"?
Ich habe auch gelesen, dass es bei ATI dafür LoD-Bias-Anpassung gibt und unter DX9-11 gibts die CFAA-Filter.
3) wie sieht es mit vsync aus? Meiner Meinung nach extrem wichtig, gibt es das bei ATI auch nicht? - hab diesbezüglich mal was aufgeschnappt.
4) gibt es sonst noch große Nachteile bei Ati (außer Downsampling, denn bzgl Downsampling ist mir alles klar)

Schlammsau
2010-09-29, 09:34:41
1. Ja die Radeons neigen eher zum Flimmern und Banding, ist aber Content-Abhängig!
2. Teilweise richtig, ATi bietet SGSSAA (mit automatischer LOD-Anpassung) nur unter DX9 an, bei DX10 und DX11 geht kein SGSSAA. Die Filter funzen bei allen APIs.
3. ATi hat genauso wie nVidia Vsync!
4. DS funzt auch bei ATi, ist Performancetechnisch sogar nVidia überlegen. Als Nachteil kann man die nicht editierbaren Crossfire-Profile nennen.

Alles in allem würd ich als absoluter Enthusiast eher zu ner nVidia greifen.

Rente
2010-09-29, 09:50:34
2. Die ATi-Karten filtern des öfteren nur Brilinear statt Trilinear, teilweise kommt man auch in den Genuss von wunderschönen Bugwellen (die sich nur mit SGSSAA töten lassen)
3. Kann aber standardmäßig kein TripleBuffering unter D3D9 und niedriger erzwingen was nVidia schon länger anbietet.
4. DS funktioniert bei ATi nicht, höchstens über das hier im Forum verfügbare Tool und das ist fern ab von "ständig nutzbar", alternativ kann man natürlich Windows XP einsetzen, dann geht es natürlich...
Ein weiteres "Feature" von ATi ist die teilweise Unspielbarkeit von alten Spielen die man nur mit extra Tools (oder uralten Treibern) beheben kann (s. RaDiT hier im Forum).

Gast
2010-09-29, 10:04:23
4) gibt es sonst noch große Nachteile bei Ati

Ja, gibt es: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8282617&postcount=1103

Als Enthusiast würde ich nur dann AMD holen, wenn es im angepeilten Preisbereich keine leistungstechnisch vergleichbare nVidia-Karte gibt. Das hat nur Vorteile. nVidia arbeitet viel enger mit Spieleentwicklern zusammen (TWIMTBP). Da passiert es deutlich seltener, dass die im obigen Link aufgezählten (sehr groben!) Kompatibilitätsprobleme (selbst bei AAA-Titeln) auftauchen, wo man erst einmal auf einen oder zwei Treiberhotfixe oder Spielepatche hoffen muss. Die obige Liste lässt sich noch weiter ergänzen. Spontan fällt mir Starcraft 2 ein, wo AMD erst gar keine Anti-Aliasing-Implementierung anbot, dann eine performancetechnisch mieserable nachgeliefert hat. Eine GTX 460 768 MB ist daher mit MSAA bis heute schneller als eine HD 5870: http://www.pcgameshardware.de/aid,765867/Technik-Test-Starcraft-2-mit-12-Grafikkarten-Update-Kantenglaettung-fuer-Geforce-und-Radeon/Strategiespiel/Test/ Die eigentliche Schuld liegt zwar bei dem Spielehersteller, denn sie müssten AA implementieren, aber hey, mich als Endkunde interessiert das nicht, nVidia löst das Problem schneller und besser.

Hinzu kommt eben ein besseres HQ-AF und Zusatzfeatures wie PhysX.

AMD baut zwar ordentliche Hardware, aber softwäremäßig hört's bei ihnen scheinbar auf. AMD-Grafikkarten + Linux ist bis heute ein Graus.

Gast
2010-09-29, 10:19:12
Ich geb' dem Thread noch 2 Seiten, dann ist er zu. Solche Fragen kann man hier seit geraumer Zeit nicht mehr stellen, ohne dass es innert kürzester Zeit ausartet, weil die Leute eben sehr einseitig (um nicht einfältig zu sagen) sind.

Wie dem auch sei, wenn Du in neuen Spielen (sofern AA überhaupt geht) ohne Flimmern spielen willst, brauchst Du SSAA. Das heißt für Dich, dass Du 2 GTX 480 brauchst. Mit einer GTX 460 rennst Du schneller ins SSAA Limit als man Flimmern sagen kann.
Schau Dir die Benches zum neuen Gothic 4, welches extrem flimmerig ist, auf PCGH an. Sollte in dem Spiel irgendwann einmal SSAA funktionieren (geht aktuell bei beiden GPU Herstellern nicht), erreichst Du im Idealfall noch 1/3 der momentanen Werte.

Wenn Du noch Warten kannst, würde ich die neuen ATIs, die in 2-3 Wochen erscheinen, mit in die Kaufentscheidung einbeziehen.

Wilhelm
2010-09-29, 10:27:15
Ich geb' dem Thread noch 2 Seiten, dann ist er zu. Solche Fragen kann man hier seit geraumer Zeit nicht mehr stellen, ohne dass es innert kürzester Zeit ausartet, weil die Leute eben sehr einseitig (um nicht einfältig zu sagen) sind.

Wie dem auch sei, wenn Du in neuen Spielen (sofern AA überhaupt geht) ohne Flimmern spielen willst, brauchst Du SSAA. Das heißt für Dich, dass Du 2 GTX 480 brauchst. Mit einer GTX 460 rennst Du schneller ins SSAA Limit als man Flimmern sagen kann.
Schau Dir die Benches zum neuen Gothic 4, welches extrem flimmerig ist, auf PCGH an. Sollte in dem Spiel irgendwann einmal SSAA funktionieren (geht aktuell bei beiden GPU Herstellern nicht), erreichst Du im Idealfall noch 1/3 der momentanen Werte.

Wenn Du noch Warten kannst, würde ich die neuen ATIs, die in 2-3 Wochen erscheinen, mit in die Kaufentscheidung einbeziehen.

6 setzen Gast. SSAA ist keine Lösung..

MorPheuZ
2010-09-29, 11:05:36
@Threadstarter

Hast du eine Preisvorstellung? Ich denke dies sollte dein wichtigster Entescheidungsindikator sein. Wenn Geld keine Rolle spielt und du GPU PhysX und dergleichen mitnehmen willst würde ich zu einer GTX480 (am besten unter Wasser oder min. Zotac's AMP!) Die Ref Designs würde ich nicht empfehle da die Fermi schon recht laut sein können (ich weiss wovon ich rede :biggrin:). Wenns etwas weniger Geld zur Verfügung steht und PhysX DX11 nicht so wichtig ist kanns aber gerne auch ne Radeon sein 5850 od. 5870. Von mGPU würde ich generell absehen ausser wenn PhysX mit zweit GPU dabei sein soll.

Die Unterschiede in den Settings werden nur als Enthusiast ersichtlich sein.

Gast
2010-09-29, 11:58:45
Im Enthusiasten Bereich, also Karten wie eine GTX 480 und vorallem Multi-GPU hat Nvidia aktuell definitiv Vorteile.


1.) Beim AF hat ATI vorallem Probleme mit Banding, Flimmern eher bei schwierigem Content, was aber auch bei Nvidia der Fall ist.

2.) Ist schon richtig hier beantwortet worden, SGSSAA geht bei Nvidia unter DX9, DX10, DX11, bei ATI nur unter DX9, für Geforce gibt es das geniale SGSSAA Tool
Man sollte sich aber darüber im Klaren sein das SGSSAA wirklich Leistung frisst, im Enthusiastenbereich aber ein eindeutiger Vorteil

3.) Vsync gibt es bei ATI natürlich genau so wie bei Nvidia

4.) Beim Downsampling hat man bei Nvidia auch weniger Einschränkungen (bei ATI DX9 @ Win7 problematisch)


Weitere Vorteile im Enthusiastenbereich, SLI hat weniger Mikroruckler und skaliert mittlerweile auch besser als Crossfire, dazu gibt es den besseren Profilsupport für SLI und auch Tools wie SLI Profiles
Dazu kann man noch PhysX nennen und auch 3D Vision

Ob man das alles braucht ist eine andere Frage, aber derzeit hat man bei NV das etwas bessere AF, unter allen API's SGSSAA per SGSSAA Tool, mehr Spielraum beim Downsampling, PhysX, 3D Vision und mit SLI das insgesamt bessere Multi-GPU.
Bei ATi ist vorallem ATI Eyefinity zu nennen, im Multi-Display Bereich ist man dort besser aufgestellt.

Schlammsau
2010-09-29, 12:02:08
Gibt es bei nVidias SGSSAA eigentlich eine automatische LOD-Anpassung, wie bei ATi?

Raff
2010-09-29, 12:03:48
Gibt es bei nVidias SGSSAA eigentlich eine automatische LOD-Anpassung, wie bei ATi?

Nein, immer noch nicht. Unter DX9 kann man aber mithilfe von Tools selbst am Texture LOD fummeln (was bei Ati natürlich auch geht), ergo ist das nur ein Komfort-Nachteil.

MfG,
Raff

Rente
2010-09-29, 12:04:41
Welchen Vorteil bietet eine Karte von ATi/AMD die eine von nVidia nicht bietet (abseits vom Stromverbrauch/Lautstärke)?
Das ist in meinen Augen das einzig interessante, viel Gründe pro ATi/AMD gibt es eigentlich nicht.

Schlammsau
2010-09-29, 12:06:07
Nein, immer noch nicht. Unter DX9 kann man aber mithilfe von Tools selbst am Texture LOD fummeln (was bei Ati natürlich auch geht), ergo ist das nur ein Komfort-Nachteil.

MfG,
Raff

Also muss man das LOD bei jedem DX9-Game selber anpassen!? Und bei DX10 und 11 gehts gar nicht?

Wo ist dann der Sinn von SGSSAA unter allen APis? Wenn man das LOD nicht anpassen kann, wirds doch unscharf!?

Welchen Vorteil bietet eine Karte von ATi/AMD die eine von nVidia nicht bietet (abseits vom Stromverbrauch/Lautstärke)?
Das ist in meinen Augen das einzig interessante, viel Gründe pro ATi/AMD gibt es eigentlich nicht.
Im Multimonitoringbereich (u.a. Eyefinity) hingt nVidia mächtig hinterher. Is aber nur für nen kleinen Kundekreis interessant.

Raff
2010-09-29, 12:07:38
Welchen Vorteil bietet eine Karte von ATi/AMD die eine von nVidia nicht bietet (abseits vom Stromverbrauch/Lautstärke)?
Das ist in meinen Augen das einzig interessante, viel Gründe pro ATi/AMD gibt es eigentlich nicht.

- Automatische LOD-Anpassung bei SGSSAA
- Custom-Downfilter (CFAA), die sehr geil aussehen (gerade mit SGSSAA)
- Tendenziell besseres Transparenz-MSAA
- Öööhm ...

Kurz: AA-Vorteile. Nvidia bietet dafür den schieren Kombinationswahnsinn diverser Modi miteinander, aber nur mit Box-Downfilter.

Also muss man das LOD bei jedem DX9-Game selber anpassen!? Und bei DX10 und 11 gehts gar nicht?

Wo ist dann der Sinn von SGSSAA unter allen APis? Wenn man das LOD nicht anpassen kann, wirds doch unscharf!?

Warum aktivierst du SGSSAA? Also ich mache das normalerweise, wenn ein Spiel flimmert. (SG)SSAA mit Standard-LOD oversampled, d.h. dass Flimmer-Inhalte auf jeden Fall gebügelt werden. (SG)SSAA mit angepasstem LOD reduziert das Flimmern nicht im gleichen Maße, da die Schärfe zunimmt.

Ati bietet dennoch den besten Kompromiss, denn das LOD wird zwar etwas justiert, aber nicht bis zum vertretbaren "Anschlag" – kurz: Das Flimmern nimmt ab, aber die Texturschärfe in Entfernung trotzdem zu (verglichen mit MSAA).

MfG,
Raff

derguru
2010-09-29, 12:11:24
Wo ist dann der Sinn von SGSSAA unter allen APis? Wenn man das LOD nicht anpassen kann, wirds doch unscharf!?
stimmt schon aber manchmal nimmt man ein bissel unschärfe in kauf bevor es weiter höllisch flimmert,zum bleistift riddick.amd soll gefälligst so ein tool herbeizaubern.:biggrin:

Schlammsau
2010-09-29, 12:11:50
Warum aktivierst du SGSSAA? Also ich mache das, wenn ein Spiel flimmert. SGSSAA mit Standard-LOD oversampled, d.h. dass Flimmer-Inhalte auf jeden Fall gebügelt werden.

MfG,
Raff

Aus dem gleichen Grunde wie Du, nur ists wenn das LOD nicht verschoben wird, mir zu unscharf! Das Bild ist dann zu verwaschen, aber ok....es flimmert halt nicht mehr. :freak:

Iruwen
2010-09-29, 13:52:46
Die ATi-Karten filtern des öfteren nur Brilinear statt Trilinear, teilweise kommt man auch in den Genuss von wunderschönen Bugwellen (die sich nur mit SGSSAA töten lassen)

Flimmern ja, Banding nein.

Tesseract
2010-09-29, 14:06:09
4) gibt es sonst noch große Nachteile bei Ati (außer Downsampling, denn bzgl Downsampling ist mir alles klar)

es gibt einen ganzen haufen spiele (vor allem ältere), bei denen AA überhaupt nicht läuft wärend man bei nvidia zumindest die chance hat, das ganze mit nhancer zum laufen zu bekommen wenn es nicht ohnehin schon OOTB funzt.

das wiegt meiner meinung nach noch wesentlich stärker als mögliches supersampling, flimmerfilter und dergleichen. wenn AA mal überhaupt nicht läuft ist das einfach nur grausam.

Mr. Lolman
2010-09-29, 14:10:03
es gibt einen ganzen haufen spiele (vor allem ältere), bei denen AA überhaupt nicht läuft wärend man bei nvidia zumindest die chance hat, das ganze mit nhancer zum laufen zu bekommen wenn es nicht ohnehin schon OOTB funzt.

Wo zB? Eigentlich sollte sich alles mit meinem Radit-Tool hinbiegen lassen. (oder mit .exe Renaming)

Gast
2010-09-29, 14:23:41
es gibt einen ganzen haufen spiele (vor allem ältere), bei denen AA überhaupt nicht läuft wärend man bei nvidia zumindest die chance hat, das ganze mit nhancer zum laufen zu bekommen wenn es nicht ohnehin schon OOTB funzt.

das wiegt meiner meinung nach noch wesentlich stärker als mögliches supersampling, flimmerfilter und dergleichen. wenn AA mal überhaupt nicht läuft ist das einfach nur grausam.

Für ATI gibt es auch sowas. Es heißt dann nur nicht nHancer sonder RadeonPro.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=484074

Tesseract
2010-09-29, 15:38:28
Für ATI gibt es auch sowas. Es heißt dann nur nicht nHancer sonder RadeonPro.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=484074
konnte radeonpro schon immer AA-quirks forcen? ich meine die version die ich vor einiger zeit getestet habe konnte das nicht, nur profile.

sollte damit (oder radit) alles mit dem ein oder anderen profil zum laufen zu bekommen sein ist das natürlich sehr nice. dann kann ich auch endlich wieder diverse alte titel ausgraben. :D

Spasstiger
2010-09-29, 16:43:54
Nur damit hier keine falschen Erwartungen gewecket werden: Das Nvidia-AF flimmert auch bei bösem Content. Nur nicht so stark wie das ATI-AF. AF ist selbst in einer Referenzimplementierung nicht flimmerfrei.
Ein Vorteil von ATI ist noch der geringere Performanceeinbruch mit SGSSAA im Vergleich zu Nvidia. Unter Nutzung von SGSSAA hat die GeForce GTX 480 keinen Performancevorteil mehr gegenüber der Radeon HD 5870, es sei denn, PhysX kommt ins Spiel.

Blaire
2010-09-29, 18:00:02
Ein Vorteil von ATI ist noch der geringere Performanceeinbruch mit SGSSAA im Vergleich zu Nvidia. Unter Nutzung von SGSSAA hat die GeForce GTX 480 keinen Performancevorteil mehr gegenüber der Radeon HD 5870, es sei denn, PhysX kommt ins Spiel.

SGSSAA und Banding ist aus meiner Sicht unbrauchbar. Es stimmt natürlich das eine GTX480 gegenüber der 5870 bei Verwendung von SGSSAA keinen Performancevorteil hat, aber das ist längst nicht alles, es kommt immer auf das Gesamtpaket an. Nvidia bietet derzeit einfach mehr Optionen um die optimale Bildqualität zu erreichen, diverse Extras sei es Ambient Occlussion, AA Bits, SSAA für alle APIs, 3DVision, PhysX etc. für manche Kleinigkeiten, die es aber letztlich ausmachen, gerade in Zeiten wo es kaum noch vernünftige PC Games erscheinen, kann man wenigstens die optimale Qualität rausholen.

Gast
2010-09-29, 20:32:50
SGSSAA und Banding ist aus meiner Sicht unbrauchbar. Es stimmt natürlich das eine GTX480 gegenüber der 5870 bei Verwendung von SGSSAA keinen Performancevorteil hat, aber das ist längst nicht alles, es kommt immer auf das Gesamtpaket an. Nvidia bietet derzeit einfach mehr Optionen um die optimale Bildqualität zu erreichen, diverse Extras sei es Ambient Occlussion, AA Bits, SSAA für alle APIs, 3DVision, PhysX etc. für manche Kleinigkeiten, die es aber letztlich ausmachen, gerade in Zeiten wo es kaum noch vernünftige PC Games erscheinen, kann man wenigstens die optimale Qualität rausholen.

Deine aufgezählten "Vorteile" kannst bei Gothic4 und F1 2010 denn aktuellen Toptiteln ja voll nutzen *g*

Grey
2010-09-29, 22:03:48
SGSSAA und Banding ist aus meiner Sicht unbrauchbar. Es stimmt natürlich das eine GTX480 gegenüber der 5870 bei Verwendung von SGSSAA keinen Performancevorteil hat, aber das ist längst nicht alles, es kommt immer auf das Gesamtpaket an. Nvidia bietet derzeit einfach mehr Optionen um die optimale Bildqualität zu erreichen, diverse Extras sei es Ambient Occlussion, AA Bits, SSAA für alle APIs, 3DVision, PhysX etc. für manche Kleinigkeiten, die es aber letztlich ausmachen, gerade in Zeiten wo es kaum noch vernünftige PC Games erscheinen, kann man wenigstens die optimale Qualität rausholen.

Ambient Occlusion? :|

Also aktuell finde ich persönlich beides nicht gerade das Gelbe vom Ei. Nvidia hat deutlich bessere Features und Möglichkeiten, zum Preis von Stromverbrauch und Lautstärke, wenn man nicht so gesonderten Modellen greift. Imo ne Win-Lose-Lose-Situation um es mal so zu sagen ;-)

ATI wird im Highend-Bereich lästig mit zu vielen Unzulänglichkeiten. AA-Defizite in alten wie in neuen Spielen, diverse kleinere und größere Bugs, Treiber-Defizite. Though, im Gegensatz zu nVidia, angenehme Lautstärke und Verbrauch.

Auch wenn ich beides ziemlich bescheuert finde ist nVidias 3D-Feature imo auch noch ein wenig mehr Wert als der Multi-Monitor-Quatsch von ATI. Meine Güte... hunderte von Euro in Hardware stecken und dann bei der Peripherie 4-8cm Kanten in Kauf nehmen. Nimmer.

Gast
2010-09-29, 22:06:25
Auch wenn ich beides ziemlich bescheuert finde ist nVidias 3D-Feature imo auch noch ein wenig mehr Wert als der Multi-Monitor-Quatsch von ATI. Meine Güte... hunderte von Euro in Hardware stecken und dann bei der Peripherie 4-8cm Kanten in Kauf nehmen. Nimmer.

3D hat AMD schon lange, weiß nicht wo der Blödsinn her kommt dass das nur NV hat.

dreas
2010-09-29, 22:22:04
wenn ich mal das featureset vergleiche, siehts imo für amd nicht so doll aus. ubrig bleibt da nur der preis. ansonsten muss ich aber einfach sagen das der treibersupport für alte spiele, oder besser die nv-eigene kompatibilität, gerade auch zu alten games , sehr viel angenehmer ist als bei ati. ich habe beide hersteller in den letzten jahren im rechner gehabt und muss leider sagen das sich amd gerade im teureren midrange- bis highendbereich keinen gefallen tut. es schmerzt einfach wenn man alte perlen wie gothic oder dungeon keeper nicht fehlerlos zocken kann. da hat ati schweren nachholebedarf.

gedi
2010-09-29, 22:22:45
SGSSAA und Banding ist aus meiner Sicht unbrauchbar. Es stimmt natürlich das eine GTX480 gegenüber der 5870 bei Verwendung von SGSSAA keinen Performancevorteil hat, aber das ist längst nicht alles, es kommt immer auf das Gesamtpaket an. Nvidia bietet derzeit einfach mehr Optionen um die optimale Bildqualität zu erreichen, diverse Extras sei es Ambient Occlussion, AA Bits, SSAA für alle APIs, 3DVision, PhysX etc. für manche Kleinigkeiten, die es aber letztlich ausmachen, gerade in Zeiten wo es kaum noch vernünftige PC Games erscheinen, kann man wenigstens die optimale Qualität rausholen.

Ambient Occlussion funktioniert nicht in jedem Spiel, bietet darüberhinaus oft Darstellungsfehler und zieht massig an Leistung - für meinen Teil nur ein nett gemeinter Versuch ein Feature zu proklamieren. SSAA DX_übergreifend - thats really nice 2 have! PhysX - imo DAS Feature überhaupt, warum man sich eine NV antun sollte, 3DVision gibbet auch von ATI und ich für meinen Teil halte Eyefinity für interessanter. Treibertechnisch in Bezug auf Stabilität nehmen sich beide wenig bis gar nichts, da leider sehr oft das eigentliche Problem vor dem Bildschirm sitzt.

Um aufs Thema zurückzukommen: Wenn jemand Lust hat sich mithilfe 3rd-Partytools die bestmögliche IQ auf den Bildschirm zu zaubern, der landet automatisch bei NV. Wenn es allerdings nur nach Performance mit einer guten IQ geht, kann ohne Bedenken auch zu einer ATI greifen (bzw. bastelt sich sein PhysX mit einer 9600GT+inoffiziellem Hack selbst) und darf sich imo trotzdem "Enthusiast" nennen :)

Grey
2010-09-29, 22:25:22
wenn ich mal das featureset vergleiche, siehts imo für amd nicht so doll aus. ubrig bleibt da nur der preis. ansonsten muss ich aber einfach sagen das der treibersupport für alte spiele, oder besser die nv-eigene kompatibilität, gerade auch zu alten games , sehr viel angenehmer ist als bei ati. ich habe beide hersteller in den letzten jahren im rechner gehabt und muss leider sagen das sich amd gerade im teureren midrange- bis highendbereich keinen gefallen tut. es schmerzt einfach wenn man alte perlen wie gothic oder dungeon keeper nicht fehlerlos zocken kann. da hat ati schweren nachholebedarf.

Jup. Und im wirklichen Highend-Segment ist der Preis auch kein Argument mehr, da es pretty much der Gleiche ist wie für die Konkurrenz. Im Falle der 59er sogar mehr, obgleich exakt der selben Probleme.

Da muss man sich schon überlegen, einen zweiten "Midend-Retro"-PC für halbwegs junge Spiele zusätzlich zu betreiben, damit diese noch ordentlich laufen.

Gast
2010-09-29, 22:27:59
Jup. Und im wirklichen Highend-Segment ist der Preis auch kein Argument mehr, da es pretty much der Gleiche ist wie für die Konkurrenz. Im Falle der 59er sogar mehr, obgleich exakt der selben Probleme.

Da muss man sich schon überlegen, einen zweiten "Midend-Retro"-PC für halbwegs junge Spiele zusätzlich zu betreiben, damit diese noch ordentlich laufen.

Sag mal wirst du eigentlich von Nvidia bezahlt für so viel Werbung? Nenn mal ein Spiel das bei AMD nicht läuft.

hq-hq
2010-09-29, 22:30:39
@gast

das 3d was du meinst gibt es schon lange z.B. in magic carpet von 1994 hat aber nix mit ati zu tun :freak:

das "richtige" 3d vision hatte wohl nv eher am start. :biggrin:

---

naja das man u.U. mit ati treibern mehr hmm zeit investieren muss damit alles passt sollte einen enthusiasten nicht stören ;)

Grey
2010-09-29, 22:33:31
Sag mal wirst du eigentlich von Nvidia bezahlt für so viel Werbung? Nenn mal ein Spiel das bei AMD nicht läuft.

Ich nenne über 900 original Spiele von 198x bis 2010 mein Eigen und besitze eine ATI Radeon 5870.

Letzter Spaß mit der ATI: Psychonauts.

Ohne jeglichen Grund FPS-Einbrüche bis weit unterhalb des Spielbaren.

http://forums.steampowered.com/forums/showthread.php?t=1129194

y33H@
2010-09-29, 22:33:44
Aus dem gleichen Grunde wie Du, nur ists wenn das LOD nicht verschoben wird, mir zu unscharf! Das Bild ist dann zu verwaschen, aber ok....es flimmert halt nicht mehr.Wenn man überscharfes ATi-Flimmer-AF gewöhnt ist, wirkt SGSSAA umso unschärfer ;)

dreas
2010-09-29, 22:34:24
Sag mal wirst du eigentlich von Nvidia bezahlt für so viel Werbung? Nenn mal ein Spiel das bei AMD nicht läuft.

zum beispiel laufen nicht bzw nicht fehlerfrei meine obig benannten dungeon keeper II und Gothic I.

Grey
2010-09-29, 22:38:49
zum beispiel laufen nicht bzw nicht fehlerfrei meine obig benannten dungeon keeper II und Gothic I.

Wobei ich anmerken muss, dass DK2 echt ein Spezial-Fall zu sein scheint. Das hat auf meiner alten nVidia und auch bei Freunden mit nVidia schon seltsame Probleme erzeugt bis hin zu BSOD (leider, grandioses Spiel).

Gast
2010-09-29, 22:42:09
Also eine HighEnd oder Performance-Karte um dann DK2 zu spielen. Naja jeder wie ers mag.

dreas
2010-09-29, 22:42:41
Zitat eines gelöschten Beitrags entfernt
-puntarenas

Also eine HighEnd oder Performance-Karte um dann DK2 zu spielen. Naja jeder wie ers mag.
nicht jeder hat ein retrosystem in der ecke um aus der vergangenheit tolle games zocken zu können.

hq-hq
2010-09-29, 22:49:05
dk2 lief bei mir mit patch1.7 und der gtx260 eigentlich prima, ausser im menü das flimmert manchmal komisch
grad noch mit fw260.63 probiert, aja nostalgie... und ohne grafikfehler in den ersten 5min ;)

|-Sh0r7y-|
2010-09-29, 22:53:21
Sag mal wirst du eigentlich von Nvidia bezahlt für so viel Werbung? Nenn mal ein Spiel das bei AMD nicht läuft.
Oder du von ATI?

Egal

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=439863

Grey
2010-09-29, 22:58:33
Oder du von ATI?

Egal

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=439863

So "At Release"-Geschichten sind noch die eine Sache (wie bei SC2 kürzlich, das fehlende AA seitens ATI). Imo wirds wirklich erst scheiße wenn ältere Titel auf einmal Probleme aufweisen für die es keinen relevanten Grund gibt. Wie besagtes Psychonauts-Beispiel.

Gast
2010-09-29, 22:58:55
Oder du von ATI?

Egal

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=439863
Das läuft mittlerweile ja ganz ok, auch mit AMD.
Abgesehen davon war es kein ATI-Problem, sondern ein Entwicklerproblem.
Das sieht man schon daran, dass neue Treiber keine Besserung gebracht haben.
Erst ein Patch vom Hersteller.
Das jetzt ATI in die Schuhe schieben zu wollen, deutet auf wenig Fachwissen deinerseits. ;)

y33H@
2010-09-29, 22:59:59
Bei Anno 1404 gab's auch mit späteren Catalysts Stress. Bei NfS Shift, CoD MW2, GTA IV und Saboteur dafür von Anfang an. SC2 mal außen vor, MSAA war ja nicht vorgesehen - wenngleich NV schneller AA bot und das noch performanter.

Grey
2010-09-29, 23:01:28
Bei Anno 1404 gab's auch mit späteren Catalysts Stress.

Bis welche Version und was genau?

Gast
2010-09-29, 23:02:37
Bei Anno 1404 gab's auch mit späteren Catalysts Stress. Bei NfS Shift, CoD MW2, GTA IV und Saboteur dafür von Anfang an. SC2 mal außen vor, MSAA war ja nicht vorgesehen - wenngleich NV schneller AA bot und das noch performanter.
NfS Shift und Saboteur war auch kein ATI-Problem, sondern die Entwickler schuld. - Stichwort Patch vom Entwickler, keine Besserung mit neueren Treibern seitens ATI.
Das ist aber hier schon durchgekaut worden. Müsstest du eigentlich wissen.

Tesseract
2010-09-29, 23:04:27
Treibertechnisch in Bezug auf Stabilität nehmen sich beide wenig bis gar nichts, da leider sehr oft das eigentliche Problem vor dem Bildschirm sitzt.

stabilität nicht unbedingt, performance teilweise schon.
in wow läuft z.B. supersampling stellenweise besser als multisampling weil man mit multisampling teilweise massives frame-jittering hat trotz guten fps.
es gibt auch ein paar ältere spiele mit solchen einbrüchen die aus performancesicht auf einer 5780 eigentlich 40 mal parallel laufen müssten, es allerdings nicht tun.

Bucklew
2010-09-29, 23:04:35
NfS Shift und Saboteur war auch kein ATI-Problem, sondern die Entwickler schuld. - Stichwort Patch vom Entwickler, keine Besserung mit neueren Treibern seitens ATI.
Genau, alles Schuld der Entwickler, aber es trifft immer nur einen Hersteller. Mensch, Zufälle gibt es, die gibt es ja gar nicht :eek:

Gast
2010-09-29, 23:07:20
Genau, alles Schuld der Entwickler, aber es trifft immer nur einen Hersteller. Mensch, Zufälle gibt es, die gibt es ja gar nicht :eek:
Was verstehst du an der Aussage nicht?
Wenn du mit den Treibern nichts reißen kannst, ein Patch vom Entwickler aber Wunder wirkt...
woran hat es gelegen?
Das ist einfach nur Logik.

Bucklew
2010-09-29, 23:08:57
woran hat es gelegen?
Genau das ist der Knackpunkt. Und wenn man ein wenig Ahnung von Softwareentwicklung hätte, dann wüsste man, dass das Problem nicht unbedingt immer auf Seiten derer liegt, die es nachher umschiffen.

hq-hq
2010-09-29, 23:09:32
lol, naja bei saboteur ... wie war das man musste mit ner ati graka + multicore prozzi die exe nur einem einzigen kern zuweisen damit es nicht ständig freezes gab... schon komisch das das erst ganz zum schluss auffiel als das game aufn markt kam. anscheinend hatten die programmierer nur nvidia hardware ;)

Grey
2010-09-29, 23:09:34
Genau, alles Schuld der Entwickler, aber es trifft immer nur einen Hersteller. Mensch, Zufälle gibt es, die gibt es ja gar nicht :eek:

Imo grenzwertiges Diskussionsthema, weil es niemand wissen kann der nicht daran beteiligt war. Sicher trifft es häufig (zu oft) nur ATI, fragt sich halt warum. Und genau das ist nicht zu beantworten, egal wer den Patch/Hotfix letzten Endes lieferte.

Ist jetzt auch nicht wirklich relevant für das Topic. Wir sind schon auf Seite 3, die Prognose war zwei Seiten. Also halbwegs ohne Bashen durchhalten bis Seite 4, und wir haben die Prognose ums Doppelte überboten :D

|-Sh0r7y-|
2010-09-29, 23:11:25
Bei Anno 1404 gab's auch mit späteren Catalysts Stress. Bei NfS Shift, CoD MW2, GTA IV und Saboteur dafür von Anfang an. SC2 mal außen vor, MSAA war ja nicht vorgesehen - wenngleich NV schneller AA bot und das noch performanter.
alles spiele die ich erst nennen wollte aber da ich es nicht mit eigenen augen gesehn habee und nicht flammen will... aber ja besonderst nfs shift und anno.

früher gab es immer wieder dieses ungute gefühl beim spielekauf na hoffentlich funktioniert das zuhause dan auch... seid vielen jahren kenne ich sowas nicht mehr.

dreas
2010-09-29, 23:14:28
Genau, alles Schuld der Entwickler, aber es trifft immer nur einen Hersteller. Mensch, Zufälle gibt es, die gibt es ja gar nicht :eek:

es kann sogar so sein das die entwickler "technisch" schuld sind. aber ehrlich, mir als konsumenten ist das doch wurscht. und wenn nv eben die bessere entwicklerunterstützung bietet, nehme ich die als kunde doch gern mit. oder anders...wichtig ist was hinten raus kommt!

nvs treiberentwicklung ist ein stück berechenbarer oder bringt sogar, wie derzeit, spezielle unterstützung für dx7-games, solches ist bei ati bisher noch nie geschehen und für mich als kunden eben ein unsicherheitsfaktor. diese unkalkulierbarkeit für die unterstützung von alten oder gar brandneuen games ist mir wichtiger als paar prozent leistungsunterschied. und ja, ich hätte z.b. gern ne vom stromverbrauch her, günstigere ati -karte gekauft und sie mit den tollen ati-tray-tools betrieben. aber ohne "umfassenden" treibersupport und ohne eine kalkulierbare ausmerzung von bekannten fehlern ist das für mich eine zumutung.

schaut euch doch nur mal die liste der seit langem bekannten fehler an. kuckt mal in die mce-community. da gibts bekannte uund von ati anerkannte fehler zum teil seit mehreren monaten. das macht es für mich leider unmöglich eine ati-karte zu kaufen.

y33H@
2010-09-29, 23:14:57
Müsstest du eigentlich wissen. Fakt: Die Radeon stresst. Ob AMD- oder Dev-Fail ist mir als Enduser schei0egal.
Bis welche Version und was genau? v1.00 mit Catalyst 9.8 bis 9.10, mit 9.7 und früher kein Stress. Die v1.1 behob den Textur-Bug. Ob RD oder AMD oder beide dran "Schuld" waren - interna. Schei0e ist's als Radeon-Nutzer allemal und bei Radeons kommen solche Schnitzer faktisch deutlich häufiger vor als bei Geforces. Leider.

Bucklew
2010-09-29, 23:16:27
v1.00 mit Catalyst 9.8 bis 9.10, mit 9.7 und früher kein Stress. Die v1.1 behob den Textur-Bug. Ob RD oder AMD oder beide dran "Schuld" waren - interna. Schei0e ist's als Radeon-Nutzer allemal und bei Radeons kommen solche Schnitzer faktisch deutlich häufiger vor als bei Geforces. Leider.
Wars nicht so, dass ein späterer Catalyst dann auch wieder mit v1.0 funktioniert hat?

Grey
2010-09-29, 23:16:51
Fakt: Die Radeon stresst. Ob AMD- oder Dev-Fail ist mir als Enduser schei0egal.
v1.00 mit Catalyst 9.8 bis 9.10, mit 9.7 und früher kein Stress. Die v1.1 behob den Textur-Bug. Ob RD oder AMD oder beide dran "Schuld" waren - interna. Schei0e ist's als Radeon-Nutzer allemal und bei Radeons kommen solche Schnitzer faktisch deutlich häufiger vor als bei Geforces. Leider.

Ok. Habe ich nicht mehr mit gemacht. Und jo, wie auch schon dreas schöner umschrieb: Es ist egal für den Konsumenten woran es am Ende lag.

y33H@
2010-09-29, 23:17:31
@ Bucklew

Der 9.11 iirc, ja. Habe ich aber nicht verifiziert vorliegen - gegen v1.1 sprach nichts.

hq-hq
2010-09-29, 23:19:19
vielleicht war die entscheidung von ati die entlassungsproduktivität im treiberteam weiter zu steigern der falsche weg :uhippie:

wartet lasst mich das umformulieren:

vielleicht wäre bei ati die entscheidung zur entlassungsproduktivität im treiberteam der bessere weg - jo jetzt stimmts:biggrin:

Gast
2010-09-29, 23:20:45
Mir kann doch keiner erzählen, dass jemand ein Millionen schweres Game auf den Markt bringt, ohne es vorher durch die Qualitätssicherung zu jagen. Es kann eigentlich garnicht sein, dass manchmal Games erscheinen die auf AMD-Karten praktisch nicht spielbar sind. Es sei denn es ist Absicht oder jemand hat Interesse daran das es so ist.

y33H@
2010-09-29, 23:21:14
Für AA in SC2 hat man offenbar (?) Terry "Catalyst-Maker" Makedon aus dem Griechenland-Urlaub eingezogen ;D

Bucklew
2010-09-29, 23:24:28
Der 9.11 iirc, ja. Habe ich aber nicht verifiziert vorliegen - gegen v1.1 sprach nichts.
Das hatte ich auch so in Errinnerung.

Gast
2010-09-29, 23:24:52
Fakt: Die Radeon stresst. Ob AMD- oder Dev-Fail ist mir als Enduser schei0egal.
Nein ist es nicht.
Du gibst ATI die schuld für etwas, was die Entwickler verbrochen haben?
Dann darf man sich nicht wundern, wenn keine Besserung eintrifft.
Man muss schon diejenigen kritisieren, die es verbockt haben und nicht die, die die leidtragenden sind, sonst wird es keine Besserung geben.
Bei NfS Shift und Saboteur ist es erwiesen, dass es an den Entwicklern lag, haben die auch zugegeben.
Deswegen verstehe ich die Diskussion zu dem Thema nicht so ganz...
Es sei dennn jemad will um jeden Preis ATI bashen.
Das ist dann aber keine Grundlage für eine vernünftige Diskussion.
Und ich bin kein Freund davon Probleme zu umschiffen. Die sollen doch bitte dort gelöst werden, wo sie entstehen. Hier beim Entwickler.

Psychopat
2010-09-29, 23:29:17
Um mal auf den Anfangspost zu antworten (falls das noch jemanden interessiert):

Wenn man bereit ist mehr als 500 Euro für seine Grafikkarte(n) auszugeben und in Foren wie diesen unterwegs ist, wird man wohl lieber eine nVidia Karte nehmen. Der normale Nutzer wird von dem kleinen mehr an Features und Einstellmöglichkeiten der nVidia-Karten nichts mitbekommen bzw. die Features eh nicht verstehen (Unterschiede der AA Modi z.B.) bzw. nicht genug Leistung haben um die Features überhaupt nutzen zu können.

LovesuckZ
2010-09-29, 23:31:53
Diese Gruppe kauft sich für 500€ auch keine einzelne Grafikkarte.
Wobei das auch nicht stimmt. Selbst den "High-End" Käufern ist es in vielen Foren egal...

y33H@
2010-09-29, 23:33:01
@ Gast

Wo gebe ich AMD die Schuld? Ich sagte, die Radeon stresst.

Ob wegen AMDs Software (Treiber) oder Dev-Software (Spiel) ist mir egal. Die Radeon spackt.
Bei NfS Shift und Saboteur ist es erwiesen, dass es an den Entwicklern lag, haben die auch zugegeben.Komisch, dass es aber viel öfter AMD trifft als NV. Da stellt sich unweigerlich die Frage ob NV was besser macht oder AMD was schlechter in Sachen Dev-Support. Es sieht leider klar nach letzterem aus. Reproduzierbar. Der GraKa-Hersteller hat seine Finger genauso am Produkt wie der Spiele-Entwickler. Kommt am Ende crap bei rum, trägt idR jeder eine Teilschuld.

Blaire
2010-09-30, 00:05:15
Ambient Occlussion funktioniert nicht in jedem Spiel, bietet darüberhinaus oft Darstellungsfehler und zieht massig an Leistung - für meinen Teil nur ein nett gemeinter Versuch ein Feature zu proklamieren.

Ich hab doch geschrieben, das es Kleinigkeiten sind, die den Unterschied ausmachen und man diese Extras hat, um die Bildqualität zu erhöhen nicht mehr und auch nicht weniger. Die ganzen DX9/10/11 AA Bits gehören da auch dazu. Das sind alles nette Dinge.

SSAA DX_übergreifend - thats really nice 2 have! PhysX - imo DAS Feature überhaupt, warum man sich eine NV antun sollte, 3DVision gibbet auch von ATI und ich für meinen Teil halte Eyefinity für interessanter. Treibertechnisch in Bezug auf Stabilität nehmen sich beide wenig bis gar nichts, da leider sehr oft das eigentliche Problem vor dem Bildschirm sitzt.

3D Vision und deren Support bietet Ati nichtmal ansatzweise. PhysX zähle ich ebenso zu den Extras die man als brauchbar ansehn kann, ein Kaufgrund allein stellt es für mich nicht dar. Was die Treiberqualität angeht, bei den normalen Dingen mag das stimmen, die Unterschiede sind eher bei neueren Games zu suchen, da muss Ati öfter mal nachbessern solche Faxen gibts bei Nvidia kaum.
Wenn wir jetzt noch mit Crossfire anfangen, wird das Urteil noch vernichtender, da kann es auch mal ein halbes Jahr dauern, bis man die volle Performance bekommt. Wie letztens erst wieder, Hardocp bemängelt die schlechte Eyefinity CF-X Performance und keine 48 Stunden später sieht sich Ati in der Not zu reagieren und die lassen sich dafür auch noch feiern.:freak: Normal hat sowas zum Release zu funktionieren und nicht erst ein halbes Jahr später. Ja das gehört auch zur Treiberqualität. Und da ist Nvidia vorraus, auch wenn es dort auch Probleme gibt wie zuletzt Battlefield BC2 und Stuttering.

Um aufs Thema zurückzukommen: Wenn jemand Lust hat sich mithilfe 3rd-Partytools die bestmögliche IQ auf den Bildschirm zu zaubern, der landet automatisch bei NV. Wenn es allerdings nur nach Performance mit einer guten IQ geht, kann ohne Bedenken auch zu einer ATI greifen (bzw. bastelt sich sein PhysX mit einer 9600GT+inoffiziellem Hack selbst) und darf sich imo trotzdem "Enthusiast" nennen :)

Würde es dieses Banding nicht geben, würde ich dir Recht geben.

Bucklew
2010-09-30, 00:10:16
Bei NfS Shift und Saboteur ist es erwiesen, dass es an den Entwicklern lag, haben die auch zugegeben.
Link?

Gast
2010-09-30, 00:32:17
Schönes Geseier im beitrag drüber. Man muß sich schon manchmal schämen ein Gast zu sein. Sich wei ein gast benehmen, wer kann das schon... :crazy2:

Wie kommt es eigentlich, daß ältere Spiele nicht laufen wollen? Jetzt aus der technischen Sicht. Haben die HErsteller nicht nur eine transistor count im Chip, sondern auch einen byte count im treiber oder was soll das eigentlich?
Warum soll zb. ein DX7 Spiel nicht mehr laufen? Wird bei den Karten erwähnt daß sie nicht mehr DX7 kompatibel sind??

Das ganze DX-System ist doch irgendwie absurd. Genauso wie ein Spiel der DX9 bis DX11 Jahre mit 280 und 5870 läuft, aber vielleicht mit 5770 nicht. ODer gleich mit NV aber nicht wirklich rund auf ATI. Und dann kommt entweder ein Treiberupdate oder ein Spielupdate. Was soll das eigentlich? ISt DX keine Norm oder so?
Ich weiß nicht warum sich manche angesichts solcher Zustände über die ganzen OpenGL-Extensions beschweren oder lustig machen. Unter DX sieht das im Endergebnis doch noch schlimmer aus.

Gast
2010-09-30, 00:32:55
Meinte den korrekzerweise entsorgten und nicht Bucklew! :)

Bucklew
2010-09-30, 00:34:03
Meinte den korrekzerweise entsorgten und nicht Bucklew! :)
Auf das Schimpfwort "Gast" höre ich nicht ;D

=Floi=
2010-09-30, 00:47:20
coda meinte mal, dass ati viel näher an der spec programmiert und der nv treiber da viel toleranter ist und einfach mehr zulässt.

beindruckend finde ich es schon , wenn nv noch support für Gothic 1 und 2 bringt. (Forceware 260,62!) ich habe auch den verdacht, das nicht nur bessere leute, sondern auch echte gamer und cracks bei nv (mit liebe zu games) arbeiten. Diese leute haben wohl auch freie hand was sie machen dürfen und dann kommen eben auch solche hacks raus, welche eigentlich gar nicht möglich sein dürften.

Bestimmte probleme sind aber nicht nur dem enthusiasten bereich zuzuordnen. Ein normaler spieler will auch ein game zum release spielen! Enthusiasten sind schon eine spezielle gruppe von leuten, aber gerade diese haben oft die meiste ahnung und auch zeit sich mit bestimmten games und sachen zu beschäftigen. Dieser bereich ist imho sehr klein aber mit am wichtigsten. Das sieht man auch immer wieder hier im forum.


edit
ältere spiele laufen deshalb nicht, weil die treiber auch manchmal neu programmiert werden (müssen). Ati hat mal den OGL teil (zur X1800 serie) neu und erheblich performanter gemacht und für vista musste man auch imho neu anfangen. Da schneidet man dann gerne alte zöpfe ab und macht nur das nötigste, was noch sinnvoll erscheint.

Gast
2010-09-30, 01:17:04
beindruckend finde ich es schon , wenn nv noch support für Gothic 1 und 2 bringt. (Forceware 260,62!)Welchen, support? Es ist doch nur ein DX Spiel.

Dieser bereich ist imho sehr klein aber mit am wichtigsten. Das sieht man auch immer wieder hier im forum.Für das Forum aber nicht für ATI oder NV ;)

ältere spiele laufen deshalb nicht, weil die treiber auch manchmal neu programmiert werden (müssen). Ati hat mal den OGL teil (zur X1800 serie) neu und erheblich performanter gemachtUnd, liefen dann ältere OpenGL Demos nicht mehr, die mit der X800 noch liefen?

Da schneidet man dann gerne alte zöpfe ab und macht nur das nötigste, was noch sinnvoll erscheint.Warum spricht niemand klar und deutlich darüber daß Dx 5 bis 8 nicht mehr unterstützt wird? Läuft der erste 3DMark auch nicht mehr?

Zöpfe abschneiden um was? Selbst wenn ein aktueller Treiber in einem Pfad eine 5770 im total falschen Modus wie eine X800 ansprechen würde, und man damit wesentlich schlechtere Effizienz pro Takt hätte als eine X800 mit den Treibern ihrer Zeit, wäre eine 5770 immernoch viel zu schnell um bei Gothic1 etwas davon zu merken. Geschweige 5870.

Zu alten Zöpfen mußte sich schon Grestorn mla was anhören. Ich glaube das ging so:
"Bevor man vorschnell alte Zöpfe abschneidet, sollte man lieber nochmal im Spiegel nachsehen, ob man wirklich schön genug ist, um auch noch mit speckiger Vollglatze zu punkten."

Schrotti
2010-09-30, 01:32:15
Läuft der erste 3DMark auch nicht mehr?


Also der 3DMark 2000 läuft unter Windows 7 x64. Den 99er müsste ich erst irgendwo runter laden.

http://www.abload.de/thumb/3dmark2000rnhe.png (http://www.abload.de/image.php?img=3dmark2000rnhe.png)

Gast
2010-09-30, 01:42:38
Also der 3DMark 2000 läuft unter Windows 7 x64.Danke. Warum nur war mir das blos auch davor schon klar? :rolleyes:

MangoQuaxi
2010-09-30, 02:41:24
@TS: Wen meinst du mit Enthusiasten? Ich würde es eher umgekehrt deuten: Die Radeons sind NUR etwas für Enthusiasten. Wer erwartet, daß ein Spiel nach der Installation reibungslos funktioniert, der ist mit einer Radeon möglicherweise schlechter dran.

Ich hab seinerzeit mal eine X800XT von ATi gehabt. Und abseits von irgendwelchen Filtern gibt es da eine Menge zu berichten. Zunächst war ich recht angetan von der neuen Grafikkarte, da sie deutlich schneller war, als meine vorherige. Die Freude währte allerdings nur kurz. Es hat Monate gedauert, bis die schwarzen Texturen in Titan-Quest behoben waren. Dank einem neuen Catalyst sank die Framerate in W40K: Dawn of War plötzlich von 90 FPS auf ganze 4FPS (unspielbar). Jede Menge Grafikfehler bei der Schattendarstellung gabs gleich gratis mit dazu. Bei Anno1701 gab es schöne grellbunte Linien am Bildschirmrand. Die Lösung dieses Problems war einfach: AA komplett abschalten - und schon sieht der Monitor nicht mehr aus, als ob er jede Menge Dead-Pixellines hätte. Dann wollte ich damals mal Ubuntu installieren wegen Beryl. Ich fand und finde es noch heute bemerkenswert, daß es einen Grafikkartenhersteller gibt, der nichteinmal in der Lage ist auch nur eine einzige VGA-kompatible Auflösung im BIOS seiner Graka zu hinterlegen. Es hat Tage gedauert, bis ich die Installationsskripte von Ubuntu so abgeändert hatte, daß ich Ubuntu wenigstens mit der grafischen Benutzeroberfläche starten konnte. Bis dann endlich Beryl-Effekte über meinen Bildschirm geruckelt sind, sind Wochen und Monate vergangen. Zurück zu Windows: Wie kann ein Hersteller vergessen, daß er auf einer seiner Karten einen Video-Chip installiert hat? Eines Tages, als ich mal wieder nix zu tun hatte, war mir plötzlich ein gelbes Ausrufezeichen im Gerätemanager aufgefallen. Nachdem ich zunächst die Soundkarte im Verdacht hatte, stellte sich irgendwann heraus, daß man im neuen Catalyst kurzerhand darauf verzichtet hatte den Rage Theater Chip (wird bei der X800XT für ViVo benötigt) zu implementieren.

Das ganze wurde mit jedem neuen Catalyst immer schlimmer. Schlußendlich mußte ich aufgeben und wieder den Treiber installieren, der auf der Original-CD mit ausgeliefert worden ist. Damals habe ich es schlicht nicht für möglich gehalten, daß eine Grafikkarte bereits wenige Monate nach Kauf völlig unbrauchbar wird, weil es faktisch keinen Treibersupport gibt. Als ATi dann von AMD aufgekauft wurde und es in den Medien zunächst hieß, daß ältere Radeons von AMD überhaupt nicht mehr supported werden würden, hab ich für mich persönlich einen Schlußstrich gezogen. Obwohl ich nicht zu den Leuten gehöre, die eine Sache ersetzen, wenn sie eigentlich noch funktioniert, war die Schmerzgrenze in meinem Fall überschritten. Ich habe mir damals eine 8800GT als Ersatz für die X800XT gekauft und ich habe es bis heute nicht bereut. Wenn ich zurückblickend daran denke, wie viele Stunden und Tage ich an meinen Spielen rumkonfiguriert habe, damit sie wenigstens halbwegs spielbar wurden, dann könnte ich mir heute noch in den Hintern beißen. Daß der Lüfter der Karte schon nach wenigen Wochen ab Kauf anfing zu rattern, weil das Fett im Lager verharzt war, hätte ich noch fast vergessen zu erwähnen. Ich habe damals folgendes gelernt: Eine Grafikkarte kann noch so schnell sein - wenn der Treibersupport so schlecht ist wie bei meiner X800XT, dann ist die Karte schon nach wenigen Wochen ab Kauf nahezu völlig wertlos. Die ganzen schönen FPS-Werte, die damals in der PCGH und der Gamestar veröffentlich wurden, kann man sich komplett in die Haare schmieren, wenn man dafür dann Texturfehler noch und nöcher hinnehmen muß, wenn man ein Spiel überhaupt im ersten halben Jahr nach Release spielen möchte.

Wer mit seinem PC mehr veranstaltet als Moorhuhn und Minesweeper, der sollte sich vorher gut informieren, welche Grafikkarte er sich zumuten möchte:
http://www.youtube.com/watch?v=g6DfNOQ9W9k

Spasstiger
2010-09-30, 02:47:32
Wer mit seinem PC mehr veranstaltet als Moorhuhn und Minesweeper, der sollte sich vorher gut informieren, welche Grafikkarte er sich zumuten möchte:
http://www.youtube.com/watch?v=g6DfNOQ9W9k
Das ist doch ganz offentsichtlich ein Hardwaredefekt, sowas passiert gerne mal, wenn man zu weit übertaktet. Ich kann solche Probleme mit meinen ATI-Karten in Borderlands nicht nachvollziehen.

N0Thing
2010-09-30, 02:55:32
Fakt: Die Radeon stresst. Ob AMD- oder Dev-Fail ist mir als Enduser schei0egal.

Mir als Enduser ist das nicht egal wer für Fehler und Fehlverhalten verantwortlich ist.
Wenn es nur nach dem Enduser gehen würde, bräuchte man auch keinen Thread über die AF-Qualität, da den meisten Endusern, wie sogar LS geschrieben hat, eben diese nicht wichtig genug ist.

Wenn der Entwickler geschludert hat, dann soll der einen auf den Deckel bekommen, wenn ATI geschludert hat, dann sollen deren Entwickler einen auf den Deckel bekommen.
Für die Recherche sind die Journalisten der entsprechenden Medien zuständig, wenn sie dem Enduser nützliche und sinnvolle Informationen liefern wollen. Außer denen ist der Enduser auch "schei0egal"...

MangoQuaxi
2010-09-30, 03:23:54
Das ist doch ganz offentsichtlich ein Hardwaredefekt, sowas passiert gerne mal, wenn man zu weit übertaktet. Ich kann solche Probleme mit meinen ATI-Karten in Borderlands nicht nachvollziehen.
Sorry - aber das ist ganz offensichtlich kein Hardwaredefekt. Das sieht für mich 1:1 genauso aus wie die Probleme damals mit TitanQuest. Erst fingen die Texturen an zu flackern wie im Video und wenn man dann noch weitergespielt hat, wurden die Hintergrundtexturen irgendwann komplett durchsichtig/schwarz. Nach einigen Patches wurden die Probleme (die übrigens nur auf ATi-Karten auftraten) von THQ behoben.

In meinen Augen ist die Ursache hierfür eine fehlerhafte Verwaltung des Texturspeichers. Ob der Texturspeicher einfach nur volläuft, oder ob die Zeiger intern falsch verarbeitet werden, kann man nur raten. Die Fehler in TQ auf ATi-Karten waren damals auch erst nach ca. 15-20 Minuten aufgetreten. Ich denke es ist ein Treiberproblem. Ansonsten hätte THQ es damals nicht rauspatchen können.

Mr. Lolman
2010-09-30, 04:51:24
Wenn man überscharfes ATi-Flimmer-AF gewöhnt ist, wirkt SGSSAA umso unschärfer ;)

Überscharf ist eigenlich nicht. Schau die mal dir Trackmaniascreenshots an.

coda meinte mal, dass ati viel näher an der spec programmiert und der nv treiber da viel toleranter ist und einfach mehr zulässt.

beindruckend finde ich es schon , wenn nv noch support für Gothic 1 und 2 bringt. (Forceware 260,62!) ich habe auch den verdacht, das nicht nur bessere leute, sondern auch echte gamer und cracks bei nv (mit liebe zu games) arbeiten. Diese leute haben wohl auch freie hand was sie machen dürfen und dann kommen eben auch solche hacks raus, welche eigentlich gar nicht möglich sein dürften.

Bestimmte probleme sind aber nicht nur dem enthusiasten bereich zuzuordnen. Ein normaler spieler will auch ein game zum release spielen! Enthusiasten sind schon eine spezielle gruppe von leuten, aber gerade diese haben oft die meiste ahnung und auch zeit sich mit bestimmten games und sachen zu beschäftigen. Dieser bereich ist imho sehr klein aber mit am wichtigsten. Das sieht man auch immer wieder hier im forum.


edit
ältere spiele laufen deshalb nicht, weil die treiber auch manchmal neu programmiert werden (müssen). Ati hat mal den OGL teil (zur X1800 serie) neu und erheblich performanter gemacht und für vista musste man auch imho neu anfangen. Da schneidet man dann gerne alte zöpfe ab und macht nur das nötigste, was noch sinnvoll erscheint.

Gothic2 rent seit dem ersten HD5xxx Treiber wieder perfekt.

Gast
2010-09-30, 05:32:47
Überscharf ist eigenlich nicht. Schau die mal dir Trackmaniascreenshots an.


Du siehst ja nichtmal Banding, solche Heuchler...

Mr. Lolman
2010-09-30, 05:44:20
Du siehst ja nichtmal Banding, solche Heuchler...

Heuchler? Wer? Du? Indem du mir Sachen unterstellst, die so nicht stimmen? Sicher seh ich das Banding, und das ist auch unter aller Sau, aber schau dir mal den Rest an. Von guter BQ ist da seitens NV auch nicht viel zu sehen. Wenn ich das Mipmap Detail auf Leistung stell, ists auf meiner ATi ähnlich unscharf, mit weniger Moiré Neigung (aber halt miesem Banding ;()

Gast
2010-09-30, 06:26:47
Jaja genau wo denn? Du willst nur wieder ablenken, die Frage wer filtert besser wurde längst geklärt und durch Videos untermauert und jetzt kommst du und redest was von Trackmania Screenshots wo doch garnicht mal sicher ist welche Einstellungen da verglichen wurden. Meine Herren

Gast
2010-09-30, 08:17:54
Gothic2 rent seit dem ersten HD5xxx Treiber wieder perfekt.

Ja, nach ca. 3 - 4 Jahren beim Entwickeln der Win. 7-Treiber zufällig gefixed. Grandios.

Gast
2010-09-30, 08:18:52
Bis welche Version und was genau?

Ist doch hier aufgezählt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8282617&postcount=1103

Spasstiger
2010-09-30, 08:35:28
Sorry - aber das ist ganz offensichtlich kein Hardwaredefekt. Das sieht für mich 1:1 genauso aus wie die Probleme damals mit TitanQuest. Erst fingen die Texturen an zu flackern wie im Video und wenn man dann noch weitergespielt hat, wurden die Hintergrundtexturen irgendwann komplett durchsichtig/schwarz. Nach einigen Patches wurden die Probleme (die übrigens nur auf ATi-Karten auftraten) von THQ behoben.
Ich hab Titan Quest auf ATI-Karten gespielt, kann mich an solche Fehler aber nicht erinnern.
Zudem schreibt der Typ bei Youtube, dass seine Probleme mit einer RMA gelöst wurden.

Raff
2010-09-30, 08:44:58
Gothic2 rent seit dem ersten HD5xxx Treiber wieder perfekt.

AFAIK nur unter Windows 7. XP is still fucked up.

MfG,
Raff

dllfreak2001
2010-09-30, 08:48:08
Und funktioniert jetzt endlich Gothic2 unter Win7 mit einer Nvidia-Karte?

Raff
2010-09-30, 08:49:44
Und funktioniert jetzt endlich Gothic2 unter Win7 mit einer Nvidia-Karte?

In den Release Notes des 260.63 steht, dass das Problem gefixt wurde. Ausprobieren musst du es selbst. :D

MfG,
Raff

desert
2010-09-30, 09:35:50
In den Release Notes des 260.63 steht, dass das Problem gefixt wurde. Ausprobieren musst du es selbst. :D

MfG,
Raff

Funktioniert einwandfrei, auf nvidia kann man sich halt verlassen. Die tun was für die Gamer.

Und wieso glaubt ihr Mr. lolmann überhaupt noch, der hat damals dem r600 das beste af bescheinigt. In jedem thread hat er sich damals rumgetrieben und nach fehlern des g80 af´s gesucht und jeder kleine vermeintliche unregelmässigkeit sofort angeprangert, weil ja r600 der neue bq könig ist.


Lolli ist fanboy durch und durch, genauso wie schlammsau. Die erste zeit hatte ati bei sgssaa kein automatisches lod, kein problem. Nvidia hat das selbe lod-problem, plötzlich ist das ganze unmöglich, damit wird ja dann das sgsaa unbrauchbar.

Sind halt beides heuchler durch und durch.

Schlammsau
2010-09-30, 09:43:55
Lolli ist fanboy durch und durch, genauso wie schlammsau. Die erste zeit hatte ati bei sgssaa kein automatisches lod, kein problem. Nvidia hat das selbe lod-problem, plötzlich ist das ganze unmöglich, damit wird ja dann das sgsaa unbrauchbar.

Sind halt beides heuchler durch und durch.

Und du bist der grösste Heuchler von allen, wie lange hatte ATi kein automatisches LOD? 1 oder 2 Monate nach dem Release? Wie lange bietet jetzt nVidia SGSSAA an?

Du bist so peinlich!

dreas
2010-09-30, 09:46:23
eure persönliche basherei bringt keinen weiter! also lasst es einfach.

Mr. Lolman
2010-09-30, 09:55:25
Und wieso glaubt ihr Mr. lolmann überhaupt noch, der hat damals dem r600 das beste af bescheinigt. In jedem thread hat er sich damals rumgetrieben und nach fehlern des g80 af´s gesucht und jeder kleine vermeintliche unregelmässigkeit sofort angeprangert, weil ja r600 der neue bq könig ist.


Das ist damals aber nicht auf meinem Mist gewachsen. Ich hab das nur von Seiten zitiert, die das so analysiert hatten. Kann man ja nicht wissen, dass sich die Qualitätsmedien in dieser Hinsicht irrten.

dllfreak2001
2010-09-30, 10:02:15
In den Release Notes des 260.63 steht, dass das Problem gefixt wurde. Ausprobieren musst du es selbst. :D

MfG,
Raff

Mal schauen, das letzte mal hat es noch nicht funktioniert.

Labberlippe
2010-09-30, 10:12:36
Hi

Guckt mal über den Tellerrand.
Hier tun ja einige wieder so als ob man nur noch nVIDIA kaufen kann.
Ich verwende schon seit der ersten Radeon nur noch ATI Karten und kann teils die abstrusen Meldungen mit Treiberproblemen nicht nach vollziehen.

Es kommt immer darauf an wofür man die Karten braucht.
Ich für meinen Teil bin aktuell noch gezwungen den herkömmlichen TV Out zu nutzen.
Da kommt nichts anderes in Frage als die ATi Karten.
nVIDIA schafft es bis heute nicht den TV Out vernünftig hinzubekommen.
Ist leider so.
Wenn es blöd zu geht, findet er den TV Out nicht oder tauscht rotzfrech die Bildschirme und mann muss erstmal den TV abhängen neustarten und die Erkennung wieder erzwingen.
Nein es lag nicht an der Graka.
Dies war mit unterschiedlichen Treiberversionen und unterschiedlichen nVIDIA Karten der Fall.

Aktuell mit einer 9800GTX die ich zuhause habe, da fand die liebe Karte mal gleich gar nichts.

Einige loben die PhysX funktion ich dafür Eyefinity b.z.w deren TV Out.
Bei meinen Leuten haben die wenigsten Probleme mit den AMD Kärtchen.

PhysX ist z.B Nice to have aber nicht so der binger das es deswegen sich lohnt extra jetzt Jubeltöne zu jubeln.

Seis Badaboom für nVIDIA oder Espresso für AMD es gibt für beide Hersteller im Videobereich Alternativen so das beide Fraktionen bedient werden.
Ansonsten gibt es auch genug so Tools Programme und Helferlein für beide Parteien wo man einiges mit den Karten machen kann als "nur" spielen.

Witzig ist das dieser Thread wie üblich vor dem Start der neuen AMD Karten erstellt wird um die nVIDIA Karten als das Ultimative Heilmittel hinzustellen.

Wenn jemand sagt er braucht eine Karte fürs spielen dann empfehle ich eine 460er die Karte ist Top da braucht man wirklich nicht viel zusagen.
Das ist aber leider auch schon die einzige Karte von nVIDIA die aktuell brauchbar ist.
nVIDIA hat leider in den Unteren und oberen Bereichen keine Karte die wirklich reizvoll ist.
Hoffen wir mal das nVIDIA eine vernünftige Produktpallette wieder zusammen bekommt denn die sieht sehr mager aus.



Einige beschränken sich hier nur auf Spielen was ja schön und Recht ist nur haben auch AMD Karten eingie Vorteile, das sollte man vielleicht auch berücksichtigen.

Gruss Labberlippe

Raff
2010-09-30, 10:16:03
Labberlippe, der Tellerrand besteht auch darin, nicht nur das vermurkste GTX-480/470-Referenzdesign zu bashen, sondern mal zu schauen, was die Partner so bauen. Ich erwähn's immer wieder gern: Zotac GTX 480/470 AMP. Die rocken, weil leise und sparsamer. Und so. Edel-Grafikkarten bietet auch eine fast unhörbare GTX 470 an, bald folgt MSIs hoffentlich gelungene GTX 480 Twin Frozr II; auch Point of View/TGT und Sparkle bieten GTX 480er mit Accelero-Kühler an.

Ein Beispiel: Wenn ich sehe, dass die nicht mal 1 Sone laute Geforce GTX 470 AMP (übertaktet) nur um die 300 €uro (http://www.pcgameshardware.de/preisvergleich/a534361.html) kostet, wird jede HD 5870 schlagartig unattraktiv.

MfG,
Raff

Pirx
2010-09-30, 10:34:34
Raff hat ne 5870 -> ist ein Enthusiast -> Gegenbeispiel erbracht -> These widerlegt -> sinnloser Thread kann geschlossen werden

Labberlippe
2010-09-30, 10:37:12
Labberlippe, der Tellerrand besteht auch darin, nicht nur das vermurkste GTX-480/470-Referenzdesign zu bashen, sondern mal zu schauen, was die Partner so bauen. Ich erwähn's immer wieder gern: Zotac GTX 480/470 AMP. Die rocken, weil leise und stromsparender. Und so. Edel-Grafikkarten bietet auch eine fast unhörbar GTX 470 an, bald folgt MSIs hoffentlich gelungene GTX 480 Twin Frozr II; auch Point of View/TGT bietet eine GTX 480 mit Accelero-Kühler ("TFC") an.

MfG,
Raff

Hi

Behauptet auch keiner Raff gott sei Dank gibt es ja Hesteller die sich die Mühen machen und ein eigenes Design verwenden.
Was ich aber nicht verstehe ist das damals über die AMD Karten hergezogen wurde und die Customs design nicht in der Argumentation berücksichtigt wurden. (Von den üblichen Verdächtigen halt.)

Ich finde es eher bedenklich wenn ein Herstelle "Knebelverträge" erstellt und derart in die Entwicklungen reinprescht das andere ausgeschlossen werden.

Ich frage mich für was es einheitliche APIs gibt wenn wiede mit Device ID abfragen gearbeitet wird um den anderen eins reinzuwürgen.

Nimms nicht übel aber sollen die Leute doch die Karten kaufen die für den jenigen je nach Anwendungsgebiet das beste ist.

Es wird verzweifelt versucht das Hersteller B genau das gleiche macht wie Hersteller A.
Das geht nicht beide haben Unterschiedliche Philosophien beide Hersteller sowohl nVIDIA und AMD haben erfolg damit.
Sehr interresant wie einige hier versuchen die User zu bekehren um Hersteller A zu nehmen.

Wäre irgendwie witzig wenn sich ein solche Überzeugunskraft auch in den anderen Bereichen durchsetzen würde.
Auto Hersteller A muss das gleiche machen wie Hersteller B damit alle "Enthusiasten" sind oder in der Unterhaltunselektronik oder Weisswaren Bereich.

Unterschiedliche Menschen unterschiedliche Anforderungen an die Hardware.
Ist ja nicht so das man sich nicht frei Entscheiden kann, nur ständig zu Missionieren da wird man auf Dauer still stehen.

Gruss Labberlippe

Raff
2010-09-30, 10:38:11
Raff hat ne 5870 -> ist ein Enthusiast -> Gegenbeispiel erbracht -> These widerlegt -> sinnloser Thread kann geschlossen werden

Raff basht aber auch fleißig seine HD 5870, wenn sie mal wieder Kack-AF produziert. Ansonsten bin ich aber zufrieden (sonst hätte ich die Kiste längst entsorgt und nicht noch mit einem besseren Kühler aufgerüstet).

MfG,
Raff

Labberlippe
2010-09-30, 10:38:37
Raff hat ne 5870 -> ist ein Enthusiast -> Gegenbeispiel erbracht -> These widerlegt -> sinnloser Thread kann geschlossen werden

Hi

Es ist ja aus prinzip wurscht wer was verbaut hat.
Hier geht es nur darum einen Hersteller wieder auf den Thron zu heben gleich um gleichzeitig einen anderen eins reinzuwürgen.

Gruss Labberlippe

Gast
2010-09-30, 10:44:03
Ich verstehe nicht warum in diesem Forum immer wieder solche Threads aufgemacht werden. Das diese immer nur dem einen Zweck dienen, nämlich am Ende einvernehmlich auf die Schlussfolgerung zu kommen, dass AMD= automatisch Sch... und NV= unangefochtenes Überprodukt ist, ist doch offensichtlich.

Also bitte wenn euch das glücklich macht. Ich hatte bis zur HD4870 und jetzt HD5870 nur NV-Karten, aber ich hatte auch mit den beiden AMD-Karten bis jetzt nicht ein einzigstes größeres Problem.

LovesuckZ
2010-09-30, 10:57:56
Hi

Es ist ja aus prinzip wurscht wer was verbaut hat.
Hier geht es nur darum einen Hersteller wieder auf den Thron zu heben gleich um gleichzeitig einen anderen eins reinzuwürgen.

Gruss Labberlippe

Und was kann man dafür, dass AMD weniger bietet als nVidia?
Das reinwürgen schafft AMD schon alleine. Aber anscheinend stören sich die Leute immer nur dann daran, wenn man es auch ausspricht.

Gast
2010-09-30, 11:06:49
Gott habt ihr Probleme. Jeder muss doch für sich selbst wissen, womit er zufrieden ist. Ich kann auf CUDA; PhysX und die BQ scheissen, denn mich stört es nicht. Wer das braucht, der sollte natürlich eine nVidia nehmen. Das beide kein perfektes Ergebnis abliefern sollte klar sein und dass es bei AMD an der ein oder anderen Stelle etwas hakt ist auch nichts neues.
Fakt ist doch aber auch: BQ, CUDA und in Maßen auch PhysX interessiert wirklich nur Enthusiasten, der normale Gamer scheisst drauf und ich finde auch zurecht.
Und nur, weil eben jenes hier uns da besser ist, heißt das doch noch lange nicht, dass das produkt unbrauchbar ist. Lass das AF bei AMD schlechter sein... merken tuns 2% der Leute. Lass die NV mehr Strom verbrauchen... Merken tuns 2 % der Leute.

IMEAN
2010-09-30, 11:28:27
Komm heute hierher zurück und was sehe ich?
5 Seiten O_o
Ich wollte noch anmerken, dass ich die neuen Radeons natürlich noch abwarte..

Also erst mal hierzu:

Witzig ist das dieser Thread wie üblich vor dem Start der neuen AMD Karten erstellt wird um die nVIDIA Karten als das Ultimative Heilmittel hinzustellen.
Also bitte dazu fällt mir nix ein, denkst du das hier ist ein Doppelaccount mit dem Zweck nvidia Karten zu hypen?....


Zusammenfassung, ich weiß nicht was davon richtig und was falsch ist, der Inhalt ist nur zusammenkopiert von den Posts:

Ati
-die Radeons neigen eher zum Flimmern und Banding, ist aber Content-Abhängig!
-oft Probleme bei Neuerscheinungen von Spielen
-leisere und Stromsparendere Karten in der oberen Preisklasse (verglichen mit gtx 470 und 480, die allerdings mit Spezial Kühler noch relativ in Ordnung sind)
-ATi bietet SGSSAA (mit automatischer LOD-Anpassung) nur unter DX9 an, bei DX10 und DX11 geht kein SGSSAA
-downsampling nur unter XP/unter WIN7 problematisch
-Tendenziell besseres Transparenz-MSAA
[-Automatische LOD-Anpassung bei SGSSAA]
[-Custom-Downfilter (CFAA), die sehr geil aussehen (gerade mit SGSSAA)]
[-Ein Vorteil von ATI ist noch der geringere Performanceeinbruch mit SGSSAA im Vergleich zu Nvidia. Unter Nutzung von SGSSAA hat die GeForce GTX 480 keinen Performancevorteil mehr gegenüber der Radeon HD 5870]


Nvidia
-bessere Kompatibilität
-physX
-AA-Vorteile. Nvidia bietet dafür den schieren Kombinationswahnsinn diverser Modi miteinander, aber nur mit Box-Downfilter.
-SGSSAA geht bei Nvidia unter DX9, DX10, DX11
-Hinzu kommt eben ein besseres HQ-AF
-mehr 3rd Party Programme
-wenn ich mal das featureset vergleiche, siehts imo für amd nicht so doll aus. ubrig bleibt da nur der preis. ansonsten muss ich aber einfach sagen das der treibersupport für alte spiele, oder besser die nv-eigene kompatibilität, gerade auch zu alten games , sehr viel angenehmer ist als bei ati.
-Um aufs Thema zurückzukommen: Wenn jemand Lust hat sich mithilfe 3rd-Partytools die bestmögliche IQ auf den Bildschirm zu zaubern, der landet automatisch bei NV. Wenn es allerdings nur nach Performance mit einer guten IQ geht, kann ohne Bedenken auch zu einer ATI greifen (bzw. bastelt sich sein PhysX mit einer 9600GT+inoffiziellem Hack selbst) und darf sich imo trotzdem "Enthusiast" nennen



Anmerkung zu dem Punkt: "-oft Probleme bei Neuerscheinungen von Spielen" bei ATI:
Ein paar User haben rumgemeckert, von wegen, das wäre nicht die Schuld von Ati und ist vom Entwickler verschuldet.
Ja und? Das interessiert mich herzlich wenig, okay sagen wir ATI kann nichts dafür, aber wenn ich mir ein Spiel neu kaufe, dann ist es mir herzlich egal wer wann wo was verbockt hat, ICH kann dann nicht zocken und denke mir, "hätt ich mir doch ne nvidia geholt.."


Frage 1)ich frage mich ob SGSSAA nicht sowieso viel zu performance raubend ist?
Frage 2)Könnt ihr mir erklären was "Box Downfilter" sind?
Nvidia bietet dafür den schieren Kombinationswahnsinn diverser Modi miteinander, aber nur mit Box-Downfilter.

Labberlippe
2010-09-30, 11:33:55
Und was kann man dafür, dass AMD weniger bietet als nVidia?
Das reinwürgen schafft AMD schon alleine. Aber anscheinend stören sich die Leute immer nur dann daran, wenn man es auch ausspricht.

Hi

Wer sagt das AMD weniger bietet? Es kommt halt darauf an auf was man Wert legt.
Eines schnall ich nicht.
Ich verwende ein Produkt meine Bereiche abdeckt was bring es mir jetzt einen anderen Hersteller versuchen in eine andere Schiene zu bringen.

Wenn ich z.b als nVIDIA User eine Karte habe die mir "perfektes" Af bietet, PhysX, Cuda oder sonstiges und ich mit der Karte zufrieden bin dann brauche ich doch keine AMD Karte.
Dann frage ich mich warum man dann zwingend AMD missionieren muss damit die das gleiche wie nVIDIA anbieten.

Wenn ich zufrieden mit einen Produkt bin dann nehme ich nur das.
Es gibt keinen logischen Grund jetzt dann das ich den Hersteller wechsle oder sogar einen anderen User oder Hersteller vorschreiben will was am besten fürs "volk" ist.

Ehrlich, ich frage mich warum sich gerade die nVIDIA User so beschweren wo die doch das ultimative Produkt haben.

Gruss Labberlippe

Labberlippe
2010-09-30, 11:43:38
Also bitte dazu fällt mir nix ein, denkst du das hier ist ein Doppelaccount mit dem Zweck nvidia Karten zu hypen?....


Hi

Habe ich irgendwo geschrieben das ich denke das Du einen Doppelaccount hast?
Wenn ich der Meinung bin das dies so ist dann poste ich das auch.

Gruss Labberlippe

Gast
2010-09-30, 11:52:58
Genau das ist der Punkt denn ich hier im Forum auch schon einigemale angesprochen habe. Jeder hat die freie Wahl zwischen AMD oder NV und kann sich ein Produkt entsprechend seiner Prioritäten aussuchen. Muss es unbedingt Cuda oder PhysX sein, dann kommt natürlich nur eine NV-Karte in Frage, spielt das aber keine Rolle lohnt sich auch ein Blick auf das AMD Angebot. Es gibt keinerlei Verpflichtung, dass AMD alles genauso wie NV machen muss oder umgekehrt. Was mich stört ist dieses ständige Missionieren, um die Leute von einem bestimmten Produkt zu überzeugen.

SamLombardo
2010-09-30, 12:08:24
Hi

Wer sagt das AMD weniger bietet? Es kommt halt darauf an auf was man Wert legt.

Gruss Labberlippe

Klar, so kann man sich es immer zurechtlegen. Tatsache ist aber, dass man bei AMD in Spielen manchmal nicht alle Effekte zusehen bekommt, sei es das Cuda Wasser in JC2 oder die PhysX Effekte in Mafia - um nur mal willkürliche Beispiele heranzuziehen. Insofern ist es einfach FAKT, dass AMD weniger bietet. Wenn ein PC Gamer für sich entscheidet, dass ihm das Wurscht ist, so ist das selbstverständlich seine Sache. Dennoch ist der Satz "Wer sagt, dass AMD weniger bietet" schon sehr scheuklappenbehaftet, imho;)

Gast
2010-09-30, 12:14:47
Dann frage ich mich warum man dann zwingend AMD missionieren muss damit die das gleiche wie nVIDIA anbieten.

Weil man evtl. eben kein Fanboy ist? Ich würde mir sehr gerne eine HD 5850 holen (preisleistungsmäßig genau meine Klasse), wenn sie wenigstens anständig (anisotrop) filtern (nVidia-HQ-Niveau) würde und wenn die Spiele-Kompatibilität besser wäre. Ich will nicht mit dem Hotfix des Hotfixes des Hotfixes rumkämpfen müssen. AAA-Titel wie NfS Shift, die erst nach 2 Patches vernünftig performen, Anno 1404, wo es monatelang Texturfehler gibt, Saboteur, das ewig auf AMD-Karten nicht läuft, Depth of field, dass bei CoD MW2 im neuesten Treiber urplötzlich fehlerhaft ist – dafür gebe ich keine 200 € für eine Grafikkarte aus. CUDA und PhysX ist das letzte, weswegen ich nVidia vorziehe.

Mr. Lolman
2010-09-30, 12:17:27
die PhysX Effekte in Mafia - um nur mal willkürliche Beispiele heranzuziehen.

Hm? Die hat man auch über CPU. Das Cudawasser in JC2 ist jetzt auch nicht so toll. (Crysis rennt ohne Cuda und schaut besser aus).

Labberlippe
2010-09-30, 12:19:05
Klar, so kann man sich es immer zurechtlegen. Tatsache ist aber, dass man bei AMD in Spielen manchmal nicht alle Effekte zusehen bekommt, sei es das Cuda Wasser in JC2 oder die PhysX Effekte in Mafia - um nur mal willkürliche Beispiele heranzuziehen. Insofern ist es einfach FAKT, dass AMD weniger bietet. Wenn ein PC Gamer für sich entscheidet, dass ihm das Wurscht ist, so ist das selbstverständlich seine Sache. Dennoch ist der Satz "Wer sagt, dass AMD weniger bietet" schon sehr scheuklappenbehaftet, imho;)
Hi

AMD bietet Eyefinity der TV Out nach meinen Vorstellungen.
Meine Prioritäten liegen wo anders.
Ich brauche kein PhysX, mir ist das Nüsse ob ich im Spiel ein paar Effekte mehr habe.

Du sagst Scheuklappen denken, ignorierst aber das manche einfach auf andere Bereiche achten.
Um genau das geht es.

Gruss Labberlippe

Gast
2010-09-30, 12:20:19
Dann kauf dir doch eine NV und gut ist. Inwiefern ist es den dein Problem, wenn bei bestimmten Spielen AMD-User dann halt Probleme haben. Die Aussage "ich würde mir ja gerne eine HD5850 holen, aber sie kann das und das nicht" ist doch absoluter Quatsch. Es gibt eine HD5850 von AMD diese Karte hat bestimmte Eigenschaften, wenn diese nicht deinen Vorstellungen entsprechen kaufst du sie halt nicht.

Labberlippe
2010-09-30, 12:27:36
Weil man evtl. eben kein Fanboy ist? Ich würde mir sehr gerne eine HD 5850 holen (preisleistungsmäßig genau meine Klasse), wenn sie wenigstens anständig (anisotrop) filtern (nVidia-HQ-Niveau) würde und wenn die Spiele-Kompatibilität besser wäre. Ich will nicht mit dem Hotfix des Hotfixes des Hotfixes rumkämpfen müssen. AAA-Titel wie NfS Shift, die erst nach 2 Patches vernünftig performen, Anno 1404, wo es monatelang Texturfehler gibt, Saboteur, das ewig auf AMD-Karten nicht läuft, Depth of field, dass bei CoD MW2 im neuesten Treiber urplötzlich fehlerhaft ist – dafür gebe ich keine 200 € für eine Grafikkarte aus. CUDA und PhysX ist das letzte, weswegen ich nVidia vorziehe.

Hi

Ja dann nimm doch nVIDIa es steht ja keiner mit der Waffe hinter Dir im Anschlag und sagt Du musst AMD nehmen.
Das hat mit Fanboy nix zu tun.
Ich verbaue ebenso nVIDIA und AMD Karten es kommt halt darauf an was der Anwender will.

Ich verbaue das was für den "Kunden" das optimale darstellt.
Seinen Wünschen und Anwendungsgebiet entsprechend.
Wie gesagt ich frage mich warum so die Funktionen von nVIDIA gelobt werden welche ja somit das Optimum für denjenigen darstellen, und dann über einen anderen Hersteller herzieht.

Ist ja nicht normal.
Ehrlich was bringt das?
Dann kauft derjenige halt nVIDIA statt AMD.

Es wird anscheinend einfach ignoriert das jemand zufrieden mit AMD ist, der muss ja zwangsläufig missioniert werden.

Ich habe bis jetzt noch keinen zwangsläufig hinter dem PC Bildschirm zusammen brechen sehen weil der Kunde aufeinmal drauf kam das es PhysX und co nur von nVIDIA angeboten wird.

Wenn er dann meint er will das haben, dann kauft er sich eine nVIDIA Karte.
Ist dagegen ja nichts einzuwenden, andere sagen dafür das PhysX und Cuda dennen am A vorbei geht.
Das hat dann nix mit Fanboy zu tun sondern einfach damit das derjenige halt mit AMD zufrieden ist.

Mittlerweile ist es wieder soweit das in fast jeden Thread immer die gleichen Themen fallen.

Gruss Labberlippe

Raff
2010-09-30, 12:29:06
Hm? Die hat man auch über CPU. Das Cudawasser in JC2 ist jetzt auch nicht so toll. (Crysis rennt ohne Cuda und schaut besser aus).

"Auch nicht so toll": Aber 3 Prozent mehr Fps (HD 5870 vs. GTX 470) ist toll? Hä. :ugly:

MfG,
Raff

Gast
2010-09-30, 12:31:12
Dann kauf dir doch eine NV und gut ist. Inwiefern ist es den dein Problem, wenn bei bestimmten Spielen AMD-User dann halt Probleme haben. Die Aussage "ich würde mir ja gerne eine HD5850 holen, aber sie kann das und das nicht" ist doch absoluter Quatsch. Es gibt eine HD5850 von AMD diese Karte hat bestimmte Eigenschaften, wenn diese nicht deinen Vorstellungen entsprechen kaufst du sie halt nicht.

Was gibt's daran nicht zu verstehen? Wenn bald die HD 6000-Serie rauskommt und sagen wir mal für 200 € eine HD 6850 die Leistung einer HD 5870 erbringt, könnte ich sie mir einfach nicht kaufen (obwohl ich wollte), durch die eben genannten Macken.

Gast
2010-09-30, 12:35:02
"Auch nicht so toll": Aber 3 Prozent mehr Fps (HD 5870 vs. GTX 470) ist toll? Hä. :ugly:

MfG,
Raff
Immer schön provozieren ? Hä. :ugly: :ugly: Ugly kid joe :-) :Ugly:

derguru
2010-09-30, 12:41:01
Was gibt's daran nicht zu verstehen? Wenn bald die HD 6000-Serie rauskommt und sagen wir mal für 200 € eine HD 6850 die Leistung einer HD 5870 erbringt, könnte ich sie mir einfach nicht kaufen (obwohl ich wollte), durch die eben genannten Macken.
das kann ich aber noch nicht glauben,das wäre einfach zu heftig.falls es so sein sollte wird das schlechtere af ect. absolut keine bedeutung gemessen weil performance/preis immer noch das a und o ist für die allgemeinheit ist und auch für mich,erst dann kommt bq ect.

Mr. Lolman
2010-09-30, 12:41:49
"Auch nicht so toll": Aber 3 Prozent mehr Fps (HD 5870 vs. GTX 470) ist toll? Hä. :ugly:

MfG,
Raff

Wo gibts 3% mehr fps?

hq-hq
2010-09-30, 12:45:59
Frage 1)ich frage mich ob SGSSAA nicht sowieso viel zu performance raubend ist?


naja 4x sgssaa kann man schon nutzen, man muss halt ohne fsaa rund
100fps haben damit man es einsetzen kann.

denn die fps brechen von 100fps auf ungefähr 40fps mit 4x sgssaa zusammen...
bzw stellen wo du vorher nur nur so 70fps hattest könnten zu ruckeln anfangen

Gast
2010-09-30, 13:01:19
Lolli ist fanboy durch und durch, genauso wie schlammsau.

Der Spruch passt hier einfach fast immer: Wer im Glashaus sitzt....
Gerade du tust doch auch nichts anderes als dich bei jedem Beitrag hier als Fanboy zu outen der völlig einseitig immer nur in einem Richtung argumentiert.


Die erste zeit hatte ati bei sgssaa kein automatisches lod, kein problem. Nvidia hat das selbe lod-problem, plötzlich ist das ganze unmöglich, damit wird ja dann das sgsaa unbrauchbar.

Sind halt beides heuchler durch und durch.

Als es AMD nicht hatte hatte NV noch nicht mal SGSSAA, ein entscheidender Unterschied. Jetzt hat AMD SGSSAA mit LoD-Anpassung und NV hat es nicht und wird es auch nicht bekommen, da sie mit negativem LoD eben Filterprobleme haben.

Ich finde es im übrigen sehr traurig dass das selbst die Fachpresse völlig ignoriert und hier so tut als müsse man das LoD ja nur nachjustieren. NEIN, NV hat es nicht ohne Grund nicht verschoben.

y33H@
2010-09-30, 13:06:17
Bevor AMD SGSSAA hatte, hatte NV jahrelang OGSSAA und xS-Hybriden [samt LoD-Anpassung!]. Die gibt's immer noch und obendrauf HQ-AF und SGSSAA in allen (!) APIs. Und NV-Filterprobleme mit SGSSAAA und negativem LoD? Das ist ein falsches Gerücht, welches sich hält. Coda und Blaire haben das widerlegt.

SamLombardo
2010-09-30, 13:08:11
Hm? Die hat man auch über CPU. Das Cudawasser in JC2 ist jetzt auch nicht so toll. (Crysis rennt ohne Cuda und schaut besser aus).
Hm. Bei Mafia hast Du natürlich recht, es war halt auf AMD Karten ohne ini hacks um die Clothsim auszuschalten unspielbar...die CPU Variante wurde aber angeboten das stimmt. Bei JC2 ist es wieder Ansichtssache, da hatten wir schon mal ne Disskusion zu. Hier http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8245302&postcount=425 gab es schöne Vergleichsvideos.

Dennoch, darum ging es gar nicht, ob das nun schöner als Crysis ist oder nicht. Sondern um die Tatsache, dass es auf Ati/AMD Karten nicht zu sehen ist, dass der User bei NV einfach "kostenlos" mehr Effekte und zusätzlich bessere Filter bekommt. Irgendwie klar, dass dann von den Fans des Konkurrenzproduktes ein "braucht keine Sau" kommt. Interessant irgendwie, dass - wenn ein Hersteller Ressourcen einsetzt um die Bildqualität und dargestellte Effekte auf seinen Produkten zu verbessern und von den Konsolen abzuheben von den Usern der Konkurrenz nichts als Schlechtreden und Kleinmachen kommt. Anstatt es zu würdigen dass sich jemand dafür einsetzt die PC Versionen etwas von den Konsolen abzuheben - Freilich um seine Hardware zu verkaufen, aber warum auch nicht? Naja.

@Laberlippe, wenn es Personen gibt, die einfach andere Prioritäten setzen, dann kann es natürlich sein, dass denen die bessere BQ und die zusätzlichen Effekte einfach egal sind. Auch wenn das für mich nicht so recht nachvollziehbar ist akzeptiere ich das natürlich. Mancher will halt nen Supersilent Rechner der möglichst nix an Strom verbraucht. Dafür sind die aktuellen NV Karten weniger geeignet, keine Frage.

Gruß Sam

Gast
2010-09-30, 13:12:57
Flame entfernt
-puntarenas


Und NV-Filterprobleme mit SGSSAAA und negativem LoD? Das ist ein falsches Gerücht, welches sich hält. Coda und Blaire haben das widerlegt.

Das ist Fakt und Coda hat das auch bewiesen, das Thema wurde dann nicht mehr weiter verfolgt wegen einem(!) Video von Blaire. Aber jeder der negatives LoD verwendet bei AMD und NV sieht den Unterschied sofort. Viele Spiele vor dem Treiber-Clamp haben das auch vielfach gezeigt, dieses Problem hat NV bis heute. Ich verstehe nicht wie man sowas einfach ignorieren kann als Redakteur. Okay, leider verstehe ich es schon. ;(

Das ist auch der einzige Grund warum NV das LoD eben nicht anpasst.

y33H@
2010-09-30, 13:23:03
Wenn man kA hat. OGSSAA und xS verschieben das LoD ;(

LovesuckZ
2010-09-30, 13:25:00
Hi

Wer sagt das AMD weniger bietet? Es kommt halt darauf an auf was man Wert legt.
Eines schnall ich nicht.
Ich verwende ein Produkt meine Bereiche abdeckt was bring es mir jetzt einen anderen Hersteller versuchen in eine andere Schiene zu bringen.

Objektiv und subjektiv. Objektiv ist eine belegbare Tatsache. Auto A hat neben einer Klimaanlage auch ein Radio. Auto B hat nur ein Radio. Dann bietet natürlich Auto A mehr Features. Wenn Kunde X aber nur ein Radio benötigt, dann spielt für ihm die objektive Tatsache keine Rolle.


Wenn ich z.b als nVIDIA User eine Karte habe die mir "perfektes" Af bietet, PhysX, Cuda oder sonstiges und ich mit der Karte zufrieden bin dann brauche ich doch keine AMD Karte.
Dann frage ich mich warum man dann zwingend AMD missionieren muss damit die das gleiche wie nVIDIA anbieten.

Dann sollte aber bitte die Usergruppe, die es nicht benötigt, nicht so tun, dass sie etwas verlieren. Beispiel Batman: AMD wollte kein Ingame-AA für ihre Kunden. nVidia Käufer erhielten es. Die AMD Kunden machten dann aber ein Aufstand, weil ihnen angeblich etwas vorenthalten wurde. Es fehlt letzlich der Wille sich einzugestehen, dass eine Entscheidung für nVidia oder AMD immer auch gewisse Nachteile mit sichbringt. Aber anscheinend denken einige, kaufe ich AMD, dann kaufe ich auch nVidia...


Wenn ich zufrieden mit einen Produkt bin dann nehme ich nur das.
Es gibt keinen logischen Grund jetzt dann das ich den Hersteller wechsle oder sogar einen anderen User oder Hersteller vorschreiben will was am besten fürs "volk" ist.

Das machen aber vornehmlich AMD Kunden. Siehe GPU-PhysX, siehe HQ-AF, SGSSAA in allen APIs, die bessere DX11 Implementierung... Bei all den Features hört man von AMD Usern, dass diese global unnötig wären.


Ehrlich, ich frage mich warum sich gerade die nVIDIA User so beschweren wo die doch das ultimative Produkt haben.

Gruss Labberlippe

Hä? Wo beschweren sich denn nVidia User? Das es Probleme mit Hardware und Software im allgemeinen gibt, ist doch nichts neues. Aber ich höre niemanden, der sich über ein HQ-AF beschwert...


Das ist Fakt und Coda hat das auch bewiesen, das Thema wurde dann nicht mehr weiter verfolgt wegen einem(!) Video von Blaire.

Das ist ein perfektes Beispiel, Labberlippe. Ein Posting, dass falsch ist. Cuda hat nur bestätigt, dass nVidia Probleme mit einem LoD -3 (oder -4) hat. Bei -1 verhalten sich GF100 und Cypress ähnlich.
Warum wird also eine belegte Wahrheit von einem AMD User nicht akzeptiert?

Gast
2010-09-30, 13:25:52
Wenn man kA hat. OGSSAA und xS verschieben das LoD ;(

Ja, wenn man keine Ahnung hat und es dann nicht mal zugibt so wie du. NVs OGSSAA ist nichts anderes als eine höhere Auflösung die runter skaliert wird. Dadurch brauche ich das LoD nicht zu verschieben, durch die höhere Auflösung hat man natürlich trotzdem einen AF-Effekt. Verschiebst du wenn du einer höhere Auflösung verwendest auch das LoD? X-D

MartinRiggs
2010-09-30, 13:25:59
Hm? Die hat man auch über CPU. Das Cudawasser in JC2 ist jetzt auch nicht so toll. (Crysis rennt ohne Cuda und schaut besser aus).

Das Cuda-Wasser ist sogar Dreck und im Dschungel bricht meine GTX460 sowieso übelst ein. von 70-80 FPS ganz schnell auf 30 und dann spielt sich JC2 extrem schwammig.
Aber NV-karten sind schon die besten....:crazy:

Gast
2010-09-30, 13:27:54
Hm. Bei Mafia hast Du natürlich recht, es war halt auf AMD Karten ohne ini hacks um die Clothsim auszuschalten unspielbar...die CPU Variante wurde aber angeboten das stimmt. Bei JC2 ist es wieder Ansichtssache, da hatten wir schon mal ne Disskusion zu. Hier http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8245302&postcount=425 gab es schöne Vergleichsvideos.

Dennoch, darum ging es gar nicht, ob das nun schöner als Crysis ist oder nicht. Sondern um die Tatsache, dass es auf Ati/AMD Karten nicht zu sehen ist, dass der User bei NV einfach "kostenlos" mehr Effekte und zusätzlich bessere Filter bekommt. Irgendwie klar, dass dann von den Fans des Konkurrenzproduktes ein "braucht keine Sau" kommt. Interessant irgendwie, dass - wenn ein Hersteller Ressourcen einsetzt um die Bildqualität und dargestellte Effekte auf seinen Produkten zu verbessern und von den Konsolen abzuheben von den Usern der Konkurrenz nichts als Schlechtreden und Kleinmachen kommt. Anstatt es zu würdigen dass sich jemand dafür einsetzt die PC Versionen etwas von den Konsolen abzuheben - Freilich um seine Hardware zu verkaufen, aber warum auch nicht? Naja.

@Laberlippe, wenn es Personen gibt, die einfach andere Prioritäten setzen, dann kann es natürlich sein, dass denen die bessere BQ und die zusätzlichen Effekte einfach egal sind. Auch wenn das für mich nicht so recht nachvollziehbar ist akzeptiere ich das natürlich. Mancher will halt nen Supersilent Rechner der möglichst nix an Strom verbraucht. Dafür sind die aktuellen NV Karten weniger geeignet, keine Frage.

Gruß Sam

Was nützt es wenn es dann nicht läuft?

Gast
2010-09-30, 13:31:37
Das ist ein perfektes Beispiel, Labberlippe. Ein Posting, dass falsch ist. Cuda hat nur bestätigt, dass nVidia Probleme mit einem LoD -3 (oder -4) hat. Bei -1 verhalten sich GF100 und Cypress ähnlich.
Warum wird also eine belegte Wahrheit von einem AMD User nicht akzeptiert?

Ja, NVs und AMD AF verhalten sich auch "ähnlich".
Coda hat bewiesen das NV Probleme hat mit negativem LoD, bei -1 tritt das natürlich weniger stark zum Vorschein als bei -3. Aber auch wenn es nicht so stark zu Vorschein tritt ist es trotzdem Fakt. Hier werden mit der Lupe IQ-Vergleiche getätigt, AMD an die Wand gestellt wegen etwas mehr flimmern und sowas offensichtliches einfach von allen tot geschwiegen. X-D

Coda
2010-09-30, 13:33:34
Das ist Fakt und Coda hat das auch bewiesen, das Thema wurde dann nicht mehr weiter verfolgt wegen einem(!) Video von Blaire. Aber jeder der negatives LoD verwendet bei AMD und NV sieht den Unterschied sofort. Viele Spiele vor dem Treiber-Clamp haben das auch vielfach gezeigt, dieses Problem hat NV bis heute. Ich verstehe nicht wie man sowas einfach ignorieren kann als Redakteur. Okay, leider verstehe ich es schon. ;(

Das ist auch der einzige Grund warum NV das LoD eben nicht anpasst.
Bei -1 ist es meiner Einschätzung nach völlig gleichwertig.

Ich hatte den Effekt viel schlimmer in Erinnerung gehabt. Du kannst also aufhören mich falsch zu zitieren, da ich das in dem entsprechenden Thread auch schon gesagt hatte.

Das NVIDIA da nicht mehr so optimal filtert wie bei HQ/LOD 0.0 stimmt schon. Nur macht es AMD auch nicht besser.

Gast
2010-09-30, 13:38:28
Bei -1 ist es meiner Einschätzung nach völlig gleichwertig.

Ich hatte den Effekt viel schlimmer in Erinnerung gehabt. Du kannst also aufhören mich falsch zu zitieren, da ich das in dem entsprechenden Thread auch schon gesagt hatte.

Für 8xSSAA braucht man AFAIK schon -1,5. Im übrigen was heißt " meiner Einschätzung nach völlig gleichwertig"? Hier werden mit der Lupe kleinste Fehler gesucht, und bei sowas reicht es einmal drauf zu schauen und zu sagen sieht ok aus? Sorry, aber mir ist das ohne Clamp schon oft genug aufgefallen um zu wissen das es definitiv nicht in Ordnung ist.

Gast
2010-09-30, 13:41:27
Das NVIDIA da nicht mehr so optimal filtert wie bei HQ/LOD 0.0 stimmt schon. Nur macht es AMD auch nicht besser.

Danke, das ist ein Widerspruch zum obigen und beweist eben schon das NV hier Probleme hat. Ergo ist mit LoD-Anpassung HQ kein Argument mehr. Und das Problem wird immer schlimmer je weiter man verschiebt. Die Fachpresse hier bezeichnet das freilich hier als "falsches Gerücht".

SamLombardo
2010-09-30, 13:43:47
Was nützt es wenn es dann nicht läuft?
Hä? WTF? Also wirklich, hier ist was los:freak:



...und @ martin riggs, ich spiele JC2 mit meiner 470 und natürlich mit cuda wasser absolut problemlos. Und ich denke 90 Prozent aller NV User auch. Schwammig ist da nichts, aber auch gar nichts.:confused:

Coda
2010-09-30, 13:43:47
Für 8xSSAA braucht man AFAIK schon -1,5
Theoretisch ja, AMD wendet aber auch keine -1.5 an um ihren Sparfilter zu beruhigen.

Danke, das ist ein Widerspruch zum obigen und beweist eben schon das NV hier Probleme hat. Ergo ist mit LoD-Anpassung HQ kein Argument mehr. Und das Problem wird immer schlimmer je weiter man verschiebt. Die Fachpresse hier bezeichnet das freilich hier als "falsches Gerücht".
LOD-Anpassung ist nur mit Supersampling sinnvoll, und das glättet auch einen etwas rauschenden Filter. Ich sehe das Problem ehrlich gesagt nicht.

Gast
2010-09-30, 13:53:17
Das machen aber vornehmlich AMD Kunden. Siehe GPU-PhysX, siehe HQ-AF, SGSSAA in allen APIs, die bessere DX11 Implementierung... Bei all den Features hört man von AMD Usern, dass diese global unnötig wären.

Mit den genannten Punkten hast du zwar teilweise recht... nur wiegen diese eben nicht schwer genug, um diese an den Man(n) zu bringen.
- GPU-PhysX - wie viele Spiele kommen jährlich mit GPU-PhysX?
Gut, lassen wir es mal 5 sein, auch wenn es weniger sind. :)
Es kommen aber Hunderte von Spielen jährlich für den PC, habe sogar letztens irgendwo was von über Tausend gelesen.
Jetzt kannst du dir ausrechnen, in wie viel Prozent der Spiele du davon profitieren würdest eine NV zu haben.. ;)
Abgesehen davon ist die Implementierung oft sehr holprig oder übertrieben, so dass man manchmal überlegt, ob man es doch nicht lieber ausschaltet. Mafia 2 hat auch bewiesen, dass man schon eine GTX 470 oder 480 haben muss, damit man auf vernüntige FPS kommt.
Damit ist GPU-PhysX wirklich nur was für Karten um 300 Euro, darunter kaum ein Argument.

- HQ-AF - ist sicherlich toll für BQ-Fanatiker, nur leider auch nicht "perfekt", da es Content gibt, der auch mit NV flimmert, nur halt bisschen weniger als bei ATI.
Das sollte aber jeder selbst für sich entscheiden, ob er mit dem AMD-AF leben kann. Am besten bei jemandem mit einer AMD-Karte ausprobieren, ob die BQ zusagt/ausreicht.

- SGSSAA in allen APIs
in der Theorie zwar schön, in der Praxis wirst du es aber kaum hinbekommen mit einer SIngle-GPU-Karte in DX10/11 in gebräuchlichen Auflösungen zu zocken, da schlicht und ergreifend die Performance fehlt, besonders bei NV.
Da ist die SSAA-Performance halt schlechter als bei AMD.
Deswegen sehe ich in der Praxis die Beschränkung auf DX9-Spiele bei AMD als nicht so dramatisch an. Die Performance ist da wohl wichtiger, als die theoretische Möglichkeit in DX10/11 SGSSAA einzuschalten.
Das ist aber auch so ein Punkt, den jeder für sich selbst entscheiden sollte, wie sein Anforderungsprofil aussieht.

- die bessere DX11 Implementierung...
Ist das jetzt ein verfrühter Aprilscherz? :confused:
DX11 ist ein Standard.
Wenn man diesen voll erfüllt, dann kann die Implemetierung nicht besser oder schlechter sein.
Deswegen sind bei der Implemetierung des Standards DX11 beide gleich gut.

Coda
2010-09-30, 13:56:54
Ich fasse mal zusammen: Immer schön relativieren, da man keine Argumente hat.

- HQ-AF - ist sicherlich toll für BQ-Fanatiker, nur leider auch nicht "perfekt"
Es ist für das derzeit übliche Verfahren praktisch perfekt (bei LOD 0.0). Und das es abgelöst wird ist derzeit noch in sehr weiter Ferne.

Da ist die SSAA-Performance halt schlechter als bei AMD.
Das wäre mir bei SGSSAA neu. Bei "Downsampling" ist es so, ja.

Ist das jetzt ein verfrühter Aprilscherz? :confused:
DX11 ist ein Standard.
Stell dich nicht absichtlich blöd an. Es ist doch klar, dass er meint, dass Tesselation auf AMD-Karten so nur sehr eingeschränkt verwendbar ist, ergo ist NVIDIAs Implementierung an diesem Punkt besser.

Mir tut schon der Kopf weh, wenn ich das schreiben muss.

Gast
2010-09-30, 14:02:29
[QUOTE=Coda;8300284Stell dich nicht absichtlich blöd an. Es ist doch klar, dass er meint, dass Tesselation auf AMD-Karten so nur sehr eingeschränkt verwendbar ist, ergo ist NVIDIAs Implementierung an diesem Punkt besser.

Mir tut schon der Kopf weh, wenn ich das schreiben muss.[/QUOTE]

Es ist auch offensichtlich das er mit diesem ständigen Aussagen so tun will als ob AMDs gesamte DX11-Implementierung minderwertig wäre, das ist aber mitnichten der Fall. Nur Tesslation ist nicht so schnell wie bei NV, bei den Compute-Shadern sieht es da schon wieder umgekehrt aus.

Coda
2010-09-30, 14:06:33
Es ist auch offensichtlich das er mit diesem ständigen Aussagen so tun will als ob AMDs gesamte DX11-Implementierung minderwertig wäre, das ist aber mitnichten der Fall. Nur Tesslation ist nicht so schnell wie bei NV, bei den Compute-Shadern sieht es da schon wieder umgekehrt aus.
Der Unterschied ist, dass man bei Tesselation auf AMD-GPUs sehr leicht in den unspielbaren Bereich kommt. Das ist durch den Einsatz von CS auf NVIDIA-Karten schwer möglich, weil das kein serieller Bottleneck ist, der die komplette GPU ausbremst.

Der Vergleich hinkt.

Gast
2010-09-30, 14:06:38
Es ist für das derzeit übliche Verfahren praktisch perfekt (bei LOD 0.0).
Wenn es perfekt wäre, dann würde es nicht flimmern...
Es ist vielleicht in der Theorie perfekt, aber nicht in der Praxis.

Stell dich nicht absichtlich blöd an. Es ist doch klar, dass er meint, dass Tesselation auf AMD-Karten so nur sehr eingeschränkt verwendbar ist, ergo ist NVIDIAs Implementierung an diesem Punkt besser.

Dafür hätte ich doch gerne ein Beweis als Benchmark aus einem Spiel.

Ich behaupte jetzt einfach mal, dass AMD die bessere DX11-Implementierung hat, und nun?
Beweise?
Dirt 2.
Der Performanceunterschied zwischen AMD und NV in DX11 ist geringer als in DX9.
In DX11 holen die AMDs auf.
Quelle?
PCGH.

Coda
2010-09-30, 14:07:53
Wenn es perfekt wäre, dann würde es nicht flimmern...
Wenn du mir mal zuhören würdest.

Es ist für das derzeit übliche Verfahren praktisch perfekt. Eine Referenzimplementierung sieht nicht besser aus.

Dafür hätte ich doch gerne ein Beweis als Benchmark aus einem Spiel.
http://www.pcgameshardware.com/aid,743498/Geforce-GTX-480-and-GTX-470-reviewed-Fermi-performance-benchmarks/Reviews/?page=13

Das wird bei jeglichen Spielen so aussehen, die Tesselation einsetzen.

Gast
2010-09-30, 14:09:50
Theoretisch ja, AMD wendet aber auch keine -1.5 an um ihren Sparfilter zu beruhigen.


LOD-Anpassung ist nur mit Supersampling sinnvoll, und das glättet auch einen etwas rauschenden Filter. Ich sehe das Problem ehrlich gesagt nicht.

Es glättet etwas rauschende Filter, aber nicht beliebig. -1 ist bei mir schon too much, da hilft auch 8xSGSSAA nicht mehr bei NV, das flimmert teils stärker als ohne SSAA mit LoD 0.

Der Unterschied ist, dass man bei Tesselation auf AMD-GPUs sehr leicht in den unspielbaren Bereich kommt. Das ist durch den Einsatz von CS auf NVIDIA-Karten schwer möglich, weil das kein serieller Bottleneck ist, der die komplette GPU ausbremst.

Der Vergleich hinkt.

Ich will überhaupt nichts vergleichen. Alles was ich gesagt habe ist das DX11 aus mehr als nur Tesslation besteht.

Gast
2010-09-30, 14:10:32
Mit den genannten Punkten hast du zwar teilweise recht... nur wiegen diese eben nicht schwer genug, um diese an den Man(n) zu bringen.
- GPU-PhysX - wie viele Spiele kommen jährlich mit GPU-PhysX?
Gut, lassen wir es mal 5 sein, auch wenn es weniger sind. :)
Es kommen aber Hunderte von Spielen jährlich für den PC, habe sogar letztens irgendwo was von über Tausend gelesen.
Jetzt kannst du dir ausrechnen, in wie viel Prozent der Spiele du davon profitieren würdest eine NV zu haben.. ;)

Also es kommen jedes Jahr hunderte schlechte Spiele raus, nur oftmals sind es eben immer die besten Spiele die jeder zocken will, die auch mit GPU-PhysX raus kommen. ;)



- HQ-AF - ist sicherlich toll für BQ-Fanatiker, nur leider auch nicht "perfekt", da es Content gibt, der auch mit NV flimmert, nur halt bisschen weniger als bei ATI.

Das ist dann aber kein Flimmern was von zu schlechtem AF kommt.



- SGSSAA in allen APIs
in der Theorie zwar schön, in der Praxis wirst du es aber kaum hinbekommen mit einer SIngle-GPU-Karte in DX10/11 in gebräuchlichen Auflösungen zu zocken, da schlicht und ergreifend die Performance fehlt, besonders bei NV.
Da ist die SSAA-Performance halt schlechter als bei AMD.
Deswegen sehe ich in der Praxis die Beschränkung auf DX9-Spiele bei AMD als nicht so dramatisch an. Die Performance ist da wohl wichtiger, als die theoretische Möglichkeit in DX10/11 SGSSAA einzuschalten.

Bei BF BC 2 ist das bei mir aber ein sehr praxisnaher Vorteil, ich spiele in 1920x1200 alles auf max mit HBAO, 16x HQ AF und 4x SSAA und das läuft absolut perfekt auch im MP mit 32 Leuten auf der Map und ich hab nur eine Grafikkarte.

Coda
2010-09-30, 14:11:13
Es glättet etwas rauschende Filter, aber nicht beliebig. -1 ist bei mir schon too much, da hilft auch 8xSGSSAA nicht mehr bei NV, das flimmert teils stärker als ohne SSAA mit LoD 0.
Da werde ich mir zu einem gegebenem Zeitpunkt selber ein Bild dazu machen. Die Sachlage ist nur: Es wird nicht schlechter als bei AMD aussehn, weil -1 HQ nicht mehr flimmert als -1 A.I.

Ich will überhaupt nichts vergleichen. Alles was ich gesagt habe ist das DX11 aus mehr als nur Tesslation besteht.
Das ist schön, aber AMD hat hier an einer Stelle ein massives Problem, das die Karten in den unspielbaren Bereich drücken könnte.

Die NVIDIA-GPUs sind was D3D11 angeht deutlich ausgewogener.

Gast
2010-09-30, 14:11:50
http://www.pcgameshardware.com/aid,743498/Geforce-GTX-480-and-GTX-470-reviewed-Fermi-performance-benchmarks/Reviews/?page=13

Das wird bei jeglichen Spielen so aussehen, die Tesselation einsetzen.

Schlechtes möglicher Vergleich. X-D
Eine 5870 2GB zieht in Metro fast eine GTX480 ab, es liegt also nur am VRAM.

Coda
2010-09-30, 14:13:49
Da hätte ich jetzt gerne mal einen Link dazu. Und zwar D3D11 und maximale Tesselation aktiviert.

derguru
2010-09-30, 14:14:29
bitte,
http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/

hui 18,9fps zu 21,3 die 480gtx zermalt die 5870 2b.

Gast
2010-09-30, 14:15:45
Schlechtes möglicher Vergleich. X-D
Eine 5870 2GB zieht in Metro fast eine GTX480 ab, es liegt also nur am VRAM.

Hier siehst du wie die 2Gb Version zulegt:
http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/

Und hier einen direkten Vergelich:
http://www.hardwareheaven.com/reviews/965/pg7/sapphire-radeon-hd-5870-2gb-toxic-review-metro-2033.html

Coda
2010-09-30, 14:17:57
Da scheint ihr recht mit zu haben. Die Ergebnisse kannte ich allerdings nicht.

Nur: Das ändert auch nicht viel an dem Punkt, dass Tesselation auf AMD-Karten ein großes Problem darstellt, wenn man es übertreibt.

Ob das relevant ist, ist eine ganz andere Diskussion.

Gast
2010-09-30, 14:19:10
http://www.pcgameshardware.com/aid,743498/Geforce-GTX-480-and-GTX-470-reviewed-Fermi-performance-benchmarks/Reviews/?page=13

Das wird bei jeglichen Spielen so aussehen, die Tesselation einsetzen.
Wenn ich mich recht entsinne, dann war bei Metro eher das DOF für die niedrigere Performance verantwortlich und nicht die Tesselation.
Aber egal, bis Tesselation wirklich entscheiden bei der Performance sein sollte, dann gehört eine 5870 und eine GTX 480 schon zum alten Eisen.

Ich denke es bestreitet niemand, dass der GF100 bei der Tesselation deutlich überlegen ist.
In der Spielepraxis wirkt sich dies jedoch kaum aus.

Gast
2010-09-30, 14:19:34
Es stimmt das in Metro die Tesselation kein Problem für die HD5870 ist allerdings ist das kein Wunder, denn bei Metro wird Tesselation nichtmal für 2% der Objekte angewendet. Da müssen wir schon auf spiele mit voller Tesselation warten.

Gast
2010-09-30, 14:20:22
Da werde ich mir zu einem gegebenem Zeitpunkt selber ein Bild dazu machen. Die Sachlage ist nur: Es wird nicht schlechter als bei AMD aussehn, weil -1 HQ nicht mehr flimmert als -1 A.I.

Ja, bitte mache dir selbst ein Bild, dann wirst du mir auch zustimmen. Ich bin ja schon froh das du wenigstens nicht derart ignorant wie die anderen hier vorgehst.


Das ist schön, aber AMD hat hier an einer Stelle ein massives Problem, das die Karten in den unspielbaren Bereich drücken könnte.


Nur das es praktisch kein Spiel gibt wo das ein Problem ist da AMD ~90% DX11 Marktanteil hat und das verständlicherweise jeder Entwickler berücksichtigen wird.

Coda
2010-09-30, 14:21:58
Ja, bitte mache dir selbst ein Bild, dann wirst du mir auch zustimmen. Ich bin ja schon froh das du wenigstens nicht derart ignorant wie die anderen hier vorgehst.
Warum sollte ich ignorant sein? Man wird hier von allen immer sofort in eine Schublade gesteckt, wenn man anfängt zu kritisieren.

Das nervt nur noch. Und die dauernde Relativierung der Sachelagen auch. Das hat in einer Diskussion nichts zu suchen. Wer keine direkten Argumente hat sollte sich raushalten.

Nur das es praktisch kein Spiel gibt wo das ein Problem ist da AMD ~90% DX11 Marktanteil hat und das verständlicherweise jeder Entwickler berücksichtigen wird.
TWIMTBP ;)

Mr. Lolman
2010-09-30, 14:22:14
Wenn man kA hat. OGSSAA und xS verschieben das LoD ;(

Böses Eigentor.

derguru
2010-09-30, 14:22:27
Da scheint ihr recht mit zu haben. Die Ergebnisse kannte ich allerdings nicht.

Nur: Das ändert auch nicht viel an dem Punkt, dass Tesselation auf AMD-Karten ein großes Problem darstellt, wenn man es übertreibt.

Ob das relevant ist, ist eine ganz andere Diskussion.

ist es das?zur zeit ist es jedenfalls nicht relevant abgesehen in tess-benchmarks wie heaven oder stone giant.
ich kenne kein spiel wo es zur zeit relevant ist,in zukunft bestimmt aber doch nicht heute.

Coda
2010-09-30, 14:24:06
ist es das?zur zeit ist es jedenfalls nicht relevant abgesehen in tess-benchmarks wie heaven oder stone giant.
Warum stellt man eine Frage, wenn man die offensichtliche Antwort darauf im nächsten Satz hinschreibt?

Böses Eigentor.
Das kommt auf die Betrachtungsweise an. Effektiv wird das LOD schon verschoben, halt nicht durch Parametrisierung des Textur-Filters.

Gast
2010-09-30, 14:24:34
Warum sollte ich ignorant sein? Man wird hier von allen immer sofort in eine Schublade gesteckt, wenn man anfängt zu kritisieren.


Was? Ich habe doch geschieben das ich froh bin das du nicht so ignorant bist wie die Herren weiter hinten.


TWIMTBP ;)

Ich sehe aber nichts davon am Spielemarkt. Metro war auch TWIMTBP ;)

Vento
2010-09-30, 14:25:36
Ist halt eine rethorische Frage gewesen.

Gast
2010-09-30, 14:25:37
Nur das es praktisch kein Spiel gibt wo das ein Problem ist da AMD ~90% DX11 Marktanteil hat und das verständlicherweise jeder Entwickler berücksichtigen wird.

Von diesen 90% sind aber 95% so langsam das man damit nie DX11 in hohen Details zocken kann und somit für die Entwickler irrelevant. Bei NV hingegen haben fast alle Karten die nötige Leistung.

Coda
2010-09-30, 14:26:39
Ich sehe aber nichts davon am Spielemarkt. Metro war auch TWIMTBP ;)
Siehst du: Das ist das Problem.

Sobald hier auf offensichtlich technische Unzulänglichkeiten eingegangen wird, wird die Diskussion solange ins ständige Relativieren verschoben, bis man keine Lust mehr hat.

Jedes Mal das gleiche. Ich bin es leid.

Gast
2010-09-30, 14:27:53
Nur das es praktisch kein Spiel gibt wo das ein Problem ist da AMD ~90% DX11 Marktanteil hat und das verständlicherweise jeder Entwickler berücksichtigen wird.

95 % des Marktes hat auch gar keine DX11-Karte. Demnach dürfte es jetzt nicht einmal DX11-Spiele geben. Alleine die Tatsache, dass nVidia bei einem der Most Wanted-Spiele seit Jahren (Mafia 2) ihr proprietäres PhysX implementieren durften, sollte dir zu denken geben. Da werden sicherlich noch die ein oder anderen TWIMTBP-Spiele auftauchen, die nVidia-freundlich viel Tessellation einsetzen werden. ;) The Witcher 2 soll ja der erste Titel sein.

derguru
2010-09-30, 14:44:45
95 % des Marktes hat auch gar keine DX11-Karte. Demnach dürfte es jetzt nicht einmal DX11-Spiele geben. Alleine die Tatsache, dass nVidia bei einem der Most Wanted-Spiele seit Jahren (Mafia 2) ihr proprietäres PhysX implementieren durften, sollte dir zu denken geben. Da werden sicherlich noch die ein oder anderen TWIMTBP-Spiele auftauchen, die nVidia-freundlich viel Tessellation einsetzen werden. ;) The Witcher 2 soll ja der erste Titel sein.
jep genauX-D
http://vr-zone.com/forums/816893/rumor-witcher2-will-support-new-enhanced-tessellation-in-the-upcomin-radeon6000-serie.html

SamLombardo
2010-09-30, 14:46:33
Schaut Euch diese DX11 Benchmarks an
http://www.pcgameshardware.de/aid,767502/Lost-Planet-2-im-Technik-Test-DirectX-9-gegen-DirectX-11-Grafikkarten-und-CPU-Benchmarks/Action-Spiel/Test/

Während de HD5870 unter DX9 noch vorn liegt, wird sie sogar von ner GTX460 abgezogen sobald Tessellation ins Spiel kommt.

Und ich weiss schon was jetzt kommt: Scheiß Spiel, will sowieso keiner spielen, DX11 ist völlig unnötig.... Mal sehn wie lange es dauert:rolleyes:

SamLombardo
2010-09-30, 14:48:34
jep genauX-D
http://vr-zone.com/forums/816893/rumor-witcher2-will-support-new-enhanced-tessellation-in-the-upcomin-radeon6000-serie.html
Was soll die Ironie? Wenn das wirklich so ist, welchen Grund gibts dann noch heutzutage eine HD5870 zu kaufen bzw. zu empfehlen, wie es hier von diversen Hardcorefans noch unablässig getan wird? Richtig: keinen!

y33H@
2010-09-30, 14:48:45
Böses Eigentor. Nö, siehe Coda.

Gast
2010-09-30, 14:51:32
Nö, siehe Coda.

Doch, denn du hattest keine Ahnung, sonst hättest du dem Gast nicht vorgeworfen keine Ahnung zu haben obwohl er nichts unwahres gesagt hat.

derguru
2010-09-30, 14:52:49
Was soll die Ironie? Wenn das wirklich so ist, welchen Grund gibts dann noch heutzutage eine HD5870 zu kaufen bzw. zu empfehlen, wie es hier von diversen Hardcorefans noch unablässig getan wird? Richtig: keinen!
gehts hier um grafikkartenempfehlungen?
und ja Lost Planet 2 ist ein scheiß spiel und mit tess sogar noch hässlicher.;D

Gast
2010-09-30, 14:54:29
Nö, siehe Coda.

Achja, NVs Filterprobleme mit negativem LoD immer noch ein "falsches Gerücht"?

Raff
2010-09-30, 14:55:06
[x] Thread ist ein Flammenmeer ohne Sinn und muss eingeschläfert werden

MfG,
Raff

y33H@
2010-09-30, 14:57:14
Achja, NVs Filterprobleme mit negativem LoD immer noch ein "falsches Gerücht"? Ja:
Bei -1 ist es meiner Einschätzung nach völlig gleichwertig. Ich hatte den Effekt viel schlimmer in Erinnerung gehabt. Du kannst also aufhören mich falsch zu zitieren, da ich das in dem entsprechenden Thread auch schon gesagt hatte.

Atma
2010-09-30, 14:59:26
Schaut Euch diese DX11 Benchmarks an
http://www.pcgameshardware.de/aid,767502/Lost-Planet-2-im-Technik-Test-DirectX-9-gegen-DirectX-11-Grafikkarten-und-CPU-Benchmarks/Action-Spiel/Test/

Während de HD5870 unter DX9 noch vorn liegt, wird sie sogar von ner GTX460 abgezogen sobald Tessellation ins Spiel kommt.

Und ich weiss schon was jetzt kommt: Scheiß Spiel, will sowieso keiner spielen, DX11 ist völlig unnötig.... Mal sehn wie lange es dauert:rolleyes:
Gratulation zum Rosinen picken :uclap:

Lost Planet 2 ist in Sachen Performance so ziemlich der schlechteste Port seit langem. Die Grafik ist ein schlechter Scherz und dafür wird so viel Leistung benötigt..

Gast
2010-09-30, 15:01:25
Ja:

Na eh, immer nur schön ignorieren was einem nicht passt, besonders delikat wenn es auch noch im selben Beitrag steht. Unterstes Niveau.

Das NVIDIA da nicht mehr so optimal filtert wie bei HQ/LOD 0.0 stimmt schon.

Es ist eine Tatsache das NVs Filter durch negatives LoD bedeutend schlechter wird im Verhältnis zur Konkurrenz. Und spätestens ab -1,5 deutlich schlechter als AMDs gehasste A.I.-Optimierungen.

Exxtreme
2010-09-30, 15:02:52
Da der Thread mal wieder ausgeartet ist, ist er dicht.

dildo4u
2010-10-02, 16:10:51
Wenn man nach Verkäufe geht müsste man Starcraft 2,Civ 5,GTA4 und WOW benchen da säh es für ATI mehr als Düster aus.

derguru
2010-10-02, 16:14:26
das sind auch richtige grafikhammer und soviele davon nutzen ja auch dx 11.:freak:

dildo4u
2010-10-02, 16:15:09
das sind auch richtige grafikhammer und soviele davon nutzen ja auch dx 11.:freak:
Civ 5 und WOW.Es geht ja darum was die meisten Leute zocken,danach sollte man die Benches aussuchen,nicht danach was läuft auf meiner Lieblingshardware am besten sonst hätt ich ja Metro genannt. ;)

y33H@
2010-10-02, 16:16:01
@ dildo4u

Ich denke, nach Verkaufszahlen und Popularität zu benchen, ist eine gute Wahl. Dazu noch ein zwei Nischentitel und was in der Mitte und man hat eine schöne Mischung. PCGH steht ja gerne mal wegen GTA IV oder WoW in der Kritik - aber hallo, das spielen Millionen Leute. Und die sind mit einer Fermi-Karte besser dran als mit einer Cypress. Das ist halt ein Fakt. Generell scheint es so, als ob NV-Karten bei Topsellern etwas besser abschneiden [AbdR!].

Gasti
2010-10-02, 16:18:51
In WOW wird mit DX11 das looten beschleunigt :ugly:

Man kann immer so benchen, das einem die Ergebnisse ins Bias passen.

Gasti
2010-10-02, 16:21:46
@ dildo4u

Ich denke, nach Verkaufszahlen und Popularität zu benchen, ist eine gute Wahl. Dazu noch ein zwei Nischentitel und was in der Mitte und man hat eine schöne Mischung. PCGH steht ja gerne mal wegen GTA IV oder WoW in der Kritik - aber hallo, das spielen Millionen Leute. Und die sind mit einer Fermi-Karte besser dran als mit einer Cypress. Das ist halt ein Fakt. Generell scheint es so, als ob NV-Karten bei Topsellern etwas besser abschneiden [AbdR!].

Was interessiert Das?
Wichtig ist was die Leute spielen, die sich regelmäßig Highendkarten kaufen.

dildo4u
2010-10-02, 16:21:46
In WOW wird mit DX11 das looten beschleunigt :ugly:

Nö die Grafik.

http://www.hardwareclips.com/video/597/PCGH-Uncut-HD-Video--Folge-13-WoW-im-DirectX-11-Modus

derguru
2010-10-02, 16:23:22
Civ 5 und WOW.Es geht ja darum was die meisten Leute zocken,danach sollte man die Benches aussuchen,nicht danach was läuft auf meiner Lieblingshardware am besten sonst hätt ich ja Metro genannt. ;)
noe denn bei den games ist es wurscht ob man 90fps oder 60fps hat,spielbar bleiben sie eh.anders sieht es aus bei spielen die fps brauchen wie metro2033,crysis,stalker.
deine angebenen spiele sind nach dem spielspass deshalb so beliebt weil man die auch mit oldiekarten spielen kann.

Schlammsau
2010-10-02, 16:24:13
Und in Arcania ist eine 5870 fast auf Augenhöhe mit der 480. Ich liebe diese Rosinenpickerei! :freak:

dildo4u
2010-10-02, 16:28:43
Und in Arcania ist eine 5870 fast auf Augenhöhe mit der 480. Ich liebe diese Rosinenpickerei! :freak:
Lesen warum ich diese Games genannt hab kleiner Tipp Arcania wird nicht mal 10% der Verkäufe eines Civ5,SC2,GTA4 oder WOW erreichen.

Gast
2010-10-02, 16:28:55
Civ 5 ist wohl doch ein größerer Namen als ein dt. Gothic. Zumal bei letzterem noch MSAA in den Testergebnissen fehlt, was via Vollversion oder Profil im Treiber wohl möglich nachgeliefert wird.

y33H@
2010-10-02, 16:30:10
Wichtig ist was die Leute spielen, die sich regelmäßig Highendkarten kaufen. Die sind idR Early Adopter und zocken aktuelle Grafikmonster oder etwas ältere Titel samt SSAA und Co.

DrFreaK666
2010-10-02, 16:30:58
Lesen warum ich diese Games genannt hab kleiner Tipp Arcania wird nicht mal 10% der Verkäufe eines Civ5,SC2,GTA4 oder WOW erreichen.

Trotzdem wird man Gothic 4 kaufen und wissen wollen mit welchen karten es am besten läuft. Oder sind Gothic-Käufer nicht Hardware-interessiert?

Gouvernator
2010-10-02, 16:35:43
noe denn bei den games ist es wurscht ob man 90fps oder 60fps hat,spielbar bleiben sie eh.anders sieht es aus bei spielen die fps brauchen wie metro2033,crysis,stalker.
deine angebenen spiele sind nach dem spielspass deshalb so beliebt weil man die auch mit oldiekarten spielen kann.
Es gibt halt Leute die auf reine Spielbarkeit am wenigsten achten. Es ist quasi selbstverständlich das alles spielbar ist. Was mich interessiert ist wie weit könnte ich die BQ ausreizen. Wenn ein Spiel sagen wir mal mit 200 FPS läuft dann kann ich über diese Zahl abschätzen wieviel SGSSAA das Spiel vertragen könnte.

DrFreaK666
2010-10-02, 16:37:06
Es gibt halt Leute die auf reine Spielbarkeit am wenigsten achten. Es ist quasi selbstverständlich das alles spielbar ist. Was mich interessiert ist wie weit könnte ich die BQ ausreizen. Wenn ein Spiel sagen wir mal mit 200 FPS läuft dann kann ich über diese Zahl abschätzen wieviel SGSSAA das Spiel vertragen könnte.

CIV 5 wäre dann mit SGSSAA nicht mehr spielbar :wink:

derguru
2010-10-02, 16:37:09
Es gibt halt Leute die auf reine Spielbarkeit am wenigsten achten. Es ist quasi selbstverständlich das alles spielbar ist. Was mich interessiert ist wie weit könnte ich die BQ ausreizen. Wenn ein Spiel sagen wir mal mit 200 FPS läuft dann kann ich über diese Zahl abschätzen wieviel SGSSAA das Spiel vertragen könnte.
ja und genau dann schmilzt der performanceabstand zu amd-karten.:rolleyes:

Gouvernator
2010-10-02, 16:38:12
CIV 5 wäre dann mit SGSSAA nicht mehr spielbar :wink:
Das werde ich heute selbst mal austesten.

y33H@
2010-10-02, 16:38:20
Je mehr zusätzliche Fps eine Grafikkarte oberhalb der persönlichen "läuft flüssig"-Grenze rendert, desto mehr Luft bleibt für BQ-Steigerungen.
ja und genau dann schmilzt der performanceabstand zu amd-karten.Schmelzen? Eine Radeon kann kein SGSSAA unter DX10/11. Und Civ5 sieht unter DX11 deutlich besser aus.

DrFreaK666
2010-10-02, 16:39:48
Das werde ich heute selbst mal austesten.

OK, du hast ja SLI...

AwesomeSauce
2010-10-02, 16:43:04
ja und genau dann schmilzt der performanceabstand zu amd-karten.:rolleyes:
SGSSAA unter DX10/11 bei AMD? Hab ich was verpasst? Oh wait...

EDIT: zu langsam...

Gasti
2010-10-02, 16:43:06
Lesen warum ich diese Games genannt hab kleiner Tipp Arcania wird nicht mal 10% der Verkäufe eines Civ5,SC2,GTA4 oder WOW erreichen.

Und?
Welcher WOW-Spieler wird sich denn eine neue Grafikkarte aus dem Highendsegment kaufen, weil WOW DX11 unterstützt.
Wie viele potenzielle Käufer von Arcania(bisher war ja fast ausschließlich die Grafik zu sehen) werden sich dafür eine Grafikkarte kaufen?
Gleiches für SC2.
Es geht nicht darum wie oft sich Spiel xy verkauft hat, sondern wie viele Käufer neue Hardware für das Spiel kaufen würden.

dildo4u
2010-10-02, 16:44:34
noe denn bei den games ist es wurscht ob man 90fps oder 60fps hat,spielbar bleiben sie eh.anders sieht es aus bei spielen die fps brauchen wie metro2033,crysis,stalker.
deine angebenen spiele sind nach dem spielspass deshalb so beliebt weil man die auch mit oldiekarten spielen kann.
Wo schafft eine 5870 denn 60fps mit Max Detail in Full HD,vieleicht WOW?Bei Civ 5,SC2 und GTA4 im jedenfall nicht.Es ist nicht so wie du es darstellt's das alle High-End Karten schon Leistung im Überfluss für diese Games haben.

y33H@
2010-10-02, 16:45:36
WoW-C dürfte den DX11-Absatz schon steigern. Das Spiel hat die größte Userbase ever.
SGSSAA unter Dx10/11 ? 10fps Arg pauschal :rolleyes:

DrFreaK666
2010-10-02, 16:45:46
Und?
Welcher WOW-Spieler wird sich denn eine neue Grafikkarte aus dem Highendsegment kaufen, weil WOW DX11 unterstützt.
Wie viele potenzielle Käufer von Arcania(bisher war ja fast ausschließlich die Grafik zu sehen) werden sich dafür eine Grafikkarte kaufen?
Gleiches für SC2.
Es geht nicht darum wie oft sich Spiel xy verkauft hat, sondern wie viele Käufer neue Hardware für das Spiel kaufen würden.

Je öfter sich ein Spiel verkauft, desto mehr Käufer interessieren sich über ein Upgrade :wink:

Gasti
2010-10-02, 16:47:09
Je öfter sich ein Spiel verkauft, desto mehr Käufer interessieren sich über ein Upgrade :wink:

Sicher nicht.
Oder glaubst du dass wegen Crysis weniger Leute Highendhardware gekauft haben als für WOW, oder SC2?

DrFreaK666
2010-10-02, 16:53:40
Sicher nicht.
Oder glaubst du dass wegen Crysis weniger Leute Highendhardware gekauft haben als für WOW, oder SC2?

Ob jetzt 10000 Leute oder 100000 ein Spiel kaufen macht sehr wohl ein Unterschied.

Gast
2010-10-02, 16:55:24
Wo schafft eine 5870 denn 60fps mit Max Detail in Full HD,vieleicht WOW?Bei Civ 5,SC2 und GTA4 im jedenfall nicht.Es ist nicht so wie du es darstellt's das alle High-End Karten schon Leistung im Überfluss für diese Games haben.

Eine GTX4x0 packt das auch nich;)

dildo4u
2010-10-02, 16:58:03
Eine GTX4x0 packt das auch nich;)
Ist aber deutlich schneller darum gings und da es keine FPS im Überfluss gibt ist jedes FPS mehr um so wichtiger.Sein Argument war die Games laufen eh schon schnell genug und das ist nicht der Fall.

DrFreaK666
2010-10-02, 17:02:46
Bei solcher Art von spielen schaut keiner auf die grafik.
Strategie und Rollenspiele sind überhaupt nicht auf Grafik ausgelegt und dementsprechend schauen die Spiele auch aus.

Im shooter und rennspielgenre ist es dagegen völlig anders, da muss es passen

Zur zeit spiele ich ein RPG aus dem Jahre 2007, aber dafür mit SGSSAA :wink:
Schaue ich daher nicht auf die Grafik??
Ausserdem sehen CIV 5, Gothic 4 und Two Worlds 2 alles andere als hässlich aus

dildo4u
2010-10-02, 17:06:04
Wo in drei strategiespielen?
2+ GTA4 und WOW.

Gasti
2010-10-02, 17:09:26
Ob jetzt 10000 Leute oder 100000 ein Spiel kaufen macht sehr wohl ein Unterschied.

Ja für den Publisher schon, für den IHV ist vor allem wichtig dass die Grafik ein wesentlicher Kaufgrund für den Käufer darstellt.(das hat auch erst einmal wenig damit zu tun, ob die Grafik "gut" ist)

derguru
2010-10-02, 17:10:02
Schmelzen? Eine Radeon kann kein SGSSAA unter DX10/11. Und Civ5 sieht unter DX11 deutlich besser aus.
danke für den hinweis,wusste ich nicht das radeons kein sgssaa unter dx10 aufwärts können.
abgesehen davon,wer sagt eigentlich das es in civ 5 grundsätzlich am dx11(tess) liegt das sie schneller sind,auch mal unter x9 gebencht?

Gasti
2010-10-02, 17:12:41
Zur zeit spiele ich ein RPG aus dem Jahre 2007, aber dafür mit SGSSAA :wink:
Schaue ich daher nicht auf die Grafik??
Ausserdem sehen CIV 5, Gothic 4 und Two Worlds 2 alles andere als hässlich aus

Die Frage ist ob du repräsentativ bist oder nicht.
Man könnt ja eine Umfrage unter CIV Fans starten, ob eine schlechtere Grafik den Kauf verhindert hätte oder ob es Ihnen weh tut wenn Sie nicht "alles auf hoch:D" spielen können.

y33H@
2010-10-02, 17:13:10
Strategie und Rollenspiele sind überhaupt nicht auf Grafik ausgelegt [...]Ach so, deswegen sah Oblivion schei0e aus und Company of Heroes ebenfalls ...
abgesehen davon,wer sagt eigentlich das es in civ 5 grundsätzlich am dx11(tess) liegt das sie schneller sind,auch mal unter x9 gebencht?Liegt nicht an Tessellation:

http://www.abload.de/img/2010-10-02_1713527r4n.png

http://www.abload.de/img/2010-10-02_171456jqte.png

DrFreaK666
2010-10-02, 17:16:38
Vergelich das mal mit modernen shootern oder rennspielen wie dirt2, ein witz.
Gothic 4 ist noch ganz ok grafisch aber Civ5, willst du mich auf den arm nehmen?
http://www.youtube.com/watch?v=bS0hWuqQHIk

Was ist an CIV 5 jetzt genau hässlich??

Ja für den Publisher schon, für den IHV ist vor allem wichtig dass die Grafik ein wesentlicher Kaufgrund für den Käufer darstellt.(das hat auch erst einmal wenig damit zu tun, ob die Grafik "gut" ist)

Darum gings mir doch garnicht.
Wenn sich 1% der Käufer sich für ein Graka-Update interessieren, dann sind es bei 10000 Spiele-Käufer 100 potenzielle Grafikkarten-Käufer, bei 100000 Spiele-Käufer aber schon 1000. Daher ist es nicht egal wie oft sich ein Spiel kauft, sondern sogar wichtig.
Wenn sich ein Spiel gut-sehr gut verkauft, dann sollte man es zum benchen herannehmen.

Gast
2010-10-02, 17:17:02
Ach so, deswegen sah Oblivion schei0e aus und Company of Heroes ebenfalls ...
Liegt nicht an Tessellation:

http://www.abload.de/img/2010-10-02_1713527r4n.png

http://www.abload.de/img/2010-10-02_171456jqte.png

Könnte genau so gut nur ein Treiberproblem sein. Wenn NV bei neuen Spielen hinten liegt wird das immer sofort erwähnt, wenn es bei AMD so ist liegt es natürlich an der überlegenen Architektur.

y33H@
2010-10-02, 17:18:02
@ #6907

Mal wieder ein AMD-Treiberproblem beim Launch eines Spiels? Nun, das kommt vor - aber solange es keinen neueren Treiber gibt, ist es so wie es ist.

@ #6908

Anno 2006 war CoH optisch exzellent, sogar DX10.


http://www.abload.de/img/2010-10-02_171946lsry.png

Gast
2010-10-02, 17:19:44
@ #6907

Mal wieder ein AMD-Treiberproblem beim Launch eines Spiels? Nun, das kommt vor - aber solange es keinen neueren Treiber gibt, ist es so wie es ist.


Das kommt auch bei NV vor, deine Heuchelei kannst du dir also sparen.

DrFreaK666
2010-10-02, 17:21:19
Das kommt auch bei NV vor, deine Heuchelei kannst du dir also sparen.

Bei AMD kommt das aber häufiger vor

y33H@
2010-10-02, 17:21:32
Mir fallen bei AMD mehr Titel ein ... u.a. NfS Shift, GTA IV, Saboteur, Civ5 [?] ...

EDIT
Too late. Und OffTopic.

DrFreaK666
2010-10-02, 17:22:47
Mir fallen bei AMD mehr Titel ein ... u.a. NfS Shift, GTA IV, Saboteur, Civ5 [?] ...

EDIT
Too late. Und OffTopic.

GTA IV, Shift und Saboteur liefen nach Patches besser mit radeons zusammen.
Also ist das imho ein Spiele-Hersteller-Problem

y33H@
2010-10-02, 17:23:51
Mir egal, ich sehe als User nur: Radeon läuft nicht (gescheit), Geforce schon.

Ob es nun in diesem Moment am Spiel oder am Treiber liegt, ändert an dem Problem rein gar nichts.

derguru
2010-10-02, 17:24:55
bei civ5 glaub ich nicht mal das da ein neuer treiber viel mehr rausholen kann.kann man wahrscheinlich mit far cry2 oder battleforge vergleichen aus performance sicht.

DrFreaK666
2010-10-02, 17:25:57
Mir egal, ich sehe als User nur: Radeon läuft nicht (gescheit), Geforce schon.

Ob es nun in diesem Moment am Spiel oder am Treiber liegt, ändert an dem Problem rein gar nichts.

Ich sehe:
- Spiel läuft nicht, nach Patches schon.

Ein Spiel sollte man veröffentlichen wenn es fertig ist.

Wieso wird da immer nur AMD angeprangert und nicht die Spiele-Entwickler?

y33H@
2010-10-02, 17:26:30
@ derguru

Das interessante ist doch: Civ5 ist das erste "native" DX11-Spiel und eine GF10x-Bank. Setzt sich das fort oder ein Ausreißer?

Gasti
2010-10-02, 17:27:21
Darum gings mir doch garnicht.
Wenn sich 1% der Käufer sich für ein Graka-Update interessieren, dann sind es bei 10000 Spiele-Käufer 100 potenzielle Grafikkarten-Käufer, bei 100000 Spiele-Käufer aber schon 1000. Daher ist es nicht egal wie oft sich ein Spiel kauft, sondern sogar wichtig.
Wenn sich ein Spiel gut-sehr gut verkauft, dann sollte man es zum benchen herannehmen.

Es interessieren sich aber nicht generell 1% einer Spielekäuferschicht für ein Update. Es hängt vom Spiel ab.

DrFreaK666
2010-10-02, 17:28:23
Es interessieren sich aber nicht generell 1% einer Spielekäuferschicht für ein Update. Es hängt vom Spiel ab.

Dann ist es eben AUCH vom Spiel abhängig.

y33H@
2010-10-02, 17:28:46
@ DrFreaK666

Bei Shift, GTA IV und Saboteur gab's aber erst nach Tagen bis Wochen den Patch. Und bis dahin heißt es (Radeon)-Arschkarte.
Wieso wird da immer nur AMD angeprangert und nicht die Spiele-Entwickler? Weil Radeons zu AMD gehören und es Sache von AMD ist, mit den Entwicklern zu kommunizieren. Und da es mehrere Entwickler trifft und zugleich NV nicht, liegt's nahe, dass AMD mehr machen muss. Der Developer ist freilich ebenfalls beteiligt.

derguru
2010-10-02, 17:30:10
@ derguru

Das interessante ist doch: Civ5 ist das erste "native" DX11-Spiel und eine GF10x-Bank. Setzt sich das fort oder ein Ausreißer?
muss man nunmal mehere spiele abwarten.kommen demnächst noch native dx11 games?two worlds 2 ist ja auch kein natives dx11 game.

y33H@
2010-10-02, 17:31:48
@ derguru

Mir ist nichts bekannt, alles andere ist eh Cross-Platform mit aufgeflanschtem DX11.

DrFreaK666
2010-10-02, 17:34:13
@y33H@

Wie kann man Spiele veröffentlichen, die mit Radeon garnciht oder nur sehr schlecht laufen??
Ist ja nicht, dass Spieler keine Radeons kaufen...

y33H@
2010-10-02, 17:35:31
Das musst du AMD und den jeweiligen Entwickler/Publisher fragen. Fakt ist, NV ist da deutlich mehr hinterher - und deswegen gibt's bei denen auch weniger Probleme.

Gasti
2010-10-02, 17:36:54
Bei Shift, GTA IV und Saboteur gab's aber erst nach Tagen bis Wochen den Patch. Und bis dahin heißt es (Radeon)-Arschkarte.
Weil Radeons zu AMD gehören und es Sache von AMD ist, mit den Entwicklern zu kommunizieren. Und da es mehrere Entwickler trifft und zugleich NV nicht, liegt's nahe, dass AMD mehr machen muss. Der Developer ist freilich ebenfalls beteiligt.

Das finde ich vor allem als NV Käufer nicht gut, da ich beim Kauf nicht Bugfixes mit finanzieren will, für Spiele, die ich womöglich nie spielen werde.

DrFreaK666
2010-10-02, 17:38:08
Das musst du AMD und den jeweiligen Entwickler/Publisher fragen. Fakt ist, NV ist da deutlich mehr hinterher - und deswegen gibt's bei denen auch weniger Probleme.

Die Entwickler haben sicherlich auch Testplattformen mit radeon-Karten und aktuellen Treibern.
Wüsste nicht wo das problem liegt das Spiel darauf zu testen.
Andere Entwickler schaffen es ja auch

y33H@
2010-10-02, 17:38:34
@ #6926

Bitte was? :eek:

@ DrFreaK666

War das bei R* nicht so, dass die nur auf Dell-NV-Mühlen getestet haben? Und gerade EAs Shift-Team sollte doch Zeit und Geld haben ... Fragen über Fragen, Fakten aber bleiben.

DrFreaK666
2010-10-02, 17:40:42
@ #6926

Bitte was? :eek:

@ DrFreaK666

War das bei R* nicht so, dass die nur auf Dell-NV-Mühlen getestet haben? Und gerade EAs Shift-Team sollte doch Zeit und Geld haben ... Fragen über Fragen, Fakten aber bleiben.

Und wie schweifen wieder ab :wink:

Gasti
2010-10-02, 17:41:59
Bitte was? :eek:
Falls ich damit gemeint bin:
Genau Das. Es ist Nichts Anderes als die Verantwortung für ein Produkt an eine externe Firma weiter zu geben, die es an Ihre Kunden weiter gibt, ob Die wollen oder nicht.

y33H@
2010-10-02, 17:43:33
Ich glaube du missverstehst da etwas. Nur weil NV enger zusammen arbeitet und AMD (scheinbar) nicht - wieso sollte NV das Bugfixing für den Developer übernehmen? Das ist eine Symbiose.

Gasti
2010-10-02, 17:48:02
Ich glaube du missverstehst da etwas. Nur weil NV enger zusammen arbeitet und AMD (scheinbar) nicht - wieso sollte NV das Bugfixing für den Developer übernehmen? Das ist eine Symbiose.

Dann muss das Spiel auf einer AMD Karte auch einwandfrei laufen.
Bei zusätzlichen Features ist es etwas Anderes.
Trotzdem würde ich es vorziehen den Preis für ein Spiel dem Publisher zu zahlen und nicht beim nächsten Grafikkartekauf für alle Spiele etwas.

y33H@
2010-10-02, 17:51:25
@ #6932

Ich habe das nicht pauschal als Problem bezeichnet, sondern nur infrage gestellt, dass die Leistung der Radeons in Civ5 ein Treiberproblem sein soll. Fünf Spiele? Saboteur [nicht gefixt!], CoD MW2 [immer noch stellenweise kein DoF], Anno 1404 [gefixt], GTA IV [gefixt], NfS Shift [gefixt, dafür am Rendertarget gefummelt]. Ein allgemeines Problem ist es wohl nicht, aber es ist auffällig, dass selbst bei AAA-Titeln solche Fauxpas auftreten (und bei NV weniger).
Dann muss das Spiel auf einer AMD Karte auch einwandfrei laufen.Muss? Sollte, tut es aber nicht immer. Welches Spiel aus 2008-2010 außer GTA IV machte den am Start auf einer Geforce starke Probleme?

Gasti
2010-10-02, 17:55:42
@ #6932
Muss? Sollte, tut es aber nicht immer. Welches Spiel aus 2008-2010 außer GTA IV machte den am Start auf einer Geforce starke Probleme?

Und wie viel musste man NV dafür zusätzlich zahlen?
Weiß man nicht, da Es völlig intransparent ist.
Wenn ein Spiel nicht läuft ist es nicht releasefähig.

y33H@
2010-10-02, 17:56:21
Richtig, in keinem.• Anno 1404 - Texturbug
• GTA IV - Startprobleme
• CoD MW2 - bis heute kein DoF in einigen Missionen
• Saboteur - bis heute praktisch unspielbar auf Radeons

NV behebt Probleme meist, selbst bei DX7-Titel wie Gothic ...

puntarenas
2010-10-02, 18:13:29
Bitte nicht wundern, dass einige Beiträge verschwunden sind und sich deshalb auch die Beitragsnummerierung geändert hat. Tut mir leid, Gastspam bitte einfach ignorieren, dann fällt es leichter aufzuräumen. =)

Mr. Lolman
2010-10-03, 08:07:01
• Saboteur - bis heute praktisch unspielbar auf Radeons


So ein Blödsinn. Saboteur funzt perfekt. Vll. solltest du dir mal eine Radeon einbauen, statt immer nur dagegen zu flamen.