PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV vs. Ati, AA, AF, Grieseln -> die aktuelle Filterdiskussion


Seiten : 1 2 [3] 4 5 6 7

y33H@
2009-05-14, 20:03:26
Nur dass NV schon beim surfen ständig hochtaktet und so der Verbrauch doch höher ist.Das ist Bullshit. Angeblich soll sogar Steam die Karten in den 3D-Mode versetzen ;D

http://www.abload.de/thumb/2009-04-27_00331203d5.jpg (http://www.abload.de/image.php?img=2009-04-27_00331203d5.jpg)

Ist klar :rolleyes:

8800GTS , 9800GTX und daraus wurde die 250GTXFalsch. Die Platinen, die Spannungen, die GPU, der VRAM und die Kühler unterscheiden sich teils massiv.

nicht mal mehr die Spannung kann man bei den neuen 55nm Karten noch senken AFAIK.Ist im Falle einer GTS 250 (19 Watt!) auch schei0egal. Bei den ganzen 8ern und 9ern aber ärgerlich und unnötig.

Gast
2009-05-14, 20:07:19
Nenn' mir NVs Reserven. Weiter heruntertakten bringt bei NV praktisch nichts, nicht mal mehr die Spannung kann man bei den neuen 55nm Karten noch senken AFAIK.
Jetzt gehts auf einmal nur noch um die neuesten Karten.

reunion
2009-05-14, 20:13:20
Jetzt gehts auf einmal nur noch um die neuesten Karten.

Um was soll es denn sonst gehen wenn nicht um die aktuellen Produkte? Dann kann man auch gleich wieder die HD3xxx-Serie als idle-König ins Feld führen. Aber das bringt nichts.

Gast
2009-05-14, 20:15:22
Und ich dachte hier geht es um die Filter und nicht um den Stromverbrauch im Idle.

Black-Scorpion
2009-05-14, 20:29:35
Tja, dann solltest Du wohl Lotto spielen.
Die "vermurksten" Rechner waren übrigens fast alle neu aufgesetzt.
Und selbst, wenn man davon ausgeht, daß meine Rechner vermurkst sind (damit Du Deinen inneren Frieden hast) : wieso kommen NV-Karten denn mit meinem vermurksten Rechner klar? Wie gesagt, wir reden von einer TREIBERINSTALLATION. Nichts weiter. Eine Treiberinstallation hat auch auf einem vermurksten Rechner (immer noch Deinen Seelenfrieden beachtend) zu funktionieren. Wir reden von 100MB Treiber. Nicht von einem fetten Officepaket oder AutoCad oder sonstwas. Ein schlichter, einfacher Treiber, der die Hardware zugänglich macht.
Die funktioniert auch ganz ohne .Net.
Der Treiber braucht es nämlich nicht. Und keiner zwingt dich das Paket runterzuladen. Es gibt auch alles einzeln.
Muss zwar auch einzeln installiert werden, aber vielleicht hilft dir das weiter.
Das der Installer nicht immer das macht was er soll kann ich bestätigen.
Deswegen lade ich immer getrennt runter und installiere einzeln und wie gesagt keine Probleme.

Andre
2009-05-14, 20:31:45
Zur Erinnerung, das Thema in diesem Thread lautet:

NV vs. Ati, AA, AF, Grieseln -> die aktuelle Filterdiskussion

Den OT-Kram bitte woanders unterbringen.

Maorga
2009-05-14, 20:55:06
Klar gehts um die Filter - aber man muss auch das Gesamtpaket sehen.

So ich kann hier mal eine Aussage übers AF in der nvidia Reihe machen.

Das beste AF bietet die GeForce 4
Gefolgt von der GeForce 6
dann erst kommt die GeForce 8
uns Schlußlicht ist die GeForce 7

Dass die GeForce 7 zum Flimmern neigt wird hier keiner widersprechen aber ebenso sah sehe ich das Flimmern auf der 8er Serie - zumindest bei ganz bestimmten alten Schinken :)

Also das AF hat auch bei nVidia gelitten. Zwar haben sie nach der 7er Serie die Bremse ausgefahren aber ob sie die Qualität weiter steigern oder nur das Niveau halten wollen ist eben fraglich.

Zu Ati's AF kann ich zuwenig sagen - hab' zwar die 9600 und XT1400. Aber die waren eigentlich nicht zum Zocken gedacht. Früher hatte ich mit den Catalyst Treibern öfter mal Schwierigkeiten. Na wie es heute aussieht ich hoffe mal besser.

Das beide Hersteller den User beschneiden und eigentlich kaum was machen lassen ist ebenso klar Ati vielleicht ein wenig mehr als die nVidia. Würden es nicht so viele gute Tools für nVidia geben wüßten wir nicht mal was für Potential die Karte hat.
Bei alten Spielen kann man da immer wieder einiges rausholen. Bei neuen sind sich beide meisten gleich auf, aber die Ati's halten ein wenig länger durch - eben durch ihre Optimierungen.

Das Flimmern liegt auch teilweise am Spiel selbst :) ich glaub' manche Mapper haben zu wenig Ahnung von der Materie.

Mein Fazit zu nVidia vs Ati,

wer eine günstige gute Karte haben will und vielleicht nicht alles auf hochglanz poliert haben will der soll gerne zur Ati greifen, mit den Karten kann man es auch mal länger aushalten

wer hingegen genügend Geld besitzt und alles auf Hochglanz haben will der kann sich doch gerne 'ne nVida kaufen

nVidia bieten weitreichende Qualität auch für ältere Spiele was bei der Ati nicht gegeben ist

wer dies berücksichtigt wird den Grafikkartenmarkt gut überleben


Biba

Maorga

LovesuckZ
2009-05-14, 20:57:16
Nein.
Der G80 filtert mindesten auf einem Niveau mit der den <NV40 Karten - wenn nicht sogar besser aufgrund der "runderen" Blume. Die 6800 Karten waren schon Opfer der CineFX Architektur und der Optimierung.

_DrillSarge]I[
2009-05-14, 21:10:35
Ich musste noch nie im Abgesicherten Modus alle .NET Pakete deinstallieren (zwischen jedem Paket ein Reboot) und dann alle wieder installieren,
da machst du irgendwas falsch. man braucht nur eins (.net 3.5sp1) darin ist alles enthalten.

y33H@
2009-05-14, 21:42:01
Bei neuen sind sich beide meisten gleich auf, aber die Ati's halten ein wenig länger durch - eben durch ihre Optimierungen.Die X800er können nur SM2, die X1k leben von ihrer Shaderleistung - mit "Optimierungen" im Sinne des Treibers hat dies imo nichts zu tun. Die ganzen HDs aber sind architektonische "Krüppel" ... eine HD3870 war einst nahe an einer 8800GT, heute kann sie froh sein, wenn sie eine 9600GT schlägt.

Lawmachine79
2009-05-14, 21:43:28
I[;7300485']da machst du irgendwas falsch. man braucht nur eins (.net 3.5sp1) darin ist alles enthalten.
Weiß ich, aber ich habe Hilfeanleitungen gesehen, wo es empfohlen wird, die nicht auf einmal zu installieren.

Gast
2009-05-14, 21:47:11
wundert mich allerdings nicht , dass leute lieber hinter nem underdog stehen als nem riesen konzern wie nvidia , sollte doch jedem klar sein .Wie definierst du "Riesenkonzern"? Wenn Nvidia in diese Definition passt, tut das AMD erst recht. Auch das ATI vor der Übernahme dürftest du dann als solchen bezeichnen.

Andre
2009-05-14, 21:47:31
Leute, geht bitte in den Helpbereich, hier gehts um Filter FFS.

Gast
2009-05-15, 17:15:30
Die X800er können nur SM2, die X1k leben von ihrer Shaderleistung - mit "Optimierungen" im Sinne des Treibers hat dies imo nichts zu tun. Die ganzen HDs aber sind architektonische "Krüppel" ... eine HD3870 war einst nahe an einer 8800GT, heute kann sie froh sein, wenn sie eine 9600GT schlägt.


erm 88GT und 96GT sind die gleichen Karten :|

Jake Dunn
2009-05-15, 17:26:22
erm 88GT und 96GT sind die gleichen Karten :|

Nee die 8800GT und die 9800GT sind gleich ;)

Ansonsten wiedermal recht Schwachsinnige Aussagen von y33H@, da es keine sinnvollen Aktuellen Vergleiche (neue Treiber, Benchmarks in spielbaren Bereichen) gibt.

LovesuckZ
2009-05-15, 17:32:16
Welche "schwachsinnige Aussage"? Pre-rv770 Karten sind Leistungskrüppel im Vergleich zum G8x bzw. G9x.

Nakai
2009-05-15, 17:39:47
eine HD3870 war einst nahe an einer 8800GT

Das war nie so richtig der Fall.

Ebenso war eine 9600GT schon anfangs schneller als eine 9600GT.

Welche "schwachsinnige Aussage"? Pre-rv770 Karten sind Leistungskrüppel im Vergleich zum G8x bzw. G9x.

NV war nicht dumm, die Kartenumzubenennen. Dadurch wurden die neuen alten Karten mit den neueren Treibern getestet.


mfg Nakai

Jake Dunn
2009-05-15, 17:43:26
Welche "schwachsinnige Aussage"? Pre-rv770 Karten sind Leistungskrüppel im Vergleich zum G8x bzw. G9x.

Du mußt es ja wissen :eek::rolleyes:

LovesuckZ
2009-05-15, 17:44:52
NV war nicht dumm, die Kartenumzubenennen. Dadurch wurden die neuen alten Karten mit den neueren Treibern getestet.


http://www.pcgameshardware.de/aid,682645/Test-Ati-Radeon-HD-4770-vs-HD-4850-und-Geforce-9800-GT/Grafikkarte/Test/?page=6

Aktuelle Treiber.

Jake Dunn
2009-05-15, 17:51:04
http://www.pcgameshardware.de/aid,682645/Test-Ati-Radeon-HD-4770-vs-HD-4850-und-Geforce-9800-GT/Grafikkarte/Test/?page=6

Aktuelle Treiber.

Warum hab ich das wohl geschrieben :rolleyes:

da es keine sinnvollen Aktuellen Vergleiche (neue Treiber, Benchmarks in spielbaren Bereichen) gibt.


Außer in GRID tuckert man deutlich unter 40FPS rum mit den Karten.

Gast
2009-05-15, 17:53:51
Du mußt es ja wissen :eek::rolleyes:
Wo ist das Problem an yeehas Aussage?

Anfangs war die 3870 ein Gegner der 9600 GT, nur Fans haben sie mit der 8800 GT gleichgesetzt.
Jetzt rangiert die 3870 eben ein Stück unter der 9600 GT und?

LovesuckZ
2009-05-15, 17:55:31
Außer in GRID tuckert man deutlich unter 40FPS rum mit den Karten.

Ah und deswegen sie die Karten keine Leistungskrüppel, weil der Konkurrent nur zwischen 50-100% schneller ist und trotzdem an deiner subjektiven festgelegten Marke scheitert? :rolleyes:
Würde man eine Marke als Ziel definieren, könnte man mit den G8x bzw. G9x Karten wesentlich mehr Details einstellen - oder eben eine deutlich höhrere Geschwindigkeit bei gleichen Einstellungen erreichen.

Jake Dunn
2009-05-15, 17:58:55
Ah und deswegen sie die Karten keine Leistungskrüppel, weil der Konkurrent nur zwischen 50-100% schneller ist und trotzdem an deiner subjektiven festgelegten Marke scheitert? :rolleyes:
Würde man eine Marke als Ziel definieren, könnte man mit den G8x bzw. G9x Karten wesentlich mehr Details einstellen - oder eben eine deutlich höhrere Geschwindigkeit bei gleichen Einstellungen erreichen.
Totaler Blodsinn der von Dir kommt.:rolleyes: (wie immer :()

LovesuckZ
2009-05-15, 18:03:34
Totaler Blodsinn der von Dir kommt.:rolleyes: (wie immer :()

Gehe doch bitte wieder zurück in dein Hardwareluxx oder Computerbase Forum. Wenn du den Zusammenhang zwischen "Apples-To-Apples" Vergleich und einer Zielprämisse nicht verstehst, dann solltest du wirklich in den dortigen Forum mit den Leuten reden. :rolleyes:

Jake Dunn
2009-05-15, 18:06:19
Gehe doch bitte wieder zurück in dein Hardwareluxx oder Computerbase Forum. Wenn du den Zusammenhang zwischen "Apples-To-Apples" Vergleich und einer Zielprämisse nicht verstehst, dann solltest du wirklich in den dortigen Forum mit den Leuten reden. :rolleyes:

Kommt immer nur Copy/Paste wenn man nicht Deiner stark einseitigen festgefahrenen Meinung ist?

Ist sehr auffällig :rolleyes:

Nakai
2009-05-15, 18:10:54
Gehe doch bitte wieder zurück in dein Hardwareluxx oder Computerbase Forum. Wenn du den Zusammenhang zwischen "Apples-To-Apples" Vergleich und einer Zielprämisse nicht verstehst, dann solltest du wirklich in den dortigen Forum mit den Leuten reden. :rolleyes:

Mal nur so nebenbei. Wenn du schon jeden zweiten hier als zu dumm für dieses Forum bezeichnest, dann sollte man langsam zur Erkenntnis kommen, dass man evtl selber im falschen Forum ist...

Dass die 9600GT und die 8800GT preislich niemals in der selben Liga wie die HD3870 waren, sollte man berücksichtigen. Klar, die HD3870 hat massiv in den letzten Monaten verloren, was man auch an der niedrigeren Texturfüllrate sieht. Die HD4670 hebt sich hier schon deutlich ab.


mfg Nakai


€: Die HD3870 verliert massiv unter AF. Ohne AF ist die HD3870 nicht so unterlegen.

Gast
2009-05-15, 18:12:56
:rolleyes:
Achso, Grid zählt nicht, die anderen Benches gefallen dir nicht und deshalb ist die 3870 auf einmal eine Karte, die nicht mehr wie früher eine 9600 GT Konkurrenz ist, sondern deutlich besser. :rolleyes:

Gast
2009-05-15, 18:15:49
Dass die 9600GT und die 8800GT preislich niemals in der selben Liga wie die HD3870 waren, sollte man berücksichtigen.
Die 9600 GT war es.

Klar, die HD3870 hat massiv in den letzten Monaten verloren, was man auch an der niedrigeren Texturfüllrate sieht.Dennoch hat sie das selbe ALU:TEX Verhältnis wie eine 4890.
Sollte die 3870 besser mit AI-high getestet werden?

_DrillSarge]I[
2009-05-15, 18:20:25
Welche "schwachsinnige Aussage"? Pre-rv770 Karten sind Leistungskrüppel im Vergleich zum G8x bzw. G9x.
da hast du schon recht. wobei "krüppel" etwas übertrieben ist.

Weiß ich, aber ich habe Hilfeanleitungen gesehen, wo es empfohlen wird, die nicht auf einmal zu installieren.
das ist schwachsinn. das full-.net3.5sp1-package laden und installieren.
den link zu den "tipps" hätt ich gern mal.

Jake Dunn
2009-05-15, 18:24:51
Die 9600 GT war es.


Und die wird in Aktuellen Games im spielbaren Bereichen auch deutlich hinter sich gelassen, die 8800GT ist auch nicht sooo weit weg.:)

Nakai
2009-05-15, 18:35:06
Die 9600 GT war es.

Dennoch hat sie das selbe ALU:TEX Verhältnis wie eine 4890.
Sollte die 3870 besser mit AI-high getestet werden?

Die 9600GT war sogar eher als HD3850-Konkurrent gedacht

Das Alu:Tex-Verhältniss ist in den Spielen aber anders.
Mir ist es egal, wie man die HD3870 testet. Man sollte sich jedoch nicht verwundern, wenn die Leistung bei hoher Textanforderung hierbei grottig ist.


mfg Nakai

Gast
2009-05-15, 18:38:45
Man sollte generell nur noch AI off testen bei Ati , bei Crossfire kann man dann mit AI Low und dazuschreiben das die Bildqualität nicht an Nvidias Karten herankommt , das wäre doch ein erster Schritt.

DrFreaK666
2009-05-15, 18:39:26
*gähn*

Gast
2009-05-15, 18:41:51
*gähn*

Man muss halt Druck aufbauen, sonst verkaufen die Kanadier ihre Kunden weiterhin für dumm.

Jake Dunn
2009-05-15, 18:44:25
Man muss halt Druck aufbauen, sonst verkaufen die Kanadier ihre Kunden weiterhin für dumm.

WoW ein Druckmacher :D *beeindrucktbin* ;D

Gast
2009-05-15, 18:46:54
WoW ein Druckmacher :D *beeindrucktbin* ;D

Du spielst eh nur eine lächerliche Rolle hier, also halt die Füße still. :D

LovesuckZ
2009-05-15, 18:48:18
Mal nur so nebenbei. Wenn du schon jeden zweiten hier als zu dumm für dieses Forum bezeichnest, dann sollte man langsam zur Erkenntnis kommen, dass man evtl selber im falschen Forum ist...

Ich kann nicht im falschen Forum sein, wenn ich meine 17k Postings ansehe.
Ich bin auch nicht dafür verantwortlich, wenn andere meinen, ihren Computerbase und Konsorten Stil hier mit herzubringen.


Dass die 9600GT und die 8800GT preislich niemals in der selben Liga wie die HD3870 waren, sollte man berücksichtigen. Klar, die HD3870 hat massiv in den letzten Monaten verloren, was man auch an der niedrigeren Texturfüllrate sieht. Die HD4670 hebt sich hier schon deutlich ab.


Die 8800GT war preislich leicht teurer als die 3870. Und die 9600gt ging auf 3850 Niveau als sie im Februar veröffentlich wurde. Fakt ist, dass die G92 und G94 wesentlich effizienter sind - und mit HQ sogar einen Trumpf haben, der nie richtig ausgespielt wurde.
Würde man heute eine 2900XT gegen eine 8800GTX mit AA und HQ-AF vergleichen, würde man sehen, wie überlegen die G80 Karten sind.

Gast
2009-05-15, 18:50:16
Das Alu:Tex-Verhältniss ist in den Spielen aber anders.
Mir ist es egal, wie man die HD3870 testet. Man sollte sich jedoch nicht verwundern, wenn die Leistung bei hoher Textanforderung hierbei grottig ist.

Texturleistung muss eine Karte genauso bringen wie GFLOPs, wenn wir eins ausblenden stellen wir AMDs Karten nur noch besser dar als jetzt schon.


Und die wird in Aktuellen Games im spielbaren Bereichen auch deutlich hinter sich gelassen, die 8800GT ist auch nicht sooo weit weg.:)
Erst schreibst du es gibt keine derartigen Benches, woher hast du deine Informationen und wie belegst du sie? ;)

Lawmachine79
2009-05-15, 18:50:53
I[;7302199']da hast du schon recht. wobei "krüppel" etwas übertrieben ist.


das ist schwachsinn. das full-.net3.5sp1-package laden und installieren.
den link zu den "tipps" hätt ich gern mal.

Bitte sehr; der Poster, der mir jenes an den Kopf geworfen hat:
Kaufe Fertig-Computer und lasse das Schrauben sein; das ist offenbar nicht deine Stärke. Es sind zudem genau diese Leute, die anschliessend über "Scheisstreiber" und "Schrotthardware" herummeckern.

Dieses Problem tritt auf, wenn man kopflos Treiber drauflos installiert/deinstalliert und vor allem die altbekannte Reihenfolge nicht beachtet:

1.) Betriebssystem inklusive allen Servicepacks
2.) Chipsatztreiber
3.) Restliche Treiber (u.a. auch jener der Grafikkarte)

http://www.pctipp.ch/praxishilfe/kummerkasten/windowsxp/42063/fehler_mom_implementation_nach_neuinstallation.html

http://help.lockergnome.com/windows/Unable-load-file-assembly-mom-implementation--ftopict580370.html (unterstes Posting)
hat mir folgenden Lösungsvorschlag präsentiert (das ist der untere Link)

I had the same problem, until I did the following. I know it might not be the best way, but it works, and finally I got my catalyst software to work properly, and got rid of that MOM.implementation annoying error message. This is my first participation, Hope it’s useful Smile
1- Control panel, add/remove and remove Ati Software Uninstall utility. Restart
2- Make sure your computer shows hidden files, then delete ATI folder from
C:\Documents and Settings\All Users\Application Data
C:\Documents and Settings\”Your User Name”\Application Data
C:\Documents and Settings\”Your User Name”\Local Settings\Application Data
2- Install Microsoft .NET Framework Version 1.1
http://www.microsoft.com/downloads/details.aspx?FamilyId=262D25E3-F589...42-8157
3- Install Microsoft .NET Framework 1.1 Service Pack 1
http://www.microsoft.com/downloads/details.aspx?FamilyID=A8F5654F-088E...B2-BBDB
4- Install Microsoft .NET Framework Version 2.0 Redistributable Package (x86)
http://www.microsoft.com/downloads/details.aspx?FamilyID=0856EACB-4362...0D-8EDD
5-Install Microsoft .NET Framework 3.0 Redistributable Package
http://www.microsoft.com/downloads/details.aspx?FamilyID=10CC340B-F857...14-83F5
6- Install Microsoft .NET Framework 3.0 Service Pack 1
http://www.microsoft.com/downloads/details.aspx?FamilyID=ec2ca85d-b255...25-9e65
7- Download the newest Java and java runtime environments
http://java.sun.com/javase/downloads/index.jsp
8- Now, you can install your ATI Catalyst suite.
9- Reboot, and prey it works:) Very Happy

Das witzige finde ich, daß mir erzählt wird, ich sei "zu blöd" zum Schrauben und mir dann SO EINE Lösung präsentiert wird. Wenn ATI-Marktanteile verliert, dann bei Gelegenheitszockern. Denn mit SOWAS will sich keiner rumschlagen, der sich nicht INTENSIV damit beschäftigt. Solche "Lösungsvorschläge" sind nur noch Fans vermittelbar. Und, ob Du es glaubst oder nicht, einmal (von insgesamt 4 ATI-Karten die ich eingebaut habe) war es bei mir soweit, daß ich wirklich das gepostete gemacht habe und es hat funktioniert.

Ich streite nicht ab, daß die Installation problemlos sein KANN (hatte ich auch einmal), ich kann nur nicht nachvollziehen, wieso das auf normalen, zum Teil frisch aufgesetzten PCs so in die Hose gehen kann, da kann man eigentlich nicht viel falsch machen. Ich finde es auch inakzeptabel, mein OS neu autzusetzen, wenn ich mir eine neue Graka kaufe.

Gast
2009-05-15, 18:51:53
Ich bin auch nicht dafür verantwortlich, wenn andere meinen, ihren Computerbase und Konsorten Stil hier mit herzubringen.
Abseits des OTs, kannst du mal genauer werden, aus welchen Grund du, allen voran CB so abwertest?

Jake Dunn
2009-05-15, 18:52:08
Mal nur so nebenbei. Wenn du schon jeden zweiten hier als zu dumm für dieses Forum bezeichnest, dann sollte man langsam zur Erkenntnis kommen, dass man evtl selber im falschen Forum ist...


mfg Nakai


Ja LZ würde gerne, das alle die anderer Meinung sind verschwinden, erinnert mich an D (1939-1945) :uponder:




Aber um mal wieder das Niveau zu heben, kann ja mal ein User mit 9600GT/8800GT (kein Gast kann ich nicht lesen) diesen Benchmark machen-> http://www.abload.de/thumb/sygqp79ded.jpg (http://www.abload.de/image.php?img=sygqp79ded.jpg)

Settings stehen da ;)

Karte war HD3850 (837/954) dürfte einer 3870@800/1170 entsprechen und macht knapp 40FPS (also durchaus spielbar)

y33H@
2009-05-15, 19:14:19
@ Jake Dunn



Es gibt Werte, ich habe etwa gerade Massen davon für Anno 1404 vorliegen. nsonsten wiedermal recht Schwachsinnige Aussagen von y33H@, da es keine sinnvollen Aktuellen Vergleiche (neue Treiber, Benchmarks in spielbaren Bereichen) gibt.Mach deine Augen auf! Der Test der HD4770 (http://www.pcgameshardware.de/aid,682645/Test-Ati-Radeon-HD-4770-vs-HD-4850-und-Geforce-9800-GT/Grafikkarte/Test/?page=6) hat ne HD3870 samt 9600GT drin, letztere ist klar schneller. Ohne AA/AF verschiebt es sich etwas, die Radeon kommt aber nicht ran - vor allem AF saugt.

Jake Dunn
2009-05-15, 19:16:55
Mach deine Augen auf! Der Test der HD4770 (http://www.pcgameshardware.de/aid,682645/Test-Ati-Radeon-HD-4770-vs-HD-4850-und-Geforce-9800-GT/Grafikkarte/Test/?page=6) hat ne HD3870 samt 9600GT drin, letztere ist klar schneller.

Hab weiter vorne schon was dazu gesagt ;)

y33H@
2009-05-15, 19:19:20
Schau dir mein Edit an ;) Und wie gesagt: Anno 1404.

Würde man heute eine 2900XT gegen eine 8800GTX mit AA und HQ-AF vergleichen, würde man sehen, wie überlegen die G80 Karten sind.Auch hier: Anno 1404. Eine GTS/640 macht eine HD2900XT platt, die Ultra knackt problemlos eine HD4850.

Lawmachine79
2009-05-15, 19:20:36
@ Jake Dunn



Es gibt Werte, ich habe etwa gerade Massen davon für Anno 1404 vorliegen. Mach deine Augen auf! Der Test der HD4770 (http://www.pcgameshardware.de/aid,682645/Test-Ati-Radeon-HD-4770-vs-HD-4850-und-Geforce-9800-GT/Grafikkarte/Test/?page=6) hat ne HD3870 samt 9600GT drin, letztere ist klar schneller. Ohne AA/AF verschiebt es sich etwas, die Radeon kommt aber nicht ran - vor allem AF saugt.
Das kann ich mir aber nicht vorstellen. Eine 4770 ist nur knapp langsamer als eine 4850. Und die ist etwas langsamer als eine 9800GTX+. Was macht PCGH denn anders als CB?

y33H@
2009-05-15, 19:26:16
Was macht PCGH denn anders als CB?Testsytem, Benchszene, Treiber ... bitte nie direkt von einer Karte auf die andere schließen, gerade von HD4k auf HD3k oder von G92 auf G80. Im Übrigen sehe ich bei CB kaum aktuelle Treiber, eine 96GT oder HD3870 mit solchen ohnehin nicht.

Dr. Cox
2009-05-15, 19:26:30
Hallo liebe 3Dcenter-Community, da ich hier bei den Grafikenthusiasten bin, denke ich, dass mir einer von euch vielleicht bei meinem Problem helfen kann:

Da von Raffael Vötter und Marc Sauter immer wieder - auch zu recht - die inoffiziellen SSAA/Hybridmodi erwähnt werden, welche wirklich auch viele Spiele optisch aufwerten, wollte ich diese nun in Crysis mal ausprobieren. Laut PCGH soll es problemlos möglich sein in Crysis diese inoffiziellen Modi zu nutzen:

http://www.pcgameshardware.de/aid,660403/Crysis-Warhead-Impressionen-mit-maximaler-Grafikqualitaet/Spiele/Bildergalerie/

Nun würde ich mal gerne wissen wie das funktioniert, denn bei mir funktioniert in Crysis mit nHancer kein forciertes AA, egal welches, nicht einmal TMSAA. Bei diesem Geflimmer der Vegetation bekommt man auf Dauer echt Augenkrebs

Kurioser Weise hat damals mit meiner alten HD4870/1024MB wenigstens adaptives MSAA funktioniert, mit welchem das Bild deutlich ruhiger und angenehmer wurde, da adaptives MSAA auch die Vegetation mitgeglättet. Mit meiner Geforce GTX280 ist jetzt nicht einmal TMSAA möglich, weder unter XP noch unter Vista. Woran liegt das, was mache ich falsch? In anderen Spielen funktionieren die SSAA/Hybridmodi ohne Probleme, warum nur in Crysis nicht?

Da Raffael Vötter mir diesbezüglich nicht antworten möchte, wende ich mich nun hilfesuchend an die Community

Ich würde mich über eine Antwort gleichgesinnter Grafikfetischisten sehr freuen, ich weiß nämlich echt nicht mehr weiter und bin kurz davor die HD4870 wieder einzubauen....

http://extreme.pcgameshardware.de/actionspiele/54037-kein-ssaa-hybridmodi-crysis.html

y33H@
2009-05-15, 19:27:23
Unter DX10 gehts nicht, unter DX10 nur mit renameter Exe.

Bei diesem Geflimmer der Vegetation bekommt man auf Dauer echt AugenkrebsDas geht selbst mit SSAA nicht weg.

Jake Dunn
2009-05-15, 19:30:30
@ Jake Dunn
Schau dir mein Edit an ;)

Hab ich ;) und bei 4/16 ist das klar (aber nicht wirklich spielbar in neueren Games) in 1/4/8 sieht es etwas anders aus.;)




Und wie gesagt: Anno 1404.

Auch hier: Anno 1404. Eine GTS/640 macht eine HD2900XT platt, die Ultra knackt problemlos eine HD4850.

Rosine?

Hab ich da...

http://www.abload.de/thumb/riddick_aoda_12806c5k.png (http://www.abload.de/image.php?img=riddick_aoda_12806c5k.png)

Nakai
2009-05-15, 19:32:49
Ich kann nicht im falschen Forum sein, wenn ich meine 17k Postings ansehe.
Ich bin auch nicht dafür verantwortlich, wenn andere meinen, ihren Computerbase und Konsorten Stil hier mit herzubringen.

Ich glaube wir sollten damit leben, dass es in einem Forum keinen einheitlichen Stil gibt. Ebenso kann sich in einem Forum jeder beliebige Mensch registrieren und vor allem hier als Gast posten. Jemand hier die Forenzugehörigkeit abzuerkennen dürfen nur die Mods machen. Vor allem wenn es niveaulos wird...

...und das führt mich zu dem hier:

Ja LZ würde gerne, das alle die anderer Meinung sind verschwinden, erinnert mich an D (1939-1945)

Ich liebe zwar so einen Humor, aber dennoch ist es hier nicht angebracht, sowas zu bringen.

Eine GTS/640 macht eine HD2900XT platt, die Ultra knackt problemlos eine HD4850.

Wundert dich das?!
Eine 8800 Ultra klatscht auch öfter eine 9800GTX, welche etwa auf HD4850
-Niveau liegt. Ebenso die 8800GTS/640, welche von AMD als Konkurrent zur HD2900XT.


mfg Nakai

Jake Dunn
2009-05-15, 19:32:59
Kurioser Weise hat damals mit meiner alten HD4870/1024MB wenigstens adaptives MSAA funktioniert

Ja aber unspielbar da es extrem Performance zieht ;)

Gast
2009-05-15, 19:44:28
Ja aber unspielbar da es extrem Performance zieht ;)

Ich würde dann eben alles auf mittel stellen und die Texturen auf hoch. das ist immer noch besser als dieses miese Geflimmer der Vegetation.

Irgendwie muss es doch möglich sein die flimmrige Vegetation zu glätten....

Wie kann ich denn jetzt unter XP meine GTX280 dazu bewegen Crysis mit 8xSQ, oder wenigstens mit 4X TSSAA wiederzugeben?

Oder muss ich meine HD4870 wieder einbauen?

y33H@
2009-05-15, 19:45:42
@ Dr. Cox

GTX280, GF185.85, WinXP x86, blubb.exe, nHancer v2.4.5, 4x4 SSAA, AA-Einstellung des Spieles aufwerten, 4x MSAA ingame:

http://www.abload.de/thumb/blubb2009-05-1519-38-267ox.png (http://www.abload.de/image.php?img=blubb2009-05-1519-38-267ox.png)

Du machst wohl was falsch :D

Rosine? Hab ich da...Nö, hast du nicht. Mit aktuellen Treibern zeigt sich das "übliche" Bild: GTX200 knapp vor HD4k.in 1/4/8 sieht es etwas anders aus.Ich mach dir Werte, nenne mir 5 Spiele [ich benche 1.280 bis 1.920]. CoD4? HL2 Ep2?

Jake Dunn
2009-05-15, 19:50:01
Ich würde dann eben alles auf mittel stellen und die Texturen auf hoch. das ist immer noch besser als dieses miese Geflimmer der Vegetation.

Irgendwie muss es doch möglich sein die flimmrige Vegetation zu glätten....

Wie kann ich denn jetzt unter XP meine GTX280 dazu bewegen Crysis mit 8xSQ, oder wenigstens mit 4X TSSAA wiederzugeben?

Oder muss ich meine HD4870 wieder einbauen?

Auf Mittel (Shader) geht garkein AA in CRYSIS (möcht ich meinen)

Ich mach dir Werte, nenne mir 5 Spiele [ich benche 1.280 bis 1.920]. CoD4? HL2 Ep2?

Aktuelle Games? :D


Aber eine andere Sache hast du bei Anno noch was rausbekommen? (CPU-Test) Gern PN ;)

y33H@
2009-05-15, 19:53:50
Auf Mittel (Shader) geht garkein AA in CRYSIS (möcht ich meinen)Hmmm?!Aktuelle Games?Sag mir welche, ich greif ins Regal ;DAber eine andere Sache hast du bei Anno noch was rausbekommen? (CPU-Test) Gern PN
Schreib du mir oder kauf am besten in zwei Wochen das Premium *g* wenn du danach noch Fragen hast, ists wohl sinniger.

Dr. Cox
2009-05-15, 20:00:21
@ Dr. Cox

GTX280, GF185.85, WinXP x86, blubb.exe, nHancer v2.4.5, 4x4 SSAA, AA-Einstellung des Spieles aufwerten, 4x MSAA ingame:

http://www.abload.de/thumb/blubb2009-05-1519-38-267ox.png (http://www.abload.de/image.php?img=blubb2009-05-1519-38-267ox.png)

Du machst wohl was falsch :D


Also ich habe den Geforce 185.85 WHQL und nHancer 2.5.1 unter XP benutzt. Auch ein Umbenennen in "XR_3DA.exe" half nicht weiter....

Funktioniert das alles denn nur mit nHancer v2.4.5?

Auf Mittel (Shader) geht garkein AA in CRYSIS (möcht ich meinen)


Echt? Funktionieren SSAA und die Hybridmodi generell nicht unter DX10 oder nur in Crysis?

Jake Dunn
2009-05-15, 20:01:13
Hmmm?!

Ja ab einem gewissen Setting geht kein AA inGame bei CRYSIS (ich schau nacher mal nach)



Schreib du mir oder kauf am besten in zwei Wochen das Premium *g* wenn du danach noch Fragen hast, ists wohl sinniger.

Netter Versuch ^^

MICH interessiert aber nur warum der i7 da "einknickt" und ob es wirklich nur an den gurkigen Nvidia Treibern liegt :)





Echt? Funktionieren SSAA und die Hybridmodi generell nicht unter DX10 oder nur in Crysis?

Unter DX10 geht kein SSAA

Dr. Cox
2009-05-15, 20:08:38
Unter DX10 geht kein SSAA

Funktionieren denn die Hybridmodi noch, oder gibt es in Zukunft gar keine Möglichkeit mehr das bessere AA zu nutzen?

Wenn ja, dann sind SSAA und die Hybridmodi jedenfalls kein Kaufgrund mehr eine Grafikkarte von Nvidia einer ATI-Karte vorzuziehen, bis auf das bessere AF.

y33H@
2009-05-15, 20:09:33
Unter DX10 geht kein SSAAKein per Treiber/nHancer forciertes. Ingame sollte es aber imo.MICH interessiert aber nur warum der i7 da "einknickt" und ob es wirklich nur an den gurkigen Nvidia Treibern liegtDas checke ich nexte Woche wohl.Wenn ja, dann sind SSAA und die Hybridmodi jedenfalls kein Kaufgrund mehr eine Grafikkarte von Nvidia einer ATI-Karte vorzuziehenIm Falle von DX10/DX11 ist das wohl so, hier scheint in Sachen AA das Spiel das letzte Wort zu haben.

Gast
2009-05-15, 20:11:35
Wenn ja, dann sind SSAA und die Hybridmodi jedenfalls kein Kaufgrund mehr eine Grafikkarte von Nvidia einer ATI-Karte vorzuziehen, bis auf das bessere AF.

Treiber,Profile,Bildqualität wären da noch ein paar weitere Punkte.

Gast
2009-05-15, 20:14:03
Im Falle von DX10/DX11 ist das wohl so, hier scheint in Sachen AA das Spiel das letzte Wort zu haben.

Nvidia löst das ja sehr gut mit AA Profilbits, ich denke da wird bestimmt noch was kommen für DX10+SSAA, für die offiziellen MSAA/Coverage gibt es ja schon AA Bits die unter DX10 funktionieren.

y33H@
2009-05-15, 20:15:32
Was sind SSAA sowie frei wählbare TAA-Modiue anderes als BQ? ;)

Jake Dunn
2009-05-15, 20:17:19
Wenn ja, dann sind SSAA und die Hybridmodi jedenfalls kein Kaufgrund mehr eine Grafikkarte von Nvidia einer ATI-Karte vorzuziehen

Das gilt nur für neuere Games mit den ganzen PP-Effekten ;)

Das checke ich nexte Woche wohl.

Ja ich weiß, Zeit ist ein knappes Gut bei euch :D (bin dennoch interessiert evt. andere auch)

Gast
2009-05-15, 20:20:56
Was sind SSAA sowie frei wählbare TAA-Modiue anderes als BQ? ;)

Der heilige Gral :-)

pest
2009-05-15, 20:42:15
Aber um mal wieder das Niveau zu heben, kann ja mal ein User mit 9600GT/8800GT (kein Gast kann ich nicht lesen) diesen Benchmark machen->

habe mit Vista64 45fps, unter XP waren es nochmal 10% mehr
8800GT (800/2000/1050)

Jake Dunn
2009-05-15, 20:48:51
habe mit Vista64 45fps, unter XP waren es nochmal 10% mehr
8800GT (800/2000/1050)

Thx :) kommt also ungefähr hin (meine Aussage)

Geht sehr gut die Karte von dir :D

Lawmachine79
2009-05-15, 20:50:10
Funktionieren denn die Hybridmodi noch, oder gibt es in Zukunft gar keine Möglichkeit mehr das bessere AA zu nutzen?

Wenn ja, dann sind SSAA und die Hybridmodi jedenfalls kein Kaufgrund mehr eine Grafikkarte von Nvidia einer ATI-Karte vorzuziehen, bis auf das bessere AF.
Es gibt auch Leute, die sogar heutzutage noch Perlen wie Deus Ex, Far Cry, D3/Q4, BF2 und viiieeeleeee andere spielen. Für die wird SSAA immer ein Kaufgrund sein.
Ich muss nicht jeden Monat den x-ten stumpfen, flimmernden Konsolenport spielen.

Jake Dunn
2009-05-15, 20:53:43
Es gibt auch Leute, die sogar heutzutage noch Perlen wie Deus Ex, Far Cry, D3/Q4, BF2 und viiieeeleeee andere spielen. Für die wird SSAA immer ein Kaufgrund sein.
Ich muss nicht jeden Monat den x-ten stumpfen, flimmernden Konsolenport spielen.

SSAA und OpenGL? :|

y33H@
2009-05-15, 20:54:25
Die Hybriden gehen.

Dr. Cox
2009-05-15, 21:11:05
Es gibt auch Leute, die sogar heutzutage noch Perlen wie Deus Ex, Far Cry, D3/Q4, BF2 und viiieeeleeee andere spielen. Für die wird SSAA immer ein Kaufgrund sein.
Ich muss nicht jeden Monat den x-ten stumpfen, flimmernden Konsolenport spielen.

Diese alten Spiele zocke ich ja auch alle noch, da sie meistens sogar besser als aktuelle Spiele sind. Es ist halt nur schade dass man in Zukunft auf SSAA verzichten muss :(

Lawmachine79
2009-05-15, 21:13:06
Diese alten Spiele zocke ich ja auch alle noch, da sie meistens sogar besser als aktuelle Spiele sind. Es ist halt nur schade dass man in Zukunft auf SSAA verzichten muss :(
Ach so herum war das zu verstehen. Also ich werde mir für meinen Erst-PC defintiv so lange NV-Karten kaufen, bis KEINE Spiele mehr SSAA unterstützen und die alten Spiele, die es noch unterstützen, in 4x4 flüssig laufen. Und bei Crysis wird das wohl noch bis 2013 dauern ;). Ansonsten bin ich in anderen Rechnern, die halt nicht im Dauerbetrieb sind, durchaus auch für ATI offen.

Dr. Cox
2009-05-15, 21:30:24
Ach so herum war das zu verstehen. Also ich werde mir für meinen Erst-PC defintiv so lange NV-Karten kaufen, bis KEINE Spiele mehr SSAA unterstützen und die alten Spiele, die es noch unterstützen, in 4x4 flüssig laufen. Und bei Crysis wird das wohl noch bis 2013 dauern ;). Ansonsten bin ich in anderen Rechnern, die halt nicht im Dauerbetrieb sind, durchaus auch für ATI offen.

Also ich bin mal so frei und behaupte, dass man Crysis mit 4x4 + Transperenz AA erst in vielleicht fünf Jahren flüssig spielen kann, vorher wird das nichts ;)

Ich hatte nicht einmal 5 Frames in 1680X1050 mit 16xAF und 4X4.....

Lawmachine79
2009-05-15, 21:32:48
Also ich bin mal so frei und behaupte, dass man Crysis mit 4x4 + Transperenz AA erst in vielleicht fünf Jahren flüssig spielen kann, vorher wird das nichts ;)

Ich hatte nicht einmal 5 Frames in 1680X1050 mit 16xAF und 4X4.....
Naja, TAA braucht man dann nicht mehr wirklich. 5fps ist doch schon was, worauf man aufbauen kann ;).

Dr. Cox
2009-05-15, 21:43:15
Naja, TAA braucht man dann nicht mehr wirklich. 5fps ist doch schon was, worauf man aufbauen kann ;).

Bei 5 Frames, braucht man dann eine Grafikkarte die mindestens 10X so schnell wie eine GTX280 ist damit Crysis dann endlich flüssig läuft. Das heißt wir können noch lange warten, was das angeht ;)

Lawmachine79
2009-05-15, 21:52:08
Bei 5 Frames, braucht man dann eine Grafikkarte die mindestens 10X so schnell wie eine GTX280 ist damit Crysis dann endlich flüssig läuft. Das heißt wir können noch lange warten, was das angeht ;)
Naja, je nachdem was der Flaschenhals ist. Im Moment wohl so ziemlich alles. Also auf meiner 68GT lief damals Far Cry nur mit c.a. 5fps bei 4x4. Das war vor 4-5 Jahren.

Gummikuh
2009-05-15, 21:55:35
Anfangs war die 3870 ein Gegner der 9600 GT, nur Fans haben sie mit der 8800 GT gleichgesetzt.


Nur so nebenbei...anfangs gab es die 9600GT noch nicht und daher haben die Fans auch die HD3870 mit der 8800GT verglichen.:wink:

Dr. Cox
2009-05-15, 22:05:30
Naja, je nachdem was der Flaschenhals ist. Im Moment wohl so ziemlich alles. Also auf meiner 68GT lief damals Far Cry nur mit c.a. 5fps bei 4x4. Das war vor 4-5 Jahren.

Mhmhm, da es sowieso draußen wie aus Eimern gießt und ich nicht weg kann, könnte ich mal wieder Fra Cry installieren und schauen wie viel Frames meine GTX280 dort mit 4x4 bringt....

Ist 32xS nicht eigentlich etwas besser als 4x4, wegen des 8x MSAA-Anteils?

Macht es tatsächlich keinen Sinn mehr Transparenz AA zu aktivieren bei den Hybriden und den reinen SSAA-Modi?

Eine 6800GT habe ich übrigens auch noch im Zweit-PC ;)

Eigentlich könnte ich mich hier ja auch mal anmelden.....

Ist ein echt cooles Forum ;)

Banshee18
2009-05-15, 23:08:22
Ist 32xS nicht eigentlich etwas besser als 4x4, wegen des 8x MSAA-Anteils?
Kommt drauf an. Bei viel AT-Texturen und Shaderflimmern ist 4x4 besser. 32xS bügelt dafür Polygonkanten optimal.
Macht es tatsächlich keinen Sinn mehr Transparenz AA zu aktivieren bei den Hybriden und den reinen SSAA-Modi?
Bei den Hybriden ist es sinnvoll, bei reinem SSAA nicht, da hat es keine Wirkung.

Lawmachine79
2009-05-15, 23:25:39
Mhmhm, da es sowieso draußen wie aus Eimern gießt und ich nicht weg kann, könnte ich mal wieder Fra Cry installieren und schauen wie viel Frames meine GTX280 dort mit 4x4 bringt....

Ist 32xS nicht eigentlich etwas besser als 4x4, wegen des 8x MSAA-Anteils?

Macht es tatsächlich keinen Sinn mehr Transparenz AA zu aktivieren bei den Hybriden und den reinen SSAA-Modi?

Eine 6800GT habe ich übrigens auch noch im Zweit-PC ;)

Eigentlich könnte ich mich hier ja auch mal anmelden.....

Ist ein echt cooles Forum ;)
4x4 hat ja eine Polygonglättung wie 4xMSAA - ich persönlich sehe keinen Unterschied zwischen 4xMSAA und 8xMSAA, also für mich ist 4xMSAA ideal. Den Unterschied von 4x4 zu 2x2 aufs ganze Bild siehst Du aber. Wenn man die Performance ausblendet, würde ich 4x4 in jeder Lebenslage ggü 32xS vorziehen.

InsaneDruid
2009-05-15, 23:43:58
Funktionieren denn die Hybridmodi noch, oder gibt es in Zukunft gar keine Möglichkeit mehr das bessere AA zu nutzen?

Wenn ja, dann sind SSAA und die Hybridmodi jedenfalls kein Kaufgrund mehr eine Grafikkarte von Nvidia einer ATI-Karte vorzuziehen, bis auf das bessere AF.

Naja, nicht jedes Game ist DX10, vor allem abseits des bunten Mainstreams. Renn und Flugsims zb. Außerdem ist der Clamp Switch bei NV manchmal extrem genial, kann man mit ihm doch so manchen Designschnitzer der Games ausbügeln. Zb bei allem GMotor Sims die extremen, und auch noch unterschiedlich gesetzten negativen Mip Lod einsetzen. Ein einfacher LoD Slider schiebt da auch die "guten" Texturen mit default 0er LoD ins positive. Hat mich bei ATI immer generft, die Strecken waren nie wirklich grisselfrei, unabhängig von der AF Güte. Einige waren sogar wahre Flimmerorgien. Bei NV wirft man den Clamp an und das wars. Und solche Rennsims spielt man zt etliche Jahre, nicht nur Stunden wie die meisten Shooter.

Außerdem baut NV noch viel Single Chip Grafikkarten und versucht aktiv das Mikroruckeln zu beseitigen. Plus einer deutlich besseren Profilverwaltung. FSAA Kompatibilitätsbits inkl. Außerdem scheinen mit dei Kühler besser zu sein. Jede meiner ATIs war wirklich unerträglich laut, und ich musste mit 3rd Party Kühlern nachhelfen. Die 88 ist schon sehr leise, und mit 40% Fanspeed statt 60% als Idle Minimum ist sie wirklich silent. Ohne großartig wärmer zu werden.

Grestorn
2009-05-15, 23:52:36
@ Dr. Cox

GTX280, GF185.85, WinXP x86, blubb.exe, nHancer v2.4.5, 4x4 SSAA, AA-Einstellung des Spieles aufwerten, 4x MSAA ingame:

GF 185.85 und nHancer 2.4.5? Das kann eigentlich nicht gehen...

Dr. Cox
2009-05-16, 00:13:10
So, ich habe jetzt mal Far Cry installiert. Die Hybridmodi und SSAA wollen einfach nicht laufen. TMSAA und TSSAA kann ich nur über den Treiber erzwingen. nHancer versagt hier komplett den Dienst! AA funktioniert im Übrigen leider nicht mit HDR zusammen :(

TMSAA und TSSAA glätten in Far Cry nahezu gleich gut die Vegetation, weshalb ich mich für das kostengünstigere TMSAA entschieden habe, damit ich die vertikale Synchronisation aktivieren kann ;)

Warum HDR nicht mit AA zusammen funktioniert ist mir ein Rätsel, da seit dem G80 Nvidia-Karten zu beidem gleichzeitig auch in der Lage sein sollten?

Jake Dunn
2009-05-16, 00:35:24
Warum HDR nicht mit AA zusammen funktioniert ist mir ein Rätsel, da seit dem G80 Nvidia-Karten zu beidem gleichzeitig auch in der Lage sein sollten?

Frag das mal CRYTEK, mit dem 1.4 Beta Patch ist es möglich (kann aber zu Problemen führen, daher wurde der auch nicht Final) ;)

http://downloads.guru3d.com/Farcry-Pre-Release-HDR-+-AA-patch-download-1293.html

Dr. Cox
2009-05-16, 00:52:25
Den habe ich auch schon ausprobiert ;)

Oder wäre es nicht möglich mit Hilfe der AA-Kompaibilität im nHancer AA bei HDR zu erzwingen?

Gast
2009-05-16, 00:55:39
Den habe ich auch schon ausprobiert ;)

Oder wäre es nicht möglich mit Hilfe der AA-Kompaibilität im nHancer AA bei HDR zu erzwingen?

Man muss r_fsaa 2 oder sowas eingeben sonst gehts nicht.

_DrillSarge]I[
2009-05-16, 01:36:53
Bitte sehr; der Poster, der mir jenes an den Kopf geworfen hat:

hat mir folgenden Lösungsvorschlag präsentiert (das ist der untere Link)


Das witzige finde ich, daß mir erzählt wird, ich sei "zu blöd" zum Schrauben und mir dann SO EINE Lösung präsentiert wird. Wenn ATI-Marktanteile verliert, dann bei Gelegenheitszockern. Denn mit SOWAS will sich keiner rumschlagen, der sich nicht INTENSIV damit beschäftigt. Solche "Lösungsvorschläge" sind nur noch Fans vermittelbar. Und, ob Du es glaubst oder nicht, einmal (von insgesamt 4 ATI-Karten die ich eingebaut habe) war es bei mir soweit, daß ich wirklich das gepostete gemacht habe und es hat funktioniert.

Ich streite nicht ab, daß die Installation problemlos sein KANN (hatte ich auch einmal), ich kann nur nicht nachvollziehen, wieso das auf normalen, zum Teil frisch aufgesetzten PCs so in die Hose gehen kann, da kann man eigentlich nicht viel falsch machen. Ich finde es auch inakzeptabel, mein OS neu autzusetzen, wenn ich mir eine neue Graka kaufe.
diese anleitung ist grober unfug. allein schon .net1.1 extra zu installieren (das ist in 3.5sp1 nicht dabei) ist sinnlos, weil das praktisch niemand nutzt und .net nur ab 2.0 auf-/abwärtskompatibel ist (besser: der rest baut teilweise auf 2.0 auf und erweitert dies).
das gefrickel kannst du dir nächstes mal (:biggrin:) sparen und gleich das "große all-in-one pack" installieren.

Lawmachine79
2009-05-16, 01:38:03
Ich habe hier mal eine "Bedienungsfrage". Die anderen Filter außer Box muss ich ja im Catalyst einstellen. Ich habe aber AA immer auf "Anwendung" stehen. Kann ich trotzdem einen anderen Filter außer "Box" wählen? Also quasi auf "Anwendung" und dann "Edge-Detect"? Oder muss ich den AA-Modus vorgeben, damit ich andere Filter wählen kann?

y33H@
2009-05-16, 02:04:55
GF 185.85 und nHancer 2.4.5? Das kann eigentlich nicht gehenIch nutzte WinXP x86.Kann ich trotzdem einen anderen Filter außer "Box" wählen? Also quasi auf "Anwendung" und dann "Edge-Detect"? Oder muss ich den AA-Modus vorgeben, damit ich andere Filter wählen kann?Egal ob 2-8x MSAA per Treiber oder ingame forciert, unter DX9 kannst du Box/NT/WT/ED wählen und es wird zusätzlich appliziert [sofern das MSAA zieht].

vinacis_vivids
2009-05-16, 02:36:47
Nur, dass damals die BQ unwichtig war, und den NV-Jüngern die Balken bei 3dfx nicht lang genug waren. Jetzt passt Preis und Performance, dafür ist die BQ nicht gut genug.

Also sobald die Konkurrenz nicht in allen (!) Belangen mindestens gleich ist wie NV, ist sie schlechter. Und selbst wenn mal ATi eindeutig überlegen ist, wird NV in den Himmel gehyped. War beim G70 auch so (man lese sich mal die damaligen Threads durch). Das superschwellige NV-Logo bei div. Spielen hinterlässt anscheinend doch einen bleibenden Eindruck ;)

Jetzt verstehe ich diesen Beitrag. Mein Gott.

Damals: Nvidia gegen 3dfx. Die Karten traten gegeneinander an und es wurde von den Nvidianiern sozusagen normativ festgelegt, dass die Geschwindigkeit wichtiger ist als die BQ. 3dfx bot teilweise grandiose Optik zur sehr gut spielbaren Frames. Die voodoo5 war sozusagen die Königkarte. Die mit Abstand beste BQ und spielbare Frames. Damals hatte man angefangen mit FSAA zu benchen. Aber man hat das damalige 4aa von nvidia gegen das 3dfx-4xfsaa gebencht. Vergleichbar wäre aber nur der 4xaa von nvidia gegen den 2xfsaa von 3dfx. Und da wär Nvidia am Grund und Boden gewesen.

Heute haben die Nvidianer wieder normativ festgelegt, dass die BQ wichtiger ist als Speed. Also umgekehrt.

Banshee18
2009-05-16, 03:13:17
Heute haben die Nvidianer wieder normativ festgelegt, dass die BQ wichtiger ist als Speed. Also umgekehrt.
Wie oft muss man denn noch erwähnen, dass die meisten "Nvidianer" garkeine "Nvidianer" sind, sondern einfach nur Fans von guter Bildqualität und dem insgesamt runderen Produkt.
Raff, y33H@ und ich z.B., die wir auf einen sehr guten anisotropen Filter pochen, hatten alle einen R5x0 und bestimmt auch einen R3x0 (von y33H@ weiß ich es nicht).
Fanboys (ich hasse das Wort eigentlich) sind doch nur die, die immer ihre Marke verteidigen, egal, wie schlecht sie ist. Dabei ist doch der Name, der auf dem Produkt steht, sowas von Wurst.

Frank1974
2009-05-16, 03:49:02
Wie oft muss man denn noch erwähnen, dass die meisten "Nvidianer" garkeine "Nvidianer" sind, sondern einfach nur Fans von guter Bildqualität und dem insgesamt runderen Produkt.
Raff, y33H@ und ich z.B., die wir auf einen sehr guten anisotropen Filter pochen, hatten alle einen R5x0 und bestimmt auch einen R3x0 (von y33H@ weiß ich es nicht).
Fanboys (ich hasse das Wort eigentlich) sind doch nur die, die immer ihre Marke verteidigen, egal, wie schlecht sie ist. Dabei ist doch der Name, der auf dem Produkt steht, sowas von Wurst.

Sehe ich genauso, die meisten Karten bei mir waren zwar von NV, aber ich hatte eine 9700pro und auch eine 1900XT, weil zu der Zeit hat man damit das beste bekommen, und nun bin ich seid dem G80 wieder bei Nvidia.

mfg
Frank

=Floi=
2009-05-16, 07:30:07
so schlecht ist der G71 für das gebotene auch nicht. lasst mal die kirche im dorf und bei älteren games rockt er mit sehr guter performance pro watt und super abwertskompatibilität!

Irgendwo ist die "zukunftssicherheit" doch sowieso nie gegeben, weil man einfach viel mehr performance braucht um neuere titel ordentlich zu spielen. Ein 285GTX Sli sollte 12x mehr leistung haben wie eine 7950GT und trotzdem braucht es für crysis und co nochmal mind. die 3-fache leistung!

LovesuckZ
2009-05-16, 08:31:18
Jetzt verstehe ich diesen Beitrag. Mein Gott.

Damals: Nvidia gegen 3dfx. Die Karten traten gegeneinander an und es wurde von den Nvidianiern sozusagen normativ festgelegt, dass die Geschwindigkeit wichtiger ist als die BQ. 3dfx bot teilweise grandiose Optik zur sehr gut spielbaren Frames. Die voodoo5 war sozusagen die Königkarte. Die mit Abstand beste BQ und spielbare Frames. Damals hatte man angefangen mit FSAA zu benchen. Aber man hat das damalige 4aa von nvidia gegen das 3dfx-4xfsaa gebencht. Vergleichbar wäre aber nur der 4xaa von nvidia gegen den 2xfsaa von 3dfx. Und da wär Nvidia am Grund und Boden gewesen.

Heute haben die Nvidianer wieder normativ festgelegt, dass die BQ wichtiger ist als Speed. Also umgekehrt.

Cool, wie vergleichen die heutige Situation mit der Situation von vor - was - 8-9 Jahren?
Man muss sich jedoch dann die Frage stellen, wer sich dagegen weiter entwickelt hat: Die 3DFX nachheulenden AMD User, oder die von der "Geschwindigkeit-ist-alles" zur "Wir-lassen-uns-nicht-bevormunden" Fraktion.

Grestorn
2009-05-16, 09:19:31
Ich nutzte WinXP x86.

Die Windows Version ist eigentlich egal. nHancer 2.4.x läuft nicht korrekt mit GeForce > 185.20.

@Dr. Cox: Ich kann eigentlich nicht ganz glauben, dass Du AA in FarCry mit nHancer nicht appliziert bekommst. Bist Du sicher, dass Du das FarCry Profil mit nHancer bearbeitest? Oder arbeitest Du mit den globalen Einstellungen?

Grestorn
2009-05-16, 09:23:32
Jetzt verstehe ich diesen Beitrag. Mein Gott.

Damals: Nvidia gegen 3dfx. Die Karten traten gegeneinander an und es wurde von den Nvidianiern sozusagen normativ festgelegt, dass die Geschwindigkeit wichtiger ist als die BQ. 3dfx bot teilweise grandiose Optik zur sehr gut spielbaren Frames. Die voodoo5 war sozusagen die Königkarte. Die mit Abstand beste BQ und spielbare Frames. Damals hatte man angefangen mit FSAA zu benchen. Aber man hat das damalige 4aa von nvidia gegen das 3dfx-4xfsaa gebencht. Vergleichbar wäre aber nur der 4xaa von nvidia gegen den 2xfsaa von 3dfx. Und da wär Nvidia am Grund und Boden gewesen.

Heute haben die Nvidianer wieder normativ festgelegt, dass die BQ wichtiger ist als Speed. Also umgekehrt.

Was Du beschreibst ist doch nur Fanboyismus ganz allgemein. Bei einigen ATI Fans ist es doch nicht anders, dass FPS, Stromaufnahne, PCB-Größe, Features oder eben Bildqualität mal absolut das wichtigste und dann wieder total unwichtig sind, je nachdem womit die aktuelle ATI Generation derzeit brilliert und wo sie gerade Schwächen hat.

In allen genannten Punkten war in den letzten Jahren mal ATI vorn und mal nVidia. Das sollte sich wirklich jeder vor Augen halten!

Was unterm Strich für mich bleibt ist die offenere Treiberarchitektur von nVidia, die es dem Anwender erlaubt, deutlich mehr Einfluss auf das zu nehmen, was auf dem Schirm passiert.

MartinRiggs
2009-05-16, 12:34:20
Was Du beschreibst ist doch nur Fanboyismus ganz allgemein. Bei einigen ATI Fans ist es doch nicht anders, dass FPS, Stromaufnahne, PCB-Größe, Features oder eben Bildqualität mal absolut das wichtigste und dann wieder total unwichtig sind, je nachdem womit die aktuelle ATI Generation derzeit brilliert und wo sie gerade Schwächen hat.

In allen genannten Punkten war in den letzten Jahren mal ATI vorn und mal nVidia. Das sollte sich wirklich jeder vor Augen halten!

Was unterm Strich für mich bleibt ist die offenere Treiberarchitektur von nVidia, die es dem Anwender erlaubt, deutlich mehr Einfluss auf das zu nehmen, was auf dem Schirm passiert.

Oh ja, grade Rennspiele(LFS, GTL etc.) mit 16xS sind Godlike, da stinkt ATI einfach nur ab.
Leider musste ich meine GTX260 von Gainward zurückschicken weil das Lüfterduo mich in den Wahnsinn treiben wollte:frown:

Lawmachine79
2009-05-16, 12:45:54
I[;7302944']diese anleitung ist grober unfug. allein schon .net1.1 extra zu installieren (das ist in 3.5sp1 nicht dabei) ist sinnlos, weil das praktisch niemand nutzt und .net nur ab 2.0 auf-/abwärtskompatibel ist (besser: der rest baut teilweise auf 2.0 auf und erweitert dies).
das gefrickel kannst du dir nächstes mal (:biggrin:) sparen und gleich das "große all-in-one pack" installieren.
Ja, das große All-in-One-Pack hat ja nicht funktioniert, sonst hätte ich mir diese Prozedur nicht angetan, weißt Du wie lange das dauert??
Fakt ist, daß diese Prozedur geholfen hat, ich weiß nicht warum, andere Parameter als die Art und Weise, .NET zu installieren habe ich nicht verändert. Ich kann es auch nicht reproduzieren, ich hatte wie gesagt schon einen frisch aufgesetzten PC wo es tadellos ging (und es hat eigentlich immer tadellos zu gehen, auch wenn ich vorher eine NV drinhatte und vergesse .NET zu installieren; dann soll er eine Fehlermeldung bringen, dann installiere ich .NET und spätestens dann MUSS es funktionieren; da ist ATI in der Pflicht; es kann nicht sein, daß man jahrelang ein stabiles NV-System hat, die Karte wechselt, vergisst .NET zu installieren und der Weg zum funktionierenden CCC dann FÜR IMMER verbaut ist und NUR noch XP reinstall hilft!).
Nur, dass damals die BQ unwichtig war, und den NV-Jüngern die Balken bei 3dfx nicht lang genug waren. Jetzt passt Preis und Performance, dafür ist die BQ nicht gut genug.

Also sobald die Konkurrenz nicht in allen (!) Belangen mindestens gleich ist wie NV, ist sie schlechter. Und selbst wenn mal ATi eindeutig überlegen ist, wird NV in den Himmel gehyped. War beim G70 auch so (man lese sich mal die damaligen Threads durch). Das superschwellige NV-Logo bei div. Spielen hinterlässt anscheinend doch einen bleibenden Eindruck ;)
Also, ich bin kein "NVidianer", auch kein "ATIjaner". Ich hatte 3dfx Karten, ich hatten NVs und ich ATIs. Ich habe immer noch 2 NV und 2 ATI Karten, die regelmäßig in Nutzung sind. Aber im Moment, und das hat nix mit dem Logo zu tun, überzeugt mich das Gesamtpaket bei NV einfach mehr.
- Bei ATI gibt es mehr Performance fürs Geld. Richtig. Aber nicht in einem Bereich, der die Spielbarkeit beeinflusst.
- Die BQ ist bei NV besser (die von ATI ist nicht schlecht, aber nachweislich die von NV im Moment eben besser).
- Ich kann jeden Millimeter Benchmarkbalken entweder so lassen wie er ist oder ihn durch Hybridmodi in BQ umsetzen.
- Das mag an den Kartenherstellern liegen, aber was Kühlung und Lautstärke angeht, habe ich mit NV bessere Erfahrungen gemacht.
- Zu den Treibern habe ich genug gesagt, 1) Installationsprozedur 2) das A.I. Konzept (Bevormundung) stören mich massiv, bei NV habe ich die Wahl und muss trotzdem nicht mehr rumkonfigurieren; besser kann man es nicht lösen.
- Was Stromverbrauch angeht, scheiden sich hier ja die Geister; das interessiert mich zwar und ich nehme es gern mit, ist aber für mich kein Killkriterium
So, das sind die Dinge, über die ich mir Gedanken gemacht habe und nach denen ich halt zu dem Schluß komme, daß ich in meinem Haupt-PC eine NV-Karte haben möchte. Das kann sich schnell ändern, SSAA freischalten, anderes Treibermodell (Install UND A.I. weg) und schon ist ATI in meiner Gunst vorne. Die Sache mit der Filterung würde es für NV nicht mehr rausreißen, wenn SSAA freigeschaltet wird und das Treibermodell neu gemacht wird.

y33H@
2009-05-16, 12:58:58
hatten alle einen R5x0 und bestimmt auch einen R3x0 (von y33H@ weiß ich es nicht).Freilich. Eine X1900XT/512 und früher mal ne 9700 Pro sowie eine 9800 Pro. Letztere beide liegen noch hier.aber ich hatte eine 9700pro und auch eine 1900XT, weil zu der Zeit hat man damit das beste bekommen, und nun bin ich seid dem G80 wieder bei Nvidia.Full ack.

@ Grestorn

Extra noch mal geschaut: 185.85 und 2.4.5. Kurios ... unter Vista funktioniert diese Kombi nicht, unter XP schon :uponder:

reunion
2009-05-16, 13:03:58
(und es hat eigentlich immer tadellos zu gehen, auch wenn ich vorher eine NV drinhatte und vergesse .NET zu installieren; dann soll er eine Fehlermeldung bringen, dann installiere ich .NET und spätestens dann MUSS es funktionieren; da ist ATI in der Pflicht; es kann nicht sein, daß man jahrelang ein stabiles NV-System hat, die Karte wechselt, vergisst .NET zu installieren und der Weg zum funktionierenden CCC dann FÜR IMMER verbaut ist und NUR noch XP reinstall hilft!).


So ist es auch normalerweise. Du tust ja ständig so als ob das die Regel wäre und ATi von jedem verlangt sein Windows neu aufzusetzen wenn man eine ATI-Karte verbaut. Genauso wie es Leute gibt die jahrelang problemlos AMD einsetzen und dann einmal NV verbauen und Probleme haben gibt es auch Leute wie dich die aus welchen Gründen auch immer nicht mit ATI klarkommen. Jedes System ist anders, bei 99% der Leute klappt ein solcher Wechsel problemlos, bei manchen nicht. Aber sich hier hinzustellen und die eigenen Erfahrungen als die einzig richtigen darzustellen ist doch ziemlich kindisch.

Lawmachine79
2009-05-16, 13:23:50
So ist es auch normalerweise. Du tust ja ständig so als ob das die Regel wäre und ATi von jedem verlangt sein Windows neu aufzusetzen wenn man eine ATI-Karte verbaut. Genauso wie es Leute gibt die jahrelang problemlos AMD einsetzen und dann einmal NV verbauen und Probleme haben gibt es auch Leute wie dich die aus welchen Gründen auch immer nicht mit ATI klarkommen. Jedes System ist anders, bei 99% der Leute klappt ein solcher Wechsel problemlos, bei manchen nicht. Aber sich hier hinzustellen und die eigenen Erfahrungen als die einzig richtigen darzustellen ist doch ziemlich kindisch.
Ich habe nie behauptet, daß meine Erfahrungen die einzig richtigen sind. Aber wenn es bei 3 von 4 Installation Ärger gibt, muss ich schon sehr viel "Pech" haben. Und auch als "Fan" (ist ja nicht abwertend gemeint, ich würde mir aus Prinzip z.B. nie einen Intel kaufen, gebe aber neidlos zu, daß sie den im Moment schnellsten Prozessor haben) bricht man sich keinen Zacken aus der Krone, wenn man einfach mal anerkennt, daß es mit dem CCC deutlich mehr Probleme verbunden sind als mit dem NVCPL, daß man sich klammheimlich freuen würde, wenn man selbst in die Profile eingreifen könnte und daß man sich bestimmt nicht Ärgern würde, wenn man plötzlich SSAA einschalten könnte.

Schlammsau
2009-05-16, 13:31:52
Ich habe nun seit 2 Jahren, mit einer 2 monatigen Ausnahme in Form einer Geforce 8800GS, nur Radeons in meinem System verbaut. Und hatte noch nie, nichtmal ansatzweise Probleme irgendeiner Art und Weise mit dem Catalyst. Hat immer alles reibungslos funktioniert. Egal ob XP, Vista oder jetzt Windows 7.
Sowie bei den Forceware bzw. Geforce Treibern von nVidia.

Also entweder hast du grenzenloses Pech mit deiner Hardwarekombi oder, und das ist keine Unterstellung, du machst irgendwas grundlegend falsch.

y33H@
2009-05-16, 13:34:31
Wenn man ständig und dauernd mit Geforce / Catalyst zu tun hat, fällt leider auf, dass letzterer gerne und häufiger "spackt". Ist mit der 9er-Reihe aber deutlich besser geworden bzw. fast verschwunden. War letztes Jahr viel übler.

Dr. Cox
2009-05-16, 13:35:06
@Dr. Cox: Ich kann eigentlich nicht ganz glauben, dass Du AA in FarCry mit nHancer nicht appliziert bekommst. Bist Du sicher, dass Du das FarCry Profil mit nHancer bearbeitest? Oder arbeitest Du mit den globalen Einstellungen?


Doch, habe es noch hinbekommen, musste aber lange herumfummeln bis es endlich lief....

@all: Habe mich mal endlich hier angemeldet :wave:

PS: Die Smileys hier sind ja richtig cool, besser als bei PCGH ;)



Wenn man ständig und dauernd mit Geforce / Catalyst zu tun hat, fällt leider auf, dass letzterer gerne und häufiger "spackt". Ist mit der 9er-Reihe aber deutlich besser geworden bzw. fast verschwunden. War letztes Jahr viel übler.

Stimmt, ich hatte hin und wieder auch Probleme AA zu aktivieren, mal ging es und mal ging es nicht...

y33H@
2009-05-16, 13:38:24
Die Uglys herrschen, der hier aber ist mit Abstand der geilste:

;D

Sry für OT :usad:

IVN
2009-05-16, 13:40:01
Doch, habe es noch hinbekommen, musste aber lange herumfummeln bis es endlich lief....

@all: Habe mich mal endlich hier angemeldet :wave:

PS: Die Smileys hier sind ja richtig cool, besser als bei PCGH ;)




Stimmt, ich hatte hin und wieder auch Probleme AA zu aktivieren, mal ging es und mal ging es nicht...
Na dann, herzlich willkommen. :)

Dr. Cox
2009-05-16, 13:40:54
Die Uglys herrschen, der hier aber ist mit Abstand der geilste:

Stimmt ;D

PS: Mit meiner Signatur verstoße ich aber nicht gegen irgendwelche Regeln?


Na dann, herzlich willkommen. :)

Danke :smile:

Dr. Cox
2009-05-16, 14:12:00
Also, ich bin kein "NVidianer", auch kein "ATIjaner". Ich hatte 3dfx Karten, ich hatten NVs und ich ATIs. Ich habe immer noch 2 NV und 2 ATI Karten, die regelmäßig in Nutzung sind. Aber im Moment, und das hat nix mit dem Logo zu tun, überzeugt mich das Gesamtpaket bei NV einfach mehr.
- Bei ATI gibt es mehr Performance fürs Geld. Richtig. Aber nicht in einem Bereich, der die Spielbarkeit beeinflusst.
- Die BQ ist bei NV besser (die von ATI ist nicht schlecht, aber nachweislich die von NV im Moment eben besser).
- Ich kann jeden Millimeter Benchmarkbalken entweder so lassen wie er ist oder ihn durch Hybridmodi in BQ umsetzen.
- Das mag an den Kartenherstellern liegen, aber was Kühlung und Lautstärke angeht, habe ich mit NV bessere Erfahrungen gemacht.
- Zu den Treibern habe ich genug gesagt, 1) Installationsprozedur 2) das A.I. Konzept (Bevormundung) stören mich massiv, bei NV habe ich die Wahl und muss trotzdem nicht mehr rumkonfigurieren; besser kann man es nicht lösen.
- Was Stromverbrauch angeht, scheiden sich hier ja die Geister; das interessiert mich zwar und ich nehme es gern mit, ist aber für mich kein Killkriterium
So, das sind die Dinge, über die ich mir Gedanken gemacht habe und nach denen ich halt zu dem Schluß komme, daß ich in meinem Haupt-PC eine NV-Karte haben möchte. Das kann sich schnell ändern, SSAA freischalten, anderes Treibermodell (Install UND A.I. weg) und schon ist ATI in meiner Gunst vorne. Die Sache mit der Filterung würde es für NV nicht mehr rausreißen, wenn SSAA freigeschaltet wird und das Treibermodell neu gemacht wird.

Ich muss dir da vollkommen zustimmen, mit dem guten P/L-Verhältnis bei ATI muss man bereit sein Kompromisse einzugehen, was die Bildqualität, sowohl auch den Stromverbrauch und die Lautstärke angeht ;)

ATI kann selbst wenn sie es wollten die Filteroptimierungen der aktuellen Karten nicht einfach deaktivieren, da sonst eine HD4870/4890 von der Leistung her wegen der schwachen Texelleistung nur noch auf dem Niveau einer 9800GTX liegen würden:

http://extreme.pcgameshardware.de/blogs/pcgh_raff/149-appell-qualitaet-anstatt-quantitaet-page3.html?page=3#comments

vinacis_vivids
2009-05-16, 14:13:53
Wie oft muss man denn noch erwähnen, dass die meisten "Nvidianer" garkeine "Nvidianer" sind, sondern einfach nur Fans von guter Bildqualität und dem insgesamt runderen Produkt.
Raff, y33H@ und ich z.B., die wir auf einen sehr guten anisotropen Filter pochen, hatten alle einen R5x0 und bestimmt auch einen R3x0 (von y33H@ weiß ich es nicht).
Fanboys (ich hasse das Wort eigentlich) sind doch nur die, die immer ihre Marke verteidigen, egal, wie schlecht sie ist. Dabei ist doch der Name, der auf dem Produkt steht, sowas von Wurst.

Mir geht es nicht darum. Sonder um den normativen Wandel der beurteilung von Bildqulität.
Damals hatte man einen Quantensprung gemacht mit 3dfx und anschalten des FSAA. Besonders in niedrigeren Auflösungen. Aber das wurde von Nvidianern verkannt wegen Balkenlänge. Der Qualitätsgewinn war viel viel größer als heute.

Und Nvidia hat zur Zeiten der TNT2 mit der Bildqualitätsmerkmal 32 bit geworben und propagiert, der überhaupt keins war gegenüber den 16 bit von 3dfx. usw.

Dann gabs auch noch diese dubiose Folie:

http://www.tecchannel.de/news/themen/business/407906/nvidia_wettert_gegen_kyro_ii/

Jetzt hinkt Nvidia mit der Technick zurück (DX10.1) und die Technik wird totgeredet mit dem gebrandeten "Its meant to be played".

Jetzt braucht Nvidia gar keine Propaganda mehr durchzuführen. Die hat sich in den Köpfen vieler Leute einfach festgesetzt. Deswegen können die auch ihre Produkte einfach neu Labeln und unter neuen Namen verkaufen. Siehe die Schweinerei mit dem verkrüppelten G92 Chip. Der erscheint noch heute in der PCGH teilweise als absoluter Kauftipp.

Dann hat Nvidia auch noch den chronischen V-RAm Speicherbug, der auch totgeredet wird.

Lawmachine79
2009-05-16, 14:15:16
Stimmt, ich hatte hin und wieder auch Probleme AA zu aktivieren, mal ging es und mal ging es nicht...
Bei ATI habe ich die Erfahrung gemacht, daß es sinnvoll ist, im Treiber auf "Anwendungsgesteuert" zu stellen und das AA im Spiel reinzumachen. Das Adaptive AA schalte ich per ATI Tray Tools dazu, auf "Qualität", Sharpness auf "2". Bei NVidia habe ich immer über NHancer "aufwerten" gemacht, damit ich CSAA/Hybride nutzen kann, bei manchen Spielen mußte ich "Anwendungseinstellung überschreiben" wählen (also bei NV).

y33H@
2009-05-16, 14:25:13
Siehe die Schweinerei mit dem verkrüppelten G92 Chip. Was ist an einem G92 verkrüppelt? Und welche Schweinerei? EDITDer G92 wurde nie (!) umbenannt.Der erscheint noch heute in der PCGH teilweise als absoluter Kauftipp.Ich wüsste auch nicht, was an einer G92-basierten Karte wie der GTS 250 so unglaublich schei0e sein sein soll, im Vergleich zu einer HD4850 etwa.Jetzt hinkt Nvidia mit der Technick zurück (DX10.1) und die Technik wird totgeredet mit dem gebrandeten "Its meant to be played".Es ist an AMD, DX10.1 zu puschen. Wenn MS halt meint, so n Update nachschieben zu müssen, wenn der GT200 schon fertig ist, kann NV da ja nichts machen. Und ich sehe keine Totrede-Aktion à la "DX10.1 schei0e, DX10.0 toll" seitens NV. Kannst mir aber gerne n Link aufzeigen. Der Vorteil von DX10.1 ist unbestreitbar, das weiß NV.

vinacis_vivids
2009-05-16, 14:39:21
Was ist an einem G92 verkrüppelt? Und welche Schweinerei? EDITDer G92 wurde nie (!) umbenannt.Ich wüsste auch nicht, was an einer G92-basierten Karte wie der GTS 250 so unglaublich schei0e sein sein soll, im Vergleich zu einer HD4850 etwa.Es ist an AMD, DX10.1 zu puschen. Wenn MS halt meint, so n Update nachschieben zu müssen, wenn der GT200 schon fertig ist, kann NV da ja nichts machen. Und ich sehe keine Totrede-Aktion à la "DX10.1 schei0e, DX10.0 toll" seitens NV. Kannst mir aber gerne n Link aufzeigen. Der Vorteil von DX10.1 ist unbestreitbar, das weiß NV.

Dass du die Punkte nicht siehst ist mir schon klar :wink:

Grestorn
2009-05-16, 14:45:35
Dass du die Punkte nicht siehst ist mir schon klar :wink:

Liste sie doch einfach mal auf damit wir alle lernen.

Dr. Cox
2009-05-16, 14:46:21
Jetzt hinkt Nvidia mit der Technick zurück (DX10.1) und die Technik wird totgeredet mit dem gebrandeten "Its meant to be played".

Jetzt sind die Rollen aber anders verteilt ;)

Früher war das so:

3dfx: Super Bildqualität (FSAA), aber fehlendes Hardware TNL

Nvidia: schlechtere Bildqualität (FSAA), aber Unterstützung von Hardware TNL

1999/2000 war Hardware TNL absolut überflüssig, es war einfach nur pures Marketing ohne praktischem Nutzen zu dieser Zeit. Das erste Spiel welches Hardware TNL wirklich nutzte, war meines Wissens nach (bitte korrigieren wenn falsch ;)) Battliefild 1942, welches im September 2002 erschien. Die ersten Hardware TNL-Karten konnten dieses Spiel eh nicht mehr auf Max flüssig spielen. Wer also 1999/2000 eine Grafikkarte gekauft hat, hätte also gut auf Hardware TNL verzichten können und wäre mit einer Voodoo 5 besser gefahren, zumal diese Karte auch von zukünftigen Prozessoren sehr profitiert hat, da sie sehr gut mit schnelleren CPUs skalierte.

Und heute ist es genau anders herum:

Nvidia: Super Bildqualität (SSAA/Hybridmodi, flimmerfreies AF, bis zu 64xAF dank 4x4, und im Treiber manuell anwählbares SSAA), aber fehlendes DX10.1

ATI: Sichtbar schlechtere Bildqualität (kein SSAA/Hybridmodi, flimmerndes AF, kein im Treiber anwählbares SSAA, da der Treiber entscheidet), dafür aber DX10.1

Da es aktuell nur sehr wenige DX10-Spiele gibt, ist DX10.1 im Moment genauso unsinnig, wie damals Hardware TNL. Stalker mit DX10.1 ist selbst mit einer HD4890 nicht flüssig spielbar, außerdem halten sich die Vorteile von DX10.1 in Grenzen, weshalb man derzeit mit der besseren Bildqualität (Nvidia) besser fährt als mit einem Feature welches einem nicht viel nutzt, da es keine sichtbaren Verbesserungen bring und sogar mangels leistungsfähiger Hardware nicht einmal flüssig darstellbar ist.

1999/2000 ist man auf Marketing hereingefallen und wählte sinnlose Quantität (Nvidia), anstatt Qualität (3dfx)

2008/2009 ist man endlich etwas weiter und wählt lieber Qualität (Nvidia) vor Quantität (ATI)

Ich hoffe ich habe das einigermaßen verständlich herübergebracht. Im Übrigen arbeiten die meisten ehemaligen 3dfx-Leute bei Nvidia. Das könnte übrigens auch ein Grund sein, weshalb Nvidia uns diese Bildqualität liefert ;)




Dann hat Nvidia auch noch den chronischen V-RAm Speicherbug, der auch totgeredet wird.

Mir ist nur Bekannt dass dieser Fehler beim G80 auftrat und das auch nur bei der 8800GTS/320.

PS: Ich hatte bis zum Untergang von 3dfx nur Voodoo-Karten ;)

Voodoo 1/ Voodoo 3/ Voodoo 5 5500/ Geforce 4 TI 4200/ Radeon 9800 Pro/ Geforce 6800GT/ Geforce 7900GTX (wegen leiserem Lüfter)/ Geforce 8800GTX/ Radeon HD4870/1024MB/ Geforce GTX280

vinacis_vivids
2009-05-16, 14:51:27
Liste sie doch einfach mal auf damit wir alle lernen.

Ihr wisst schon, wovon ich rede :wink:

Gast
2009-05-16, 14:53:19
Ihr wisst schon, wovon ich rede :wink:

Nein Wissen wir nicht! Also klär uns dochmal auf.

Lawmachine79
2009-05-16, 14:53:59
Mir ist nur Bekannt dass dieser Fehler beim G80 auftrat und das auch nur bei der 8800GTS/320.


Damals war es vielleicht noch ein Bug, NV bricht aber generell stärker ein, wenn der VRAM leer ist.

Und daß ATI aus DX10.1 keine wesentlichen Vorteile ziehen kann, liegt schlicht an der Tatsache, daß Vista Akzeptanzprobleme hat und viele daher noch XP nutzen.

Dr. Cox
2009-05-16, 14:56:13
Damals war es vielleicht noch ein Bug, NV bricht aber generell stärker ein, wenn der VRAM leer ist.


Du meinst wohl voll ;)



Und daß ATI aus DX10.1 keine wesentlichen Vorteile ziehen kann, liegt schlicht an der Tatsache, daß Vista Akzeptanzprobleme hat und viele daher noch XP nutzen.

DX10 hat sich ja bisher auch nicht richtig durchgesetzt, mit DX11 wird das auch so sein....

Gast
2009-05-16, 14:58:13
J
Mir ist nur Bekannt dass dieser Fehler beim G80 auftrat und das auch nur bei der 8800GTS/320.

Es gibt keinen VRAM Bug.
Das die 8800 GTS 320 lahmt, wenn VRAM benötigt wird ist kein Bug.

Geiz ist geil, gelle. Ohne VRAM gehts halt nicht, kapierts doch mal, ohne TMUs gehts auch nicht bzw nur mit massiven Cheats. ;)

Dr. Cox
2009-05-16, 15:01:14
Geiz ist geil, gelle. Ohne VRAM gehts halt nicht, kapierts doch mal, ohne TMUs gehts auch nicht bzw nur mit massiven Cheats. ;)

Richtig :wink:

y33H@
2009-05-16, 15:19:40
Ob man das prozentual stärkere Einbrechen der GFs gegenüber den Radeons bei übervollem VRAM als Bug oder sonst was bezeichnet, ändert nichts an der Tatsache. In extremen Fällen produziert eine GF mit übervollem VRAM sogar Bildfehler bis hin zu Abstürzen/Blackscreens/Treiber-Resets [gerade wieder bei Stalker Complete 2009 gesehen].

@ vinacis_vivids

Spucks aus oder sei still. Aber erst flamen und sich dann auf Nachfrage hin zu verweigern, ist erbärmlich.

Banshee18
2009-05-16, 15:20:58
ATI kann selbst wenn sie es wollten die Filteroptimierungen der aktuellen Karten nicht einfach deaktivieren, da sonst eine HD4870/4890 von der Leistung her wegen der schwachen Texelleistung nur noch auf dem Niveau einer 9800GTX liegen würden:
Man könnte sagen, dass sie momentan genau dort hingehören. X-D
Jetzt sind die Rollen aber anders verteilt ;)

Früher war das so:...
:up:

Warum ist hier wieder ein User unterwegs, der eigentlich gesperrt ist?

Dr. Cox
2009-05-16, 15:24:57
Man könnte sagen, dass sie momentan genau dort hingehören. X-D


;D

Theoretisch ja, praktisch - dank AF-Optimierungen - jedoch nicht ;)

Würde ATI tatsächlich einen Schalter in den Catalyst einbauen, mit dem man die AF-Optimierungen deaktivieren könnte, dann wäre dies der "tot" ATIs. Dann wäre nämlich nichts mehr mit P/L-Verhältnis, wenn dann eine 210€ HD4890 einer 140€ teure 9800GTX unterliegen würde ;)

Gummikuh
2009-05-16, 15:39:55
Im Übrigen arbeiten die meisten ehemaligen 3dfx-Leute bei Nvidia. Das könnte übrigens auch ein Grund sein, weshalb Nvidia uns diese Bildqualität liefert ;)


Ähmmm da war doch was :uponder:

Aber hast ja könnte geschrieben.:wink:

Ich denke mal ab der GeForce 7 und dem Theater um die Optimierungen hat man halt umgedacht, aber man konnte es sich auch leisten.(Marktanteile!)

Bei ATI gingen die Marktanteile stetig zurück und dann noch der R600 Zombie und das Theater war perfekt.

Ergebnis = siehe momentane Situation.

Jake Dunn
2009-05-16, 15:48:32
;D

Theoretisch ja, praktisch - dank AF-Optimierungen - jedoch nicht ;)

Würde ATI tatsächlich einen Schalter in den Catalyst einbauen, mit dem man die AF-Optimierungen deaktivieren könnte, dann wäre dies der "tot" ATIs. Dann wäre nämlich nichts mehr mit P/L-Verhältnis, wenn dann eine 210€ HD4890 einer 140€ teure 9800GTX unterliegen würde ;)

Die GTX260 ist auch nicht langsamer ;)

9800GTX = 43200 MTex/s

GTX260 = 36864 MTex/s

Gast
2009-05-16, 15:49:49
Bei ATI gingen die Marktanteile stetig zurück und dann noch der R600 Zombie und das Theater war perfekt.

Ergebnis = siehe momentane Situation.
R600 wurde von Anfang an darauf ausgelegt, mit Einsparungen am Filter leben zu müssen.

Das die Performance trotz all dem am Ende nicht so glücklich war ist schon eine andere Geschichte.

Gast
2009-05-16, 15:52:37
Ich denke mal ab der GeForce 7 und dem Theater um die Optimierungen hat man halt umgedacht, aber man konnte es sich auch leisten.(Marktanteile!)

Eigentlich früher.
Die tolle AF Blume des NV30 war den Reviewern so egal wie die tolle Blume des NV25.
NV40 war der logische Schritt Richtung ATI.

AnarchX
2009-05-16, 15:52:38
R600 wurde von Anfang an darauf ausgelegt, mit Einsparungen am Filter leben zu müssen.

Wobei sich Eric Demers mal gegenüber 3DC geäußert haben soll, dass er über diesen Umstand nicht sonderlich zufrieden war.
Vielleicht hatte das Einfuß auf >=RV8x0.

Banshee18
2009-05-16, 15:56:36
Vielleicht hatte das Einfuß auf >RV8x0.
Auf RV8x0 nicht? Weißt du da Genaueres?

y33H@
2009-05-16, 15:56:45
@ Jake Dunn

Die alte EOL GTX 260-192 hat 36,9 GTex/s, die HD4890 [AMDs schnellste SGPU-Karte] nur 34 GTex/s - dafür aber bald das doppelte an FLOPS. Beschissenes Verhältnis imo. In extrem Texellastigen Games/Szenen steht eine 9800 GTX+ gegenüber einer GTX 260-192 tatsächlich sehr gut da, idR ist letztere dank den FLOPS, der Bandbreite sowie (gerade den) ROPs und der Pixelfillrate schneller.

Dr. Cox
2009-05-16, 16:04:18
Die GTX260 ist auch nicht langsamer ;)

9800GTX = 43200 MTex/s

GTX260 = 36864 MTex/s

Die 9800GTX ist auch ein Speicherkrüppel sondergleichen, 512MB und nur mickrige 70400 MB/s Speicherbandbreite bremsen diese ansonsten sehr leistungsfähige GPU massivst aus.
Die GTX260 hingegen hat ein "harmonischeres" Design, also mit 896MB Vram und 111888 MB/s Speicherbandbreite ist die GTX260 vom Gesamtkonzept klar besser aufgestellt ;)

Jake Dunn
2009-05-16, 16:04:58
Die alte EOL GTX 260-192 hat 36,9 GTex/s, die HD4890 [AMDs schnellste SGPU-Karte] nur 34 GTex/s - dafür aber bald das doppelte an FLOPS. Beschissenes Verhältnis imo. In extrem Texellastigen Games/Szenen steht eine 9800 GTX+ gegenüber einer GTX 260-192 tatsächlich sehr gut da, idR ist letztere dank den FLOPS, der Bandbreite sowie (gerade den) ROPs und der Pixelfillrate schneller.

An dem Beispiel oben sieht man aber das es nicht NUR auf Texelfüllrate ankommt und Aussage von Dr. Cox umsonst ist.

FLOPS in Theorie und Praxis unterscheiden sich (besonder bei ver. Architekturen) das weißt du auch.;)

Dr. Cox
2009-05-16, 16:11:01
Auf RV8x0 nicht? Weißt du da Genaueres?

Angeblich könnte die HD5870 96 TMUs bekommen, wenn man dieser Seite hier glauben schenkt:

http://www.hexus.net/content/item.php?item=18240

Damit hätte die HD5870 86400 MTex/s, also mehr als doppelt so viel wie die GTX260 ;)


An dem Beispiel oben sieht man aber das es nicht NUR auf Texelfüllrate ankommt und Aussage von Dr. Cox umsonst ist.

FLOPS in Theorie und Praxis unterscheiden sich (besonder bei ver. Architekturen) das weißt du auch.;)

Dann deaktiviere mal mit dem ATI-Tray-Tool in Gothic 3 oder Stalker die AF-Optimierungen deiner HD48X0, du wirst dich ganz schön erschrecken wie viel Frames dir noch bleiben ;)

y33H@
2009-05-16, 16:17:03
FLOPS in Theorie und Praxis unterscheiden sich (besonder bei ver. Architekturen) das weißt du auchJepp, die GT200er sind in der Praxis näher an den theoretischen Werten als die RV770 *gab da mal n Artikel*

Um mal wieder näher ans Topic zu kommen: Ich fange heute an mit einer GTX280 und einer HD4870 702p-Videos mit HQ-alles-aus, Q-default, AI-default und AI-off zu machen. Zudem Benches mit diesen Settings. Vorschläge und Ideen bitte posten.

Aktuelle Planung:

1.680 x 1.050, no MSAA/AF [nur Bench]
1.680 x 1.050, 4x MSAA/16:1 AF [Video + Bench]
1.920 x 1.200, 4x MSAA/16:1 AF [Video + Bench]

* CoD4
* Crysis
* Fallout 3 mit HD-Pack
* GTA4
* HL2 CM10 Beta
* Stalker SoC mit Mods
* UT3
* WoW

Ist aktuell alles auf privater Ebene, ergo bitte nicht rummaulen à la "warum nicht Karte X oder Karte Y". THX.

Grestorn
2009-05-16, 16:19:55
Ihr wisst schon, wovon ich rede :wink:

Nein, nicht wirklich.

Zum nicht totzukriegenden "Speicherbug":

Den "Speicherbug" gab es nie. Es ist kein Bug, wenn eine Architektur mehr Speicher benötigt als eine andere. Es ist schlicht ein Nachteil, nicht mehr und nicht weniger.

Dr. Cox
2009-05-16, 16:28:38
Um mal wieder näher ans Topic zu kommen: Ich fange heute an mit einer GTX280 und einer HD4870 702p-Videos mit HQ-alles-aus, Q-default, AI-default und AI-off zu machen. Zudem Benches mit diesen Settings. Vorschläge und Ideen bitte posten.


Echt gute Idee ;)

Gothic 3 wäre auch nicht schlecht, da gerade hier die Texturen extremst flimmern. 1680X1050 reicht meiner Meinung nach vollkommen aus, wird sonst zu viel, außerdem werden die Videos sonst zu groß.

AnarchX
2009-05-16, 16:37:04
Auf RV8x0 nicht? Weißt du da Genaueres?
Halt ">=RV8x0", bleibt die Frage wie weit dieser von RV7xx entfernt sein wird, momentan sieht es ja eher nach keinen großen Änderungen aus.

Schon bei RV670 sprachen Folien an die Partner von einer besseren Filterqualität, aber daraus ist ja offensichtlich nichts geworden, entweder gab es Kommunikationsprobleme zwischen Marketing und Technik oder man musste gegen die 8800GT die plötzlich mit 56TMUs daherkam alle Ressourcen mobilisieren und ließ eine eventuelle Treiberanpassung für bessere AF-Qualität in der Schublade verschwinden. Aber das sind nur Spekulationen.

Naja, in vielleicht ~ 6 Monaten wissen wir mehr.

Gast
2009-05-16, 16:41:21
Schon bei RV670 sprachen Folien an die Partner von einer besseren Filterqualität,
Link pls

y33H@
2009-05-16, 16:42:22
@ Dr. Cox

Videos eh nur 720p. Die Auflösungen bezogen sich auf die Benches.

_DrillSarge]I[
2009-05-16, 17:42:34
Jepp, die GT200er sind in der Praxis näher an den theoretischen Werten als die RV770 *gab da mal n Artikel*

Um mal wieder näher ans Topic zu kommen: Ich fange heute an mit einer GTX280 und einer HD4870 702p-Videos mit HQ-alles-aus, Q-default, AI-default und AI-off zu machen. Zudem Benches mit diesen Settings. Vorschläge und Ideen bitte posten.

Aktuelle Planung:

1.680 x 1.050, no MSAA/AF [nur Bench]
1.680 x 1.050, 4x MSAA/16:1 AF [Video + Bench]
1.920 x 1.200, 4x MSAA/16:1 AF [Video + Bench]

* CoD4
* Crysis
* Fallout 3 mit HD-Pack
* GTA4
* HL2 CM10 Beta
* Stalker SoC mit Mods
* UT3
* WoW

Ist aktuell alles auf privater Ebene, ergo bitte nicht rummaulen à la "warum nicht Karte X oder Karte Y". THX.
nice :).
aber ut3 kannst du streichen, weil shaderflimmern alles überdeckt. da ist es eigentlich schon wieder egal, wie schlecht gefiltert wird. :D
nimm stattdessen UT2004, gerade da fallen sparfilter sehr auf.

Mr. Lolman
2009-05-16, 17:46:14
Jepp, die GT200er sind in der Praxis näher an den theoretischen Werten als die RV770 *gab da mal n Artikel*

Um mal wieder näher ans Topic zu kommen: Ich fange heute an mit einer GTX280 und einer HD4870 702p-Videos mit HQ-alles-aus, Q-default, AI-default und AI-off zu machen. Zudem Benches mit diesen Settings. Vorschläge und Ideen bitte posten.


Ferrari Virtual Race wär imo auch interessant.

y33H@
2009-05-16, 17:52:23
I[]nimm stattdessen UT2004, gerade da fallen sparfilter sehr aufStimmt, gute Idee. Zudem ziemlich Fillrate-lastig.
Ferrari Virtual Race wär imo auch interessant.Weil flimmeranfällig? Hat das ne Cockpit oder "Ego"-Perspektive und das HUD lässt sich abschalten?

Lawmachine79
2009-05-16, 18:52:10
Eigentlich früher.
Die tolle AF Blume des NV30 war den Reviewern so egal wie die tolle Blume des NV25.
NV40 war der logische Schritt Richtung ATI.
Die Blume war auch so ziemlich das einzige, was der NV30 ruckelfrei darstellen konnte.
Damals ging es nicht um BQ bei höchsten Settings, damals ging es darum, daß man mit ATI in ganz anderen Settings spielen konnte und daher in der "spielabhängigen" BQ vorne lag. Selbst wenn der NV30 theoretisch besser filtern konnte und einfach schönere Bilder auf den Schirm zaubert, müssen sich Bilder auch bewegen und zwar häufiger als 3 mal pro Sekunde. Jetzt ist die Situation grundlegend anders, die Karten liegen nah beieinander, man kann Spiele in sehr hohen Settings spielen mit AA+AF - da bekommt die maximale BQ, die eine Karte darstellen kann, wieder eine höhere Bedeutung.

Lawmachine79
2009-05-16, 20:09:35
I[;7302199']
das ist schwachsinn. das full-.net3.5sp1-package laden und installieren.
den link zu den "tipps" hätt ich gern mal.
http://www.pc-experience.de/wbb2/thread.php?threadid=26431
Hier habe ich mal einen kompletten Workshop, wo empfohlen wird, sämtliche .NET Packages zu installieren :).

_DrillSarge]I[
2009-05-16, 20:31:41
http://www.pc-experience.de/wbb2/thread.php?threadid=26431
Hier habe ich mal einen kompletten Workshop, wo empfohlen wird, sämtliche .NET Packages zu installieren :).
wie gesagt

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7302944#post7302944

€: der rest der anleitung geht ja noch, aber das mit dem .net gefrickel ist unsinn.

Lawmachine79
2009-05-16, 20:36:42
I[;7304183']wie gesagt

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7302944#post7302944

€: der rest der anleitung geht ja noch, aber das mit dem .net gefrickel ist unsinn.
Wie gesagt, mir hat es geholfen, wobei ich nicht weiß, ob es am Guide lag. Aber es ist Sache des IHV, daß nicht erst jemand auf die Idee kommt, solche Guides zu schreiben, weil es Out-Of-The-Box nicht klappt. Die Konfiguration der Config.Sys und Autoexec.Bat um viel konventionellen Speicher zu bekommen, das händische Konfigurieren von Sound- und Netzwerkkarten, damit das IRQ- und Portgezicke unter Windows 95 aufhört, ging immer leicht von der Hand. Sogar ein Plattformwechsel von KT266A auf NForce 4, nebst neuer Graka und Soundkarte ging glatt, OHNE XP neu aufzusetzen.Und dann, im Jahre 2009, darf man sich mit so etwas bei einer Grafikkarteninstallation (!) rumschlagen.

_DrillSarge]I[
2009-05-16, 20:41:26
Wie gesagt, mir hat es geholfen, wobei ich nicht weiß, ob es am Guide lag. Aber es ist Sache des IHV, daß nicht erst jemand auf die Idee kommt, solche Guides zu schreiben, weil es Out-Of-The-Box nicht klappt. Die Konfiguration der Config.Sys und Autoexec.Bat um viel konventionellen Speicher zu bekommen, das händische Konfigurieren von Sound- und Netzwerkkarten, damit das IRQ- und Portgezicke unter Windows 95 aufhört, ging immer leicht von der Hand. Sogar ein Plattformwechsel von KT266A auf NForce 4, nebst neuer Graka und Soundkarte ging glatt, OHNE XP neu aufzusetzen.Und dann, im Jahre 2009, darf man sich mit so etwas bei einer Grafikkarteninstallation (!) rumschlagen.
unter winxp hatte ich auch mal probleme mit .net und weigerung des ccc zu starten. unter vista ist das deutlichst unproblematischer, da .net u.a. fest integriert ist (unter vista hatte ich nie ein problem mit dem ccc o.ä.). vielleicht legt man ja auch mehr sorgfalt auf vista-treiber (imo gabs ja auch mal so eine aussage: "wir bauen lieber ein neues feature in vista ein, als zwei in xp").

Gast
2009-05-16, 20:54:50
...und vergesse .NET zu installieren; dann soll er eine Fehlermeldung bringen, dann installiere ich .NET und spätestens dann MUSS es funktionierenEigentlich sollte es exakt so ablaufen. Letzte Woche habe ich auf dem Notebook eines Freundes das CCC installieren wollen, allerdings die vorherige Installation des .NET-Frameworks vergessen. Ich wurde mit einem Popup auf das Fehlen hingewiesen und lud daraufhin .NET 3.5 SP1 (ob Webinstaller oder Redist weiß ich leider nicht mehr) von der MS-Seite runter, woraufhin die Installation einwandfrei funktionierte. Allerdings musste ich mich dann über während der Installation eingeblendete Werbung ärgern, was ich überhaupt nicht abkann. Nvidia hatte auch mal einen bestimmten Betatreiber mit Werbung für ein Spiel versehen. Damals beschwerte ich mich bei NV. War wohl nicht der einzige, denn dies war der letzte Treiber seitens NV mit Werbung. Bin mal gespannt, ob ähnliches Vorgehen bei ATI auch zum Erfolg verhilft. Ich gebe doch kein Geld aus, um mir dann dämliche Werbung ansehen zu müssen. Es gibt wenig, was mich mehr nervt als Werbung. Wenn ich für ein Produkt bezahle, darf sowas einfach nicht sein. Von mir aus sollen sie die Karten halt 10 € teurer machen, aber so nicht. Wie lange befindet sich der Dreck denn schon im Catalyst-Installer?

Jake Dunn
2009-05-16, 21:02:57
Letzte Woche habe ich auf dem Notebook eines Freundes das CCC installieren wollen, allerdings die vorherige Installation des .NET-Frameworks vergessen. Ich wurde mit einem Popup auf das Fehlen hingewiesen...

Jep man wird darauf hingewiesen bei der Installation :) ich nehme immer nur das 2.0er Pack (SP2 derzeit) http://www.computerbase.de/downloads/software/betriebssysteme/microsoft_net_framework/ und noch nie Trouble gehabt.

Deinorius
2009-05-16, 22:32:48
Um mal wieder näher ans Topic zu kommen: Ich fange heute an mit einer GTX280 und einer HD4870 702p-Videos mit HQ-alles-aus, Q-default, AI-default und AI-off zu machen. Zudem Benches mit diesen Settings. Vorschläge und Ideen bitte posten.


Tolle Idee, wie willst du eigentlich die Videos komprimieren? Ich nehme mal an, es wird mit x264 passieren. Hast du eh alles dafür? Die Videos sollen ja auch nicht zu groß werden.

y33H@
2009-05-16, 23:05:36
Ich muss mal schauen wie ich das mache. Aktuell sinds pro Video halt 100-250 MiB, da Fraps AVIs macht. Am liebsten gar nicht komprimieren, da gerade das Flimmern sonst schnell "zerdampft" wird ... und ich tue mir jez schon teils schwer, Unterschiede glasklar zu erkennen. Crysis etwa sieht man 1A nen Unterschied, CoD4 ists verdammt schwer.

Wie gesagt mal schauen, an Tools sollte es nicht mangeln.

Deinorius
2009-05-16, 23:19:02
An den Codec-Einstellungen solls nicht mangeln, aber wenn du dich um das Flimmern sorgst, warum dann nicht die Auflösung beibehalten? Avisynth und MeGUI (ich nehm mal an, .NET hast eh) und mit crf 20-18 solltest vernünftige Qualität kriegen. Oder vielleicht gleich bei 720p testen.

_DrillSarge]I[
2009-05-17, 00:13:22
Stimmt, gute Idee. Zudem ziemlich Fillrate-lastig.
wenn du schon ut2004 hast, kannst du auch mal die mod strikeforce testen.
http://www.strikeforcegame.com/
das hat des öfteren tendenziell flimmeranfälligen content.
battlefield 1942 ist auch so ein kanidat, wobei da manches überall flimmern dürfte.

fdk
2009-05-17, 00:40:24
Um mal wieder näher ans Topic zu kommen: Ich fange heute an mit einer GTX280 und einer HD4870 702p-Videos mit HQ-alles-aus, Q-default, AI-default und AI-off zu machen. Zudem Benches mit diesen Settings. Vorschläge und Ideen bitte posten.

tf2 falls du das hast. Durch den comicstil sehr flimmeranfällig.

zB.:
http://www.hlportal.de/images/images/original/22851.jpg
http://www.hlportal.de/images/images/original/22931.jpg

y33H@
2009-05-17, 02:11:44
BF 1942 lass ich mal weg ... sollten schon halbwegs aktuelle und populäre Titel/Mods sein.

Gast
2009-05-17, 02:18:10
BF 1942 lass ich mal weg ... sollten schon halbwegs aktuelle und populäre Titel/Mods sein.

Dalli Dalli ich will Videos sehn ;)

y33H@
2009-05-17, 02:39:47
CoD4, Crysis und Stalker sind fertig ;)

Savay
2009-05-17, 14:57:59
... und ich tue mir jez schon teils schwer, Unterschiede glasklar zu erkennen.

qft

CoD4 hat aber auch sehr schwammige texturen die nicht sonderlich hochfrequent sind...

stellst du bei WoW auch die schatten auf "aus"...die flimmern nämlich immer und überdecken ja teils das texturflimmern. AI off ist in WoW aber generell keine gute idee da die alphatests dann bildfehler produzieren und sich am texturflimmern nichts ändert

uweskw
2009-05-17, 15:00:28
Scheinen doch nicht so gravierend zu sein die BQ Unterschiede, wenn ATI dadurch dann so viel einspart ist es eigentlich clever bzw sehr effizient

Savay
2009-05-17, 15:02:50
sollte aber trotzdem abschaltbar sein...und wenn es nur inoffziell über registry flags ist und nicht im CCC anwählbar.

ich finds nicht übermäßig tragisch wie die HDs auf AI on flimmern aber trotzdem ist es ne baustelle die ATI mal angehen muss...aber solange ich nocht mit jeder GPU generation einen faktischen BQ gewinn bekomme soll es mir recht sein selbst wenn es wie im falle der HD eher der sehr hohen performance und nutzbarkeit der BQ features geschuldet ist und nicht der absolut möglichen BQ...

LovesuckZ
2009-05-17, 15:03:31
Sparen auf Kosten der Bildqualität ist nicht "effizient". Denn was bringt mir die beste Effizienz, wenn sie irgendwann gegen die Wand läuft. :rolleyes:

Savay
2009-05-17, 15:11:31
Effizienz (v. lat.: efficere „zustande bringen“) ist das Verhältnis vom Nutzen zu dem Aufwand, mit dem der Nutzen erzielt wird. Stellt man Nutzen und Aufwand jeweils als Zahlenwert dar, gilt im Allgemeinen: Effizienz gleich Nutzen geteilt durch Aufwand. Ein effizientes Verhalten führt wie auch ein effektives Verhalten zur Erzielung einer Wirkung und hält dabei den dafür notwendigen Aufwand möglichst gering (vergl. Ökonomisches Prinzip).

dazu gehört auch das ausbalancieren eines transistor budgets im verhältniss zur lieferbaren BQ/leistung... :rolleyes:

LovesuckZ
2009-05-17, 15:18:28
Und wie kann AMD hier effizient sein, wenn sie beim rv670 mit 666 Millionen Transistoren nur 16 TMUs verbauen? Dagegen ist ihre Shaderarchitektur höchst uneffizient, da sie nie richtig ausgelastet werden kann.

/edit: Und auf Kosten von deutlichen Abstrichen kann von keiner Effizienz gesprochen, wenn das grundlegende Ergebnis nicht erreicht wird.

y33H@
2009-05-17, 15:35:09
@ Savay

Ich weiß, dass die Texturen eines Schlauch-Moorhuhn-Shooter-Konsolen-Ports nicht der Kracher sind. Darum gehts aber nicht ... ich will aktuelle Titel beleuchten und da fällt halt CoD4 [MP und so] auch mit rein.aber solange ich nocht mit jeder GPU generation einen faktischen BQ gewinn bekomme R500-Series auf R600/RV670/RV770 gings abwärts.

Savay
2009-05-17, 15:40:40
ich weiß das die absolute theoretisch mögliche BQ runter gegangen ist...faktisch ist sie aber gestiegen weil meine RV570 einfach viel zu lahmarschig für (6)8xMSAA mit Q-AAA und 16xAF war :rolleyes:

was nützt mir eine bessere BQ wenn die rohleistung dafür sowieso nicht ausreicht...

ausserdem will ich zocken und nicht pixelzählen...und das möglichst mit spielbaren settings und einem möglichst ruhigem bild.

y33H@
2009-05-17, 15:42:53
faktisch ist sie aber gestiegen weil meine RV570 einfach viel zu lahmarschig für (6)8xMSAA mit Q-AAA und 16xAF waDas kann man so nicht vergleichen. Man muss GPUs immer im Rahmen ihrer Zeit betrachten. Und mit einer X1950XTX konnte man HL2 mit 6x MSAA zocken.

Savay
2009-05-17, 15:48:36
ja aber was interessiert es mich was meine RV570 vor 3 jahren konnte wenn ich JETZT spielen will...WoW BC konnte ich seinerzeit noch nie wirklich mit 6xMSAA und Q-AAA spielen erstrecht nicht mit AI off...

und wenn GPUs schon nur ihm rahmen ihrer zeit betrachtet werden dürfen kann man die vergleiche über generationen hinweg auch gleich sein lassen...also lasst den R5x0 und den G7x endlich mal ruhen.

aber fakt ist ich habe beim umstieg vom RV570 zum RV770 nicht an faktischer BQ in spielbaren settings verloren...eher im gegenteil. :)

uweskw
2009-05-17, 15:50:05
Und auf Kosten von deutlichen Abstrichen kann von keiner Effizienz gesprochen, wenn das grundlegende Ergebnis nicht erreicht wird.

Vom gebetsmühlenhaften wiederholen werden die Auswirkungen auch nicht sichtbarer.
Wenn ein Profi wie y33H@ mit dem Vorsatz antritt die ach so schlechte BQ der ATIs aufzuzeigen und selbst er dabei anscheinend Schwierigkeiten hat, kanns garnicht soooo wild sein wie immer behaupted wird.
Aber vielleicht kann man ja mit realitätsfremden Settings (Schatten aus usw.) hier doch noch was sichtbar machen....

Wenn es ATI gelungen ist durch 2-3% Qualitätsverlust die Graka Preise um mehr als die Hälfte zu senken, kann ich nur sagen: GRATULATION, Hirn vor Muskeln

Greetz

y33H@
2009-05-17, 15:51:29
selbst er dabei anscheinend Schwierigkeiten hatIch sagte nur, bei CoD4 sieht man es schwer [was aber am Content liegt] ;) Bei Crysis oder HL2 fällt es sofort auf.

Wie kommst du darauf, ich sei ein Profi? ;D *g*

Savay
2009-05-17, 15:53:57
Bei Crysis oder HL2 fällt es sofort auf.

was demzufolge im umkehrschluss dann wohl auch am content liegt :tongue:

Gast
2009-05-17, 15:56:04
Vom gebetsmühlenhaften wiederholen werden die Auswirkungen auch nicht sichtbarer.
Wenn ein Profi wie y33H@ mit dem Vorsatz antritt die ach so schlechte BQ der ATIs aufzuzeigen und selbst er dabei anscheinend Schwierigkeiten hat, kanns garnicht soooo wild sein wie immer behaupted wird.
Aber vielleicht kann man ja mit realitätsfremden Settings (Schatten aus usw.) hier doch noch was sichtbar machen....


Vieleicht solltest du mal besser lesen und dir mal die Witcher Videos reinziehn oder kannst du das durch deine rote Brille nicht erkennen?

Lawmachine79
2009-05-17, 15:56:21
Vom gebetsmühlenhaften wiederholen werden die Auswirkungen auch nicht sichtbarer.
Wenn ein Profi wie y33H@ mit dem Vorsatz antritt die ach so schlechte BQ der ATIs aufzuzeigen und selbst er dabei anscheinend Schwierigkeiten hat, kanns garnicht soooo wild sein wie immer behaupted wird.
Aber vielleicht kann man ja mit realitätsfremden Settings (Schatten aus usw.) hier doch noch was sichtbar machen....

Wenn es ATI gelungen ist durch 2-3% Qualitätsverlust die Graka Preise um mehr als die Hälfte zu senken, kann ich nur sagen: GRATULATION, Hirn vor Muskeln

Greetz
Sowas kann man nicht auf Video aufnehmen. Wenn man vergleicht, sieht man es und wenn man länger auf einer NV gespielt hat und dann auf ATI, sieht man es auch. Und wenn man dann noch SSAA einschaltet (wo möglich) ist es ein regelrechter Klassenunterschied. GTR2 und BF2 z.B. sehen auf der NV eine ganze Klasse besser aus, weil ich in 16xS spielen kann.

Savay
2009-05-17, 16:02:50
wieso kann man es nicht auf video aufnehmen wenn unkomprimiert in nativer auflösung gespeichert wird?:|

Lawmachine79
2009-05-17, 16:09:21
wieso kann man es nicht auf video aufnehmen wenn unkomprimiert in nativer auflösung gespeichert wird?:|
Achso, okay, das sollte gehen. Und zwar NUR dann.

LovesuckZ
2009-05-17, 16:10:10
Vom gebetsmühlenhaften wiederholen werden die Auswirkungen auch nicht sichtbarer.
Wenn ein Profi wie y33H@ mit dem Vorsatz antritt die ach so schlechte BQ der ATIs aufzuzeigen und selbst er dabei anscheinend Schwierigkeiten hat, kanns garnicht soooo wild sein wie immer behaupted wird.
Aber vielleicht kann man ja mit realitätsfremden Settings (Schatten aus usw.) hier doch noch was sichtbar machen....

Wenn es ATI gelungen ist durch 2-3% Qualitätsverlust die Graka Preise um mehr als die Hälfte zu senken, kann ich nur sagen: GRATULATION, Hirn vor Muskeln

Greetz

So ein Quatsch, nVidia erreicht die selbe "Billigqualität". Und man kann beide "Billigeinstellungen" vergleichen. Aber man darf eben nicht auf diesem Niveau bleiben. Wer das nicht sieht oder versteht, der sollte wirklich mehr "Hirn vor Muskeln" anwenden.

y33H@
2009-05-17, 16:10:35
@ warmachine79

Exakt das mache ich auch: 1.280 x 720 mit 4x MSAA @ max. Details per Fraps aufnehmen.

Gast
2009-05-17, 16:14:34
@ warmachine79

Exakt das mache ich auch: 1.280 x 720 mit 4x MSAA @ max. Details per Fraps aufnehmen.

Wann gibts die ersten Videos? Heut noch? :)

y33H@
2009-05-17, 16:17:09
Fertig sind schon einige ... wo außer Rapid oder Megaupload kann mehr als 250 MiB hochpumpen?

EDIT
Ich schiebs per Mega hoch.

Gast
2009-05-17, 16:18:17
Bei PCGH. :tongue:

Schlammsau
2009-05-17, 16:18:54
Komprimierst du die Videos? Wenn ja mit welchem Codec? x264 oder Xvid? Ich würde dir ersteres empfehlen!

Lawmachine79
2009-05-17, 16:19:45
So ein Quatsch, nVidia erreicht die selbe "Billigqualität". Und man kann beide "Billigeinstellungen" vergleichen. Aber man darf eben nicht auf diesem Niveau bleiben. Wer das nicht sieht oder versteht, der sollte wirklich mehr "Hirn vor Muskeln" anwenden.
Ich glaube er meint damit, daß man fürs gleiche Geld die Details wg. höherer Leistung höherschrauben kann und dadurch eine höhere spielbedingte BQ hat.
Und zumindest in diesem Beispiel:
http://geizhals.at/deutschland/a358946.html
hat er damit Recht. Soviel Power kriegst Du bei NV nicht für 130€. Ich gehöre aber zu den Leuten, die dann eben 20€ drauflegen (260²) und dann habe ich die Power + bessere BQ + SSAA + bessere Treiber (Installation + Bevormundung).
Zumal ich für eine 1024MB Radeon auch schon bei fast 150€ bin.
http://geizhals.at/deutschland/a390240.html
Andererseits muss man fairerweise sagen, daß NV mehr auf Speicher >512MB angewiesen ist als ATI weil NV deutlich stärker einbricht wenn der Speicher alle ist.

LovesuckZ
2009-05-17, 16:22:05
Ich glaube er meint damit, daß man fürs gleiche Geld die Details wg. höherer Leistung höherschrauben kann und dadurch eine höhere spielbedingte BQ hat.

Was in anbetracht der Tatsache, dass das Konkurrenzprodukt mit besserer AF gleichschnell ist wie das eigene Produkt mit minderwertige Filterung, ziemlicher Hohn ist.

/edit: Für 6€ mehr bekommt man eine GTX260-192.

uweskw
2009-05-17, 16:23:30
wenn Du es mit WinRar packst, kannst du es auf beliebig viele Archive aufteilen, so geht auch der Upload schneller
Übreigens, toll das Du dir die Mühe machst.
Greetz

Deinorius
2009-05-17, 16:24:04
Fertig sind schon einige ... wo außer Rapid oder Megaupload kann mehr als 250 MiB hochpumpen?


Über 250 MB? Hast du jetzt 720p oder höher verwendet? Mit x264 solltest du wesentlich kleinere Größen bekommen können. Ich weiß ja nicht, wie lang die Videos sind, aber mehr als 4000-6000 kbit/s sollten wirklich nicht nötig sein, wenn überhaupt. Wie schon gesagt, rate ich dir zu crf 18 (Constant Quality, obwohl 20 auch ginge).

Lawmachine79
2009-05-17, 16:24:10
Was in anbetracht der Tatsache, dass das Konkurrenzprodukt mit besserer AF gleichschnell ist wie das eigene Produkt mit minderwertige Filterung, ziemlicher Hohn ist.
Das weiß man ja leider nicht, weil ATI das qualitativ gleichwertige AF (wahrscheinlich aus gutem Grund) nicht zugänglich macht.

LovesuckZ
2009-05-17, 16:27:43
Das weiß man ja leider nicht, weil ATI das qualitativ gleichwertige AF (wahrscheinlich aus gutem Grund) nicht zugänglich macht.

Man weiß aber, dass HQ zu Q maximal 10% verbraucht - oft sind es deutlich weniger.
Frank1974 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7244748&postcount=52) hat einen schönen Vergleich gemacht. Und das unterscheidet sich nicht großartig vom Ergebnis, dass ich November 2006 mit meiner 8800GTX gemacht habe.
Fakt ist, dass man bei HQ-AF bei nVidia fast kostenlos erhält.

y33H@
2009-05-17, 16:28:05
@ Deinorius

Die Crysis-Vids sind 720p als unkomprimierte AVI und gehen 9sec. Sind je etwas über 200 MiB bei laut Dateiinfo fast 200.000 kbit/s. Aktuell ist mir die Größe eh noch egal, dauert nun halt ne Stunde bis alles drei Crysis-Vides geupt sind.

uweskw
2009-05-17, 16:28:55
Was in anbetracht der Tatsache, dass das Konkurrenzprodukt mit besserer AF gleichschnell ist wie das eigene Produkt mit minderwertige Filterung, ziemlicher Hohn ist.

/edit: Für 6€ mehr bekommt man eine GTX260-192.

Nochmal:
Es sollte allen klar sein, dass ohne den Erfolg der HD4xxx Serie eine 280GTX heute noch deutlich mehr als 500€ kosten würde.

Gast
2009-05-17, 16:29:10
/edit: Für 6€ mehr bekommt man eine GTX260-192.
Also mit den gesparten 6€ bekommt man deutlich weniger VRAM, schlechtere Filterung und kein SSAA.

Weil nur Shader zu BQ gehören kann man mit der 4870 auch beruhigt in die vollen gehen, bei 512MiB VRAM sind die Reserven gewaltig.

Sehr gutes Argument pro Filtercheats. :rolleyes:

LovesuckZ
2009-05-17, 16:30:33
Nochmal:
Es sollte allen klar sein, dass ohne den Erfolg der HD4xxx Serie eine 280GTX heute noch deutlich mehr als 500€ kosten würde.

Was soll uns das sagen? Selbst ION bietet eine bessere AF als AMD mit ihrer HD4 Serie - billig hin, billig her.

Gast
2009-05-17, 16:30:41
Es sollte allen klar sein, dass ohne den Erfolg der HD4xxx Serie eine 280GTX heute noch deutlich mehr als 500€ kosten würde.
1. Unfug.
2. Was hat das mit Filtercheats zu tun?
3. Inwiefern erlaubt es dies AMD an den TMUs zu sparen und dem Nutzer zu bevormunden?

Gast
2009-05-17, 16:32:03
Nochmal:
Es sollte allen klar sein, dass ohne den Erfolg der HD4xxx Serie eine 280GTX heute noch deutlich mehr als 500€ kosten würde.

Ja und? Was hat das mit dem Threadtopic zu tun?

uweskw
2009-05-17, 16:35:36
@ Deinorius

Die Crysis-Vids sind 720p als unkomprimierte AVI und gehen 9sec. Sind je etwas über 200 MiB bei laut Dateiinfo fast 200.000 kbit/s. Aktuell ist mir die Größe eh noch egal, dauert nun halt ne Stunde bis alles drei Crysis-Vides geupt sind.

Lass dir Zeit, jetzt haben wir solange auf aussagefähige Vergleiche gewartet, dann lieber ein paar Stunden mehr warten als durch Kompression die Aussagefähigkeit zu verlieren.

Greetz

y33H@
2009-05-17, 16:39:29
Ich lass mir Zeit, keine Angst. Ich koch und dann Schatzi vögeln ;D Bis dahin sollten die Vids durch sein *g*

uweskw
2009-05-17, 16:44:02
1. Unfug.
2. Was hat das mit Filtercheats zu tun?
3. Inwiefern erlaubt es dies AMD an den TMUs zu sparen und dem Nutzer zu bevormunden?

ZU:
1. Wieviel haben wir für eine fast 2 Jahre alte 8800GTX gezahlt? NVs Preispolitik ist uns allen bekannt.
2. Wenn durch diese Filtercheats und den verbundenen 2-3% BQ Verlust der Erfolg der 4xxx Serie erst möglich wurde, so war das äuserst clever gemacht.
3. Ein deaktivieren der Filter-Optimierungen sollte zumindest durch 3rd Part. Tools möglich sein, da gebe ich allen vollkommen recht.

Greetz

Lawmachine79
2009-05-17, 16:44:30
Ach und mach mal nachm Vögeln noch Videos von GTR2.

y33H@
2009-05-17, 16:47:22
Bitte mit bitte ;D

Ist das arg flimmeranfällig oder wie?1. Wieviel haben wir für eine fast 2 Jahre alte 8800GTX gezahlt?Bis erscheinen der HD4k war das nach der Ultra die schnellste Karte, die schei0 X2 zählt imo nicht.den verbundenen 2-3% BQ Verlust Selbst gegenüber Q sinds mehr, gegenüber HQ lässt sich das nicht in Zahlen fassen.

LovesuckZ
2009-05-17, 16:49:45
ZU:
1. Wieviel haben wir für eine fast 2 Jahre alte 8800GTX gezahlt? NVs Preispolitik ist uns allen bekannt.


Und trotzdem filtert AMD's HD4 Serie nicht besser wie nVidia's "Entry-Line-Up" zur damaligen Zeit. Also, was hat AMD's schlechte Filterung mit der Preispolitik zu tun? :rolleyes:

Lawmachine79
2009-05-17, 16:54:09
Bitte mit bitte ;D

Ist das arg flimmeranfällig oder wie?Bis erscheinen der HD4k war das nach der Ultra die schnellste Karte, die schei0 X2 zählt imo nicht.Selbst gegenüber Q sinds mehr, gegenüber HQ lässt sich das nicht in Zahlen fassen.
Bei Rennspielen sieht man es besonders deutlich, Ferrari Virtual Race dürfte auch gut gehen.
ZU:
1. Wieviel haben wir für eine fast 2 Jahre alte 8800GTX gezahlt? NVs Preispolitik ist uns allen bekannt.

Das ist nicht NVs Preispolitik sondern ein Marktgesetz. Schimpft sich Angebot und Nachfrage.
Davon ab war das eine neue Architektur, da ist das normal. Die Preise für den NV40 waren auch exorbitant, beim G70 nicht mehr. Genauso ist es mit G80 und G92.
Der R300 war auch davon abgesehen bei Release auch kein Schnäppchen. ATI ist also nicht der süße rote Knuddelbär und mißhandelte Underdog, sondern eine stinknormale Firma die ihr Handeln nach den Gesetzen des Marktes ausrichtet.

Gast
2009-05-17, 17:25:09
Das ist nicht NVs Preispolitik sondern ein Marktgesetz. Schimpft sich Angebot und Nachfrage.
Allerdings, auch wenns schwer zu verstehen ist.

btw, die Antwort lautet: ~290€, d.h. mehr als für eine schnellere GTX 260 zum selben Zeitpunkt.

y33H@
2009-05-17, 17:44:46
UPDATE

Nun alles beisammen:

Crysis Warhead @ 720p

AI-default [RV770] (http://www.megaupload.com/?d=P8WK95BK) vs. Ai-off [RV770] (http://www.megaupload.com/?d=QBF381K5) vs. HQ ohne "Optimierungen" [GT200] (http://www.megaupload.com/?d=6KBKRHEC) vs. Q default [GT200] (http://www.megaupload.com/?d=5Q4A6O86) vs. HQ ohne "Optimierungen" mit 4x4 OGSSAA (http://www.megaupload.com/?d=QR61RRQR)

[Settings: 1.280 x 720 / 4x MSAA + 16:1 AF / Enthusiast]

uweskw
2009-05-17, 17:58:27
Grundsätzlich sollte man Treiberdefaut mit Treiberdefaut, also standart Einstellungen miteinander vergleichen. Also AI low mit Q. Alles andere ist nonsense.

Gast
2009-05-17, 18:04:07
Die Unterschiede sind für meine Augen drastisch und klar zu erkennen. Bei AMD flimmert es sichtlich stärker, zudem schiebt man zwei Banden vor sich her.

Wie bei The Witcher oder? Genau das hatte ich bei den Videos auch beobachtet.

Gast
2009-05-17, 18:07:04
Megaupload ist total lahm nur 40k

y33H@
2009-05-17, 18:10:54
Spiel Emo und geh weinen ... kann nix dafür.Grundsätzlich sollte man Treiberdefaut mit Treiberdefaut, also standart Einstellungen miteinander vergleichen.Sagt wer? Mal sollte beim benchen die gleiche BQ wählen, damits fair ist. Hier aber heißt es BQ gegen BQ. Und Q folgt ja noch.

Gast
2009-05-17, 18:13:20
Spiel Emo und geh weinen ... kann nix dafür.

Sagt doch auch keiner, aber gibt es da nicht vieleicht schnellere Freespaceanbieter?

Gast
2009-05-17, 18:13:49
2Stunden 50Min ist doch bissl lang für 1 Video :\

Deinorius
2009-05-17, 18:15:51
@ Deinorius

Die Crysis-Vids sind 720p als unkomprimierte AVI und gehen 9sec. Sind je etwas über 200 MiB bei laut Dateiinfo fast 200.000 kbit/s. Aktuell ist mir die Größe eh noch egal, dauert nun halt ne Stunde bis alles drei Crysis-Vides geupt sind.


Urgh, 440 MB mit 40 KB/s runter zu laden (simultan laden geht anscheinend nicht) ist aber nicht lustig. Das dauert über 3 h. Kannst ja dennoch nebenbei komprimierte erstellen. Du musst ja nicht stark komprimieren, alles besser als unkomprimiert. Sind die Videos wirklich unkomprimiert, oder zumindest mit einem Lossless Codec (z.B. Lagarith, x264 High Profile bietet auch Lossless) komprimiert. Kein Videokenner nutzt unkomprimierte Videos.

y33H@
2009-05-17, 18:16:09
aber gibt es da nicht vieleicht schnellere Freespaceanbieter?Ich kenn mich da nicht aus, keine Ahnung.Kein Videokenner nutzt unkomprimierte Videos.Ich bin hier nicht sonderlich tief in der Materie, ich hab einfach nur mal die unkomprimierten Versionen hochgeladen. Ich mache mir erst dann Gedanken übers wandeln/komprimieren, wenn ich alles beisammen habe. Aber danke.

Gast
2009-05-17, 18:22:07
Ich kenn mich da nicht aus, keine Ahnung.Ich bin hier nicht sonderlich tief in der Materie, ich hab einfach nur mal die unkomprimierten Versionen hochgeladen. Ich mache mir erst dann Gedanken übers wandeln/komprimieren, wenn ich alles beisammen habe. Aber danke.

http://qooy.com/index.php
Guck mal hier

Black-Scorpion
2009-05-17, 18:22:24
Nimm uploaded.to (http://uploaded.to).
Da kannst du auch bis zu 250MB hochladen und ist deutlich schneller.

Gast
2009-05-17, 18:22:46
Nimm uploaded.to (http://uploaded.to).
Da kannst du auch bis zu 250MB hochladen und ist deutlich schneller.

Nee bloß nicht, da ladet man auch nur mit 100k

y33H@
2009-05-17, 18:25:07
Update: Q

http://www.megaupload.com/?d=5Q4A6O86

Gast
2009-05-17, 18:34:23
Mein Gott, macht's doch so wie es der Gast auf Seite 14&19 mit seinen Witcher-Videos vorgemacht hat: Vernünftige Größe, entsprechend auch kein stundenlanges Downloaden.

Bezeichnend, dass das AI-OFF-Video, das wirklich gut aussieht, kaum Beachtung gefunden hat. Man will es offenbar gar nicht sehen, läßt es lieber versanden.

LovesuckZ
2009-05-17, 18:35:17
Ja, irgendein anderer Anbieter wäre klasse. :)

Grundsätzlich sollte man Treiberdefaut mit Treiberdefaut, also standart Einstellungen miteinander vergleichen. Also AI low mit Q. Alles andere ist nonsense.

Also auch App. AF und AA sowie die Default-Einstellungen der Spiele? :rolleyes:


Bezeichnend, dass das AI-OFF-Video, das wirklich gut aussieht, kaum Beachtung gefunden hat. Man will es offenbar gar nicht sehen, läßt es lieber versanden.

Verständlich. Sobald man zugibt, dass A.I off (deutlich) besser aussieht als A.I Low, hat man keinen Grund mehr die Verwendung in Benchmark zu negieren.

Gast
2009-05-17, 18:44:56
Bezeichnend, dass das AI-OFF-Video, das wirklich gut aussieht, kaum Beachtung gefunden hat. Man will es offenbar gar nicht sehen, läßt es lieber versanden.

Gut ja , aber gegen NV HQ kam es dann doch nicht an. Eigentlich ein Grund mehr besser gleich mit AI OFF zu benchen, damit das Beschei**en mal ein Ende hat.

Black-Scorpion
2009-05-17, 18:46:28
Nee bloß nicht, da ladet man auch nur mit 100k
Immerhin deutlich schneller wie 40kb. ;)

Gast
2009-05-17, 18:47:34
Immerhin deutlich schneller wie 40kb. ;)

Wenn es mal 40 wären *lach* ich lade gerade mit soliden 29k :D

Lawmachine79
2009-05-17, 18:49:09
Grundsätzlich sollte man Treiberdefaut mit Treiberdefaut, also standart Einstellungen miteinander vergleichen. Also AI low mit Q. Alles andere ist nonsense.
Joar, und wenn bei einem Spiel 800x600 voreingestellt ist vergleichen wir halt damit, nicht wahr? Hallo! Hier wird nicht HD4350 vs. 9300GT geprüft!
Es geht darum, wer die bessere BQ bieten kann und da muss dann alles aufgedreht werden! Wenn ATI nicht mehr BQ zur Verfügung stellt, ist es das Problem von ATI, deswegen werden wir die NV Karte nicht unterfordern. Wer irgendwelche Defaults vergleichen will, soll dafür XBOX und PS3 nehmen, da kann man eh nix verstellen. Wir wollen ja auch nicht gucken, was das häßlichste Bild ist, was gerendert werden kann, sondern das schönste Bild. Es geht hier um Perfomance- und Highend-Segment.


Bezeichnend, dass das AI-OFF-Video, das wirklich gut aussieht, kaum Beachtung gefunden hat. Man will es offenbar gar nicht sehen, läßt es lieber versanden.
Das Problem bei AI-Off ist, daß speilspezifische Optimierungen (also "positive" Optimierungen, nicht die Filtertricks) verloren gehen.

mapel110
2009-05-17, 18:51:17
Meine Meinung nach den Videos: AI low --> Q --> HQ

Kommt noch eine AI OFF-Version?

btw ich hab die Videos mit 400 KB/s gezogen. Keine Ahnung, was ihr für miese ISPs habt. :P

y33H@
2009-05-17, 18:59:20
Kommt noch eine AI OFF-Version?Die gibts die habe ich aber noch nicht fertig hochgeladen. Ich melde mich, wenn fertig.

Mr. Lolman
2009-05-17, 18:59:50
Spiel Emo und geh weinen ... kann nix dafür.Sagt wer? Mal sollte beim benchen die gleiche BQ wählen, damits fair ist. Hier aber heißt es BQ gegen BQ. Und Q folgt ja noch.

Q default = Q + triOpt?

Gast
2009-05-17, 19:00:26
Ich lade mit vollen 150 KB/s. Kinder geht woanders eure tollen Bandbreiten vergleichen. :P
http://www.ratemyeverything.net/image/1910/0/Bandwidth.ashx

y33H@
2009-05-17, 19:03:37
Q default = Q + triOpt?Jepp.

Gast
2009-05-17, 19:04:00
Nur zum Spass wären maximale Optimierungen vs maximale Optimierungen auch ganz interessant.
Ok, ist wohl recht aufwändig, vergiss es wieder. ;)

y33H@
2009-05-17, 19:11:39
Beschissene BQ gegen noch beschissenere BQ? ;D

Mr. Lolman
2009-05-17, 19:12:31
Jepp.

K. Was ist den bei den linken Kisten los? Hab mir gerade das Q Video angesehen und in den letzten paar Sekunden gibts aufeinmal ein alphatestaufpoppen, von so nem Gitter :|

EDIT: Achso, das ist das LOD. :eek:

EDIT2: Stimmt, Ati filtert die Texturen bei Crysis mit default nicht so schön, wie NV mit default. Wobei Crysis ohnehin so ne Sache ist, denn da flimmert alles. Alphatests, Schatten, SSAO. Insgesamt fällt so die Texturunruhe kaum auf. Ist auf jedenfall nix, was einen aus der Immersion reisst, da das Bild ansich schon dermaßen unruhig ist, so dass die zusätzliche Texturunruhe imo nicht hervorsticht. Bin schon gespannt auf die nächsten Videos, die nicht so viel Flimmercontent mitbringen wie Crysis.

y33H@
2009-05-17, 19:14:41
Das ist bei allem Videos so. Crysis (Warhead) hat ein grandioses LOD :usad:

Mr. Lolman
2009-05-17, 19:29:20
Das ist bei allem Videos so. Crysis (Warhead) hat ein grandioses LOD :usad:

Kann man aber schön tweaken. Die Mster Config ist in dieser Hinsicht fast perfekt.

Gast
2009-05-17, 19:31:10
EDIT2: Stimmt, Ati filtert die Texturen bei Crysis mit default nicht so schön, wie NV mit default. Wobei Crysis ohnehin so ne Sache ist, denn da flimmert alles. Alphatests, Schatten, SSAO. Insgesamt fällt so die Texturunruhe kaum auf. Ist auf jedenfall nix, was einen aus der Immersion reisst, da das Bild ansich schon dermaßen unruhig ist, so dass die zusätzliche Texturunruhe imo nicht hervorsticht. Bin schon gespannt auf die nächsten Videos, die nicht so viel Flimmercontent mitbringen wie Crysis.

Immer die selbe Leier...immer schön alles runterspielen ;)

Dr. Cox
2009-05-17, 19:33:29
@y33h@: Erst einmal danke für die Videos ;)

Leider kann man dank der generell flimmrigen Vegetation in Crysis keine Unterschiede erkennen. Andere Spiele sind dafür besser geeignet als Crysis (Warhead). Gothic 3, HL2, Chronicles of Riddick und Stalker sind meiner Meinung nach besser geeignet um die Unterscheide aufzudecken.

Gast
2009-05-17, 19:35:34
Leider kann man dank der generell flimmrigen Vegetation in Crysis keine Unterschiede erkennen. Andere Spiele sind dafür besser geeignet als Crysis (Warhead). Gothic 3, HL2, Chronicles of Riddick und Stalker sind meiner Meinung nach besser geeignet um die Unterscheide aufzudecken.

Warum soll es weniger geeignet sein, es gibt genug Stellen in Crysis wo man die Unterschiede sehen kann, legt euch nicht immer auf die eine Stelle fest.

y33H@
2009-05-17, 19:41:22
@ Mr. Lolman

Klar kann man das. Ich will aber Videos des AF machen und mehr nicht*g* Ich kann dir aber gerne n 720ü-Video mit allem hochgedonnert samt Mster und Rygel und 4x4 SSAA machen ... sofern 3x GTX285/2G das packen :D

Leider kann man dank der generell flimmrigen Vegetation in Crysis keine Unterschiede erkennen
Kleiner Tipp: Schau auf den Boden links neben den Gleisen und nicht aufs Gemüse :rolleyes: Ist schließlich viel mehr Boden als irgendwas andres in der Szene zu sehen:

http://www.abload.de/thumb/vlcsnap-181093um06.png (http://www.abload.de/image.php?img=vlcsnap-181093um06.png)



UPDATE

Nun alles beisammen:

Crysis Warhead @ 720p

AI-default [RV770] (http://www.megaupload.com/?d=P8WK95BK) vs. Ai-off [RV770] (http://www.megaupload.com/?d=QBF381K5) vs. HQ ohne "Optimierungen" [GT200] (http://www.megaupload.com/?d=6KBKRHEC) vs. Q default [GT200] (http://www.megaupload.com/?d=5Q4A6O86) vs. HQ ohne "Optimierungen" mit 4x4 OGSSAA (http://www.megaupload.com/?d=QR61RRQR)

[Settings: 1.280 x 720 / 4x MSAA + 16:1 AF / Enthusiast]

Mr. Lolman
2009-05-17, 19:45:20
Immer die selbe Leier...immer schön alles runterspielen ;)

Stimmt doch. Sieh dir das Video mal an. Da flimmerts generell, dass einem das Grauen kommt. Ich selbst bastle übrigens eifrig an einem Crysislevel. Je mehr Content desto mehr Flimmern. Wirklich Abhilfe schafft nur SSAA, und damit werden auch die Texturen glattgebügelt. Selbst EdgeAA@2 hat seine liebe Mühe, sieht aber noch halbwegs annehmbar aus.

Bis Crysis mal wirklich flimmerfrei spielbar sein wird ziehen sicher noch ein paar Jahre ins Land. (bis dahin ist dann auch mein Level fertig ;))

http://www.abload.de/thumb/000589nme.jpg (http://www.abload.de/image.php?img=000589nme.jpg)
(Hat aber noch kein Terrain AO (http://crymod.com/thread.php?postid=507250#post507250), weil meinem 32bit XP dafür der Speicher ausgeht.)

y33H@
2009-05-17, 19:51:53
Wie sagt Raff so gerne: "Content-Bitch" :D Ich versuch mich mal an nem 720p mit 4x4 SSAA.

Gast
2009-05-17, 19:55:47
Stimmt doch. Sieh dir das Video mal an. Da flimmerts generell, dass einem das Grauen kommt.

Darum geht es aber nicht. Sondern was flimmert weniger was je nach Game sehr deutliche Unterschiede ausmachen kann siehe die The Witcher Videos.

Jake Dunn
2009-05-17, 19:56:26
Nochmal:
Es sollte allen klar sein, dass ohne den Erfolg der HD4xxx Serie eine 280GTX heute noch deutlich mehr als 500€ kosten würde.
Das peilt der ja nicht :rolleyes: außerdem bezahlt er gerne die 500€ ;D

y33H@
2009-05-17, 20:00:40
Es sollte allen klar sein, dass ohne den Erfolg der HD4xxx Serie eine 280GTX heute noch deutlich mehr als 500€ kosten würde.Ohne die HD4k wäre die GTX280 auch ebenso ein Monster wie es die 8800GTX war bzw. ist.

Jake Dunn
2009-05-17, 20:03:32
@y33h@: Erst einmal danke für die Videos ;)

Leider kann man dank der generell flimmrigen Vegetation in Crysis keine Unterschiede erkennen. Andere Spiele sind dafür besser geeignet als Crysis (Warhead). Gothic 3, HL2, Chronicles of Riddick und Stalker sind meiner Meinung nach besser geeignet um die Unterscheide aufzudecken.

Klar warum nicht gleich Half Life1 ist ja auch aktuell :rolleyes:

Jake Dunn
2009-05-17, 20:05:30
Ohne die HD4k wäre die GTX280 auch ebenso ein Monster wie es die 8800GTX war bzw. ist.

Und ohne Nvidia und ATI wäre S3 u. Intel auch vorn :rolleyes: man...man...man

Dr. Cox
2009-05-17, 20:08:04
Kleiner Tipp: Schau auf den Boden links neben den Gleisen und nicht aufs Gemüse :rolleyes: Ist schließlich viel mehr Boden als irgendwas andres in der Szene zu sehen:


Was glaubst du wo ich hinschaue? Ganz sicher nicht in die Luft ;D

Habe allerdings zu meiner Schande, die Videos beim Abspielen nicht vergrößert :hammer:

Wenn ich sie vergrößere, sehe ich schon einen Unterschied, nur sind mir die Unterschiede zwischen HD4870 und GTX280 in anderen Spielen größer aufgefallen ;)


Klar warum nicht gleich Half Life1 ist ja auch aktuell :rolleyes:

Also wenn eine HD4870 in HL 1 flimmert, dann hat ATI noch ein weitaus größeres Problem, als bis jetzt bekannt ist...

Außerdem hat das mit aktuell oder nicht aktuell nichts zu tun. Ältere Spiele sind spielerisch meist besser als aktuelle. Was glaubst du was das für ein Trauerspiel war, als ich feststellen musste, dass meine HD4870 in Gothic 2 langsamer war als meine alte 7900GTX :udown:

Ob es an den Treibern oder den "verkrüppelten" TMUs lag weiß ich nicht, es ist jedoch ein Armutszeugnis für ATI!

IVN
2009-05-17, 20:11:04
Und ohne Nvidia und ATI wäre S3 u. Intel auch vorn :rolleyes: man...man...man
How about a nice big cup of "shut the fuck up"?

Oder mit anderen Worten: Wenn dich die AF-Disku nicht interessiert, schleich dich, statt nur rumzutrollen.

y33H@
2009-05-17, 20:11:40
@ Dr. Cox

Crysis war ja nur ein Beispiel. Ich könnte ja mal HL2 mit CM auspacken. Die Kieselsteintextur "liegt" AI ja ziemlich *g*

Vergrößern muss man aber nichts, die Unterschiede sind auch so da.
Und ohne Nvidia und ATI wäre S3 u. Intel auch vornLOL.

Jake Dunn
2009-05-17, 20:12:42
How about a nice big cup of "shut the fuck up"?

Oder mit anderen Worten: Wenn dich die AF-Disku nicht interessiert, schleich dich, statt nur rumzutrollen.

Die ebendso trollige Aussage von y33H@ hast Du wohl nicht gelesen oder verstanden? :|

y33H@
2009-05-17, 20:15:10
@ Mr. Lolman

Crysis mit 16:1 HQ-AF und 4x4 SSAA (http://www.megaupload.com/?d=QR61RRQR) - gerade im direkten Vergleich zu "banalem" 4x MSAA sehr eindrucksvoll, besonders die Vegetation.

Jake Dunn
2009-05-17, 20:17:40
@ Mr. Lolman

Crysis mit 16:1 HQ-AF und 4x4 SSAA (http://www.megaupload.com/?d=QR61RRQR) - gerade im direkten Vergleich zu "banalem" 4x MSAA sehr eindrucksvoll, besonders die Vegetation.

Welche Res. und wieviel FPS?

Dr. Cox
2009-05-17, 20:22:05
@ Dr. Cox
Die Kieselsteintextur "liegt" AI ja ziemlich *g*

Stimmt X-D


Vergrößern muss man aber nichts, die Unterschiede sind auch so da.


Bei mir kurioserweise nicht, kann vielleicht am Mediaplayer liegen, welcher bei mir das Video ohne Vergrößerung, in der Größe einer Zigarettenschachtel startet :upara:

LovesuckZ
2009-05-17, 20:24:00
Das peilt der ja nicht :rolleyes: außerdem bezahlt er gerne die 500€ ;D

Ich habe die 600€ für die 8800GTX nicht bereuht. Was sagen eigentlich die r600 Käufer? :biggrin:

Dr. Cox
2009-05-17, 20:25:47
Was sagen eigentlich die r600 Käufer? :biggrin:

Die freuen sich über einen "kostenlos" warmen Arsch im Winter :ulol4:

y33H@
2009-05-17, 20:26:40
@ Dr. Cox

Der VLC öffnet die Videos in der korrekten Auflösung, probier das mal. Kannst auch zwei markieren und per Enter beide starten und dann immer hin und her switchen. So sieht man die Unterschiede sehr gut.

@ Jake Dunn

Wie gehabt 1.280 x 720 mit "Enthusiast"-Details @ DX9. VRAM und Fps siehe Screenshot. Ist eine GTX280 unter WinXP x86. Vll ists unter Vista flotter, kA - ich probiers mal.

http://www.abload.de/thumb/2009-05-17_202328uafm.png (http://www.abload.de/image.php?img=2009-05-17_202328uafm.png)

Und bevor jetzt wieder kommt "bla nicht flüssig bla" - mit 3x3 ists mit einer geOCten GTX285 fast schon passabel spielbar. SLI-Nutzer kommen ergo in den Genuss.

Dr. Cox
2009-05-17, 20:28:54
Was ist bei dir "fast schon passabel spielbar", 20 Frames?