PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Custom Resolutions / Benutzerdefinierte Auflösungen


tombman
2008-06-09, 11:38:57
Achtung: nicht ich habe diesen thread eröffnet, sondern ein mod durch einen split aus einem anderen thread!

Bei nvidia sind die Profile oft schon vor dem launch des games da ;)

Und was ist jetzt mit den custom resolutions? Gehen die jetzt oder nicht?

gamingforce
2008-06-09, 12:04:08
Bei nvidia sind die Profile oft schon vor dem launch des games da ;)

Und was ist jetzt mit den custom resolutions? Gehen die jetzt oder nicht?

ja warum wohl haben die NV Treiber das schon vorher?
Weil Nvidia die Kohle dazu hat (A/A halt nicht so im mom) und zu 80% dann ihr Logo im Spiel auftauchen tut.

wie meinst du das mit "custom resolutions"?
Ich kann das alles einstellen:

http://www.abload.de/img/1293q3.jpg (http://www.abload.de/image.php?img=1293q3.jpg)

AckytheG
2008-06-09, 13:17:32
...Und was ist jetzt mit den custom resolutions? Gehen die jetzt oder nicht?
Ich benutze nach wie vor Deine "DalNonStandardModes"-Methode.
Im Treiber hat sich da bisher leider nichts getan... :(

tombman
2008-06-09, 13:23:15
ja warum wohl haben die NV Treiber das schon vorher?
Weil Nvidia die Kohle dazu hat (A/A halt nicht so im mom) und zu 80% dann ihr Logo im Spiel auftauchen tut.
..und das ist GUT so ;)

wie meinst du das mit "custom resolutions"?

Custom bedeutet soviel wie: frei wählbar/kundenspezifisch, auch welche die NICHT gelistet sind.
Sprich, du willst eine NEUE Auflösung haben, die NICHT gelistet ist, und DEFINIERST einfach eine neue DAZU.

Ich will zb 1600x1000 haben, oder 2304x1440. (alles 16:10). Bei Nvidia gehe ich ins CP und füge sie dazu- BAM-> fertig.

Bei ATI mußt in die registry gehen, und dort Werte verändern (dalnonstandardmodes bla blubb)

In deiner Auflistung sehe ich nicht mal die WICHTIGE 1280x800 Auflösung!

Daredevil
2008-06-09, 14:54:47
In deiner Auflistung sehe ich nicht mal die WICHTIGE 1280x800 Auflösung!
http://img3.imagebanana.com/img/w3gyh3ah/auflsung.jpg :whistle:

Kann man nicht einfach per Powerstrip das ganze machen?
Gab hier dochmal wen der die Maske immer überfahren hat mit ner 1900xt, also geht das doch auch bei ATI.

tombman
2008-06-09, 15:18:26
http://img3.imagebanana.com/img/w3gyh3ah/auflsung.jpg :whistle:.
Dann haste Glück gehabt und dein Monitor hat soviele Auflösungen ANGEMELDET. Wenn das nicht passiert-> viel Spaß in der ATI registry ;)

gamingforce
2008-06-09, 20:51:29
Custom bedeutet soviel wie: frei wählbar/kundenspezifisch, auch welche die NICHT gelistet sind.
Sprich, du willst eine NEUE Auflösung haben, die NICHT gelistet ist, und DEFINIERST einfach eine neue DAZU.

Ich will zb 1600x1000 haben, oder 2304x1440. (alles 16:10). Bei Nvidia gehe ich ins CP und füge sie dazu- BAM-> fertig.

Bei ATI mußt in die registry gehen, und dort Werte verändern (dalnonstandardmodes bla blubb)

In deiner Auflistung sehe ich nicht mal die WICHTIGE 1280x800 Auflösung!

wer bitte will solche Auflösungen die total scheisse aussehen ;)
Wenn du so ein verkrüppeltes Bild schön findest wie 1600x1000 dann bitte schön, ich nicht und brauchen tut das auch kein Schwanz.

2304x1440 ich lach mich kaputt Man, was soll den das sein ;D;D;D;D

Achja, warst du nicht einer der weniger die noch CRT nutzen ?:ulol3:

Ich denk du hast soviel Kohle, leg dir mal nen anständigen zu nicht son 40 € Eba scheiss wo man Augekrebs bekommt vor Flimmern :biggrin:

Dell UltraSharp 3008WFP kann ich dir sehr empfehlen:wink:

Oder gleich 2, ups Highend SLI hats immernoch net geschissen bekommen mit Multi-Monitoring, ;D

tombman
2008-06-09, 21:05:44
wer bitte will solche Auflösungen die total scheisse aussehen ;)
Wenn du so ein verkrüppeltes Bild schön findest wie 1600x1000 dann bitte schön, ich nicht und brauchen tut das auch kein Schwanz.
Wie kann eine Auflösung scheisse oder verkrüppelt aussehen? Vorallem mit gleichem AR? Weißt du überhaupt wovon du redest?

2304x1440 ich lach mich kaputt Man, was soll den das sein ;D;D;D;D
Offenbar nicht. 2304x1440 liegt zwischen 2560x1600 und 1920x1200.
Klar, daß du sowas nicht kennst, ATI liefert ja nicht mal genug fps für 1920x1200 ;D

Achja, warst du nicht einer der weniger die noch CRT nutzen ?:ulol3:
ja, aus gutem Grund. Schon mal pixperan Verfolgungstest auf der höchsten Stufe 30 gepackt? Ich schon :cool:

Ich denk du hast soviel Kohle, leg dir mal nen anständigen zu nicht son 40 € Eba scheiss wo man Augekrebs bekommt vor Flimmern :biggrin:
Ich habe allein für nen 19" Wide 200€ gezahlt. Und ich habe nen 720p beamer.
Und bald habe ich einen 40/42" LCD TV als Monitor ;)

Tatsache ist, es gibt KEINE CUSTOM RESOLUTIONS bei ATI. Und damit mußt ganz einfach leben.

gamingforce
2008-06-09, 21:08:42
toll für dich wenn du ihn bald hast (40" ) , biste ja auch bald beim Standard;D




Tatsache ist, es gibt KEINE CUSTOM RESOLUTIONS bei ATI. Und damit mußt ganz einfach leben.

DU musst damit leben, du bist auch der einzige auf der Welt der sowas als Argument nutzt, FAZIT: brauch kein MENSCH wir leben in 2008 nichtmehr 1999 wo flimmer CRT am Start war.

tombman
2008-06-09, 21:10:22
toll für dich wenn du ihn bald hast (40" ) , biste ja auch bald beim Standard;D
Und du hast keine custom resolutions, ebenfalls Standard, nur eben nicht bei ATI. Und das kann man auch nicht nachkaufen, gelle ;)


DU musst damit leben, du bist auch der einzige auf der Welt der sowas als Argument nutzt, FAZIT: brauch kein MENSCH wir leben in 2008 nichtmehr 1999 wo flimmer CRT am Start war.
Bei mir flimmert gar nix.
Und 1280x800 nicht mal in der Tabelle haben aber groß rumgrölen...

AckytheG
2008-06-09, 21:17:50
wer bitte will solche Auflösungen die total scheisse aussehen...
Es gibt auch noch Anwender wie mich, die einen 22-Zoll-CRT mit 1400x1050 betreiben wollen.
Bei nVidia bekommt man diese Auflösung schon vorkonfiguriert im Treiber.
Bei ATi kann man lange danach suchen.

Mir geht's inzwischen gehörig auf die Nerven diese Registry-Fummelei nach jedem Treiberupdate wiederholen zu dürfen.

tombman
2008-06-09, 21:21:40
Ich nutze custom re. auch manchmal dazu cpu Limits aufzuspüren, dabei aber widescreen beizubehalten. Die niedrigste Auflösung ist ja meistens 640x480, also 4:3. Mit custom re. stelle ich einfach 640x400 ein, und schon bin ich wieder bei 16:10-> und damit bleiben die Polygone/frame gleich ;)

dr_mordio
2008-06-09, 21:22:54
also hier unter vista habe ich solche auflösungen.
da sind dan auch 1280x720, x768, x800, x900, x960, x1024 dabei
oder auch deine 1600x1000 ebenso wie 1776x1000
das reicht schon um einige bereiche abzudecken.

habe einen 16zu10 TFT under Vista.
der catalyst unterscheidet sich eh in einigen kleinigkeiten zwischen XP und Vista

MfG
Alex

tombman
2008-06-09, 21:24:13
also hier unter vista habe ich solche auflösungen.
da sind dan auch 1280x720, x768, x800, x900, x960, x1024 dabei
oder auch deine 1600x1000 ebenso wie 1776x1000
das reicht schon um einige bereiche abzudecken.

habe einen 16zu10 TFT under Vista.
der catalyst unterscheidet sich eh in einigen kleinigkeiten zwischen XP und Vista

MfG
Alex
Kommt halt immer drauf an was der Bildschirm meldet. Wenn man Pech hat, ist nur das nötigste dabei und gerade die Lieblingsauflösung nicht...

Das Auge
2008-06-09, 22:04:53
DU musst damit leben, du bist auch der einzige auf der Welt der sowas als Argument nutzt, FAZIT: brauch kein MENSCH wir leben in 2008 nichtmehr 1999 wo flimmer CRT am Start war.

Menschen nicht, Götter schon.
(OMG, ich hab meinen Kopf in den Arsch von Tombman gesteckt, schnell wieder rausziehen :redface:)

Dennoch entscheidest nicht DU, wer was braucht und was Standard ist...

anddill
2008-06-09, 23:43:19
gamingforce, jetzt komm mal langsam wieder runter! Jeder darf sich Monitore kaufen wie er will, und jeder darf sich seine Auflösungen einstellen wie er will!
1400x1050 ist die Standardauflösung für billige 20" TFT-Monitore (CRT = Pech :( ), und funzt, sobald der ATI-Treiber das per DDC mitbekommt.
Aber es ist trotzdem ein Mangel, daß man die Auflösung bei ATI nicht frei einstellen kann. Meinen HTPC betreibe ich z.B. an meinem guten Röhrenfernseher in 1024x576 (16:9, Wide-Pal), und ich hab schon seit Monaten kein Treiberupdate gemacht, weil ich keinen Bock auf das Gepfriemel hab, diese Auflösung dem Treiber wieder aufzuzwingen.

So, und nachdem ich jetzt auch noch meinen oT-Senf dazugegeben habe, könnte man ja langsam mal zum eigentlichen Thema zurückkommen.

gamingforce
2008-06-10, 07:06:15
1400x1050 gibts doch kann ich in jedem Spiel wählen , aber sowas wie 1600x1000 oder 2304x1440 habe ich noch nie gesehen weder bei nem 22" CRT vor 6 Jahren noch heute bei den 2 TFTs. (30 " DELL und 47" Toshiba LCD TV)

wenn ich schon ander Auflösungen wie 1920x1080 auf dem LCD einstelle sieht das Bild total Kacke aus, bei den NVs wird as Bild nicht auf den ganzen Monitor Scaliert die ATI Treiber machen das Bild auf den ganzen Monitor also da wird 1600x1200 auf nen 30" Wide geklatscht das sieht behämmert aus, und 1600x1000 will ich mir garnicht vorstellen :rolleyes:

tombman
2008-06-10, 16:05:16
wenn ich schon ander Auflösungen wie 1920x1080 auf dem LCD einstelle sieht das Bild total Kacke aus, bei den NVs wird as Bild nicht auf den ganzen Monitor Scaliert die ATI Treiber machen das Bild auf den ganzen Monitor
Das kann zwei Gründe haben, und bei keinem davon trifft Nvidia die Schuld
1.) Dein LCD ist zu unfähig mit Nvidia umzugehen. Ist übrigens KEIN Wunder, LCDs sind da SEHR heikel, da sollte man VOR dem Kauf testen wie LCDs mit PCs zusammenarbeiten. Manche LCDs unterscheiden sogar auf welchem HDMI EIngang sie ein PC Signal bekommen, manche wollen kein ATI, manche kein Nvidia, manche suchen sich sogar aus, welche Graka sie wollen oder nicht.
Das hast du vielleicht nicht gewußt, aber die Schuld liegt NICHT bei Nvidia.
2.) Du kannst mit dem Nvidia CP nicht umgehen.
==

also da wird 1600x1200 auf nen 30" Wide geklatscht das sieht behämmert aus, und 1600x1000 will ich mir garnicht vorstellen :rolleyes:

Du weißt eben zuwenig und ziehst falsche Schlüsse, ein häufiges Problem ;)
NATÜRLICH sieht 1600x1200 @ 30" Wide auf VOLLBILD verzerrt aus, weil eine 4:3 Auflösung auf einem 16:10 Monitor im VOLLBILD IMMER schlecht aussieht. Das geht gar nicht anders, hat aber ebenfalls NIX mit Nvidia oder ATI zu tun.
Ich rechne dir das mal mathematisch um, damit du es verstehst:
16:10 = 4:2.5. 2.5 auf der Y-Achse ist aber KLEINER als die 3 bei 4:3. Dh, 4:2.5 ist BREITER als 4:3. Es ist daher UNMÖGLICH ein 4:3 Bild wie 1600x1200 ohne Verzerrung auf ein 16:10 = 4:2.5 Bild zu QUETSCHEN.

1600x1000 ist aber nicht "schlimmer" als 1600x1200, so wie du dir das vorstellst, weil 1600x1000 EBENFALLS 16:10 ist, GENAU WIE DEIN 30" TFT.
Das Bild wird daher PERFEKT im VOLLBILD hineinpassen, OHNE VERZERRUNG.

Ich hoffe, du hast was gelernt...

@Mod: sorry für OT, aber sowas kann ich nicht stehen lassen, und vielleicht hilfts ja auch anderen...

puntarenas
2008-06-10, 16:50:52
Split aus Crossfire (MGPU) wirklich so schlecht? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417785)
Tobt euch aus. ;)

AckytheG
2008-06-10, 17:56:37
1400x1050 gibts doch kann ich in jedem Spiel wählen...
Die Auflösung gibt's nur, wenn der Monitor sie dem Treiber bei der Installation meldet.
Macht er das nicht, wird sie auch nicht angeboten.
Das heißt aber noch lange nicht, dass der Monitor sie nicht darstellen könnte... ...aber sowas wie 1600x1000 oder 2304x1440 habe ich noch nie gesehen weder bei nem 22" CRT vor 6 Jahren noch heute bei den 2 TFT's...
Ein CRT kann in bestimmten Bereichen quasi jede beliebige Auflösung darstellen, die innerhalb seiner maximalen Zeilenfrequenz liegt.
CRT's müssen zwar immer interpolieren, dafür können sie's aber besser als jeder TFT.
Ich betreibe meinen Moni je nach Laune mit 1400x1050 oder 1500x1125.
Das sind beides "krumme" Auflösungen, die mir der Treiber nicht anbietet und trotzdem sehen sie genauso gut/schlecht aus, wie andere 4:3er Auflösungen.

Bei TFT's sieht die Sache anders aus.
Da würde ich nach Möglichkeit immer die native Auflösung wählen...

PatkIllA
2008-06-10, 18:29:21
Geht doch mit PowerStrip bei ATI Karten.
Die sind wenigstens so nett und veröffentlichen die Specs.

Wer ruckelfrei ohne Tonzerhackstückelung am PC Videos gucken will braucht das übrigens auch.
Weniger der Auflösung wegen, sondern um die perfekte Frequenz zur Soundkarte zu finden.